numero uno | 2008
MATEMATICA E IMPRESA
MATEMATICA E IMPRESA intende evidenziare il potenziale applicativo della matematica attraverso la presentazione di significative storie di successo nate dalla collaborazione tra soggetti universitari e centri di ricerca impegnati nel campo delle applicazioni della matematica, e soggetti pubblici e privati attivi nella realtà economica ed industriale. L’intento è quello di valorizzare le ricerche effettuate e i risultati ottenuti in diversi contesti di una moderna economia avanzata, quale quella italiana, presentare le opportunità offerte dalle metodologie di più recente sviluppo, e individuare possibili scenari applicativi. La rivista ha carattere multi- ed inter-disciplinare, e si rivolge ad un ampio spettro di saperi: oltre alla matematica, al calcolo scentifico e all’informatica, include le loro intersezioni con l’economia e le scienze sociali, i beni culturali ed ambientali, la società e la rete dei servizi, e le scienze della vita. Pubblicata anche in forma elettronica ad accesso aperto, questa rivista si propone di offrire ai suoi lettori una panoramica aggiornata sul ruolo e sulle interazioni tra la matematica e le altre discipline scientifiche e tecniche e di apportare, attraverso la sua molteplicità di prospettive, un contributo programmatico al dibattito attualmente in corso sugli scenari, presenti e futuri, dell’innovazione nel nostro paese. Mi fa piacere ricordare che la prima idea di questa rivista è nata da appassionate discussioni avute con Fausto Saleri, al quale questo progetto è dedicato. Giorgio Fotia Editor in Chief
Immagine di copertina: superficie di Dini a curvatura costante negativa
INDICE
industria Modelli matematici per ridurre gli sfridi da operazioni di taglio e razionalizzare i formati nell’industria del vetro.............. 6 Ottimizzazione di profili palari per giranti di ventilatori industriali ................................................................................... 7 Ricostruzione geometrica e analisi dell’errore di forma di una camma ......................................................................... 8 Ottimizzazione e progettazione automatica di circuiti e dispositivi per la micro- e nano-elettronica .............................. 9 Problemi di taglio ottimo nell’industria del vetro . ....................................................................................................... 10 Studio di algoritmi genetici per l’analisi della corrosione su strutture di grandi dimensioni . ........................................ 11 Modellizzazione di glow discharge in camera di deposizione PVD (Physical Vapour Deposition) ................................ 12 Simulazione aereodinamica di profilo bidimensionale di un aereo .............................................................................. 13
energia e ambiente La vendita al dettaglio del gas nel mercato liberalizzato: un modello di ottimizzazione stocastica .............................. 16 Ottimizzazione della raccolta dei Rifiuti di Apparecchiature Elettriche ed Elettroniche (RAEE) . ................................... 17 Propagazione di fiamma turbolenta .......................................................................................................................... 18 Prezzi dell’energia e contratti sull’energia .................................................................................................................. 19 Un modello per la personalizzazione delle tariffe nell’energia elettrica ........................................................................ 20 Ottimizzazione del flusso di smaltimento dei rifiuti ..................................................................................................... 21
salute Tecniche di Data Mining Logico per l’analisi di microarray di topi transgenici ............................................................. 24 Ottimizzazione della procedura di acquisizione di immagini whole-body in risonanza magnetica: aspetti software e hardware ................................................................................................................... 25 Tempi di intervento nell’infarto miocardico acuto con sopraslivellamento del tratto ST .............................................. 26 Un metodo computazionale per lo screening in silico di siti di transglutaminazione in proteine terapeutiche .............. 27
società Valutazione di scenari distributivi ............................................................................................................................... 30 La sfida delle competenze nel Risk Management per la misura dei rischi finanziari..................................................... 31 La teoria dei grafi e il PERT per l’analisi e la simulazione dei sistemi informatici ......................................................... 32 Analisi dell’asset allocation strategica per la definizione delle linee d’investimento dei fondi pensione . ...................... 33 La modellistica matematica per la selezione dei gestori valutari dei fondi pensione (currency overlay management) .. 34 L’ottimizzazione della pianificazione turni per il trasporto pubblico . ........................................................................... 35 Ottimizzazione dei turni dei veicoli e del personale viaggiante nel settore del trasporto pubblico locale ..................... 36 Ottimizzazione delle operazioni in un terminale marittimo di trasbordo contenitori ..................................................... 37 Modelli di pricing del rischio di credito: la generazione post-subprime . ..................................................................... 38 Modellazione 3D di monumenti lapidei . .................................................................................................................... 39 Controllo del traffico in tempo reale in stazioni ferroviarie e metropolitane ................................................................. 40 Classificazione automatica di pannelli in pietra .......................................................................................................... 41 Strumenti innovativi del calcolo attuariale per la valutazione e la gestione dei fondi pensione .................................... 42 Modelli fluidodinamici per il traffico urbano . .............................................................................................................. 43 Uno schedulatore multimissione per la costellazione GALILEO ................................................................................. 44 Simulazione e ottimizzazione a supporto delle decisioni operative e strategiche di un terminal marittimo .................. 45 Ottimizzazione per l’implementazione dello street-turn: il caso del Gruppo Grendi .................................................... 46
MATEMATICA E IMPRESA Numero uno | 2008
Editor Giorgio Fotia | CRS4 Comitato Scientifico Giovanni Felici | CNR-IASI Giorgio Fotia | CRS4 Franco Gori | Università di Firenze
Redazione e coordinamento editoriale Cristina Marras | www.cristinamarras.eu Progetto grafico e impaginazione Francesco Piras | www.francescopiras.eu Fotografie copertina, pagine 5, 15, 23, 29 Francesco Piras I modelli di superfici sono stati realizzati da Gregorio Franzoni (www.mathshells.com) in collaborazione con il gruppo di Geometria Riemanniana dell’Università di Cagliari, coordinato dal prof. Renzo Caddeo. Tutti i modelli sono stati stampati con una stampante 3D modello Z-Corp Z310 Plus, con tecnologia a getto di colla su gesso.
Stampa Nuove Grafiche Puddu, Ortacesus (CA) | www.nuovegrafichepuddu.it Periodico biennale Numero uno | 2008 Versione elettronica http://www.fimaonline.it/matematicaeimpresa/index.php Pubblicazione realizzata con il contributo del Ministero dell’Università e della Ricerca, progetto Professione: matematico industriale.
Le storie di successo di questo numero sono presentate, all’interno di ogni sezione, in ordine alfabetico in base al nome del contatto principale. I testi e le immagini sono pubblicati nella versione fornita dagli autori
MATEMATICA E IMPRESA
La FIMA, Federazione Italiana di Matematica Applicata, è nata nel 2004, grazie alla collaborazione di tre associazioni “storiche”: AIRO, AMASES e SIMAI, con lo scopo di sostenere le attività di ricerca e di collaborazione scientifica in tutti quei settori dove l’elaborazione di opportuni modelli matematici assolve un ruolo decisivo per una migliore comprensione dei problemi studiati e la definizione di loro possibili soluzioni. A questo fine la FIMA favorisce lo scambio di informazioni e la partecipazione a progetti comuni tra istituti universitari e centri di ricerca, che operano nel campo delle applicazioni della matematica, e soggetti pubblici e privati della realtà economica ed industriale, promuovendo parallelamente la diffusione e la conoscenza di strumenti, metodi e risultati che a questo tipo di interazione sono connessi. In tale ottica, questo numero di Matematica e Impresa, della cui pubblicazione la FIMA si è fatta carico, riprende una iniziativa sviluppata con successo nel 2006 dalla sola SIMAI, Società Italiana di Matematica Applicata e Industriale, ed ha l’ambizione di essere il primo di una serie di quaderni destinati a mettere in luce un ampio spettro di problemi - emersi naturalmente nei diversi contesti della realtà sociale e industriale di una moderna economia avanzata, quale continua ad essere quella italiana - la cui riformulazione in linguaggio matematico si è dimostrata particolarmente efficace. Di fatto, attraverso la produzione di una collezione di singole schede, raccolte in quattro distinte aree tematiche, industria, energia e ambiente, salute, società e destinate ciascuna a descrivere una “storia di successo”- dove l’analisi formale di uno specifico problema ha consentito di proporne una soluzione efficiente, contribuendo per altro, in alcuni casi, ad aprire nuovi e promettenti scenari di innovazione tecnologica - si è inteso illustrare concretamente la realtà di un vasto lavoro di ricerca, dall’opinione pubblica pressoché totalmente ignorato, in cui la matematica e le sue applicazioni assolvono un ruolo decisivo nell’affrontare e nel risolvere questioni tecniche particolarmente complesse, aventi origine in ambiti e settori di indagine i più diversi. Con questo lavoro la FIMA intende rivolgersi, inoltre, ai molti giovani che devono ancora definire il campo della propria formazione universitaria, e sono genericamente interessati a studi di contenuto scientifico. Per tutti loro, l’ampio spettro di applicazioni matematiche “in atto” documentate dal nostro quaderno potrà eventualmente costituire un forte incentivo ad orientare la propria scelta verso un’area, come quella della matematica applicata, tanto attiva e promettente, quanto non ancora sufficientemente valorizzata. Franco Gori Università di Firenze Presidente Operativo FIMA Firenze, 4 Agosto 2008
Bottiglia di Klein
industria
industria
Pilkington Italia S.p.A. | M. Michetti Dipartimento di Informatica, Università degli Studi dell’Aquila | C. Arbib Dipartimento di Ingegneria Informatica, Gestionale e dell’Automazione, Università Politecnica delle Marche | F. Marinelli Taiprora S.r.l. | F. Alfieri
Modelli matematici per ridurre gli sfridi da operazioni di taglio e razionalizzare i formati nell’industria del vetro Questo lavoro, basato su ricerche effettuate presso un’azienda di rilievo internazionale, testimonia i benefici derivati dall’adozione di modelli di ottimizzazione per ridurre il costo di produzioni industriali con cospicuo taglio di materiale. Pilkington (http://www.pilkington.com) è uno dei più importanti produttori mondiali di vetro piano. Con un’area di 800.000 metri quadrati e circa 2.000 addetti, l’impianto di San Salvo (Chieti) produce componenti automobilistici in cristallo di sicurezza con volumi di circa 24.300.000 pezzi annui (dati 2004) e ospita la European Division of Research on Automotive Engineering. La fabbricazione procede dai componenti base fino al prodotto finito è divisa in tre processi base: fusione, taglio, shaping. Il primo processo è condotto in campagne periodiche
con produzione continuativa di vetro di determinate tipologie chimico-fisiche. Il set-up richiesto per cambiare tipologia dura da 2,5 a 13 giorni, e il costo economico che ne consegue impone un’adeguata tempificazione delle campagne (da 0,5 a 2 mesi). Poiché le richieste quotidiane del mercato si riferiscono a tipologie di vetro diverse, il processo di taglio è organizzato in due fasi mantenute separate da un magazzino di grandi dimensioni: Fase I dal nastro di pasta vetrosa vengono tagliate, a raffreddamento compiuto, grandi lastre rettangolari che si inviano al magazzino; Fase II dal magazzino si prelevano grandi lastre di tipi diversi di vetro per ritagliarle secondo domanda. Perdite di materiale per sfrido hanno
luogo in entrambe le fasi (Figura 1), rappresentano circa il 30% del totale e sono le sole che possono essere significativamente ridotte da interventi di pianificazione del lavoro. Diversamente dai classici approcci di cutting stock, l’esigenza di razionalizzare la produzione di grandi formati riducendone il numero conduce a un modello nel quale occorre prendere due decisioni simultanee: »»
produrre un insieme conveniente ma limitato di grandi formati
»»
decidere da quante lastre di ciascun grande formato ricavare ciascun lotto di pezzi finiti
in modo da soddisfare la domanda pianificata, mantenere la sovraproduzione totale sotto una soglia data e minimizzare gli sfridi di lavorazione. Il modello, di notevole complessità, è efficacemente ridotto a un problema di p-mediana che, pur difficile, può essere più agevolmente risolto tramite branch-and-bound. L’algoritmo sviluppato consente di approssimare la soluzione ottima con precisione inversamente proporzionale alla domanda del pezzo meno richiesto (vd. C. Arbib, F. Marinelli, Exact and Asymptotically Exact Solutions for a Class of Assortment Problems, INFORMS J. on Comp., in stampa). In pratica, limitando i grandi formati a un numero compreso tra 7 e 11, si ottengono riduzioni degli scarti di circa il 70% rispetto alla metodologia precedentemente attuata (circa 80.000 m2 di vetro risparmiati in 10 campagne).
Figura 1. Scarti prodotti durante le fasi di taglio
Contatto Claudio Arbib | arbib@di.univaq.it
8 | MATEMATICA E IMPRESA | numero uno 2008
AIRO
industria
Research & Development Department, Riello Burners, San Pietro di Legnago (VR) | G. Argentini, G. De Luca Dipartimento di Ingegneria Meccanica, Università di Padova | G. Ardizzon
Ottimizzazione di profili palari per giranti di ventilatori industriali
Il lavoro, inizialmente commissionato al Gruppo Macchine a Fluido del Dipartimento di Ingegneria Meccanica dell’Università di Padova, ha avuto come scopo lo studio di un profilo palare per giranti da usare in applicazioni industriali, quali bruciatori di potenza (5 Mwatt o più), ottimizzato soprattutto per la riduzione dell’emissione acustica senza penalizzazione delle prestazioni in termini di portata aria garantita. Grazie a simulazioni numeriche appositamente predisposte per il caso in esame, i risultati ottenuti dal gruppo diretto dal Prof. Ardizzon hanno permesso di evidenziare i limiti del disegno palare della vecchia soluzione progettuale da sostituire, e di indicare possibili miglioramenti per rispettare i requisiti dello studio commissionato. In particolare, è emersa l’utilità di studiare una opportuna curvatura delle pale, ricercandone l’inclinazione ottimale
alla base di attacco col flusso d’aria entrante, e la forma geometrica migliore a garanzia del mantenimento di una portata minima. Si è quindi studiato un modello matematico che potesse determinare il corretto profilo palare. Allo scopo, considerato, almeno per il caso 2D, un sistema di riferimento cartesiano X, Y solidale con la pala, si è assunto che il profilo da determinare fosse schematizzabile tramite una curva regolare X = F(Y). L’ipotesi fondamentale usata, suffragata dalle simulazione numeriche e da prove sperimentali, è stata che il rumore acustico prodotto dalla movimentazione dell’aria da parte della girante viene minimizzato quando la base della pala incontra il flusso d’aria entrante secondo un angolo di zero gradi, quindi in condizione di tangenza col vettore velocità. Usando considerazioni di natura fisica, quali il teorema di Bernoulli, e usuali
Figura 1
tecniche di geometria differenziale delle curve, si è pervenuti (vd. G. Argentini, Searching optimal shapes for blades of a fan, www.arxiv.org, arxXiv:0803.3738, 2008) ad una equazione differenziale non lineare che accoppia la forma palare incognita F(Y) e la legge del moto Y(t) che descrive l’evoluzione temporale del flusso d’aria lungo la tangente alla pala, e quindi, in modo approssimato, lungo il canale palare:
Questa equazione, congiunta con opportune condizioni al contorno, p.e. il valore F(0) alla base della pala, può essere usata per il calcolo della migliore curvatura a fronte di una portata finale nota, oppure, viceversa, per il calcolo della portata ottenibile mediante una forma palare prefissata.
Figura 2
Figura 1. Esempio di geometria palare ottimizzata allo scopo di ottenere un flusso uniforme in uscita dal ventilatore (Università di Padova, simulazione CFD) Figura 2. Esempio di pala con profilo parabolico ottimizzato ottenuto da modello matematico (Riello Burners)
Contatto Gianluca Argentini | gianluca.argentini@rielloburners.com
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 9
industria
AMETEK, Taylor Hobson Italia | M. Pugliese MOX (Modellistica e Calcolo Scientifico), Dipartimento di Matematica, Politecnico di Milano | A. Abbà, L. Formaggia, E. Miglio
Ricostruzione geometrica e analisi dell’errore di forma di una camma
I componenti dei motori moderni di auto e motoveicoli devono essere caratterizzati da una elevata accuratezza costruttiva; ciò è particolarmente vero per le camme che essendo responsabili dell’azionamento delle valvole dei motori a scoppio influenzano direttamente le prestazioni del motore e l’efficienza della combustione (fattore importante per limitare le emissioni inquinanti). Dopo la realizzazione di una camma è necessario, quindi, procedere all’ispezione del pezzo al fine di garantire che esso sia conforme alle specifiche di progetto. è inoltre importante valutare come l’usura influenzi l’operatività. Per questi scopi vengono utilizzate macchine di misura che consentono di acquisire una serie di punti che definisce il profilo della camma. Tali punti sono naturalmente affetti da errori di misura, quindi prima di procedere
Figura 1
alla ricostruzione della forma della camma è necessario applicare filtri adeguati: sono stati quindi sviluppati filtri Gaussiani, di tipo spline e di tipo morfologico. Poiché le macchine di misura utilizzano un tastatore (sferico o quasi piatto) è stato necessario introdurre una procedura matematica per la compensazione dei dati per tenere conto delle dimensioni del tastatore. A valle della ricostruzione geometrica è stato sviluppato un metodo per determinare il grafico dell’alzata generata dalla camma; mediante tecniche di differenziazione numerica è possibile inoltre ottenere informazioni relative alla velocità ed accelerazione di alzata, con i relativi eventuali errori rispetto al nominale. Una ulteriore caratteristica geometrica importante di una camma è il cerchio base che costituisce
l’elemento principale da cui parte il progetto. A partire dai dati misurati e filtrati è stato sviluppato un algoritmo, basato sul metodo dei minimi quadrati, per il riconoscimento automatico del cerchio base. Oltre alle procedure per la valutazione dell’errore di forma cioè differenza tra camma misurata e nominale, sono stati considerati gli errori di eccentricità e di disassamento: nei motori più camme di forma diversa sono montate su un unico albero e il corretto allineamento di quest’ultime è essenziale per il loro funzionamento ottimale. è stato quindi necessario sviluppare una procedura, basata ancora sui minimi quadrati, per determinare l’asse dell’albero a camme a partire dalle misure effettuate. Il prodotto finale del progetto è un software originale che a partire dai dati misurati consente di effettuare tutte le analisi citate.
Figura 2
Figura 1. Rappresentazione polare dell’errore di forma (in blu camma nominale, in rosso range di tolleranza) Figura 2. Rappresentazione lineare dell’errore di forma e range di tolleranza (linee rosse)
http://mox.polimi.it/it/progetti/ametek/ Contatto Edie Miglio | edie.miglio@polimi.it
10 | MATEMATICA E IMPRESA | numero uno 2008
SIMAI
industria
ST Microelectronics, Catania Dipartimento di Matematica e Informatica, Università di Catania | G. Nicosia, G. Stracquadanio, P. Conca, M. Castrogiovanni, G. Narzisi, R. Rascunà, E. Sciacca, M. Pavone
Ottimizzazione e progettazione automatica di circuiti e dispositivi per la micro- e nano-elettronica Le attività che interessano il progetto di ricerca, per le quali il responsabile scientifico è il prof. Giuseppe Nicosia del Dipartimento di Matematica e Informatica dell’Università di Catania, consistono nella progettazione, sviluppo e validazione di una nuova classe di algoritmi di ottimizzazione multi-obiettivo come supporto alla progettazione di dispositivi e circuiti integrati. Il processo produttivo di un circuito integrato odierno richiede parecchie fasi, dall’ideazione alla disponibilità del pezzo finito e funzionante (Figura 1). Queste fasi comprendono la progettazione, la realizzazione e il testing. Due fattori critici nella produzione di un circuito integrato sono: i costi e il time-tomarket, ovvero il tempo compreso tra l’ideazione e l’arrivo sul mercato. Inoltre, la lunga fase di progettazione, ottimizzazione e fabbricazione implica dei costi ammortizzabili solo nel caso di elevati volumi produttivi. La progettazione, in conseguenza della crescente integrazione e complessità di funzioni dei dispositivi a semiconduttore, richiede l’utilizzo
di sofisticati software di simulazione. Questi software costituiscono una gerarchia che inizia con la simulazione di processo, prosegue con la simulazione dei dispositivi e culmina con la completa simulazione circuitale. Lo scopo fondamentale della ricerca consiste nello sviluppo e validazione di nuovi algoritmi di ottimizzazione in grado di pilotare la scelta di soluzioni progettuali (circuiti o dispositivi) applicabili nei comparti industriali ad elevata complessità di prodotto. Tali algoritmi tengono conto delle effettive missioni dei prodotti, in particolare dell’area microelettronica, utilizzando i vari simulatori dei complessi fenomeni fisici per la ricerca delle soluzioni ammissibili e Pareto ottimali (Figura 2). In definitiva, si è realizzata una nuova classe di algoritmi per la progettazione e l’ottimizzazione multi-obiettivo di dispositivi e circuiti integrati in grado di: 1.
Figura 1
minimizzare il numero di valutazioni delle funzioni da ottimizzare e le chiamate ai simulatori;
2.
garantire la correttezza dei risultati delle grandezze in gioco ottenute tramite validazioni sperimentali;
3.
massimizzare la robustezza e la resa del prodotto;
4.
determinare i valori Pareto ottimali dei componenti elettronici;
5.
ottimizzare le funzioni obiettivo rispettando i vincoli e le specifiche di progetto;
6.
minimizzare l’area (silicio o plastic) occupata dall’intero dispositivo o circuito;
7.
determinare automaticamente topologie circuitali innovative per particolari classi di prodotti;
8.
minimizzare il time-to-market.
Questa metodologia è, al momento, lo stato dell’arte per la progettazione automatica di dispositivi e circuiti integrati in Micro- e Nano-Elettronica (vd. G. Nicosia et al, KnowledgeBased Systems J., 21(3):175-183, 2008).
Figura 2
Figura 1. Flusso di ottimizzazione Figura 2. Fronte di Pareto e Insieme delle soluzioni ammissibili per un generico problema bi-obiettivo
www.dmi.unict.it/nicosia/eda.html Contatto Giuseppe Nicosia | nicosia@dmi.unict.it
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 11
industria
Mexall Glass S.r.l., Scafati (SA) DIS (Dipartimento di Informatica e Sistemistica), Università degli Studi di Napoli Federico II | M. Russo, A. Sforza, C. Sterle Uniplan Software S.r.l. | S. Prete, M. Boccia
Problemi di taglio ottimo nell’industria del vetro
Nel ciclo produttivo di un’industria del vetro come la Mexall Glass, il problema di ottimizzazione più rilevante ai fini della qualità e della riduzione dei costi è quello di taglio bidimensionale (o cutting stock) che consiste nel generare gli schemi geometrici secondo cui tagliare le lastre rettangolari da cui estrarre i pezzi rettangolari desiderati.
deve essere rettilineo ed a ghigliottina, cioè con le estremità sui bordi del rettangolo su cui è inciso. Inoltre la sua distanza dal lato parallelo più vicino deve raggiungere una soglia denominata rifilo minimo, al di sotto della quale non si può eseguire la separazione delle due parti. Spesso ciò riduce sensibilmente il numero di possibili schemi di taglio.
Le peculiarità del vetro conferiscono al problema specifiche caratteristiche. Ad esempio ciascun taglio
Le dimensioni dei pezzi possono però godere di una certa tolleranza. è il caso ad esempio in cui un insie-
Figura 1
me (o striscia) di pezzi con le basi allineate ed adiacenti può essere allungato in modo che la somma delle basi sia pari alla base della lastra, evitando così uno scarto con base inferiore al rifilo minimo. In altri casi la striscia può essere accorciata così da aumentare la base dello scarto fino a raggiungere il rifilo minimo. è anche possibile sfruttare la arrotatura, utile a levigare i bordi del vetro, che vengono consumati per una quantità inferiore al rifilo minimo. Ciò permette di eliminare scarti di piccole dimensioni. I metodi classici di ottimizzazione per il cutting stock a ghigliottina possono essere distinti in top-down e bottom-up. I primi sviluppano lo schema geometrico a partire dalla lastra ed aggiungendo via via i tagli, con una ricerca ad albero, fino ad ottenere i pezzi. I secondi sviluppano invece schemi di taglio parziali associati a rettangoli di dimensioni sempre più grandi, a partire da quelli corrispondenti ai pezzi, fino al riempimento della lastra. è stata sviluppata la tecnica ibrida di boundary disposition, che segue una ricerca ad albero guidata dalla costruzione di insiemi di pezzi che riempiono al meglio base e lato sinistro della lastra. Essa risulta efficace ed inoltre integrabile con gli algoritmi classici. Un secondo contributo consiste nella riduzione degli upper bound basati su un miglioramento della classica knapsack function.
Figura 2
In Mexall Glass, nell’arco del biennio 2006-2007, con l’utilizzo di tali tecniche si è ottenuta una riduzione dei costi medi di manodopera del 23% e dei costi di materia prima del 6.1%.
Figura 1. Schema della Boundary Disposition Figura 2. Esempio di soluzione
http://www.uniplansoftware.it/a_ricerca.htm Contatto Mauro Russo | ma.russo@unina.it
12 | MATEMATICA E IMPRESA | numero uno 2008
AIRO
industria
ESTECO S.r.l. | S. Poles Dipartimento di Matematica Pura ed Applicata, Università di Padova | F. Marcuzzi, G. Deolmi
Studio di algoritmi genetici per l’analisi della corrosione su strutture di grandi dimensioni L’obiettivo di questo progetto congiunto tra ESTECO e il Dipartimento di Matematica Pura ed Applicata dell’Università degli Studi di Padova è la ricerca di metodi numerici efficienti per la stima della corrosione interna ai sistemi materiali, mediante elaborazione di immagini termografiche all’infrarosso. La risoluzione del problema di stima viene condotta tenendo in considerazione il modello FEM e facendo uso degli algoritmi genetici per beneficiare della loro della capacità di evitare minimi locali nella ricerca delle soluzioni ottime. Questa ricerca è volta anche a validare l’efficienza dei metodi di ottimizzazione presenti nel software modeFRONTIER nei problemi di corrosione.
In particolare è stato formulato un modello matematico per l’analisi del failure in una porzione di materiale noto, e mediante una tecnica non distruttiva si cerca di capire se la faccia nascosta presenti delle failure. Per problemi di piccola dimensione ci si può limitare a considerare il modello locale ed è possibile ricostruire il profilo corroso usando un algoritmo di ottimizzazione non lineare tipo Newton. In problemi di grande dimensione l’algoritmo deterministico locale non può essere applicato e la superficie risulta essere troppo estesa per essere misurata interamente. In questa situazione è impensabile adottare un approccio puramente deterministico poichè risulterebbe essere poco efficiente. è stato quin-
di sviluppato un metodo di indagine stocastico su scala globale che si basa su due aspetti fondamentali: la formulazione di algoritmo genetico con degli operatori tagliati per il problema (basati su un approccio bayesiano) e l’utilizzo della statistical inversion theory. Mentre l’algoritmo genetico seleziona via via le zone del dominio nelle quali ricercare il failure, il secondo permette di costruire una stima locale del failure. La stima della robustezza e della variabilità del metodo ci hanno permesso di capire che questo approccio pare essere particolarmente adatto alla risoluzione del problema posto.
Figura 1
Figura 2
Figura 1. Rappresentazione del modello: la lamina viene colpita dal flash al fine di identificare le corrosioni nascoste Figura 2. Alcune generazioni dell’algoritmo genetico. In verde i rettangoli visitati, in blu il failure ricostruito, in rosso quello reale
http://www.esteco.com Contatto Silvia Poles | silvia.poles@esteco.com
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 13
industria
Galileo Vacuum Systms S.r.l. | S. Fanfani Dipartimento di Matematica Ulisse Dini, Università degli Studi di Firenze | I. Borsi, L. Barletti, L. Meacci, M. Primicerio I2T3 (Innovazione Industriale Tramite Trasferimento Tecnologico) Onlus | A. Speranza
Modellizzazione di glow discharge in camera di deposizione PVD (Physical Vapour Deposition) Il PVD (Physical Vapour Deposition) è utilizzato in applicazioni industriali per la deposizione di film sottili metallici e non, su substrati di vario genere. Il processo industriale procede attraverso la realizzazione di due step. Durante il primo step, il substrato da trattare viene esposto ad una metallizzazione mediante vaporizzazione di metallo (solitamente alluminio) in bassa pressione. Durante il secondo step, viene acceso un campo elettrico di forte intensità all’interno della camera, per mezzo del quale l’atmosfera residua, a bassa pressione (~10-2 mbar) si trasforma in plasma. Il progetto di ricerca si occupa di modellizzare questo secondo step del processo.
matizzato attraverso un modello di drift-diffusion per la distribuzione di cariche positive (ioni) e negative (elettroni), accoppiate con l’equazione di Poisson per il potenziale. Alle tre equazioni vengono imposte condizioni al bordo per il valore del potenziale agli elettrodi e sulla camera metallica, e per il flusso di cariche positive e negative attraverso tutte le superfici metalliche (elettrodi e camera metallica). Il modello risultante evidenzia un accoppiamento fortemente non lineare tra le equazioni. Le condizioni al bordo sul flusso di cariche positive e negative vengono inoltre a dipendere dalla soluzione del problema, rendendo l’analisi del modello piuttosto complessa.
Il fenomeno di glow discharge, cioè di scarica in plasma, viene sche-
Il modello può essere risolto tuttavia numericamente attraverso il metodo
Figura 1
ad elementi finiti in 2 e 3D, con diverse configurazioni di camera e utilizzando diversi parametri di processo. I risultati ottenuti dalla soluzione numerica unidimensionale mostrano inoltre forti analogie con studi analoghi svolti, ad esempio, per tubi di scarica in vetro. Nonostante le semplificazioni introdotte per rendere il sistema studiabile, le simulazioni numeriche permettono di ricostruire una buona quantità di informazioni, relativamente alla distribuzione di cariche e di potenziale e campo elettrico nella camera, che risultano poi utili alla scelta dei parametri di processo più adatti ai fini del prodotto che si vuole ottenere.
Figura 2
Figura 1. Andamento del potenziale (caso a due elettrodi, simulazione 3D) Figura 2. Distribuzione di cariche positive nella camera (caso a un solo elettrodo, simulazione 3D a simmetria cilindrica)
http://www.i2t3.unifi.it Contatto Alessandro Speranza | alessandro.speranza@i2t3.unifi.it
14 | MATEMATICA E IMPRESA | numero uno 2008
SIMAI
industria
Teckna S.r.l. | A. Simonti I2T3 (Innovazione Industriale Tramite Trasferimento Tecnologico) Onlus | A. Speranza, A. Monti, D. Montani Dipartimento di Sanità Pubblica, Università degli Studi di Firenze | S. Dugheri IBIMET (Istituto di Biometeorologia), CNR (Consiglio Nazionale delle Ricerche) | B. Gioli, F. Miglietta Chromline S.r.l. | F. Degli Esposti
Simulazione aereodinamica di profilo bidimensionale di un aereo
Il lavoro di simulazione è inserito in un progetto di Ricerca e Sviluppo gestito da Teckna s.r.l. e cofinanziato da Teckna e dalla Regione Toscana, il cui obiettivo è quello di sviluppare uno strumento di campionamento dell’atmosfera basato su fibre SPME (Solid Phase Micro Extraction). La simulazione è svolta al fine di valutare il posizionamento ottimale del sistema di campionamento su piattaforma aerea. In particolare, la simulazione mira ad escludere la possibilità che nei pressi del campionatore, il flusso d’aria sia troppo influenzato, ad esempio per la presenza di forte turbolenza, dalla carlinga dell’aereo e che quindi l’aria campionata sia in qualche modo disomogenea rispetto all’ambiente non perturbato. La simulazione numerica è svolta attraverso l’utilizzo di un modello derivato dall’equazione di NavierStokes, che tenga conto delle condizioni di turbolenza del flusso d’aria vicino all’aereo, e implementata mediante un sistema di calcolo ad elementi finiti FEM commerciale. La riduzione del problema originale in 3D in un sistema ridotto bidimensionale, ottenuto tagliando l’aereo sull’asse di simmetria permette di raggiungere una risoluzione spaziale della griglia tale da analizzare le condizioni di flusso nell’aerea di interesse con sufficiente dettaglio, con celle di dimensioni laterali inferiori al centimetro. Questo ci permette di verificare l’insorgenza di turbolenza nella zona immediatamente posteriore alla ruota e di analizzarne le caratteristiche nella zona di interesse.
Figura 1. Un esempio dei risultati della simulazione del flusso d’aria nelle vicinanze all’aereo. Nelle figure sono rappresentate la distribuzione di pressione e campo di velocità nelle vicinanze dell’aereo. In basso, è raffigurata la mesh utilizzata per la simulazione
http://www.i2t3.unifi.it Contatto Alessandro Speranza | alessandro.speranza@i2t3.unifi.it
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 15
Superficie di Boy
energia e ambiente
energia e ambiente
ICE S.r.l., ora Blue Meta S.p.A. | S. Gambarini, S. Nicolini Dipartimento di Matematica Statistica Informatica e Applicazioni Lorenzo Mascheroni, Università di Bergamo | M. Bertocchi, F. Maggioni Dipartimento di Ingegneria dell’Informazione e Metodi Matematici, Università di Bergamo | M. Innorta, M.T. Vespucci Dipartimento di Metodi Quantitativi, Università di Brescia | E. Allevi
La vendita al dettaglio del gas nel mercato liberalizzato: un modello di ottimizzazione stocastica La collaborazione scientifica con ICE srl di Orio al Serio, azienda di consulenza energetica per società di vendita di gas metano operante sul territorio lombardo, si è proposta di realizzare un ambiente per la vendita al dettaglio di gas. Nell’ambito del nuovo mercato liberalizzato dell’energia, il venditore al dettaglio di gas stipula un contratto per l’acquisto del gas con il rivenditore all’ingrosso e individua i “migliori” clienti a cui rivenderlo. I contratti di acquisto e vendita di gas sono reciprocamente influenzati dal profilo di consumo del cliente. Il consumo dei clienti domestici, delle attività commerciali e delle piccole imprese, ha un andamento stagionale, mentre quello dei clienti industriali di media-grande dimensione, non è influenzato in modo significativo dalle variazioni di temperatura: entrambi sono legati anche al prezzo di altri fonti energetiche.
Nel modello proposto il venditore al dettaglio acquista il gas dal rivenditore all’ingrosso mediante un contratto che gli consente di scegliere fra 17 formule di indicizzazione determinate dalle differenti combinazioni dei prezzi di 5 combustibili (Gasolio, BTZ, ATZ, Brent e una miscela di petroli grezzi). In maniera analoga, il venditore al dettaglio aggiorna il prezzo di vendita del gas, mediante una formula fissata con Delibera 134_06, ai clienti domestici, alle attività commerciali e alle piccole imprese, mentre lascia facoltà ai clienti industriali di scegliere tra le 17 formule di indicizzazione. Ciò implica che il venditore al dettaglio di gas deve sviluppare strategie per gestire il rischio di mercato conseguente. Il modello proposto è stocastico a due stadi multi-periodale con ricorso e prevede la massimizzazione del profitto del venditore in ogni cabinacomune dove egli opera. Il modello determina il numero ottimale di
Figura 1
clienti per ogni fascia di consumo, i prezzi da applicare, i volumi da acquistare e la capacità massima giornaliera di gas, considerando l’aleatorietà delle variazioni delle temperature mensili e l’influenza delle variazioni dei prezzi del petrolio sugli indici energetici. L’evoluzione della temperatura è descritta da un processo stocastico con ritorno alla media stimato sulla base di 12 anni di temperature mensili di Bergamo, l’evoluzione dei prezzi degli indici energetici è basata su un modello econometrico (VAR con 5 ritardi) e il tasso di cambio Euro-Dollaro su un modello IGARCH. Il modello stocastico rispetto all’analogo deterministico valuta la presenza di situazioni estreme (scenari molto caldi o molto freddi) e consente di quantificare le penalità applicate al venditore al dettaglio quando il consumo superi la capacità massima giornaliera prevista.
Figura 2
Figura 1. Confronto fra le temperature giornaliere di Bergamo nel periodo 1994-2005 e il modello deterministico Figura 2. Simulazione di 10 scenari di temperature
http://www.unibg.it/struttura/struttura.asp?cerca=dmsia_omogas Contatto Marida Bertocchi | marida.bertocchi@unibg.it
18 | MATEMATICA E IMPRESA | numero uno 2008
AMASES
Dipartimento INDACO (Dipartimento di Industrial Design, delle Arti della Comunicazione e della Moda) e CEFRIEL (Center of Excellence For Research, Innovation, Education and Industrial Labs partnership), Politecnico di Milano | M. Bruglieri, F. Cattaneo, A. Colombo, A. Colorni
Ottimizzazione della raccolta dei Rifiuti di Apparecchiature Elettriche ed Elettroniche (RAEE) La raccolta dei Rifiuti di Apparecchiature Elettriche ed Elettroniche (RAEE) sta per essere organizzata in Italia per mezzo di appositi Centri di Raccolta (CdR) sparsi nel territorio nazionale dove gli utenti conferiranno le loro Apparecchiature Elettriche ed Elettroniche (AEE) dismesse. Ogni CdR è composto da diversi Punti di Prelievo (PdP) ognuno dedicato ad un diverso tipo di RAEE (al massimo cinque).
macroarea, devono essere il più possibile vicini tra loro. Infine si vuole considerare la versione multiperiodo del problema nella quale vengono creati nuovi CdR o nuovi SC. In tale caso oltre a volere soddisfare le stesse condizioni elencate prima, si vuole che l’assegnamento dei PdP nel nuovo periodo differisca il meno possibile da quello precedente.
Per affrontare tale problema è stato formulato un modello di Programmazione Lineare Intera che è stato possibile risolvere con CPLEX su istanze sino a 1000 CdR. I risultati su istanze verosimili mostrano che è possibile soddisfare la condizione sulle quote ideali con un gap medio inferiore al 5% e che, in media, sono presenti 2 SC nello stesso CdR, sino ad un massimo di 3.
Secondo il Decreto Legislativo 151/05 è compito dei fornitori di AEE, consorziati nei cosiddetti Sistemi Collettivi (SC), provvedere al trasporto dei RAEE dai PdP ai centri di smaltimento. Si vuole decidere come assegnare i PdP ai sistemi collettivi in modo che: 1.
la quantità di RAEE smaltita da ciascun SC si discosti il meno possibile da quella ideale calcolata sulla base della quantità di AEE immessa sul mercato l’anno precedente;
2.
sia minimizzato il numero di SC diversi che operano nello stesso CdR;
3.
tenuto conto che i PdP hanno un diverso livello di disagio logistico (ad esempio per le condizioni di accessibilità) si vuole che esso sia distribuito in modo uniforme in modo che nessun SC risulti svantaggiato rispetto agli altri;
4.
tenuto conto che tutto il territorio è diviso in (quattro) macroaree, si vuole che la presenza di ciascun SC nelle diverse macroaree sia il più possibile uniforme;
5.
i CdR assegnati ad uno stesso SC, all’interno di una stessa
Figura 1. Schema del sistema di raccolta
http://www.cdcraee.it Contatto Maurizio Bruglieri | maurizio.bruglieri@polimi.it Alberto Colorni | alberto.colorni@polimi.it
AIRO
MATEMATICA E IMPRESA | numero uno 2008 | 19
energia e ambiente
Centro di Coordinamento RAEE (Rifiuti di Apparecchiature Elettriche ed Elettroniche)
energia e ambiente
ANSYS Fluent | M. Rossi Programma Energia e Ambiente, CRS4 (Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna), Pula (CA) | F. Ghirelli, V. Zimont
Propagazione di fiamma turbolenta
Il Centro di Ricerche, Sviluppo e Studi Superiori in Sardegna (CRS4) e ANSYS Fluent collaborano durante il periodo gennaio 2008 – dicembre 2008 allo sviluppo di un modello di propagazione della fiamma turbolenta che sia più generale rispetto al Turbulent Flame Closure (TFC) di Zimont attualmente implementato nel codice di fluidodinamica numerica Fluent. Le principali applicazioni industriali del modello TFC sono, tra le altre, quelle della combustione in turbine a gas e dello scoppio in motori automobilistici. Nei combustori che precedono i turbogas, il fenomeno di propagazione della fiamma viene descritto accuratamente dal modello in quanto i tempi caratteristici del processo rientrano con buon margine nell’intervallo di validità del modello. Nei motori a scoppio i tempi caratteristici sono molto brevi. Per queste ultime applicazioni c’è quindi un importante margine di
miglioramento del modello. Un modello più generale deve tenere conto di almeno due dinamiche esistenti nella fase iniziale della fiamma: 1.
2.
L’effetto della correlazione delle velocità turbolente sulla dispersione dei prodotti di combustione (e quindi l’evoluzione della diffusività turbolenta DT). L’effetto è osservabile per esempio nell’esperimento classico di dispersione di un tracciante rilasciato da una sorgente puntiforme in un moto turbolento uniforme. La dispersione in questo esperimento può essere modellata accuratamente nel sistema di riferimento Lagrangiano utilizzando la teoria di Taylor. La variazione della velocita’ di fiamma turbolenta UT, dovuta alla formazione della superficie di fiamma.
Zimont ha proposto l’utilizzo di
un equazione di “relaxation” per descrivere l’evoluzione di DT nel tempo in maniera generale. Ghirelli ha mostrato come calcolare il tempo di residenza di uno scalare in un sistema di riferimento Euleriano. In maniera analoga è possibile calcolare il parametro DT e quindi ottenere una formulazione Euleriana della teoria di Taylor. La nostra strategia di soluzione del problema si svolge quindi in due fasi: a.
costruire un modello Euleriano di dispersione (una formulazione Euleriana della teoria di Taylor).
b.
costruire un modello di propagazione della fiamma dove il parametro UT è espresso in funzione di DT.
Una pubblicazione è in preparazione per quello che riguarda il punto a). La fase b) è attualmente in corso.
Figura 1. Simulazione del processo di combustione in un bruciatore a due stadi: iso-superfici della temperatura
Contatto Federico Ghirelli | ghirelli@crs4.it
20 | MATEMATICA E IMPRESA | numero uno 2008
SIMAI
energia e ambiente
Equiter S.p.A., Gruppo Intesa Sanpaolo | A. Eichholzer ICER (International Center for Economic Research), Università di Torino | E. Luciano
Prezzi dell’energia e contratti sull’energia
La liberalizzazione del mercato energetico ha fatto prepotentemente emergere l’energia come classe di attivi finanziari e ha condotto ad un crescente interesse per la modellizzazione dei prezzi corrispondenti. Su tale modellizzazione è infatti imperniata da un lato la valutazione dei contratti energetici (contratti a termine, futures, opzioni), dall’altro la determinazione dell’economicità degli impianti per la produzione di energia. La modellizzazione stessa non puo’ ricalcare in modo pedissequo quella di altri attivi finanziari, in quanto sull’energia impattano domanda e offerta, in particolare le rigidità nel breve termine della seconda, che non hanno corrispondente per le attività puramente finanziarie. Nello stesso tempo, l’appropriatezza della modellizza-
zione è cruciale per tutti gli agenti economici coinvolti. Da un lato, in periodi di turbolenza dei mercati finanziari finanziari e di conseguente crescente interesse per investimenti alternativi quali le commodities, l’accuratezza nel valutare i contratti finanziari corrispondenti è basilare. Dall’altro, considerando i prezzi dell’energia a fini di valutazione degli investimenti non finanziari, la comprensione dell’andamento dei prezzi dell’energia (petrolio e gas in primis) è di sicuro interesse per le attività produttive e i loro finanziatori, siano essi pubblici, privati o società di parteniariato pubblico-privato (PPP), che sono particolarmente attive nel settore delle infrastrutture energetiche. Lo scopo dell’attività di collaborazione tra Equiter S.p.A. (gruppo Intesa Sanpaolo) e ricercatori di
Contatto Elisa Luciano | luciano@econ.unito.it
ICER è di indagare l’appropriatezza di diversi modelli di rappresentazione del prezzo dell’energia, basandosi sia sul loro andamento storico recente, sia sulle proprietà dei contratti derivati su mercati da tempo liberalizzati, quali i mercati sull’energia elettrica USA. Equiter infatti utilizza modelli di previsione dei prezzi dell’energia per elaborare i piani economici finanziari prospettici dei progetti in cui interviene come investitore con capitale di rischio. Alcuni primi risultati sono stati presentati nell’ambito del II Convegno FIMA nel gennaio 2008, al cui finanziamento Equiter ha contribuito, altri, a cura di E. Luciano, sono presenti nel volume Financial Risk Management in Commodity Markets: From Shipping to Agriculturals and Energy, J. Wiley, 2008.
AMASES
MATEMATICA E IMPRESA | numero uno 2008 | 21
energia e ambiente
EstEnergy S.p.A. DEEI (Dipartimento di Elettrotecnica, Elettronica e Informatica), Università degli Studi di Trieste | L. Coslovich, R. Pesenti, G. Piccoli, W. Ukovic
Un modello per la personalizzazione delle tariffe nell’energia elettrica
Questo progetto è stato svolto in collaborazione con EstEnergy S.p.A., società di vendita di gas naturale ed energia elettrica, con sedi a Trieste e Padova. Il recente processo di liberalizzazione del mercato elettrico ha determinato, in Italia e in altri paesi europei, la nascita di una nuova figura all’interno della catena logistica dell’energia: la società di vendita (o trader). Il trader è un operatore che si interpone fra produttori, trasportatori e distributori di energia elettrica, da una parte, e utilizzatori finali, dall’altra. La sua attività principale consiste nell’approvvigionare energia all’ingrosso e rivenderla al dettaglio, in regime di libero mercato e, quindi, a tariffe competitive. Il problema affrontato riguarda la determinazione di tariffe di energia elettrica personalizzate, volte ad incentivare ciascun utente finale
a modificare, spontaneamente, il proprio profilo di consumo. In particolare, lo scopo principale di indurre modifiche ai profili di consumo degli utenti risiede nel fatto che è possibile incentivare i consumi nelle fasce orarie caratterizzate da una maggiore disponibilità di energia e, viceversa, scoraggiarli in quelle caratterizzate da disponibilità minori. In tal modo, divengono meno frequenti gli acquisti spot di energia in borsa elettrica, il più delle volte penalizzanti rispetto ad un contratto di acquisto bilaterale. Lo scopo degli incentivi tariffari personalizzati è rimasto quello di indurre mutamenti spontanei nei profili di consumo, non già di aumentare la domanda da parte della clientela. Si è pensato perciò ad una politica tariffaria che fosse in grado di promuovere comportamenti virtuosi dell’utenza pronta
a recepire i cambiamenti di prezzo nelle varie fasce e, al contempo, non penalizzare in alcun modo il cliente che presentasse una bassa o nulla elasticità del consumo. Il modello matematico sviluppato – di programmazione quadratica – mira all’ottimizzazione del profitto derivante dagli acquisti di energia, sia da produttori che in borsa, e dalle relative vendite agli utenti finali. I vincoli impongono che l’impatto delle nuove tariffe sul cliente finale sia premiante, garantendo risparmi proporzionali all’elasticità del consumo. A questo beneficio degli utenti si associa quello del trader, che avrà meno necessità di ricorrere alla borsa elettrica. I test numerici effettuati su dati reali ed elasticità stimate hanno evidenziato interessanti possibilità di risparmio, sia per la clientela che per il trader.
Figura 1. Potenziali risparmi, sia del trader che della clientela (mix di 50 clienti, usi industriali)
Contatto Walter Ukovich | ukovich@units.it
22 | MATEMATICA E IMPRESA | numero uno 2008
AIRO
Gruppo TEMSI | R. Casadio OPTIT S.r.l. | A. Giacomucci OPTIMAL (Optimization Methods Advanced Laboratory), DEIS (Dipartimento di Elettronica, Informatica e Sistemistica), Università di Bologna, Cesena | D. Vigo
Ottimizzazione del flusso di smaltimento dei rifiuti
Il Gruppo HERA è uno dei maggiori multi-utility italiani nel settore ambientale e gestisce la raccolta e lo smaltimento dei rifiuti in tutta la porzione orientale dell’Emilia-Romagna servendo 6 province con 2.5 milioni di abitanti che producono ogni anno circa 4 milioni di tonnellate di rifiuti. Nel territorio è anche presente una complessa rete di impianti di trattamento e smaltimento: 7 termovalorizzatori e circa 30 tra ed impianti di trattamento. La necessità di unificazione tra le varie realtà
territoriali dei processi operativi e decisionali e l’elevata complessità del problema da gestire hanno spinto il management alla ricerca di metodologie e soluzioni innovative per la pianificazione e la gestione operativa dei servizi, trovando nel laboratorio OPTIMAL del DEIS il referente scientifico per tali attività. Nel 2004 HERA, OPTIMAL e Gruppo TEMSI hanno dato inizio ad un progetto per la definizione di strumenti per la pianificazione del flusso dei rifiuti dalla raccolta allo
Figura 1
smaltimento. Tali problemi sono modellabili come problemi di flusso multi-materiale su rete e prevedono la determinazione della distribuzione dei flussi ottimali dei diversi materiali (rifiuti indifferenziati, frazione secca ed umida, residui dell’incenerimento, fanghi, energia…) attraverso una rete che ne permette il trasferimento ed il trattamento da un insieme di sorgenti (aree di raccolta) ad un insieme di destinazioni ed impianti (Figura 1). Il modello realizzato da OPTIMAL è stato messo a punto per gestire scenari riguardanti l’intera rete di HERA (centinaia di sorgenti e decine di impianti) ed un orizzonte temporale di oltre 20 anni minimizzando il valore attuale dei costi di smaltimento, gestione ed investimento. L’algoritmo risolutivo euristico è attualmente utilizzato dalla Divisione Ambiente di HERA. L’uso del modello ha consentito di ottenere risparmi immediati di alcuni punti percentuali sui costi di trasporto e di trattamento nel rispetto degli impianti esistenti e risparmi maggiori in scenari meno vincolati in un’ottica what-if, oltre a razionalizzazioni considerevoli della rete di impianti. L’arricchimento delle informazioni a supporto del processo decisionale ottenuti con questo progetto sono stati valutati in modo estremamente positivo favorendo in tempi più recenti il consolidamento della collaborazione tra OPTIMAL ed HERA affrontando, con la partecipazione di OPTIT, problemi operativi quali la determinazione degli itinerari dei veicoli per la raccolta avviando in questo campo ulteriori sperimentazioni in diverse città servite da Hera (Figura 2).
Figura 2
Figura 1. Esempio di rete multi-materiale Figura 2. Confronto tra il percorso attuale (sinistra) ed il percorso ottimizzato (destra)
http://or.ingce.unibo.it/ricerca/progetti-di-ricerca-applicata/schede/hera-progetto-flusso-del-rifiuto Contatto Daniele Vigo | daniele.vigo@unibo.it
AIRO
MATEMATICA E IMPRESA | numero uno 2008 | 23
energia e ambiente
Gruppo Hera S.p.A. | C. Galli, G. De Mastro, F. Salieri, A. Guarnirei
Sella di scimmia
salute
salute
EBRI (European Brain Research Institute) | M. D’Onofrio, I. Arisi, R. Brandi, A. Di Mambro, M.G. Bacalini, A. Felsani, S. Capsoni, A. Cattaneo IASI (Istituto di Analisi dei Sistemi e Informatica Antonio Ruberti), CNR (Consiglio Nazionale delle Ricerche) | P. Bertolazzi, G. Felici, A. Bernacchia
Tecniche di Data Mining Logico per l’analisi di microarray di topi transgenici
Il progetto riguarda l’uso di tecniche di data mining per l’analisi di profili di espressione genica ottenuti da microrarray per il modello di topo transgenico AD11. I topi AD11 esprimono l’anticorpo ricombinante alfaD11, che neutralizza in maniera specifica la forma matura di NGF (Nerve Growth Factor) e mostrano un fenotipo neurovegetativo progressivo assimilabile a quello del morbo di Alzheimer. I tessuti di varie parti del cervello di modelli AD11 vengono fatti crescere su microarray
a due colori Agilent (chip Agilent Whole Mouse Genome 4x44K), in grado di misurare il livello di espressione di 41174 geni. Complessivamente l’analisi considera 120 diversi microarray, riferiti a 3 tipologie di tessuti provenienti da topi di 4 diverse età, alcuni di tipo AD11 (malati) ed altri normali (sani). Lo scopo del progetto è quello di individuare le combinazioni di geni sotto o sovra-espressi nel caso di topi sani e di topi malati. Attraverso una analisi di correlazione
preliminare è stato possibile individuare due sottoinsiemi di esperimenti con diversi livelli di rumore sperimentale, che sono risultati, a posteriori, condotti con tecnologie diverse; sono quindi state applicate trasformazioni correttive in grado di eliminare la distorsione proveniente dalle diverse tecnologie per analizzare tutti i campioni in modo coerente. L’impiego di tecniche di biclustering ha consentito di isolare sottoinsiemi di diversi esperimenti e diversi geni, fra loro maggiormente correlati, che mostrano una elevata similarità nei valori di espressione genica. Alcuni dei bicluster individuati presentano una buona capacità di discriminare i topi sani da quelli malati. è stata quindi impiegata una tecnica di Data Mining Logico basata sulla selezione un numero di geni significativi tramite un modello di programmazione intera derivato dal set covering, e sulla estrazione di un insieme di regole logiche tramite la risoluzione di una serie di problemi di soddisfacibilità di costo minimo. Tale tecnica porta all’identificazione di formule logiche basate su un numero molto limitato di geni (20), che classificano correttamente gli esperimenti e presentano una notevole capacità predittiva misurata tramite leave-one-out cross validation. Le formule presentano una semantica molto fruibile in quanto identificano sia le combinazioni di geni più rilevanti per la classificazione in sani e malati, sia le soglie discriminanti per la loro sovra e sotto-espressione.
Figura 1
Figura 2
Figura 1: Topi transgenici
Figura 3
Figura 2: Printer Figura 3: Microarray
http://www.ebri.it/felsani.html Contatto Giovanni Felici | felici@iasi.cnr.it
26 | MATEMATICA E IMPRESA | numero uno 2008
AIRO
salute Paramed S.r.l. | L. Bertora, S. Carrozzi INFM-LAMIA (Artificial and Innovative Materials Laboratory), CNR (Consiglio Nazionale delle Ricerche), Genova A.M. Massone, A. Sorrentino, M. Piana
Ottimizzazione della procedura di acquisizione di immagini whole-body in risonanza magnetica: aspetti software e hardware Realizzare scanner per risonanza magnetica in cui il campo magnetico statico sia caratterizzato da un elevato livello di omogeneità spaziale è costoso e tecnologicamente complicato. D’altra parte, la presenza di inomogeneità nel campo induce distorsioni, anche significative, nelle immagini anatomiche acquisite, riducendone l’affidabilità diagnostica. La disponibilità di un metodo computazionale in grado di ridurre questi artefatti via software permetterebbe di migliorare la qualita’ dei volumi acquisiti senza intervenire sull’hardware di acquisizione. Abbiamo sviluppato una procedura per la correzione di immagini distorte di risonanza magnetica strutturale, basata sulle seguenti fasi: »»
è stato costruito un fantoccio in plexiglass caratterizzato da scanalature reticolari contenenti una soluzione salina e ne
sono state acquisite immagini secondo le geometrie assiali, coronali e sagittali e secondo diversi paradigmi di acquisizione; »»
»»
sulla base del confronto fra le immagini del fantoccio fisico e quelle del fantoccio digitale ideale, e attraverso procedure di fitting e interpolazione, sono state realizzate mappature bidimensionali della distorsione delle immagini indotta dall’inomogeneità del campo; l’inversa della matrice di distorsione è stata applicata alle immagini anatomiche acquisite, riducendone significativamente gli artefatti.
I passi dell’algoritmo che implementa tale procedura sono: 1.
rilevazione del reticolo nelle immagini del fantoccio fisico;
2.
fitting parabolico del reticolo rilevato;
3.
costruzione della mappa di distorsione confrontando le intersezioni delle parabole con il reticolo digitale e interpolazione;
4.
applicazione dell’inverso della mappa di distorsione.
Il prototipo software è caratterizzato da un elevato livello di automazione e da un basso costo computazionale e permette di ridurre notevolmente le distorsioni anche in corrispondenza di sezioni periferiche, in cui l’effetto dell’inomogeneità è più significativo. Inoltre, poiche’ il metodo si basa su procedure geometriche e di interpolazione, il software può essere applicato nel caso in cui le distorsioni siano dovute anche alla non-linearità dei gradienti applicati.
Figura 1
Figura 1: Immagine deformata del fantoccio fisico; sovrapposizione tra fantoccio fisico e fantoccio digitale; mappa di distorsione Figura 2: Immagine distorta; immagine ricostruita utilizzando la mappa di distorsione.
Figura 2
http://www.pstliguria.it Contatto Anna Maria Massone | massone@ge.infm.it
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 27
salute
Centrale Operativa 118, A.O. Niguarda Cà Granda, Milano | N. Greco, G. Sesana MOX (Modellistica e Calcolo Scientifico), Dipartimento di Matematica, Politecnico di Milano | F. Ieva, A.M. Paganoni A.C.E.U. (Area di Coordinamento per l’Emergenza Urgenza), Ass.to alla Sanità Regione Lombardia, Milano | M. Marzegalli
Tempi di intervento nell’infarto miocardico acuto con sopraslivellamento del tratto ST
Il principale obiettivo della terapia dell’infarto miocardico acuto con sopraslivellamento del tratto ST è realizzare una ricanalizzazione coronarica efficace nel più breve tempo possibile. A Milano, a partire dal mese di Febbraio 2001, è operativo un Gruppo di Lavoro per l’Emergenza Cardiologica preospedaliera – Rete di Milano che raggruppa tutte le 23 U.O. di Cardiologia della Provincia di Milano e la Centrale Operativa del 118. Per monitorare l’attività della rete si è deciso di eseguire delle raccolte dati della durata di un mese, una ogni 6 mesi (one Month monitoring Myocardial Infarction in Milan - MOMI2), riguardanti tutti i pazienti che sono stati ricoverati tramite Pronto Soccorso (o trasferimento da altro Ospedale) con diagnosi di IMASTE in tutti i 23 ospedali della rete. Sono stati raccolti i dati inerenti alle caratteri-
stiche demografiche (sesso, età), al quadro clinico (sintomo di presentazione, classe Killip all’ingresso), alle modalità di accesso in ospedale (spontaneo, Mezzo di Soccorso di Base, Mezzo di Soccorso Avanzato senza o con trasmissione dell’ECG), ai tempi pre e intra ospedalieri (tempo di chiamata, tempo di arrivo in pronto soccorso, tempo door to ballon), alla terapia (trombolisi, angioplastica) e all’outcome ospedaliero. Obiettivo del progetto è quello di condurre un’analisi statistica al fine di individuare eventuali fattori su cui sia possibile agire per diminuire i tempi di intervento e quindi aumentare la probabilità di sopravvivenza e l’efficacia della terapia riperfusiva. In particolare una prima analisi esplorativa individua strutture di dipendenza ed eventuali effetti di mascheramento tra le covariate, ed evidenzia il tempo del primo ECG come varia-
bile con maggior potere predittivo sul tempo di intervento. A seguire tecniche di regressione logistica multivarita permettono di modellizzare i principali outcome dello studio (p.e. la probabilità di sopravvivenza, l’efficacia della terapia riperfusiva,...) come funzioni di alcune opportune covariate, tra le quali le più signifcative sono il tempo di insorgenza del sintomo e il tempo door to balloon. Ulteriori metodologie inferenziali (p.e. test di Fisher esatto, intervalli di confidenza esatti per gli odds ratio, regressione logistica esatta via simulazione MCMC,...) consentono di fornire stime su parametri di valutazione del rischio (quali odds ratio, rischio relativo,...) e su previsioni per gli outcome condizionate ai valori dei principali fattori prognostici.
Figura 1
Figura 2
Figura 3
Figura 1. Boxplot affiancati delle distribuzioni dei tempi Door to Balloon stratificate per modalità di accesso in Pronto Soccorso Figura 2. Bande di confidenza della probabilità stimata di mortalità intraospedaliera Figura 3. Curve di livello della probabilità stimata di inefficace riduzione del sopraslivellamento del tratto ST
http://mox.polimi.it/it/progetti/momi/ Contatto Anna Maria Paganoni | anna.paganoni@polimi.it
28 | MATEMATICA E IMPRESA | numero uno 2008
SIMAI
salute Bio-Ker S.r.l., Pula (CA) | C. Maullu, F. Caboi, M. Sergi, R. Schrepfer, G. Tonon Laboratorio di Bioinformatica, CRS4 (Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna), Pula (CA) | M. Valentini, A. Giorgetti, D. Raimondo, A. Tramontano
Un metodo computazionale per lo screening in silico di siti di transglutaminazione in proteine terapeutiche. L’utilizzo di tecniche computazionali nella moderna ricerca farmaceutica permette di svolgere in silico una serie di analisi grazie alle quali i ricercatori, nelle fasi di progettazione di un nuovo farmaco, non sono più costretti a impiegare grandi risorse di tempo e denaro in esperimenti chimici e biologici. Il laboratorio di Bioinformatica del CRS4 e la società Bio-Ker, inserite nella sede di Pula del Parco tecnologico della Sardegna, hanno messo a punto un metodo computazionale per la progettazione di proteine terapeutiche con migliorate proprietà farmacocinetiche e farmacodinamiche, che consente di ridurre la quantità di lavoro sperimentale. Le attività di laboratorio consistono nella coniugazione delle proteine terapeutiche con un polimero idrofilico biocompatibile ad alto peso molecolare (Polietilenglicole; PEG) per ottenere
derivati con più lunga permanenza in circolo. Il processo di PEGhilazione utilizzato avviene per via enzimatica tramite la transglutamminasi di origine batterica (MTGase) espressa in Streptomyces Mobaraensis. Lo scopo della collaborazione tra Bio-Ker ed il laboratorio di Bioinformatica del CRS4 è l’analisi della modalità di azione dell’enzima sui residui di glutammina della proteina in studio al fine di riuscire a fornire, al termine di una analisi con metodi bioinfomatici e computazionali, indicazioni sui siti putativi di PEGhilazione della proteina nativa o su zone da sottoporre a mutagenesi specifica per ottenere nuovi siti di probabile PEGhilazione. Il cuore dell’analisi è lo studio di Dinamica Molecolare della proteina svolta tramite software open source come Gromacs o NAMD sul cluster di calcolo ad alte prestazioni del CRS4. I modelli di proteina e
solvente utilizzati consistono di circa 30.000 atomi e per il calcolo di 5ns di tempo di simulazione si richiedono circa 120h di calcoli svolti in parallelo su 48 processori. La grande mole di dati prodotta sui moti degli atomi della proteina e del solvente viene poi analizzata, e attraverso il calcolo di una serie di proprietà statistiche (Root Mean Squared Fluctuations, Ramachandran Plots, patches idrofobici) si definiscono le zone a più alta mobilità della proteina e le glutammine più flessibili in zone favorite energeticamente per l’interazione con altre molecole. Tali risultati computazionali vengono usati come supporto nella decisione su quali siti sottoporre ad ulteriori studi di mutagenesi in laboratorio con un notevole risparmio di tempo e denaro rispetto ad un approccio puramente sperimentale.
Figura 1. Struttura sperimentale della proteina terapeutica GCSF e della transglutaminasi
http://www.bioinformatica.crs4.org Contatto Maria Valentini | maria@crs4.it
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 29
Superficie minima di Enneper
societĂ
società
Saiwa S.p.A. DIEM (Dipartimento di Economia e Metodi Quantitativi), Università di Genova | F. Gallarati, E. Bretoni, D. Ambrosino, A. Sciomachen, L. De Santi
Valutazione di scenari distributivi
Nel progetto in questione sono stati analizzati e valutati diversi scenari distributivi di un’azienda produttrice di generi di largo consumo che opera nel mercato italiano e che ha vissuto nell’ultimo decennio profondi cambiamenti nel settore logistico. L’evoluzione del sistema distributivo viene descritta confrontando la gestione delle scorte, i costi logistici ed alcuni importanti indicatori, quali il livello di servizio offerto ai clienti. La rete distributiva dell’azienda, caratterizzata inizialmente dalla presenza di punti di stoccaggio regionali e da differenti canali distributivi, ha subito profonde modifiche. Metodi e modelli di ricerca operativa sono stati utilizzati ex post per valutare i diversi scenari che si sono susseguiti. La prima analisi ha riguardato l’ottimizzazione dei flussi sulla rete
esistente, ovvero, dati i depositi, le piattaforme ed i transit point (detti impianti), i possibili collegamenti tra questi, e noti i clienti e le loro rispettive domande e i collegamenti esistenti tra impianti e clienti, si sono determinati i flussi ottimali dai punti di offerta ai punti di domanda, ipotizzando la domanda nota ed espressa in termini di un solo bene rappresentativo. Per l’ottimizzazione dei flussi è stato utilizzato un modello di programmazione lineare mista. Il problema di ottimizzazione dei flussi su reti distributive non sempre può essere slegato dal più ampio problema del progetto di reti, in cui vengono incluse anche scelte di tipo tattico/strategico quali la localizzazione ed il tipo di impianto operante nella rete. Scegliere la struttura della rete vuol dire definire il numero e la localizza-
zione dei diversi tipi di impianti che operano nei diversi livelli. Con lo sviluppo dell’outsourcing, sempre più imprese hanno fatto ricorso ad operatori specializzati per svolgere parzialmente o totalmente le proprie attività distributive e questo ha modificato i classici problemi di network design. L’azienda che decide di dare in outsourcing le proprie attività distributive, quando deve definire la struttura della propria rete deve affrontato un problema di scelta di un operatore logistico tra quelli presenti sul territorio in esame. Tale scelta viene fatta guardando ad aspetti puramente economici / commerciali (legati principalmente ai volumi e al fatturato che l’azienda riesce a garantire all’operatore logistico) e valutando la rete distributiva dell’operatore specializzato nel territorio di competenza.
Figura 1. Grafo della rete logistica
Contatto Daniela Ambrosino | ambrosin@economia.unige.it
32 | MATEMATICA E IMPRESA | numero uno 2008
AIRO
società Banco Popolare S.p.A. Engineering S.p.A. Infracom S.p.A. Prometeia S.p.A. QlikView Italy Applicazioni Rischio e Controllo Finanza, SGS (Società Gestione Servizi), Banco Popolare | M. Bonollo
La sfida delle competenze nel Risk Management per la misura dei rischi finanziari Esistono pochi campi come quello della misura dei rischi nelle banche in cui i metodi quantitativi giocano un ruolo rilevante ed eterogeneo. Su questo ambito il Gruppo Banco Popolare ha in corso un progetto, già in fase avanzata, con il duplice scopo di una più efficiente governance e controllo dei rischi e una conseguente riduzione del requisito patrimoniale verso la banca centrale. Si tratta in particolare della messa a punto di sistema informativo per la misura dei rischi di mercato con approccio di historical simulation, cioè di utilizzo della distribuzione empirica dei rendimenti di mercato come proxy degli scenari futuri. Tale misura di rischio può essere vista in prima approssimazione come un processo sequenziale, in cui nelle varie fasi entrano in gioco competenze di tipo diverso, che brevemente descriviamo. Il recupero dei dati di mercato richiede l’applicazione di metodi statistici di individuazione degli outliers, con indicatori di vario genere, cleaning/ smoothing degli stessi, e dei dati
mancanti, con algoritmi di filling basati per esempio sulla massimizzazione della credibilità del dato artificiale (algoritmi EM). La valutazione del valore di portafoglio sui diversi scenari richiede l’utilizzo di metodi tipici della finanza matematica per il calcolo del fair value di tali strumenti, che in via generale si determina come valore atteso del cash flow futuro, con tecniche probabilistiche analitiche, metodo montecarlo, alberi discreti di evoluzione del mercato. La stima delle misure di rischio si basa su analisi worst-case basate sul quantile, per esempio quale perdita potrebbe verificarsi al portafoglio della banca nel 1% peggiore degli scenari. In queste situazioni viene in aiuto la teoria delle statistiche d’ordine. Stilizzando il processo informatico, le misure di rischio sono condotte su una immensa tabella, la cui cardinalità è data dalle possibili combinazioni legate a (scenario, operazione, fattore di rischio, data riferimento), che possono portare a
Contatto Michele Bonollo | michele.bonollo@sgsbpvn.it
diverse centinaia di milioni di vettori, moltiplicato per una ventina di variabili di segmentazione del rischio. Su queste dimensioni, un modello logico fisico dei dati di tipo Entità Relazioni E-R, non è più adeguato. Si impongono modelli di rappresentazione compressione dei dati come AQL (Associative Query Logic), che massimizza l’efficienza dei valori effettivi rispetto al rigore dei legami logici e insiemistici. Infine va tenuto conto che un sistema informatico è un reticolo di flussi che può essere rappresentato e misurato nel suo livello di sostenibilità e affidabilità mediante la teoria dei grafi, con strumenti quali il PERT. Va detto infine che la riuscita di un progetto così complesso richiede anche molte competenze non quantitative, come la conoscenza dei processi interni, della effettiva operatività dei mercati finanziari, la normativa e la sua declinazione pratica, il disegno dei ruoli di controllo e di audit.
AMASES
MATEMATICA E IMPRESA | numero uno 2008 | 33
società
Banco Popolare Engineering S.p.A. Infracon S.p.A. Applicazioni Rischio e Controllo Finanza, SGS (Società Gestione Servizi), Banco Popolare | M. Bonollo
La teoria dei grafi e il PERT per l’analisi e la simulazione dei sistemi informatici
La teoria dei grafi è uno dei casi di maggiore gap tra gli elementi limitati appresi all’università e il suo utilizzo sfidante in aziende e aree le più differenti. Elementi di teoria dei grafi sono compresi negli insegnamenti di Ricerca Operativa, di fatto non obbligatori nella più parte dei corsi di laurea ad indirizzo quantitativo delle facoltà di economia. In questo quadro trovano spesso spazio ancor più marginale strumenti come il PERT o il fault tree FTA, che viceversa è frequente incontrare in qualsiasi gruppo di lavoro su progetti o processi di una certa complessità. Riprendiamo alcuni concetti sul PERT. Si tratta di un grafo direzionale, in cui i diversi nodi (i) rappresentano le attività di un processo o di un progetto, gli archi (i,j) i vincoli di precedenza tra una attività e un’altra. Il PERT è molto utilizzato nella gestione dei progetti nell’edilizia, nell’industria militare, e anche in progetti su output intangibili, come software “chiavi in mano”. Il PERT
mediante la definizione dei vincoli e l’assegnazione di durate alle attività consente una serie di attività di monitoraggio e previsione. Per esempio si può determinare il tempo di completamento del progetto, nella ipotesi che tutte le attività inizino non appena i loro predecessori sono terminati in modo puntuale. Si può calcolare con algoritmo iterativo il cammino critico, cioè l’insieme di attività il cui slittamento determina un ritardo globale sul progetto. La realtà è spesso meno stilizzata di quanto sopra detto. Le durate delle attività sono funzione, non sempre lineare, dei volumi in ingresso al processo e delle risorse allocate. Le durate delle attività sono in ogni caso aleatorie e non deterministiche. In una recente efficace esperienza del dipartimento IT Derivati e Rischi del Banco Popolare, il PERT è stato utilizzato per modellizzare, simulare, ottimizzare un complesso reticolo di processi, flussi e algoritmi del sistema informativo di Risk Management, dunque non il progetto, ma il sistema informativo stesso.
Contatto Michele Bonollo | michele.bonollo@sgsbpvn.it
34 | MATEMATICA E IMPRESA | numero uno 2008
Si tratta di un sistema che nel corso della notte, con frequenza quotidiana, deve garantire le opportune comunicazioni tra diversi providers finanziari, databases, sistemi di front office finanza , motori di pricing, calcolatori paralleli, un datawarehouse, su un volume dell’un ordine di 100.000 operazioni. Da un punto di vista informatico, si è utilizzato Microsoft Project™. Il tool è stato personalizzato con definizione e modellizzazizione di volumi, intensità di produzione per unità di volume/risorsa, durate ottimistiche e pessimistiche delle attività, regole di servizio (mancata produzione di uno/più flussi) e stato di fallimento. Utilizzando il tool si è in grado di: a.
monitorare lo stato AS-IS di sostenibilità del processo;
b.
simulare l’effetto di nuovi volumi o di modifiche sulle risorse hardware;
c.
simulare l’effetto di eliminazione/riduzione dei tasks;
d.
determinare l’affidabilità del processo.
AMASES
società Fondo Pensione Fon.Te Dipartimento di Matematica per le Scienze Economiche e Sociali MatemateS, Università di Bologna | R. Cesari
Analisi dell’asset allocation strategica per la definizione delle linee d’investimento dei fondi pensione La collaborazione col Fondo Pensione Fon.Te, per i dipendenti delle imprese del settore del commercio, turismo e servizi, è stata sviluppata con l’intento di costruire l’asset allocation strategica del Fondo pensione, vale a dire la migliore ripartizione degli investimenti previdenziali, rappresentata da un benchmark composito ottenuto come combinazione ottimale di indici di mercato obbligazionario e azionario. Un primo passo è consistito nell’analisi preliminare della popolazione sia potenziale sia aderente, in termini di età, sesso, grado di istruzione e stato civile e ha portato a una stima del grado di avversione al rischio medio. Come noto, il grado di avversione al rischio è un elemento non direttamente osservabile che tuttavia influenza il comportamento degli investitori verso il rischio e quindi la soluzione ottimale e il grado di soddisfazione ricavabile dalle opportunità di investimento disponibili sul mercato. Un secondo passo è stato la costruzione, attraverso un algoritmo di ottimizzazione quadratica, della frontiera efficiente dei portafogli finanziari, ottenuta a partire da stime di medio-lungo periodo dei rendimenti attesi, delle volatilità e correlazioni dei principali mercati obbligazionari e azionari internazionali. Tale frontiera efficiente, derivante dai classici lavori di Harry Markowitz e William Sharpe rappresenta l’insieme dei portafogli finanziari (combinazioni lineari delle diverse opportunità di investimento) che presentano la minore volatilità per dato rendimento atteso e il maggior rendimento atteso per data volatilità.
Il rischio, secondo un’ampia letteratura teorica ed empirica, è stato misurato dallo scarto quadratico medio dei rendimenti storicamente osservati. Infine la combinazione tra avversione al rischio e frontiera efficiente ha permesso l’individuazione di un’asset allocation strategica costituita per l’80% da obbligazioni (60% fino a 3 anni di durata e 20%
all maturities) e per il 20% da azioni internazionali, con benchmark di tipo etico o social responsible (indice Dow Jones sustainability World). Quest’ultimo, caratterizzato da una selezione etica di tipo best-in-class, senza particolari esclusioni settoriali, è risultato, ex post, più performante, nel corso degli anni seguenti, rispetto agli usuali indici non etici.
Figura 1. Andamento indici azionari mondiali; frontiera efficiente nello spazio media-volatilità
Contatto Riccardo Cesari | riccardo.cesari@unibo.it
AMASES
MATEMATICA E IMPRESA | numero uno 2008 | 35
società
Fondo Pensione FondoPoste Dipartimento di Matematica per le Scienze Economiche e Sociali MatemateS, Università di Bologna | R. Cesari
La modellistica matematica per la selezione dei gestori valutari dei fondi pensione (currency overlay management) La collaborazione col Fondo Pensione FondoPoste, per i dipendenti del Gruppo Poste Italiane, si è focalizzata sulla selezione di un gestore specializzato nella copertura/ scopertura del rischio di cambio in presenza di una posizione multivalutaria (principalmente dollaro, sterlina, yen, dollaro canadese, dollaro australiano, franco svizzero). Tale gestione prende il nome di currency overlay management in quanto il gestore valutario agisce trasversalmente rispetto alle posizioni lunghe sui titoli obbligazionari e azionari detenute dai gestori finanziari tradizionali, compensando la sola esposizione in valuta. Parallelamente, i gestori finanziari sono vincolati a non effettuare attività di hedging del rischio di cambio. L’analisi è stata fatta con riferimento al quinquennio 2001-2005 sulla base di dati
di high-water mark, vale a dire con quantitativi di bilancio (mezzi propri, annullamento delle commissioni di attività in gestione, tipologia di overperformance fino al superamenclientela) e di performance (redditito della redditività cumulata da inizio vità e rischio delle gestioni in valuta) gestione. Particolare attenzione è con riferimento a un benchmark a stata dedicata alla costruzione di cambio aperto. La gestione attiva flussi informativi settimanali, dal di copertura/scopertura affidata gestore amministrativo del Fondo al gestore ha un range di hedging pensione, al gestore valutario, contra 0% e 100%, senza possibilità tenenti l’esposizione puntuale del di leverage, cross-hedging e proxy Fondo nelle valute di riferimento e la hedging. L’analisi è stata completata sua evoluzione nel tempo. Con rifecon un esame qualitativo delle sorimento a tale esposizione il gestore cietà offerenti (strutture informatiche, valutario è autorizzato a operare con modellistica utilizzata, risorse umacontratti derivati su cambi, genene, tipologia di reporting e sistemi di ralmente over-the-counter, di tipo brokeraggio) e con l’analisi dei costi forward, swap e option. Per vincolo di gestione Questi ultimi prevedono, normativo, il gestore valutario non tipicamente una parte fissa, in perpuò prendere posizioni corte e ha centuale dell’esposizione valutaria un limite contrattuale di massima media gestita e una commissioni di semi-tracking error volatility (downsiincentivazione, in percentuale della de deviation). redditività (se positiva) conseguita DOLL/EUR EXCHANGE RATE: 2002-2005� dal gestore valutario, con clausola 10�
10�
(1-WEEK AND 8�1-MONTH % CHANGES)�
8�
6�
6�
4�
4�
2�
2�
0�
0�
-2�
-2�
1-WEEK�
-6�
-6�
-8�
2002�
1-MONTH�
1-MONTH�
1-WEEK�
-4�
-4�
-8�
(1-WEEK AND 1-MONTH % CHANGES)�
DOLL/EUR EXCHANGE RATE: 2002-2005�
2003�
2002� 2004�
2003�
2004� 2005�
2005�
Source: DATASTREAM�
Source: DATASTREAM�
Figura 1. Andamento storico del cambio dollaro/euro e dollaro/yen; serie storica dei tassi di variazione giornaliera del tasso di cambio dollaro/euro
Contatto Riccardo Cesari | riccardo.cesari@unibo.it
36 | MATEMATICA E IMPRESA | numero uno 2008
AMASES
società M.A.I.O.R. (Management Artificial Intelligence Operations Research) S.r.l. | A. Davini Dipartimento di Informatica, Università degli Studi di Pisa | A. Frangioni
L’ottimizzazione della pianificazione turni per il trasporto pubblico
Fin primi anni 90 M.A.I.O.R. Srl applica la metodologia della Ricerca Operativa per la gestione ottima delle risorse, in particolare nel settore del trasporto pubblico su gomma, su rotaia e per le Compagnie Aeree. I sistemi software commercializzati devono il loro successo, in Italia e all’estero, principalmente all’implementazione dell’algoritmo per l’ottimizzazione della turnazione. Il problema in generale è quello di concatenare tutte le attività programmate, caratterizzate da una località e da un orario di inizio e di fine, costruendo turni, cioè sequenze di attività ammissibili rispetto alle normative aziendali, che verranno poi assegnati a mezzi e personale. L’obiettivo è quello di minimizzare i costi riducendo il numero dei turni e/o utilizzando le tipologie di turni più gradite dalle singole aziende. Da un punto di vista della dimensione, il problema ha miliardi di variabili
(turni) che devono rispettare migliaia di vincoli inclusi quelli strutturali, normativi, operativi e di consuetudine: caratteristiche contrattuali dei turni, lunghezza e numero binari, distribuzione del carico di lavoro su più basi, utilizzo di punti di cambio etc. Nell’ambito di una collaborazione continuativa con il Dipartimento di Informatica dell’Università di Pisa, il problema è stato rappresentato tramite un modello di Set Partitioning NP Completo, di cui si risolve il rilasciamento lagrangiano con tecniche di tipo Bundle. In particolare sono state sviluppate tecniche specifiche di column generation per gestire il numero di variabili del problema continuo e tecniche di tipo sia duale che primale per la fase di scelta dei turni della soluzione intera. Le esigenze degli utenti risultano egregiamente soddisfatte per la qualità della soluzione, per i tempi di
esecuzione e per la sensibilità della soluzione alla modifica dei vincoli che annulla la necessità di intervento manuale. Inoltre si ottiene un notevole risparmio di tempo per il personale preposto alla turnazione, tempo che può essere impiegato, utilizzando gli stessi strumenti, per la progettazione e la valutazione di nuovi possibili scenari. La sfida è rendere gli strumenti esistenti sempre più efficienti ed efficaci nel risolvere al meglio le specifiche esigenze e le peculiarità di ciascuna realtà aziendale, senza perdere in generalità nelle capacità di fornire soluzioni adeguate a ogni istanza del problema di turnazione. Di qui la nostra scelta di investire tempo e risorse nella continua ricerca di nuove e migliori modellazioni dei problemi, nonché di strumenti per la loro soluzione.
Figura 1. Schema delle applicazioni sviluppate
http://www.maior.it Contatto Angelo Davini | angelo.davini @maior.it
AIRO
MATEMATICA E IMPRESA | numero uno 2008 | 37
società
PluService S.r.l. | A. Pieralisi DMI (Dipartimento di Matematica e Informatica), Università di Camerino | R. De Leone, E. Marchitto
Ottimizzazione dei turni dei veicoli e del personale viaggiante nel settore del trasporto pubblico locale Il progetto di seguito descritto, realizzato in collaborazione con la PluService S.r.l. (www.pluservice. net) è rivolto alle aziende italiane di trasporto passeggeri su gomma in ambito urbano ed extra-urbano. L’attenzione si è concentrata principalmente sulla pianificazione del servizio, da una parte, per la forte rilevanza politica del trasporto pubblico, in un ambito in cui è attualmente poco sostenibile un sistema basato sul trasporto privato, dall’altra, per il crescente desiderio di modellare seppur con difficoltà le principali caratteristiche del trasporto pubblico nel rispetto delle regole aziendali e delle normative sindacali. Il problema complessivo è stato suddiviso in due sottoproblemi di Vehicle Scheduling e Crew Management (Figura 1). La fase di Crew Management, a causa della sua complessità, viene ulteriormente suddivisa in due fasi successive: Crew Scheduling e Crew Rostering.
testing di specifici algoritmi. Parallelamente ad algoritmi esatti sono stati proposti anche algoritmi euristici, utili per determinare buone soluzioni in tempi ragionevoli. I dati di input per il software sviluppato sono un insieme predefinito di corse di un giorno prefissato e un insieme di parametri di controllo tra i quali la capacità dei depositi, la tipologia di vettura, il limite inferiore e superiore dei tempi di allacciamento e trasferimento, il limite inferiore e superiore dei tempi di lavoro ordinario, lavoro straordinario, di supero nastro. Altri parametri sono legati alle normative nazionali che regolano il tempo massimo di guida
Nella fase di Vehicle Scheduling a partire dal servizio che l’azienda di trasporto intende fornire si identifica la schedulazione ottima dei veicoli. Questo diventa input per la successiva fase di Crew Scheduling con cui si determina la schedulazione ottima dei conducenti ed, infine, la fase di rostering calcola i programmi di lavoro individuali necessari per l’intero servizio.
continuativa, alla compatibilità tra tipi di corsa e di linee, al massimo numero di riprese, ai cambi linea, ai cambi vettura e ai tempi accessori del turno. Alla fine della fase di ottimizzazione si ha a disposizione l’elenco dei turni guida e turni vettura. L’analisi dei risultati è stata realizzata mediante uno strumento che attraverso rappresentazioni grafiche, permette di visualizzare la composizione dei turni-veicolo e dei turniuomo generati contemporaneamente a diverse statistiche e distribuzioni utili ad intuire rapidamente la bontà del risultato ottenuto. Un esempio di turni guida dei conducenti di un autobus è riportato in Figura 2.
Figura 1
Il progetto sviluppato ha coniugato aspetti di ricerca di base ed aspetti più propriamente applicativi. A partire dallo studio dei modelli proposti in letteratura si è passati all’individuazione degli algoritmi più efficienti per poi giungere alla modellizzazione, definizione, implementazione e
Figura 1: Sistema di Pianificazione dei Trasporti Figura 2: Esempio di turni-uomo per un conducente.
Contatto Renato De Leone | renato.deleone@unicam.it
38 | MATEMATICA E IMPRESA | numero uno 2008
Figura 2
AIRO
società MedCenter Container Terminal, Gioia Tauro (RC) Laboratorio di Logistica, Dipartimento di Elettronica Informatica e Sistemistica, Università della Calabria | M. Gaudioso, M.F. Monaco, P. Legato, A. Astorino, G. Giallombardo, G. Miglionico, L. Moccia, M. Sammarra, G. Sorrentino
Ottimizzazione delle operazioni in un terminale marittimo di trasbordo contenitori In un terminale marittimo di trasbordo, i contenitori arrivano e ripartono tramite navi. Le navi attraccano ai moli (berths) lungo la banchina (quay), ed i moli sono equipaggiati con gigantesche gru (quay crane). Una flotta di veicoli trasferisce i contenitori dalla banchina al piazzale e vice versa. Il piazzale permette lo stoccaggio dei contenitori tra la fase dello sbarco e quella dell’imbarco. La figura 1 illustra questi processi.
I problemi decisionali possono essere raggruppati in base al flusso di lavoro, principalmente: »»
arrivo della nave;
»»
carico e scarico della nave;
»»
trasporto dei contenitori banchina-piazzale;
»»
gestione del piazzale.
Sofisticati sistemi informativi tracciano multi-dimensionalmente
questi flussi e garantiscono un buon livello di controllo e coordinamento. Nonostante ciò si è ben lontani dall’ottimalità nella gestione. I motivi di questa sub-ottimalità risiedono, da un lato, nella intrinseca complessità dei problemi operativi, e dall’altro, nella limitata diffusione dell’uso di tecniche di ottimizzazione. Nel corso della collaborazione tra il Laboratorio di Logistica dell’Università della Calabria e MedCenter Container Terminal (la società che gestiste il terminale di Gioia Tauro, il più grande porto per contenitori del Mediterraneo), sono stati affrontati problemi di turnistica, allocazione delle navi ai moli, scheduling delle gru di banchina, routing dei mezzi di movimentazione banchina-piazzale, gestione dinamica delle aree di piazzale, definizione dei piani di stivaggio. Per ognuno di questi problemi sono stati sviluppati algoritmi dedicati. La ricerca su soluzioni ad hoc è anche motivata dalla dinamicità del sistema porto. Infatti, problemi sempre nuovi appaiono all’orizzonte per effetto di cambiamenti tecnologici o di scala delle operazioni o per differenti scelte strategiche. Il sistema terminale marittimo costituisce, quindi, l’ambiente ideale per la messa in campo delle tecniche della Ricerca Operativa.
Figura 1: Layout di un terminale di trasbordo contenitori
Contatto Manlio Gaudioso | gaudioso@deis.unical.it
AIRO
MATEMATICA E IMPRESA | numero uno 2008 | 39
società
Avanade IT Fondazione CRT (Cassa di Risparmio di Torino), Torino Collegio Carlo Alberto, ICER (International Centre for Economic Research) e Dipartimento di Statistica e Matematica Applicata Diego de Castro, Università di Torino | E. Luciano Dipartimento di Scienze Economiche e Metodi Quantitativi, Università del Piemonte Orientale | G. Fusai
Modelli di pricing del rischio di credito: la generazione post-subprime
La crisi del mercato del credito scaturita dal settore subprime nell’estate 2007 e il suo impatto sulla stabilità dei mercati e degli intermediari finanziari ha fatto prepotentemente emergere la necessità di rivedere i modelli di valutazione del rischio di credito.Esiste infatti una consapevolezza diffusa dell’inesorabilità del processo di disintermediazione bancaria a favore dell’utilizzo di strumenti derivati. Tali derivati non sono quindi destinati a scomparire, ma piuttosto devono essere perfezionati nelle modalità di valutazione e copertura. Ciò richiede lo sviluppo di metodi di valutazione di cosiddetta “seconda generazione”, capaci di incorporare la correlazione tra i default e il suo manifestarsi nei periodi crisi. Un gruppo di ricercatori appartenenti all’Università di Torino e del Piemonte Orientale è attivo in tal senso: ha già contribuito allo
sviluppo di metodi di valutazione del rischio di portafogli di crediti e sta procedendo all’estensione di seconda generazione, usando fattori di rischio asimmetrici, capaci di produrre eventi estremi con frequenza più elevata che nel caso dei modelli (Gaussiani) di prima generazione, soggetti a “salti”. Le necessità di calcolo numerico che ad essi si accompagnano hanno trovato riscontro nella collaborazione con Avanade, società di IT a livello mondiale che utilizza, estendendola, la piattaforma di soluzioni Microsoft per supportare la crescita in innovazione delle aziende. Fondata nel 2000 da Accenture e Microsoft Corp., Avanade conta oltre 7.500 consulenti in 22 paesi ed è attiva nel calcolo parallelo e nel grid computing, architettura tecnologica su cui è stata avviata la collaborazione di ricerca, che tra l’altro ha ottenuto un
Contatto Elisa Luciano, luciano@econ.unito.it Gianluca Fusai, fusai@eco.unipmn.it
40 | MATEMATICA E IMPRESA | numero uno 2008
finanziamento da parte della fondazione CRT di Torino. Da ciò dovrebbe nascere la possibilità di tradurre le valutazioni del gruppo di ricerca in strumenti di calcolo veloce, affidabile ed accessibile ad utenti terzi. Spesso le istituzioni finanziarie posseggono centinaia, perfino migliaia di server Intel, dimensionati per attività di picco, che in realtà sono ‘liberi’ per almeno il 90% del tempo. Queste stesse macchine, opportunamente configurate in grid computing, costituiscono un’enorme potenza elaborativa a costo nullo. In estrema sintesi, una applicazione complessa, e quindi onerosa dal punto di vista del calcolo, può essere suddivisa, secondo opportune strategie, sui nodi del grid con una forte riduzione del tempo complessivo. è sottinteso che dovranno essere usate tecniche di checkpoint e consolidamento.
AMASES
società GEOARTE S.r.l., Arezzo | S. Brandi ENEA, Progetto NEREA (NEtwork per il REstauro Avanzato), Bologna | S. Bruni, G. Maino, S. Massari, L. Roversi Dipartimento di Storie e Metodi per la Conservazione dei Beni Culturali, Università di Bologna, sede di Ravenna | D. Biagi Maino, M. Orlandi Dipartimento di Fisica, Università di Ferrara | A. Tartari Comunità Ebraica di Bologna | L. Pardo Museo Civico Medievale, Bologna | M.G. D’Apuzzo
Modellazione 3D di monumenti lapidei
A causa della deposizione di sostanze inquinanti presenti nel particolato aerosospeso, delle piogge acide, dell’esposizione agli agenti atmosferici, il degrado dei monumenti lapidei all’aperto si è sempre più accentuato negli ultimi anni. Rischiamo così di perdere definitivamente una parte consistente del nostro patrimonio storico e artistico. Il rilievo tridimensionale di sculture, bassorilievi, lapidi, iscrizioni, ecc. può fornirci una documentazione fedele di oggetti destinati forse a scomparire e la realizzazione, tramite opportuni algoritmi, di modelli virtuali che – a loro volta – possono tradursi in copie eccellenti con tecniche di prototipazione rapida, mettere a disposizione riproduzioni da collocare al posto delle opere originali che così – conservate in musei o in spazi opportuni – saranno meglio salvaguardate. Inoltre, le tecniche di modellazione 3D servono a riproporre nella loro interezza opere altrimenti smembrate. E’ il caso della lapide
marmorea funeraria di Yoav da Rieti. Quando, nel 1571, Rinaldo Duglioli morì, gli ebrei erano stati allontanati da Bologna da poco a seguito del Breve di Pio V del 1569. Le steli funerarie ebraiche che si trovavano nel cimitero vennero disperse, vendute come semplici pezzi di marmo, distrutte oppure riutilizzate come lapidi cristiane. Raschiata la faccia della lapide di Yoav recante la più breve iscrizione con i dati anagrafici - e lasciata intatta la parte opposta che fu poi separata con un taglio nel senso dello spessore – fu così incisa l’epigrafe in memoria di Rinaldo, seguendo una prassi ormai consolidata di riuso dell’“antico”. Dopo varie traversie, la lapide Duglioli è oggi murata sulla parete del chiostro principale del cimitero monumentale della Certosa, mentre l’altra metà è conservata presso il Museo Civico Medievale. Nel corso dei bombardamenti alleati dell’ultimo conflitto mondiale, la lapide ha subito ulteriori danni, soprattutto nella
Figura 1
parte sommitale. La ricostruzione virtuale delle parti perdute, riportate da alcune incisioni ottocentesche, sarà oggetto di un ulteriore lavoro di restauro virtuale, sempre con il fine di riproporre l’interezza del monumento. L’intero progetto prevede l’acquisizione 3D delle più importanti opere documentarie della presenza ebraica nell’Italia centrale. Il rilievo delle due parti della lapide è stato compiuto tramite laser scanner 3D Vivid 900 della Minolta. Questo tipo di tecnologia permette di compiere un rilievo accuratissimo (sotto il millimetro di tolleranza); sono state prodotte più di cento scansioni che, pulite, allineate ed unite, costituiscono una vera e propria copia digitale perfettamente accostabile all’originale. E’ stato quindi realizzato – sempre in collaborazione con la GEOARTE – un modello completo della lapide, presentato in occasione della mostra La lapide Duglioli – Yoav da Rieti, una ricostruzione virtuale.
Figura 2
Figura 1: Le due parti della lapide Yoav da Rieti – Duglioli con evidenziate le linee di frattura Figura 2: Particolari dei modelli tridimensionali
www.bologna.enea.it/giano/home.html Contatto Giuseppe Maino | giuseppe.maino@bologna.enea.it
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 41
società
Bombardier Transportation Dipartimento di Informatica e Sistemistica, Sapienza Università di Roma | C. Mannino, A. Mascis
Controllo del traffico in tempo reale in stazioni ferroviarie e metropolitane
I movimenti dei treni nelle stazioni ferroviarie e metropolitane sono controllati da sistemi integrati, i cosiddetti Operation Control Centers, che includono sistemi di supporto alle decisioni, apparati per il controllo remoto e operatori umani. Il mercato mondiale di questo settore è stimato intorno al milione di euro: solo in Italia, i centri di controllo supervisionano oltre 2000 stazioni. I treni si spostano nelle stazioni per eseguire un certo numero di operazioni (servizi), quali l’arrivo e la partenza, la salita e la discesa dei passeggeri, etc. I movimenti dei treni sono quasi sempre controllati direttamente da operatori umani, i cosiddetti dispatcher. Questi stabiliscono il percorso adeguato per ogni treno in stazione e lo impongono manovrando deviatoi e controllando semafori. Nel far questo, i dispatcher assegnano implicitamente anche una tempistica (schedule) del-
le operazioni svolte da ogni treno. Il prodotto finale è il cosiddetto piano in tempo reale, consistente in una famiglia di percorsi (uno per ogni treno) e uno schedule delle diverse operazioni. Il Problema del Controllo del Traffico (TCP) in stazioni metropolitane e ferroviarie consiste quindi nel generare in tempo reale un piano che massimizzi (la somma pesata di) puntualità e regolarità. Per migliorare la gestione del traffico e per risparmiare sui costi operativi, l’Azienda Trasporti Milanesi (ATM) avviò un progetto per lo sviluppo, per le stazioni della metropolitana milanese, di un sistema di controllo completamente automatico. All’interno di questo progetto, abbiamo realizzato un algoritmo (OptPlan) per risolvere il (TCP) all’ottimo. L’algoritmo è inserito nel ciclo di controllo del traffico. Lo stato attuale
della stazione, ovvero la posizione dei treni e dei deviatoi e lo stato dei semafori, viene rilevato dal campo e inviato a OptPlan, che restituisce il piano ottimo in tempo reale. Il piano viene quindi realizzato inviando le opportune segnalazioni. Il (TCP) può essere naturalmente decomposto in due fasi: il routing, nella quale si sceglie un percorso per ogni treno, e lo scheduling. Poiché i treni competono per l’uso di una risorsa scarsa (binari e piattaforme), lo scheduling appartiene alla classe dei problemi di job-shop. OptPlan risolve il (TCP) enumerando implicitamente tutte le possibili famiglie di percorsi e quindi risolvendo all’ottimo le corrispondenti istanze di job-shop scheduling (vd. C. Mannino and A, Mascis, Optimal real-time traffic control in metro stations, Operations Research, in stampa)
Figura 1. Ciclo di controllo del traffico
Contatto Carlo Mannino | mannino@dis.uniroma1.it
42 | MATEMATICA E IMPRESA | numero uno 2008
AIRO
società VISIONLAB S.r.l., Asolo (TV) | L. Rettore Dipartimento di Matematica Pura ed Applicata, Università degli Studi di Padova | M. Morandi Cecchi
Classificazione automatica di pannelli in pietra
Il largo utilizzo che l’architettura moderna fa dei materiali naturali ha spinto l’industria ad allargare la produzione di manufatti in pietra, legno e nei loro corrispettivi sintetici, facendo nel contempo emergere problemi nuovi, legati alla garanzia del livello qualitativo del prodotto finale. La complessità dei processi produttivi e la natura stessa dei materiali lavorati fanno sì che risulti difficile ottenere i livelli di uniformità richiesti da una clientela esigente e nel contempo mantenere i costi di produzione a livelli competitivi. Lo stato dell’arte nella tecnologia dei sistemi di visione consente di far fronte a tutte queste esigenze permettendo la classificazione in lotti omogenei anche nei casi in cui la natura stessa del prodotto comporti una grande variabilità delle caratteristiche finali. Questo controllo può essere effettuato sui pezzi in tempo reale, direttamente sulla linea di pro-
duzione, garantendo la qualità totale con costi di esercizio minimi. Il software è stato strutturato in modo da richiedere all’utente solo degli esempi di classificazione.
Alcune delle funzionalità più importanti, come la gestione del gruppo di continuità e della diagnostica in remoto, sono gestite in modo trasparente per l’utente.
Una volta effettuate le necessarie impostazioni, il programma funziona valutando la somiglianza tra gli esempi ed il modello inquadrato, restituendo un valore corrispondente all’esempio più simile.
Il programma è predisposto per funzionare in modalità automatica o manuale.
Se nessuno degli esempi corrisponde in modo accettabile, la cosa viene notificata.
In modalità automatica i dati relativi al pannello inquadrato vengono acquisiti direttamente dal log di produzione. Un sensore segnala la presenza del pannello ed il sistema risponde effettuando la misura ed aggiornando il database. Nessun intervento è richiesto da parte dell’operatore.
In alternativa il sistema può fornire i due parametri di classificazione che sono: la tonalità di colore, e la luminosità. Nello sviluppo dell’interfaccia è stata posta molta attenzione alla facilità d’uso, scegliendo la semplicità del touchscreen e visualizzando solo le informazioni ed i comandi essenziali.
Per gli utenti più esperti è disponibile la visualizzazione in tempo reale delle statistiche di produzione.
In modalità manuale l’operatore imposta il tipo di pannello in lavorazione.
Figura 1 Figura 2
Figura 1. Lastra di granito crema-bordeaux usata nei test di qualificazione Figura 2. Il sistema di visione e’ composto da una telecamera a colori ad alta risoluzione con un sensore CCD (filtro di Buyer), da un sistema di illuminazione composto da una serie di neon a luce calibrata da 6500 K alimentati ad alta frequenza e dal sistema di elaborazione
www.visionlab.co.it Contatto Maria Morandi Cecchi | mcecchi@math.unipd.it
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 43
società
COVIP - Commissione di Vigilanza sui Fondi Pensione Facoltà di Scienze Statistiche, Sapienza Università di Roma | R. Ottaviani
Strumenti innovativi del calcolo attuariale per la valutazione e la gestione dei fondi pensione Lo sviluppo delle forme pensionistiche complementari (o fondi pensione), a seguito dei provvedimenti di riforma della previdenza pubblica e complementare emanati in Italia dal legislatore negli ultimi due decenni, è una delle più significative espressioni del processo di radicale innovazione che, da diversi anni, caratterizza il settore assicurativo-previdenziale. L’innovazione, nella previdenza complementare, ha riguardato numerosi aspetti di diversa natura (demografica, economica e sociale oltrechè normativa) ed ha introdotto ulteriori esigenze di calcolo. La matematica e la tecnica attuariale della previdenza, fermi restando alcuni fondamentali principi di calcolo mutuati dal più consolidato impianto tecnico-attuariale delle assicurazioni sulla vita ed adottati con continuità ai sistemi pensionistici pubblici a partire dalla fine del XIX secolo, è stata recentemente in grado di sviluppare nuove metodologie e procedure di calcolo. Tra le altre, si segnalano: a.
la considerazione della rischiosità connessa alla gestione
tecnica di un fondo pensione e, quindi, la necessità di definire appropriati modelli di teoria del rischio per le gestioni previdenziali; b.
l’estensione, in ambito previdenziale, di noti modelli per la copertura dei rischi nelle polizze assicurative equity e index linked (modello di Brennan e Schwartz, etc.);
c.
l’utilizzo degli strumenti finanziari derivati (in particolare, le opzioni) per la costruzione di modelli finalizzati alla gestione finanziaria dei fondi pensione.
Tra gli strumenti innovativi del calcolo attuariale per la previdenza assume notevole interesse l’approccio della simulazione stocastica (o, anche, metodo Montecarlo). In sintesi, si tratta di un procedimento teso alla costruzione numerica di campioni di un processo stocastico che permette di ottenere approssimazioni ottime delle grandezze oggetto di valutazione (salari, oneri per pensioni, etc.). Esso si contrappone al procedimento di calcolo diretto dei momenti delle variabili aleato-
Contatto Riccardo Ottaviani | riccardo.ottaviani@uniroma1.it
44 | MATEMATICA E IMPRESA | numero uno 2008
rie di interesse, tradizionalmente adottato nella modellistica attuariale in campo previdenziale. L’utilizzo della simulazione stocastica in ambito previdenziale si è sviluppato negli ultimi decenni del XX secolo anche con il fondamentale apporto degli attuari e dei ricercatori italiani. In particolare, si segnala il “Metodo degli Anni di Gestione su base Individuale e per Sorteggio” (M.A.G.I.S.), proposto da Mario Alberto Coppini e Alvaro Tomassetti, il quale pone l’attenzione su un determinato periodo, tipicamente l’anno, e procede alla simulazione delle variabili aleatorie relative a tale periodo per ciascuno dei componenti della collettività in esame; la simulazione assume il tempo come parametro operativo ed è replicata di periodo in periodo fino a quando la collettività è completamente estinta. Il M.A.G.I.S. ed altri modelli di simulazione stocastica sono oggi diffusamente impiegati, in Italia ed all’estero, per le valutazioni inerenti la gestione tecnica dei fondi pensione.
AMASES
società ATAC S.p.A. IAC (Istituto per le Applicazioni del Calcolo Mario Picone), CNR (Consiglio Nazionale delle Ricerche), Roma | B . Piccoli, R. Natalini
Modelli fluidodinamici per il traffico urbano
Il nostro gruppo di ricerca presso l’Istituto per le Applicazioni del Calcolo M. Picone ha recentemente sviluppato modelli fluidodinamici innovativi che permettono una ricostruzione in tempo reale del comportamento dei flussi di traffico all’interno della rete stradale, impiegando pochi punti di misura. La gestione del traffico veicolare infatti sta assumendo connotazioni sempre più rilevanti e cruciali nelle moderne città urbane. Il problema del traffico e di conseguenza quello dell’inquinamento urbano rende queste città difficilmente vivibili da parte dei suoi abitanti, e di conseguenza diventa necessaria una pianificazione ottimale della viabilità, prevedendo la possibilità di ridistribuire in tempo reale i flussi veicolari in base al verificarsi di condizioni di particolare criticità. Tali criticità
hanno evidentemente importanti ricadute socio-economiche, quali ad esempio la sicurezza e l’efficienza degli spostamenti, la salvaguardia della salute dei cittadini, il miglioramento della qualità della vita stessa.
avanzati, più precisamente fluido dinamici, che simulano fenomeni come la creazione di shock (incidenti, genericamente discontinuità del flusso di traffico…) e il derivante impatto sulle strade (Figura 1).
La modellizzazione dal traffico si presenta di difficile simulazione in particolare nei casi di ingorghi stradali.
Tali strumenti di simulazione sono anche utilizzabili in situazioni di emergenza, quali ad esempio ingorghi, incidenti, per pianificare il decongestionamento della rete stradale, valutare i tempi tecnici per lo svolgimento delle operazioni ed infine coordinare eventuali interventi di soccorso.
Il modello di stima e predizione si basa sulle due seguenti assunzioni, di natura prettamente empirica: •
•
una volta creati, gli ingorghi risultano stabili e possono contrastare per ore il normale flusso di traffico; la capacità di traffico in uscita dall’ingorgo è stabile e misurabile.
Il nostro gruppo di lavoro propone l’impiego di modelli macroscopici
Queste ricerche, condotte in collaborazione con l’ATAC S.p.A., hanno portato all’elaborazione di procedure di calibrazione dei parametri relativi al traffico sulla rete urbana di Roma, grazie all’acquisizione di dati sperimentali misurati da sensori collocati lungo le strade.
Figura 1
Figura 2
Fig. 1: Esempio di rotatoria, Piazza Re di Roma – Roma Fig. 2: Viale del Muro Torto-Roma
Contatto Benedetto Piccoli | b.piccoli@iac.cnr.it
SIMAI
MATEMATICA E IMPRESA | numero uno 2008 | 45
società
Telespazio S.p.A. | S. Lagrasta, S. Nocella, A. Salonico Dipartimento di Informatica, Università degli Studi dell’Aquila | F. Rossi, F. Marinelli, S. Nocella, S. Smriglio
Uno schedulatore multimissione per la costellazione GALILEO
Una costellazione satellitare è un gruppo di satelliti che eroga servizi ed è controllato in modo coordinato. L’applicazione più nota di una costellazione satellitare sono i sistemi satellitari globali di navigazione e posizionamento come GPS e GALILEO. GALILEO (Figura 1) è il sistema di posizionamento e navigazione europeo pensato per fornire prestazioni di assoluto rilievo in termini di accuratezza, continuità e disponibilità. Nella sua configurazione finale avrà in orbita 30 satelliti. Telespazio è l’operatore italiano di riferimento per la gestione, la navigazione e il controllo del sistema GALILEO e ha la responsabilità del centro di controllo del Fucino (L’Aquila). Il controllo di una missione satellitare
richiede in primo luogo la capacità di gestire efficientemente le comunicazioni terra-spazio. Per fornire un’idea della complessità e delle dimensioni di questo problema è sufficiente dire che nel caso di GALILEO il solo controllo della navigazione richiede di effettuare da poche stazioni radio terrestri diverse migliaia di comunicazioni terra-spazio alla settimana. Dal momento che le attuali procedure (manuali) non sono in grado di gestire problemi di queste dimensioni, è stato sviluppato uno schedulatore automatico delle comunicazioni basato su metodi di ottimizzazione. Lo schedulatore determina l’assegnamento delle comunicazioni alle stazioni e la tempificazione su ciascuna stazione. Esso si basa su una formulazione di programmazione lineare intera time-
indexed con un numero di variabili e vincoli che raggiungono i valori estremi rispettivamente di decine di milioni e di centinaia di migliaia. Nonostante le dimensioni, una originale euristica lagrangiana consente di pianificare, in un tempo generalmente inferiore alle due ore, missioni GALILEO su un orizzonte temporale di dieci giorni. Telespazio ha sperimentato lo schedulatore nel proprio ambiente di simulazione e sta attualmente considerandone l’implementazione operativa presso il centro del Fucino. I benefici attesi sono i (notevoli) risparmi derivanti dalla riduzione del numero di stazioni di terra da noleggiare, la riduzione dei tempi di pianificazione e un complessivo miglioramento della qualità delle pianificazioni.
Figura 1. Copertura del sistema GALILEO
Contatto Fabrizio Rossi | rossi@di.univaq.it
46 | MATEMATICA E IMPRESA | numero uno 2008
AIRO
società Terminal container - Terminal SECH (Southern European Container Hub), Genova | B. Ferrari DIEM (Dipartimento di Economia e Metodi Quantitativi), Università di Genova | A.Sciomachen, E. Tanfani, D. Ambrosino DIST (Dipartimento di Informatica, Sistemistica e Telematica), Università di Genova | M. Paolucci, D. Anghinolfi
Simulazione e ottimizzazione a supporto delle decisioni operative e strategiche di un terminal marittimo La collaborazione fino ad oggi ha riguardato principalmente lo studio di modelli di programmazione lineare binaria e lo sviluppo di metodi euristici per la determinazione di piani di stivaggio di navi portacontenitori. Tale problema di ottimizzazione combinatoria, noto in letteratura come Master Bay Plan, è NP-hard. Relativamente alle metodologie uti-
lizzate, inizialmente è stato proposto un metodo euristico a tre fasi che combina un metodo di decomposizione (usato per risolvere separatamente dei sottoproblemi, ciascuno relativo a classi di container da stivare con uguale destinazione) con tecniche di ricerca locale, atte a garantire l’ammissibilità della soluzione globale. Successivamente, sono
stare sviluppate due metaeuristiche: una tabù search e un algoritmo di Ant Colony (ACO). Inizialmente si è considerato lo scenario operativo di una nave vuota pronta in banchina, ipotizzando di utilizzare una sola gru per le operazioni di carico. Successivamente, si è valutata l’ipotesi di avere più gru attive in parallelo sulla stessa nave. Inoltre, dapprima il problema è stato studiato senza considerare la rotta complessiva della nave (ovvero senza prendere in considerazione le possibili operazioni di carico e scarico che possono avvenire nei porti visitati successivamente dalla nave). Al momento il gruppo di lavoro sta adeguando i modelli al caso multiporto, per tenere in considerazione il viaggio complessivo della nave, considerando dimensione sempre più elevate della nave stessa, ovvero da 200 a 6000 Teus. Si è appena avviata un’altra interessante collaborazione per effettuare esperimenti di simulazione ad eventi discreti per valutare diverse politiche di management dell’area della banchina, conseguenti all’espansione programmata del terminal in esame a partire dal 2009. L’analisi verrà principalmente rivolta allo studio dei turni del personale e all’assegnamento dell’equipment alle varie divisioni operative associate alle operazioni di handling dei container.
Figura 1. Veduta del Terminal Container SECH di Genova
Contatto Anna Sciomachen | sciomach@economia.unige.it
AIRO
MATEMATICA E IMPRESA | numero uno 2008 | 47
società
Grendi Trasporti Marittimi S.p.A. Dipartimento di Ingegneria del Territorio, Università di Cagliari | M. Di Francesco, A. Musso, A. Olivo, P. Zuddas
Ottimizzazione per l’implementazione dello street–turn: il caso del Gruppo Grendi Nell’ambito del trasporto delle merci le compagnie di navigazione sono chiamate ad acquisire elevati standard di gestione delle proprie risorse non solo sulle reti marittime, ma anche su quelle terrestri. Tale necessità è stata fortemente avvertita dal Gruppo Grendi, un moderno operatore logistico che offre servizi di trasporto merci da/per la Sardegna tramite i contenitori secondo la strategia dello street-turn. Essa consiste nella distribuzione tramite automezzi di contenitori pieni dal porto di sbarco agli importatori, nella successiva allocazione dei contenitori vuoti agli esportatori e infine nell’invio dei contenitori pieni al porto d’imbarco. Tuttavia, la determinazione dei loro
percorsi non è un compito semplice per gli operatori del Gruppo Grendi. A causa della vasta rete sotto il loro controllo e l’ampio spettro d’itinerari possibili, essi devono quotidianamente elaborare una quantità notevole d’informazioni in un tempo inadeguato. Inoltre, l’insieme delle informazioni a disposizione può improvvisamente cambiare, invalidando i percorsi determinati fino a quel momento. In questo progetto si è sviluppato un metodo di supporto alle decisioni determinare rapidamente gli itinerari di una flotta di automezzi al servizio d’importatori ed esportatori e attuare lo street-turn. Esso permette
inoltre di poter affrontare in tempo reale l’arrivo di nuove informazioni, avendo la possibilità di rideterminare e attuare una soluzione di elevata qualità. I risultati ottenuti in questa prima fase sembrano conciliare in maniera promettente la velocità decisionale con la completezza delle informazioni elaborate, producendo in tempi veramente ridotti soluzioni concretamente attuabili. Inoltre, occorre evidenziare che lo strumento proposto operi su un PC con caratteristiche standard senza richiedere pesanti investimenti e che esso possa essere facilmente interfacciato con software standard di logistica.
Figura 1. Schema di un itinerario inefficiente (caso 1) e di un itinerario ottimizzato (caso 2)
Contatto Paola Zuddas | zuddas@unica.it
48 | MATEMATICA E IMPRESA | numero uno 2008
AIRO
MATEMATICA E IMPRESA Editor in Chief Giorgio Fotia | CRS4 Comitato Scientifico Renato de Leone | Università di Camerino Franco Gori | Università di Firenze Flavio Pressacco | Università di Udine Mario Primicerio | Università di Firenze Managing Editor Luigia Puccio | Università di Messina
FIMA - Federazione Italiana di Matematica Applicata Segreteria c/o Prof.ssa Emilia Di Lorenzo Dipartimento di Matematica e Statistica, Università di Napoli Federico II via Cintia, Complesso Monte Sant’Angelo - 80126 Napoli Telefono: +39 081 675102 - Fax: +39 081 675184 segreteria@fimaonline.it | www.fimaonline.it
FIMA - Federazione Italiana di Matematica Applicata Nata nel 2004 con lo scopo di incentivare la ricerca e lo scambio scientifico nel campo della applicazioni della matematica la FIMA riunisce attualmente tre Società Scientifiche: AIRO - Associazione Italiana di Ricerca Operativa AMASES - Associazione per la Matematica Applicata alle Scienze Economiche e Sociali SIMAI - Societa’ Italiana di Matematica Applicata e Industriale. La FIMA si propone di diffondere e sostenere le attività di ricerca e di collaborazione scientifica in tutte le aree in cui la modellizzazione matematica dei problemi studiati assolve un ruolo decisivo ai fini della loro migliore comprensione, del loro approfondimento e della loro soluzione. Per questo la FIMA favorisce lo scambio di informazioni e la partecipazione a progetti comuni tra organismi che operano nel campo della matematica applicata e soggetti ed istituzioni della realtà economica ed industriale: promovendo la stipula di convenzioni, l’organizzazione di congressi, la costituzione di gruppi integrati di ricerca, la pubblicazione di materiale scientifico e la diffusione di metodi e risultati. http://www.fimaonline.it
AIRO - Associazione Italiana di Ricerca Operativa Fondata nel 1961, è composta da oltre 400 rappresentanti di Università, Centri di Ricerca e aziende. Fornisce servizi e si propone di sviluppare in Italia la Ricerca Operativa e le sue applicazioni. In particolare, promuove e incoraggia la formazione e l’aggiornamento in Ricerca Operativa, Ottimizzazione e Scienze delle Decisioni; si adopera per il riconoscimento del ruolo e della qualificazione professionale del Ricercatore Operativo; promuove pubblicazioni di carattere scientifico e divulgativo. http://www.airo.org AMASES - Associazione per la Matematica Applicata alle Scienze Economiche e Sociali Costituita nel 1976 al fine di potenziare le attività di ricerca nell’area delle applicazioni della matematica all’economia, la finanza, le assicurazioni e, più in generale, all’intero complesso delle scienze sociali, l’AMASES svolge un’importante azione di sostegno allo sviluppo degli studi nel campo della modellistica economica, della analisi dei mercati finanziari e più in generale della moderna teoria del rischio. L’Associazione, oltre a promuovere un più esteso impiego di metodi quantitativi nei diversi settori della scienze economiche, è parte attiva nella costituzione di specifiche occasioni di collaborazione e di incontro tra matematici applicati ed aziende che operano nel campo della gestione della ricchezza finanziaria e della protezione dal rischio, dove negli ultimi decenni, caratterizzati da una sempre maggiore rilevanza dei fenomeni finanziari, l’impiego di modelli probabilistici di valutazione e tutela ha finito con l’assumere un ruolo decisivo. Pioniere in questo settore fu a suo tempo Bruno De Finetti, che alla fondazione dell’AMASES partecipò attivamente, per esserne poi Presidente Onorario fino alla scomparsa. http://www.amases.it SIMAI - Società Italiana di Matematica Applicata e Industriale Costituita nel 1989, la SIMAI ha tra i suoi scopi quello di promuovere lo sviluppo della Matematica Applicata e Industriale e delle discipline ad essa connesse. La società promuove e sostiene una fattiva interazione tra università, enti di ricerca e industrie, nei vari settori della matematica applicata, intorno a problemi di specifico interesse industriale. Particolare riguardo è rivolto allo sviluppo di modelli matematici (deterministici o stocastici), allo studio delle loro proprietà qualitative, all’analisi numerica ad essi connessa, fino all’implementazione di codici di calcolo. http://www.simai.eu