TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
ANNO XVI N. 04 2014 AFFIDABILITÀ & TECNOLOGIA
GRUPPO MISURE ELETTRICHE ED ELETTRONICHE
EDITORIALE Sott’acqua!
ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO/ Torino - nr 4 - Anno 16 - Dicembre 2014 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi
IL TEMA: Misure riferibili: strumento competitivo per le imprese
GLI ALTRI TEMI Quando l’incertezza genera certezza Navigazione Indoor e AAL Misura di alte correnti impulsive Stato emozionale: nuovo misurando? Monitoraggio di edifici con raggi cosmici Misure su condotte quadrate
ALTRI ARGOMENTI La 17025 - Audit parte III Gli inizi delle trasmissioni senza fili
TEMA SPECIALE Le misure riferibili: strumento primario per la competitività d’impresa Resoconto del Convegno di Torino 28 ottobre 2014, in occasione dell’inaugurazione dei nuovi uffici Accredia – Dip. Taratura, presso l’I.N.Ri.M.
ACCREDIA sarà presente a
COPER TM 4-2014a:COPER TM 4-2014.qxd 25/11/14 15:51 Pagina 2
TUTTO_MISURE
ANNO XVI N. 04 ƒ 2014
IN QUESTO NUMERO Navigazione indoor e ambient assisted living Indoor navigation and ambient assisted living D. Fontanelli, D. Macii, L. Palopoli
259 Monitoraggio dallo spazio: tracciamento di raggi cosmici per il monitoraggio di edifici storici Building monitoring from space I. Bodini et al.
279 Caratterizzazione metrologica di un trasduttore di forza Metrological characterization of a force transducer G. Genta, A. Germak
311 Gli inizi delle trasmissioni senza fili The beginnings of wireless transmissions M. Tschinke
317
Editoriale: Sott’acqua! (F. Docchio) 245 Comunicazioni, ricerca e sviluppo da Enti e Imprese Notizie nel campo delle misure e della strumentazione 247 Il tema: Accreditamento e Taratura: strumenti competitivi Le misure riferibili: strumento primario per la competitività d’impresa 251 Gli altri temi: Misure per la Salute e il Benessere Navigazione indoor e ambient assisted living (D. Fontanelli, D. Macii, L. Palopoli) 259 Gli altri temi: Il Vincitore del Premio “Offelli” 2014 Metodi di misura per alte correnti impulsive con applicazione ai lanciatori elettromagnetici (R. Ferrero) 263 Gli altri temi: La Metrologia forense Quando l’incertezza genera certezza (A. Ferrero, V. Scotti) 267 Gli altri temi: Misure in Psicologia Lo stato emozionale: un nuovo misurando (A. Mencattini, E. Martinelli, C. Di Natale) 273 Gli altri temi: Misure per l’Ambiente e il Costruito Monitoraggio dallo spazio: tracciamento di raggi cosmici per il monitoraggio di edifici storici (I. Bodini, A. Zenoni, G. Bonomi, A. Donzella, M. Lancini, G. Baronio, P. Vitulo, F. Fallavollita, G. Zumerle) 279 Health monitoring in materiali edili con elementi sensibili embedded a basso costo (A. Cataldo, E. De Benedetto, G. Cannazza, N. Giaquinto, E. Piuzzi) 283 Gli altri temi: Misure di Fluidi Portata volumetrica di condotte a sezione quadrata (G. Dinardo, L. Fabbiano, G. Vacca) 287 La pagina di Accredia Notizie dall’Ente di Accreditamento (a cura di R. Mugno, F. Nizzero) 291 La pagina di A.L.A.T.I. Associazione dei Laboratori italiani di taratura (a cura di P. Giardina) 293 La pagina di IMEKO Le pubblicazioni di IMEKO, International Measurement Confederation (a cura di P. Carbone) 295 I Seriali di T_M: Misure e Fidatezza Tecniche di analisi della fidatezza: FTA - l’albero delle Avarie - Parte I (M. Catelani, L. Cristaldi, M. Lazzaroni) 297 I Seriali di T_M: La Misura del Software, da GUFPI - ISMA Misurare per credere... (L. Buglione) 301 Le Rubriche di T_M: Metrologia legale e forense Sulle verifiche dei contatori di energia: risposta a un lettore (V. Scotti) 306 Spazio Associazioni Universitarie di Misuristi Dalle Associazioni Universitarie di Misuristi 307 Manifestazioni, Eventi e Formazione 2015: eventi in breve 310 Lo Spazio degli IMP e Metrologia generale Caratterizzazione metrologica di un trasduttore di forza multicomponente a forma di esapodo (G. Genta, A. Germak) 311 Commenti alle norme: la 17025 Audit interno – Parte III (N. Dell’Arena) 315 Storia e Curiosità Gli inizi delle trasmissioni senza fili (M. Tschinke) 317 Abbiamo letto per voi 320 News 250-274-296-300-304-316-319
T_M
N.
4/14 ƒ 243
Franco Docchio
EDITORIALE
■
Sott’acqua!
Under water! Cari lettori! Per l’Incipit di questo Editoriale rischio di ripetermi. Sono trascorsi mesi dal precedente Editoriale e l’Italia è di nuovo sott’acqua, sia al Nord sia al Centro-Sud. Complici i condoni, gli scempi ambientali, la cementificazione, l’incuria, l’immobilismo delle Amministrazioni centrali e locali. Sott’acqua stanno andando anche i consensi al nostro Governo, nonostante i discorsi improntati all’ottimismo ai quali peraltro si contrappongono contestazioni più o meno violente anche da parte dalle stesse forze politiche che lo compongono. Il contesto globale non aiuta certo a ben sperare, dato che (dopo le elezioni di Novembre in USA e dopo il G20) sembriamo tornati in un clima di guerra fredda, che certo non aiuta l’economia dei Paesi Europei e dell’Italia in particolare. Sott’acqua sembra stare anche l’Università italiana, secondo il Rettore dell’Università di Bergamo nonché Presidente della Conferenza dei Rettori, Stefano Paleari, che ha tenuto un’illuminata ed efficace presentazione all’Inaugurazione dell’Anno Accademico dell’Università di Trento. Mi riservo di tornare in dettaglio su questo tema nel mio prossimo Editoriale su T_M News, ma ne anticipo alcuni concetti, che hanno a che vedere con il calo di fiducia nell’azione di Governo. I cambiamenti avvenuti nell’Università italiana, secondo Paleari, sono stati improntati a meri assetti di Governance (NdA: v. Legge 240). Sono stati cambiamenti che poco hanno avuto a che vedere con ragionamenti sul ruolo e sulle finalità dell’Università italiana. Negli ultimi anni il legislatore ha sempre decantato l’autonomia, ma l’ha di fatto ridotta. Ha contratto i finanziamenti sbandierando l’esigenza di premiare il merito e ha ridotto gli incentivi al Diritto allo Studio, pur enfatizzando la necessità di promuoverlo. Dopo aver elencato una serie di dati sconsolanti sulla nostra Università nel contesto globale, Paleari si è posto il problema del futuro (“speranza ma non illusione”, citava il titolo), affermando che “la nostra Università sarà migliore non solo se avrà portato una Sede tra le prime dieci in classifica, ma se avrà creato le condizioni per il miglioramento di tutti (non c’è panna senza latte)”! Chissà se verrà ascoltato… Venendo a noi, questo numero ha come tema “Accreditamento e Taratura: strumenti competitivi“ e propone un ampio resoconto del Convegno tenutosi a Torino il 28 Ottobre u.s. e organizzato da ACCREDIA, in occasione dell’inaugurazione della nuova sede del Dipartimento di Taratura presso l’I.N.Ri.M. Come leggerete, tutti gli interventi hanno avuto un solo leitmotiv: il fatto che solo da un aumento delle misure riferibili e dalle tarature verrà un vero aumento di competitività delle
Imprese nazionali nei confronti della concorrenza, specialmente estera. Quindi le misure riferibili hanno un vero e proprio “valore competitivo” e non devono essere vissute come obblighi costosi e inevitabili da parte delle Imprese. Spero che questi contributi possano illuminare le dirigenze di molte Imprese, specie quelle medio-piccole, che ancor oggi non investono adeguatamente nella riferibilità e nella taratura. Nella sezione “Altri Temi” trovate numerosi articoli, che ho selezionato tra le memorie presentate ai Convegni annuali di settembre dell’Associazione GMEE e del Gruppo MMT ad Ancona. Si tratta di temi di ricerca di base e applicata d’indubbio interesse, che ancora una volta dimostrano, anche in tempi di ristrettezze economiche in materia di finanziamenti alla Ricerca, la vitalità del nostro corpo di Ricercatori. Ciò vale anche per l’articolo comparso nella sezione degli Istituti Metrologici Primari. Il cospicuo numero di articoli pervenuti mi ha costretto a chiedere ad alcuni colleghi, responsabili di seriali e rubriche, di “saltare un turno”: tra questi gli autori della Rubrica sulla Compatibilità Elettromagnetica, la curatrice della Rubrica sulla Visione e l’ottimo curatore della neonata Rubrica “Metrologia per tutti”, Michele Lanna, il cui primo contributo sui Materiali di Riferimento ha ottenuto un successo notevole sul numero online. Inoltre, la Rubrica “Metrologia Legale e Forense” è stata ridotta a un “botta-e-risposta” con un lettore, complice l’esteso articolo, che vede la titolare della Rubrica coautrice, pubblicato in “Altri Temi”. Queste Rubriche saranno puntualmente presenti nel prossimo numero. Proseguono invece le Rubriche di ACCREDIA e A.L.A.T.I., quest’ultima legata ormai a doppio filo con il forum “Misurando.org”, che utilizza per veicolare l’informazione e la comunicazione per i suoi soci e a cui fornisce esperti e panelist. Mi sento in dovere di caldeggiare una sempre maggior partecipazione dei Laboratori di Taratura all’Associazione, al fine di renderla più forte e autorevole anche in relazione a una sua partecipazione in ACCREDIA. È piacevole registrare il lusinghiero successo che i lettori tributano agli articoli della sezione “Storia e curiosità”: in questo numero il nostro collaboratore M. Tschinke ci illustra le “gloriose” origini delle telecomunicazioni senza fili, dalle prime intuizioni di Maxwell e dai primi esperimenti di Hertz all’invenzione di diodi e triodi a vuoto. Quando mi leggerete saremo prossimi al Natale. In una delle strade di Brescia, che percorro abitualmente, c’è (dimenticato) uno striscione che recita “2014 – L’anno della svolta”. Lo abbiamo sperato tutti: non lo è stato. Nell’augurare a tutti voi serene festività natalizie mi fa piacere (anche se la realtà non induce all’ottimismo) condividere con voi una pur timida residua speranza che il 2015 sia migliore. Buona lettura! Franco Docchio
T_M
N.
4/14 ƒ 245
COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure (franco.docchio@unibs.it)
Notizie nel campo delle misure e della strumentazione
NEWS IN MEASUREMENT AND INSTRUMENTATION This section contains an overview of the most significant news from Italian R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels. RIASSUNTO L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, Start-up, dei Gruppi di R&S Italiani nel campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati possono costituire stimolo per attività di Trasferimento Tecnologico. NUOVO GRUPPO: “AFFIDABILITÀ DEI PRODOTTI E DEI COMPONENTI”
Caratteristiche e finalità del Gruppo
Anticipato ufficialmente nella conferenza svoltasi il 16 aprile scorso a Torino, nell’ambito di Affidabilità & Tecnologie 2014, il Gruppo ha come obiettivo la diffusione della cultura dell’affidabilità presso tutte le aziende che producono componenti, beni strumentali, macchine, apparecchiature, appartenenti a svariati settori manifatturieri (automotive, aerospace, ferroviario, automazione,
energia, medicale, elettrico, elettronico, ecc.), per le quali è fondamentale la garanzia dell’affidabilità dei vari componenti impiegati. Una garanzia maggiore rispetto a quella offerta dal fornitore del componente, che si rende opportuna e necessaria a fronte di esigenze di varia natura, ad esempio in materia di sicurezza, durata, precisione, ecc. L’Affidabilità, infatti, è la caratteristica di un prodotto che maggiormente influisce sulla fidelizzazione del cliente e necessita, quindi, di una particolare attenzione da parte delle aziende produttrici. Il Gruppo intende creare una “rete” di condivisione di best-practices, nella quale le aziende interessate potranno trovare risposte alle proprie specifiche esigenze in materia e, nello stesso tempo, mettere a disposizione delle altre le proprie esperienze positive. Potranno farvi parte rappresentanti delle aziende produttrici di cui sopra, ricercatori ed esperti. I fornitori di soluzioni e servizi mirati a garantire l’affidabilità dei componenti avranno un ruolo importante, pur non facendo parte del Gruppo: potranno sostenere e promuovere l’iniziativa, presentando al Gruppo loro Clienti (primarie aziende produttrici) e diffondendo il messaggio positivo del Gruppo.
T_M
Nella fase di avvio, il Gruppo non avrà specifica veste giuridica, né statuto, né cariche ufficiali, riservandosi di adottarle in futuro, a seguito dell’auspicabile aumento degli aderenti. Il Gruppo è promosso e coordinato a livello di segreteria da A&T, nella persona del coordinatore MASSIMO MORTARINO (e-mail: mmortarino@affidabilita.eu), con la supervisione tecnica del co-promotore, Ing. GIANNI ORLANDINI, fra i massimi esperti italiani in materia di Affidabilità. Fasi operative (ottobre 2014) Comunicazione della costituzione del Gruppo ai potenziali interessati. Raccolta delle adesioni, dei singoli suggerimenti e idee da sviluppare, e dei rispettivi materiali da condividere con gli altri membri del Gruppo (casi ap plicativi, sintesi di esperienze, ecc.) ed eventualmente da proporre in forma sintetica nel blog tematico realizzato da A&T o di potenziale interesse come relazione da presentare nella prossima edizione 2015 della manifestazione. (novembre 2014) Avvio del lavoro di diffusione periodica dell’attività del Gruppo, attraverso i mezzi di comunicazione di A&T, i social network, ecc. Progettazione delle iniziative del Gruppo nell’ambito di Affidabilità & Tecnologie 2015 (Torino Lingotto, 22-23 aprile 2015): l’organizzazione della manifestazione offre al Gruppo neocostituito l’opportunità di organizzare un convegno mirato proprio su questo tema, una postazione dedicata, autonomamente gestita, nella quale sarà operativo uno Sportello Informativo a disposizione dei visitatori della manifestazione, avente il
N.
4/14 ƒ 247
N. 04ƒ ; 2014 duplice scopo di fornire loro informazioni, consigli e suggerimenti e, parallelamente, promuovere la loro adesione al Gruppo stesso. All’interno di tale postazione potrà essere disponibile, inoltre, un corner attrezzato in cui ospitare brevi presentazioni, curate dagli stessi membri del Gruppo, di best practices ed esperienze concretamente sviluppate nella propria realtà di appartenenza, utili per illustrare l’importanza dell’affidabilità. Proposta di adesione Il presente invito, che ufficializza la costituzione e l’avvio operativo del Gruppo, viene inoltrato a un preciso target comprendente, oltre a tutti coloro i quali si sono espressamente dichiarati interessati a farvi parte, alcuni relatori e selezionati partecipanti dei convegni tematici svoltisi a Torino nell’ambito delle ultime due edizioni di Affidabilità & Tecnologie. Ad essi, in via prioritaria, siamo lieti di proporre l’adesione al Gruppo (che non comporta alcun costo né alcun obbligo giuridico), invitandoli a trasmettere i resoconti delle proprie best practices (in forma già depurata dagli aspetti aziendali riservati) e inviare i propri suggerimenti, idee, proposte in ottica di sviluppo dell’iniziativa. La gestione dei contributi ricevuti sarà curata dai due coordinatori e dagli altri esperti che progressivamente aderiranno al Gruppo offrendo la propria disponibilità a far parte anche del comitato di valutazione e indirizzo. Per aderire al Gruppo Inviare un messaggio di posta elettronica alla segreteria del Gruppo (mmortarino@affidabilita.eu), indicando dettagliatamente i propri riferimenti (nome e cognome, azienda, mansione, tel./fax/indirizzo email), le esperienze che si è interessati a condividere nell’ambito del Gruppo ed eventuali quesiti o esigenze specifiche per le quali chiedere supporto ad altri membri. PIATTAFORMA WEB PER LA DIAGNOSI DERMATOSCOPICA
Hippocratica Imaging, start-up (NdR: Azienda ammessa al Programma Smart & Start di Invitalia quale impresa che punta su Innovazione, utilizzo delle Tecnologie Digitali e valorizzazione dei risultati della Ricerca) specializzata nelle soluzioni di misura e analisi delle immagini per applicazioni medicali, ha presentato al 53° Congresso Nazionale Associazione Dermatologi
T_M ƒ 248
N. 04ƒ ;2014 L’innovativo supporto informatico alla diagnosi dermatoscopica (a breve disponibile anche in versione App) si caratterizza per un alto grado di sensibilità e interattività con il dermatologo, creando una sinergia diagnostica dalle elevate potenzialità sia in termini di prevenzione secondaria del melanoma (possibilità di rendere la dermoscopia disponibile a un più ampio numero di dermatologi) sia in termini didattici (possibilità di addestrare l’occhio del dermatologo a individuare parametri riconducibili a criteri dermoscopici di sospetto).
Il sistema informatico, risultato di un’attività di ricerca pluriennale condotto dal Gruppo di Misure Elettroniche dell’Università di Salerno, è in grado d’individuare in immagini digitali di lesioni cutanee e oggettivare (attraverso la misura di caratteristiche cromatiche e morfologiche) ciascuno dei sette parametri inclusi nel metodo diagnostico 7-Point Check List, grazie all’addestramento nel seguire il procedimento di dermatologi esperti di riferimento. Per ulteriori informazioni: www.hippocratica-imaging.it
▲
Ospedalieri Italiani (Benevento, 2427 Settembre) i3DermoscopiApp, la piattaforma web di supporto al dermatologo per la diagnosi precoce del melanoma.
COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE
CEI – COMITATO ELETTROTECNICO più direttamente collegati con l’eletITALIANO tronica e l’elettrotecnica.
Importante accordo tra CEI e IEEE per la vendita delle Norme IEEE in Italia È stato sottoscritto l’1 ottobre 2014 un accordo tra il Comitato Elettrotecnico Italiano (CEI) e l’Institute of Electrical and Electronic Engineers (IEEE) che garantisce all’Associazione il diritto di vendere, pubblicizzare e promuovere le Norme internazionali IEEE. L’accordo, sottoscritto dai rispettivi Direttori Generali Roberto Bacci e Konstantinos Karachalios, ha una durata di quattro anni e consente al CEI di vendere in Italia le Norme IEEE nei seguenti formati: • Individual PDF format, ovvero la vendita di singole norme; • Individual print format, ovvero la vendita di copie cartacee di singole norme; • Hardcopy materials, ovvero le pubblicazioni originali rilegate contenenti una o più norme; • Primary Collections, ovvero una predefinita combinazione di norme in formato PDF; • Packages, ovvero una predefinita combinazione di norme in formato PDF, inclusi documenti provenienti da altre fonti; • Custom Collections, ovvero una o più norme in formato PDF specificatamente customizzate per il cliente (fino a un massimo di 50 norme). L’IEEE ha sede negli Stati Uniti. Fondata nel gennaio 1963 dalla fusione tra l’IRE (Institute of Radio Engineers) e l’AIEE (American Institute of Electric Engineers), annovera oltre 430.000 membri in più di 160 Nazioni (dati al 2014). Pubblica numerose norme tecniche riguardanti i settori delle comunicazioni, dell’elettronica di potenza, dell’elettronica consumer, del software engineering, del Digital Signal Processing (DSP) e di tutti i settori
Il CEI – Comitato Elettrotecnico Italiano – è un’Associazione di diritto privato, senza scopo di lucro, responsabile in ambito nazionale della normazione tecnica in campo elettrotecnico, elettronico e delle telecomunicazioni, con la partecipazione diretta (su mandato dello Stato Italiano) nelle corrispondenti organizzazioni di normazione europea. Il CEI propone, elabora, pubblica e divulga Norme tecniche che costituiscono il riferimento per la presunzione di conformità alla “regola dell’arte” di prodotti, processi, sistemi e impianti elettrici. UNI – ENTE ITALIANO DI NORMAZIONE
Un ponte tra normazione, imprese, ricerca e innovazione
Oltre 370 delegati, tra cui rappresentanti di progetti di ricerca e innovazione, delle imprese, delle organizzazioni nazionali ed europee di normazione e della Commissione europea, hanno partecipato alla Conferenza “Standards: Your Innovation Bridge” (Bruxelles, 30 ottobre 2014) organizzata da CEN e CENELEC in collaborazione con EFTA – Associazione europea di libero scambio. Programmata nel quadro del progetto BRIDGIT – Bridging the Gap between Research and Standardization, la conferenza aveva l’obiettivo di riunire i rappresentanti di tutte le parti interessate per esaminare, a livello europeo, il rapporto tra le attività di ricerca e innovazione e la normazione. La normazione è uno strumento efficace e potente per condividere conoscenze e trasferire nuove tecnologie, idee e innovazioni sul mercato. Ciò è già stato dimostrato in settori quali i sistemi di produzione avanzati, l’energia, le tecnologie dell’infor-
T_M ƒ 249
N. 04ƒ ; 2014
■
COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE
T_M ƒ 250
mazione alle strategie di business globali. “È nostra convinzione che le norme possano realmente collegare innovazione e mercato. Dobbiamo lavorare più duramente e portare i valori strategici della ricerca e della normazione in un’Europa più competitiva”. Uno dei prossimi passi sarà quello di migliorare i contatti tra ricercatori, innovatori e normatori e d’identificare reciproche e vantaggiose collaborazioni. A questo proposito il direttore CEN CENELEC ha accolto con favore l’impegno della Commissione europea nell’incoraggiare i collegamenti tra progetti di ricerca/innovazione e attività di normazione, in particolare nel quadro del programma Horizon 2020.
NEWS
▲
mazione, il riciclo, i trasporti, la sicurezza. Ad aprire la conferenza l’intervento di Scott Steedman, CEN Vice-President Policy. Egli ha sottolineato come le norme accelerano l’innovazione e aumentano le probabilità di successo. “Le norme sono diventate il carburante della conoscenza per le imprese” perché stanno guidando la crescita di settori nuovi ed emergenti, come quello dei veicoli elettrici, della microbiologia, ecc. Christian Reinaudo – amministratore delegato di Agfa-Gevaert – ha portato come esempio le norme sui requisiti di radiografie e scansioni in ambito sanitario per spiegare i vantaggi della normazione in termini di condivisione della conoscenza, introduzione di nuove tecnologie e apertura dei mercati. Egli ha affermato che “la normazione, l’innovazione e la proprietà intellettuale sono tre lati dello stesso triangolo, dove le norme rappresentano l’infrastruttura comune che fornisce la base per l’innovazione”. Clara de la Torre della DG Ricerca e Innovazione della Commissione europea ha sottolineato che la normazione può facilitare la diffusione dell’innovazione in nuovi prodotti e che vi è la necessità di regole normative sin dalla fase iniziale di progettazione e sviluppo di un progetto di ricerca/innovazione. Nel pomeriggio si sono tenute le sessioni di approfondimento tematico, delle quali Ruggero Lensi di UNI ha moderato i lavori, sull’importanza della valutazione d’impatto della normazione nelle strategie aziendali e le relative decisioni di management. Le conclusioni della conferenza sono state riassunte da Elena Santiago Cid, direttore generale CEN CENELEC. Nel suo discorso ha evidenziato la necessità d’integrare la normazione nei progetti di ricerca e d’identificare i punti d’ingresso della ricerca nell’elaborazione delle norme, al fine di garantire risultati efficienti. Ha poi insistito sul fatto che le aziende potrebbero trarre beneficio dal collegare più strettamente le loro attività di ricerca, innovazione e nor-
CARLO SANTANGELO NUOVO BUSINESS MANAGER KEYSIGHT ITALIA PER LA DIVISIONE SERVICE AND SUPPORT Lo scorso 3 novembre Keysight Technologies ha annunciato il completamento del processo di separazione da Agilent, conclusosi con la quotazione in Borsa al New York Stock Exchange (NYSE) con l’identificativo ufficiale (ticker symbol) KEYS. Forte di 75 anni di eccellenza, il Gruppo Test&Measurements, già alle origini di HP, leader globale nel settore, inizia il suo viaggio come azienda indipendente, proseguendo sotto il nuovo marchio il proprio cammino d’innovazione. Le necessità nel mercato della strumentazione elettronica rappresentano ora le principali opportunità per Keysight e in questo piano di forte focalizzazione e rinnovamento si colloca la nomina di Carlo Santangelo a nuovo referente Service and Support Italia. Già Responsabile del Canale Indiretto, Santangelo inizia la propria carriera in HP ricoprendo ruoli di vendita diretta verso importanti aziende multinazionali, leader nei settori aerospazio e difesa, comunicazioni, elettronica e altri clienti
Concludendo, Elena Santiago Cid ha parlato della necessità di un cambiamento culturale nella “standardization community”. “Dobbiamo introdurre l’innovazione nella normazione” ha detto “e dobbiamo avere la capacità di adattarci alle nuove esigenze in modo tempestivo. Si tratta di una sfida per la comunità della ricerca, per gli innovatori e, certamente, per i normatori”. Per maggiori informazioni sulla Conferenza europea “Standards: Your Innovation Bridge” consultare la pagina web: www.cenelec.eu/news/events/ Pages/EV-2014-02.aspx Per informazioni sulla relazione tra ricerca, innovazione e normazione: www.cenelec.eu/research chiave. La solida esperienza e il know-how contribuiranno ad accelerare la crescita e la qualità nei servizi offerti alla clientela italiana, formata da aziende in cerca di soluzioni vantaggiose tali da consentire loro di superare le sfide di una realtà sempre più competitiva e in rapida evoluzione. Con 1.200 dipendenti nel mondo nella sola divisione Service and Support, 200.000 tarature e 80.000 riparazioni all’anno, 16 accreditamenti presso enti internazionali, Keysight offre esperienza e competenza uniche in questo settore. Dalla garanzia standard di 3 anni su tutti gli strumenti, alla Infoline gratuita 24/7, fino alla possibilità di gestire più efficacemente e direttamente online il parco strumenti, Keysight propone molteplici modalità di servizio per soddisfare tutte le esigenze di supporto, calibrazione, riparazione e taratura, on-site o presso i nostri laboratori per strumenti Keysight e multivendor. I servizi di assistenza Keysight consentono maggiore affidabilità, ridotti costi di gestione e maggiore convenienza: ingegneri formati sul campo che si avvalgono esclusivamente di componenti Keysight originali, strumenti di diagnostica automatizzati che consentono di rilevare e correggere i guasti in maniera rapida ed efficiente, riparazioni comprensive di aggiornamenti del firmware, procedure postriparazione di test, riallineamenti, taratura e upgrade. Keysight risponde agli standard ISO 9001 e ISO 17025. Contatto: carlo_santangelo@keysight.com, mobile 335/7454291. Per maggiori informazioni: www.keysight.com
▲
ACCREDITAMENTO E TARATURA: STRUMENTI COMPETITIVI
IL TEMA
A cura di Massimo Mortarino (mmortarino@affidabilita.eu)
Le misure riferibili Strumento primario per la competitività d’impresa
TRACEABLE MEASUREMENTS: AN ESSENTIAL INSTRUMENT FOR THE INDUSTRIAL COMPETITION The official opening of the new premises of the Calibration Department of Accredia, hosted by I.N.Ri.M. in Turin, Italy, has taken place on October 28th. Accredia intended to further strengthen the importance of this event by organizing, in parallel, the following Round Table: “A concrete and careful analysis on the competitive value of traceable measurements for industries”. Experts in this field contributed to this Round Table, in conjunction with TUTTO_MISURE. An extensive summary of the contributions is here presented, devoted to all readers who are engaged in the ambitious task to “innovate to compete”. RIASSUNTO Il 28 ottobre scorso si è svolta a Torino l’inaugurazione dei nuovi uffici del Dipartimento Taratura di Accredia, ospitati dall’I.N.Ri.M. Accredia ha voluto arricchire ulteriormente il significato di tale occasione ufficiale offrendo al pubblico presente un momento concreto di analisi sul valore delle misure riferibili come strumento competitivo per le imprese, a cura di autorevoli esperti e organizzato in collaborazione con TUTTO_MISURE. Proponiamo un ampio resoconto degli interventi presentati, certi di fare cosa gradita, in particolare, ai lettori che devono guidare le imprese impegnate a “innovare per competere”.
I SALUTI INTRODUTTIVI
In apertura, Federico Grazioli, presidente ACCREDIA, ha sottolineato il particolare significato dei nuovi uffici del Dipartimento Taratura, ospitati presso la prestigiosa sede dell’I.N.Ri.M., quindi a stretto contatto con le massime competenze della Metrologia nazionale, e proprio a Torino, capitale della metrologia italiana fin dal 1861, anno in cui Camillo Cavour adottò il Sistema Metrico Decimale e il neo-costituito Regno d’Italia emise, come prima legge in assoluto, quella metrica. Grazioli ha quindi evidenziato l’importanza della taratura degli strumenti di misura nella vita quotidiana, in ogni ambito, e il valore delle certificazioni accreditate come “strumento” per le aziende italiane, impegnate a competere nei mercati internazionali. Il suo particolare ringraziamento è poi andato a tutto il personale del Dipartimento Taratura, capace di gestire con competenza l’accreditamento di 169 Laboratori che, a loro
volta, emettono annualmente circa 105.000 certificati. Massimo Inguscio, Presidente I.N.Ri.M., ha ricordato le analogie con l’Istituto metrologico tedesco, sorto a Berlino nel giardino affidato in concessione dalla famiglia Siemens, che chiese ai metrologi di certificare la maggiore efficienza delle lampadine elettriche rispetto quella delle lampade a gas. Tale certificazione di efficienza portò alla necessità di sviluppare la meccanica quantistica, la scienza più rivoluzionaria del secolo scorso, grazie alla quale copriamo oggi molti settori della metrologia. La metrologia, inoltre, mette ordine in molti nuovi campi: ad esempio nella biometrologia, nanometrologia, metrologia in chimica e dell’ambiente, ecc. Inguscio ha annunciato che il 4/5/6 dicembre prossimi verranno celebrati gli 80 anni dell’Istituto (unico in Italia a non avere sede a Roma e nato, come IEN “G. Ferraris”, perché Torino conservasse la propria vocazio-
T_M
ne di capitale industriale), con la presenza di autorevoli esponenti della Metrologia internazionale. Il Presidente, che ora si occupa di fisica e di luce laser, nacque come metrologo e, appena laureato, fece un anno di borsa di studio proprio qui a Torino, presso l’I.N.Ri.M. Dall’inizio di quest’anno è alla presidenza dell’Istituto, riscoprendo nella metrologia una grande ricchezza ed estrema serietà nel mettere la scienza al servizio dell’innovazione tecnologica, capace di portare ricchezza a un intero Paese. La metrologia lo fa davvero, in ogni campo: fisica, chimica, industria meccanica, agricoltura, scienza delle acque. Inguscio ha citato con orgoglio un prestigioso esempio: la Corea del Sud ha recentemente acquistato da I.N.Ri.M. i nuovi sistemi tarati di misura di capacità per la propria industria elettromeccanica. L’ospitalità offerta ad Accredia rientra in quest’ottica e in una strategia di sviluppo che comprende la nascita di uno sportello per l’interazione con le imprese del territorio, con la possibilità di avviare importanti progetti di trasferimento tecnologico. Licia Mattioli, Presidente dell’Unione Industriali di Torino, ha evidenziato l’estrema attualità del tema di questa giornata d’inaugurazione per chi svolge attività industriali: nel suo caso, quale imprenditrice di un’azienda orafa, l’utilizzo di bilance tarate per la pesatura dell’oro è prassi quotidiana e il livello di precisione della misura può avere ingenti riflessi sul piano economico. Le certificazioni accreditate non rappresentano un “costo” per le aziende, bensì un “investimento”, in grado di offrire importanti opportunità. Basti pensare al valore di un riconoscimento a livello internazionale, come quelli garantiti da Accredia, che, superando le svariate e differenti norme nazionali, consente alle aziende
N.
4/1 T_M 4 ƒ 251
di non dover affrontare lunghe e costose ripetizioni di procedure e certificazioni per adeguarsi a diversi standard. Sempre nel settore orafo, la punzonatura dei gioielli prodotti in Italia perde validità, ad esempio, in Francia e per esportare in quel Paese occorre la punzonatura francese. Sono pochissimi i riconoscimenti di questo tipo validi internazionalmente e la loro importanza è fondamentale per tutte le aziende impegnate a competere fuori dai confini nazionali. LA TAVOLA ROTONDA Le misure riferibili: strumento primario per la competitività d’impresa
Massimo Mortarino Moderatore (Responsabile Comunicazione di Affidabilità & Tecnologie e Redazione di “TUTTO_MISURE”) Sono grato ai vertici di Accredia per aver voluto arricchire questa giornata d’inaugurazione della nuova sede del Dipartimento Taratura con un momento comune di riflessione riguardo al “valore competitivo” delle misure riferibili, tema di massimo interesse per gli imprenditori, oltre che per gli addetti ai lavori. Vorrei però orientare in modo ancora più concreto gli interventi degli autorevoli relatori, focalizzandoli su un destinatario “principe”: il piccolo/medio imprenditore che, pur utilizzando strumenti di misura nella propria azienda, non possiede una specifica cultura metrologica. Egli “deve” ottenere certificazioni di taratura, in quanto espressamente richieste dai committenti e dalle normative cogenti, speso vissute come costosi “obblighi” piuttosto che come “investimenti in grado di produrre ritorni”. A favore di questo “signor PMI” aggiungiamo un punto interrogativo al fondo del titolo di questa Tavola Rotonda: chiediamo ai relatori di cancellare questo punto interrogativo con il contenuto dei loro graditi interventi, spiegando con la loro competenza ed esperienza diretta perché e come le misure riferibili possano rappresentare per le aziende uno strumento competitivo di primaria importanza.
T_M ƒ 252
N. 04ƒ ; 2014
▲
IL TEMA
Paolo Vigo (vicepresidente ACCREDIA) La riferibilità di una misura è l’attributo del processo di misurazione, che conferisce “certezza” al dato numerico, corredandolo anche di una valutazione della sua incertezza. Sembra uno scioglilingua, ma per gli addetti ai lavori è “parlar chiaro”, fornire garanzie inoppugnabili a chi utilizzerà questo dato numerico per garantire un prodotto, rispondere a uno standard internazionale, applicare una sanzione. Un dato certo, o meglio un dato ragionevolmente certo, è l’unico che può fornire le basi per decidere. Ma quanti di questi dati, informazioni e giudizi collegati a questi dati disponibili forniscono certezze? Nell’uso degli strumenti e dei conseguenti dati di misura l’informazione sulla qualità e riferibilità degli stessi viene spesso trascurata. La condizione frequente che lo strumento utilizzato sia solo un indicatore, che fornisce informazioni sulle variazioni dei parametri oggetto di misura senza alcuna certezza sulla loro quantificazione, è molto probabile e poco nota alla maggioranza degli utenti. Ciò indubbiamente contraddice l’intrinseca e semantica certezza che il termine misura invece dovrebbe fornire. Significativa in tal senso è la frase di Lord Kelvin: “Io spesso affermo che quando voi potete misurare ed esprimere in numeri ciò di cui state parlando, solo allora sapete esprimere qualcosa di esso; ma quando non vi è possibile esprimere numericamente l’oggetto della vostra indagine, allora la vostra conoscenza è scarsa e insoddisfacente”. Esempio tipico nelle misure del tempo sono le riferibilità oggi richieste e garantite dagli orologi atomici, il cui sincronismo è alla base di tutte le georeferenziazioni (GPS, ecc.). Sincronismo che è poi diventano oggetto di mercato quasi cult negli orologi “radiocontrollati”, che più volte al giorno confrontano il proprio segnale orario con il campione di tempo assoluto detenuto e diffuso dagli Istituti Metrologici Primari. Quel dato di misura del tempo è un dato riferibile e
certo al milionesimo di secondo, mentre ad esempio i “secondi veri” garantiti per la tariffazione dei consumi da una recente pubblicità di cellulari… suonano decisamente male per i metrologi! Ebbene, la disseminazione dei campioni delle Unità di Misura SI, la garanzia della riferibilità a detti Campioni SI è la Mission dei metrologi, delle vestali del Sistema SI, che poi con le loro verifiche garantiscono che il dato proveniente da una misurazione sia “certo e ragionevolmente credibile”. Questo anche grazie alle competenze e professionalità di chi adopera gli strumenti, questi ultimi messi a confronto (tarati) con strumenti campione aventi prestazioni metrologicamente superiori, rispetto ai quali viene garantita la continuità di detti confronti (riferibilità) fino al confronto finale con il Campione stesso (Catena della Riferibilità: catena ininterrotta di confronti…. fino al Campione SI). Possedere un dato di misura riferibile e una quantificazione della sua incertezza rispetto al Campione è un attributo che fornisce agli utilizzatori del dato le necessarie certezze che in campi come la giustizia, la sicurezza, la salute, la fede pubblica diventano indispensabili, o meglio, sono obbligatorie. Calandoci nella realtà giornaliera reputo doveroso, nella ben nota partita a “guardie e ladri” che si verifica nelle nostre strade e autostrade, spezzare una lancia a favore del singolo automobilista o conducente di automezzi che è quotidiana vittima di sanzioni, anche salate, dei “censori della velocità”, oggi dotati di strumenti laser di assoluta avanguardia e precisione, spesso riferibili, per la misura della velocità. Per contro, l’inerme automobilista ha al più in dotazione, nel proprio autoveicolo, un tachimetro indicatore che ha una scala di lettura con risoluzione di 5-10 km/h (ma la multa scatta anche per 1 km/h), la cui quantificazione di velocità risulta spesso non corretta, legata com’è al consumo dei pneumatici, al loro gonfiaggio, ecc. Insomma un inerme (ladro?!) che affronta poliziotti dotati
N. 04ƒ ;2014
nuo progresso. Il nuovo Dipartimento di Taratura di Accredia è pronto a fornire, di concerto con I.N.Ri.M., tutte le risposte che gli sviluppi nei più diversificati settori richiederanno, contemporaneamente alla crescita della diffusione della taratura.
▲
di pistole elettriche paralizzanti! I dati di misura riferibili, ottenuti da strumenti tarati (confrontati con Campioni SI), garantiscono maggiore competitività ai prodotti industriali, assicurandone la rispondenza ai più rigidi protocolli produttivi o agli standard di Qualità internazionali. Ma la necessità di dati riferibili si va estendendo anche a nuovi settori, metrologicamente ancora “non maturi”. In tal senso l’applicazione della MID (Measurement Instruments Directive) ha avviato in Italia un profondo ed efficace rinnovamento dell’intero parco contatori delle reti territoriali tecnologiche, a livello sia di trasporto sia di distribuzione, e dei connessi regolamenti metrici di controllo e verifica, dando luogo a una rinnovata attenzione di consumatori, costruttori metrici e distributori per la relativa verifica e taratura. È pur vero che, ancor oggi, nel settore delle utility esistono grandezze e/o transazioni spesso ancora oggi prive di piena riferibilità, quali ad esempio il calore (solo nello scorso luglio è stato per la prima volta presentato in I.N.Ri.M. il Campione nazionale per l’energia termica), in aperta contraddizione con le regole basilari del commercio e della garanzia della fede pubblica nei mercati. La già invocata MID imporrebbe poi l’uso di dati riferibili, o meglio, di strumenti tarati anche nelle applicazioni collegate al mondo delle perizie giudiziarie e della sicurezza, nonché in quello della salute: a oggi non ci risulta che questi mondi abbiano recepito il richiamo/obbligo e stiano operando per adeguarsi. Infine, in tema di sicurezza e ambiente, la riferibilità delle misure dei parametri più critici viene spesso trascurata, minando così tutte le valutazioni di dosimetria espositiva dei singoli alle condizioni insalubri, che sembra essere in campo ambientale l’unica credibile ed efficace via per attuare protocolli di prevenzione o salvaguardia della salute. Insomma la riferibilità è un mondo affascinante e in continua evoluzione che prende sempre maggiore linfa dalle innovazioni tecnologiche e dal loro diffondersi nella società e nei servizi per garantire il reciproco conti-
IL TEMA
misura, e l’attestazione della competenza dei laboratori che effettuano le tarature è diventata il punto di partenza dell’intero sistema, per assicurare la corretta gestione della produzione e dei servizi. L’accreditamento è lo strumento che è stato individuato a questo scopo. Accreditare significa, appunto, attestare le competenze, cioè accertarsi che i laboratori attuino in modo positivo una serie di requisiti universalmente accettati, contenuti in norme internazionali (in questo caso, la UNI CEI EN ISO/IEC 17025 e altre norme collegate). Questa situazione permette ai laboratori accreditati di offrire servizi valutati da una parte terza e competere tra loro per rispondere sempre meglio alle esigenze dei clienti. Le competenze che i Laboratori di taratura devono possedere consistono essenzialmente nel conoscere i metodi e la normativa e nella capacità di applicare tali conoscenze allo stato dell’arte. Per fare questo l’esperienza del personale è fattore essenziale. Per valutare le conoscenze dei 169 Laboratori accreditati di taratura e affrontare le nuove domande di accreditamento pervenute, il Dipartimento dispone di 83 ispettori ed esperti, la maggior parte dei quali è dipendente, o lo è stato in passato, degli Istituti Metrologici Nazionali. In questo modo siamo in grado di garantire a nostra volta competenza, imparzialità e obiettività delle valutazioni. Tuttavia il principale strumento usato, da noi e dagli altri organismi di accreditamento, per valutare le prestazioni dei laboratori di taratura è il confronto interlaboratorio. Si
Mario Mosca (Direttore Dip. Taratura – ACCREDIA) Fin dall’antichità si è osservato che le misurazioni hanno un elevato impatto con il progresso umano, dal punto di vista tecnico (pensate quali misure sofisticate richiedeva l’erezione di grandi monumenti, come le piramidi), per la salvaguardia dell’ambiente e delle salute (molte medicine, se somministrate in quantità errate, si trasformano in veleni) e per il commercio. La salvaguardia delle fede pubblica nelle transazioni commerciali è stata per lungo tempo una delle prerogative importanti di chi detiene il potere. Tutto ciò portò alla firma della Convenzione del Metro (1875) e alla definizione del sistema metrico decimale delle unità di misura (sistema SI). Con un trattato di tipo diplomatico si stabiliva che tutte le Nazioni firmatarie si impegnavano a usare le stesse misure, utilizzare terminologie concordate, spiegare e diffondere i metodi scientifici di misura disponibili. Si definivano i campioni prototipi internazionali delle unità di misura, si disseminavano i prototipi nazionali che di quelli internazionali erano copia autentica, il cui valore era noto a meno dell’incertezza di misura. Il concetto di taratura, base per la disseminazione del sistema di misura internazionalmente definito, veniva individuato come essenziale nella teoria della misura; la sua applicazione veniva richiesta nei trattati e nelle leggi metriche e in quanto noi ora chiamiamo “assicurazione della qualità”. La taratura ha quindi acquisito il valore di elemento fondante del processo di disseminazione delle unità di misura e di applicazione del siste- Certificati emessi dai Laboratori di Taratura Accreditati 2000-2012 ma SI delle unità di
T_M ƒ 253
N. 04ƒ ; 2014
liani la possibilità di essere presenti nel mercato globale. La riferibilità metrologica richiede l’utilizzo di materiali Evoluzione dei Laboratori di Taratura 2000-2012 di riferimento per molte attività, specie quanto riguarda le chiede infatti a un Laboratorio di effet- misure in chimica. Il Dipartimento, che tuare la taratura di un campione o di ha attivato questo scopo di accreditauno strumento di misura già sottoposto mento fin dal 2006, sta organizzandoalla taratura da altro Laboratorio di si in modo da applicare in modo semsicura competenza, ad esempio un Isti- pre più trasparente le norme in questo tuto Nazionale di Metrologia. Se i risul- campo (ISO Guide 34). Quattro protati sono compatibili, ciò significa che il duttori sono stati accreditati e altre 3 Laboratorio, entro la propria incertezza domande sono in fase di valutazione. di misura, è in grado di offrire al mer- Altro significativo campo di sviluppo cato gli stessi risultati di misure riferibili sono le tarature legate alla metroloal sistema SI e ai campioni delle gran- gia legale. L’impatto che in questo setdezze fisiche definite. tore ha avuto la MID ha spinto i MiniLa nostra firma agli accordi di steri a promuovere l’emissione di circomutuo riconoscimento, in Europa lari e decreti che prevedono l’uso di nel 1989 con WECC, poi trasformato strumentazione tarata dai Laboratori in EAL e infine in EA, e a livello mon- accreditati. Abbiamo recentemente diale nel 2003 con ILAC, ha rappre- ricevuto domande e stiamo lavorando sentato per i Laboratori di taratura ita- per la taratura di contatori volumetrici
T_M ƒ 254
per liquidi e gas e numerose richieste per la taratura dei contatori dell’energia elettrica ai fini fiscali. Infine, mi piace ricordare che la nostra attività nacque nel 1979 con il SIT (Servizio di Taratura in Italia), prima che nel nostro Paese si sviluppassero gli altri possibili tipi di accreditamento. In tale data si accreditava il primo Centro di taratura, presso ALFASUD a Pomigliano d’Arco. L’attività del SIT veniva portata avanti all’interno degli Istituti Nazionali di Metrologia, a suo tempo IMGC, IENGF ed ENEA-INMRI. Dal luglio 2010 l’attività di accreditamento, in applicazione del Regolamento (CE) 765/2008 e del DM 22 dicembre 2009, viene svolta dal Dipartimento Laboratori di taratura di ACCREDIA. L’inaugurazione che stiamo celebrando ci permette di prendere atto che l’attività viene effettuata da ACCREDIA in sede locata dall’I.N.Ri.M., da personale tutto alle proprie dipendenze, che continua
N. 04ƒ ;2014 Vito Fernicola (Direttore Div. Termodinamica – I.N.Ri.M.) Una recente analisi econometrica mostra che la Ricerca e Sviluppo in Metrologia (e più in generale nella misurazione) ha un significativo impatto sulla crescita. Si stima che tale impatto sia equivalente a circa il 2% del PIL (Temple & Williams, 2002). Inoltre, è stato dimostrato che la presenza di un’infrastruttura di misura costituisce un importante supporto agli investimenti, alle attività di export e agli scambi commerciali interindustriali, B2B (Choudhary et al, 2006). In molti settori industriali (metallurgia, trasporti, costruzioni, ecc.) si stima che la certificazione di prodotto contribuisca per oltre il 10% alla crescita della produzione (Ticona & Frota, 2008). L’Europa investe oltre 80 miliardi di Euro all’anno in misurazioni (corrispondente a circa 1% del PIL europeo); si stima che il ritorno sull’economia continentale sia dell’ordine di 230 miliardi di Euro (Oxford University, 2004). Una nota di ottimismo: siamo ancora il Paese con il quinto surplus commerciale “non energetico” al mondo e il primo in Europa per saldo commerciale. Il manifatturiero italiano, con la meccanica, è ancora il settore trainante per l’esportazione (fonte: Prof. M. Fortis, Fondazione Edison). Si prevede che entro dieci anni vi saranno oltre mille miliardi di sensori dispiegati nel mondo, la maggior parte dei quali negli smartphone che abbiamo in tasca! Saranno interconnessi, grazie al Internet of Things, e con lo sviluppo delle biotecnologie e delle nanotecnologie, saranno disponibili micro- e nano-sensori con capacità di analisi multipla. Ma quale sarà l’affidabilità dei dati? L’I.N.Ri.M. è firmatario per l’Italia del-
▲
a utilizzare la sapienza metrologica degli Istituti Nazionali di Metrologia (oggi I.N.Ri.M. e ENEA-INMRI), ma è in grado di garantire conformità ai requisiti prescritti e completa indipendenza e autonomia di giudizio, essendo conforme alle severe regole fissate dallo Statuto e dai regolamenti di ACCREDIA.
IL TEMA
l’accordo di mutuo riconoscimento promosso dal Comitato Internazionale dei Pesi e delle Misure (CIPM MRA – Mutual Recognition Arrangement), per il riconoscimento internazionale dei Campioni nazionali di misura e dei certificati di taratura e misura emessi dagli Istituti Metrologici Nazionali. In Europa partecipa all’European Association of National Bilancia commerciale dei Paesi del G20, esclusa l’energia, Metrology Institutes, organizin miliardi di dollari (Fonte: Fondazione Edison zazione costituita dagli Istituti su dati UN Comtrade) Metrologici Nazionali d’Europa per la cooperazione nelle attività di Metrologia. In applicazione dell’art. 185 del Trattato sul funzionamento dell’Unione europea (TFEU), ha collaborato all’European Metrology Research Programme, i cui risultati ottenuti sono stati citati in sede Europea come esemplari dell’applicazione dell’art. 185. In virtù del successo dell’iniziativa, la Comunità metrologica Bilancia commerciale dei Paesi UE, ha proposto un ambizioso provariazione assoluta 2010-2013 in miliardi di euro gramma per ridurre il gap tra (Fonte: Eurostat) ricerca di base e applicata e innovazione industriale: l’European Metrology Programme for Innova- zione del SI offrirà l’opportunità di svition and Research (EMPIR). Si prevede luppare nuovi metodi di disseminazione, il coordinamento dei programmi nazio- si potranno realizzare le unità di base in nali di ricerca metrologica con un’a- modo da accorciare la catena di riferibigenda strategica condivisa tra 28 na- lità e vi saranno maggiori opportunità zioni europee e con attività progettuali d’interazioni e sinergie lungo la “filiera per un valore complessivo di 600 M€. metrologica”, dalle Unità SI alla dissemiNel ciclo di sette anni di durata del pro- nazione, fino all’accreditamento. gramma, vi saranno opportunità di par- Una vision per il 2020 tecipazione per l’industria nazionale, Gli Istituti di Metrologia saranno impecon bandi periodici su Industria, Ener- gnati in ricerche di frontiera, oltre i confini delle attuali capacità, per lo svilupgia, Salute e Ambiente. Gli Istituti di Metrologia stanno affron- po di nuovi campioni e nuove tecnolotando una grande sfida con la ridefini- gie: a diverse scale di lunghezza, dal zione del Sistema Internazionale delle nanometro al decametro; a diverse Unità. Nel “nuovo SI” quattro su sette scale di tempo, dal picosecondo al delle unità SI di base (chilogrammo, secolo; a diverse scale di massa, dal ampere, kelvin e mole), verranno ridefi- milligrammo alla tonnellata. Saranno nite in termini d’invarianti della natura, impegnati nello sviluppo di “nuove mementre le altre tre sono già collegate a trologie” per affrontare le sfide sociocostanti fondamentali. Le nuove defini- economiche e scientifiche di domani: zioni saranno basate su valori prefissa- l’ambiente e il monitoraggio del clima; ti della costante di Planck (h), costante lo spazio e i trasporti intelligenti; l’adi Boltzmann (k), carica elementare (e), groalimentare, le risorse idriche, il suolo costante di Avogadro (NA). La ridefini- e la qualità alimentare; la salute e le
T_M ƒ 255
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
applicazioni diagnostiche e terapeutiche in vivo. I servizi forniti dagli Istituti Metrologici Primari verranno gradualmente superati da campioni trasportabili, con funzioni di auto-taratura, che assicureranno una riferibilità “universale” in situ. Si andrà verso una sempre maggiore integrazione della metrologia europea. Gli Istituti Metrologici dovranno “specializzarsi”, per offrire supporto agli utenti in cerca di riferibilità in condizioni di misura critiche. Ci sarà un cambio di paradigma, dal modello tradizionale di riferibilità “top-down” verso un approccio “problem-solving” che trarrà vantaggio dalla competenza delle persone. Alberto Musatti (Amministratore Delegato – TRESCAL) Parto dalla risposta alla domanda che funge da tema centrale della tavola rotonda. Certamente sì, le tarature accreditate rappresentano una risposta concreta alle necessità delle imprese, a maggior ragione per quelle che si posizionano nel mercato globale. Non solo per via dei vincoli normativi: la pratica aziendale lo verifica quotidianamente. A mio avviso, la questione su cui vale la pena soffermarsi è però il “come”. Ovvero, come il sistema di accreditamento e la rete di Laboratori accreditati possano fornire competitività e concorrere alla qualità dei prodotti che escono dalle imprese del nostro Paese. Il valore aggiunto di Trescal, in questa discussione, sta nella possibilità di vedere quel “come” da diverse angolazioni, grazie al fatto che la nostra realtà è di dimensioni tali da rivolgersi trasversalmente a diversi settori industriali e fa parte di un gruppo che si occupa esclusivamente di taratura a livello globale. Premetto che non possiamo parlare di tarature accreditate dimenticandoci di quelle non accreditate (che sono effettuate dall’impresa stessa o da un Laboratorio esterno, accreditato o non). Togliendo dal computo le tarature effettuate dall’impresa stessa al proprio interno, il rapporto tra quelle accreditate e quelle non accreditate (effettuate da ente terzo) è un dato importante e può differire anche sensibilmente da Nazione a Nazione. Tale rapporto dipende inoltre sia dalle indicazioni degli enti di certificazione e ispezione (il “motore” del mercato delle tarature) sia dalla quantità di grandezze fisiche e tipologie di strumenti per le quali è possibile conseguire l’accreditamento. La rete dei laboratori accreditati è oggi in gran parte costituita da Imprese che fanno delle tarature il proprio business principale. Un eccesso di tarature non accreditate scopre il fianco a potenziali svantaggi competitivi, ad esempio nei confronti di laboratori non accreditati, non essendo essi assoggettati alla vigilanza dell’ente di accreditamento. L’ideale ciclo virtuoso dato che tuttora fatica a instaurarsi prevederebbe, invece, miglioramenti tecnologici ed eccellenza al fine della diminuzione dei costi ma non della qualità dei servizi, qualità che può essere garantita solo attraverso l’accreditamento stesso. Vi sono aziende che continuano a richiedere il classico
N. 04ƒ ;2014
raggiunti opportuni livelli di qualità, i nostri servizi sono sufficienti a rispondere alle esigenze di buona parte del mercato. Direi quindi che prevale per il centro la necessità di offrire un ampio ventaglio di servizi di taratura di buona qualità rispetto alla specializzazione “verticale”. Antonio Molle (Global Operations PTE&TW – SKF Automotive) L’affidabilità delle operazioni di controllo e di misura, garantite da un’attenta e affidabile taratura, è fondamentale all’interno di realtà operative e produttive, non solo come ovvia garanzia di qualità dei prodotti ma anche, soprattutto, come strumento oggettivo e “neutrale” per: • monitorare internamente le performance e individuare con la massima tempestività (o addirittura in anticipo) deviazioni di processo o fenomeni di deriva nel tempo; • valutare correttamente e oggettivamente le performance dei fornitori; • possedere gli “strumenti” e conoscere una “lingua” comune per dialogare con i clienti, valutandone concretamente e correttamente le esigenze e le problematiche. La corretta valutazione delle caratteristiche e della realizzazione di un prodotto è inoltre decisiva in tutte le fasi della vita del prodotto stesso: dalla progettazione alla prototipazione, alla campionatura, alla realizzazione in serie, fino alla sua vita in applicazione. È vitale poter contare, in ciascuna di queste fasi, su sistemi di misura adeguati, capaci e affidabili. Per la progettazione, ad esempio, è decisivo poter conoscere e fare affidamento sulle proprie capacità di taratura, misurazione e valutazione dei parametri definiti da e con i clienti, al fine di prevenire l’introduzione su disegni e contratti di caratteristiche e tolleranze non raggiungibili o non correttamente misurabili. Nelle fasi di prototipazione e campionatura è essenziale avere la capacità di certificare e garantire le caratteristiche dei prodotti che, attraverso attività di testing e controllo incrociato dei clienti, saranno poi “benedette” e rilasciate per la produzione
▲
servizio di taratura, ma aumentano di anno in anno quelle che vogliono supporto a 360° da parte del partner per le tarature. Ecco che sempre di più il centro di taratura deve garantire competenza in svariati settori industriali; essere accreditati per un numero sempre maggiore di grandezze fisiche rappresenta un fattore distintivo e, dove non si arriva con il proprio accreditamento, bisogna essere pronti a fornire un servizio efficiente d’intermediazione, sapendo interpretare esattamente le richieste del committente e trasferendole correttamente al fornitore individuato (a volte la semplice individuazione è piuttosto complessa…). La consulenza, il supporto all’interpretazione dei dati, il loro utilizzo al fine della conferma metrologica e, infine, la gestione completa del parco strumenti sono ormai aspetti comuni nelle definizioni dei contratti. Voglio spendere una parola riguardo alla diffusione della cultura metrologica, che fa parte del valore aggiunto che un centro accreditato può fornire al committente. È necessario che almeno l’importanza del corretto uso dei dati di taratura venga diffusa continuamente, al fine di mantenere salda la cosiddetta “catena metrologica”, in quanto gli strumenti vanno usati correttamente e così anche i dati associati alla loro taratura. Parliamo di logistica ed evidenziamo che, pur in un mercato sempre più globale, nel campo delle tarature è apprezzata la prossimità: i clienti preferiscono i Laboratori dislocati in zone geografiche prossime ai siti del cliente (a livello regionale), con l’obiettivo di limitare al minimo il periodo in cui lo strumento rimane “fuori” dall’azienda, e cresce la necessità di tarature, anche accreditate, in loco, presso i siti delle aziende. Per rispondere efficacemente a tale richiesta sono necessarie attrezzature adeguate, personale specializzato e procedure dedicate. Riguardo ai livelli d’incertezza, che in un certo senso rappresentano la qualità con cui il centro effettua il suo lavoro, riconosco che qualche azienda cliente necessita di tarature direi quasi “allo stato dell’arte” (ad esempio, certi settori elettrici, meccanica di precisione, farmaceutico, ecc.) ma il più delle volte,
IL TEMA
di serie. L’efficacia di un sistema di misura è poi messa a dura prova durante la realizzazione di serie dei prodotti, dove minime sbavature possono determinare effetti catastrofici direttamente per il produttore (falso scarto) o per il cliente (non conformità). A questo proposito è di fondamentale importanza la capacità di garantire nel tempo (attraverso la continua tracciabilità e riferibilità degli strumenti e delle tecniche di misura), la qualità delle misurazioni effettuate su prodotti che possano essere percepiti, a posteriori, come non conformi dai clienti, in fase di accettazione, assemblaggio e addirittura in caso di ritorno dal campo (applicazione). In quest’ultimo caso, al fine di supportare il cliente nell’individuazione e soluzione del problema, è cruciale avere la capacità di definire le cause delle failure chiaramente e tempestivamente, attraverso osservazioni, analisi, misurazioni oggettive e riconosciute. Va da sé che qualsiasi imprecisione nelle fasi descritte sopra porta a generare ritardi, incomprensioni, revisioni, scarti, danni materiali e d’immagine… In una parola: costi. E, quindi, perdita di competitività. Per un’impresa manifatturiera all’avanguardia e competitiva è quindi fondamentale riconoscere il proprio sistema di misura non solo come una necessità o un requisito da parte di clienti ed enti certificatori, ma anche e soprattutto come uno strumento che concorre al raggiungimento di profitto e competitività.
T_M ƒ 257
N. 04ƒ ; 2014
■
IL TEMA
Il sistema di misura di un’azienda non è ovviamente un insieme/sistema chiuso, ma è strettamente correlato con le strutture che ne garantiscono e supportano la riferibilità e tracciabilità. Anzi, forse sarebbe più corretto affermare che il sistema e le strutture che, dall’esterno, supportano e garantiscono la riferibilità delle misure in fabbrica SONO parte integrante del sistema di misura della fabbrica stessa. E, quindi, contribuiscono e concorrono alla competitività. Quando fornitori e clienti sono globali, il discorso si complica e la taratura diventa garanzia di superamento di limitazioni geografiche, culture, linguaggi e convenzioni. Va rilevata, inoltre, la tendenza sempre più marcata del mercato e dei “players” automotive di applicare regole e metodi molto severi nell’ambito del ribaltamento di danni e costi. Questa è una situazione nella quale un fornitore è anche chiamato a “difendersi”. La capacità di dimostrare la conformità dei propri prodotti, e d’identificare la responsabilità per failure e danni (costi) in altri elementi, si deve poggiare su capacità di misurazione e metodi solidissimi. Casi pratici di contestazioni da parte dei clienti vengono spesso risolti grazie alla combinazione di due elementi chiave: riferibilità e affidabilità dei controlli e delle misure in produzione; chiara rintracciabilità dei singoli componenti. Sono frequenti i casi in cui, a seguito di contestazioni da parte d’importanti gruppi automotive, grazie al data matrix marcato via laser su ogni sin-
golo pezzo (logo contenente informazioni dettagliate su data e ora di produzione, valori di tutte le caratteristiche critiche del singolo pezzo inclusivi di taratura, informazioni su materie prime, operatori e macchinari di produzione), siamo riusciti a risalire ai dati caratteristici di ogni singolo pezzo contestato, dimostrando l’estraneità del fornitore alla problematica riscontrata dal cliente sul campo. La capacità di proteggersi nella catena cliente fornitore è ormai diventata un must, anche perché da qualche anno la recall campaign sta diventando strumento di marketing, quindi più che una necessità finanziaria del cliente diventa un’opportunità.
Roberto Moriondo (Direttore Ricerca, Assessorato Attività Produttive, Innovazione e Ricerca – Regione Piemonte) Alla luce degli interventi che si sono susseguiti, l’affidabilità degli strumenti di misura risulta chiaramente un elemento pervasivo per la nostra vita e per il successo del nostro sistema industriale, e merita la massima attenzione da parte della Ricerca. Recentemente la Regione Piemonte ha indetto un bando, finanziato con i fondi avanzati dalla vecchia programmazione europea, a favore di Enti di ricerca e Atenei, che renderà disponibili in tempi brevi piattaforme riguardanti l’ambiente, la medicina, l’infomobilità, ecc. Piattaforme che prevedono la raccolta d’informazioni sul territorio basata su strumenti di rilevazione di vario genere. La precisione del dato rilevato è tanto più credibile quanto più sensibile è l’attività svolta: se parliamo di protezione civile, di tutela del territorio, è fondamentale muoversi durante l’emergenza avendo la certezza di quanto accade, non basandosi solo sugli aspetti statistici ma avendo garanzia Campagne di richiamo automotive in Germania assoluta dell’attendibili(Fonte: Kraftfahrt Bundesamt (KBA) – German Federal Motor Transport Authority) tà dei dati rilevati, frutto dell’accurata scelta e
T_M ƒ 258
posizionamento dei sensori. Nella nuova programmazione europea, inoltre, avremo disponibili ulteriori fondi: circa un miliardo di Euro, per quanto riguarda la nostra Regione. Bisogna evitare di sprecare questi soldi (come troppo spesso è avvenuto nel nostro Paese, il quale ha commesso l’errore in passato di finanziare 700.000 piccoli progetti, incapaci d’incidere realmente sul tessuto economico e produttivo e sul piano della ricerca e innovazione) e, se saremo capaci di utilizzarli al meglio, disporremo di un ottimo strumento per sviluppare la crescita e la competitività in un ambiente sostenibile, come ci chiede la CE. Ma occorrerà superare il giudizio, sempre più severo, dei valutatori della Comunità Europea riguardo alle nostre effettive capacità di programmare i nostri interventi e renderli immediatamente espliciti nelle finalità e obiettivi. A tale scopo, ci viene richiesto di lavorare su un documento di condizionalità (smart specialization strategy), individuando esattamente i reali ambiti di specializzazione italiani sulla base di tre principali elementi: competenza, specializzazione e reputazione. Incontri come quello di oggi hanno nel proprio DNA la capacità di rendere disponibili tali informazioni riguardo a uno specifico tema e, contemporaneamente, candidarsi a far parte di una rete mondiale alla quale ci si può rivolgere per ottenere risposte a specifiche esigenze. Possiamo pertanto pensare di chiedere a pieno titolo contributi alla CE perché siamo in possesso di realtà eccellenti come quella che oggi ci ospita, dotata di elevate competenze e di persone in grado di occuparsi al meglio di specifiche tematiche. È tempo di smettere di considerare questo tipo di contributi alla stregua di “ammortizzatori sociali” (che, altrimenti, servirebbero solo a prolungare la nostra agonia…), tornando a compiere scelte oculate, a volte ruvide ma necessarie, concentrandoci su quanto siamo realmente in grado di fare e, magari, avendo il coraggio di abbandonare certi ambiti nei quali la nostra specializzazione non sia così evidente.
▲
MISURE PER LA SALUTE E IL BENESSERE
GLI ALTRI TEMI
Daniele Fontanelli *, David Macii *, Luigi Palopoli **
Navigazione indoor e Ambient Assisted Living Alcuni risultati del progetto “DALi”
INDOOR NAVIGATION AND AMBIENT ASSISTED LIVING “DALi” (Devices for Assisted Living) is an EU project, the goal of which is to develop a smart walker to guide elderly people in complex indoor environments that they could perceive as intimidating. In this paper we briefly report the motivations of the project, the applicative scenario, the main technical features of the walker and some experimental results, with a special focus on the position tracking problem, which has a key role for the other functions of the system. RIASSUNTO Il progetto “DALi” (Devices for Assisted Living) si pone l’obiettivo di sviluppare un deambulatore intelligente in grado di guidare le persone anziane in ambienti pubblici caratterizzati da elevata complessità. Di seguito si riportano brevemente le motivazioni del progetto, lo scenario applicativo, le caratteristiche tecniche del deambulatore e alcuni risultati sperimentali, con particolare attenzione al problema della localizzazione, il cui ruolo è centrale per le altre funzioni del sistema. IL RUOLO DI “DALi” ad esempio un grande centro commerNEL PANORAMA ciale o un aeroporto. DELL’ ”AMBIENT ASSISTED LIVING” Nella comunità dell’Ambient Assisted
Si stima che l’età media della popolazione europea nel 2050 crescerà fino a 52,3 anni: un’enorme società fatta di anziani che avrà bisogno di assistenza. Numerose ricerche confermano che la progressiva rinuncia alle attività motorie accelera il processo d’invecchiamento non soltanto per mancanza di esercizio fisico, ma anche per una riduzione dell’interazione sociale. Purtroppo, anche se stimolati adeguatamente, gli anziani spesso soffrono di problemi sensoriali o psicomotori che limitano la loro propensione a muoversi e a interagire con il mondo esterno. È pertanto necessario cercare di contrastare questa tendenza. “DALi” (Devices for Assisted Living) è un progetto europeo, finanziato nell’ambito del Settimo Programma Quadro, con l’obiettivo di sviluppare il c-Walker: un deambulatore intelligente capace di supportare la mobilità di utenti affetti da moderati problemi cognitivi, guidandoli verso la destinazione prescelta in ambienti semi-strutturati e affollati, come
Living (AAL) esistono già soluzioni che utilizzano un deambulatore come strumento di supporto alle attività degli anziani. Per esempio, il progetto “ASsistants for SAfe Mobility (ASSAM)” ha sviluppato un insieme di sistemi modulari per la navigazione sia indoor, sia outdoor in grado di funzionare su diverse piattaforme [1]. I progetti iWalkActive e E-NO-FALLS mirano invece rispettivamente ad aumentare l’esercizio fisico e a prevenire le cadute di soggetti anziani [2,3]. Pertanto, possono essere visti come complementari a “DALi”. Due caratteristiche sono state tenute in particolare considerazione nello sviluppo del c-Walker: l’usabilità dal punto di vista dell’interfaccia utente e il comfort del meccanismo di guida. Per quanto riguarda il primo aspetto, il software e l’interfaccia grafica per la selezione dei punti d’interesse (PdI) su una mappa sono stati progettati avvalendosi delle competenze di alcuni psicologi e delle opinioni di potenziali utenti. Per ciò che concerne il secondo aspetto invece, la
T_M
piattaforma meccatronica è stata concepita non solo per evitare situazioni di stress emotivo o di potenziale pericolo per l’utilizzatore, ma anche per guidarne le scelte senza costrizioni, ricorrendo a meccanismi meccanici e aptici poco invasivi. UN ESEMPIO DI APPLICAZIONE: LA STORIA DI MARIA
Maria è un’anziana signora di 76 anni che ha parzialmente perso fiducia nelle sue capacità da quando è caduta per un banale incidente domestico. Nonostante i suoi timori, Maria decide di utilizzare il tablet che sua nipote le ha regalato per fare la lista della spesa, e raggiunge il centro commerciale dove sa di trovare un c-Walker. Dopo aver posizionato il tablet sul c-Walker, il tablet comunica al sistema di elaborazione principale la lista degli oggetti da acquistare e carica una mappa del centro commerciale che viene visualizzata sul display. Il c-Walker calcola quindi il percorso ottimo per raggiungere i vari negozi tramite un algoritmo denominato long-term planner. All’occorenza Maria può selezionare e/o cambiare i PdI preimpostati in qualsiasi momento. I postumi dell’incidente domestico suggeriscono di evitare zone in cui il pavimento è stato lavato di recente oppure aree sovraffollate, come ad esempio le porzioni di corridoio in prossimità degli *
Dip. di Ingegneria Industriale Università di Trento daniele.fontanelli@unitn.it ** Dip. di Ingegneria dell’Informazione Università di Trento Memoria presentata al Convegno dell’Associazione GMEE Gruppo Misure Elettriche ed Elettroniche Ancona, 11-13/09/2014
N.
4/14 ƒ 259
ingressi di esercizi commerciali che non rientrano nei PdI prescelti. Il long-term planner tiene conto di questi vincoli al fine di pianificare i percorsi di visita in condizioni di massima sicurezza. Maria comincia a seguire le indicazioni del c-Walker verso la prima destinazione. Finché non vengono rilevati pericoli, il c-Walker funziona in maniera sostanzialmente identica a un normale deambulatore, con l’unica eccezione che le ruote anteriori sono dotate di due motori che invitano gentilmente l’utente a sterzare a destra o a sinistra in modo da seguire il percorso consigliato. Improvvisamente il c-Walker si accorge della presenza nelle vicinanze di un gruppo di bambini che giocano e predice la non trascurabile eventualità di una collisione con Maria. In casi come questo, un algoritmo denominato shortterm planner calcola una deviazione rispetto al percorso originario in modo da minimizzare la probabilità di collisione. Maria riceve allora un più energico invito a sterzare a destra o sinistra. Eventualmente le stesse informazioni le possono essere comunicate anche tramite interfacce aptiche, come ad esempio le impugnature del manubrio o due bracciali forniti insieme al c-Walker. IL C-WALKER: ARCHITETTURA E FUNZIONI
Il primo prototipo di c-Walker, concepito e realizzato in collaborazione con gli altri partner del progetto (l’Università di Northumbria a Newcastle, l’Università di Siena, i Centri di Ricerca FORTH – Grecia e INRIA – Francia e infine le aziende Visual Tools e Indra Software Labs – Spagna e Siemens – Austria) è mostrato in Fig. 1. L’architettura hardware e software del sistema nel suo complesso è illustrata in Fig. 2. Il sistema di elaborazione principale è un’unità minidesktop Intel Barebone (di dimensioni 11,7 x 11,2 x 3,9 cm3) dotata di un processore Intel Core i5-3427U a 2,80 GHz, 8 GB di RAM DDR3 e una memoria a stato solido da 120 GB. Il minidesktop è alimentato da un accumulatore agli ioni di litio da 118 Wh e comunica con gli altri sottosistemi del c-Walker attraverso una porta
T_M ƒ 260
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
Cortex A8 a 720 MHz e di 256 MB di RAM DDR2. Il ruolo delle funzioni a basso livello è duplice: pre-elaborare i dati sensoriali utilizzati per la stima della posizione e controllare gli attuatori che permettono di correggere la traiettoria del c-Walker in modo da guidare l’utente. Fra i sensori d’interesse si annoverano due encoder incrementali CUI Inc. AMT10X installati sulle ruote posteriori, una piattaforma inerziaFigura 1 – Il primo prototipo di c-Walker le dotata di un giroscopio Inversense IMUUSB 3.0, un collegamento Gigabit Ether- 3000, e un lettore RFId Feig ISC.MR101 net, WiFi (IEEE 802.11a/b/g/n) e Blue- operante nella banda a 13,56 MHz. tooth 4.0. Il sistema di elaborazione Per quanto riguarda gli attuatori invece, principale esegue le funzioni a più alto la piattaforma Beaglebone controlla livello e computazionalmente più one- due freni Liedtke FAS21 applicati alle rose. Queste comprendono: l’elabora- ruote posteriori e due motori M1233031 zione delle immagini acquisite tramite prodotti da LAM Technologies che agiUSB da una webcam o da un Kinect scono sulle ruote sterzanti anteriori. Tutti istallati in posizione frontale; la stima i suddetti dispositivi, a parte il lettore della posizione sulla mappa; il long- RFId, comunicano con la Beaglebone term e lo short term planner; gli algo- tramite CAN bus. Il lettore RFId invece è ritmi di rilevamento di scenari poten- connesso alla Beaglebone attraverso zialmente pericolosi quali: ostacoli fissi una porta USB. (sedie, tavoli, ecc.), aree da evitare La connessione Bluetooth presente a (pavimento bagnato laddove segnala- bordo dell’unità minidesktop principale to), e altre persone in movimento in permette anche di collegare il c-Walker prossimità del c-Walker. La connessio- a due braccialetti che operano come ne Wifi è usata principalmente per col- interfacce aptiche. Tali braccialetti, dotalegare il sistema principale al tablet che ti di opportuni vibro-motori e sviluppati funge da interfaccia con l’utente (visua- dall’Università di Siena, devono essere lizzazione della mappa e scelta dei indossati a entrambi gli avambracci e, PdI). In particolare, nel corso della spe- vibrando con diversa intensità, segnarimentazione si è utilizzato un Google lano all’utente l’opportunità di girare a Nexus 10. Il collegamento Gigabit Ethernet serve per acquisire i risultati di altre funzioni a basso livello implementate in una piattaforma embedded Beaglebone dotata di un Figura 2 – Architettura del c-Walker processore ARM
N. 04ƒ ;2014
▲
destra o sinistra al fine di seguire la zioni sensoriali è stato utilizzato un filtraiettoria pianificata. tro di Kalman esteso (Extended Kalman Filter – EKF). Da notare che, mentre gli encoder e i giroscopi sono camL’ALGORITMO DI STIMA pionati a frequenza costante, i dati DELLA POSIZIONE delle targhette RFID e dei riferimenti visivi sono disponibili solo su base eUno degli algoritmi fondamentali per il venti, in quanto dipendono dalla porcorretto funzionamento del c-Walker è tata e dalla prossimità di lettore RFId quello che permette di stimarne la posi- e telecamera rispettivamente a tag ed zione in un sistema di riferimento pre- etichette. L’EKF è in grado inoltre di fissato. Purtroppo, localizzare un ogget- stimare e compensare gli eventuali to mobile in ambiente indoor continua- contributi sistematici introdotti dagli tivamente e con elevata accuratezza è encoder [4]. un problema di misura ben noto in ro- A livello di progettazione, l’efficacia botica, per il quale tuttavia non è stata della soluzione proposta è stata provaancora individuata un’unica soluzione ta tramite numerose simulazioni Monte ottima. Infatti le tecniche di localizza- Carlo, ipotizzando di disporre i tag zione assoluta basate completamente RFID e le etichette QR su griglie carattesu un’infrastruttura esterna, oltre a esse- rizzate da diversa granularità (ossia re costose in ambienti di grandi dimen- con distanze tra i dispositivi comprese sioni, richiedono di mantenere un con- tra 1 m e 5 m). tatto diretto e costante con l’oggetto in movimento; ciò può risultare difficile in ambienti affollati o in presenza di osta- SPERIMENTAZIONE E RISULTATI coli. D’altro canto, soluzioni quali ad esempio le piattaforme inerziali o l’o- Il primo prototipo di c-Walker è stato dometria, pur non richiedendo alcun oggetto di numerosi esperimenti conelemento infrastrutturale, sono limitate dotti nei Laboratori dell’Università di dal fatto che l’accuratezza della stima Trento. La Fig. 3 illustra alcuni risultati si deteriora all’aumentare della distan- in un caso semplice, ma d’immediata za effettivamente percorsa. Inoltre tali leggibilità, ossia un percorso a L verso tecniche forniscono solo informazioni un ascensore. In Fig. 3(a) viene riporrelative, in quanto lo stato iniziale del- tato il confronto tra la traiettoria pial’oggetto in generale non è osservabile. La soluzione tecnica più diffusa è combinare diverse tipologie di tecniche tramite algoritmi di sensor data fusion. Nel caso in esame, le misure di distanza e di orientamento ottenute per odometria dagli encoder istallati sulle ruote posteriori, e ulteriormente rifinite grazie ai dati della piattaforma inerziale, vengono combinate con: • le coordinate (x,y) di tag RFId a corto raggio collocati sul pavimento in posizioni note; • le misure di orientamento assoluto ottenute calcolando l’angolo tra uno dei riferimenti visivi (ad esempio etichette con codici QR) riconosciuti nelle immagini acquisite dalla telecamera frontale, e il loro orientamento assoluto nel sistema di riferimento scelto. Supponendo che il c-Walker si comporti come un veicolo uniciclo, per combiFigura 3 – Alcuni risultati sperimentali nare efficacemente le diverse informa-
GLI ALTRI TEMI
nificata dal long-term planner (linea tratteggiata) e quella stimata tramite l’algoritmo descritto nella sezione precedente (line continua). La Fig. 3(b) mostra la differenza tra la direzione del percorso previsto e quella misurata a un certo istante. Si osservi che ogniqualvolta la differenza suddetta è maggiore di ± 0,2 rad (linea tratteggiata), i motori sterzanti delle ruote anteriori e/o le interfacce aptiche dei bracciali vengono attivati per invitare l’utente a correggere la traiettoria verso destra (linea tratteggiata in Fig. 3(c)) oppure verso sinistra (linea continua in Fig. 3(c)). Una caratterizzazione più approfondita delle prestazioni del c-Walker è stata effettuata in un ambiente di 150 m2 attrezzato con tag RFId ed etichette con codici QR collocati sul pavimento a una distanza di circa 2 m gli uni dagli altri. Gli esperimenti sono stati condotti su percorsi arbitrari e di durata significativa (da 1’ a 5’ circa). Al fine di valutare l’incertezza di localizzazione, le coordinate (x,y) stimate dal c-Walker sono state confrontate con quelle misurate da uno scanner laser SICK S300 expert. Da tali esperimenti è emerso che l’incertezza tipo sia lungo l’asse x, sia lungo l’asse y (valutata con un approccio di categoria A secondo la GUM) è di circa 40 cm. PRESENTE E FUTURO: IL PROGETTO “ACANTO”
Il deambulatore c-Walker sviluppato nell’ambito del progetto europeo “DALi” offre una risposta concreta alle problematiche di assistenza a persone anziane intimidite da ambienti grandi e tendenzialmente affollati. Attualmente sono in corso varie attività sperimentali sul campo con potenziali utenti finali per valutare appieno l’usabilità e il comfort del c-Walker. Una versione migliorata del prototipo, il FriWalk, sarà la protagonista del nuovo progetto “ACANTO”, finanziato nell’ambito Horizon 2020. ACANTO prevede l’estensione
T_M ƒ 261
ad attività fisiche e sociali di gruppo tramite l’interazione con un cyber-physical social network che si costruisce autonomamente intorno alle caratteristiche fisiche e psicologiche dell’utente.
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
Daniele Fontanelli si è laureato in Ingegneria Informatica, Indirizzo Automazione e Robotica, a pieni voti presso l’Università degli Studi di Pisa nel 2001. Nel 2006 ha conseguito il Dottorato di Ricerca in Automatica, Robotica e Bioingegneria presso il Centro Interdipartimentale di Ricerca “Enrico Piaggio” dell’Università di Pisa. Dal 2008 è PostDoc in Misure Elettriche ed Elettroniche all’Università di Trento.
RIFERIMENTI BIBLIOGRAFICI
1. Assistants for safe mobility (ASSAM) http://assam.nmshost.de. 2. The IWalkActive project. www.iwalkactive.eu. 3. The E-NO-FALLS project. www.e-nofalls.eu. 4. P. Nazemzadeh, D. Fontanelli, D. Macii, L. Palopoli, “Indoor Positioning of Wheeled Devices for Ambient Assisted Living: a Case Study,” in Atti IEEE International Instrumentation and Measurement Technology Conference, Montevideo, Uruguay, Maggio 2014.
T_M ƒ 262
David Macii si è laureato in Ingegneria Elettronica a pieni voti presso l’Università degli Studi di Perugia nel 2000. Nel 2003 ha conseguito il Dottorato di Ricerca in Ingegneria dell’Informazione presso la stessa Università. Dal 2005 è Ricercatore in Misure Elettriche ed Elettroniche all’Università di Trento.
Luigi Palopoli si è laureato in Ingegneria Informatica presso l’Università di Pisa nel 1998. Successivamente ha conseguito il Dottorato di Ricerca presso la Scuola Superiore S. Anna di Pisa nel 2002. Attualmente è Professore Associato presso l’Università di Trento, in cui insegna dal 2005. È specializzato in robotica assistenziale e sistemi operativi in tempo reale.
▲
IL VINCITORE DEL PREMIO “OFFELLI” 2014
GLI ALTRI TEMI
Roberto Ferrero
Metodi di misura per alte correnti impulsive con applicazione ai lanciatori elettromagnetici
MEASUREMENT METHODS FOR HIGH IMPULSIVE CURRENTS, APPLIED TO ELECTROMAGNETIC LAUNCHERS Accurately measuring high impulse currents represents a difficult challenge in several fields. For this reason, robust measurement methods are required, which however should be also based on simple models allowing accurate evaluations of the method sensitivity and measurement uncertainty, particularly important in this case. The advantages of an “integral” approach based on magnetic flux measurements are illustrated here, with application to electromagnetic rail launchers. RIASSUNTO Misurare accuratamente alte correnti impulsive rappresenta una difficile sfida in molti campi. Per questo sono necessari metodi di misura robusti, ma allo stesso tempo anche basati su semplici modelli che consentano un’accurata valutazione della sensibilità del metodo e dell’incertezza di misura, particolarmente importanti in questo caso. I vantaggi di un approccio “integrale” basato su misure di flusso magnetico sono qui illustrati, con applicazione ai lanciatori elettromagnetici “railgun”. PERCHÉ È DIFFICILE MISURARE non trascurabili nei circuiti di misura. ALTE CORRENTI IMPULSIVE Una corretta scelta del metodo di mi-
Transitori impulsivi caratterizzati da alte correnti sono presenti in numerose applicazioni in diversi campi di ricerca, tra cui elettronica di potenza, fusione nucleare, superconduttività e lancio elettromagnetico. Il loro studio è dunque di grande interesse, ma è allo stesso tempo reso particolarmente complicato dai numerosi fenomeni multifisici che solitamente accompagnano questi transitori elettromagnetici, come deformazioni meccaniche, riscaldamento dei conduttori e possibile formazione di plasma, i quali rendono spesso difficile un’accurata analisi teorica, anche con i più moderni software di simulazione numerica. D’altra parte, anche la misura di questi transitori rappresenta spesso una difficile sfida, sia per la ridotta accessibilità dei conduttori sia, soprattutto, per l’ambiente particolarmente ostile in cui si trovano a lavorare i sensori, con campi magnetici intensi e rapidamente variabili che inducono disturbi
dispositivo in cui l’energia elettrica viene convertita in energia cinetica, con lo scopo di accelerare una massa di lancio. La possibilità di raggiungere velocità elevate promette interessanti applicazioni di questa tecnologia in numerosi campi, sia militari che civili (tra questi ultimi si possono citare il lancio nello spazio e la fusione nucleare). La configurazione di tipo “railgun” è quella concettualmente più semplice, illustrata in Fig. 1. Un’armatura conduttiva chiude il contatto tra due rotaie parallele, che all’altra estremità sono collegate a una sorgente di energia (ad es. un banco di condensatori). Quando un impulso di corrente viene fatto passare nelle rotaie e nell’armatura, quest’ultima viene accelerata per effetto della forza di Lorentz. Lo studio di come la corrente si distribuisce nelle rotaie e nell’armatura è di fondamentale importanza perché influisce fortemente sia sull’efficienza sia sull’usura del lanciatore. Tale distribuzione di corrente non può però essere accuratamente valutata per via teorica, in quanto essa è il risultato dell’effetto congiunto di transitori multifisici caratterizzati da dinamiche elettromagnetiche, meccaniche, termiche ed eventualmente anche magnetofluidodinamiche accoppiate tra loro, che danno origine a fenomeni particolarmente difficili da trattare anche con simulazioni numeriche, come il cosiddetto “velocity-skin effect” ad alte
sura diventa perciò particolarmente importante, e altrettanto importante è anche un’accurata valutazione della sensibilità del metodo stesso e dell’incertezza nella ricostruzione delle correnti. Questo vale a maggior ragione quando si vuole misurare la distribuzione di una corrente impulsiva tra diversi conduttori o all’interno di un conduttore massiccio. I problemi di misura che nascono in queste situazioni sono brevemente illustrati nel seguito di questo articolo, insieme all’approccio proposto per superare alcuni di essi, con riferimento a una particolare applicazione, i lanciatori elettromagnetici di tipo “railgun”, in cui le misure di distribuzione di corrente risultano particolarmente critiche. Politecnico di Milano
roberto.ferrero@polimi.it DISTRIBUZIONE DI CORRENTE NEI Memoria presentata al Convegno dell’Associazione GMEE LANCIATORI “RAILGUN” Gruppo Misure Elettriche ed Elettroniche Un lanciatore elettromagnetico è un Ancona, 11-13/09/2014
T_M
N.
4/14 ƒ 263
N. 04ƒ ;2014
▲
GLI ALTRI TEMI
I VANTAGGI DI UN METODO DI MISURA SEMPLICE
Figura 1 – Illustrazione del funzionamento di un lanciatore “railgun”
velocità e la formazione di plasma. Per questo, la misura della distribuzione di corrente rimane l’unica strada per migliorare la comprensione di questi fenomeni, ma anche per lo sviluppo e la validazione di futuri codici numerici. La misura della distribuzione di corrente all’interno dell’armatura è resa particolarmente difficile dal movimento veloce dell’armatura stessa, che impedisce il posizionamento di sensori su di essa, rendendo così necessario ricostruire la distribuzione di corrente a partire da misure di altre grandezze a essa collegate, come il campo magnetico vicino all’armatura (misurato ad es. da sonde “B-dot” o sensori magnetoresistivi) [1] o la caduta di tensione lungo le rotaie [2]. In entrambi i casi, però, il desiderio di avere una sensibilità elevata rispetto alla distribuzione di corrente, cioè sensori vicini alla corrente stessa, si scontra con l’esigenza di ridurre i disturbi indotti nei circuiti di misura, che richiederebbero di allontanare questi ultimi dalle sorgenti di campo. Inoltre, nel caso di sensori vicini alla corrente, l’incertezza nel loro posizionamento può portare a un’incertezza molto elevata nella ricostruzione della distribuzione di corrente. Per questo è indispensabile una corretta valutazione dell’incertezza del modello per poter raggiungere il miglior compromesso nel posizionamento dei sensori. Per illustrare una possibile soluzione per questi problemi, si considera qui per semplicità il caso di un’armatura composta da due sole spazzole (una anteriore e una posteriore rispetto alla direzione di lancio), tra le quali si distribuisce la corrente totale del lanciatore.
Il metodo di misura proposto si basa su un principio fisico ben noto: l’accoppiamento magnetico tra il circuito in cui scorrono le correnti incognite (in questo caso il lanciatore) e spire di misura opportunamente posizionate vicino a esso, come illustrato in Fig. 2. L’integrazione della tensione indotta su ogni spira di misura fornisce la misura del flusso magnetico concatenato con la spira stessa, che è legato in modo lineare alle correnti incognite (in questo caso le correnti delle spazzole dell’armatura). Il modello di misura risulta quindi semplicemente: [φ ] = [ M ][i ] ,
da cui è possibile ricostruire le correnti incognite [i] a partire dalle misure dei flussi [φ], conoscendo le mutue induttanze [M] tra spire di misura e circuito del lanciatore, purché ovviamente le misure siano in numero sufficiente. Con riferimento ai problemi di misura descritti sopra, questo metodo presenta numerosi vantaggi rispetto a misure puntuali di campo magnetico. Infatti, se le dimensioni lineari delle spire sono molto maggiori rispetto al calibro del lanciatore, è possibile posizionare le spire in modo che un lato attivo sia vicino alle correnti incognite (per garantire un’elevata sensibilità rispetto alla distribuzione di corrente, come nel caso delle misure puntuali), riducendo però l’effetto dell’incertezza di posizione dei sensori sulla ricostruzione della distribuzione di corrente [3], e soprattutto mantenendo i circuiti di misura sufficientemente lontani dalle sorgenti di campo, in modo da evitare tensioni indotte indesiderate. Inoltre, la semplice geometria delle spire (scelte di forma rettangolare) e del circuito del lanciatore (schematizzabile anch’esso attraverso elementi rettilinei paralleli o perpendicolari tra loro), consente di calcolare i valori delle mutue induttanze attraverso un modello analitico semplice ma allo stesso tempo accurato. Infatti, ogni mutua induttanza può essere calcolata a partire dalla semplice espressione valida per la mutua induttanza parziale tra due conduttori rettilinei e paralleli, di uguale lunghezza l, separati da una distanza d:
Mp =
Figura 2 – Metodo proposto per la misura della distribuzione di corrente in armature multi-spazzola, basato su spire esterne
µ0 2π
l l2 d2 d l ln + 1+ 2 − 1+ 2 + d d l l
Il modello di misura analitico consente, da un lato, di propagare analiticamente l’incertezza di posizione delle spire per stimare accuratamente l’incertezza della distribuzione di corrente ricostruita e, dall’altro lato, anche di effettuare analisi parametriche di sensibilità per ottimizzare il posizionamento e la dimensione delle spire per ogni particolare applicazione.
T_M ƒ 265
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
RISULTATI INCORAGGIANTI distribuzione di corrente tra le due 2. M. Schneider, R. Schneider, “MeaSU UN PROTOTIPO DI LANCIATORE spazzole dell’armatura durante un surement of the current distribution
Vengono qui riportati, a titolo d’esempio, alcuni risultati sperimentali ottenuti su un prototipo di lanciatore appositamente costruito presso i laboratori dell’Università di Pisa, in grado di produrre impulsi di corrente con picchi fino a 100 kA, di durata inferiore a 1 ms. Innanzitutto, è stata verificata la validità del modello analitico per il calcolo delle mutue induttanze e delle relative incertezze derivanti dall’incertezza di posizionamento delle spire. Per questa prova è stata utilizzata un’armatura composta da una singola spazzola (in modo che la sua corrente fosse nota) ed è stato misurato il flusso concatenato con una spira di misura posta in diverse posizioni lungo la direzione di lancio, a una distanza costante dal lato del lanciatore. Per testare la robustezza del modello rispetto a nonidealità della geometria, la spazzola utilizzata aveva un raggio non trascurabile rispetto alla sua lunghezza, ed era piegata a forma di “C”. Il confronto tra la curva teorica della mutua induttanza spira-lanciatore e le misure è riportato in Fig. 3 con le relative bande d’incertezza, confermando la validità del modello con una semplice correzione del baricentro della corrente pari al raggio della spazzola. Maggiori dettagli sono riportati in [4]. È stata poi effettuata una misura di
impulso di corrente, utilizzando due spire di misura. Questa prova è stata realizzata senza movimento dell’armatura, in modo da poter posizionare sull’armatura stessa due piccole bobine di Rogowski per una misura indipendente della distribuzione di corrente. Il confronto tra le due misure è riportato in Fig. 4, con la banda d’incertezza prevista dal modello (la misura fornita dalle bobine di Rogowski ha un’incertezza trascurabile, non riportata in figura). Questo risultato conferma quindi la validità di questo metodo di misura, almeno nelle condizioni sperimentali di questa prova. Maggiori dettagli sono riportati in [5]. Sono state effettuate anche numerose altre prove, non riportate qui per brevità, con risultati preliminari incoraggianti anche durante il lancio dell’armatura [4]. Infine, lo stesso me todo di misura è stato utilizzato per studiare anche la distribuzione di corrente all’interno delle rotaie, con risultati altrettanto incoraggianti [6]. RIFERIMENTI BIBLIOGRAFICI
1. O. Liebfried, M. Schneider, S. Balevicius, “Current distribution and contact mechanisms in static railgun experiments with brush armatures”, IEEE Trans. Plasma Sc., vol. 39, no. 1, pp. 431-436, 2011.
Figura 3 – Verifica sperimentale della validità del modello analitico usato per il calcolo delle mutue induttanze e delle loro incertezze
T_M ƒ 266
between multiple brush armatures during launch”, IEEE Trans. Magn., vol. 45, no. 1, pp. 436-441, 2009. 3. R. Ferrero, M. Marracci, B. Tellini, “Uncertainty analysis of local and integral methods for current distribution measurements”, IEEE Trans. Instrum. Meas., vol. 62, no. 1, pp. 177-184, 2013. 4. R. Ferrero, M. Marracci, B. Tellini, “Current distribution measurements in rail launcher multibrush armatures during launch”, IEEE Trans. Instrum. Meas., vol. 62, no. 5, pp. 11381144, 2013. 5. R. Ferrero, M. Marracci, B. Tellini, “Characterization of inductance gradient and current distribution in electromagnetic launchers”, IEEE Trans. Instrum. Meas., vol. 60, no. 5, pp. 1795-1801, 2011. 6. R. Ferrero, M. Marracci, B. Tellini, “Measurement of rail current distribution in rail launchers”, Proc. IEEE I2MTC 2014, Montevideo, Uruguay, May 12-15, 2014, pp. 455-459.
Roberto Ferrero ha un assegno di ricerca presso il Politecnico di Milano, dove svolge attività di ricerca nel campo delle misure elettriche. In particolare, si occupa principalmente della misura di correnti impulsive in lanciatori elettromagnetici e dello sviluppo di sistemi diagnostici per celle a combustibile.
Figura 4 – Misura della distribuzione di corrente tra due spazzole ottenuta con due spire di misura, confrontata con una misura di riferimento
▲
LA METROLOGIA FORENSE
GLI ALTRI TEMI
Alessandro Ferrero *, Veronica Scotti **
Quando l’incertezza genera certezza Importanza dell’incertezza in sede forense
FORENSIC METROLOGY: WHEN UNCERTAINTY GENERATES CERTAINTY Nowadays, crimes and disputes are solved by referring to technical and scientific investigation, often based on the results of tests and measurements, so that forensic metrology can be considered as the branch of metrology serving justice. Quite often, however, the measured values are not presented in a metrologically sound way. This article is aimed at proving that only measurement results obtained in a metrologically sound way, thus expressing also measurement uncertainty, can truly serve justice. RIASSUNTO Oggigiorno, la soluzione di crimini e dispute fa sempre più riferimento a risultati d’indagini tecnico-scientifiche, molto spesso basate su risultati di rilievi e misure, talché si può a buon diritto parlare di metrologia forense come di quella parte della metrologia al servizio della giustizia. Assai spesso, però, i risultati delle attività sperimentali non sono presentati in maniera metrologicamente corretta. Questa breve memoria ha lo scopo di mostrare come solo una rappresentazione metrologicamente corretta del dato sperimentale che includa anche l’incertezza di misura può essere di reale ausilio alla giustizia, favorendo così la certezza del diritto. INTRODUZIONE
La soluzione di un crimine richiede sempre più spesso il ricorso a metodi scientifici e a risultati di analisi e perizie tecnico-scientifiche che sono oggi considerati prove inconfutabili nelle aule di giustizia. Non è un caso, dunque, che l’ingegneria forense si stia affermando, in tutto il mondo, come nuova disciplina nel campo dell’ingegneria [1]. Con questo termine si intende l’intera attività tecnica svolta in ausilio del giudice, attività che in un numero rilevante di casi richiede la valutazione quantitativa di oggetti o sostanze rinvenuti sul luogo del delitto o a esso collegati (si pensi ad esempio alla misura di sostanze tossiche disciolte nell’acqua, nell’aria o nel sangue, al riconoscimento di DNA, ecc.). Il ruolo delle misure ha quindi assunto importanza tale da poter a buon diritto parlare di metrologia forense, come quel campo della metrologia al servizio della giustizia [2, 3]. Apparentemente, tuttavia, metrologia e giustizia sembrano fare riferimento a
principi contrastanti: da una parte i risultati di misura sono associati alla loro incertezza, dall’altra la giustizia richiede certezza. Questa apparente inconciliabilità fa sì che i gli operatori del diritto spesso non comprendano l’utilità dell’incertezza di misura nell’accertamento dei fatti e, anche nei pochi, purtroppo, casi in cui viene dichiarata tendano a trascurarla, incentivando così il “malcostume” tecnico di molti periti di non dichiararla. Questo lavoro si propone di mostrare che incertezza di misura e certezza del diritto non solo non sono in contrasto tra di loro, ma, anzi, che l’incertezza di misura, se correttamente considerata, favorisce la certezza del diritto e, in definitiva, il lavoro del magistrato. Va peraltro notato che, se questo concetto risulta ovvio a chi si occupa di misure, esso sembra essere ostico a chi invece viene da una formazione giuridica. S’intende quindi proporre anche qualche riflessione su come la comunità dei misuristi possa, con l’apporto essenziale di qualche giurista “illuminato”, rende-
T_M
re il concetto d’incertezza di misura utile e fruibile anche a chi opera nel campo della giustizia. GIUSTIZIA E MISURE: OBIETTIVI SIMILI, PRINCIPI DIFFERENTI
È opinione comune che scienza e giustizia siano quasi agli antipodi per finalità, riti, linguaggio. Se questo è condivisibile per riti e linguaggio, sembra tuttavia lecito affermare che esse abbiano una comune finalità: l’accertamento della verità dei fatti. Infatti la giustizia ha lo scopo di accertare fatti legati a crimini e dispute, per identificarne colpevoli e responsabili; la scienza ha lo scopo di accertare i fatti per avanzare la conoscenza umana. È poi ben noto che, in ambito scientifico, la scienza delle misure gioca un ruolo di primissimo piano, dal momento che l’accertamento dei fatti non può mai prescindere dai risultati di una corretta e mirata sperimentazione. I comuni obiettivi sono riaffermati, a ben vedere, anche dai metodi che scienza e giustizia utilizzano nell’accertamento dei fatti. La giustizia formula le proprie sentenze secondo logica basata sui riferimenti (i codici) e le prove disponibili. Allo stesso modo le teorie scientifiche nascono da deduzioni logiche basate sulle conoscenze pregresse e su risultati di esperimenti. Questo spie-
*
Dip. di Elettronica, Informazione e Bioingegneria - Politecnico di Milano alessandro.ferrero@polimi.it ** Avvocato del Foro di Milano veronica.scotti@gmail.com Memoria presentata al Convegno dell’Associazione GMEE Gruppo Misure Elettriche ed Elettroniche Ancona, 11-13/09/2014
N.
4/14 ƒ 267
N. 04ƒ ; 2014 ga anche l’apparente dicotomia tra verità processuale e realtà dei fatti (o verità fenomenica). Possono differire, se le prove disponibili differiscono. Ed è noto che, talvolta, meccanismi procedurali non rendono ammissibili (e quindi utilizzabili) alcuni atti e che, quindi, la verità processuale, basata sui soli elementi ammissibili che restituiscono una visione parziale della realtà e degli accadimenti, possa differire da quella fenomenica, come scientificamente intesa. A ben vedere, però, anche la realtà dei fatti scientificamente intesa si basa sugli strumenti disponibili per accertarla. In assenza di strumenti adeguati, anche la scienza rappresenta la realtà in modo differente da come è: basti pensare che, prima che Torricelli inventasse il barometro, la rappresentazione della realtà presupponeva che l’aria non avesse peso. Assodato che, contrariamente alle apparenze e all’opinione comune, giustizia e scienza hanno non solo obiettivi, ma anche metodi assai simili, viene spontaneo chiedersi in cosa differiscono, a tal punto da giustificare quel comune sentire che le vede agli antipodi. Differiscono i principi cardine e anche, purtroppo, il lessico con cui vengono espressi. Esaminiamoli nel dettaglio, perché capirne le differenze è utile per capire che, pur differenti, sono tutt’altro che in antitesi. I principi fondanti della giustizia In questa brevissima analisi si farà ovviamente riferimento all’ordinamento italiano, che rientra nel modello di ordinamento giuridico noto come diritto continentale, dal momento che esula dallo scopo di questa breve memoria un’analisi più approfondita dei principi cardine dei diversi ordinamenti. Vale comunque la pena notare, senza ulteriori approfondimenti, che i due principi nel seguito brevemente illustrati sono condivisi anche dall’altro importante sistema giuridico contrapposto al diritto continentale (o civil law), noto come common law, in uso nei Paesi di cultura anglosassone. Due sono i principi fondamentali su cui si basa la giustizia, in ispecie quella penale che pone seri problemi sul piano soprattutto etico e morale, considerate le conseguenze cui un procedimento di tale genere dà solitamente luogo. Il primo è noto come principio di certezza del diritto e impone che casi simili siano trattati nello stesso modo. È un principio basilare dei moderni Stati costituzionali e garantisce regole certe e comprensibili al fine di promuovere uguaglianza evitando, conseguentemente, trattamenti discriminatori per fattispecie analoghe. Il secondo principio è quello riassunto dal motto latino in dubio pro reo, che impone che un imputato venga condannato solo quando la sua colpevolezza è provata al di là di ogni ragionevole dubbio. Questo principio vincola il giudice, anche sotto il profilo etico, a chiedersi se le prove disponibili, intese in senso ampio, comprese quelle documentali e non solo quelle “sperimentali”, siano sufficienti per dissipare ogni ragionevole dubbio. Non sorprende quindi che, ogniqualvolta le conoscenze tecnico-scientifiche possono chiarire i fatti e le modalità con cui
N. 04ƒ ;2014
tanze di perizie tecniche, spesso basate anche su rilievi sperimentali, siano sempre conclusive e forniscano sempre, come sperano i giudici, risposte certe al di là di ogni ragionevole dubbio? O che siano addirittura esenti da dubbi? I principi delle misure Chi pratica la scienza delle misure sa bene che il risultato di una misurazione non può fornire il valore vero del misurando, ma solo una stima dello stesso, dal momento che qualunque valore misurato è affetto da incertezza di misura. Non è certo questa la sede per richiamare principi ben noti. Ci si lasci però citare due punti della GUM, che riteniamo particolarmente interessanti per costruire quel ponte, a oggi mancante, tra i principi fondanti della giustizia e quelli delle misure, ponte che, a modesto parere di chi scrive, potrebbe essere costituito proprio dalla metrologia forense, se correttamente definita e praticata. Il primo punto della GUM è quello in cui recita [4]: Ora si accetta generalmente che, allorquando tutte le componenti di errore note o ipotizzate siano state valutate e le relative correzioni apportate, rimanga tuttavia un’incertezza sulla correttezza del risultato, vale a dire un dubbio su quanto bene questo rappresenti il valore della quantità misurata. Il secondo è dove, riprendendo il VIM, definisce l’incertezza [4]: Parametro, associato al risultato di una misurazione, che caratterizza la dispersione dei valori ragionevolmente attribuibili al misurando. Ci sono due parole, qui, già incontrate nella breve presentazione dei principi della giustizia: dubbio e ragionevolmente. Alla luce di quanto detto, sembra non azzardato affermare che, similmente a un giudice che deve decidere tra colpevolezza e innocenza, anche chi fa misure non può affermare che il risultato ottenuto rappresenti il vero (cioè il misurando) senza dubbio alcuno. La differenza è che, in questo caso, il dubbio può e deve essere quantificato attraverso la valutazione dell’incertezza di misura. Questo punto, fondamentale per la scienza delle misure, non è purtroppo
▲
si sono svolti, il giudice (NdA: Per brevità, si commette qui una piccola inesattezza, facendo generalmente riferimento al giudice anche in quei casi in cui sarebbe più corretto far riferimento a un collegio giudicante) vi faccia riferimento e, non avendo una preparazione tecnico-scientifica tenda a ritenere sempre certe e conclusive, e idonee al superamento di ogni ragionevole dubbio, se esistono, le prove ottenute per mezzo di rilievi tecnico-scientifici. È doveroso notare che le competenze tecnico-scientifiche, che non appartengono solitamente al giudicante, entrano nei procedimenti e assumono un valore al loro interno attraverso le consulenze tecniche d’ufficio (CTU) disposte dal giudice e sono quindi presentate al giudice attraverso la mediazione del consulente, a cui l’attuale ordinamento giudiziario assegna funzioni di ausiliario del giudice. In particolare si rende opportuno precisare che, al momento del conferimento dell’incarico da parte del giudice, quest’ultimo procede a formulare un quesito, cui il consulente è tenuto a fornire risposta, mirato ad approfondire specifici aspetti tecnici rilevanti per la vicenda oggetto d’esame. Questo aspetto non è irrilevante, perché, come si vedrà nel seguito, il modo con cui viene esposta al giudice la risposta al quesito può non essere esaustivo e, di conseguenza, può solo apparentemente chiarire i dubbi. Per completezza, si rende opportuno in ogni caso precisare che le valutazioni e conclusioni assunte dal CTU in risposta al quesito non costituiscono un vincolo insuperabile per il giudice, il quale può totalmente disattenderle, senza che siano mosse al riguardo censure, purché le ragioni di tale scostamento siano congruamente e logicamente motivate da parte del giudice stesso. Tale impostazione è il portato storico della tradizione, derivante dall’antico diritto romano, che considera il giudice come peritus peritorum, ovvero quale soggetto in possesso di competenze talmente estese da comprendere tutto lo scibile umano, ivi incluso il sapere tecnicoscientifico. Il punto che qui ci interessa, però, è un altro, ed esula da problemi di tecnica processuale. Siamo sicuri che le risul-
GLI ALTRI TEMI
noto al di fuori della ristretta cerchia di chi studia e pratica le misure in modo non occasionale. Non meraviglia quindi che magistrati, procuratori e avvocati guardino con forte sospetto al termine incertezza di misura. Non avendo familiarità con questo concetto base della moderna scienza delle misure, ne recepiscono solo l’aspetto meramente lessicale, e ne rifuggono, come se facesse rientrare dalla finestra quei dubbi che speravano aver cacciato dalla porta affidandosi a una perizia tecnica. Ignorare l’utilità dell’incertezza di misura quando si è chiamati a prendere una decisione sulla base di un risultato di misura porta talvolta all’assurdo (almeno tale appare a chi invece conosce il significato dell’incertezza) di giudici che preferiscono consulenti e perizie che forniscono loro risultati senza specificarne l’incertezza. Fino al punto da affermare (primo processo d’appello del delitto di Perugia [2]) che i consulenti tecnici d’ufficio “non hanno risposto ai quesiti della corte, e hanno sollevato dubbi affermando che tutto è possibile”. È corretto? O meglio, è etico [5]? QUANDO L’INCERTEZZA PORTA CERTEZZA
Alla luce di quanto sopra descritto risulta evidente che il compito della metrologia forense è quello di fornire dati, ottenuti per via sperimentale, in grado di spiegare lo svolgimento dei fatti, come un crimine è stato commesso e, possibilmente, chi l’ha commesso. Il giudice si aspetta che questi dati possano aiutarlo a chiarire i propri dubbi, in modo tale che possa arrivare a un verdetto al di là di ogni ragionevole dubbio. Che ruolo ha l’incertezza? Quello di confondere il malcapitato giudice, facendogli venire ancora più dubbi, affermando che tutto è possibile? Oppure quello di circoscrivere e quantificare il dubbio? Chi sa di misure sa che il risultato di misura è, in realtà, un intervallo di possibili valori con un dato livello di copertura. Quindi, se è necessario confrontare un risultato di misura con una soglia (come quasi sempre avviene nella metrologia forense), esprimere
T_M ƒ 269
N. 04ƒ ;2014
tezza di misura, però, la probabilità che il valore sia sotto il limite risulta talmente elevata da giustificare un più che ragionevole dubbio che non sia stato commesso alcun illecito. Questi casi raramente escono dai tribunali, e se arrivano ai mezzi d’informazione spesso è solo per far apparire le ragioni che hanno portato all’assoluzione come uno dei tanti trucchi degli avvocati difensori per farla “scapolare” ai propri clienti. È sconfortante non riuscire a far capire che l’impiego metrologicamente corretto dei risultati di misura non favorisce nessuna delle parti, ma sempre e solo l’accertamento della verità, dal momento che non nasconde al giudice importanti elementi di prova [6]. Anzi, è proprio non dichiarando l’incertezza che si rischia di favorire una delle parti, perché si nasconde al giudice un elemento utile per il proprio giudizio. A conoscenza di chi scrive, il caso recente più eclatante è quello del primo processo del delitto di Perugia, già prima citato e menzionato in [2] con maggiori dettagli, in cui alcuni dei valori misurati per la determinazione del DNA di materiale organico rinvenuto sulla lama della presunta arma del delitto erano al di sotto dell’incertezza dello strumento impiegato. Nessuno ha contestato tali valori, e quando lo hanno fatto i periti del processo d’appello si sono sentiti accusare di “falsificare scientificamente la realtà”! C’È SPERANZA?
Il panorama che emerge da quanto sopra esposto sulla possibilità di far entrare il concetto d’incertezza fra quelli in uso nelle aule di giustizia è quanto mai sconfortante. Non solo non fa parte del bagaglio culturale di chi opera nel settore, ma viene spesso rifiutato come inutile e antitetico ai principi base della giustizia, anche se, come si è visto sopra, non lo è affatto. Tutti noi che ci occupiamo di misure dovremmo tuttavia chiederci se il concetto d’incertezza sia davvero così elementare come a noi sembra, e se la comunità dei misuristi si adoperi per diffonderlo in modo comprensibile anche ai non addetti ai lavori. Il dubbio è più che lecito,
▲
l’incertezza significa quantificare la probabilità (dubbio!) che il misurando sia al di sotto della soglia pur essendo il valore misurato sopra soglia e viceversa. Il perito che indica al giudice l’incertezza di misura fornisce quindi un dato estremamente utile per quantificare il dubbio che il risultato della misura rappresenti correttamente il valore del misurando e, conseguentemente, il rischio che una decisione, basata su quel risultato di misura, possa essere errata. È importante chiarire i limiti del ruolo del tecnico. È suo compito fornire al giudice tutti gli elementi utili per rispondere compiutamente al quesito che il giudice gli ha posto. L’incertezza di misura, se la risposta al quesito richiede l’esecuzione di misure, è uno di questi elementi. Se il quesito chiede di stabilire se una determinata grandezza supera una data soglia, è compito del perito quantificare, partendo dall’incertezza di misura, la probabilità che la grandezza misurata superi o meno la soglia. Non è compito del tecnico stabilire se il dubbio che da tale probabilità deriva sia ragionevole o no. Questo è e resta prerogativa del giudice, per il quale l’incertezza di misura, oltre a rappresentare uno degli elementi da considerare e valutare per arrivare a una decisione al di là di ogni ragionevole dubbio [6], fornisce strumenti atti a decidere se il dubbio è ragionevole o meno. Purtroppo oggi in Italia, ma non solo, ben difficilmente questi concetti entrano nelle aule di giustizia. Eppure sono innumerevoli i casi in cui l’incertezza di misura andrebbe considerata, per favorire l’adozione di sentenze non solo più eque, ma basate su dati presentati in modo scientificamente corretto. I casi più frequenti, in cui spesso la mancata dichiarazione dell’incertezza di misura si fonde con la totale, quasi proterva, ignoranza delle più elementari regole di metrologia legale relative alla verifica periodica degli strumenti, sono quelli relativi all’analisi delle concentrazioni di alcool nel sangue, effettuate attraverso l’analisi del respiro, e quelli relativi alla misura di velocità con gli autovelox. In entrambi i casi può accadere che i valori misurati appaiano sopra i limiti ammissibili. Una volta valutata l’incer-
GLI ALTRI TEMI
dal momento che l’incertezza di misura non giace derelitta nelle aule di giustizia solo perché giudici e avvocati non se ne curano. Purtroppo anche la stragrande maggioranza dei periti tecnici che frequentano quelle stesse aule dà l’impressione di non sapere che farsene, e non solo per evitarsi l’ulteriore compito di doverla poi spiegare ai giudici, ma piuttosto perché non hanno saputo spiegarla a se stessi. Certo, il compito non è semplice. Parlare d’incertezza e di come utilizzarla per prendere decisioni consapevoli richiede di aver assimilato alcuni concetti base di statistica e probabilità, anch’essi poco frequentati nelle aule di giustizia, e quand’anche lo sono, con risultati spesso discutibili [7]. Esiste un recente documento del JCGM1 sul ruolo dell’incertezza nelle valutazioni di conformità che potrebbe costituire la base anche per le decisioni prese nei tribunali [8]. È un ottimo documento, rigoroso ed esaustivo. Ma quanti, inclusi molti periti tecnici, sono in grado di capirlo? Non si discute la necessità, soprattutto a livello normativo, di emanare documenti rigorosi e non ambigui. Ma se ci si accorge che sono difficilmente comprensibili alla maggior parte di coloro che dovrebbero utilizzarli, e che non fanno parte di una ristretta cerchia di metrologi, bisognerebbe essere capaci di divulgarli con un linguaggio comprensibile anche a coloro che poi devono mettere in pratica quei concetti, tenendo conto che molti non hanno una preparazione matematica adeguata. Il compito non è facile, ma non è neppure impossibile. C’è chi ha tentato – secondo chi scrive con ottimi risultati – di spiegare i concetti base di probabilità e statistica con gli origami [9]. Perché non prenderlo ad esempio? Negli USA alcuni avvocati hanno spiegato il concetto d’incertezza di misura ad altri avvocati, giudici e tecnici forensi, utilizzando un linguaggio a essi comprensibile [3]. Forse si è perso un po’ di rigore matematico, ma è un prezzo che si può e si deve pagare per rendere questo concetto fruibile a chi non deve sviluppare nuove teorie, ma semplicemente capirne i concetti base e applicarli nel proprio campo, quando ne vede la necessità.
T_M ƒ 271
Negli Stati Uniti ha avuto successo, come ben argomentato in [10] e ripreso in [11]. Si è partiti da una situazione, alla fine degli anni ’70, simile alla nostra attuale di totale rifiuto di valutazioni tecniche espresse in assenza di totale certezza, per giungere, ai giorni nostri, al rifiuto di valutazioni tecniche fornite in assenza d’incertezza. E qui da noi? Silenzio. Solo poche voci isolate, e spesso solo quando fa gioco per far assolvere il proprio cliente, favorendo così il diffondersi, presso la pubblica opinione, del falso concetto che l’incertezza sia uno dei tanti cavilli e trucchetti messi in atto dai difensori per tirare fuori dai guai imputati che, sempre secondo l’opinione pubblica, meriterebbero pene severe. Se vogliamo, perché ne siamo intimamente convinti, che le nostre competenze vengano utilmente e in modo eticamente corretto (quindi per favorire la giustizia, e non una delle parti) entrare a far parte del bagaglio culturale di chi la giustizia l’amministra, non possiamo agire come singoli. È compito della comunità di misuristi e delle associazioni in cui essa si riconosce, come GMEE e GMMT, promuovere iniziative e, soprattutto, incontri con operatori del diritto, per spiegare, nel modo più semplice possibile, l’utilità che possono avere concetti scientifici a noi chiari, ma ad altri oscuri, nel fornire a chi è chiamato a giudicare tutti gli elementi utili a prendere una decisione al di là di ogni ragionevole dubbio. In definitiva, si tratta di spiegare che, nonostante il nome sciaguratamente scelto, l’incertezza di misura favorisce la certezza del diritto. È ora d’iniziare a farlo!
tali concetti, che non a motivi di vera sostanza. È infatti possibile concludere che l’incertezza di misura, se valutata e dichiarata nel presentare al giudice i risultati delle perizie tecniche, è un utile elemento che il giudice stesso può considerare e valutare per arrivare a formulare una sentenza al di là di ogni ragionevole dubbio. Infatti, gli fornisce importanti elementi di decisione, dal momento che la quantificazione del dubbio (scientifico) consente al giudice di determinare la ragionevolezza o meno del dubbio stesso e considerare tale dato ai fini della decisione. Conseguentemente, non dichiarare o non considerare correttamente l’incertezza di misura equivale a nascondere o non valutare una parte dei fatti e contrasta, oltre che con la buona pratica delle misure, anche con l’etica [5]. Sembra quindi lecito, a conclusione di queste brevi note, ritenere quanto mai opportuno che la comunità di misuristi si adoperi per disseminare le basi della cultura metrologica anche in campo giuridico, atteso che i risultati di misura hanno, oggi, un ruolo sempre più importante nello stabilire la verità processuale dei fatti. Non sarà probabilmente una strada breve, né facile da percorrere. Può essere di conforto, però, nell’intraprenderla, sapere che negli Stati Uniti questa opera di disseminazione [3, 6, 10] ha già portato a interessanti risultati. Speriamo quindi di non peccare di eccessivo ottimismo nel ritenere che anche in Italia, prima o poi, nelle motivazioni di una sentenza, si possa leggere che i risultati di un’analisi di concentrazione di alcool nel sangue non sono ritenuti ammissibili non a causa di qualche cavillo procedurale, bensì perché “in the absence of scientifically determined confidence CONCLUSIONI level, because it misrepresents the facts and therefore cannot be helpful to the Speriamo di essere riusciti a chiarire trier of facts” [12]. che i principi fondanti di giustizia (qualunque sia l’ordinamento a cui si fa riferimento) e scienza, e scienza delle RIFERIMENTI BIBLIOGRAFICI misure in particolare, hanno una significativa radice comune, e che la comu- 1. P. Boyell, “The emerging role of the ne percezione che i principi base del- forensic engineer”, IEEE Transactions on l’incertezza di misura e dalla cultura Professional Communication, vol. PC-30, giuridica siano in contrasto è dovuta n. 1, pp. 16-18, 1987. più a motivi lessicali e d’ignoranza di 2. A. Ferrero, V. Scotti, “Forensic metrolo-
T_M ƒ 272
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
gy: a new application field for measurement experts across techniques and ethics”, IEEE Instrumentation and Measurement Magazine, vol. 16, n. 1, pp. 1417, 2013. 3. T. Vosk, A.F. Emery, E. Fitzgerald, “Forensic Metrology: A primer on scientific measurement for lawyers, judges and forensic scientists”, Taylor & Francis, New York, NY, USA, 2014. 4. JCGM 100:2008, Evaluation of Measurement Data – Guide to the Expression of Uncertainty in Measurement (GUM, originally published in 1993), Joint Committee for Guides in Metrology, 2008. 5. A. Ferrero, V. Scotti, “Forensic metrology: when measurement science meets ethics”, Proc. IEEE International Symposium on Ethics in Engineering, Science and Technology, ETHICS 2014, Chicago, IL, USA, May 2014. 6. T. Vosk, “Trial by numbers”, The Champion, pp. 48-56, Novembre 2010. 7. M.C. Galavotti, “Probability, statistics and law”, in Probabilities, Laws and Structures”, D. Dierks et al. Eds, The Philosphy of Science in a European Pespective 3, Springer Science+Business Media B.V. 2012. 8. JCGM 106:2012, Evaluation of measurement data – The role of measurement uncertainty in conformity assessment, Joint Committee for Guides in Metrology, 2012. 9. M. Cigada, “Origanova. Introduzione alla statistica con l’origami”, disponibile su www.mariocigada.com/ mariodocs/origanova.html 10. E.J. Imwinkelried, “Forensic Metrology: The New Honesty about the Uncertainty of Measurements in Scientific Analysis” UC Davis Legal Studies Research Paper Series, Research Paper No. 317, December 2012, available at: http:// ssrn.com/abstract=2186247. 11. V. Scotti, “Forensic metrology: Where law meets measurements”, 20th IMEKO TC4 International Symposium, Benevento, 15-17 settembre 2014. 12. State v. Weimer, “No.7036A-09D at 3 (Snohomish Co. Dist. Ct. March 23, 2010”, reperibile su www.waduicenter.com/wpcontent/uploads/2010/04/ Snohomish-County-District-CourtCascade-Decision-Moon-032710.pdf.
▲
MISURE IN PSICOLOGIA
GLI ALTRI TEMI
Arianna Mencattini, Eugenio Martinelli, Corrado Di Natale
Lo stato emozionale: un nuovo misurando Sistema di riconoscimento automatico delle emozioni nel parlato
A NEW MEASURAND: THE EMOTIONAL STATE Speech emotion recognition (SER) finds applications in different areas. We describe here a recently developed SER system based on the dimensional representation of emotions in terms of valence and arousal. Beyond implementation aspects related to the improvement of the reliability of such systems, we propose a discussion on related metrological aspects, by referring and contextualizing the results of recent studies on nominal evaluation and nominal properties. RIASSUNTO I sistemi di riconoscimento emozionale dal parlato (SER) trovano oggi molte applicazioni. A tal proposito, in questo articolo presentiamo i risultati del test sul database italiano EMOVO di un sistema SER basato sulla rappresentazione dimensionale delle emozioni in termini di valenza e attivazione. Discuteremo poi sull’estendibilità dei concetti metrologici quali misurando e misurazione allo stato emotivo, contestualizzando i risultati di studi recenti sulle proprietà classificatorie. STIMA DEL CONTENUTO EMOZIONALE
L’utilizzo di stimoli multimodali nell’interazione tra individui della stessa specie è da sempre un mezzo per attuare il riconoscimento delle emozioni fra i mammiferi. Tale sistema di comunicazione così ancestrale e al tempo stesso efficiente non poteva che affascinare il mondo del soft computing, fornendo spunti emulativi importanti e conseguenti applicazioni per il miglioramento della qualità della vita. A tal fine, negli ultimi anni è cresciuto esponenzialmente l’interesse per una scienza denominata “Affective Computing” che si pone l’obiettivo di progettare macchine di calcolo in grado di riconoscere e/o esprimere emozioni. Purtroppo, a oggi lo sforzo computazionale richiesto a una macchina per tale scopo non è ripagato da altrettanta efficienza, per cui è necessario ancora molto lavoro per raggiungere risultati impiegabili nella pratica. D’altro canto le possibili ricadute applicative di un riconoscitore di emozioni sono molteplici e affasci-
nanti, si innescano in tutte le fasce di età e in contesti molto diversificati, motivando pienamente l’impegno multidisciplinare in quest’area di ricerca (video-giochi adattativi, gladvertising, diagnostica neuropsicologica e neuropsichiatrica, didattica online o apparati di sorveglianza evoluti). Al pari di un sistema di misurazione, la maggiore difficoltà nel realizzare un sistema di riconoscimento emozionale efficiente e robusto sta nel disporre di un modello emozionale validato. Negli ultimi trent’anni gli studi fatti da J. Russell e J. Posner da una parte, e da P. Ekman dall’altra, hanno portato alla costruzione di due macro-modelli emozionali differenti. Ekman propone un modello categoriale basato sull’identificazione di sei emozioni primarie (Rabbia, Disgusto, Tristezza, Gioia, Paura, Sorpresa) [1], mentre Russell e Posner [2] propongono un modello dimensionale in cui ogni emozione è codificabile mediante una coppia di valori di due grandezze: la “valenza”, indicante il senso di spiacevolezza/piacevolezza attribuibile a quello stato emotivo, e l’“attiva-
T_M
zione”, indicante il grado di calma/ eccitazione dell’emozione in oggetto. Se da un lato il primo modello permette un riconoscimento emozionale basato sulla più semplice individuazione (classificazione) della categoria emozionale di appartenenza del messaggio inviato, il secondo modello, pur richiedendo una maggiore complessità di calcolo, presenta affascinanti possibilità: permette di quantificare concetti quali gli aloni emozionali, o di affrontare il tema della compresenza di diverse patologie in un soggetto. In Fig. 1.a è riportato un esempio della rappresentazione delle emozioni di Russell. La presenza di un modello emozionale non è però condizione sufficiente per un riconoscimento efficiente. È necessario un sofisticato software che sia in grado di intercettare, acquisire e analizzare i messaggi multimodali (verbali, prosodici, glottali, facciali, gestuali, posturali, ecc.), fornendo in uscita una stima dello stato affettivo dell’interlocutore umano. Sarà quindi cura stimolare l’interesse del lettore verso un’estendibilità dei concetti di misurando e misurazione alla nuova proprietà stato emozionale. Nei successivi paragrafi verranno quindi mostrate le linee generali del funzionamento di un sistema di riconoscimento emozionale basato sull’analisi del segnale vocale, fornendo ove possibile un parallelo metrologico. Dip. di Ingegneria Elettronica Università di Roma Tor Vergata mencattini@ing.uniroma2.it martinelli@ing.uniroma2.it dinatale@ing.uniroma2.it Memoria presentata al Convegno dell’Associazione GMEE Gruppo Misure Elettriche ed Elettroniche Ancona, 11-13/09/2014
N.
4/14 ƒ 273
N. 04ƒ ; 2014
▲
NEWS
ALDO MASTRANGELO: HEAD OF PROJECT SYSTEM AND SERVICE DI R&S ITALIA Negli ultimi anni Rohde & Schwarz Italia ha continuamente specializzato la propria struttura di vendita, per meglio seguire alcuni mercati verticali (Test and Measurement e A&D, Secure Communications, Broadcasting, Radiomonitoring and Radiolocation). La struttura di Service, presentata nello scorso numero di Tutto_Misure (N. 3 – Ottobre 2014) è parte integrante dell’organizzazione Local System - Project management and Service, che vede l’Ing. Aldo Mastrangelo come Head of Project System and Service. L’organizzazione è composta da nove professionisti con pluriennale esperienza, riconosciuta non solo dalla clientela di R&S ma anche dai propri partner: una struttura di riferimento per i Clienti R&S che riconoscono le migliori competenze locali in termini d’innovazione e soluzioni riguardanti prodotti, integrazione e project management. Mastrangelo sintetizza l’impegno che R&S Italia e la sua organizzazione sono in grado di offrire: “Abbiamo la competenza e l’esperienza per comprendere e quindi valutare le esigenze del Cliente. Gestiamo il mix di risorse necessarie al raggiungimento dell’obiettivo pianificato, compreso l’eventualmente coordinamento dei partner, e colleghiamo i nostri prodotti con i vari servizi che offriamo per l’intero ciclo di vita del progetto. La nostra attività, attraverso il Project Management, passa da piccoli sistemi a complessi progetti d’integrazione, hardware e software, alla formazione, alla gestione della contrattualistica di manutenzione, sia durante il periodo di garanzia che per tutto il ciclo di vita del progetto/sistema”. L’esperienza e la professionalità sono riconosciute nelle seguenti referenze italiane: Ministero della Difesa, Aeronautica Militare, Marina Militare, Esercito, Carabinieri, Ministero dell’Interno, Guardia di Finanza, Guardia Costiera, Ministero dello Sviluppo Economico, Presidenza del Consiglio dei Ministri, Enea, ENAV ATC, aziende in ambito Finmeccanica, RAI, TIMB, Mediaset, Telecom, Vodafone, ecc. Mastrangelo (laurea in ingegneria elettronica con indirizzo telecomunicazioni, conseguita nel 1993) lavora in Rohde & Schwarz Italia dal Novembre 1996. Negli anni ha consolidato una notevole esperienza che lo ha portato a ricoprire l’importante incarico di vendita di soluzioni sistemistiche e, nel contempo, di direzione tecnica aziendale. Profilo su Linkedin. Per ulteriori informazioni: aldo.mastrangelo@rohde-schwarz.com mobile 335/8103166
QUALITÀ AL 100% NEI TEST MANUALI E NEI PROCESSI DI ASSEMBLAGGIO Il monitoraggio del processo di assemblaggio permette d’incrementare la qualità dei prodotti in uscita dai processi manuali, pneumatici e idraulici. Il sistema di monitoraggio dell’andamento della forza è ideale per questo scopo. Il concetto di produzione a zero difetti assume sempre maggiore importanza, se rapportato alla crescente richiesta di prodotti in specifica. L’utilizzo di questo sistema permette l’immediato rilevamento delle deviazioni, consentendo di eliminare le parti difettose prima che ulteriori processi ne aumentino il valore e comunque prima che il prodotto difettoso raggiunga il cliente finale. In particolar modo, gli assemblaggi possono essere controllati solo dopo il processo e tramite una verifica distruttiva. In questo caso, il vantaggio del monitor XY risulta evidente, permettendo non solo un controllo non distruttivo ma al 100% su tutte le parti prodotte. Il questo modo la produzione Zero Difetti diventa un obiettivo raggiungibile. Questo sistema può essere integrato in ogni pressa manuale a ginocchiera, pneumatica o idraulica rendendola uno strumento di produzione più affidabile e sicuro. La curva risultante permette quindi di definire un modello campione, che dovrà essere rispettato da tutte le operazioni successive per un dato programma. Questo sistema di misura Kistler è nato per sfruttare tutti i vantaggi della tecnologia piezoelettrica, permettendo ampi range di misura con la massima precisione, alti livelli di sovraccarico, e una vita del sensore di forza comparabile con la vita della macchina (zero ricambi), grazie alla particolare tecnologia costruttiva delle celle piezoelettriche. Il sistema di misura della forza Kistler è riconosciuto a livello mondiale per il monitoraggio qualità 100% e offre all’utilizzatore la garanzia di un controllo coerente, ripetibile e affidabile, per una maggiore trasparenza sul processo di assemblaggio e la possibilità di tracciare tutta la produzione, grazie alle funzioni di monitoraggio continuo che caratterizza la famiglia di prodotti maXYmos. Per ulteriori informazioni: www.kistler.com
N. 04ƒ ;2014
▲
GLI ALTRI TEMI
ra, rabbia, sorpresa, e tristezza, nonché la condizione neutrale (una particolare condizione di assenza di emozioni). Il database è stato registrato in ambiente acusti-
temente [4] nel nostro Dipartimento e applicato al database EMOVO. a. Data l’importanza di progettare un sistema in grado di stimare sia il contenuto emozionale di tipo categoriale sia quello di tipo dimensionale (applicazioni differenti potrebbero preferire l’una o l’altra predizione), ma data ancora la totale assenza di dataset di parlato emotivo in lingua italiana etichettati secondo il modello dimensioFigura 1 – (a) Il diagramma del modello dimensionale; nale, il SER prevede una pre-etichetta(b) Diagramma categoriale delle emozioni tura che, a partire dalla categoria ed etichettatura dimensionale emozionale assegnata dai valutatori in fase di ascolSISTEMI AUTOMATICI to, assegni una DI RICONOSCIMENTO coppia di valori EMOZIONALE di valenza e attivazione (yv,ya) Il segnale vocale e il segnale video concorrispondenti, tenente l’espressione facciale e posturasecondo lo schele costituiscono il modo meno invasivo ma riportato in e più naturale per attuare un riconosciFig. 1.b. mento emozionale. L’analisi della mimib. Ogni frase ca facciale però, nonostante una docuviene poi analizmentata efficacia soprattutto in emozata estraendo zioni a valenza negativa (smorfia di caratteristiche disgusto), può incontrare ostacoli di prosodiche in riservatezza e privacy. L’analisi vocale tratti di 30 ms. rimane quindi in moltissimi contesti l’uInizialmente ogni nica modalità realmente implementabiframe viene clasFigura 2 – Schema generale di un sistema le per il riconoscimento emozionale. La sificato come di di riconoscimento emozionale progettazione di un sistema di riconoparlato o di scimento emozionale dal parlato (Speech Emotion Recognition – SER) si camente controllato basa sui 3 passi fondamentali indicati usando due microfoni dai blocchi in verde in Fig. 2: (i) eti- SHURE modello chettatura del segnale vocale, (ii) estra- SM58LC e un rezione delle caratteristiche del segnale gistratore digitale legate al contenuto emozionale, (iii) svi- MARANTZ PMD670 luppo e ottimizzazione di un modello a frequenza di camregressivo di predizione. Come mostra- pionamento di 48 KHz to in Fig. 2 la stima emozionale può poi e salvati in formato essere utilizzata in un fase decisionale wav con 16 bit di (diagnostica, didattica, mantenimento ampiezza, ed è stato della sicurezza, ecc.). poi etichettato da ascoltatori esperti asMateriale vocale sociando a ogni e risultati del SER frase un’etichettatura I risultati mostrati riguardano il data- di tipo categoriale. base di parlato emotivo EMOVO [3] Per introdurre il lettoacquisito presso la fondazione ”Ugo re al funzionamento Bordoni” a Roma che consiste di 588 di un SER, descriviafrasi pronunciate da 6 attori profes- mo di seguito i bloc3 – Dall’alto al basso: segnale vocale, sionisti (3 uomini e 3 donne fra i 23 e chi principali sopra segnale diFigura energia associato, pitch stimato mediante metodo Cepi 30 anni) che simulano specifiche con- identificati (i-iii) del strum e sua modellizzazione Spline dizioni emozionali: disgusto, gioia, pau- SER sviluppato recen-
T_M ƒ 275
N. 04ƒ ; 2014 silenzio (voiced/unvoiced) confrontando l’energia del segnale vocale con una soglia adattativa. Per ogni frame di parlato vengono poi estratte 520 caratteristiche prosodiche divise in 12 gruppi distinti. Le caratteristiche prosodiche sono legate alla frequenza del segnale vocale pitch (e sue alterazioni) e alla modulazione di ampiezza (e sue alterazioni), che come noto possono essere indotte dallo stato emotivo. In Fig. 3 riportiamo un esempio di un segnale vocale relativo a una frase del database di EMOVO, il corrispondente segnale di energia, e il corrispondente segnale di pitch estratto mediante metodo cepstrum e modellizzato mediante metodo spline [4]. c. Il crescente numero di applicazioni che richiedono l’analisi di segnali non stazionari ha prodotto un’altrettanto vasta popolazione di metodi di regressione. Spesso la complessità di tali sistemi (vedi reti neurali) e la loro ottimizzazione capillare, pur se portando a risultati apparentemente eccellenti, può nascondere fenomeni di sovra-apprendimento (overlearning) che possono pesantemente influenzare la robustezza e la capacità di funzionamento in applicazioni reali. Il sistema di riconoscimento che presentiamo si basa sul metodo di regressione PLS (Partial Least Square), un metodo di regressione lineare che, garantendo semplicità e robustezza, presenta ottime capacità di generalizzazione in contesti di acquisizione differenti. Per fornire una stima sia dimensionale sia categoriale applichiamo poi un classificatore lineare alle stime di valenza e attivazione per assegnare una categoria emozionale alla frase analizzata [5]. Per quantificare la bontà dei risultati di stima abbiamo utilizzato il coefficiente di determinazione R2 per la predizione dimensionale (Fig. 4) e il tasso di Veri Positivi (True Positive Rate) per la predizione categoriale (Tab. 1). ASPETTI METROLOGICI DELLA STIMA DELLO STATO EMOZIONALE
La grande diversificazione delle potenziali applicazioni di un SER presenta vantaggi e svantaggi. Da una parte questi sistemi ampliano e rendono più “naturale” l’inter-
Figura 4 – Boxplot del coefficiente di determinazione R2 per la stima dimensionale delle emozioni
T_M ƒ 276
N. 04ƒ ;2014
▲
GLI ALTRI TEMI
Tabella 1 – Risultati della stima categoriale delle emozioni [5] e1 (disgusto)
e2 (gioia)
e3 (neutrale)
e4 (paura)
e5 (rabbia)
e6 (sorpresa)
e7 (paura)
Tasso medio di Veri Positivi per ogni emozione e deviazione standard sui parlatori donna 0,59 (0,02)
0,67 (0,06)
0,75 (0,05)
0,41 (0,09)
0,71 (0,15)
0,51 (0,17)
0,61 (0,17)
Tasso medio di Veri Positivi per ogni emozione e deviazione standard sui parlatori uomo 0,71 (0,10)
0,75 (0,18)
0,88 (0,08)
facciamento fra uomo e macchina, ma d’altra parte l’intrinseca multidisciplinarietà dell’argomento pone questioni importanti di omogeneità e uniformità dei termini usati, del loro significato, e delle modalità di interpretazione dei risultati. Nonostante i molti sforzi compiuti per l’ottimizzazione dei sistemi di riconoscimento, al fine di renderli flessibili, robusti, e indipendenti dal genere, dall’individuo, e dal contesto, minore interesse è stato rivolto alla caratterizzazione anche metrologica di tali sistemi. Nonostante ciò, a oggi il termine virgolettato “measuring emotions” è citato 24.100 volte sul web, mentre i due termini measuring e emotions si trovano nel medesimo contesto 29.000.000 di volte. Questo fatto prova la necessità di inquadrare la valutazione dello stato emozionale in un contesto metrologicamente valido combinando posizioni conservative e “futuristiche”, partendo dal presupposto che un processo di misurazione deva avere paletti formali e accettati, ma deva poter essere riadattato a contesti applicativi nuovi non precedentemente conosciuti. Le principali questioni da affrontare sono: che cosa sia il misurando, quali siano le proprietà e i valori di riferimento per tale misurando, quale sia il criterio di misurazione/valutazione. Quale misurando per lo stato emozionale Le proprietà classificatorie sono oggetto d’interesse quali candidati per quelli che potremmo chiamare nuovi misurandi [6]. Pur non avendo esse una struttura algebrica ricca, unità di misura e scala di misura, moltissimi casi applicativi prevedono che
0,77 (0,20)
0,84 (0,17)
il fenomeno osservato sia descrivibile mediante proprietà classificatorie, i cui valori possibili siano cioè categorie (classi, etichette, ecc.). Lo stato emozionale potrebbe essere visto come una proprietà classificatoria, non essendo possibile stabilire né un ordinamento fra stati affettivi né una relazione di proporzionalità (sarebbe quantomeno bizzarro pensare a gioia maggiore di tristezza o gioia come multiplo di piccole gioie). Quello che possiamo ammettere è che uno stato affettivo coincida con uno di gioia, ossia appartenga a quella categoria. D’ora in poi ammettiamo nella nostra discussione che lo stato emozionale sia una proprietà classificatoria e di conseguenza il nostro misurando. Quali proprietà e valori di riferimento per lo stato emozionale Considerando la descrizione del SER riportata nel precedente paragrafo e i modelli emozionali consolidati in letteratura (ad esempio le categorie emozionali di Ekman), si comprende come lo stato affettivo possa essere riconosciuto da un pool di esperti (psicologi, linguisti, ecc.) che ascoltino in condizioni controllate (minimizzazione del rumore, possibilità del riascolto, ecc.) frasi pronunciate da individui (attori o naif) sotto forzata elicitazione emozionale o in condizione di spontaneità. Mediante logiche del consenso (p.es., la categoria più votata viene definitivamente assegnata a una certa frase), l’insieme di frasi registrate viene etichettato costituendo un insieme di valori di riferimento per il misurando per le proprietà di riferimento emozioni primarie. Il misurista potrebbe obiettare sulla riproducibili-
0,64 (0,08)
0,70 (0,11)
tà e ripetibilità di tale procedura, questione che effettivamente viene per ora lasciata come spunto di discussione. Quale processo di valutazione per lo stato emozionale Da quanto visto in precedenza, e traendo spunto da quanto psicologi e psichiatri fanno in maniera strutturata da centinaia di anni, lo stato emozionale di un individuo può essere valutato analizzandone il parlato. La necessità di affiancare il riconoscimento emozionale di esperti con sistemi computerizzati comporta un’alternativa nella logica di riconoscimento. Come opzione potremmo pensare di implementare il riconoscimento emozionale chiedendo il parere di un insieme di persone che indipendentemente ascoltano la registrazione è assegnano una categoria emozionale. Le diverse modalità, e ovviamente le altre possibili, non sono che criteri differenti di assegnazione di una categoria alla proprietà stato emozionale dell’individuo sotto osservazione. Le diverse modalità possono essere denominate criteri di valutazione del misurando alla stregua di differenti processi di misurazione implementati per misurare il valore di una resistenza elettrica. Un fatto interessante è che un SER fa uso certo di grandezze differenti (caratteristiche prosodiche) con strutture algebriche più ricche (grandezze a rapporti, ordinali). Le diverse modalità (ascolto esperto, opinione di non esperti, SER) terminano comunque con l’assegnazione della categoria emozionale alla frase registrata mediante l’applicazione di un criterio che, per garantire generalità al processo, chiameremo, come re-
T_M ƒ 277
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
Figura 5 – Proposta di strutturazione metrologica di un sistema di valutazione dello stato emozionale
centemente proposto [7], criterio di indistinguibilità per la proprietà classificatoria in oggetto. Ricordiamo infatti che, per proprietà sulle quali non è possibile applicare né un’operazione algebrica né un ordinamento, è sempre possibile verificare una identità/diversità, quindi un’indistinguibilità. I NUOVI SCENARI
lità. Partendo spunto dagli studi di Wilcox del 1967, è quindi possibile definire statistiche di variazione (necessarie per giungere a una definizione d’incertezza) anche per una proprietà classificatoria, calcolando apposite statistiche descrittive a partire dalla distribuzione di probabilità assegnata a quel misurando.
RIFERIMENTI BIBLIOGRAFICI
1. P. Ekman, W. Friesen, P. Ellsworth, Emotion in the Human Face: Guidelines for Research and An Integration of Findings, Pergamon Press, 1972. 2. J. Posner, J. Russell, B. Peterson, The circumplex model of affect: an integrative approach to affective neuroscience, cognitive development, and psychopathology, Develop. Psychopathol. 17 (3) (2005) 715-734. 3. C. Giovannella, D. Conflitti, R. San-
toboni, A. Paoloni, Transmission of vocal emotion: do we have to care about the listener? The case of the Italian speech corpus EMOVO, ACII09, IEEE publisher (2009): pp. 494-499. 4. A. Mencattini, E. Martinelli, G. Costantini, M. Todisco, B. Basile, M. Bozzali, C. Di Natale, Speech emotion recognition using amplitude modulation parameters and a combinfeature selection procedure. Knowledge-Based Systems, 63, pp. 68-81, 2014. 5. A. Mencattini, E. Martinelli, G. Costantini, M. Todisco, B. Basile, M. Bozzali, C. Di Natale, A multivariate data processing to evaluate emotions in speech, XXXI Congresso Nazionale Gruppo di Misure elettriche ed Elettroniche GMEE2014, Ancona 11-13 settembre 2014. 6. L. Mari, A. Mencattini, A property type invariant model of measurement applied to nominal evaluations, accepted to IMEKO Joint Symposium TC1-713, Madeira, Portugal, 3-5 Sept 2014. 7. L. Mari, A. Mencattini, On uncertainty in nominal evaluations, XXXI Congresso Nazionale Gruppo di Misure elettriche ed Elettroniche GMEE2014, Ancona 11-13 settembre 2014.
In quest’articolo abbiamo introdotto il lettore al nuovo contesto della stima Arianna Mencattini è Assistant Professor in Elaborazione di Immacomputerizzata dello stato affettivo di gini presso il Dipartimento di Ingegneria Elettronica dell’Università di un individuo analizzandone la voce. Roma Tor Vergata. La sua attività di ricerca riguarda sistemi di misuAbbiamo presentato le caratteristiche razione non convenzionali basati sull’analisi di segnali mono e bidiprincipali del funzionamento del sistemensionali per applicazioni in biomedicina, nei beni culturali e nella ma sviluppato e i risultati numerici caratterizzazione di nanomateriali. È autrice di più di 50 lavori su riviste e congressi internazionali. ottenuti frutto di un lavoro recentemente pubblicato. Si sono affrontati poi gli aspetti metrologici di base Eugenio Martinelli è Assistant Professor in Elettronica presso il riguardanti come lo stato emozionale Dipartimento di Ingegneria Elettronica dell’Università di Roma Tor possa essere visto come un nuovo Vergata. La sua attività di ricerca riguarda lo sviluppo di sensori chimici e biologici, di sistemi sensoriali artificiali (olfattivi e tattili) e le misurando e quali siano le possibili loro applicazioni, le interfacce e l’elaborazione dei dati. È autore generalizzazioni dei concetti di misudi più di 130 articoli su riviste e congressi internazionali. razione e di valori di riferimento. Rimane non discusso il concetto d’incertezza, per la sua complessità. Corrado Di Natale è Professore Ordinario presso il Dipartimento Sulla base delle ricerche portate avandi Ingegneria Elettronica dell’Università di Roma Tor Vergata docenti sul tema dell’incertezza di una prote di corsi di Dispositivi Elettronici e Sensori. La sua attività di ricerprietà classificatoria [7], possiamo ca riguarda lo sviluppo e le applicazioni di sensori chimici e di bioanticipare uno scenario in cui a un misensori, di sistemi sensoriali artificiali (olfattivi e tattili), e lo studio surando proprietà classificatoria sia delle proprietà ottiche ed elettroniche di materiali organici e molesempre possibile associare una funcolari. È autore di più di 450 lavori su riviste e congressi internazione di distribuzione di probabilità zionali. È stato chair del “9th International Symposium on olfaction and electronic che assegni a ognuna delle categorie nose” (Roma, 2002) e di “Eurosensors XVIII Conference” (Roma, 2004) e membro attribuibili al misurando una probabi- del comitato Organizzativo di conferenze nazionali e internazionali sui sensori.
T_M ƒ 278
GLI ALTRI TEMI
▲
MISURE PER L’AMBIENTE E IL COSTRUITO I. Bodini *, A. Zenoni **, G. Bonomi **, A. Donzella **, M. Lancini **, G. Baronio **, P. Vitulo ***, F. Fallavollita ***, G. Zumerle ****
Monitoraggio dallo spazio Tracciamento di raggi cosmici per il monitoraggio di edifici storici
MONITORING BUILDINGS FROM SPACE The idea is to use the detection of cosmic ray muons to monitor historical buildings, where conservation constraints are severe and the evolution of deformation phenomena may last for months or years. The advantage of the proposed method consists in the cosmic ray capability to cross matter, and thus to monitor parts non reciprocally visible. Feasibility, performances and limitations of such a monitoring system have been performed using Monte Carlo simulations. RIASSUNTO In questo articolo vengono riportati i risultati di uno studio, basato su simulazioni Monte Carlo, volto a determinare la fattibilità, le potenzialità e i limiti di un sistema di monitoraggio basato sulla rivelazione di raggi cosmici. Tale sistema è stato pensato per applicazioni su edifici storici, dove le deformazioni che devono essere misurate avvengono in periodi di tempo lunghi anche mesi o anni e dove, per motivi di tutela, è bene che le tecniche utilizzate siano conservative. MONITORAGGIO DI EDIFICI TRAMITE TRACCIAMENTO DI MUONI COSMICI
A livello del mare, i raggi cosmici sono una radiazione principalmente costituita da muoni, particelle cariche, relativistiche, che hanno una massa pari a circa 200 volte quella di un elettrone. I muoni arrivano con una frequenza di circa 1 muone/(cm2·min), e seguono due distribuzioni: una di energia, con media attorno ai 3 GeV, e una angolare che ha il suo massimo allo zenith [1]. Le tecniche per la rivelazione dei muoni cosmici sono consolidate nell’ambito della Fisica delle Alte Energie, e di recente stanno trovando applicazione anche in ambito industriale, soprattutto della sicurezza, ad esempio per escludere il trasporto illegale di materiale radioattivo, o per monitorare gli scarti nella fusione dei metalli [2, 3]. Questo lavoro vuole sfruttare la capacità dei cosmici di attraversare materiali anche non trasparenti alla luce per ipotizzare un sistema di monitoraggio robusto, non invasivo, in gra-
do di lavorare in ambienti debolmente controllati, per misurare le deformazioni di edifici, scegliendo come caso di studio un edificio storico simbolo della città di Brescia, ovvero il “Palazzo della Loggia”, edificato nel 1574 d.C. e oggi sede del Sindaco, mostrato in Fig. 1. Per mezzo di simulazioni Monte Carlo sono stati indagati la fattibilità, le prestazioni e i possibili limiti di tale
sistema. In particolare è stata stimata l’incertezza di misura del sistema in funzione del tempo di acquisizione, e i risultati ottenuti sono stati confrontati con quelli ricavati per mezzo di un sistema di tipo meccanico, servito per monitorare “La Loggia” per più di dieci anni, dal 1990 al 2001 [4]. IL CASO DI STUDIO
Da quando è stato completato, il Palazzo della Loggia ha subito una lunga serie di danni, trasformazioni, interventi, alcuni dei quali hanno seriamente compromesso la stabilità strutturale dell’edificio. In particolare, la volta lignea di copertura a padiglione è stata completamente ricostruita nel 1914. Essa ha un’altezza massima di 16 m e una base rettangolare pari a 25 m × 50 m. La struttura di copertura è costituita da 7 archi principali a traliccio di 12,5 m di raggio e da archi secondari semplici, collegati tra loro in sommità da una trave di spina, anch’essa a traliccio. Sin dalla loro costruzione, gli archi principali sono stati interessati da un vistoso abbassamento in chiave e da conseguenti cedimenti orizzonta-
* Dip. Ingegneria dell’Informazione Università di Brescia H&W ileana.bodini@unibs.it ** Dip. Ingegneria Meccanica e Industriale, Università di Brescia H&W *** Dip. Fisica, Università di Pavia e INFN Sez. di Pavia **** Dip. Fisica e Astronomia Università di Padova
Figura 1 – Immagine del “Palazzo della Loggia”, situato a Brescia, in Italia, edificato nel 1574
T_M
Memoria presentata al Convegno del Gruppo Misure Meccaniche e Termiche (MMT) Ancona, 11-13/09/2014
N.
4/14 ƒ 279
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
li verso l’esterno. La progressiva flessione della trave a spina è stata misurata ripetutamente negli anni e la freccia massima risultava di 190 mm nel 1923, di 250 mm nel 1945 e di 800 mm nel 1980. Monitoraggio di tipo tradizionale Nel 1990 è stato allestito un sistema di misura per tenere sotto controllo le vistose deformazioni della volta di copertura del Palazzo e i percettibili fuori-piombo delle pareti perimetrali. Le misure sono state acquisite in modo continuo per un periodo complessivo di undici anni, fino al 2001. Cavi di 2,0 mm di diametro, di materiale diverso, acciaio e invar, sono stati accoppiati e ciascuna coppia è stata tirata, e mantenuta in tensione, tra punti simmetrici di un arco principale, su tre livelli diversi, congiungendo i punti A1-B1, A2-B2, A3-B3, visi-
T_M ƒ 280
stagionali. Da questo lungo periodo di monitoraggio è emerso che la copertura si deforma di circa 1 mm/anno [4]. IL SISTEMA DI MONITORAGGIO PROPOSTO
Figura 2 – Posizionamento del telescopio (T) di rivelazione e dei rivelatori bersaglio (B1, B2, B3) sul Palazzo della Loggia. Sono visibili anche i punti A1, A2 e A3, simmetrici dei rispettivi Bi
bili in Fig. 2, ripetendo l’operazione su quattro dei sette archi principali. La deformazione dei cavi tirati è stata costantemente misurata e depurata dalle deformazioni giornaliere e
Struttura del sistema I muoni che attraversano il Palazzo della Loggia sono circa 210.000 muoni/s e corrispondono a circa 10.000 muoni/(m2·min). Il componente su cui si basa il sistema di monitoraggio proposto è un rivelatore di particelle costituito da due strati di fibre scintillanti di sezione quadrata di lato 3 mm e lunghezza 360 mm. In ciascuno strato le fibre scintillanti sono affiancate una all’altra e, nel rivelatore, fibre di strati diversi sono ortogonali fra loro, come mostrato in Fig. 3a, in modo da ottenere una geo-
N. 04ƒ ;2014 Figura 3 – (a) Disposizione delle fibre scintillanti in ciascun rivelatore del sistema di misura; (b) Telescopio di rivelazione
deciso di utilizzare la deviazione standard delle distribuzioni come stima dell’incertezza del sistema u, dove u = RMSdistr/√N, RMSdistr è la deviazione standard dell’intera popolazione e N è il numero di muoni che attraversano il bersaglio e il telescopio. L’incertezza complessiva del sistema di misura dipende (i) dalla geometria del sistema, ovvero dall’angolo solido che il telescopio di rivelazione copre e che determina la numerosità della popolazione, in un certo tempo, (ii) dai materiali interposti, (iii) dalla durata delle acquisizioni.
▲
metria planare che permetta di leggere le coordinate XY del punto in cui il muone intercetta il rivelatore. Ciascuna fibra scintillante viene poi letta da un fotomoltiplicatore al silicio e le dimensioni complessive di ciascun rivelatore sono quelle di un quadrato di lato 400 mm. Tre di questi rivelatori sono stati allineati verticalmente e posti fra loro a una distanza fissa di 500 mm in modo da realizzare un telescopio di rivelazione (T), mostrato in Fig. 3b, rispetto al quale vengono misurati gli spostamenti. T va posizionato in modo che fornisca un sistema di riferimento fisso. Un ulteriore rivelatore, definito bersaglio, è posizionato nei punti di cui si vuole determinare lo spostamento, che in Fig. 2 sono identificati come B1, B2 e B3. In questa prima versione del sistema vengono utilizzati per il monitoraggio solo i muoni che attraversano una sola volta il bersaglio e tutti e tre i rivelatori del telescopio. I tre punti acquisiti dal telescopio vengono interpolati ai minimi quadrati in modo da ottenere una retta che viene prolungata fino al bersaglio. Le differenze x e y fra le coordinate rivelate dal bersaglio al passaggio del muone e quelle del punto ottenuto sul bersaglio prolungando la retta interpolante sono due variabili casuali: il valore della media della distribuzione è la quantità che può fornire informazioni relative allo spostamento del bersaglio rispetto a T. L’incertezza di misura del sistema riveste quindi un ruolo fondamentale per determinare se le medie di due distribuzioni successive nel tempo siano significativamente diverse tra loro. In questa prima fase di studio si è
GLI ALTRI TEMI
da T; (iv) la larghezza delle fibre scintillanti, pari a 3 mm, che rappresenta la risoluzione spaziale minima del rivelatore; (v) la distribuzione spettrale e quella angolare con cui arrivano i muoni cosmici alla superficie terrestre; (vi) i materiali coinvolti, ovvero quelli di cui sono costituiti i rivelatori e quelli che compongono le strutture lignee e murarie che s’interpongono fra bersaglio e telescopio. In Fig. 4a e 4b sono mostrate le distribuzioni in uscita dal Monte Carlo, per una simulazione equivalente a 15 giorni di acquisizione e che riguardano rispettivamente i punti B1 e B3. Confrontando questi due grafici emerge come, a parità di tempo di osservazione, la geometria influenzi fortemente la dispersione delle distribuzioni.
Simulazioni Monte Carlo Perché il sistema proposto sia idoneo al monitoraggio di un edificio storico come il Palazzo della Loggia le sue prestazioni devono essere almeno equivalenti a quelle di un sistema tradizionale come quello precedentemente presentato. In particolare, deve essere in grado di riconoscere uno spostamento di 1 mm/anno e di distinguere tra spostamenti sistematici e spoFigura 4 – Distribuzione della variabile casuale x in uscita dalle stamenti ciclici, giornasimulazioni Monte Carlo corrispondenti a un periodo di acquisizione lieri o stagionali, che di 15 giorni se il bersaglio è posizionato in (a) B1, (b) B2 possono raggiungere i 4 mm di differenza tra estate e inverno. Per valutare le prestazioni del siste- PRESTAZIONI ma di monitoraggio proposto sono DEL SISTEMA DI MONITORAGGIO state eseguite simulazioni Monte Carlo sfruttando il software Geant4, L’andamento dell’incertezza del sistema in grado di gestire le interazioni delle in funzione del tempo è fondamentale particelle con la materia. Il software per comprendere se il sistema proposto riceve in ingresso le seguenti informa- è competitivo rispetto ai sistemi tradiziozioni: (i) la geometria del Palazzo nali, almeno per quanto riguarda le predella Loggia, così come stazioni metrologiche. Tale andamento rappresentata in Fig. 2; è mostrato in Fig. 5, da cui emerge (ii) le dimensioni dei come uno spostamento di 1 mm sia rivelatori; (iii) la loro facilmente rivelabile in un tempo massiposizione reciproca e mo di 9 giorni se si sta monitorando il quella rispetto alla geo- punto B3. Uno spostamento di 2 mm, metria del palazzo: in semiampiezza di uno spostamento staparticolare, T in Fig. 2 gionale, è rilevabile, nel caso più sfavosi trova 3,0 m sotto la revole, in circa 3 giorni. I requisiti minisoletta della copertura, mi che il sistema deve avere, almeno B1, B2 e B3 si trovano dal punto di vista metrologico, risultano circa a 3,5 m, 7,5 m e quindi ampiamente rispettati, e sono già 13 m, rispettivamente, state studiate soluzioni che permettono
T_M ƒ 281
Phys. Rev. D, 2012, vol. 86 [2] Riggi S, “Muon tomography imaging algorithms for nuclear threat detection inside large volume containers with the Muon Portal detector”, Nucl. Instrum. Meth A, 2013, vol. 728, pagg. Figura 5 – Andamento dell’incertezza del sistema di monitoraggio in funzione del tempo 59-68 [3] Gilboy W B et al., “Industrial di migliorare almeno di un fattore cinradiography with cosmic-ray muons: A que la stima dell’incertezza [5, 6]. progress report”, Nucl. Instrum. Meth A, 2007, vol. 580, pagg. 785-787 [4] Bellini A et al., “Il palazzo della RIFERIMENTI BIBLIOGRAFICI Loggia di Brescia – Indagini e proget[1] Beringer J. et al. (Particle Data ti per la conservazione”, 2000, Group), “The Review of Particle Physics”, Starrylink editrice, Brescia
T_M ƒ 282
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
[5] Bodini I et al., “Cosmic ray detection based measurement systems: a preliminary study”, Meas. Sci. Technol., 2007, vol. 18, pagg. 35373546 [6] Zenoni A et al., “Historical building stability monitoring by means of a cosmic ray tracking system”, arXiv:1403.1709, 2014
Ileana Bodini è assegnista di ricerca presso il Dipartimento di Ingegneria dell’Informazione dell’Università di Brescia. Si occupa di visione, diagnostica per mezzo di misure di vibrazione, allestimento e gestione di sistemi di misura in ambienti debolmente controllati e analisi e interpretazione dei dati.
GLI ALTRI TEMI
▲
MISURE PER L’AMBIENTE E IL COSTRUITO Andrea Cataldo *, Egidio De Benedetto *, Giuseppe Cannazza **, Nicola Giaquinto **, Emanuele Piuzzi ***
Health monitoring in materiali edili con elementi sensibili embedded a basso costo attraverso la tecnica della riflettometria nel dominio del tempo
HEALTH MONITORING OF BUILDING MATERIALS AND STRUCTURES THROUGH PASSIVE, DIFFUSED, EMBEDDED SENSING ELEMENTS A time-domain reflectometry (TDR)-based system for monitoring moisture content in building structures and materials is presented. This system employs simple, low-cost, flexible bi-wires, which act as “distributed” sensing elements (SE’s), which are embedded permanently inside the structure. The SE’s can be used both for monitoring the hydration process of the fresh mixture and, successively, for monitoring water infiltrations or moisture variations of the structure. RIASSUNTO Questo lavoro riguarda la validazione sperimentale di un sistema di misura basato sulla riflettometria nel dominio del tempo (TDR) per il monitoraggio del contenuto d’acqua in strutture e materiali edili. Il sistema presentato impiega semplici elementi sensibili (ES) “distribuiti” e flessibili. Tali ES vengono integrati nella struttura da monitorare e possono essere utilizzati per monitorare sia l’idratazione della miscela fresca, sia le variazioni di umidità della struttura in esercizio. ESIGENZE DI MONITORAGGIO DELL’UMIDITÀ NELLE STRUTTURE EDILI
È noto che la presenza di umidità nelle strutture murarie può provocare seri danni di natura strutturale (provocando ad esempio la corrosione prematura delle barre d’acciaio delle armature), oltre a essere causa di effetti negativi igienico-sanitari e di carattere estetico. Pertanto, è fondamentale monitorare costantemente il contenuto di umidità o la variazione nel tempo del contenuto d’acqua nelle strutture murarie. Molte delle soluzioni presenti allo stato dell’arte si basano su sensori puntuali inseriti nella struttura da monitorare. In questo caso, quindi, è necessario inserire nella struttura una moltitudine di sensori e, come diretta conseguenza, risulta difficile ottenere una buona risoluzione spaziale del profilo di umidità [1]. Inoltre, i sensori tradizionali sono per lo più attivi, ovvero richiedono la presenza di batterie on-board per il funzionamento (eccetto per alcuni sistemi, di recente sperimentazione, che
permettono la ricarica wireless) e procedure di calibrazione talvolta laboriose, nonché scarsa integrabilità con sistemi di telegestione. Partendo da queste considerazioni, la presente attività di ricerca riguarda l’implementazione di un sistema di monitoraggio dello stato di salute, associato al contenuto d’acqua residuo, in strutture edilizie basato sulla riflettometria nel dominio del tempo (time domain reflectometry, TDR). Tale sistema prevede che, già in fase di posa in opera della struttura, gli elementi sensibili (ES) bifilari a bassissimo costo (simile a quelli impiegati in [2-4] per la localizzazione di perdite in condotte idriche interrate) vengano inglobati all’interno della struttura. Un segnale elettromagnetico (EM) viene quindi fatto propagare in tali ES e, dall’analisi dei segnali riflessi, è possibile sia monitorare nel tempo l’avanzamento dello stato d’indurimento di calcestruzzi, sia effettuare controlli ex-post finalizzati alla localizzazione di profili di contenuto di acqua residui e/o in eccesso, quali infiltrazioni, o altre condizioni associabili a effetti di degrado.
T_M
Una volta installati, gli ES rimangono permanentemente inseriti nella struttura e possono essere “interrogati” quando si ha necessità di acquisire il profilo riflettometrico diffuso. Trattandosi di ES passivi, essi non richiedono la presenza di batterie. L’implementazione su larga scala di tale metodologia porta al concetto di allestimento di vere e proprie “reti di elementi sensibili”. SISTEMA PER IL CONTROLLO EX-ANTE DELLE STRUTTURE EDILI: MONITORAGGIO DEL PROCESSO D’IDRATAZIONE DEL CEMENTO
Di seguito si riportano i risultati ottenuti nella validazione preliminare del sistema eseguita su un campione di malta cementizia realizzato con rapporto pari a 2:6:1 (cemento/sabbia/acqua) e di dimensioni pari a 45,0 x 8,6 x 3,0 cm3. La Fig. 1 mostra la preparazione del campione e la disposizione dell’ES. Le lettere B ed E indicano, rispettivamente, l’inizio e la fine dell’ES. L’ES consiste di due fili di rame paralleli (sezione trasversale del singolo filo pari a circa 1 mm2), inglobati e separati l’un dall’altro da una guaina in PVC.
andrea.cataldo@unisalento.it * Dip. Ingegneria dell’Innovazione Università del Salento - Lecce ** Dip. Ingegneria Elettrica e dell’Informazione - Politecnico di Bari *** Dip. Ingegneria dell’Informazione, Elettronica e Telecomunicazioni Università di Roma “La Sapienza” Memoria presentata al Convegno dell’Associazione GMEE Gruppo Misure Elettriche ed Elettroniche Ancona, 11-13/09/2014
N.
4/14 ƒ 283
Figura 1 – Fase di preparazione del campione (sopra); campione estratto dalla cassaforma dopo 29 giorni (sotto)
Lo strumento TDR utilizzato per le misure è l’Hyperlabs HL1500: è un’unità riflettometrica portatile, adatta ad applicazioni in situ, che genera un segnale in tensione a gradino di ampiezza pari a 250 mV e con un tempo di salita pari a circa 200 ps. Il processo d’idratazione del campione è stato monitorato per 29 giorni acquisendo, nei diversi giorni, il corrispondente riflettogramma TDR (Fig. 2). Com’è noto, un riflettogramma riporta l’andamento del coefficiente di riflessione (ρ) in funzione della distanza apparente dapp percorsa dal segnale EM che si propaga attraverso l’ES. Nelle misure TDR, la quantità ρ è definita come il rapporto tra l’ampiezza del segnale in tensione riflesso e l’ampiezza del segnale incidente. Dalla Fig. 2 si può notare che, al procedere del processo d’idratazione, l’ascissa corrispondente al punto di fine dell’ES diminuisce (spostandosi da app ). Questo effetto è dovuto al fatto che d Eapp −iniziale a d E −finale dapp è funzione della costante dielettrica efficace del mezzo di propagazione ε eff ), secondo la seguente formula [5]:
ε eff ≈ (d app / d )2 Pertanto, poiché l’acqua ha permettività dielettrica relativa pari a circa 78 mentre la permettività del cemento e dell’inerte è tipicamente dell’ordine di 3-4, man mano che l’acqua reagisce (e, in parte, evapora) il valore di ε eff della miscela diminuisce. La Fig. 3 mostra l’andamento di ε eff nel tempo. SISTEMA PER IL CONTROLLO EX-POST DELLE STRUTTURE EDILI: MONITORAGGIO DELL’UMIDITÀ DI RISALITA
Per verificare la possibilità d’impiegare il sistema di misura proposto anche per il monitoraggio ex-post delle strutture, è stato realizzato il seguente esperimento. Una volta trascorsi 29 giorni, il campione è stato posizionato a contatto con terreno umido, in modo da favorire il fenomeno
T_M ƒ 284
Figura 2 – Evoluzione temporale del riflettogramma al procedere dell’idratazione del campione
Figura 5 – Immagini all’infrarosso del campione prima (a sinistra) e dopo (a destra) la risalita di acqua
▲
GLI ALTRI TEMI
and has received funding from the European Union 7th Framework Programme for research, technological development and demonstration under the TETRACOM grant agreement no. 609491.
sponde alla fine dell’ES (punto E). Per confronto, la Fig. 5 mostra l’immagine ottenuta tramite una termocamera del campione, prima e dopo la risalita di acqua. NOTE APPLICATIVE DEL SISTEMA PRESENTATO Figura 3 – Evoluzione temporale del valore di
ε eff
al procedere dell’idratazione
Figura 4 – Confronti tra i riflettogrammi acquisiti prima e dopo l’infiltrazione di acqua (in alto) e tra le rispettive derivate prime (in basso)
della risalita. Nello specifico, il campione è stato posizionato in modo tale che l’ES risultasse perpendicolare al piano di appoggio: il campione è stato mantenuto in questa configurazione per 15’. La Fig. 4 mostra il confronto tra riflettogramma acquisito prima e dopo la risalita di acqua: si può notare che c’è stato un allungamento della lunghezza apparente totale dell’ES. L’immagine in basso di Fig. 4 mostra il confronto tra le derivate prime dei riflettogrammi, in cui, com’è noto, viene enfatizzato (come picco) il punto che nel riflettogramma corri-
I risultati preliminari fin qui presentati possono avere interessanti ricadute applicative per applicazioni di monitoraggio in strutture edilizie. Ad esempio, in un edificio in cui siano stati installati più ES passivi, le connessioni tra i terminali degli ES e lo strumento possono essere ricavate attraverso derivazioni e prese da pannello (similmente agli impianti elettrici). In questo modo, quando si volesse eseguire una misura di controllo sulla struttura, basterebbe collegare lo strumento ai singoli connettori ed effettuare il controllo, avendo a disposizione la topologia preliminare della “rete” di ES (stabilita, ad esempio, in fase di progetto). Inoltre, è opportuno precisare che il sistema descritto potrebbe anche essere impiegato anche per fini di health monitoring delle strutture. Infatti è noto che, correlando opportunamente i profili TDR rivelati allo stato effettivo del fenomeno sotto osservazione (cioè calibrazione del sistema), la tecnica TDR può essere impiegata anche per individuare la presenza di cricche ed eventuali altri fenomeni di degrado con possibilità di localizzazione spaziale del tratto interessato dallo specifico fenomeno. RICONOSCIMENTI
This work was carried out within the Technology Transfer Programme “An Innovative Diffused Monitoring of Moisture and Health in Building Structures”,
RIFERIMENTI BIBLIOGRAFICI
1. A. Cataldo, G. Cannazza, E. De Benedetto, N. Giaquinto, “A TDRbased system for the localization of leaks in newly installed, underground pipes made of any material,” Measurement Science and Technology, vol. 23, no. 10, 2012, p. 105010. 2. A. Cataldo, E. De Benedetto, “Broadband reflectometry for diagnostics and monitoring applications,” IEEE Sensors Journal, vol. 11, no. 2, pp. 451-459, 2011. 3. A. Cataldo, G. Cannazza, E. De Benedetto, N. Giaquinto, “Riflettometria a microonde per l’individuazione di perdite in condotte idriche interrate”, Tutto_Misure vol. XIV no. 2, pp. 121124 (2012). 4. A. Cataldo, G. Cannazza, E. De Benedetto, N. Giaquinto, M. Miraglia, S. Ancora, “S.I.M.P.Le.: il nuovo sistema a microonde per la ricerca di perdite in condotte idriche e fognarie”. Tutto_Misure Vol. XV no. 3, pp. 207210 (2013). 5. A. Cataldo, E. De Benedetto, G. Cannazza, “Hydration monitoring and moisture control of cement-based samples through embedded wire-like sensing elements”, IEEE Sensors Journal, in stampa, DOI: 10.1109/ JSEN.2014.2360712.
T_M ƒ 285
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
Andrea Cataldo è Ricercatore Confermato nel settore delle Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria dell’Innovazione dell’Università del Salento. Le sue principali attività di ricerca riguardano le misure riflettometriche a microonde, la caratterizzazione dielettrica di materiali, e lo sviluppo di sistemi per la diagnostica e il monitoraggio.
Nicola Giaquinto è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Elettrica e dell’Informazione del Politecnico di Bari. I suoi principali interessi di ricerca riguardano l’elaborazione numerica dei segnali per le misure e la sensoristica, i modelli matematici per le misure e le problematiche teoriche relative alla definizione e alla valutazione dell’incertezza di misura.
Egidio De Benedetto si è laureato in Ingegneria dei Materiali, ed è Dottore di Ricerca in Ingegneria dell’Informazione. Attualmente è assegnista di ricerca presso il Dipartimento di Ingegneria dell’Innovazione dell’Università del Salento.
Emanuele Piuzzi è ricercatore confermato di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria dell’Informazione, Elettronica e Telecomunicazioni dell’Università Sapienza di Roma. I suoi principali interessi di ricerca riguardano le misure di permettività complessa, la strumentazione biomedica e la valutazione dell’esposizione ai campi elettromagnetici.
Giuseppe Cannazza si è laureato in Fisica presso l’Università del Salento. Attualmente è assegnista di ricerca presso il Dipartimento di Ingegneria dell’Innovazione dell’Università del Salento.
OCEAN OPTICS LANCIA LO SPETTROMETRO QE PRO Il QE Pro di Ocean Optics è uno spettrometro ad alta sensibilità CCD back-thinned, con un’incredibile efficacia quantistica, un’ampia gamma dinamica e un funzionamento estremamente silenzioso nelle applicazioni con ridotti livelli di luminosità e in cui vengono misurate ampie gamme di concentrazione. Il design ottico di QE Pro ottimizza la performance in funzione delle esigenze di diverse applicazioni. Grazie al suo convertitore A/D 18 bit, lo strumento offre prestazioni di gamma dinamica, che lo rendono il mini spettrometro con maggiore sensibilità presente sul mercato. Questo è un aspetto importante nella spettroscopia di emissione, in particolare fluorescenza e Raman, a causa della potenziale debolezza dei segnali e dei limiti di campioni rilevabili minimi. Inoltre il QE Pro restringe i limiti di rilevamento e consente di realizzare misurazioni su una gamma di concentrazione più vasta per l’assorbimento e la riflettanza nelle applicazioni di controllo della qualità. Il nuovo spettrometro offre una memoria tampone integrata ai ricercatori e agli specialisti di cinetica, che necessitano di acquisizioni veloci di spettri completi. La memoria tampone integrata, con una capacità di 15.000 spettri, garantisce l’integrità dei dati memorizzando spettri con marca temporale per le comunicazioni USB. La memorizzazione permette di realizzare misurazioni cinetiche dello spettro completo, come quelle utilizzate nella cinetica chimica ed enzimatica, o ripiegamenti di proteine ogni 8 millisecondi, ovvero 125 misurazioni al secondo. Per ulteriori informazioni: www.oceanoptics.com - www.acalbfi.com/it
T_M ƒ 286
NUOVE SORGENTI LED PER L’INDUSTRIA E LA RICERCA OPTOPRIM presenta le sorgenti LED prodotte da ScopeLED, ad alta intensità e differenti opzioni sulla lunghezza d’onda di emissione per tutte le applicazioni di visione e microscopia. ScopeLED’s B - Series – L’Illuminatore per microscopia BSeries sostituisce le convenzionali lampade alogene usate per bright-field, darkfield, phase contrast, polarized light e DIC, per applicazioni sia in trasmissione sia in riflessione. Il cuore della sorgente B-Series è una matrice LED ad alta intensità DiCon’s Dense Matrix. Usando un innovativo disegno per la dissipazione del calore queste sorgenti sono esenti da problemi di vibrazione e stabilità, perché a raffreddamento free fan-less, che garantisce un’alta stabilità nell’emissione. G180 Series - Color Tunable Table Top / Pole Mount – La serie G degli illuminatori di ScopeLED è basata sul disegno originale di una matrice Dense Matrix LED Array. Questa sorgente è progettata per le applicazioni che richiedono versatilità nelle emissioni e il controllo della sorgente via computer. La connessione al PC può essere con: mini USB, Analogica o TTL (fast strobe requirement). La sorgente è testata per oltre 30.000 ore di tempo di vita e ha un basso consumo energetico. Si presenta come l’alternativa alle sorgenti alogene in fibra ottica per Machine Vision e Sistemi di Imaging digitali. Per ulteriori informazioni: www.optoprim.it
▲
MISURE DI FLUIDI
GLI ALTRI TEMI
Giuseppe Dinardo, Laura Fabbiano, Gaetano Vacca
Portata volumetrica di condotte a sezione quadrata Una nuova e più semplice procedura per la sua misura
A NEW PROCEDURE FOR A RAPID ESTIMATION OF THE FLOW RATE IN SQUARE CROSS SECTION DUCTS Focus of the present work is the evaluation of the fluid flow rate in a pipe of squared cross section through the direct measurement of the mean velocity at a fixed location of the section. The method simplifies and improves the procedure suggested by the technical standard EN 12599. Here it is shown that the proposed methodology allows the estimation of the flow rate with higher accuracy than the normed one does, estimating errors smaller than those accepted in common practice. RIASSUNTO Obiettivo del lavoro è la proposta di una procedura semplificata per la valutazione della portata volumetrica di un fluido che scorre in una condotta a sezione quadrata. Questa si basa sulla misura diretta, effettuata in un punto stabilito della sezione della condotta, della velocità media del fluido. Dati sperimentali mostrano che il metodo proposto, oltre a semplificare notevolmente la procedura di misura suggerita dalla norma EN 12599, permette la stima della portata con minore incertezza. INTRODUZIONE
Risalire alla portata volumetrica attraverso la misura della velocità media del fluido, nel caso generale di condotta circolare e flusso turbolento (il più comunemente riscontrabile in ambito industriale), è un’operazione facile, veloce e sostanzialmente precisa [1]: è infatti sufficiente, analogamente a quanto avviene ad esempio nel caso di misure con tubo di Preston, misurare la velocità del fluido in un determinato punto della sezione. Si può in dettaglio dimostrare sperimentalmente che misurare la velocità del fluido (per esempio attraverso il tubo di Pitot o un opportuno anemometro) a una distanza dall’asse della condotta pari a circa 3/4 del raggio della stessa, equivale a misurare la velocità media del fluido [2]. Questo approccio riduce di molto il tempo necessario alla misurazione richiedendo solo un unico passaggio attraverso cui introdurre lo strumento, e da richiudere eventualmente dopo aver effettuato le misure necessarie. In questo lavoro, le considerazioni valide per le condotte a sezione circolare
no essere scelti in maniera tale che a ogni misura corrisponda una corona circolare di uguale area. Misurato il profilo di velocità, si potrà calcolare la velocità media e da questa risalire alla portata. È evidente che un maggior numero di punti di misura garantisce una stima della portata più accurata. La procedura di misura di velocità media, invece, prevede la misura della velocità in un unico e ben definito punto della sezione, che si trova a una distanza pari a circa 3/4 del raggio dall’asse della condotta. Per flussi laminari e profilo completamente sviluppato, la velocità media del flusso è data da:
r 2 V0 2 π ∫0 1− R dr = 2 (1) vengono estese a quelle a sezione qua- dove R è il raggio della condotta e drata, caratterizzando metrologica1 ∆pR 2 (2) mente la procedura di misurazione V0 = 4 µl proposta e presentando i risultati così ottenuti. In particolare la portata volu- Questa semplice equazione perde la metrica è valutata in accordo a quanto sua validità per flussi turbolenti, per i prescritto dalla normativa UNI EN quali è possibile risalire alla velocità 12599 [3] eseguendo misure di veloci- puntuale del flusso attraverso la tà all’interno di una piccola galleria del seguente formula empirica: vento con anemometro laser doppler 1 (LDA). I risultati ottenuti portano a una V r n (3) = 1 − relazione empirica parametrica che V0 R permette di individuare il punto interno alla sezione della condotta dove ese- in cui il numero n è legato al numero di Reynolds così come riportato in [2]. guire le misure di velocità media. Integrando quest’ultima equazione otteniamo la velocità media in funzione CONFRONTO TRA LA PROCEDURA DI MISURA PRESCRITTA DALLA NORMA UNI EN 12599-2012 E IL METODO PROPOSTO
Valutazione della portata in condotte a sezione circolare La norma prescrive che il profilo di velocità venga determinato almeno su due diametri tra loro perpendicolari; secondo prescrizione, i punti di misura devo-
T_M
V =
V0 πR 2
R
Politecnico di Bari giuseppe.dinardo@poliba.it laura.fabbiano@poliba.it gaetano.vacca@poliba.it Memoria presentata al Convegno del Gruppo Misure Meccaniche e Termiche (MMT) Ancona, 11-13/09/2014
N.
4/14 ƒ 287
della velocità misurata al centro del- portata volumetrica, suggerisce di divil’asse della condotta: dere la sezione quadrata in i elementi di equivalente area Si. In questo modo V 2n2 (4) la velocità media è calcolabile come la = V0 (n + 1)(2n + 1) media aritmetica delle velocità puntuali o anche l’espressione della velocità misurate al centro della sotto area Si. media come funzione della velocità Con l’obiettivo di poter risalire al valore di portata fluida effettuando una sola puntuale V(r): misura di velocità, gli autori introduco1 no il concetto di raggio equivalente, V (r ) (n + 1)(2n + 1) r n (5) ovvero il raggio della sezione circolare = 1 − 2n2 R V attraverso la quale fluisce la stessa porDati sperimentali dimostrano che a tata volumetrica che scorre nella tubauna distanza dall’asse r = 0,758 R, la zione a sezione quadrata: velocità puntuale V(r) coincide con il l2 l valore di velocità media del flusso. Req _ c = ≅ (6) π 2 Valutazione della portata in condotte a sezione quadrata in cui l è la dimensione del lato della Nell’allegato D dello standard tecnico condotta. EN 12599-2012 si analizza il caso di Ciò permette di estendere il metodo di condotte a sezione quadrata: la proce- misura della velocità media per una dura descritta per la misura della velo- condotta a sezione circolare al caso cità media, dalla quale risalire poi alla di condotte a sezione quadrata:
T_M ƒ 288
N. 04ƒ ; 2014
▲
GLI ALTRI TEMI
1
V (x ) x n = 1 − V0 Req _ c
(7)
in cui x è la distanza del generico punto dall’asse della condotta. VERIFICA SPERIMENTALE DEL MODELLO PROPOSTO
Per verificare la correttezza del modello proposto, che prevede la misura della velocità media a una distanza dall’asse della condotta pari a circa 3/4 del raggio equivalente, i test sperimentali sono stati condotti in una piccola galleria del vento che consiste in un circuito aperto all’interno del quale la velocità massima dell’aria misurata lungo l’asse della galleria è di 32 m/s, ottenuta attraverso un ventilatore aspirante.
N. 04ƒ ;2014
sperimentale per la velocità di rotazione a 25 Hz, Fig. 4, e il confronto tra i valori teorico e sperimentale della velocità media, Tab 1. Per ogni portata testata la velocità media sperimentale è ottenuta semplicemente da:
Figura 1 – Sezione di prova della galleria
Il condotto convergente di accelerazione della corrente, lungo 1,125 m, ha un rapporto di contrazione di 4:1, mentre il volume di prova ha una lunghezza di 0,600 m e una sezione trasversale quadrata con lato di 0,153 m. Le pareti del volume di prova sono in plexiglass, a eccezione di quella dedicata all’accesso ottico dello strumento laser che è costruita in vetro al fine di limitare i fenomeni di diffrazione del raggio luminoso. Il diffusore, lungo 1,200 m, ha una sezione d’ingresso quadrata e una sezione di uscita circolare (φ = 0,355 m). All’uscita del diffusore è inserita la ventola assiale azionata da un motore asincrono trifase la cui velocità di rotazione è controllata da un inverter. La sezione di prova è posta a una distanza di 0,400 m dall’uscita del convergente, come rappresentato schematicamente in Fig. 1. Il profilo di velocità della corrente fluida è ottenuto con l’anemometro laser doppler (LDA) 2D della Dantec Dynamics 0; la sonda laser è montata su un sistema di movimentazione meccanica, sia orizzontale che verticale, con passo 4,5 ± 0,1 mm. Procedura di misura I punti di misura all’interno della sezione di prova, come illustrato in Fig. 2, sono scelti in accordo con quanto prescritto dalla normativa in vigore per le
Vmean.exp =
1 25 ∑ Vi , 25 i =1
dove Vi è la i-esima velocità media pesata dei valori di veloFigura 3 – Percorso seguito dalla sonda LDA cità puntuale ottenuti dalle rilevaall’interno della sezione di prova zioni laser. Dal modello empirico si ricava che, per tutte le portate condotte a sezione circolare. Il percor- testate, la velocità media è posizionata, so seguito dalla sonda laser è indicato con un’incertezza inferiore al 3%, a in Fig. 3. una distanza dell’asse di circa 0,776 • Le misure di velocità, effettuate per tre l/2 (o 0,776 • R ). eq,c differenti portate, sono state ripetute per cinque volte in ogni punto. Ogni serie di misure è stata eseguita dopo circa VALUTAZIONE SEMPLIFICATA 60 minuti dalla serie precedente. I pro- E PRECISA DELLA PORTATA FLUIDA fili di velocità medi sono stati ottenuti L’obiettivo del lavoro è stato quello di mettere a punto una procedura sperimentale basata su un modello empirico, che porti alla determinazione della portata fluida in condotte a sezione quadrata attraverso un’unica misura della velocità di flusso. Le rilevazioni sperimentali hanno permesso di verificare che anche per sezioni quadrate è possibile misurare la velocità media nella sezione di prova in un ben defiFigura 4 – Confronto tra il profilo di velocità nito punto distante dall’asse della medio teorico e quello medio sperimentale relativo condotta di 0,776 • l/2. L’inceralla frequenza di rotazione del ventilatore di 25 Hz tezza relativa alla velocità media ricavata dal modello teorico, mediando le misure di velocità puntuali rispetto alla velocità media sperimentasui quattro assi di riferimento (i due assi le è risultata inferiore al 3%. principali e le due diagonali) della sezione della condotta. Confronto tra il profilo di velocità teorico e quello sperimentale I profili teorici di velocità sono ricavati dall’Eq. (7), dove il parametro empirico n è stato determinato dalla regressione logaritmica dei dati sperimentali. A titolo di esempio si riporta il confronto tra i profili medi di velocità teorico e
Figura 2 – Punti di misura nella sezione di prova
▲
GLI ALTRI TEMI
RIFERIMENTI BIBLIOGRAFICI
1. Baker, R. C., “Flow Measurement Handbook: Industrial Designs, Operating Principles, Performance, and Applications”. Cambridge University Press. 2005. 2. Baker, R. C. “An Introductory Guide to Industrial Flow. Mechanical
T_M ƒ 289
N. 04ƒ ; 2014
■
GLI ALTRI TEMI
Tabella 1 – Confronto tra il profilo di velocità medio teorico e quello medio sperimentale alle diverse portate sperimentate
Vmean,th [m/s] 10 Hz
5,07
25 Hz
15,05
40 Hz
24,65
Engineering” Publications Limited, London. 1996. 3. Ventilation for buildings - Test procedures and measurement methods to hand over air conditioning and ventilation systems.” [Online]. Available: http://store.uni.com/magento1.4.0.1/index.php/uni-en12599-2012.html. [Accessed: 10 ottobre 2014] 4. www.dantecdynamics.com/ flowlite-lda-systems [Accessed: 10 ottobre 2014]
T_M ƒ 290
Gaetano Vacca è professore Ordinario di Misure Meccaniche e Termiche presso il Dipartimen4,95 0,12 2,42 to di Meccanica, Matematica e Management 14,73 0,32 2,17 del Politecnico di Bari. La sua attività di ricerca è attuamente incentrata sulle applicazioni delle tecnologie laser alle 24,24 0,41 1,69 misure fluidodinamiche e alle vibrazioni meccaniche; altri suoi interessi sono nel Laura Fabbiano è bor- campo delle misure biometriche e della sista post-doc di Misure valutazione dell’incertezza di misura. Meccaniche e Termiche presso il Dipartimento di Giuseppe Dinardo è Meccanica, Matematica borsista post-doc di Misue Management del Polire Meccaniche e Termitecnico di Bari. I suoi interessi di ricerca che presso il Dipartimensono nel campo delle misure fluidodinato di Meccanica, Matemiche e delle vibrazioni meccaniche matica e Management ottenute utilizzando le tecnologie laser; del Politecnico di Bari. Interessi scientifialtri suoi interessi riguardano la valuta- ci: tecnologie laser per misure di velocizione dell’incertezza di misura e le mi- tà, portata fluida, vibrazioni, processasure biometriche. mento di segnali, sensori a fibra ottica.
Vmean,exp [m/s]
⏐ΔV⏐
⏐ΔV%⏐
▲
LA PAGINA DI ACCREDIA
A cura di Rosalba Mugno e Francesca Nizzero
La pagina di Accredia Notizie dall’Ente di accreditamento THE PAGE OF ACCREDIA The National Accreditation Organisation is now part of the staff of Tutto_Misure, as a permanent strategic partner, ensuring a high added-value contribution to the quality of the Magazine, in the context of the measurement and testing sector, for the benefit of the industry.
RIASSUNTO L’Ente unico di accreditamento nazionale ha un ruolo attivo nella squadra di “TUTTO_MISURE”, garantendo valore aggiunto a livello contenutistico per quanto riguarda l’ambito delle misure e delle prove. È STATA INAUGURATA LA NUOVA STRUTTURA DEL DIPARTIMENTO LABORATORI DI TARATURA DI ACCREDIA
I nuovi uffici del Dipartimento Taratura di Accredia (Torino, presso l’I.N.Ri.M.) sono stati ufficialmente inaugurati il 28 ottobre scorso. Lasciamo il resoconto della giornata (pubblicato a pag. 11, come Tema di questo numero) a chi con più autorevolezza e minor coinvolgimento delle sottoscritte ha vissuto questa importante occasione. Una cosa però ci permettiamo di scriverla: auguri alla struttura e alle persone che la costituiscono. Auguri alla segreteria, Sari Pienihäkkinen e Daniela Rossanino; ai funzionari tecnici Federico Ma rengo, Paola Pedone, Giulia Suriani e Maria Pia Toni; al collaboratore fisso Diego Orgiazzi e ai tecnici Annalisa Abbascià e Nello Palomba. CORSO ANNUALE DI AGGIORNAMENTO DEGLI ISPETTORI ACCREDIA-DT
Il 29 ottobre u.s. il Dipartimento ha tenuto il corso annuale di aggiorna-
mento per gli ispettori qualificati per le valutazioni dei Laboratori di taratura. Il corso ha registrato un’ottima partecipazione: ben 54 su 72 ispettori, oltre a ispettori in formazione ed esperti. La giornata, organizzata all’insegna del continuo e reciproco scambio di esperienze e opinioni, si è conclusa con la definizione di un elenco di modifiche operative (modalità di verbalizzazione delle evidenze, gestione delle attività a seguito di valutazioni documentali, modifiche ai regolamenti legate alle pratiche di rinnovo, definizione delle tabelle di accreditamento) che si concretizzeranno nell’anno in corso e in iniziative che partiranno a gennaio 2015. Come prassi per il Dipartimento, la collaborazione degli ispettori è un elemento imprescindibile per assicurare l’alto livello del servizio offerto ai centri, e questa è stata l’occasione per averne la conferma. L’obiettivo, condiviso alla fine della giornata, è quello di perseguire una maggiore uniformità di valutazione in una situazione in cui il numero di ispettori sta velocemente crescendo e la presenza di esperti interni all’I.N.Ri.M. è pari a quella degli esterni.
T_M
RUOLO DEL DIPARTIMENTO IN EA – EUROPEAN CO-OPERATION FOR ACCREDITATION
Riunione del Comitato Laboratori di EA (EA LC) a Londra (Windsor) di Mario Mosca – Direttore del Dipartimento Laboratori di Taratura Nella riunione che si è tenuta lo scorso 10 e 11 settembre, presieduta dal compianto Dott. Paolo Bianco alla presenza di circa 60 rappresentanti di Enti di Accreditamento e di alcuni importanti stakeholder tra cui Eurolab, sono state approvate la guida EURACHEM sull’accreditamento dei Laboratori di microbiologia, la guida per l’accreditamento dei Laboratori medici in conformità alla norma ISO 15189 e la guida EA-4/15 sull’accreditamento delle prove non distruttive. Si è discusso sull’accettazione di opinioni o interpretazioni nei certificati di taratura e nei rapporti di prova. La posizione di ACCREDIA è di precluderne la possibilità, mentre tra gli altri Enti e gli stakeholder si profila la tendenza ad accettarli. L’EA LC ha deliberato di emettere una guida che ammette la definizione di opinioni e interpretazioni a partire dalle misure fatte, purché espresse da persona competente e con esperienza verificabile, e tali da non essere confuse con l’attività condotta da organismi di ispezione o con la certificazione di prodotto.
Rosalba Mugno (Vice Direttore Dipartimento Tarature, Accredia, Torino) r.mugno@accredia.it Francesca Nizzero (Ufficio Comunicazione, Accredia, Roma) f.nizzero@accredia.it
N.
4/14 ƒ 291
N. 04ƒ ; 2014
■
LA PAGINA DI ACCREDIA
Non da ultimo si è ampiamente discusso sul problema dell’estensione dell’accreditamento ai produttori di materiali di riferimento. Riunione del Working Group del Comitato Laboratori di EA LC WG ILC Cal a COPENHAGEN di Paola Pedone – Funzionario Tecnico Laboratori di taratura Il WG organizza confronti interlaboratorio a cui gli organismi europei firmatari di EA MLA devono far partecipare i propri Laboratori a garanzia dell’adempimento dei requisiti previsti. Nella riunione che si è tenuta lo scorso 10 e 11 settembre presieduta da Martin Czaske (DAKKS) in qualità di convener ed Erik Bruun Lorentzen (DANAK) in qualità di co-convener e di segretario, alla presenza di circa 25 delegati, è emersa la necessità di aggiornare il documento EA/2-14, nello specifico il flow chart che schematizza l’intero processo di organizzazione degli ILC. All’interno del WG e in relazione a ciascun ILC sono stato individuati i sottogruppi che si occupano di preparare e presentare al resto del WG l’ILC di propria competenza, gestire i rapporti con i PT provider individuati, in particolare le offerte da porre in votazione, preparare gli inviti verso Organismi di accreditamento. Il WG ha deliberato che il PT Provider che fornirà l’ILC di umidità sia Danish Technological Institute e ha definito il piano quinquennale. Durante la riunione sono state presentate due proposte di ILC, una per i blocchetti pianparalleli corti presentata da Paola Pedone e la seconda per tempo e frequenza presentata da Adelina Leka. Entrambe le proposte sono state accolte.
ILAC Resolution GA 16.20 (2012): As ISO Guide 34:2009 includes normative references to ISO/IEC 17025 and ISO 15189, the General Assembly resolves that accreditation of reference material producers is conducted in accordance with ISO Guide 34:2009 alone. This resolution rescinds ILAC resolution 8.12. In addition ILAC R6:07/2012 will be amended to reflect this decision. A livello internazionale due regioni (APLAC – Asia Pacifico e IAAC – America) hanno stabilito i loro Accordi Multilaterali (MLA/MRA) in conformità alla ILAC GA 16.20. ILAC sta valutando di estendere ILAC MRA allo scopo accreditamento dei Produttori di Materiali di Riferimento (RMP). La situazione europea In merito all’accreditamento di RMP, EA, che non ha ancora esteso l’EA MLA per questo scopo, sta studiando il caso, e l’EA LC ha stabilito una Task Force (TFG RMP & PTP) di cui Mario Mosca è il convenor. A oggi, ACCREDIA-DT ha accreditato 4 RMP a partire dal 2005 (a suo tempo come SIT), di cui uno solamente come RMP, e si stanno preparando i Regolamenti (generali e tecnici) per questo scopo in conformità alla sola ISO Guide 34. Al momento i Regolamenti RG-13 e RT-25 coprono sia i requisiti contrattuali per i Laboratori di taratura, sia per i Produttori di Materiali di riferimento.
Problemi di compatibilità con il Regolamento (CE) n. 765/2008 Il Regolamento comunitario n. 765 del 2008, all’art. 2, punto 10, stabilisce che l’accreditamento viene attestato in conformità a norme armonizzate. Altri Regolamenti illustrano a quali requisiti debbano rispondere le norme per essere inserite nell’elenco delle norme armonizzate. La ISO Guide 34, pur contenendo i requisiti MATERIALI DI RIFERIMENTO: per l’accreditamento di RMP, non è norma, né norma armonizzata. COSA BOLLE IN PENTOLA In attesa delle decisioni degli organi La situazione normativa deliberanti di EA (EA EX e Assemblea La normazione sui materiali di riferi- Generale EA) da sottoporre ai Comimento è a cura di ISO REMCO, che tati di ACCREDIA, il Dipartimento connel 2012 ha emesso la risoluzione tinua a lavorare all’emissione dei
T_M ƒ 292
Regolamenti ACCREDIA necessari per operare correttamente in questo campo. ATTIVITÀ E PROSSIMI APPUNTAMENTI
Politica sulla riferibilità per il Dipartimento Laboratori di taratura Con questa politica, ACCREDIA riconosce che la principale fonte di riferibilità restano gli Istituti Metrologici Nazionali (NMI) operanti nel quadro dell’accordo CIPM-MRA nei limiti delle capacità metrologiche (CMC) internazionalmente accettate e pubblicate nel KCDB dal BIPM e i Laboratori di taratura accreditati da Enti di accreditamento firmatari dell’Accordo EA-MLA o ILAC-MRA per lo scopo “taratura” (calibration) nel quadro e nei limiti previsti dalle CMC pubblicate da AB, ma non intende chiudere la porta agli NMI che rilasciano certificati di taratura al di fuori dell’Accordo CIPM-MRA e delle CMC pubblicate nel KCDB del BIPM. In particolare, per questi ultimi ACCREDIA elenca alcuni criteri che si possono prendere in considerazione (l’elenco non è esaustivo né dirimente): – per la taratura in oggetto non esistono CMC pubblicate; – esistono NMI che potrebbero effettuare la taratura in conformità alle proprie CMC ma il trasporto del campione viaggiatore comporta rischi elevati per la sua incolumità e per il mantenimento delle sue caratteristiche metrologiche; – l’NMI che offre la taratura non ha la CMC pubblicata, ma la sta per ottenere e può dimostrare di avere partecipato con successo a confronti chiave organizzati a questo scopo, negli ultimi 3 anni; – l’NMI che offre la taratura non ha la CMC pubblicata per gli stessi parametri metrologici oggetto della taratura richiesta, ma per campi molto vicini e dichiara che la diversità dei parametri interessati è ritenuta internazionalmente non significativa dal punto di vista metrologico.
▲
LA PAGINA DI A.L.A.T.I.
Rubrica a cura di Paolo Giardina (garden67@gmail.com
assoalati@gmail.com)
a cura di Massimo Mortarino
Associazione dei Laboratori Italiani di Taratura - A.L.A.T.I. A.L.A.T.I. - THE ASSOCIATION OF THE ITALIAN CALIBRATION LABORATORIES This page is devoted to the discussion of associative and technical aspects, the collection of contributions from the Members of the Association, and the formulation of proposals in the framework of the collaboration between the Association and the Accreditation Institution ACCREDIA.
RIASSUNTO Questa rubrica è uno spazio permanente dedicato all’Associazione per discutere temi, raccogliere contributi dagli associati, portare avanti proposte nell’ambito della collaborazione con l’Ente di Accreditamento ACCREDIA.
Cari Lettori, in occasione della tavola rotonda “Accreditamento e Taratura: strumenti per la competitività” svoltasi presso l’I.N.Ri.M. nel pomeriggio del 28 di ottobre scorso, e la seguente inaugurazione del Dipartimento di Taratura di ACCREDIA (approfitto per fare i migliori auguri, sia personali che a nome dell’Associazione agli amici del Dipartimento Taratura di ACRREDIA), nella logica del contenimento dei costi a cui tutti ormai siamo più che abituati, si è tenuta, nella mattinata della stessa giornata e sempre presso l’I.N.Ri.M., l’assemblea dei soci della nostra associazione. Ovviamente oltre ai compiti istituzionali derivati dalla stessa (comunicazione del Presidente, approvazione del bilancio, rinnovo delle cariche, ecc.) che vi risparmio per ovvie ragioni, a mio modo di vedere abbiamo raggiunto degli importanti traguardi dei quali vengo a parlarvi. Innanzi
tutto abbiamo posto in essere la risoluzione di un vecchio peccato originale presente nel nostro Statuto, che impediva ai Laboratori pubblici di associarsi. Viste le richieste ricevute in proposito da importanti Laboratori di Enti pubblici, ci è sembrato logico e importante aprire il nostro spazio anche alle istituzioni pubbliche spesso determinanti con il loro lavoro nella vita di noi tutti. E per fare ciò abbiamo revisionato (pardon: modificato) il nostro Statuto, che è in fase di ratifica da parte del Consiglio Direttivo. Un’altra importante novità, che va nella logica del contenimento dei costi senza snaturare lo scopo della nostra Associazione, è quella che permetterà di poter tenere le assemblee anche con l’ausilio di mezzi informatici quali videoconferenza o teleconferenza. Anche questo mi sembra un passo avanti significativo, considerato che i
T_M
nostri soci provengono da tutte le parti del territorio nazionale, ed è cosa non facile riuscire a coinvolgerli tutti in un unico posto fisico; come più volte ribadito anche in questa circostanza le rete e la tecnologia ci vengono in aiuto. A proposito di rete, A.L.A.T.I. conferma e rafforza la collaborazione con il forum www.misurando.org dove alcuni soci hanno già dato la propria disponibilità a rivestire il ruolo di moderatore o di esperto all’interno della varie sezioni presenti nel forum. All’interno dello stesso è stata aperta una sezione dedicata interamente a noi e nella quale a breve i soci tutti avranno la possibilità di accedere a un’area riservata che permetterà lo scambio, oltre che dei documenti istituzionali, anche delle informazioni inerenti la vita e le iniziative dell’Associazione. Ovviamente tutto quello che vi ho proposto fino ad adesso risulterà propedeutico alla creazione, a breve, del sito web dell’Associazione che, pur mantenendo una stretta sinergia con il forum, permetterà in più alle aziende o laboratori soci di A.L.A.T.I. di avere una vetrina verso l’esterno con tutta una serie di utility propedeutiche al proprio business; cosa che per ovvi motivi risulta preclusa a un forum come “misurando” che è e deve rimanere un terreno neutro e scevro da qualsiasi iniziativa di tipo commerciale. Nella logica della collaborazione con il forum e ritenendolo appunto un ottimo strumento di condivisione, è nostra intenzione “restaurare” quelli che un volta erano i Gruppi di Lavoro dei Sottocomitati Tecnici del SIT, spariti definitivamente dopo che il SIT è confluito in ACCREDIA. È nostra intenzione dare a questi GL una connotazione forse meno ufficiale ma decisamente più operativa, svilup-
N.
4/14 ƒ 293
pando meglio le sezioni già in essere all’interno del forum come sezioni specialistiche e nella maggior parte dei casi di stampo prevalentemente tecnico che, senza presunzione di esaustività potrebbero avere come argomenti quelli sotto proposti: • Sviluppo di Guide tecniche/nuove linee guida; • Metodi di taratura e loro validazione; • Discussioni su nuove Norme tecniche di settore o nuove linee guida; • Attività di taratura quotidiane o straordinarie; • Sviluppo di nuove metodologie di taratura; • Altri problemi tecnici inerenti i GL; • Proporre attività future che necessitano di un confronto comune. Ogni sezione sarà seguita da un moderatore, che avrà il compito di tenere le redini delle discussioni. Sarà aperta quindi una sezione “Gruppi di lavoro Laboratori” e i relativi sotto-forum potrebbero essere suddivisi proprio come lo erano i vecchi GL, ovvero: • ACUSTICA; • FORZA E MOMENTO TORCENTE, DUREZZA; • GRANDEZZE ELETTRICHE, TEMPO E FREQUENZA • LUNGHEZZA, CMM; • MASSA, VOLUME; • PRESSIONE; • QUANTITÀ DI SOSTANZA; • RADIAZIONI IONIZZANTI; • TEMPERATURA, UMIDITÀ. Le varie sezioni saranno motivo di confronto quotidiano (a distanza) e daranno la possibilità di lavorare attivamente ai progetti proposti con lo scopo di dare continuità al lavoro per il raggiungimento di obiettivi comuni. Naturalmente, pur con moderate
T_M ƒ 294
N. 03 04ƒ ; 2014
■
LA PAGINA DI A.L.A.T.I.
forze in campo le iniziative della nostra Associazione non si esauriscono solo a quanto vi ho presentato fino a ora. Un aspetto cruciale, scaturito anche dall’assemblea, è rappresentato dalle esigenze/necessità di formazione tecnico - gestionale presenti all’interno dei laboratori. Alla luce del riscontro decisamente positivo avuto dai partecipanti dopo la sua prima edizione, sono a comunicare che l’Associazione riproporrà di nuovo il corso relativo alla gestione del sistema informativo nei Laboratori nella logica del documento ACCREDIA DT-02-DT; la formula di partecipazione sarà la stessa, ovvero di gratuità per i soci e a pagamento per i non soci, che se iscritti al corso avranno per un anno l’iscrizione gratuita all’Associazione. Preciso che non vi sarà limite di numero di persone per azienda partecipante. Tuttavia, se il corso sul DT-02-DT risulta già codificato e consolidato, anche se verrà riproposto con alcune interessanti novità, il nostro intento non è quello di fermarci qui. È nostra intenzione sviluppare un vero servizio di formazione per i Laboratori soci (accreditati o in fase di accreditamento), che permetta di condividere spazi formativi presso le strutture dei soci stessi (ovviamente di coloro che decideranno di aderire all’iniziativa). Siamo infatti consapevoli che, nei Laboratori accreditati ad esempio, esiste una notevole fonte d’informazioni e competenze di personale altamente qualificato che può essere messo a disposizione di tutti coloro che sono interessati, ad esempio negli spazi formativi già organizzati all’interno delle aziende, con il vantaggio di poter toccare con mano e fare esperienza diretta con strumentazione e metodologie già collaudate. Anche in questo caso la rete ci viene in aiuto, in quanto queste esperienze saranno condivise all’interno del sito dell’Associazione e, nelle varie forme che verranno decise e concordate dai soci, ogni evento organizzato da un socio inerente il piano formativo sul proprio personale, sia in ambito gestionale della qualità che tecnico, potrà essere proposto anche ad altri
soci sia gratuitamente sia a costi agevolati, che l’Associazione riuscirà a concordare con i fornitori di questi servizi. Non escludo, ovviamente l’utilizzo della rete anche per la fornitura a distanza di formazione, a patto che l’argomento lo consenta, tramite l’ausilio della formula dei webinar, già collaudata ad esempio all’interno del forum www.misurando.org”. Come avrete notato, in questa mia breve, ma intensa memoria mi sono astenuto nel trattare argomenti con connotazioni meno tecniche ma più “politiche”, ad esempio nei confronti dell’ente di accreditamento nel quale A.L.A.T.I. conta di entrare come socio (art. 1 del proprio statuto: Costituzione e Denominazione “In seguito alla costituzione di ACCREDIA come ente unico di accreditamento, e la necessità di avere una rappresentanza significativa si è costituita l’Associazione dei Laboratori Accreditati di Taratura Italiani la cui sigla è ALATI”) per portare la voce dei Laboratori di Taratura in seno all’Ente di Accreditamento. Argomenti spesso scaturiti da problematiche che i soci ci pongono, come i costi di accreditamento, rinnovo o sorveglianza, divenuti spesso insostenibili, soprattutto per piccole realtà laboratoriali; e su questo come Associazione avremmo diverse cose da dire e varie proposte da fare ad ACCREDIA. Purtroppo mi trovo, per l’ennesima volta, a constatare l’amara realtà di non avere raggiunto ancora la sostenibilità economica per fare quest’ultimo ma importante passo, che ci permetterebbe a pieno titolo di fare le nostre rivendicazioni e proposte nei confronti dell’Ente di Accreditamento. Esorto quindi i Laboratori tutti, ovviamente nei limiti delle proprie disponibilità, di entrare a far parte della nostra famiglia nella varie forme che l’Associazione propone, e di partecipare attivamente alla vita della stessa con i mezzi che pian piano stiamo mettendo a punto, sempre nella logica del principio di sostenibilità. Un caro saluto a tutti e alla prossima. Paolo Giardina
LA PAGINA DI IMEKO
▲
A cura del Prof. Paolo Carbone (paolo.carbone@unipg.it) Dip. di Ingegneria, Università di Perugia
Le pubblicazioni di IMEKO IMEKO publications IMEKO IMEKO, International Measurement Confederation, has been added to the permanent collaborations to the Journal starting from the beginning of 2014. This section contains information about the Association, publications, events and news of interest to our readers.
RIASSUNTO IMEKO, International Measurement Confederation, si è aggiunta tra i collaboratori stabili della Rivista a partire dall’inizio del 2014. Questa rubrica contiene informazioni sull’Associazione, pubblicazioni, eventi, e notizie di utilità per i nostri lettori. IMEKO gestisce un’intensa attività pubblicistica che rende conto delle numerose attività scientifiche condotte al proprio interno. Le pubblicazioni scientifiche di IMEKO sono rappresentate da: • Measurement; • ACTA IMEKO; • Atti dei Congressi organizzati dalle commissioni tecniche (TC event series). Measurement (www.journals. elsevier.com/measurement) è la rivista scientifica, ampiamente nota ai colleghi ricercatori del GMEE e del GMMT, pubblicata 10 volte all’anno da Elsevier. Ha una lunga storia editoriale e pubblica articoli scientifici in tutti i settori che hanno a che fare con la ricerca, lo sviluppo e l’applicazione delle misure e della strumentazione. Oltre a pubblicare lavori sottoposti direttamente dagli autori, Measurement pubblica periodicamente versioni estese di articoli scientifici precedentemente presentati a congressi IMEKO. Il suo impact factor, relativo all’anno 2013, è pari a 1.526. ACTA IMEKO, pubblicata 4 volte all’anno, è la rivista IMEKO di più recente creazione. All’inizio della storia di IMEKO, il nome ACTA IMEKO era associato alla pubblicazione degli atti dei congressi internazionali IMEKO. Tre anni fa è stato deciso di utilizzare nuo-
rappresentato dall’insieme dei congressi scientifici organizzati dalle commissioni tecniche. Gli atti di questi congressi sono resi disponibili da alcuni anni sul sito di IMEKO all’indirizzo: www.imeko.org. Seguendo il link proceedings si avrà accesso a circa 5.000 articoli scientifici pubblicati a partire dal 2001. Questa base dati rappresenta un importante patrimonio di conoscenze nel settore delle misure ed è consultabile in modalità ad accesso libero. Inoltre, approssimativamente una volta all’anno, IMEKO pubblica un bollettino sul proprio sito web www. imeko.org, nel quale sono riassunte le attività effettuate nell’anno, gli esiti delle riunioni degli officer di IMEKO e altre notizie d’interesse per chi si occupa di misure. Altri documenti sono liberamente scaricabili dal sito IMEKO. Si tratta di presentazioni, di documenti di governo dell’associazione e di newsletter. L’attività pubblicistica di IMEKO è molto intensa e rappresenta una delle principali attività dell’associazione, della quale la comunità dei tecnici e degli esperti delle misure può beneficiare, in larga parte, in modo gratuito.
vamente questa dicitura, per battezzare la nuova rivista pubblicata interamente online. Si tratta di una rivista totalmente ad accesso aperto, consultabile all’indirizzo: http://acta.imeko.org/index. php/acta-imeko. Pubblica versioni estese di articoli scientifici presentati a congressi IMEKO e, occasionalmente, numeri speciali. La rivista numero 1 di quest’anno è stata dedicata alla giornata mondiale della metrologia, il world metrology day (www.worldmetrologyday.org), che si è tenuta, come ogni anno, il 20 maggio. Il numero speciale della rivista, curato dal Prof. Luca Mari della LIUC - Università Carlo Cattaneo, contiene una selezione di articoli già presentati a congressi IMEKO, significativi per lo USCITO IL TERZO NUMERO sviluppo della scienza delle misure. DI ACTA IMEKO DEL 2014 Gli articoli sono accessibili all’indirizzo: http://acta.imeko.org/index. All’indirizzo http:// php/acta-imeko/issue/view/6. acta.imeko.or g/ ACTA IMEKO è una rivista alimentata index.php/actadalle pubblicazioni presentate ai conimeko/issue/ gressi organizzati dalle varie Commisview/8/showToc sioni Tecniche IMEKO e quindi copre ad potete trovare il terzo ampio spettro tutto l’ambito delle misure numero della rivista e della strumentazione di misura. open-access ACTA IMEKO del 2014. Si tratta di una issue che contiene la IMEKO TC EVENT SERIES versione estesa di 12 articoli presentati all’ultimo IMEKO World congress. Uno dei punti di forza di IMEKO è Buona lettura!
T_M
N.
4/14 ƒ 295
N. 04ƒ ; 2014
▲
NEWS
NUOVO DUROMETRO DIGITALE PORTATILE CRASE, con i suoi 25 anni di esperienza, oggi si posiziona come dinamica realtà nel Settore della Strumentazione di Misura. CRASE offre Durometri Portatili di Qualità, che permettono di determinare il Valore di Durezza in situazioni dove il classico durometro da banco non riuscirebbe a misurare, a causa delle dimensioni dei pezzi da provare oppure in punti difficilmente raggiungibili. BRI 3000 è uno strumento portatile, progettato per eseguire la misurazione e l’elaborazione delle penetrazioni Brinell. Esso consiste in un Tablet Windows 8, una videocamera speciale con illuminazione a LED e un potente software per il riconoscimento automatico delle penetrazioni, che possono avere un diametro di 0,7-6 mm. Lo strumento è configurabile, anche durante l’uso, e si può utilizzare in diverse lingue: italiano, inglese, spagnolo e tedesco. Lo strumento è a norma ASTM E 10; ISO 6506.2. Caratteristiche tecniche Microscopio Digitale CMOS 1/4“, ris. 640x480 con porta USB. È possibile scegliere una sonda di misura: Sonda 1: Ø da 2 a 6 mm; per la sfera Ø 5 e 10 mm. Sonda 2: Ø da 0,7 mm a 2,2 mm; per la sfera Ø 2,5. Misurazione delle prove con Ø 2,5, 5, 10 mm. Unità di misura STE (Metodo Ernst). Prodotto e Assistenza Made in Italy. Per ulteriori informazioni: www.crase.com
RETI “SMART” DI SENSORI WIRELESS Dovete eseguire misure nel settore navale, ferroviario, aeronautico, automotive o civile e volete ridurre in maniera significativa i costi delle prove? I prodotti BeanAir possono soddisfare pienamente le vostre esigenze di misura. BeanAir® offre reti wireless di sensori standard e sensori wireless sia per misure dinamiche fino a 3 kHz in banda passante (vibrazioni, shock, inclinazioni) che statiche (temperatura, umidità, ingressi analogici). Questa tecnologia si basa su protocolli wireless IEEE 802.15.4 & GSM/GPRS e garantisce elevate velocità di trasmissione in condizioni ambientali ostili su distanze fino a 1.000 m. Le applicazioni wireless in cui BeanAir è presente sono: misure a bordo veicoli, gestione strutture e costruzioni, processi industriali, siti isolati, ambienti ostili. Ecco alcuni esempi di applicazioni: – Automotive: prove su circuiti off-road o in pista, prove in gallerie del vento, banchi prova in laboratorio. – Ferroviario: monitoraggio vibrazioni su ruote, rilevamento automatico di difetti su sistemi o dispositivi sensibili. – Aeronautico: misura del comfort, misure in volo, sistemi di monitoraggio HUMS (Health and Usage Monitoring System). – Navale: tracking, monitoraggio, sorveglianza, prove in immersione, monitoraggio motori – Civile: monitoraggio ponti ed edifici. Vantaggi della tecnologia “wireless” di BeanAir – Riduzione costi di cablaggio e manutenzione, riduzione del peso. – Trasmissione radio ottimizzata per ambienti industriali ostici. – Sensori wireless robusti e miniaturizzati (IP66 e 67, fino a 200 g). – GPS geo-tagging. – Data logger integrato fino a 8 milioni di campioni. – Software di supervisione e monitoraggio. – Server OPC integrabile nel vostro sistema IT. Per ulteriori informazioni: www.luchsinger.it
T_M ƒ 296
I SERIALI MISURE E FIDATEZZA
▲
MISURE E FIDATEZZA M. Catelani 1, L. Cristaldi 2, M. Lazzaroni 3
Tecniche di analisi della fidatezza FTA – L’albero delle Avarie - Parte I
FTA – FAULT TREE ANALYSIS PART I In this paper a new technique denoted as FTA (Fault Tree Analysis) is presented. It can be considered as an integration of other well-known approaches (FMEA and FMECA), which can be used in the availability evaluation of complex systems and equipment. RIASSUNTO Obiettivo di questo lavoro è presentare una tecnica di analisi dei guasti che integra le già trattate FMEA/FMECA. In tal senso FTA (Fault Tree Analysis) rientra nelle metodologie che possono essere impiegate per una valutazione della disponibilità di sistema. In questo articolo saranno presentati gli aspetti teorici, rimandando a un successivo intervento la presentazione della parte applicativa. INTRODUZIONE
Dopo una breve panoramica sui metodi FMEA/FMECA [1-8], in questa memoria è illustrata un’altra tecnica di analisi della fidatezza molto utilizzata in ambito industriale: l’analisi dell’albero delle avarie, nota anche come FTA (Fault Tree Analysis). Le tecniche di analisi della fidatezza sono di grande aiuto quando si è nella condizione di dover prendere decisioni inerenti l’affidabilità di un componente o di un sistema, semplice o complesso che sia. A tal proposito è bene sottolineare che la conoscenza che si ha circa un sistema può essere ottenuta in diversi modi, ma quasi sempre essa è parziale e si è pertanto chiamati a prendere decisioni in condizioni d’incertezza. È per questo motivo che è bene che il processo decisionale si basi su una procedura che, a priori, identifichi le informazioni e i dati necessari al fine di prendere una decisione, stabilisca un programma sistematico per l’acquisizione delle informazioni, e infine specifichi l’analisi da condurre sui dati e sulle informazioni acquisite. Si può pertanto affermare che l’analisi di un sistema è un processo il cui scopo è l’acquisizione ordinata, secondo tempi prestabiliti, dei dati e delle informa-
zioni pertinenti a una particolare decisione. In tal senso l’analisi dell’albero delle avarie può essere vista come un metodo di analisi di sistema di tipo deduttivo. L’analisi consente di determinare la probabilità di accadimento di un evento “finale” di guasto in funzione del verificarsi di eventi di guasto “intermedi”. FTA consente di apporre le dovute modifiche al progetto onde ridurre i rischi a esso connessi in termini di avarie e/o malfunzionamenti. L’ALBERO DELLE AVARIE
Come premesso, l’analisi dell’albero delle avarie, per la quale una delle norme di riferimento è la CEI 56-31, è una metodologia impiegata nello studio dell’affidabilità di un dispositivo o di un sistema. Come per FMEA e FMECA [18], anche la FTA trova la sua corretta applicazione durante le prime fasi della progettazione. Prima di presentare la metodologia conviene dare una giustificazione al fatto che si opera, in questo caso, in termini di guasto o di malfunzionamento, e non prendendo in considerazione eventi che definiscono condizioni di corretto funzionamento. Uno dei motivi risiede nel fatto che appare spesso più semplice definire e modelliz-
zare un guasto, inteso come evento sfavorevole. Si pensi infatti a quanto possa essere complesso modellizzare una condizione di “successo” in termini di grado di utilità, di efficienza, di caratteristiche, ecc. Queste grandezze, di norma, sono meglio modellate da variabili continue che in termini di variabili/eventi discreti. Viceversa, può essere più agevole riconoscere un evento di guasto o di malfunzionamento. In aggiunta, dato il sistema oggetto di studio, si ha in genere un numero assai contenuto di combinazioni di guasto – tali combinazioni sono normalmente denominate “alberi delle avarie” – rispetto al corrispondente numero di alberi che individuano l’insieme degli eventi favorevoli. L’albero delle avarie, talvolta detto albero dei guasti sebbene i termini guasto e avaria non siano sinonimi, si presenta sotto forma di un diagramma raffigurante la relazione tra l’evento oggetto di studio – guasto e/o non conformità – e le cause che potrebbero determinarlo. Le informazioni che si traggono da una tale analisi consentono d’identificare: • i fattori che influenzano l’affidabilità e le prestazioni del sistema, per es. i modi di guasto dei componenti, gli errori dell’operatore, le condizioni ambientali, ecc.; • i requisiti del sistema che potrebbero rivelarsi fra loro incompatibili; • la presenza di specifiche di progetto che comportino una diminuzione delle prestazioni;
1
Università degli Studi di Firenze marcantonio.catelani@unifi.it 2 Politecnico di Milano loredana.cristaldi@polimi.it 3 Università degli Studi di Milano e INFN - Sezione di Milano massimo.lazzaroni@unimi.it
T_M
N.
4/14 ƒ 297
• la presenza di eventi comuni, ovvero di eventi che influenzano più componenti e che possono, in conseguenza di ciò, annullare per esempio i benefici legati alla ridondanza. Quest’analisi è una tecnica che viene largamente utilizzata anche in presenza di sistemi che coinvolgono differenti contesti: impianti a rischio (centrali nucleari e impianti ad elevato rischio ambientale), sistemi di comunicazione, industria di processo, automotive, trasporti, ecc. REALIZZAZIONE DELL’ALBERO DELLE AVARIE
La costruzione dell’albero delle avarie viene solitamente condotta secondo la seguente procedura: Fase 1: Costruzione dell’albero logico. Si definisce l’evento critico finale (top event) e si procede con la ricerca delle cause che possono determinarlo, risalendo fino agli eventi primari secondo la tecnica top-down – dal generale al particolare. Fase 2: Valutazione probabilistica dell’albero. La probabilità di accadimento dell’evento finale viene opportunamente stimata associando una probabilità a ogni evento primario e combinando le varie probabilità secondo le relazioni evidenziate dall’albero, per mezzo del calcolo delle probabilità. In tal modo, per ogni evento finale si determinano le catene di eventi primari in grado di provocarlo individuando eventualmente quale fra queste ha la maggior probabilità di verificarsi. Sulla scorta di quanto dedotto dall’albero delle avarie si individuano le modifiche progettuali necessarie a migliorare l’affidabilità del prodotto. Va da sé che una tale analisi consente un confronto fra diverse alternative progettuali almeno dal punto di vista dell’affidabilità. In genere, tuttavia, la costruzione di un tale albero non è impresa di poco conto. È infatti richiesta un’analisi approfondita del sistema, considerando anche il fatto che la metodologia presenta alcune limitazioni: 1. L’analisi dell’albero dei guasti si basa sull’ipotesi di guasti statisticamente indipendenti;
T_M ƒ 298
N. 04ƒ ; 2014
▲
I SERIALI MISURE E FIDATEZZA
2. Il tasso di guasto dei componenti viene generalmente considerato costante; 3. Generalmente, l’analisi dell’albero dei guasti non si presta bene a descrivere guasti causati da sequenze di eventi. Questo è il caso di guasti che possono esseri indotti dalla particolare sequenza con cui alcuni eventi si verificano; 4. L’albero dei guasti non costituisce un modello di tutti i possibili modi di guasto (come invece è la metodologia FMEA/FMECA) essendo incentrato sul top event che corrisponde a un particolare modo di guasto, includendo pertanto solo gli eventi che contribuiscono all’instaurarsi dello stesso; 5. Infine l’albero dei guasti è un modello meramente qualitativo nell’ambito del quale può essere utile, ed è possibile, effettuare un’analisi quantitativa considerando le informazioni relative alle probabilità di accadimento di eventi. Per un approfondimento sulle limitazioni di questo e di altri metodi di analisi si può fare riferimento alla Tab. 2 della norma CEI 56-10. Per effettuare un’analisi dell’albero delle avarie è necessario stabilire innanzitutto la struttura del sistema, quali sono gli eventi da considerare e l’approccio da seguirsi. Il sistema in esame dovrebbe essere descritto mediante: • un resoconto ove si evincano gli obiettivi del progetto; • la definizione dei limiti del sistema: tali limiti possono essere elettrici, meccanici o le interfacce; • la definizione della struttura fisica del sistema; • l’identificazione delle operazioni e delle prestazioni previste; • la definizione delle condizioni ambientali. Successivamente vengono definiti gli eventi da prendere in considerazione. Devono essere considerati tutti gli eventi, compresi quelli derivanti dalle cause ambientali, dagli errori umani e dal software. Un evento, dopo essere stato considerato, può essere scartato se non applicabile; in tal caso si deve dare ampia documentazione alle motivazioni che hanno portato a una
tale decisione. L’albero dei guasti origina dal cosiddetto evento finale o top event, che rappresenta per esempio una condizione di pericolo o il mancato raggiungimento di determinate prestazioni e, per mezzo di opportuni legami logici, sono individuate e rappresentate graficamente le cause che portano a tale evento. Il top event è quindi l’evento che è assolutamente necessario scongiurare. Graficamente l’albero è costituito da un insieme di blocchi logici le cui funzioni possono essere svariate (in Tab. 1 sono riportati i significati di alcuni simboli: per la lista completa si veda la norma CEI 56-31). Il top event è sempre l’uscita di una porta logica (gate) i cui ingressi, detti eventi di ingresso, sono le possibili cause e condizioni che possono far ricorrere il top event. A loro volta gli ingressi possono essere visti come eventi di uscita di gate a più basso livello. L’albero termina quando si ha a che fare con eventi che non necessitano di essere ulteriormente sviluppati, o che sono sviluppati in un altro albero o che sono, per loro natura, non ulteriormente sviluppabili (detti anche eventi primari). Due concetti sono assai utili nell’attività di costruzione di un albero dei guasti: Cause dirette - Sono le cause dirette necessarie e sufficienti affinché si verifichi l’evento finale. Queste cause sono successivamente considerate come ulteriori eventi finali per lo sviluppo della rimanente parte dell’albero; Unità elementari (o di base) Sono le unità logiche dell’FTA il cui ulteriore sviluppo non fornirebbe informazioni utili; un’unità elementare può essere costituita dal componente singolo. La costruzione dell’albero passa anche attraverso la definizione di opportuni eventi come qui di seguito elencato (si veda a tal proposito ancora la Tab. 1 già citata); Eventi Primari: Sono gli eventi che non sono, o non devono essere, ulteriormente sviluppati. A tali eventi è possibile associare la relativa probabilità. Fanno parte di questa categoria gli eventi di base, gli eventi non ulteriormente sviluppati, gli eventi di condizione, gli eventi esterni;
Tabella 1: Simboli utilizzati nella predisposizione dell’albero dei guasti (estratto CEI 56-31)
La valutazione di un albero delle avarie consente l’identificazione degli eventi che possono direttamente causare un guasto del sistema e la probabilità di tale evento, la valutazione della capacità di fault tolerance del sistema, l’individuazione di eventuali componenti critici e dei meccanismi di guasto; infine aiuta a definire le strategie di manutenzione da adottarsi. Onde ottenere le preziose informazioni appena dette, si deve ricorrere a un’approfondita analisi logica dell’albero. In Fig. 1 è raffigurato un semplice albero dei guasti in cui l’evento finale è dato dalla seguente relazione logica:
ANALISI DELL’ALBERO
Come anticipato nel precedente paragrafo, l’albero delle avarie si origina dal cosiddetto evento finale o top event, che rappresenta, per esempio, una condizione di pericolo o il mancato raggiungimento di determinate prestazioni; per mezzo di opportuni legami logici, sono poi individuate e rappresentate graficamente le cause che portano a tale evento. La scelta del top event è pertanto un’operazione da condursi con una certa prudenza: se l’evento si rivela troppo generale l’analisi tende a divenire ingestibile, mentre se l’evento è troppo specifico l’albero che ne deriva non fornisce una panoramica abbastanza vasta sul sistema.
o:
A = B ⋅ C = B ⋅ (D + E) A=B⋅D+B⋅E
(1)
(2)
Da questa relazione si evince che l’evento finale si verifica quando si verificano contemporaneamente i due eventi B e D oppure, sempre contemporaneamente, i due eventi B ed E. Ciò non significa che i due eventi debbano verificarsi nello stesso istante,
▲
Eventi Intermedi: Sono gli eventi/ guasti causati da uno o più eventi antecedenti per mezzo di una porta logica (gate); Porte logiche (gate): Sono le porte logiche OR, AND, INHIBIT, EXCLUSIVEOR; Eventi di trasferimento: Sono gli eventi che provengono da altri alberi o che vengono trasferiti ad altri alberi. Sono utilizzati principalmente per concatenare gli alberi e per rendere più ordinato dal punto di vista grafico l’albero, per esempio, sviluppando parti diverse su fogli diversi.
I SERIALI MISURE E FIDATEZZA
ma che a un certo istante i due eventi sono contemporaneamente validi. Per esempio, l’evento B può verificarsi parecchio tempo prima dell’evento D: questa situazione di per sé non porta all’evento finale. Se quando si verifica l’evento D l’evento B è ancora in essere, ecco che si ha l’evento finale. Dall’esempio appena fatto, ancorché semplice, si evince una importante caratteristica della FTA. La FTA consente d’identificare le cause e le condizioni (ingressi dell’albero) affinché si verifichi l’evento finale (uscita dall’albero). Tuttavia, come notato nell’esempio, una volta noto tale legame nessuna deduzione circa le relazioni temporali fra eventi è possibile. In un albero dei guasti è possibile rappresentare anche le cause comuni. Nel seguente esempio, tratto dalla norma citata, la causa comune è l’evento B, che infatti risulta in ingresso contemporaneamente a due gate (Fig. 2). A ogni evento riportato sull’albero dei guasti è possibile associare la probabilità con cui si manifesta. La probabilità con cui una causa di un modo di guasto si manifesta è solitamente determinata con analisi ingegneristiche, e può essere utilizzata nella valutazione dell’indisponibilità complessiva del sistema. La stima di quanto una causa di guasto impatta sull’indisponibilità finale indirizza l’analisi su un ramo dell’albero piuttosto che su un altro. CONCLUSIONI
In questo articolo si è presentata la tecnica FTA nelle sue parti essenziali. Importante sottolineare che tale tecnica si basa, come punto di partenza, sull’individuazione dell’evento di guasto principale (top event) e analizza, in termini di guasto e malfunzionamento, tutto ciò che concorre a generare il top event. Associando la probabilità di accadimento agli eventi individuati è possibile risalire, con semplici calcoli, alla probabilità di accadimento dell’evento top. FTA rappresenta quindi
Figura 1 - Un semplice albero dei guasti
N. 04ƒ ; 2014
90314907, ISBN-13: 9788890314902. 7. A. Birolini: Reliability Engineering – Theory and Practice. Springer, Heidelberg, 6 Ed. 2010, ISBN: 9783-642-14951-1. 8. M. Catelani, L. Cristaldi, M. Lazzaroni, L’approccio previsionale all’affidabilità: Modelli e banche dati. In: TUTTO_MISURE Anno 14, N° 4 (2012 Dicembre).
Loredana Cristaldi è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Elettrotecnica del Politecnico di Milano. La sua attività di ricerca è svolta principalmente nei campi delle misure di grandezze elettriche in regime distorto e dei metodi di misura per l’affidabilità, il monitoraggio e la diagnosi di sistemi industriali. Fa parte del CT 56 – Affidabilità – del CEI.
Marcantonio Catelani è Professore Ordinario di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria dell’Informazione dell’Università di Firenze. La sua attività di ricerca si svolge prevalentemente nei settori dell’Affidabilità, della diagnostica e qualificazione di componenti e sistemi, del controllo della qualità e del miglioramento dei processi. Fa parte del CT 56 – Affidabilità – del CEI ed è coordinatore di gruppi di ricerca, anche applicata, nelle tematiche citate.
Massimo Lazzaroni è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Fisica dell’Università degli Studi di Milano. La sua attività di ricerca è rivolta alle misure per le applicazioni industriali, per la diagnostica dei sistemi industriali, per l’Affidabilità e il Controllo della Qualità. Fa parte del CT 85/66 – Strumenti di misura delle grandezze elettromagnetiche Strumentazione di misura, di controllo e di laboratorio e del CT 56 – Affidabilità del CEI.
Figura 2 - Albero dei guasti con un evento di causa comune (B) che è ulteriormente analizzato in un secondo albero dei guasti
una metodologia che si aggiunge alle già trattate FMEA/FMECA, con obiettivi diversi, e consente quindi una valutazione di disponibilità di sistema. Alcuni esempi applicativi della tecnica appena discussa saranno illustrati in una successiva memoria. BIBLIOGRAFIA
T_M ƒ 300
NEWS
▲
1. M. Catelani, L. Cristaldi, M. Lazzaroni, “Tecniche di Analisi della fidatezza: FMEA – Analisi dei modi ed effetto dei guasti”, Tutto_Misure n. Anno 15, N° 4, Dicembre 2013, pp. 281- 286, ISSN 2038-6974. 2. M. Catelani, L. Cristaldi, M. Lazzaroni, “Tecniche di Analisi della fidatezza: FMEA – Casi di studio”, TUTTO_MISURE Anno 16, N° 1, Marzo 2014, pp. 67 - 70, ISSN 2038-6974. 3. Catelani M, Cristaldi L, Lazzaroni M. TECNICHE DI ANALISI DELLA FIDATEZZA: FMEA – FMECA – Failure Mode, Effects and Criticality Analysis – Parte 1. TUTTO_MISURE, vol. 16, N. 2 (Giugno 2014), ISSN: 20386974, pp. 137- 140. 4. Catelani M., Cristaldi L., Lazzaroni M., TECNICHE DI ANALISI DELLA FIDATEZZA: FMEA – FMECA – Failure Mode, Effects and Criticality Analysis – Parte 2. TUTTO_MISURE, vol. 16, N. 3 (Ottobre 2014), ISSN: 20386974, pp. 205- 207. 5. M. Lazzaroni, L. Cristaldi, L. Peretto, P. Rinaldi and M. Catelani, Reliability Engineering: Basic Concepts and Applications in ICT, Springer, ISBN 978-3-642-20982-6, e-ISBN 978-3-642-20983-3, DOI 10.1007/ 978-3-642-20983-3, 2011 SpringerVerlag, Berlin Heidelberg. 6. M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, “L’affidabilità nella moderna progettazione: un elemento competitivo che collega sicurezza e certificazione”, Collana I quaderni del GMEE, Vol. 1 Editore: A&T, Torino, 2008, ISBN 88-
POSIZIONAMENTO DI CARICHI A ELEVATA PRECISIONE IN SPAZI LIMITATI Il nuovo Hexapod H850KMLD di PI (Physik Instrumente) nasce per applicazioni di posizionamento ad alta precisione in spazi di lavoro limitati. Il sofisticato sistema a sei assi raggiunge una risoluzione di 1 µm su una corsa di 100 mm sul piano XY e di 0,5 µm sull’asse Z a fronte di una corsa di 50 mm. La piattaforma è inoltre in grado di inclinarsi e ruotare di ±30°. Per utilizzi con accensioni e spegnimenti frequenti, le operazioni possono essere notevolmente facilitate equipaggiando l’Hexapod con l’encoder assoluto opzionale, che determina l’effettiva posizione del sistema già dal momento dell’accensione e
non richiede alcun tipo di movimento per la ricerca di riferimenti. Questo rappresenta un livello di protezione superiore in ambienti e strutture che non permettono un utilizzo dell’intera corsa dell’Hexapod, consentendo un notevole risparmio di tempo da destinare agli altri processi. L’H-850KMLD movimenta, con una velocità di 0,5 mm/s e una ripetibilità lineare di ±1 µm, carichi sino a 200 kg, in maniera indipendente dalla posizione di montaggio e dall’orientamento. Per montaggi orizzontali la capacità di carico sale a 500 kg. Il pilotaggio dell’H-850KMLD avviene tramite il controllore digitale C-887, che consente sia il comando di posizione in coordinate cartesiane sia il controllo vettoriale e la selezione via software del fulcro del movimento (pivot point control). La potente elettronica supporta gli ambienti LabView. L’integrazione nei più comuni linguaggi di programmazione testuale, su piattaforma Windows o Linux, è inoltre particolarmente agevole grazie alle librerie e agli esempi di codice inclusi nel ricco pacchetto e che possono essere forniti anche prima dell’hardware per favorire l’integrazione dell’Hexapod nel software cliente e accelerare i tempi di progetto. Per ulteriori informazioni: www.physikinstrumente.com/en/ products/prdetail.php?sortnr=700808
I SERIALI LA MISURA DEL SOFTWARE
▲
GUFPI-ISMA: UN NUOVO SERIALE Luigi Buglione
Misurare per... credere Una breve overview della misurazione nel mondo ICT
MEASURE TO… BELIEVE Is measuring an activity for a few, or is it essential to understand where we are and how we can improve our processes and results? The paper offers a short overview about how measurement was applied to ICT projects over the last 30 years, and how measurement was applied over the last 30 years in Software Engineering to observe how easily we can achieve a growing maturity in measuring software projects in the coming years. RIASSUNTO Misurare è solo un’attività per pochi o è qualcosa d’imprescindibile per poter comprendere dove siamo e come poter migliorare i nostri processi e risultati? L’articolo offre una breve overview di come si misurato negli ultimi 30 anni nell’Ingegneria del Software per osservare come poter ottenere facilmente una crescente maturità nel misurare i progetti software nei prossimi anni. INTRODUZIONE Tom Demarco, uno dei più riconosciuti ingegneri del software, diceva a inizio anni ’80 che “non puoi controllare ciò che non puoi misurare” [1]. Ma facendo un passo indietro, possiamo dire che “non puoi misurare ciò che non sai definire”. Uno dei problemi principali spesso risiede nell’imprecisione terminologica e il mondo ICT non è scevro da tale problema. Se qualcuno vi domandasse a bruciapelo cosa sia una LOC, sapreste rispondere se ci si riferisca a uno statement logico o fisico? Essa includerebbe o meno eventuali commenti? Tutte le combinazioni potrebbero essere valide, come al solito dipende dall’obiettivo informativo/ conoscitivo. Ma siamo sicuri che nelle nostre attività tale misura sia definita in modo non ambiguo e chiaro e che persone diverse misurerebbero gli stessi valori, con un errore minimo? Oppure no? In un progetto di manutenzione perfettiva/ adattativa, ad esempio le righe di commento possono aiutare a rendere maggiormente manutenibile un codice, in particolare per quei sistemi con una vita utile alquanto lunga o nel caso di
contratti che prevedano un take-over e hand-over tra diversi fornitori non conoscendo la qualità del codice lavorato. Conoscere il numero corretto di LOC in questo caso può permettere di determinare il budget più adeguato in termini di tempi (Effort e Duration) e costi, partendo dalla corretta determinazione delle quantità lavorabili. Difatti la “catena” informativa necessaria è [2]: Q → T → C laddove le Q debbono essere individuate a preventivo per stimare il tempo (T) – espresso sia in termini di Effort (E) che di Duration (D) – di un’attività sulla base di una produttività (P) di riferimento, laddove questa è determinabile quale rapporto Q/T, dai dati storici dell’organizzazione. Ultimo elemento è dato dagli “economics” (costi/prezzi), laddove i costi vengono scomposti in fissi (Cf) e variabili (Cv) [3]. Tornando alle quantità (Q), altro elemento fondamentale è quello di classificare cosa si stia misurando attraverso una data misura, domanda apparentemente banale, ma di fatto non scontata nella pratica quotidiana. Provate a domandare a un informatico perché raccoglie i dati sulle LOC di un sistema e con buona probabilità la
risposta sarà “la dimensione di un sistema informativo”. Ma se due programmatori possono realizzare in modi diversi la stessa funzionalità con numeri diversi di LOC, ciò suggerisce che le LOC misurino solo la “lunghezza” del codice sorgente di un prodotto software e del progetto a cui si riferisce. Quest’analisi, semplice ma efficace, prende il nome di analisi EAM (EntitàAttributo-Misura) [4], e il suo uso nella valutazione di un piano di misurazione intende analizzare il livello di bilanciamento (o scopertura, secondo i punti di vista) nella scelta delle misure da utilizzare per il monitoraggio & controllo di un progetto e delle attività che lo compongono. Un caso pratico: analizzando un piano di progetto è probabile rilevare che le misure considerate afferiscano principalmente ad aspetti di tempi (Effort, Duration) e costi, e poi in misura inferiore ad altre prospettive di analisi (es: qualità, rischi). Un plot su una mappa BMP (Balancing Multiple Perspectives) [5] permette di effettuare un semplice assessment – come un normale plot diagram con Excel – che evidenzia cosa modificare nel nostro modo di verificare l’andamento dei progetti. Si immagini di posizionare per ciascuna delle dimensioni un aspetto d’interesse (es: Tempi, Costi, Qualità e Rischi). Spesso la principale causa di fallimento di un progetto è data dalla scarsa attenzione o propensione alla valutazione (e quindi quantificazione)
GUFPI-ISMA - Gruppo Utenti Function Point Italia Italian Software Metrics Association luigi.buglione@gufpi-isma.org
T_M
N.
4/14 ƒ 301
N. 04ƒ ; 2014
▲
I SERIALI LA MISURA DEL SOFTWARE
dicano i tre stream che un progetto tipicamente deve gestire: A per i requisiti funzionali utente del prodotto/servizio che si intende produrre/erogare, B per quelli non-funzionali/operazionali, C per i requisiti relativi all’entità “progetto”, ovvero attività dirette e indirette (derivate da vincoli) incluse nello scope di una WBS e di un Gantt diagram [2]. MISURARE IL SOFTWARE
Figura 1 – Mappa BMP (Balancing Multiple Perspectives)
dei rischi. Si parla (e scrive) spesso di Risk Management da un punto di vista qualitativo, ma troppo poco di misure quantitative che aiutino a prioritizzazioni per un piano di azioni entro il budget disponibile. Per un misuratore l’avverbio e il termine principale da usare dovrebbe essere sempre QUANTO? Altrimenti non sarebbe possibile determinare la magnitudo di un dato fenomeno d’interesse. Tuttavia, le quantità da stimare prima, e consuntivare poi, sono derivate dai requisiti scambiati tra clienti e fornitori, le parti contrattuali. Qui nasce tutto. Analizzare e classificare tipologicamente i requisiti e verificarne il livello di completezza e copertura diventa la prima e fondamentale attività per ogni stima e dimensionamento. Un requisito può essere classificato per tipo (funzionale: COSA, nonfunzionale: COME) ma anche per entità d’interesse (organizzazione, progetto, risorse, processo, prodotto: STAR Taxonomy) [6]. Parificare requisiti differenti pensando di applicare nella stima “generiche produttività” spesso referenziate da fonti esterne, più che derivate dai propri dati storici interni, rappresenta uno dei principali errori degli ultimi anni per molte organizzazioni pubbliche e private. Veloce e rapido non
T_M ƒ 302
corrisponde ad accurato e preciso. Si parla, spesso a ragion non veduta, di “ingegneria del software e dei sistemi” senza poi rispettare regole e principi base validi in altri settori dell’ingegneria quali conoscere cosa si stia valutando. Solo conoscendo e definendo in modo sempre più puntuale tali elementi è possibile definire lo scope e il boundary di un progetto, primo step illustrato da ogni buona pratica di project management. La seguente Fig. 2 cerca di riassumere quanto detto finora in uno schema, denominato “ABC”, laddove le tre lettere in-
Il terzo passo da affrontare ci ricorda che “non puoi definire ciò che non conosci”. Una regola di buon senso è difatti quella di approfondire la conoscenza di un qualsivoglia oggetto d’interesse per poterlo lavorare e gestire nel miglior modo possibile. Ma spesso non si conosce bene ciò che si affronta: di qui in genere emergono due possibili atteggiamenti: studio o pressappochismo. Quello di cui un’organizzazione necessita per evolvere (e di questi tempi spesso solo per sopravvivere) è un processo ben pianificato di Knowledge Management. Da quanto detto si evince facilmente quanto la metrologia possa dare ad altri settori, in termini di rigore per una migliore verificabilità degli obiettivi informativi, partendo da principi di buon senso, quali definibilità per una chiara e ripetibile misurabilità di un’entità d’interesse, con la minor probabilità di errore e il minimo scosta-
Figura 2 – Lo schema “ABC” [2]
N. 04ƒ ;2014
▲
mento tra preventivi e consuntivi. Una delle regole di buon senso dice che che “one size doesn’t fit all”, come anche, al contrario, “misurare troppo, stroppia!”, non avendo ben chiaro quali siano le priorità informative e dall’altro canto non essendo possibile dedicare risorse eccessive per tale processo di supporto e non primario. Se fosse una ricetta di cucina, suggeriremmo “q.b.” (quanto basta). Il punto di partenza è pertanto orientato dai nostri obiettivi, goaloriented, al fine di misurare ciò che realmente (o prioritariamente) può essere di nostro interesse. L’analisi GQM (Goal-Question-Metric) proposta da Vic Basili [7] all’inizio degli anni ’80 non fa altro che dare un ordine logico alle cose, partendo dai goal, ponendosi delle questions per analizzare un dato problema/ tema d’interesse e poi, ultimo step, tentare di quantificarlo con misure opportune. Dall’applicazione delle misure più dirette e semplici, quali le LOC, si è iniziato quindi negli anni ’70 ad analizzare il modo di poter misurare il codice (prodotto) prima e i processi del SLC (Software Life Cycle) poi, per arrivare a scrivere e riformulare infine regole per la gestione di un progetto, laddove “agile” e “lean” sono ormai termini di (ab)uso comune negli ultimi anni. Ritornando agli anni ’70, i contratti erano formulati in LOC, ma la scelta di una data tecnologia rendeva spesso difficile il confronto tra le parti contrattuali. Capers Jones ha ben riassunto nel suo “paradosso della produttività” l’effetto distorsivo dell’uso di un’unità di prodotto per la gestione dei tempi/costi di un progetto. Una soluzione a ciò fu proposta nel 1979 da Allan Albrecht, un ricercatore IBM che formulò i c.d. “Function Points” (FP), ovvero una misura delle funzionalità software scambiate tra clienti/fornitori, in modo neutrale, escludendo i possibili impatti tecnologici [8]. Molta letteratura usa a tutt’oggi il confronto con i m2 di un appartamento: indipendentemente dai materiali usati o dal posizionamento in una data zona/città, i FP esprimono un volume e non più, come
I SERIALI LA MISURA DEL SOFTWARE
Tabella 1 – Analisi EAM: un esempio [6]
E – Entità
Prodotto (sw)
Prodotto (sw)
Prodotto (sw)
A – Attributo
Lunghezza codice utente
Funzionalità codice
Complessità
M – Misura
LOC
FP
V(G)
facevano invece le LOC, una lunghezza. In parallelo, Tom McCabe affrontò il tema della complessità del codice, con l’obiettivo di gestire sempre meglio la sua manutenibilità nel tempo, al fine di allungare la vita utile di un sistema software. A oggi anche il v(G), meglio conosciuto come indice di complessità ciclomatica, è tra quelli più usati nella gestione di un progetto ICT. Applicando l’analisi EAM a queste tre misure di prodotto otterremmo: vedi Tab. 1. Ciò evidenzia in modo chiaro quanto le tre misure siano complementari e non alternative, valutando aspetti differenti di un prodotto software. Nel mondo “fisico” avrebbe poco senso difatti stabilire relazioni lineari tra due fenomeni (es: altezza e peso), mentre nel mondo software per introdurre i FP e soppiantare l’uso delle LOC si è introdotto negli anni ’80 il concetto di “backfiring” [9], ovvero la conversione secca di LOC in FP secondo i diversi linguaggi di programmazione. L’idea poteva essere apprezzabile, ma l’applicazione no, essendo – come detto – fortemente variabile il numero di LOC in funzione dell’abilità di un programmatore, dello stile di programmazione e della definizione di LOC tra diverse organizzazioni. Pertanto il “paradosso” sta nel fatto che non è vero che più LOC siano traducibili in un numero maggiore di FP, secondo tale relazione diretta. Negli anni ’80-’90, e in parte anche oggi, la percezione è che il mondo gestionale abbia più facilmente approcciato alla FPA (Function Point Analysis) mentre altri sistemi maggiormente tecnologici vedono le LOC come la misura di prodotto principale, anche perchè conteggiabile in modo automatico con un counter. Ma quello che v(G) o le misure di Halstead iniziavano a prefigurare negli anni ’70
rappresentavano – diversamente dalla FPA – non il “cosa” ma il “come”, ovverosia quelli che sono ora definiti NFR (Non-Functional Requirements – Requisiti Non-Funzionali), scomponibili in requisiti di Qualità e requisiti Tecnologici. Pertanto la “qualità” del software (intesa come prodotto, non come progetto) ha iniziato a formulare non una, ma set di misure di tipo qualitativo, che oggi diremmo “non-funzionali”. Partendo dal modello FCM (Factor-Criteria-Model) di McCall, passando per Boehm, ISO 9126:1991, ISO 9126-1:2001 e ora ISO 25010:2011, si sono costruiti una serie di “quality model” a 2-3 livelli che tentano di DEFINIRE le principali caratteristiche di un prodotto software, scomposte in sottocaratteristiche, ciascuna delle quali misurabile, fornendo alcuni modelli (es: ISO 9126-x) anche set di misure predefinite, al fine di proporre soluzioni standard per il mercato ICT [10]. Ogni modello può avere pro e contro, e solo la standardizzazione permette di comprendere quali possano essere quelli con maggior uso, anche per effettuare benchmark comparativi, sia interni che esterni.Nel mondo delle misure funzionali, derivate dai FUR, l’ISO ha standardizzato a oggi cinque metodi funzionali (FSM): IFPUG [11], COSMIC [12], NESMA [14], FISMA [15] e Mark-II [13]. La Fig. 3 propone l’evoluzione storica di questi cinque metodi, dalla loro origine alle relative standardizzazioni ISO. Nel mondo delle misure non-funzionali, derivate da NFR, invece la situazione è molto più dinamica poiché gli attributi non-funzionali sono esprimibili attraverso una gamma alquanto variegata, laddove invece la “funzionalità” rappresenta un attributo autoconsistente. Come detto, la norma
T_M ƒ 303
Figura 4 – Distribuzione dell’Effort (%) per diversi tipi di sistemi da FUR/NFR
NEWS
Maggiore è il livello di tecnologia, maggiore è l’apporto di requisiti (e quindi di misure) non-funzionali. La Fig. 4 traccia indicativamente le percentuali di effort per tipo requisito secondo i tre stream dello schema ABC tra diverse tipologie e domini applicativi. Nei sistemi gestionali (MIS – Mana-
▼
ISO/IEC 25010:2011 [16] rappresenta lo stato dell’arte a oggi e include diverse novità rispetto ai suoi predecessori, ad es.: sicurezza, maggior enfasi sulle User Interface (UI), in particolare con i nuovi riferimenti all’accessibilità ed esperienze d’uso legate all’introduzione delle nuove device tattili, smartphone e tablet in testa.
NEWS
gement Information Systems) il contributo dei FUR è predominante ma, come si può osservare, sistemi maggiormente “tecnologici” richiedono contributi maggiori di NFR. Ciò spiega facilmente il motivo per il quale contratti gestiti e pagati a unità di prodotto con i soli FP (quindi dimensionando solo i FUR) non rispecchino
▼
Figura 3 – Metodi FSM: evoluzione storica
REGISTRAZIONE DI FORZE IN AMBIENTE CRITICO
NUOVO SISTEMA DI ACQUISIZIONE DATI DI MISURA PER PROVE DI GUIDA
Sono parecchie le applicazioni in ambiente critico che richiedono trasduttori di forza robusti e contemporaneamente capaci di offrire un’elevata resistenza agli effetti esterni. HBM Test and Measurement è uno dei pochi produttori presenti sul mercato che, già da qualche tempo, segue da vicino questa tendenza ed è in grado di offrire trasduttori con incapsulatura ermetica basati sulla tecnologia estensimetrica. Oltre alle custodie con cordoni saldati a laser, HBM ha sviluppato un’affidabile protezione dei collegamenti a cavo dalla penetrazione di acqua. I trasduttori della famiglia di prodotti U10M, ad esempio, sono disponibili anche nell’opzione con cavo integrato. Questo prodotto HBM diventa così l’unico trasduttore di forza ad altezza ridotta, presente sul mercato con grado di protezione IP68, capace di garantire un‘eccellente precisione, dimostrata da test effettuati per oltre 100 ore in acqua. Si possono registrare forze nominali comprese nel range da 1,25 kN a 500 kN. Il trasduttore di forza a S S9M ha un prezzo ottimale e lo stesso grado di protezione per le medesime condizioni, rientrando in una classe di precisione fino a 0,02 per forze nominali comprese tra 500 N e 50 kN. I suoi risultati di misura sono, quindi, ancora più precisi. Il nuovissimo trasduttore di forza in compressione C10 copre forze nominali molto alte, da 2,5 kN a 1 MN, ed è anch’esso omologato per il grado di protezione IP68. Caratterizzato da un‘altezza ridotta, risulta ancora più idoneo in funzione dell’ambito di utilizzo. Grazie all’ampliato assortimento di prodotti, gli utilizzatori possono ora strutturare le loro misurazioni con maggiore flessibilità e trovare lo strumento più giusto per ogni necessità. Per ulteriori informazioni: www.hbm.com/it/menu/prodotti/ trasduttori-e-sensori/forza
Gli amplificatori di misura della nuova famiglia di prodotti SomatXR sono idonei, in particolare, per misurazioni in condizioni ambientali molto critiche, esterne al laboratorio, e presentano un’ottima resistenza a umidità, polvere, urti e vibrazioni. Tutti i moduli soddisfano il tipo di protezione IP65/IP67 e possono essere utilizzati a temperature comprese tra –40 e +80 °C. “Gli amplificatori di misura SomatXR garantiscono risultati precisi anche in ambiente critico. A tale scopo sono stati sottoposti a numerosi test in condizioni reali. Mediante prove a shock termico, è stato possibile dimostrare, ad esempio, la resistenza a improvvise variazioni termiche“, spiega Finn Lange, Product Manager alla HBM. Test normalizzati secondo lo standard MIL-202 confermano una resistenza a vibrazioni di 10 g e una resistenza agli urti di 70 g. Gli amplificatori di misura della famiglia SomatXR sono progettati, in particolare, per prove di guida su macchine per edilizia, macchine agricole, veicoli anti-mina e nei test estivi e invernali di veicoli stradali. Tre tipi diversi di moduli, ciascuno con 16 ingressi singolarmente configurabili e con separazione galvanica, supportano le più svariate tecnologie di trasduttore. Si possono collegare estensimetri, resistori, potenziometri e sensori piezoelettrici, per misurare tensioni, correnti e temperature. A seconda delle necessità, gli utilizzatori possono utilizzare i singoli moduli in locali diversi o centralmente. Ma è ovviamente possibile anche l’utilizzo mobile o fisso, associato ad altri sistemi di acquisizione dati di misura, ad esempio il QuantumX. Per ulteriori informazioni: www.hbm.com/it/menu/prodotti/elettronica-esoftware-di-misura/robusta-acquisizione-dati
T_M ƒ 304
N. 04ƒ ;2014
solo accennati, al fine di poter meglio apprezzare quali possano essere in una gestione progettuale gli aspetti di reale miglioramento di un’organizzazione; “misurarsi per conoscersi meglio” è solo il primo passo. “Not everything that can be counted counts, and not everything that counts can be counted” (Albert Einstein) RIFERIMENTI BIBLIOGRAFICI
1. De Marco T., Controlling Software Projects, Management Measurement & Estimation, Prentice Hall, 1982. 2. Buglione L. The Next Frontier: Measuring and Evaluating the NonFunctional Productivity, MetricViews, IFPUG Newsletter, Vol. 6 Issue No. 2, August 2012, pp.11-14. 3. Buglione L., Some thoughts on Productivity in ICT projects, WP-201001, White Paper, version 1.3, August 2010. 4. Buglione L., Abran A., Improving Measurement Plans from multiple dimensions: Exercising with Balancing Multiple Dimensions – BMP, 1st Workshop on “Methods for Learning Metrics”, METRICS 2005, 11th IEEE International Software Metrics Symposium, 19-22 September 2005, Como(Italy). 5. Buglione L., Abran A., ICEBERG: a different look at Software Project Management, IWSM2002 in “Software Measurement and Estimation”, Proceedings of the 12th International Workshop on Software Measurement (IWSM2002), October 7-9, 2002, Magdeburg (Germany), Shaker Verlag, ISBN 3-8322-0765-1, pp. 153167. 6. Buglione L., Ebert C., Estimation, Encyclopedia of Software Engineering, Taylor & Francis Publisher, June 2012, ISBN: 978-1-4200-5977-9. 7. Basili V. & Weiss D., A Methodology for Collecting Valid Software Engineering Data, IEEE Transactions on Software Engineering, vol.10(3), pp. 728-738, November 1984. 8. A. Albrecht, Measuring Application Development Productivity, Proceedings of the IBM Applications Deve-
■
bene il loro reale contenuto e comportino problemi di stima su tempi e costi di un progetto. Se un progetto include nel suo ambito (scope) sia FUR che NFR, dovranno esserci come minimo due misure per il dimensionamento, stima e pagamento di tali blocchi di attività. “Forzare” una misura a fare tutto è concettualmente (e praticamente) scorretto e non possibile. L’altro errore severo nei contratti è quello di semplificare eccessivamente le analisi. Molti contratti usano misure funzionali di prodotto per dimensionare e quotare economicamente l’intero progetto. Anche se il costo/prezzo per unità di prodotto fosse “gonfiato” per tener conto delle attività non-funzionali, rimane un problema di misura serio: non aver dimensionato le baseline non-funzionali per comprendere altresì il delta per i futuri interventi di manutenzione. Ancora, da un FUR si derivano sempre NFR (es: realizzare una serie di funzionalità in modalità accessibile), ma un NFR può anche non avere necessariamente agganciati FUR (es: aggiornare una tabella statica, quella che nella IFPUG FPA prende il nome di “dato di decodifica”) che in un progetto di manutenzione “adeguativa” può essere frequentemente richiesto per l’implementazione e che genererebbe paradossalmente “zero FP”. Il tema è sicuramente d’interesse per i vari stakeholder (clienti, fornitori e monitori) di un progetto, ma per dare risposta efficace ed efficiente ai temi summenzionati è necessario porre attenzione innanzitutto a definire correttamente: lo scope delle misure e pertanto i “confini” entro (e fuori dai) i quali taluni elementi saranno conteggiati o meno; i requisiti utente, elicitandoli sempre meglio, in modo sufficientemente granulare e riducendo gli spazi d’incertezza e di “implicito”: in una gestione contrattuale ciò che non è formalizzato rischia di creare aspetti di litigiosità con costi non banali e di rovinare il clima di collaborazione che sarebbe opportuno esistesse tra committente e fornitore. Nei prossimi numeri della Rivista si dettaglieranno i diversi temi al momento
I SERIALI LA MISURA DEL SOFTWARE
lopment Symp., Monterey, CA (USA), Oct.14-17, 1979. 9. C. Jones, Backfiring: Converting Lines-of-Code to Function Points, IEEE Computer, 28(11), Nov 1995, pp.8788. 10. Buglione L., Software Product Quality: Some Thoughts about its Evolution and Perspectives, IMEKO TC-4, 20th IMEKO TC4 International Symposium and 18th International Workshop on ADC Modelling and Testing Research on Electric and Electronic Measurement for the Economic Upturn, Benevento, Italy, September 15-17, 2014, pp.737-742. 11. ISO/IEC 20926:2009, Software and systems engineering – Software measurement – IFPUG functional size measurement method 2009. 12. ISO/IEC 19761:2011, Software engineering – COSMIC: a functional size measurement method. 13. ISO/IEC 20968:2002:, Software engineering – Mk II Function Point Analysis – Counting Practices Manual. 14. ISO/IEC 24570:2005, Software engineering – NESMA functional size measurement method version 2.1 – Definitions and counting guidelines for the application of Function Point Analysis. 15. ISO/IEC 29881:2010, Information technology – Systems and software engineering – FiSMA 1.1 functional size measurement method. 16. ISO/IEC 25010:2011, Systems and software engineering – Systems and software Quality Requirements and Evaluation (SQuaRE) – System and software quality models.
Luigi Buglione è il presidente di GUFPI-ISMA (Gruppo Utenti Function Point Italia – Italian Software Metrics Association) e Direttore IFPUG Conference & Education. Attualmente lavora in qualità di Process Improvement and Measurement Specialist presso Engineering Ingegneria Informatica spa. È Associate Professor presso l’École de Technologie Supérieure (ETS) di Montréal.
T_M ƒ 305
METROLOGIA LEGALE E FORENSE
▲
A cura dell’Avv. Veronica Scotti (veronica.scotti@gmail.com)
www.avvocatoscotti.com
Sulle verifiche dei contatori di energia Risposta a un lettore
LEGAL AND FORENSIC METROLOGY This section intends to discuss the great changes on Legal Metrology after the application of the Dlgs 22/2007, the socalled MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the Directive. This section is also devoted to enlightening aspects of ethical codes during forensic activities where measurements are involved. Please send all your inquiries to Ms. Scotti or to the Director! RIASSUNTO Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati! Sul no. 3/2012 della Rivista Tutto_ Misure (Pag. 215) e su Tutto_Misure News no. 3/2012 del 3 Ottobre è apparsa la Rubrica intitolata: “Verifiche sui contatori di Energia: legittimo il calcolo dei consumi a posteriori?”. Qualche settimana fa un lettore, che si firma, ha “postato” un commento alla rubrica sul sito di T_M News. Gli ho risposto personalmente ma, data l’importanza generale dell’argomento, ho pensato di dedicare la Rubrica di questo numero al “botta e risposta” con l’attento lettore, che ringrazio. COMMENTO DEL LETTORE Gentilissimo Avv. Scotti, ho letto il suo articolo molto interessante e attinente al mio caso. Nel mese di ottobre 2014 ho ricevuto dalla società che gestisce la somministrazione dell‘acqua una fattura a saldo di circa € 8.700,00. Il conteggio ivi riportato fa riferimento a due letture, la prima risalente al 31/12/2006 e la seconda al maggio 2014. in questi otto anni ho ricevuto soltanto fatture in acconto. Sulla base delle
T_M
N.
sue considerazioni ritengo che gli anni relativi al 2007, 2008 e parte del 2009 siano prescritti. Se è così, la prescrizione decorre dalla data della lettura o dalla data della comunicazione della fattura? Un immenso grazie dalla Sardegna! LA MIA RISPOSTA Gentilissimo, innanzitutto La ringrazio del suo interesse per l’articolo citato. Per quanto riguarda il Suo caso specifico, va precisato che la prescrizione di 5 anni decorre dal momento in cui il diritto a percepire il corrispettivo è sorto a favore dell’ente erogatore del servizio idrico, ovvero il momento in cui è avvenuto il consumo dell’acqua. In pratica, risultano a oggi prescritte tutte le somme dovute a titolo di tariffa per il prelievo dell’acqua calcolate fino al mese di ottobre 2009. Le eventuali altre somme, invece, saranno dovute. Va doverosamente evidenziato, però, che in alcuni casi, dato che il conteggio dei consumi è su base annuale, sulla scorta delle letture effettive dei contatori, può accadere che il momento di decorrenza
4/14 ƒ 306
della prescrizione non venga identificato con il momento dell’effettivo prelievo/consumo ma con quello della lettura del contatore, ovvero 31.12 di ogni anno. Così ragionando, la decorrenza della prescrizione comincia dal 31/12/2009 includendo, così, tutte le somme dovute per quell’anno (quindi gennaio, febbraio, ecc. dell’anno 2009); pertanto, in caso di applicazione di una simile interpretazione, condivisibile o meno, le somme dovute, quale corrispettivo per l’anno 2009, non risultano a oggi prescritte, mentre quelle del 2007 e 2008 sì. Infine, non si può trascurare il fatto che i soggetti che gestiscono la risorsa idrica sono obbligati a redigere una carta dei servizi che, unitamente alle disposizioni del codice civile, concorre a costituire il contratto che lega le parti e ne definisce obblighi e diritti. Per quanto concerne in particolare la società di fornitura che riguarda il lettore, fermo restando che tale considerazione è applicabile anche ad altre società della medesima specie, dato che si tratta di clausole ricorrenti, essa si impegna, nella propria carta dei servizi pubblicata, a provvedere alla lettura dei contatori almeno due volte l’anno (nella maggior parte dei casi, però, le società si impegnano solitamente a una sola lettura annuale) e a emettere le fatture dei consumi con cadenza bimestrale (naturalmente sulla base di un consumo stimato, calcolato secondo statistica con riferimento ai periodi di consumo precedenti). Ora, benché tale impegno non infici la richiesta di pagamento di consumi avvenuti in un arco temporale di molto superiore all’anno in quanto, come anzidetto, non risulterebbe comunque ancora maturata la prescrizione stabilita dal codice civile per tali tipologie di contratti, il mancato rispetto della tempistica per la lettura dei contatori, come stabilito nella carta dei servizi, dà luogo a un inadempimento del fornitore, sebbene non grave, che giustifica quantomeno una richiesta di rateazione della somma dovuta dall’utente a titolo di conguaglio.
SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI
▲
Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo
Dalle Associazioni Universitarie di Misuristi
THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT This section groups all the significant information from the main University Associations in Measurement Science and Technology: GMEE (Electrical and Electronic Measurement), GMMT (Mechanical and Thermal Measurements), AUTEC (Cartography and Topography), and Nuclear Measurements. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure Nucleari. GMEE: GRUPPO MISURE ELETTRICHE ED ELETTRONICHE
Note dall’Assemblea GMEE del 13 settembre 2014 – Ancona L’Assemblea del GMEE si è riunita il giorno 13 settembre 2014, alle ore 9:00, presso l’Aula C della Facoltà di Economia “Giorgio Fuà” dell’Università Politecnica della Marche, Piazzale Martelli 8, Ancona. Di seguito alcuni degli argomenti trattati, d’interesse per i lettori di questa Rubrica. 1) Comunicazioni di rilievo. A seguito del DL 90/2014, la validità dell’abilitazione nazionale 2012 e 2013 è estesa a 6 anni (art. 14 comma 3-ter); le chiamate relative al piano straordinario 2012 e 2013 sono estese al 30/6/2015 (art. 14 comma 4); A seguito delle dimissioni del collega Paolo Cappa, la Commissione per l’Abilitazione Scientifica Nazionale è stata integrata con il collega Massimo D’Apuzzo; È stato siglato un accordo tra IMEKO e Curran Associates per includere in SCOPUS e Compendex tutti i lavori pubblicati su Proceedings di eventi IMEKO dal 2000.
Solo una quota dei punti organico potrà essere utilizzata per gli abilitati della prima tornata. Conseguentemente ci sarà una seconda tornata dei bandi nazionali. Il termine della seconda tornata è il 30 settembre. Stato delle iniziative: Sito web dell’Associazione, Tutto_Misure, Borse, Premi Lazzaroni ha illustrato all’Assemblea lo stato delle iniziative che riguardano il sito e le modalità con cui s’intende apportare le modifiche. Docchio ha informato l’Assemblea sullo stato della rivista Tutto_Misure. Sono stati acquisiti nuovi partner strategici, quali Accredia, l’Associazione dei Laboratori di Taratura A.L.A.T.I., IMEKO, il GUPFIISMA. Crescono i contributi aziendali, restano stabili i contributi del mondo accademico. Sono pervenute quattro domande per il premio di Dottorato Carlo Offelli. La Commissione ha operato come previsto da regolamento. Tutte le tesi presentate sono state considerate attinenti alle tematiche d’interesse del GMEE e di qualità allineata ai migliori standard internazionali, con plauso a tutti i candidati per la qualità del lavoro svolto. A seguito di analisi comparativa la Commissione ha assegnato il premio alla tesi “Development of measurement methods for impulse currents in electromagnetic launchers” del candidato Roberto Ferrero (v. articolo a pag. 267). Sono pervenute due domande per la borsa di studio all’estero. Dopo un’attenta analisi, la Commissione ha assegnato la borsa al progetto della candidata Deborah Casinelli dell’Università di Cassino.
Situazione nazionale alla luce delle iniziative ministeriali, CUN e ANVUR È in atto un processo di revisione delle procedure per l’abilitazione scientifica nazionale. Sono attualmente in discussione in parlamento gli emendamenti al D.L. n. 90 tra cui quelli relativi all’art. 14 che riguardano le modifiche all’articolo 16 della legge 240/2014 sull’abilitazione scientifica nazionale (email inviata il 24 luglio). Per quanto riguarda gli emendamenti in discussione in Parlamento sembra ormai assodato che non sarà più prevista la figura del commissario OCSE, verrà garantita una maggiore rappresentatività degli SSD nei SC, verrà ridotta (probabilmente a 20) la numerosità minima degli ordinari per ogni SC, la procedura di presentazione delle domande sarà di tipo “a sportello”. Il MIUR attende l’approvazione del D.L. 90 per poter avviare l’iter di revisione dei decreti e regolamenti attuativi dell’ASN sulla base delle nuove regole. Il percorso delineato prevede che la nuova ASN possa vedere la luce fra gennaio e febbraio 2015. Gli Atenei hanno iniziato la pubblicazione dei bandi nazionali e alcune procedure sono già terminate. Infatti, la scadenza per l’utilizzo dei punti organico è il 30 giugno 2015. franco.docchio@unibs.it
T_M
N.
4/14 ƒ 307
N. 04ƒ ; 2014
▲
SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI
La vincitrice ha però rinunciato alla borsa a causa di problemi di salute. La borsa è stata quindi assegnata alla candidata Michela Borghetti dell’Università di Brescia, che svolgerà l’attività “Inkjet printing resistive sensors for biomedical applications” presso l’Università Politecnica della Catalogna a Barcellona. L’attività sarà svolta presso il Disney Research center all’ETH di Zurigo e inizierà a breve. Iniziative future Ottoboni illustra lo stato di avanzamento della proposta di Master in metrologia industriale (v. Tutto_ Misure n. 3/2014, pp. 167-169). In particolare, si intende utilizzare la figura dell’alto apprendistato e i relativi fondi messi a disposizione dalla Regione Lombardia. I frequentanti dovrebbero essere domiciliati in Lombarda. Alcune aziende, tra cui la Magneti Marelli, hanno dato adesione all’iniziativa. Vi sono patrocini da istituzioni di rilievo, si ricorda l’Assolombarda. L’approccio scelto, basato sull’alto apprendistato non prevede un ritorno diretto per l’Associazione. Il gruppo di lavoro si appresta ora a stilare il programma del master.
Congresso annuale 2015 Il Congresso annuale 2015 si terrà a Lecco. La proposta di Ferrero, organizzatore in quota GMEE, è stata approvata all’unanimità. Riorganizzazione delle Linee di ricerca ed elezione dei Coordinatori Petri ha illustrato all’Assemblea la proposta di riorganizzazione delle linee di ricerca del GMEE approvata dal Consiglio Direttivo per via telematica. Le nuove linee di ricerca si rifanno alla attuali linee metodologiche, ma presentano una struttura simile a quella del programma europeo Horizon 2020, con tre pilastri che focalizzano la ricerca in ambiti d’interesse scientifico, industriale e sociale. Il prossimo anno sarà utilizzato per la messa a punto dei contenuti delle linee. In questo lavoro di revisione, Petri propone di avvalersi dell’esperienza degli attuali coordinatori delle linee di ricerca metodologiche, prolungando di un anno il loro mandato. Al termine della di scussione l’Assemblea ha approvato all’unanimità le nuova linee di ricerca e il prolungamento del mandato ai coordinatori.
Giornata della Misurazione 2014 e proposte per il 2015 Savino ha relazionato brevemente sulla Giornata della Misurazione 2014. L’assemblea ha proposto di organizzare la Giornata della Dall’Unità di Bari: Misurazione del 2015 ancora all’Uni- Inaugurazione del Polo versità di Roma 3. Scientifico-Tecnologico “Magna Grecia” presso Scuola per addottorandi il Centro Interdipartimentale “Italo Gorini” del Politecnico di Bari Andria ha relazionato sull’anda- “Magna Grecia” – Taranto mento dell’ultima edizione della Il 21 ottobre 2014 si è inaugurato, Scuola Gorini, tenutasi a Lecce dall’1 nella sede di Taranto del Politecnico al 5 settembre. Petri informa l’As- di Bari (Centro Interdipartimentale semblea della disponibilità a orga- “Magna Grecia”), il nuovo Polo nizzare la Scuola per il triennio Scientifico Tecnologico “Magna 2015-17 da parte delle unità di Grecia”. Il Polo, il cui responsabile Cagliari e di Catania. Segue quindi scientifico per il Politecnico di Bari è il una breve presentazione della propo- Prof. Gregorio Andria, ha come sta da parte di Baglio e di Muscas. partner principali il Politecnico di L’Assemblea ha approvato la propo- Bari e l’Università degli Studi di sta all’unanimità. Bari, con lo scopo di unire compe-
T_M ƒ 308
tenze e attività di ricerca dei due Atenei nel settore ambientale, coniugando, quindi, ricerca scientifica e attività di supporto (consulenza, trasferimento tecnologico, formazione e incubatore d’impresa) ad aziende ed enti pubblici del settore ambientale nel territorio tarantino e, più in generale, nel bacino del Mediterraneo. Nato dall’esigenza impellente di riqualificazione di un territorio e di un ambiente sottoposto, proprio per la presenza di grandi stabilimenti del settore siderurgico e petrolifero, a notevoli sollecitazioni ambientali, il Polo ha come mission principale quella d’interfacciarsi con la realtà industriale del luogo, al fine di garantire efficacemente una opportuna riconversione della città e della zona industriale che coniughi eccellenza, innovazione e sviluppo sostenibile. Un Polo Scientifico Tecnologico, dunque, non solo centro di ricerca avanzato, ma anche incubatore di attività finalizzate alla salvaguardia dell’ambiente e della salute. Il progetto, nato nel 2008 dalla sottoscrizione di un protocollo d’intesa di Area Vasta Tarantina tra Comune di Taranto, Provincia di Taranto, Politecnico di Bari, Università di Bari, Arpa Puglia, Cnr, Confindustria, Camera di Commercio, Asl e Consorzio Asi, ha usufruito di circa 10 milioni di € di fondi stanziati per la realizzazione di laboratori e per l’acquisto di attrezzature e strumenti utili alla misura del degrado ambientale con particolare riferimento all’inquinamento delle matrici ambientali aria, acqua e suolo. Il Polo si sviluppa in una rete interna di laboratori scientifici organizzati
N. 03ƒ ;2014 che aderiscono al progetto è tale da garantire una consulenza non solo di tipo scientifico e tecnologico, ma anche giuridica, economica, sanitaria e sociale, nell’ottica di una politica di supporto alle aziende per la riconversione, la riqualificazione e il riordino degli insediamenti del luogo. Tra l’altro, il Centro Interdipartimentale del Politecnico “Magna Grecia”, che ospita il sopra menzionato macro Laboratorio del Polo Misure e Tecnologie per l’Ambiente, è anche sede di un progetto (“Green Campus”), presentato ufficialmente al Ministro, che si può ritenere pilota per la trasformazione dell’Ateneo in una
“green University” che, per le infrastrutture green e i contenuti di formazione sull’ecosostenibilità di progetto, potrebbe diventare di riferimento nel campo dello sviluppo sostenibile, anche a livello internazionale. Alla cerimonia d’inaugurazione dei laboratori ha partecipato il Ministro dell’Università e dell’Istruzione, Stefania Giannini, la quale, dopo aver visionato i Laboratori e le attrezzature scientifiche e tecnologiche acquisite, ed essersi soffermata con i relativi ricercatori, ha commentato positivamente la nascita del Centro come polo di eccellenza per la città di Taranto e per la Regione Puglia nell’ambito delle misure ambientali, nonché come punto di attrazione per studiosi e ricercatori che potrà produrre grandi opportunità di lavoro per i giovani. Lo stesso Ministro, nel Convegno inaugurale del Polo svoltosi successivamente nella Caserma Rossarol nella Città Vecchia, ha evidenziato l’esempio significativo e positivo di questa iniziativa accademica su un tema come l’ambiente, in una città che finora ne ha vissuto solo gli aspetti negativi, augurandosi che la stessa si trasformi in un volano per lo sviluppo e la riqualificazione del territorio tarantino e pugliese. GMMT: GRUPPO MISURE MECCANICHE E TERMICHE
Note dall’Assemblea GMMT del 13 settembre 2014 – Ancona L’Assemblea del Gruppo nazionale di Misure Meccaniche e Termiche si è svolta al termine del Congresso Nazionale, lo scorso 13 settembre 2014 ad Ancona. Si riporta una sintesi delle notizie
■
per tematiche di cui le quattro principali sono: Gestione del Ciclo Rifiuti, Bonifica dei Siti Inquinati, Inquinamento dell’Aria, del Suolo e dell’Acqua, Tutela delle Risorse Naturali. Fanno parte del centro i Laboratori di Chimica Ambientale, di Scienza della Terra, di Modellistica Ambientale e Open Innovation, di Scienza del Mare, e infine di Tecnologie e Misure per l’Ambiente. In particolare, quest’ultimo, maggiormente incentrato sulle misure e sulle certificazioni ambientali, è costituito da un grande Laboratorio multifunzionale, suddiviso in cinque sezioni: Misure per il Monitoraggio Elettromagnetico e Ambientale, Campi Elettromagnetici e Telecomunicazioni, Tecnologie Chimiche per la Tutela Ambientale, Processi Organizzativi e Tecnologie Innovative per la Progettazione Ecosostenibile, Idraulica Marittima. La multidisciplinarietà dei ricercatori
SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI
salienti. Finalmente qualche variazione in positivo dell’organico: il Gruppo di Misure Meccaniche e Termiche porge i complimenti a Fabrizio Patané (Unicusano) e a Milena Martarelli (Uniecampus), che recentemente hanno preso servizio come Professori Associati. Si è in attesa della conclusione dei concorsi locali per Professore Associato, a seguito del piano straordinario del Ministero.
Uno spazio è stato dedicato al “premio” per i migliori lavori presentati al congresso, consistente nella possibilità di pubblicazione sulle riviste Measurement e Acta Imeko: alcuni tra questi lavori saranno comunque pubblicati anche su Tutto_Misure, in un formato adatto alla rivista. È anche stato dedicato spazio significativo alla rivista Tutto Misure, e alle possibilità che questa offre come vetrina per le ricerche del gruppo. I rapporti con il gruppo di Misure Elettriche ed Elettroniche hanno come sempre destato grande attenzione e portato a numerosi interventi. Il lavoro riconosciuto come più importante da sviluppare nel prossimo futuro riguarda da un lato la Giornata della Misurazione, dall’altro il coordinamento della Meccanica, i cui futuri rappresentanti del Gruppo di Misure Meccaniche e Termiche saranno Salvatore Sciuto e Nicola Paone. Il prossimo convegno si terrà a Lecco, dal 10 al 12 settembre 2015. Un sentito ringraziamento da parte di tutto il Gruppo di Misure Meccaniche e Termiche ai colleghi di Ancona all’inappuntabile organizzazione del Congresso di Ancona 2014.
T_M ƒ 309
MANIFESTAZIONI EVENTI E FORMAZIONE
■
2015 eventi in breve 2015
19 - 21 gennaio
Amsterdam, The Netherlands
10th International Conference on High-Performance Embedded Architectures and Compilers
www.hipeac.net/conference
3 - 5 febbraio
Trento, Italy
XVIII AISEM 2015
www.aisem2015.it
3 - 5 febbraio
Aachen, Germany
3th International Conference on Electrical Systems for Aircraft, Railway, Ship Propulsion and Road Vehicles – ESARS
http://unicasconvegno.besmart.it
11 - 13 febbraio
Angers, France
International Conference on Pervasive and Embedded Computing and Communication Systems - PECCS
www.peccs.org
2 - 5 marzo
Charlotte, NC, USA
15th International Conference on Metrology and Properties of Engineering Surfaces
http://aspe.net/metprops2015.html
16 - 19 marzo
Sfax, Tunisia
12th International Multi-Conference on Systems, Signals & Devices (SSD 2015)
https://edas.info/N14687?c=14687
17 - 18 marzo
Huddersfield, UK
11th International Conference & Exhibition on Laser Metrology, Machine Tool, CMM & Robotic Performance (Lamdamap)
www.euspen.eu/OurEvents/LAMDAMAP2015.aspx
25 - 27 marzo
La Coruna, Spain
International Conference on Renewable Energies and Power Quality (ICREPQ’15)
www.icrepq.com
13 - 15 aprile
Dubrovnik, Croatia
Fifth conference on advanced methods in vibration and acoustics (NOVEM 2015)
novem2015.sciencesconf.org
13 - 15 aprile
Zadar, Croatia
10th IEEE Sensors Applications Symposium (IEEE SAS 2015)
http://sensorapps.org
14 - 16 aprile
Beijing, China
2015 Spring International Conference on Biomedical Engineering and Biotechnology (BEB-S)
www.engii.org/scet2015/Home.aspx?utm_campaign=beb&utm_ source=e_cp&utm_medium=conf_scet_beb_20140905_cfp
22-23 aprile
Torino, Italy
Affidabilità & Tecnologie - 9a edizione
www.affidabilita.eu
25 - 28 aprile
Nanjing, China
8thAnnual world congress of Industrial Biotechnology-2015 (ibio-2015)
www.bitcongress.com/ibio2015/
3 - 5 maggio
Goyang, S. Korea
28th International Electric Vehicle Symposium & Exhibition
www.evs28.org
11 - 14 maggio
Pisa, Italy
IEEE International Instrumentation and Measurement Technology Conference
http://imtc.ieee-ims.org
13 - 15 maggio
Istanbul, Turkey
International Conference on Advances in Mechanical Engineering Istanbul 2015 (ICAME’15)
http://eds.yildiz.edu.tr/journal-of-thermal-engineering/ Announcements/25
22 - 26 maggio
Osaka, Japan
2015 International Conference on Applied System Innovation (ICASI 2015)
http://icasi2015.org
24 - 29 maggio
Roma, Italy
BIOTECHNO 2015, 7th Int.l Conference on Bioinformatics, Biocomputational Systems and Biotechnologies
www.iaria.org/conferences2015/BIOTECHNO15.html
24 - 26 maggio
Beijing, China
The 7th International Conference on Computational Intelligence and Software Engineering (CiSE 2015)
www.scirp.org/conf/CiSE/2015may/?utm_campaign=cise&utm_ source=e_cp&utm_medium=conf_ws5_cise_20141030_cfp
1 - 5 giugno
Leuven, Belgium
Euspen’s 15th International Conference & Exhibition
www.euspen.eu/OurEvents/Leuven2015.aspx
4 - 5 giugno
Benevento, Italy
2nd IEEE International Workshop on Metrology for Aerospace
www.metroaerospace.org
15 - 18 giugno
Napoli, Italy
10th Pacific Symposium on Flow Visualization and Image Processing
www.psfvip10.unina.it/ocs2/index.php/2015/PSFVIP
22 - 23 giugno
Roma, Italy
XXXIV Giornata della Misurazione
www.gmee.org
28 - 2 giugno
Shanghai, China
OptoElectronics and Communications Conference (OECC)
www.oecc2015.sjtu.edu.cn
6 - 9 luglio
Prague, Czech Republic
36th Progress in Electromagnetics Research Symposium (PIERS)
www.piers.org/piers2015Prague/
8 - 10 luglio
Golden, Colorado - USA
ASPE 2015 Summer Topical Meeting Precision Interferometric Metrology
http://aspe.net/technical-meetings/aspe-summer-2015
13 - 15 luglio
Basel, Switzerland
4th International Symposium on Sensor Science (I3S2015)
www.sciforum.net/conference/I3S2015/
19 - 24 luglio
Nice, France
The Fifth International Conference on Ambient Computing, Applications, Services and Technologies
www.iaria.org/conferences2015/AMBIENT15.html
18 - 22 agosto
Daejon, South Korea
Advances in Aeronautics, Nano, Bio, Robotics and Energy (ANBRE15)
http://anbre.cti3.com/anbre15.htm
23 - 29 agosto
Incheon, South Korea
Advances in Structural Engineering and Mechanics (ASEM15)
http://asem.cti3.com/asem15.htm
10-12 settembre
Lecco, Italy
Congresso GMEE 2015
www.gmee.org
10-12 settembre
Lecco, Italy
Congresso GMMT 2015
21-24 settembre
Paris, France
17th International Congress of Metrology (CIM2015)
T_M
N.
4/14 ƒ 310
www.metrologie2015.com/index-en.html
LO SPAZIO DEGLI IMP E METROLOGIA GENERALE
▲ Gianfranco Genta 1, Alessandro Germak 2
Caratterizzazione metrologica di un trasduttore di forza multicomponente a forma di esapodo
METROLOGICAL CHARACTERIZATION OF A HEXAPOD-SHAPED MULTICOMPONENT FORCE TRANSDUCER A hexapod-shaped Multicomponent Force Transducer (MFT) was developed and calibrated by I.N.Ri.M. for a specific request of the railway industry, of measuring the axial and transverse force components on coil springs. Linear regression techniques were applied to obtain an empirical mathematical model that links the applied force components to the MFT outputs. Finally, the uncertainty associated to the force components was evaluated. RIASSUNTO Un Trasduttore di Forza Multicomponente (TFM) a forma di esapodo è stato sviluppato e tarato dall’I.N.Ri.M. per la richiesta specifica di un’industria ferroviaria, di misurare le componenti di forza assiale e trasversale su molle elicoidali. Per ottenere un modello matematico empirico che colleghi le componenti di forza applicate alle uscite del TFM, sono state applicate tecniche di regressione lineare. Infine, è stata valutata l’incertezza associata alle componenti di forza. DESCRIZIONE DEL PROBLEMA
Il presente lavoro è stato originato da una specifica richiesta industriale riguardante il comportamento delle molle elicoidali utilizzate nelle sospensioni per il trasporto ferroviario. Quando la molla, appoggiata con asse verticale, viene deformata dalla forza generata da una massa, ad esempio dal peso della parte sospesa di una vettura ferroviaria, perde la condizione di assialità, nel senso che la parte superiore a cui è appoggiata la massa si sposta non solo verso il basso ma anche trasversalmente (Fig. 1). Tale spostamento trasversale è indicato in gergo tecnico ferroviario con il termine francese “Chasse” [1]. Usualmente le molle per queste applicazioni sono provate in grandi macchine prova-molle, che applicano la forza con sistemi idraulici o meccanici che non consentono i movimenti trasversali delle
Figura 1 – Dettaglio di sospensioni per il trasporto ferroviario (a) e definizione della “Chasse” C (b)
estremità della molla, impedendo di determinare la “Chasse” direttamente come misura di spostamento. Un approfondimento tecnico, inoltre, evidenzia che, nella struttura di un vagone sospeso sulle molle, non interessa tanto sapere di quanto si muoverà trasversalmente quando i carichi statici o dinamici faranno flettere le molle, bensì evitare tale movimento trasversale. La tecnica comune è quella di montare le molle accoppiate su una struttura fissa con le estremità vincolate, per cui il loro movimento relativo è bloccato, ma si generano forze nella direzione trasversale. Pertanto, le molle sono orientate in modo che le forze generate abbiano la stessa direzione ma verso opposto, così da non produrre movimento trasversale. Ciò evidenzia la necessità di conoscere la forza trasversale in modulo e direzione. Tuttavia le specifiche tecniche [1] richiedono formalmente che sia determinata la “Chasse”. La strategia per la misurazione che si è ritenuta più conveniente consiste nel determinare la direzione della forza trasversale generata dalla prova di compressione e ruotare poi la molla intorno al suo asse in modo da far coincidere la direzione della “Chas-
T_M
se”, ossia la direzione della forza trasversale, con l’asse di una slitta motorizzata della macchina di prova posta come base di appoggio della molla. L’entità dello spostamento necessario ad annullare la forza trasversale corrisponde alla misura della “Chasse”. Per questa specifica applicazione è richiesta quindi la misurazione della forza assiale e trasversale, sia in modulo sia in direzione: la direzione della forza assiale è l’asse longitudinale della molla, mentre la direzione della forza trasversale non è nota a priori e deve essere stimata. Quindi sarebbe sufficiente un Trasduttore di Forza Multicomponente (TFM) a tre sole componenti (Fx, Fy e Fz), ma si potrebbero trarre notevoli vantaggi se si avessero anche informazioni di massima sui momenti applicati (Mx, My, Mz), in modo da consentire una migliore identificazione delle equazioni di taratura. Sulla base della considerevole esperienza acquisita all’I.N.Ri.M. nello sviluppo di diversi sistemi di misurazione e di taratura multicomponente [2], è stato progettato e realizzato un TFM ad hoc. I TFM sviluppati in precedenza all’I.N.Ri.M. erano di diverse portate (da pochi newton a centinaia di kilonewton), di tipi diversi (elementi compositi o monolitici) e riguardavano un ampio spettro di applicazioni. In particolare, questi TFM sono stati utilizzati nella caratterizzazione di macchine campione di forza, ad esempio nel controllo di componenti 1
DIGEP, Politecnico di Torino gianfranco.genta@polito.it 2 I.N.Ri.M., Torino a.germak@inrim.it Memoria presentata al Convegno del Gruppo Misure Meccaniche e Termiche (MMT) Ancona, 11-13/09/2014
N.
T_M 4/1 4 ƒ 311
▲
LO SPAZIO DEGLI IMP E METROLOGIA GENERALE
parassite, nonché in settori quali la robotica e la verifica delle macchine di prova sui materiali [3]. Per la specifica applicazione del presente lavoro è stato sviluppato un TFM di portata elevata in collaborazione tra I.N.Ri.M. e una società nel campo delle prove meccaniche. Esso consiste in un TFM a sei componenti con struttura a esapodo. Questa struttura è tipica dei dispositivi di spostamento a sei gradi di libertà (piattaforme di Stewart). Strutture simili sono già state anche utilizzate in TFM principalmente per basse portate, come per applicazioni in robotica [4,5]. Le incertezze richieste dalla presente applicazione sono pari all’1% sulla misura della forza trasversale e la classe 1 della Norma ISO 7500-1:2004 sulla misura della forza assiale, che per queste applicazioni è dell’ordine di alcune centinaia di kilonewton. DESCRIZIONE DEL TRASDUTTORE DI FORZA MULTICOMPONENTE
Il TFM ha una portata di forza assiale di 200 kN e una portata di forza trasversale di 30 kN. La sua struttura è composta di sei Trasduttori di Forza Uniassiali (TFU) disaccoppiati da cerniere elastiche che eliminano sostanzialmente le componenti spurie. Queste potrebbero altrimenti influenzare le singole misure dei TFU [6]. Questa struttura (Fig. 2) permette la misura di tre componenti di forza (trasversale, Fx e Fy, e assiale, Fz) e tre componenti di momento (flettente, Mx e My, e torcente, Mz). La procedura di prova è strutturata nel modo seguente: • Fase 1: Si applica la forza assiale, Fz, e si misurano le due componenti di forza trasversale, Fx e Fy, consentendo la stima della direzione della forza trasversale, vale a dire la direzione della “Chasse”; • Fase 2: Si ruota la molla per allineare la forza trasversale con l’asse x dell’esapodo (coincidente con l’asse motorizzato sulla macchina di prova); • Fase 3: Si sposta la piastra finché la forza trasversale è portata a zero e si misura lo spostamento corrispondente, cioè il modulo della “Chasse”.
T_M ƒ 312
Figura 2 – Schema del Trasduttore di Forza Multicomponente (TFM) a forma di esapodo con i sei Trasduttori di Forza Uniassiali (TFU) rappresentati da anelli
TARATURA DEL TRASDUTTORE DI FORZA MULTICOMPONENTE
Un aspetto importante che è stato considerato per la scelta della struttura del trasduttore è la possibilità di realizzare una taratura iniziale completa e poi tarature successive ridotte per il mantenimento nel tempo. Il vantaggio principale di questo tipo di TFM è che tutti i TFU sono soggetti a una forza di trazione, il cui valore dipende dalle forze e dai momenti applicati. La taratura iniziale permette di determinare gli effetti della geometria della struttura e la sensibilità dei TFU. Poiché il TFM, montato in una macchina provamolle (Fig. 3), nel tempo non subisce smontaggi e riassemblaggi, la geometria non è soggetta a variazioni significative. Così, le tarature successive possono essere limitate soltanto alla valutazione della variazione nel tempo della sensibilità dei TFU applicando valori noti della componente verticale Fz. L’I.N.Ri.M. è stato incaricato della taratura iniziale del TFM per avere misure riferibili, cioè con un’adeguata valutazione dell’incertezza secondo la GUM (JCGM 100:2008). Secondo un approccio metrologico consolidato [3] le forze note devono essere applicate sia indipendentemente sia in combinazione per valutare l’eventuale sensibilità incrociata tra i canali di uscita. La prova delle molle richiede strettamente solo la taratura di Fx e Fz. La taratura di Fz è stata eseguita sulla macchina campione di forza a pesi diretti, che ha la portata di 1 MN. La procedura di taratura fa riferimento alla Norma ISO 376:2011; i risultati hanno evidenziato che il TFM nella direzione z è nella classe migliore, cioè la classe 00. La taratura di Fx è stata invece eseguita
Figura 3 – Set-up di taratura sulla macchina prova-molle
direttamente sulla macchina provamolle, valutando l’importante sensibilità incrociata con Fz. Quest’ultima è stata generata utilizzando pesi diretti, invece la forza trasversale è stata applicata tramite dispositivi meccanici e misurata con un TFU tarato (Fig. 3). ANALISI DEI RISULTATI DELLA TARATURA
Utilizzando il set-up di taratura descritto (Fig. 3), sono state applicate forze trasversali e assiali. Date le incertezze richieste dalla specifica applicazione e alla luce dei risultati ottenuti in prove preliminari, è stato ritenuto adeguato un piano sperimentale ridotto con solo due livelli di Fz e pochi livelli di Fx. Sulla base della disponibilità di masse nel luogo di taratura, i livelli scelti di Fz sono stati circa 14 kN e 23 kN. Con questi livelli di forza sono stati scelti valori di Fx rispettivamente fino a 3 kN e 5 kN, in modo da applicare solo uno sforzo di trazione ai singoli TFU. Quando si applica una componente di forza Fx viene anche generato un momento flettente My associato. Le componenti di forza e momento applicate, le corrispondenti uscite di forza e di momento sono mostrate rispettivamente in Tab. 1. Mentre Fx dovrebbe essere correlata principalmente all’uscita Ox, e Fz all’uscita Oz, a causa della possibile sensibilità incrociata è stata prevista la presenza di altri termini. Sono state applicate tecniche di regressione lineare [7] per ottenere un modello matematico
N. 04ƒ ;2014
▲
LO SPAZIO DEGLI IMP E METROLOGIA GENERALE
Tabella 1 – Componenti di forza e di momento applicate e corrispondenti uscite del TFM
n.
Fx/kN
1
0,000
2
Fz/kN
My/N·m
Ox/kN
Oy/kN
0,000
0,0
0,000
0,000
0,000
0,0
0,0
0,0
0,000
–22,969
0,0
0,000
0,000
–22,969
0,0
0,0
0,0
3
0,563
–22,969
–281,6
0,520
0,001
–22,959
76,7
–279,4
–0,4
4
1,050
–22,969
–524,8
0,962
0,004
–22,959
69,7
–517,7
0,4
5
2,019
–22,969
–1009,5
1,850
0,016
–22,952
52,9
–995,7
–0,4
6
4,045
–22,969
–2022,4
3,699
0,049
–22,931
4,5
–1996,3
–0,4
7
4,992
–22,969
–2495,9
4,563
0,070
–22,937
–33,0
–2465,2
–4,7
8
0,000
–14,066
0,0
0,000
0,000
–14,066
0,0
0,0
0,0
9
0,528
–14,066
–264,1
0,483
0,041
–14,134
–11,7
–244,6
7,7
10
0,996
–14,066
–498,2
0,914
0,044
–14,134
–16,3
–474,5
8,4
11
2,028
–14,066
–1014,2
1,862
0,059
–14,121
–38,7
–982,4
7,7
12
3,006
–14,066
–1503,0
2,759
0,075
–14,111
–62,8
–1462,2
5,1
empirico che colleghi le componenti di forza applicate alle uscite del TFM. In particolare, è stata utilizzata la “best subset regression” [8] per identificare modelli parsimoniosi per Fx e Fz considerando tutte le possibili combinazioni di variabili predittive (Ox, OY, Oz, Omx, Omy e Omz). Il numero limitato di esperimenti ha permesso solo di prendere in considerazione modelli fino al primo ordine con termini d’interazione. Questo è accettabile considerando la caratteristica di linearità dei TFU. Per la forza trasversale, si ottiene: Fx = a ⋅ O x + b ⋅ O mx + c ⋅ O x ⋅ O z (1) dove a = 1,08, b = – 6,16 × 10–2 m–1 e c = 6,04 × 10 – 4 kN–1. Invece, per la forza assiale, si ottiene: Fz = d ⋅ O x + e ⋅ O y + f ⋅ O z
(2)
dove d = – 3,90 × 10–2, e = 2,00 e f = 1,00. Per Fx il modello include, come termini significativi, Ox, Omx e il termine d’interazione Ox ⋅ Oz (1), mentre il modello corrispondente per Fz comprende, oltre a Oz, anche Ox e Oy (2). Il contributo significativo dell’interazione Ox ⋅ Oz in (1) evidenzia i vantaggi di sfruttare un TFM a sei componenti anche quando è richiesta la misurazione di due sole componenti. Una volta stimati i modelli matematici, è
Oz/kN
stata valutata l’incertezza estesa associata ai valori di Fx e Fz [9]. Per i coefficienti delle equazioni (1) e (2), la corrispondente incertezza tipo è stata valutata come la corrispondente deviazione standard ottenuta nella regressione lineare; invece, per le uscite del TFM, la corrispondente incertezza tipo è stata valutata considerando le caratteristiche metrologiche dei TFU e la geometria del TFM (Tab. 2). La valutazione dell’incertezza, secondo Tabella 2 – Incertezze tipo relative dei coefficienti delle equazioni (1) e (2) e delle uscite del TFM
Parametro
Incertezza tipo relativa
a
0,07%
b
10,9%
c
5,8%
d
6,8%
e
6,0%
f
0,02%
Ox
0,5%
Oy
0,5%
Oz
0,025%
Omx
5,9%
Omy
2,9%
Omz
2,1%
Omx/N·m
Omy/N·m
Omz/N·m
la GUM (JCGM 100:2008) e il metodo PUMa (ISO 14253-2:2011), può essere adeguatamente organizzata in formato tabulare, facendo riferimento al documento EA-4/02 M:2013. È stata introdotta una piccola modifica rispetto a questo formato sostituendo le incertezze tipo con le varianze; essa ha il vantaggio di gestire quantità additive, che possono essere confrontate tra di loro con maggiore facilità. Utilizzando questo metodo, in Tab. 3 sono indicati i singoli contributi alla varianza della grandezza Fx per una specifica condizione di lavoro. I simboli e i valori delle variabili indipendenti che compaiono nel modello matematico sono riportati nella colonna xj. I valori nella colonna u(xj) sono le incertezze tipo di ciascun contributo, mentre i valori nella colonna vj rappresentano i corrispondenti gradi di libertà. I coefficienti di sensibilità cj possono essere valutati con il calcolo analitico delle derivate parziali oppure con metodi numerici. Infine, si possono calcolare i contributi uj2(Fx) alla varianza della variabile dipendente Fx. Tenendo conto di tutte queste informazioni, è possibile ottenere l’incertezza estesa U(Fx). Lo stesso tipo di calcolo è stato eseguito per Fz. Dai calcoli si ottiene un’incertezza estesa relativa del 1,0% per Fx e dello 0,15% per Fz. Questi valori sono risultati pressoché costanti in tutte le condizioni di lavoro.
T_M ƒ 313
N. 04ƒ ; 2014
■
LO SPAZIO DEGLI IMP E METROLOGIA GENERALE
Tabella 3 – Tabella dell’incertezza per la forza trasversale Fx (espressa in kilonewton)
u(xj)
cj
uj2(Fx)
νj
uj4(Fx)/ νj
7,6 × 10–4
3,0
5,1 × 10–6
9
2,9 × 10–12
10–7
9
2,3 × 10–14
xj Simbolo
Valore
a
1,08 10–2
10–3
10–1
b
–6,16 ×
c
–6,04 × 10–4
3,5 × 10–5
–42,0
2,2 × 10–6
9
5,3 × 10–13
Ox
3,00
1,5 × 10–2
1,1
2,7 × 10–4
61
1,2 × 10–9
Omx
1,00 × 10–1
5,9 × 10–3
–6,2 × 10–2
1,3 × 10–7
40
4,5 × 10–16
10–3
10–3
10–11
100
1,7 × 10–23
Oz
–14,00
Fx
3,26
6,7 ×
3,5 ×
1,0 ×
–1,8 ×
All’I.N.Ri.M. è stato ideato un Trasduttore di Forza Multicomponente (TFM) per una richiesta specifica di un’industria ferroviaria. Anche se la procedura di prova richiede strettamente solo la taratura della forza assiale Fx e della forza trasversale Fz, sulla base dell’esperienza si è deciso di sviluppare un prototipo di TFM a sei componenti con struttura a esapodo. Infatti, l’analisi dei risultati della taratura ha evidenziato che la misurazione di Fx non è solo influenzata dal valore di Ox, ma anche da Omx e dal termine d’interazione Ox ⋅ Oz. Inoltre, è stata valutata l’incertezza associata ai valori di forza assiale e trasversale. La procedura di taratura utilizzata ha permesso di mantenere tali valori d’incertezza all’interno degli obiettivi richiesti dal cliente. In particolare, si ottiene un’incertezza estesa relativa dell’1,0% per la forza trasversale e dello 0,15% per la forza assiale, nettamente migliore dell’incertezza richiesta, ovvero la classe 1 della ISO 75001:2004.
4,1 ×
u2(Fx)
2,7 × 10–4
Σ
1,2 × 10–9
u(Fx)
1,7 × 10–2
νF
64
p
95%
tp(νF )
2,0
U(Fx)
3,3 × 10–2
W(Fx)
1,0%
x
CONCLUSIONI
4,5 ×
x
per la loro preziosa collaborazione tra- [8] R.R. Hocking, “The analysis and selection of variables in linear regression”, Biomite discussioni fruttuose. RIFERIMENTI BIBLIOGRAFICI
metrics, vol. 32, pp. 1-49, 1976. [9] G. Barbato, A. Germak, G. Genta, “Misurare per Decidere”, 3a edizione, Società Editrice Esculapio, Bologna, 2014.
[1] Trenitalia, “Specifica tecnica di fornitura
di molle a elica per sospensioni di rotabili ferroviari”, Specifica n. 307625 esp. 05, Roma, 2010. [2] G. Barbato, S. Desogus, A. Germak, “Calibration system for multicomponent force and moment transducers”, Experimental Mechanics, pp. 341-352, 1992. [3] A. Bray, G. Barbato, R. Levi, “Theory and Practice of Force Measurement”, Academic Press, London, 1989. [4] M. Sorli, S. Pastorelli, “Six-axis reticulated structure force/torque sensor with adaptable performances”, Mechatronics, vol. 5, no. 6, pp. 585-601, 1995. [5] Y. Hou, J. Yao, L. Lu, Y. Zhao, “Performance analysis and comprehensive index optimization of a new configuration of Stewart six-component force sensor”, Mechanism and Machine Theory, vol. 44, pp. 359-368, 2009. [6] S. Desogus, A. Germak, F. Mazzoleni, D. Quagliotti, G. Barbato, A. Barbieri, G. Bigolin, C. Bin, “Developing multicomponent force transducers at I.N.Ri.M.”, In: Proceedings of the IMEKO 2010 TC3, TC5 and TC22 Conferences, Metrology in Modern Context, Pattaya, Chonburi, ThaiRINGRAZIAMENTI land, November 2010. [7] N.R. Draper, H. Smith, “Applied RegresGli autori desiderano ringraziare i Pro- sion Analysis”, 2nd ed., Wiley, New York, fessori Giulio Barbato e Raffaello Levi 1981.
Gianfranco Genta ha conseguito il titolo di Dottore di Ricerca in “Metrologia: Scienza e Tecnica delle Misure” nel 2010 presso il Politecnico di Torino, dove svolge la sua attività di ricerca presso il Dipartimento di Ingegneria Gestionale e della Produzione. Si occupa, principalmente, dell’applicazione di metodi statistici in ambito metrologico e tecnologico. Alessandro Germak, primo tecnologo all’Istituto Nazionale di Ricerca Metrologica dove svolge attività di ricerca da oltre trent’anni, è responsabile dei campioni primari di forza e durezza e dei metodi primari per la misura delle vibrazioni e dell’accelerazione di gravità locale. È esperto tecnico per gli accreditamenti dei Centri di taratura LATACCREDIA ed è membro dei Comitati Consultivi del CIPM per le grandezze d’interesse.
COMMENTI ALLE NORME
▲
COMMENTI ALLE NORME Rubrica a cura di Nicola Dell’Arena (ndellarena@hotmail.it)
Audit interno - Parte terza
COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025 A great success has been attributed to this interesting series of comments by Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025. RIASSUNTO Prosegue con successo l’ampia e interessante serie di commenti di Nicola Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La struttura della documentazione (n. 4/2000); Controllo dei documenti e delle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e laboratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto (n. 3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004 e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecchiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n. 1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali (n. 3/2007, n. 2/2008 e n. ,3/2008); il Campionamento (n. 4/2008 e n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità parte 1.a (n. 4/2010); Assicurazione della qualità parte 2.a (n. 1/2011); Assicurazione della qualità parte 3.a (n. 2/2011). Non conformità, azioni correttive, ecc. parte 1.a (n. 4/2011), parte 2.a (n. 1/2012), parte 3.a (n. 2/2012), parte 4.a (n. 3/2012), parte 5.a (n. 4/2012), parte 6.a (n. 1/2013), parte 7.a (n. 2/2013), parte 8.a (n. 3/2013), parte 9.a (n. 4/2013), parte 10.a (n. 1/2014); Audit interno parte 1.a (n. 2/2014), parte 2.a (n. 3/2014). TEMPI
Il primo requisito prescrive che “il laboratorio deve eseguire periodicamente audit”, e poi nella Nota afferma “il ciclo di audit interni dovrebbe essere, di regola, completato in un anno”. La frequenza dell’audit, come dice la norma, dev’essere di un anno. La scelta del tempo in cui effettuare l’audit dipende dalle dimensioni del laboratorio. Per un laboratorio piccolo, in una sola giornata si può iniziare e terminare l’audit. Per un laboratorio grande, l’audit può essere suddiviso per aree ed effettuato nei diversi mesi dell’anno. L’essenziale è che tutto il sistema di gestione (per tutte le aree del laboratorio) sia verificato con una
frequenza annuale. Per un’area grande, l’audit può essere suddiviso in due o tre giornate sfalsate nel tempo: l’essenziale, come dice la norma, è che tutti gli elementi del sistema di gestione siano verificati per quell’area nel corso dell’anno. SCOPO
Nel passato gli scopi dell’audit erano numerosi; ora la norma ne precisa solamente due interni: “per accertare che le operazioni continuino a soddisfare i requisiti del sistema di gestione e della presente norma internazionale”. Praticamente si devono effettuare audit di adeguatezza (conformità alle nome, in particolare alla 17025) e audit di attuazione (conformità al sistema di gestione adottato). Analizziamo per primo il requisito “soddisfazione della presente norma internazionale”. La verifica di questo
requisito può essere fatta la prima volta, al massimo una seconda. Altrimenti ne consegue che chi ha stabilito il sistema di gestione non ci ha capito nulla o è un incompetente. Inoltre questa verifica è compito fondamentale dell’organismo di accreditamento, sia nella fase di accreditamento sia in quella di sorveglianza. Posso affermare che questa verifica viene fatta poco negli audit interni. Analizziamo per secondo il requisito “soddisfazione del sistema di gestione”. Questa verifica è preponderante, anzi tutti gli anni il laboratorio deve effettuare solo la verifica di attuazione del sistema di gestione. ELEMENTI Nel secondo requisito la norma prescrive che “deve trattare tutti gli elementi del sistema di gestione, comprese le attività di prova e/o taratura”. È pleonastico che la verifica debba essere fatta su tutto il sistema. La seconda parte, dove si precisano le attività di prova, non era necessario che fosse introdotta: la 17025 contiene la parte tecnica, fondamentale per il sistema di gestione. Tutto questo ci porta a effettuare due tipi di audit: uno sul sistema di gestione e l’altro sugli aspetti tecnici. RESPONSABILITÀ
Il terzo requisito, del punto 4.14.1 afferma; “il responsabile della qualità ha la responsabilità di pianificare e organizzare gli audit come richiesto dal piano prefissato e dalle richieste della direzione”. Praticamente la norma assegna al responsabile della qualità tutta la responsabilità della gestione dell’audit interno: la norma non ne parla, ma la responsabilità va
T_M
N.
4/14 ƒ 315
▼
intesa anche sugli audit esterni. Il responsabile della qualità, come prima cosa all’inizio dell’anno, deve preparare il programma annuale e, quando si avvicina il tempo della verifica, inviare la notifica all’area da auditare e nominare il gruppo di audit. Alla fine deve raccogliere il materiale e agire con le attività susseguenti. La notifica è una lettera a sua firma, in cui si deve riportare la/e data/e, i componenti del gruppo e gli elementi da auditare (in sostituzione può inviare il Piano dell’audit preparato dal gruppo). Il requisito parla di “come richiesto dal piano prefissato o dalle richieste della direzione”. Sinceramente non so a quale piano prefissato si riferisca questo requisito. A leggere la norma, visto che si parla di organizzazione, sembra un documento redatto a monte di tutto e diverso dal piano di audit descritto in precedenza. Secondo me, questo documento non esiste nei laboratori, bensì è sostituito dal programma. Le richieste della direzione, se ci sono, ben vengano e devono essere inserite: tuttavia, storicamente il responsabile della qualità fa tutto da
NEWS
NUOVO SISTEMA OTTICO BIDIMENSIONALE PER LA MISURAZIONE AUTOMATICA IN TEMPO REALE La Microtecnica ha recentemente introdotto sui mercati internazionali un nuovo e rivoluzionario sistema di misura, che si affianca alla sua tradizionale produzione di proiettori di profili, con schermo da 350 a 1.500 mm, conosciuti e apprezzati in tutto il mondo. MICROgenius è rivolto principalmente al controllo bidimensionale di particolari utilizzati nell’industria aeronautica, automobilistica, meccanotessile, elettrica-elettronica, elettrodomestica, della gomma e in tutti i
T_M ƒ 316
N. 04ƒ ; 2014
■
COMMENTI ALLE NORME
solo e si assume ogni responsabilità. Il responsabile della qualità nomina il gruppo (che per i laboratori piccoli può essere costituito anche da una sola persona) e gli affida compiti ben precisi. Il gruppo ha la responsabilità di preparare il Piano dell’audit, che indica le azioni da svolgere, elemento per elemento nonché giorno per giorno, e la lista di controllo. Il gruppo, come minimo, dev’essere formato da due persone, una che verifica la parte gestionale e l’altra la parte tecnica (a volte il gruppo può essere composto di una sola persona, che sia competente sia per problemi gestionali sia per quelli tecnici), ed è comprensibile come in un piccolo laboratorio sia difficile trovare personale indipendente in grado di svolgere audit di parte tecnica. PERSONALE
Il quarto requisito, del punto 4.14.1, prescrive che “tali audit devono essere eseguiti da personale formato, addestrato e qualificato che è, quando le risorse lo consentano, indipencasi in cui venga richiesto un controllo rapido e accurato; trova, inoltre, particolare impiego nei test di serie di pezzi. La sua modularità di costruzione consente di adattare le sue prestazioni alle specifiche esigenze dei clienti, scegliendo un sistema personalizzato variandone i componenti principali: obiettivi, condensatori, telecamere, componenti meccaniche. Il principio di funzionamento è costituito da un obiettivo standard o telecentrico ad alta definizione di assoluta precisione e da un sistema di telecamera per la ripresa del pezzo in esame. Dopo aver creato il programma di misura, sarà sufficiente posizionare il pezzo sul vetro della tavola d’appoggio: e il software dedicato rileverà automaticamente le quote richieste. Il risultato ottenuto sarà istantaneamente disponibile per ulteriori elaborazioni di statistica. È possibile memorizzare n programmi di misura per poter individuare quello d’interesse al momento del posizionamento del particolare sulla tavola; pertanto non sarà necessaria alcuna ricerca manuale. A differenza della maggior parte di apparecchiature simili, il MICROgenius si distingue per il programma di misura non conven-
dente dalle attività sottoposte ad audit”. Il requisito contiene due elementi importanti sul personale: a leggerlo sembra di una semplicità estrema, ma in realtà è complicato. Il primo elemento è il termine “qualificato” (che al suo interno contiene i termini formato e addestrato), e non dico niente su cosa bisogna fare poiché c’è molta parte della norma 19000 da applicare. Il secondo elemento è “indipendente dalle attività”: è giusto che sia così, per l’imparzialità di comportamento da parte di chi deve verificare, tuttavia diventa difficile da applicare nei laboratori. Nelle grandi aziende tutto ciò che viene prescritto dalla norma è una cosa meravigliosa: viceversa, per i piccoli laboratori, formati da due o tre persone diventa complicato, faticoso, farraginoso e inoltre fa perdere di senso allo scopo per cui vengono effettuati gli audit. La norma allevia le difficoltà dal momento che prescrive “quando le risorse lo consentono” ma resta sempre un punto doloroso e da applicare. Dove le risorse di personale non ci sono, si deve ricorrere all’esterno. zionale ma in grado di essere adattato alle specifiche esigenze dell’utilizzatore. Caratteristiche principali: Misure senza contatto in 2D - Controllo in tempo reale - Pulsante unico per memorizzare i dati - Nessuna necessità di allineamento dei pezzi - Grande profondità di campo dell’immagine - Altissima flessibilità e modularità del sistema - Possibilità di montaggio di attrezzature sul tavolo d’appoggio - Possibilità di posizionare lo strumento direttamente in linea di produzione - Non richiede personale specializzato per l’utilizzo. Dati tecnici: Campo di misura da 2,40 x 1,80 mm2 a 230,2 x 192,6 mm2. Telecamera CMOS o CCD di diverso formato 1/3“; 1/2,5“; 1/2”; 1/1,8“; 2/3“. Distanza di lavoro da 45,3 mm a 531 mm. Profondità di campo da 0,23 a 603 mm. Distorsione ottica % fino a < 0,03 mm. Ripetibilità fino a 0,3 μm. Illuminazione con condensatore telecentrico a LED o illuminazione a LED. Computer 64 bit. Sistema operativo Windows 8.1. Monitor touch screen. Dimensioni 440 x 460 x 1280 o 850. Peso 25-45 kg. Per ulteriori informazioni: www.ltf.it
▲
STORIA E CURIOSITÀ
Mario Tschinke
Gli inizi delle trasmissioni senza fili La cronistoria degli ultimi 150 anni
THE BEGINNINGS OF WIRELESS TRANSMISSIONS The author spans more than 150 years of history of wireless transmissions, starting from the first experiments in 1860, up to the development of the first vacuum tubes. RIASSUNTO Un’appassionante carrellata sulle trasmissioni senza fili, a partire dai primi esperimenti di poco più di un secolo e mezzo fa, fino alla realizzazione dei primi tubi a vuoto. Viviamo immersi in campi elettromagnetici oscillanti entro un’ampia gamma di frequenze1 e li usiamo per gli scopi più disparati, al punto che trasmettere un segnale per mezzo di un filo metallico è considerato ormai roba da trogloditi. Ma sono passati soltanto 150 anni, gli stessi dell’Unità d’Italia, da quando James Clerk Maxwell, in Gran Bretagna, cominciò a sospettare l’esistenza di onde elettromagnetiche. Alcuni decenni dopo Heinrich Rudolf Hertz, in Germania, con grandi scintilloni2 produceva raffiche di onde con molte armoniche, che riusciva in qualche modo a captare a distanza. Hertz morì giovane, a 36 anni – anche Maxwell non era arrivato ai 50 – e la sua eredità fu raccolta da Guglielmo Marconi, bolognese, che, a differenza dai primi due che avevano studiato e poi insegnato in Università, era autodidatta. Era però in grado di seguire quanto accadeva nel mondo della fisica. Si procurò quindi un coesore, improbabile dispositivo ideato dal professore di liceo marchigiano Temistocle Calzecchi Onesti3 e cominciò giovanissimo a studiarne il funzionamento. Si trattava di un tubetto di vetro pieno di limatura o polvere metallica, la cui conducibilità elettrica aumentava drasticamente se sottoposta a un campo magnetico. Il dispositivo si doveva resettare ogni volta scuotendolo, ma si prestava per la radiotelegrafia. Marconi migliorò considerevolmente gli esistenti coherer – traduzione in inglese di coesore gene-
Tesla toccò l’onore del nome assegnato all’Unità di densità di flusso magnetico e di recente anche il nome di un’automobile elettrica – e dal russo Aleksandr Stepanovic Popov (1859-1906), che entrambi avevano buoni argomenti, ma che non riuscirono ad insidiare il successo commerciale di Marconi, favorito anche dal ruolo avuto dai suoi apparecchi in alcuni naufragi famosi, fra cui quello del Titanic nel 1912. Il coherer funzionava un po’ come un semiconduttore. Il primo brevetto per un vero semiconduttore fu assegnato nel 1904 a Jagadish Chandra Bose, un professore del Bangladesh diplomato a Cambridge, che però già nel 1900 aveva cambiato sfera di interessi e si era dedicato alla botanica. Si trattava del famoso rivelatore a galena, solfuro di Piombo, croce e delizia di tanti ragazzi fino agli anni ’950. Le radio a galena, semplicissime, funzionavano senza alcuna alimentazione – ma spesso si usava il neutro della rete elettrica come “terra” – e permisero al grande pubblico di ascoltare le prime trasmissioni in fonìa negli anni ’20. Seguirono altri brevetti per altri semiconduttori: Carborundum (carburo di Silicio) nel 1906 al generale USA Henry Harrison Chase Dunwoody, e nel 1907 a Greenleaf Whittier Pickard, ancora USA, per un cristallo di Silicio. Questi dispositivi resero obsoleto il coherer fin dal 1910. Una doccia fredda sulle magnifiche sorti della radiotelegrafia si ebbe quando tre giornali americani decisero di coprire la Coppa America con tre trasmittenti diverse. Nessuno dei tre ricevette alcunché di leggibile. Bisognava trovare qualcosa di meglio degli apparecchi a scintilla: un sistema capace di produrre un segnale sinusoidale continuo alle frequenze adatte. Pare che la
ralmente usata, probabilmente si dovrebbe pronunciare cohìrer – sperimentando con metalli diversi e sigillando il tubo sotto vuoto. I primi successi risalgono al 1895, quando Marconi aveva 21 anni, si trattava ancora di “telegrafia senza fili” perché il termine “radio” nasce ufficialmente solo nel 1906 nel corso di una Conferenza tenuta a Berlino. Impaziente di valorizzare le sue scoperte, Marconi, a 22 anni, fece le valigie e andò in Inghilterra con la madre irlandese. Fu accolto a braccia aperte e il resto della sua vita fu una marcia trionfale con 16 lauree honoris causa, il Nobel (diviso con il tedesco Ferdinand Braun), la presidenza del CNR e dell’Accademia d’Italia, il grado di Contrammiraglio della Regia Marina, due matrimoni, quattro figli, il panfilo Elettra, l’etichetta di marconista generalmente attribuita in Italia agli operatori4 e anche il toponimo “il Marconi” che resiste per i siti di stazioni radio dei primi decenni del ’900 in Italia e nelle ex colonie. Morì a 63 anni, ebbe funerali degni di un capo di Stato a Roma nel 1937 e tumulazione a Sasso Bolognese in un mausoleo sulla proprietà di famiglia. Il Comune dal ’38 si chiamò Sasso Marconi. Seguì l’intitolazione di strade importanti in tutte le città d’Italia, l’aeroporto di Bologna, l’Università Marconi ecc. Il primato scientifico gli fu contestato da Nikola Tesla (1856-1943), serbo naturalizzato USA, che morì scapolo, pove- Già docente dell’Università di Palermo ro e dimenticato, a 86 anni – poi però a mtschinke@alice.it
T_M
N.
4/14 ƒ 317
prima soluzione sia venuta nel 1908 da Waldemar Poulsen, un ingegnere danese che aveva già inventato un registratore magnetico a filo per audiofrequenze. Poulsen usò un arco elettrico combinato con un circuito LC, che oscillava a frequenze di pochi kilohertz (VLF). Questo segnale si poteva poi “moltiplicare” per portarlo nelle bande LF o MF. Il sistema Poulsen ebbe per breve tempo un rivale negli alternatori rotanti ad alta frequenza dello svedese Ernst Alexanderson e del canadese Reginald Fessenden, entrambi operanti negli SU, che nel Natale del 1906 trasmisero canti e musica che poterono essere ricevuti in tutta l’America del Nord. Fessenden inventò anche il liquid barretter, un rivelatore che usava una piccola quantità di acido nitrico e che segnò un progresso rispetto a quelli “a stato solido” sopra elencati. Non era ancora nata l’”amplificazione” dei segnali, ma la radio funzionava lo stesso senza “elettronica”. C’erano però le lampadine elettriche con filamento di carbonio che purtroppo si annerivano col tempo. Thomas Alva Edison già nel 1883 aveva messo un elettrodo in una lampadina sperando che acchiappasse la fuliggine e aveva misurato una corrente misteriosa che passava fra il filamento e l’elettrodo, quando questo era “positivo”. Pensò di usare questa corrente per misurare indirettamente la tensione applicata al filamento, ottenne un brevetto, uno dei mille e più a suo nome, e non ci pensò più. L’idea fu raccolta da John Ambrose Fleming, professore inglese collaboratore sia della British Edison Co., sia, in seguito, della British Marconi, che costruì un diodo e ne riconobbe le possibilità come raddrizzatore di RF. Il dispositivo si chiamò Fleming valve e il nome improprio di valvola restò attaccato per sempre, almeno in Italia, ai tubi termoionici5. Entra in campo a questo punto Lee De Forest, figlio di un pastore protestante dell’Iowa, certamente un personaggio pittoresco, un emerito lestofante secondo alcuni. Nel 1906 inventò il triodo, che lui battezzò audion, il primo dispositivo in grado di amplificare un segnale, ma, secondo i suoi detrattori, non ne capì l’importanza e nemmeno il funzio-
T_M ƒ 318
N. 04ƒ ; 2014
▲
STORIA E CURIOSITÀ
namento. Ne capì invece benissimo le potenzialità Edwin Howard Armstrong, nato e cresciuto a NY, di quasi 20 anni più giovane di De Forest, che sviluppò il ricevitore rigenerativo e poi il circuito supereterodina, che portarono la radio in tutte le case6 grazie ad accordi con la RCA di David Sarnoff, padrone anche della rete radiofonica NBC e della RCA Victor “La Voce del Padrone”. Armstrong fece anche progressi decisivi nel campo della modulazione di frequenza. L’idea non era nuova perché i trasmettitori ad arco non potevano interrompere la portante per fare i punti e le linee e li realizzavano quindi per mezzo di variazioni della frequenza. Con i tubi termoionici e i nuovi circuiti la sensibilità dei ricevitori aumentò drasticamente e fu quindi possibile ridurre la potenza e il costo dei trasmettitori. La guerra fra Armstrong e De Forest non finì mai. Armstrong divenne ricco, ma spese tutto in tribunale per difendere i suoi diritti. Si suicidò nel 1954 a 63 anni con 21 giudizi pendenti. La vedova in seguito li vinse tutti. De Forest ebbe 4 mogli e 25 compagnie a suo nome, morì non ricco nel 1961 a 88 anni. I primi tubi per ricevitori avevano le dimensioni di una lampadina a incandescenza di media potenza. Uno zoccolo con diversi spinotti che si innestavano in una basetta permetteva una facile sostituzione, la loro durata era infatti all’incirca uguale a quella delle lampadine. A seconda della loro funzione, alcuni tubi avevano anche un cappellotto alla sommità per il collegamento allo stadio precedente. Già a partire dagli anni ‘30 i tubi dei ricevitori sono stati miniaturizzati sempre più. Il numero di “piedini” è aumentato in modo da potere riunire più funzioni in un’ampolla, tipicamente erano otto o nove, si costruirono tubi “subminiatura”, alti solo due o
tre centimetri, senza zoccolo e con reofori saldabili, finché l’arrivo dei transistor alla fine degli anni ’40 segnò l’inizio del declino inarrestabile dei tubi nel campo delle telecomunicazioni. Già al tempo dei tubi sono state prodotte radioline portatili a batterie. Esse dovevano avere due batterie, una a bassa tensione, ma con potenza sufficiente per l’alimentazione dei filamenti, e un’altra da almeno 50 V per la polarizzazione degli anodi. Gli Stati Uniti nel ’41 hanno dotato le loro truppe del ricetrasmettitore SCR-536 “handie talkie” – la denominazione “walkie talkie” era allora riservata a un apparato trasportabile sulle spalle da un uomo come uno zaino – pesava 2 kg comprese le batterie e aveva una portata di circa un miglio, se tutto andava bene. Nessun altro esercito aveva qualcosa di paragonabile. Merita un posto in questa piccola rassegna Oleg Vladimirovic Losev, un radiotecnico russo che costruì circuiti simili a quelli di Armstrong e, data la penuria in Russia di tubi termoionici, realizzò ricevitori supereterodina con semiconduttori. Gli si attribuisce la scoperta del LED nel 1927. Losev morì nel 1942 durante l’assedio di Leningrado a 39 anni. Oltre alla diffusione delle radiocomunicazioni, che indubbiamente sono state uno strumento determinante dell’ascesa delle dittature del ‘9007 e anche della loro caduta, i tubi termoionici hanno reso possibili molte delle tecnologie che oggi condizionano, nel bene e nel male, la vita quotidiana: il calcolo automatico, il radar, la riproduzione sonora a fedeltà più o meno alta, la tv, l’oscilloscopio, la radiodiagnostica, la radioterapia, per citarne alcune. Alcune di queste applicazioni fanno ancora oggi uso di tubi termoionici o perchè indispensabili, come nei generatori di microonde, o per motivi “estetici”, come negli amplificatori per chitarre elettriche, dove solo i tubi riescono a ottenere l’amato “suono vintage”. Per questi è molto usato, in Italia, l’aggettivo “valvolare”, che sembra mutuato dalla cardiochirurgia. NOTE 1 Vanno da pochi Hertz, ELF, Extremely Low, a 300 GHz, Extremely High, EHF. Le
Un assortimento di tubi radio in uso dal 1960 al 1970 (foto dell’autore)
NEWS
7
In Italia le diffusioni nascono totalitarie nel 1924, con la S.A. Unione Radiofonica Italiana (U.R.I.), poi Ente Italiano per le Audizioni Radiofoniche (E.I.A.R) dal 1927. RIFERIMENTI BIBLIOGRAFICI
T.H. Lee – A Nonlinear History of Radio – 1998, Cambridge University Press. Mario F. Tschinke, classe 1929, Ingegnere, è stato Professore Ordinario di Misure Meccaniche nella Facoltà di Ingegneria di Palermo. Collocato a riposo, si occupa di storia della scienza e della tecnica, bricolage metalmeccanico e giardinaggio.
■
NEWS
versità. Lodge si occupò di sistemi di accensione per motori a scoppio e i suoi figli fondarono la fabbrica di “candele” Lodge. 4 Analogamente in Germania è stato coniato il verbo “roentgen” (ich roentge, du roentgest, er roentget) che equivale a radiografare. 5 Il termine valvola è generalmente adottato in Italia – dove il più importante produttore è stato FIVRE, Fabbrica Italiana Valvole Radio Elettriche, filiazione di Magneti Marelli, con stabilimento a Pavia – e forse anche in Portogallo. I russi chiamano il tubo “elektronnaia lampa”. 6 La prima radio per le masse fu l’”AllAmerican Five-Tuber”, attorno al 1930. Riceveva solo le Onde Medie, aveva un solo comando di sintonìa e uno per il volume con interruttore. I cinque tubi avevano filamenti dimensionati in modo da potere essere collegati in serie direttamente alla rete a 120 V, tensione adottata in tutti gli USA.
▼
comunicazioni radio e TV usano oggi le bande VHF, da 30 a 300 MHz, e UHF, da 300 a 3.000 MHz. 2 Nella lingua tedesca la radio è fortemente associata al sostantivo Funken, scintilla, dal quale è derivato il verbo funken, trasmettere, e i termini Funkapparat, Funkstation, fino al nome della rinomata Ditta Telefunken. Sulle navi americane l’operatore radio era spesso chiamato “Sparks”. 3 Poi sviluppato dal francese Edouard Branly, che lo chiamò radioconducteur e dall’inglese Sir Oliver Joseph Lodge cui si deve il nome definitivo coherer. Come Maxwell e Hertz essi avevano solide preparazioni accademiche e insegnarono in Uni-
SOLUZIONI EFFICACI DI CONTROLLO, PORTATA E REGOLAZIONE DI PROCESSO
OSCILLOSCOPI SEMPLICI ED ECONOMICI PER MANSIONI COMPLESSE
Sin dal 1984, ASIT INSTRUMENTS srl di Orbassano (TO) si pone al servizio dell’industria, con efficaci soluzioni di controllo, portata e regolazione di processo. L’esperienza acquisita in questi 30 anni ha consentito all’azienda torinese di ampliare la gamma di strumentazione trattata, attraverso una propria produzione di sensori di temperatura, come termoresistenze e termocoppie, destinati sia ai laboratori che all’industria, in regime di qualità ISO 9001:2008 e con certificazione di tipo ATEX per le aree di rischio dove è essenziale ottenere le misure di temperatura in piena sicurezza. Asit Instruments non si limita alla fornitura di strumenti di misura e controllo e della relativa assistenza, ma offre anche servizi di taratura nell’ambito della Temperatura, Umidità Relativa dell’Aria, Grandezze Elettriche e Pressione. Il laboratorio di taratura interno è accreditato da ACCREDIA (Centro LAT N° 150), in conformità alla norma UNI CEI EN ISO/IEC 17025, per la taratura dei seguenti strumenti: Temperatura; Umidità Relativa e Temperatura dell’Aria; Pressione assoluta o a mezzo gas (-1 ÷ 70 bar); Pressione relativa mezzo liquido (4 ÷ 1.400 bar); Vuoto e riferimenti di pressione assoluta (0,005 ÷ 10 bar); Grandezze elettriche in bassa frequenza. Per l’anno corrente, a conferma dei 30 anni di crescita costante, Asit Instruments ha come obiettivo l’integrazione nella propria tabella di accreditamento delle seguenti grandezze, in fase di preparazione: Taratura di Massa e Bilance – Tempo e Frequenza.
Nel settore degli oscilloscopi Economy, negli anni scorsi si è assistito a una rivoluzione che presenta un aspetto positivo e uno negativo: a parità di prezzo, l’utente si aggiudica prestazioni sempre maggiori; solitamente, però, il comando diviene più macchinoso e difficile. Teledyne LeCroy, con la sua nuova serie di oscilloscopi WaveSurfer 3000, intende conciliare questi due aspetti, in un contesto che vede l’oscilloscopio più rilevante che mai in quanto apparecchio di misura e una frenetica evoluzione dei prodotti, soprattutto nella gamma entrylevel. “Si è creata una nuova classe Premium-Economy con eccellenti caratteristiche“, conferma Patrik Kalberer, European Category Manager T&M in Distrelec. “Tuttavia, in gran parte dei casi l’interfaccia utente non è stata al passo con lo sviluppo tecnologico“. WaveSurfer 3000 offre, per la prima volta in questa classe, la consueta e collaudata interfaccia utente MAUI di LeCroy, che consente agli utenti il controllo delle molteplici funzionalità dello strumento con estrema semplicità. “Gli apparecchi di questa serie sono ideati per consentire un comando intuitivo tramite touchscreen“, continua Kalberer. “Giustamente il produttore ha quindi dotato l’oscilloscopio di uno schermo particolarmente grande, da 10.1’’, assolutamente unico in questa classe“. WaveSurfer 3000 dispone di larghezze di banda da 200 a 500 MHz, di una memoria di acquisizione di 10 Mpt/canale per una frequenza di campionamento fino a 4 GS/s. Oltre alle applicazioni tradizionali, offre un generatore di funzioni integrato, l’analisi di protocolli con decoder a bus seriale e trigger nonché l’analisi logica in configurazione a segnali misti con 16 canali digitali. L’ampio assortimento Distrelec comprende non solo gli oscilloscopi LeCroy, ma anche apparecchi di altri produttori di fascia alta come Tektronix, Agilent, Pico Technology e Fluke. Per ulteriori informazioni: www.distrelec.it
Per ulteriori informazioni: www.asitinstruments.it
T_M ƒ 319
■
STORIA E CURIOSITÀ
T U T T O _ M I S U R E Anno XVI - n. 4 - Dicembre 2014 ISSN: 2038-6974 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 - Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttori: Alfredo Cigada, Pasquale Daponte Comitato di Redazione: Filippo Attivissimo, Salvo Baglio, Marco Cati, Luciano Malgaroli, Massimo Mortarino, Rosalba Mugno, Carmelo Pollio, Lorenzo Scalise, Michela Signorini
Redazioni per: Storia: Emilio Borchi, Riccardo Nicoletti, Mario F. Tschinke Le pagine delle Associazioni Universitarie di Misuristi: Bruno Andò, Alfredo Cigada, Domenico Grimaldi Lo spazio delle altre Associazioni: Franco Docchio, Alfredo Cigada Le pagine degli IMP: Maria Pimpinella Lo spazio delle CMM: Alberto Zaffagnini, Alessandro Balsamo Comitato Scientifico: ACCREDIA (Rosalba Mugno, Alberto Musa, Michela Signorini, Paolo Soardo). ACISM-ANIMA (Roberto Cattaneo); AEI-GMTS (Claudio Narduzzi); AIPnD (Giuseppe Nardoni); AIPT (Paolo Coppa) AIS-ISA (Piergiuseppe Zani); ALATI (Paolo Giardina); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Anna Spalla),CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE (Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto); GRUPPO MISURISTI NUCLEARI (Stefano Agosteo) INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Massimo Inguscio, Paolo Vigo, Franco Pavese); ISPRA (Maria Belli); OMECO (Clemente Marelli) Videoimpaginazione e Stampa: la fotocomposizione - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/3/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, Redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 0266700 - Fax 011 5363244 E-mail: info@affidabilita.eu Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli, Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. ABBONAMENTO ANNUALE: 40 EURO (4 numeri cartacei + 4 numeri telematici) ABBONAMENTO BIENNALE: 70 EURO (8 numeri cartacei + 8 numeri telematici) Abbonamenti on-line su: www.tuttomisure.it L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO • • • •
Misure per l'energia Misure ottiche Materiali di riferimento Visione Industriale
E molto altro ancora...
ABBIAMO LETTO PER VOI
■
La Redazione di Tutto_Misure (franco.docchio@unibs.it)
We have read for you
RETE PADRONA – AMAZON, APPLE, GOOGLE & CO. IL VOLTO OSCURO DELLA RIVOLUZIONE DIGITALE Federico Rampini 269 pp. – Edizioni Fuochi-Feltrinelli (2014) ISBN: 978-88-07-07036-5 Prezzo: € 18,00
“La velocità del cambiamento digitale è stata superiore a quello che ci aspettavamo e ormai la Rete penetra in ogni angolo della nostra vita: il lavoro, il tempo libero, l’organizzazione del dibattito politico e della protesta sociale, perfino le nostre relazioni sociali e i nostri affetti. Ma la Rete padrona ha gettato la maschera. La sua realtà quotidiana è molto diversa dalle visioni degli idealisti libertari che progettavano un nuovo mondo di sapere e opportunità alla portata di tutti. I nuovi Padroni dell’Universo si chiamano Apple e Google, Facebook, Amazon e Twitter. Al loro fianco, la National Security Agency, il Grande Fratello dell’era digitale. E poi i regimi autoritari, dalla Cina alla Russia, che hanno imparato a padroneggiare a loro volta le tecnologie e ormai manipolano la natura stessa di Internet. Sia chiaro: guai a disprezzare i benefici a cui ci siamo assuefatti, nessuno di noi vorrebbe veramente tornare indietro. Ma il tecno-totalitarismo che avanza non è neutro né innocente. Con questo libro vi porto in viaggio con me nella Rete padrona. È un viaggio nel tempo, per confrontare le speranze e i progetti più generosi di un ventennio fa con le priorità reali che plasmano oggi il mondo delle tecnologie. È un viaggio nei luoghi e nei paesaggi della California dove ho vissuto a lungo, che ritrovo sempre più affascinanti, ma in preda a una feroce divaricazione sociale tra le élite digitali e il resto della società. È un viaggio tra i personaggi che hanno segnato quest’epoca, da Bill Gates a Steve Jobs, a Mark Zuckerberg, e tra tanti altri profeti e visionari meno noti, che già stanno progettando le prossime fasi dell’innovazione.”
L’autore Federico Rampini, corrispondente di “Repubblica” da New York, ha esordito come giornalista nel 1979, scrivendo per “Rinascita”. Già Vicedirettore del “Sole 24 Ore”, è stato editorialista, inviato e corrispondente a Parigi, Bruxelles, San Francisco, Pechino. Ha insegnato alle Università di Berkeley e Shanghai e al Master della Bocconi.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO AR Europe Asit Instruments Aviatronik Bocchi Cibe Crase Distrelec italia HBM IC&M Instrumentation Devices Keyence Kistler Italia
T_M ƒ N. 320 4/14 ƒ 320
3a di cop. pp. 282-319 4a di cop. p. 270 p. 288 pp. 254-296 p. 319 pp. 248-304 p. 290 p. 276 p. 241 p. 274
Labcert LTF LTTS Luchsinger Microlease-Keysight Techn. Ocean Optics Optoprim PCB Piezotronics Physik Instrumente Renishaw Rohde & Schwarz Rupac
p. 264 pp. 262-316 p. 246 pp. 268-296 p. 242 pp. 280-286 pp. 286-296 p. 284 pp. 274-300 p. 244 pp. 256-274 2a di cop.
COPER TM 4-2014a:COPER TM 4-2014.qxd 25/11/14 15:51 Pagina 2
COPER TM 4-2014a:COPER TM 4-2014.qxd 25/11/14 15:51 Pagina 1
TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
ANNO XVI N. 04 ƒ 2 014 AFFIDABILITÀ & TECNOLOGIA
GRUPPO MISURE ELETTRICHE ED ELETTRONICHE
EDITORIALE Xxxxx
ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO / Torino - nr 4 - Anno 16 - Dicembre 2014 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi
TUTTO_MISURE - ANNO 16, N. 04 - 2014
IL TEMA: Misure riferibili: strumento competitivo per le imprese
GLI ALTRI TEMI Quando l’incertezza genera certezza Navigazione Indoor e AAL Misura di alte correnti impulsive Stato emozionale: nuovo misurando? Monitoraggio di edifici con raggi cosmici Misure su condotte quadrate
ALTRI ARGOMENTI La 17025 - Audit parte III Gli inizi delle trasmissioni senza fili