7:46
Pagina 1
TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
ANNO XV N. 04 ƒ 2 013
GRUPPO MISURE ELETTRICHE ED ELETTRONICHE
EDITORIALE Buone feste (compatibilmente)!
IL TEMA: IL FUTURO DELLE MISURE Intervista ai Presidenti GMEE e GMMT ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO / Torino - nr 4 - Anno 15 - Dicembre 2013 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi
29-11-2013
TUTTO_MISURE - ANNO 15, N. 04 - 2013
COPER TM 4-2013
ALTRI TEMI Vibrometri Laser Metrologia fondamentale: Incertezza di misura - parte 2 Progetto MisuraInternet - parte 1
ARGOMENTI Metrologia forense in Italia Compatibilità elettromagnetica La norma 17025: Non conformità - parte IX
AFFIDABILITÀ & TECNOLOGIA
TUTTO_MISURE
ANNO XV N. 04 ƒ 2013
IN QUESTO NUMERO Strumentazione laser per la misura delle vibrazioni con tecniche di retro iniezione Laser instruments for vibration measurements M. Benedetti, G. Capelli, M. Norgia, G. Giuliani
263 Progetto MisuraInternet: indicatori di qualità e architettura del sistema di misura The “MisuraInternet” Project: quality Indicators and measurement system architecture L. Angrisani, F. Flaviano
267 Dalla conformità all’efficacia: parte 6 – Assicurazione qualità dei dati Data quality assurance T. Miccoli
287 La metrologia delle radiazioni ionizzanti nella radioterapia molecolare Metrology of ionizinzg radiations in molecular radiation therapy M. D’Arienzo, M. Capogni, P. De Felice
305
Editoriale: Buone feste (compatibilmente)! (F. Docchio) 245 Comunicazioni, Ricerca e Sviluppo, dagli Enti e dalle Imprese Notizie nel campo delle misure e della strumentazione 251 Il tema: Presente e futuro delle misure in Italia Intervista ai nuovi Presidenti dei Gruppi Universitari 255 di Misure: GMME e GMMT (a cura della Redazione) Gli altri temi: Misure Ottiche Strumentazione laser per la misura delle vibrazioni 263 (M. Benedetti, G. Capelli, M. Norgia, G. Giuliani) Gli altri temi: Misure per le Telecomunicazioni Progetto MisuraInternet: indicatori di qualità e architettura 267 del sistema di misura (L. Angrisani, F. Flaviano) Gli altri temi: Metrologia fondamentale Incertezza di misura: teoria coerente o edificio da ricostruire? Parte 2: due approcci rivali (N. Giaquinto) 271 Campi e compatibilità elettromagnetica Strumentazione di base nelle misure di CEM: Modello del Circuito Equivalente del Generatore di Impulsi Combinato 1,2/50 – 8/20 µs secondo la futura norma IEC 61000-4-5 ed. 3 (C. Carobbi, A. Bonci, M. Cati) 277 I Seriali di T_M: Misure e Fidatezza Tecniche di analisi della fidatezza: FMEA Failure Modes and Effects Analysis (M. Catelani, L. Cristaldi, M. Lazzaroni) 281 I Seriali di T_M: Conformità ed Efficacia Dalla conformità all’efficacia: Parte 6 Assicurazione qualità dei dati (T. Miccoli) 287 Le Rubriche di T_M: Lettere al Direttore La Misura del consumo di suolo in Italia: ovvero “La misura dell’autolesionismo”...? (a cura di F. Docchio) 293 Le Rubriche di T_M: Metrologia legale La Metrologia Forense in Italia (V. Scotti) 295 La realizzazione del Mercato Unico (M.C. Sestini) 297 Spazio Associazioni Universitarie di Misuristi Dalle Associazioni Universitarie di Misuristi 299 Spazio delle altre Associazioni Notizie dalle altre Associazioni 303 Lo Spazio degli IMP La metrologia delle radiazioni ionizzanti nella radioterapia molecolare (M. D’Arienzo, M. Capogni, P. De Felice) 305 Manifestazioni, eventi e formazione 2014: eventi in breve 309 Commenti alle norme: la 17025 Non conformità, azioni correttive, azioni preventive, reclami e miglioramento – Parte nona (N. Dell’Arena) 311 Storia e curiosità Segnali pneumatici nella metrologia: il TUBO, grande incompreso (M.F. Tschinke) 313 Misurazioni “particolari”: tartarughe, laser show 317 e windsurf... (a cura della Redazione) Abbiamo letto per voi 240 News 261-280-284-286-291-294-302-308310-312-315-316-319
T_M
N.
4/13 ƒ 243
NEL MENABÒ HAI SCRITTO NUOVA CORRETTA - DOV É
Franco Docchio
EDITORIALE
■
Buone feste (compatibilmente)!
Happy holidays (if possibile)! Cari lettori! Sono in treno sulla linea Roma-Brescia, di ritorno dalla sede centrale del CNR dove, con i maggiori rappresentanti della Fotonica Italiana, abbiamo dato il via alla costituzione di una Piattaforma Italiana della Fotonica, che rispecchi la Piattaforma Europea Photonics21 per un accesso più accreditato, strutturato e organizzato alle “call” di Horizon 2020. Stiamo cercando di rimediare all’ormai tradizionale abitudine, tutta italiana, di giocare divisi su tutti i tavoli, perdendo sistematicamente la partita rispetto ai Paesi più agguerriti e coesi (e non stiamo parlando della solita Germania: oggi ci si mettono anche i Paesi più piccoli, e anche quelli di più recente annessione alla UE). Tutto ciò in un assordante silenzio dei nostri Ministeri (MIUR, MISE), che non appoggiano le iniziative di ricercatori e imprese con la loro presenza in Europa. Richiamo alla vostra attenzione questa iniziativa perché la vedo (fortunatamente) controcorrente, in un’epoca in cui in Italia sembra proprio che nessuno riesca a stare insieme a nessun altro: partiti che si scindono, movimenti nuovi e minuscoli che si creano, diaspore, in una frammentazione drammatica da tutti contro tutti. Eppure non tutto va male, almeno sul fronte delle imprese se non su quello politico: nei giorni scorsi ero in visita a un’impresa storica di Lumezzane, fornitrice di componenti automotive per tutti i major players italiani ed europei, e i miei interlocutori mi dicevano che la produzione va a gonfie vele, con ordinativi fino al 2020 (tranne qualche “piccola” difficoltà a essere pagati dai clienti italiani…), e che stavano aumentando le isole di lavoro per far fronte alle esigenze di produzione. Ho collegato questa esperienza a quanto mi diceva oggi il più grosso produttore italiano di strumenti e sistemi laser: “Questo non è un periodo di crisi… è un periodo di riassesta-
mento: se sei in grado di cogliere il cambiamento e di adeguarti a esso (e in fretta), riparti, altrimenti sei perduto. Non ha senso stare a guardare aspettando che il peggio sia passato”. Questo numero “prenatalizio” ha come tema una chiacchierata con i neopresidenti dei due maggiori gruppi di ricercatori nel settore delle misure, i colleghi Dario Petri e Michele Gasparetto. È un’occasione per toccare tutti i principali temi d’interesse per Università e Imprese: il futuro della Ricerca, le luci e ombre della sua valutazione, il ruolo dei Dottorati di ricerca e gli sbocchi dei suoi studenti nelle imprese, lo “sfinimento” dei nostri colleghi di ogni età, costretti a occuparsi valutazioni di corsi di studio e qualità di didattica e ricerca (compiti sacrosanti, per carità, ma in assenza di personale adeguato a supporto…). Buona lettura e… mi interessano i vostri commenti: se ne avete, lo spazio delle lettere al Direttore è a vostra disposizione! Oppure scrivetemi una mail! Si stanno scaldando i motori per la prossima edizione di Affidabilità & Tecnologie, di cui trovate un’ampia anticipazione nelle prime pagine del numero. Aprile è alle porte, e le innovazioni promesse dagli organizzatori dell’evento sono significative. Il numero 1/2014 vi aspetterà all’ingresso della manifestazione! Con gennaio inizierà il mio quinto anno di direzione: sembra ieri che ho cominciato ed è già quasi un lustro. Spero che anche l’anno prossimo vi avrò come compagni di viaggio: ancora una volta esprimo il mio desiderio di avere riscontri da voi, su come migliorare la rivista e renderla più gradevole e degna di essere letta. Scrivete a me o all’editore: faremo tesoro dei vostri suggerimenti e delle vostre critiche. E, soprattutto, anche per quest’anno un fervido augurio di serene festività (compatibilmente con le difficoltà, i dubbi e le incertezze di questi tempi) da parte della Proprietà, dell’Editore, e mia personale. Franco Docchio
T_M
N.
4/13 ƒ 245
La manifestazione specialistica n° 1 in Italia: Soluzioni Innovative o non Convenzionali concretamente applicabili per la crescita aziendale I protagonisti dell’Innovazione Competitiva in ambito manifatturiero si danno appuntamento all’ottava edizione di AFFIDABILITÀ & TECNOLOGIE (Torino, 16/17 aprile 2014)
3 aree specialistiche
■ ■ ■
Progettazione Produzione Testing e Metrologia
5 zone speciali Z1: Testing - Banchi prova - Acquisizione dati - Sensori Z2: Metrologia - Prove di laboratorio - Caratterizzazione materiali - Taratura Z3: Robot - Visione artificiale - Tracciabilità - Controlli in produzione - Manutenzione Z4: Lavorazioni materiali speciali - Trattamenti speciali Z5: Simulazione - Fabbricazione additiva - CAD/CAM/CAE - Analisi e calcoli
Tecfo® Tecnologie Fotoniche, Sensori e Sorgenti laser Seconda edizione 16-17 aprile 2014, evento collegato con A&T 2014 Dopo il successo della scorsa edizione 2013, TecFo cresce ulteriormente e dedica ampio spazio alle tecnologie fotoniche, sempre più utilizzate nell’industria e nella ricerca per affrontare le attuali sfide tecnologiche. Tra le novità da segnalare, è prevista una forte crescita espositiva di sensori ottici e componentistica, soluzioni e tecnologie di image processing, sorgenti laser. Un focus di particolare attenzione sarà dedicato alle micro lavorazioni e alle saldature speciali, applicazioni funzionali a risolvere le sfide tecnologiche delle filiere industriali automotive, elettronica, aerospazio, robotica, e non solo.
T_M ƒ 247
Le sfide tecnologiche di A&T 2014 www.affidabilita.eu
Filippo Trifiletti, direttore generale
ACCREDIA: I servizi di Certificazione, Prova, Taratura sono strumenti sempre più fondamentali nel percorso di sviluppo di ogni azienda proiettata verso l’Innovazione Competitiva. Accredia parteciperà alla prossima edizione di A&T in modo ancora più attivo rispetto alle precedenti edizioni, che anno dopo anno hanno visto la crescita della manifestazione e, nello stesso tempo, il consolidamento della presenza dell’Ente quale partner organizzativo nell’ambito delle specifiche tematiche d’interesse: stiamo preparando sia un grande convegno sul “valore dei servizi di certificazione per le imprese innovative” e un importante programma di eventi dedicati alla taratura strumenti e alla caratterizzazione dei materiali, sia una postazione espositiva in grado di offrire non soltanto informazioni, bensì un vero e proprio “sportello” nel quale autorevoli esperti saranno a disposizione dei visitatori interessati a sottoporre specifici quesiti inerenti ai temi citati.
HBM ITALIA: La prossima edizione ci vedrà presenti con molte novità, tra le quali hardware e software di acquisizione e gestione dati, le soluzioni nCode di virtual testing, le nostre tecnologie di analisi sperimentale delle sollecitazioni e l’ampia gamma di estensimetri, da quelli tradizionali a quelli in fibra ottica di ultima generazione. Nel controllo dei processi produttivi, ambito nel quale siamo leader mondiali, proporremo soluzioni tecnologiche che garantiscono zero difetti, miglioramento dell’efficienza di produzione, alta qualità e tempi di passaggio ridotti, prove di qualità al 100% senza incrementare il tempo del ciclo di produzione. Esporremo, ad esempio, la catena di misura completa per monitorare macchinari di vario tipo e in diverse applicazioni, così come innovative soluzioni per la misurazione della coppia torcente, grandezza di misura particolarmente importante (ad esempio, nei banchi prova automobilistici, nelle costruzioni navali, nell’industria dell’energia eolica e nel controllo dei processi industriali) e, infine, le soluzioni eDrive per le prove, per il miglioramento del rendimento dei veicoli a trazione elettrica.
T_M ƒ 248
HEXAGON METROLOGY: La società, appartenente al gruppo Hexagon, presenterà ad A&T 2014 le più recenti innovative soluzioni di misura, frutto di un tradizionale impegno nell’ambito di importanti progetti di ricerca, dedicati principalmente ai settori automobilistico e aeronautico, volti a integrare sensori di misura di elevata efficienza e precisione su robot industriali tradizionalmente utilizzati per operazioni di assemblaggio e manipolazione. I metodi e le tecnologie sviluppate per il rilievo dimensionale sono tali da ovviare alla naturale incompatibilità alle operazioni di misura dei robot industriali, causata dalla loro insufficiente accuratezza di posizionamento e movimentazione. I sensori utilizzati, principalmente scanner laser ad alta velocità di acquisizione e sistemi fotogrammetrici a luce bianca, consentono il rilievo di grandissime quantità di punti in tempi estremamente brevi e l’immediata verifica rispetto al modello matematico del pezzo.
KISTLER ITALIA: Partecipiamo ad A&T sin dalla prima edizione, l’abbiamo vista crescere costantemente nel tempo e ci fa piacere che questa manifestazione sia diventata l’evento di riferimento in Italia, sia per i fornitori sia per i fruitori di strumentazioni e tecnologie dedicate al Testing. Le novità proposte con entusiasmo dagli organizzatori, (che hanno scelto di utilizzare un nuovo padiglione, più grande del 50% rispetto alla scorsa edizione e con 5 Zone Speciali) ci hanno positivamente impressionato e quindi abbiamo optato per una postazione centrale, situata nella Zona Speciale dedicata al Testing, zona dove presumibilmente si collocheranno anche altre Società leader del settore. Porteremo in fiera le nostre più innovative tecnologie e strumentazioni, confermando la nostra posizione di leader nei sistemi piezoelettrici e nei
Le sfide tecnologiche di A&T 2014 www.affidabilita.eu
sistemi di misura dinamica, prestando come sempre grande attenzione alle esigenze dei clienti più esigenti (automotive, aerospazio, meccatronica, stampaggio plastica). KEYENCE: La caratterizzazione dei materiali e delle prove è sempre più strategica nel contesto del processo produttivo e rappresenterà uno dei focus principali di A&T 2014. Un progetto di cui Centro Ricerche Fiat/Group Materials Labs vuole essere parte attiva, non solo portando il contributo della propria innovativa esperienza in quest’ambito specifico ma anche con un coinvolgimento diretto nel comunicare efficacemente i dettagli dell’iniziativa durante tutto il suo sviluppo organizzativo, in modo da favorire l’aggregazione di tutti i possibili interlocutori e consentire loro di conoscere le opportunità di fare network e di crescere. Credendo fortemente nella validità di una piattaforma in cui contenuti innovativi vengano sviluppati, promossi, confrontati e trasferiti, valorizzando le caratteristiche di distintività e competitività delle eccellenze italiane.
Grande successo per il Main Partners’ Board, il network di Affidabilità & Tecnologie Il MPB è il network portante della manifestazione, demandato a orientarne la struttura in funzione dei reali bisogni dell’utenza e a collaborare direttamente al continuo miglioramento contenutistico attraverso la proposta di testimonianze, risultati di progetti di ricerca, innovazioni tecnologiche e metodologiche, nuovi programmi strategici di sviluppo, ecc. Obiettivo del MPB: promuovere la cultura dell’Innovazione e il trasferimento tecnologico presso l’industria italiana e nel contempo creare sinergie tra gli stessi membri del Board. Criteri di appartenenza: primarie aziende che investono in R&D (ad esempio: appartenenti a Cluster Tecnologici Nazionali, Poli dell’Innovazione, ecc.), Centri di Ricerca e Università, primari produttori di tecnologie e sistemi innovativi.
Daniele Bisi, Group Material Labs, Lab NDT CENTRO RICERCHE FIAT
CENTRO RICERCHE FIAT: La caratterizzazione dei materiali e delle prove è sempre più strategica nel contesto del processo produttivo e rappresenterà uno dei focus principali di A&T 2014. Un progetto di cui Centro Ricerche Fiat/Group Materials Labs vuole essere parte attiva, non solo portando il contributo della propria innovativa esperienza in quest’ambito specifico ma anche con un coinvolgimento diretto nel comunicare efficacemente i dettagli dell’iniziativa durante tutto il suo sviluppo organizzativo, in modo da favorire l’aggregazione di tutti i possibili interlocutori e consentire loro di conoscere le opportunità di fare network e di crescere. Credendo fortemente nella validità di una piattaforma in cui contenuti innovativi vengano sviluppati, promossi, confrontati e trasferiti, valorizzando le caratteristiche di distintività e competitività delle eccellenze italiane.
A&Tnews: l’house-organ di Affidabilità & Tecnologie È il principale strumento informativo sulle attività della Manifestazione, dal progetto iniziale fino alla sua realizzazione finale, e ospita articoli e interviste ai Membri del MPB, ai relatori dei convegni, alle società espositrici fornitrici di tecnologie, servizi o strumenti. Attraverso una distribuzione mensile massiva e mirata, che impiega vari importanti strumenti, il magazine è un appuntamento periodico di rilevanza strategica inter-istituzionale (imprese, università, enti di ricerca, istituzioni) e valenza inter-disciplinare, finalizzato a favorire l’integrazione fra industria, ricerca, formazione, innovazione. Decisori aziendali, operatori industriali e ricercatori saranno costantemente informati sui contenuti della manifestazione fieristica A&T 2014, sulle novità presentate dalle Aziende, sui nuovi progetti di Ricerca. Per ricevere gratuitamente il magazine nella vostra casella di posta elettronica, basta inviare richiesta a: info@affidabilita.eu
T_M ƒ 249
COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it)
Notizie nel campo delle misure e della strumentazione dell’Università degli Studi di Perugia e dell’Università di Oulu (Finlandia), è stato sponsorizzato dalla IEEE Sezione Italia, dalla IEEE Instrumentation & Measurement Society, dai Chapter Italiani della IEEE I&M Society e del IEEE Systems Council, e naturalmente dalle due Università. L’obiettivo del workshop è stato quello di riunire scienziati di livello internazionale, che, confrontandosi, hanno discusso lo stato dell’arte dei TDC in tutti gli aspetti che vanno da quello realizzativo a quello di modellizzazione numerico-matematica. Il convegno, presieduto dal Prof. Paolo Carbone dell’Università degli Studi di Perugia e dal Prof. Timo Erkki Rahkonen dell’Università di Oulu (Finlandia) si è rivelato un buon momento d’incontro per i partecipanti, consentendo un proficuo scambio d’idee e la presentazione di risultati scientifici innovativi sulle architetture dei TDC e le relative applicazioni.
NEWS IN MEASUREMENT AND INSTRUMENTATION This section contains an overview of the most significant news from Italian R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels. RIASSUNTO L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, Start-up, dei Gruppi di R&S Italiani nel campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati possono costituire stimolo per attività di Trasferimento Tecnologico. CONVEGNI DI MISURE E METROLOGIA
energie, si è rivelata un fattore abilitante per varie applicazioni commerciali, scientifiche e industriali, anche Il Nordic Mediterranean Work- in virtù della comparsa sul mercato di shop (IEEE NoMe TDC 2013) sui chip TDC integrati dal costo contenuconvertitori Tempo-Digitali to. I campi di utilizzo dei TDC incluGuido De Angelis, Alessio De Angelis, dono ad esempio, oltre alla fisica Antonio Moschitta e Paolo Carbone, delle alte energie, i sistemi di posizioUniversità degli Studi di Perugia, Di- namento, di monitoraggio ambientapartimento di Ingegneria Elettronica e le, e di elaborazione delle immagini, dell’Informazione con applicazioni anche in ambito biomedicale e automotive. Tale contesto ha stimolato negli ultimi anni una crescente attività di ricerca, testimoniata dal grafico di Fig. 1, incentrata sullo sviluppo di nuove architetture efficienti, in grado di garantire prestazioni metrologiche elevate contenendo al Figura 1 – Articoli pubblicati sui convertitori tempo stesso l’utilizzo tempo-digitali dal 1969 a oggi (fonte: database di area del chip. Scopus, chiave di ricerca: “time-to-digital”) Il Workshop IEEE NoMe TDC 2013 Il convertitore tempo-digitale (Time to (IEEE International Nordic-MediterraDigital Converter, TDC) è un dispositi- nean Workshop on Time-to-Digital vo in grado di fornire la rappresenta- Converters), tenutosi a Perugia il 3 zione numerica della durata di un in- ottobre 2013, è il primo evento intetervallo, delimitato da due eventi. Tale ramente centrato sul tema della concapacità, sviluppata originariamente versione tempo-digitale. L’evento, coper applicazioni di fisica delle alte organizzato da due gruppi di ricerca
I partecipanti al IEEE NoMe TDC 2013!
T_M
Il programma del workshop è stato organizzato in tre sezioni, rispettivamente dedicate alla progettazione, alle applicazioni, e alle attività di modellazione e caratterizzazione dei TDC. Le attività di misurazione, pur al mo-
N.
4/13 ƒ 251
N. 04ƒ ; 2013
▲
COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE
mento non standardizzate, si sono rivelate un tema di notevole importanza. È emersa infatti una rilevante attività sperimentale, volta a validare le architetture proposte e realizzate, estrinsecata in diverse procedure di misura. In particolare, sono stati presentati approcci orientati alla valutazione della accuratezza, dei consumi energetici, della frequenza di misurazione, e dell’efficienza nell’utilizzo dell’area a disposizione. Ulteriori informazioni sono reperibili nel sito internet del workshop, all’indirizzo http://www. nometdc2013.unipg.it/.
Abbiamo più volte evidenziato quanto, per la sicurezza in auto, la corretta pressione di gonfiaggio degli pneumatici rappresenti un fattore fondamentale. A volte però verificarne il valore non basta, in quanto gli strumenti potrebbero fornire un valore erroneo se tarati male. E purtroppo questa è una grande realtà nelle aree di servizio pubbliche.
esaminate, i manometri sono o non funzionanti o completamente indisponibili, mentre in 10 punti sono stati trovati sotto chiave. In 3 aree di servizio è necessario pagare un euro per effettuare il controllo della pressione dei pneumatici, e addirittura nella Capitale, in viale Marconi, per effettuare la stessa operazione vengono richiesti due euro. (Fonte: SicurAUTO.it) ENTI E ISTITUZIONI
I.N.Ri.M. – Premio Impact di EURAMET ad Andrea Merlone DALLE IMPRESE
Antares Vision di Brescia: importante riconoscimento La Società Antares Vision srl di Brescia, degli Ingg. Bonardi e Zorzella, è stata selezionata per rappresentare l’Italia come Campione Nazionale nel prestigioso “Innovation Awards programme” di Business Awards Europe. Antares Vision ha sbaragliato una agguerrita concorrenza ed è stata selezionata come uno dei 50 Campioni Nazionali. Concorrerà ora per lo status di Ruban d’Honneur nella fase finale della competizione. I vincitori saranno proclamati nell’Aprile 2014. Antares Vision srl (ex Semtec srl) è la prima società di Startup del Laboratorio di Optoelettronica dell’Università di Brescia, e produce sistemi sofisticati di visione industriale per applicazioni al mondo dell’ispezione farmaceutica e agroalimentare. www.antaresvision.com SicurAUTO – Pressione dei pneumatici: 9 manometri su 10 segnano il valore sbagliato Nove stazioni di servizio su dieci in Italia sono dotate di manometri tarati male. A rilevarlo è stata un’indagine condotta da SicurAUTO che ha esaminato 298 stazioni di servizio.
T_M ƒ 252
Nove manometri su dieci nelle stazioni urbane, extraurbane e autostradali italiane non funzionano, o presentano comunque un grande margine di errore. È quanto ha fatto emergere un’indagine condotta da SicurAUTO.it e dall’Automobile Club d’Italia in collaborazione con Goodyear-Dunlop Italia e Wonder spa sui manometri utilizzati per misurare la pressioni degli pneumatici. Su un totale di 298 dispositivi esaminati – nell’arco di 3.051 chilometri di viaggio – è emerso che il 39% di questi lascia gli pneumatici sgonfi pur indicando una pressione conforme a quella indicata sul libretto di manutenzione dell’auto, mentre il 36% li gonfia più del dovuto. Solo il 10% del campione esaminato è preciso e affidabile. La maggior concentrazione di dispositivi tarati male si registra al Centro Italia (86,5%) e al Sud (75,8%). In Campania è stato trovato un manometro il cui errore di misurazione è stato pari a –1,95 bar, mentre nel Lazio un altro è stato trovato in errore pari di +1,2 bar e la scorretta taratura media italiana è invece risultata essere pari a 0,3 bar. L’indagine congiunta di SicurAUTO.it e dell’ACI, in collaborazione con Goodyear-Dunlop Italia e Wonder spa, ha inoltre messo in evidenza anche altre assurdità: in 47 stazioni di servizio, ovvero il 16% di quelle
Andrea Merlone, Coordinatore del Progetto di Ricerca Congiunto of EMRP Joint Research Project “Metrology for pressure, temperature, humidity and airspeed in the atmosphere” (MeteoMet), nonché Ricercatore Senior all’I.N.Ri.M., è risultato vincitore del Premio Impact dell’EURAMET per il 2013. Dal sito EURAMET: “… Metrologia e meteorologia sono due termini spesso confusi. Il primo riguarda la scienza delle misure, il secondo lo studio dell’atmosfera. Il Progetto MeteoMet riunisce oggi queste due discipline per fornire misure più accurate di temperatura, pressione, umidità e velocità dell’aria, che sono vitali per la migliore comprensione del tempo e del clima terrestri”. Joörn Stenger, Vice Presidente EURAMET (EMRP), ha così spiegato l’attribuzione del premio: “Fin dall’inizio Andrea ha integrato competenze da tutta Europa, e le ha combinate con stakeholders chiave, quali la World Meteorological Organization (WMO). Ha compiuto un significativo passo nell’aumentare il valore aggiunto e un’accresciuta visibilità mediante la
N. 04ƒ ;2013 ACCREDIA
È stato pubblicato il materiale didattico presentato in occasione degli incontri annuali di ACCREDIA con i Laboratori di prova accreditati, che si sono svolti a Verona e a Roma nel mese di ottobre 2013. www.accredia.it/extsearch_ press.jsp?area=6&ID_LINK= 100&page=88&IDCTX=3908&id_ context=3908 Nuovo gruppo di Discussione “Tutto_Misure” su LinkedIn Facendo seguito a iniziative divulgative quali la Pagina Facebook di T_M, nei giorni scorsi è stato aperto il
nuovo Gruppo di Discussione LinkedIn “Tutto_Misure”. Il Gruppo offre a tutti i partecipanti al Network sociale professionale LinkedIn un’occasione per discutere su questioni che riguardano Misure, Università, Imprese, Trasferimento Tecnologico, e tanti altri argomenti. Contribuite! Storia e formazione nelle misure – Riapre il laboratorio di scienze della Scuola di Cossignano (AP). Vecchi strumenti che tornano a dare valore a giovani generazioni di aspiranti scienziati! Riceviamo dal collaboratore e simpatizzante GMEE Oronzo Mauro: Le scuole di Cossignano (AP) vantano una lunga storia radicata al primo quarto del ’900, come testimoniato dai registri scolastici datati a partire dal 1924 custoditi presso l’archivio storico dell’Istituto Comprensivo Statale di Ripatransone. La scuola, nel corso degli ultimi anni, a seguito del calo demografico e delle necessità di sinergie tra piccole scuole, ha perso la scuola secondaria, migrata presso l’ISC di Ripatransone. A prescindere dagli accadimenti certe volte inesorabili, il corpo docente e la scuola di Cossignano presentano sempre uno spiccato interesse verso la scienza e la tecnologia come testimoniato dai vari cartelloni didattici ove sono relazionate le attività fatte in
▲
ricerca metrologica congiunta, sotto l’EMRP. Ciò, unitamente al suo entusiasmo personale, è veramente degno di nota”. Leggi il documento esteso su: www.inrim.it/events/docs/ 2013/EURAMET_NL_08_JUL_ 2013_web.pdf A nome della Redazione, ci complimentiamo con il Dott. Merlone, collaboratore della nostra Rivista, per l’importante premio ricevuto!
COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE
occasione di eventi divulgativi provinciali a carattere scientifico. In virtù di questa positiva inclinazione, nel corso del mese di ottobre del 2013 è stato restaurato il laboratorio di Scienze della scuola. Il curatore del restauro è l’Ing. Oronzo Mauro, esperto di didattica scientifica e membro di numerosi società scientifiche volte al recupero del patrimonio scientifico e tecnologico. È stato cruciale il contributo apportato dalla dirigente, Prof.ssa Laura D’Ignazi e dal locale personale docente e non docente della Scuola di Cossignano. Il programma di rinnovamento del laboratorio di Scienze ha trascinato positivamente una rivisitazione del laboratorio multimediale, della biblioteca e della sala d’informatica. Al momento, il disegno degli spazi è molto più consistente e funzionale. L’amministrazione comunale di Cossignano ha fornito un valido contributo operativo. Il laboratorio della Scuola primaria di Cossignano, all’origine basato sulla dotazione “il Piccolo Leonardo” della Paravia risalente agli anni ’60, nel suo piccolo, viste le notevoli dispersioni di materiali avvenute negli anni, rappresenta uno strumento molto potente per i docenti. Gli ambiti coperti nel laboratorio permettono al ragazzo di esplorare una vasta serie di aspetti delle scienze sperimentali. Un microscopio ZIEL semiprofessionale permette osservazioni di grande efficacia, una bella
T_M ƒ 253
N. 04ƒ ; 2013 raccolta di conchiglie provenienti da diversi siti stimola lo scolaro più giovani verso le varietà dell’ecosistema marino, di contro una bella e vasta raccolta di fossili provenienti da Smerillo completa la sezione malacologica anche con aspetti legati agli ecosistemi più antichi. Piccoli assaggi di fisica nelle sezioni di ottica, meccanica, elettrostatica, pressione atmosferica e termologia fanno apprezzare al giovane studente le meraviglie di una disciplina che non tarderà a regalare forti soddisfazioni con studi superiori successivi alle esperienze della primaria. Il fascino della chimica è trasmesso grazie a una piccola serie di vetrerie, elementi chimici, pila a tazze di Volta e un apparato per la galvanostegia. Una piccola sezione, al momento costituita da un computer e un vecchio telefono, vuole essere una sorta di “come è fatto”; infatti, le macchine, che appaiano solitamente come scatole chiuse, sono completamente smembrate così da apprezzare bene la complessità che si cela al loro interno. Non viene tralasciato lo studio del corpo umano grazie alla presenza di un bel torso corredato di organi smontabili; un modello di orecchio permette di esplorare la magia e la complessità dell’organo dell’udito. Non dimentichiamo che la Scuola primaria deve dare contezza del sistema metrico decimale introdotto in Italia a seguito dell’Unità d’Italia nel 1861; in tal senso il laboratorio offre una bella bilancia Rosenthal, pesi metrici, capacità di vario genere, cubo campione. Il curriculum scolastico, inoltre, prevede la dimestichezza con i solidi generici che non mancano nel laboratorio; infatti ci sono solidi per lo studio delle capacità equivalenti, solidi scomponibili e solidi di rotazione. Il laboratorio di Scienze della Scuola di Cossignano è un piccolo gioiellino che incuriosisce l’adulto e il bambino. Permette al docente di plasmare il curriculum dello studente anche grazie al benefico contributo offerto dalle attività sperimentali. Il laboratorio è parte della Science MuseoLAB network, ossia la rete, al momento basata su Ripatransone, Montefiore dell’Aso e Porto San Giorgio, grazie alla quale si vuole realizzare un’efficace sinergia tra le scuole nell’insegnamento delle scienze sperimentali. Il Science MuseoLAB opera attraverso il restauro dei laboratori come piattaforme abilitanti i docenti nel costruire moduli formativi specifici e rilevanti per il curriculum scolastico. Come visitare il laboratorio: • Scuola Primaria Cossignano, via Via Gaetano Passali, 63030 Cossignano AP • Dalle 9.00 alle 12.00, previo appuntamento via appuntamento telefonico (0735/98138) o via mail apic804003@istruzione.it
T_M ƒ 254
▲
PRESENTE E FUTURO DELLE MISURE IN ITALIA
IL TEMA
a cura della Redazione (franco.docchio@ing.unibs.it)
Intervista ai nuovi Presidenti dei Gruppi Universitari di Misure: GMEE e GMMT Il punto sulla diffusione della Cultura delle Misure
scopo di riunire ricercatori e appassionati di misure in un confronto culturale, assai diverso da quello dei congressi, in cui vengono invitate persone che possano svolgere e proporre temi originali aventi sullo sfondo una matrice comune che è proprio quella delle misure: vi sono stati interventi di filosofi, medici, tecnici di settori anche ben lontani dall’ingegneria. Alcuni anni fa il Gruppo Misure EletRIASSUNTO triche ed Elettroniche ha deciso di GMEE e GMMT sono due aggregazioni che raggruppano scienziati e ricer- dotarsi di una propria veste legale (i catori nei settori delle Misure Elettriche ed Elettroniche, e meccaniche e Termi- SSD sono, di per sé, mere aggregache, rispettivamente. I due Gruppi hanno recentemente eletto i loro Presidenti zioni d’individui), che permettesse di per il prossimo triennio. In questo articolo il Vostro Direttore intervista entrambi fare “massa critica” verso l’esterno, e i Presidenti, nello sforzo di aumentare la visibilità dei due Gruppi tra i lettori organizzare in modo più incisivo della Rivista, e di mettere in luce gli aspetti più significativi della promozione eventi come il proprio Convegno Andelle misure nei contesti scientifico, industriale e sociale. nuale, la Scuola di Dottorato Italo Gorini, l’erogazione di premi, borse INTRODUZIONE t’è che, in un intervento al Convegno di studio per l’estero, ecc. È nata così di Genova due anni orsono, prenden- l’Associazione GMEE, l’attuale proI Docenti e i Ricercatori Universitari, in do a prestito il nome di un noto grup- prietaria della testata della Rivista Italia, sono incardinati in quelli che po musicale, ho chiamato i sono comunemente chiamati “Settori due Gruppi “I Gemelli DiverScientifico-Disciplinari” (SSD): a loro si”. Le differenze, e le aree di volta i SSD afferiscono ad “Aree” (l’e- sovrapposizione tra i due sempio che ci interessa qui è l’Area Gruppi, sono evidenti nella 09, o Area dell’Ingegneria Industria- pubblicazione “I misuristi Unile). I SSD che, nell’Area 09, massima- versitari Italiani”, che trovate mente rappresentano le Misure in Ita- all’indirizzo web: www. lia sono: il GMEE (Gruppo Misure f r a n c o d o c c h i o . c o m / Elettriche ed Elettroniche, in codice Documenti/Attivita_GMEE_ ING-INF/07) e il GMMT (Gruppo GMMT.pdf. Misure Meccaniche e Termiche, È da notare che l’esistenza di ING-IND/12). In generale, fa piacere gruppi di scienziati e ricercapensare che il primo rappresenti tori che si occupano prevalenl’”anima elettrica-elettronica” delle temente (e dichiaratamente) di misure, il secondo l’anima “meccani- misure è un aspetto tipicamenco-termica”. I Gruppi svolgono attività te italiano, di cui non si trova complementari, ma con forti elementi riscontro in altre comunità in comune che pertengono alla metro- scientifiche. E, per promuovere logia fondamentale, alla cultura e alla la cultura delle misure, i due formazione nel campo delle misure e gruppi hanno sempre collabodelle loro applicazioni, oltreché a rato, portando avanti da anni diverse applicazioni “interdisciplina- un evento significativo che ri” e trasversali, in cui entrambi i grup- prende il nome di “Giornata pi sono attivi (per fare un solo esem- della Misurazione”. Tale evenpio, le misure tramite la visione). Tan- to si tiene da anni e ha lo INTERVIEW TO THE TWO NOVEL CHAIRMEN OF THE MAJOR MEASUREMENT GROUPS IN ITALY GMEE and GMMT are two entities, who group together the major University scientists and researchers in the fields of Electrical and Electronic, and Mechanical and Thermal Measurements respectively. The two Groups have recently elected their Chairmen for the next three years. In the present article the Director interviews both Chairmen, in an effort to make the two groups better known among the readers of the Journal, and to highlight the major issues related to the promotion of measurements in the scientific, industrial and social context.
T_M
N.
4/1 T_M 3 ƒ 255
N. 04ƒ ; 2013 Tutto_Misure che state leggendo (il GMEE esprime lo scrivente Direttore, e il GMMT esprime il Prof. Cigada come Vicedirettore). Gli affannati tentativi degli ultimi anni di riformare l’Università (che, come leggerete nel prosieguo, non sempre seguono, ahimé, schemi logici e lineari) hanno portato il MIUR a decidere di accorpare Settori Scientifico-Disciplinari poco numerosi ai fini dello svolgimento dei Concorsi o delle Abilitazioni Nazionali. L’accorpamento tra GMEE e GMMT ha dunque portato alla nascita del “Macro settore Misure” (per i curiosi, il codice è: 09/E4). A questo accorpamento è seguita una serie d’iniziative che hanno, sullo sfondo, un’armonizzazione delle attività dei due Gruppi. Un effetto reale di questi sforzi è lo svolgimento congiunto dei rispettivi convegni (con sessioni comuni e scambi di relatori invitati). Un altro effetto è lo svolgimento contemporaneo delle assemblee, che quest’anno, al Convegno di Trento, hanno portato all’elezione dei Presidenti dei due gruppi per i prossimi anni. Tutto_Misure, in un mai esaurito sforzo di avvicinare il mondo Universitario al mondo delle Imprese, ha partecipato a entrambe le assemblee per offrire ai lettori un quadro di prospettiva delle misure in Italia. Offre quindi le testimonianze dei due Presidenti Eletti dei due Gruppi: il Prof. Michele Gasparetto, Ordinario di Misure Meccaniche e Termiche del Politecnico di Milano, per il GMMT (primo a rispondere per dovere di ospitalità), e il Prof. Dario Petri, Ordinario di misure Elettriche ed Elettroniche dell’Università di Trento, per il GMEE. Dalle risposte che seguono, emerge un quadro di prospettiva delle misure in Italia e della loro importanza nel contesto scientifico, economico e sociale, nonché del desiderio di potenziare le sinergie tra Università e Imprese nonostante i tempi non certo favorevoli sotto i profili economico-finanziario e istituzionale. T_M: Professori Michele Gasparetto e Dario Petri, siete stati eletti Presidenti di due prestigiose Associazioni di Ricercatori Universitari nel settore delle Misure (GMMT e GMEE rispettivamente). Quali sono le vostre strategie per la promozione della cultura della misura in ambito Universitario e Industriale? Gasparetto – Lo scorso 11 settembre, l’Assemblea dei ricercatori e professori universitari di Misure Meccaniche e Termiche mi ha riconfermato presidente del Gruppo per il prossimo triennio malgrado la mia relazione non proprio rosea sulle prospettive di sviluppo della nostra Università e, conseguentemente, degli insegnamenti e della ricerca nelle misure. La mia oramai più che quarantennale conoscenza della vita universitaria me ne ha fatte vedere di tutti i colori:
N. 04ƒ ;2013
rare e a combattere sarà da guida per la progettazione e realizzazione delle future azioni dei Presidenti dei due Gruppi nazionali di Misure. La prima azione sarà quella di ribadire, anche se a scapito del miglioramento dei parametri che regolano le carriere e i finanziamenti universitari, che il nostro futuro, la nostra credibilità, la nostra solidità morale, risiedono nel perseguimento della qualità. Qualità dell’insegnamento, con il continuo aggiornamento tematico e con l’utilizzo intensivo dei laboratori sperimentali, qualità della ricerca, con la verifica scrupolosa dei risultati teorici e sperimentali prima della loro pubblicazione, qualità del trasferimento tecnologico, con l’utilizzo rigoroso della strumentazione e delle metodologie strettamente necessarie per risolvere le problematiche proposteci dai partner industriali. Il compito non sarà facile, la disseminazione della cultura delle misure nell’Università si scontra con la scarsità delle risorse, con i lacci e laccioli imposti dalle circolari ministeriali tese a perseguire una supposta razionalizzazione dell’offerta formativa. La disseminazione della cultura delle misure nelle aziende non sarà facile anche per la presenza di oggettive problematiche finanziarie-gestionali che rendono difficile l’attivazione di collaborazioni onerose con le Università soprattutto per le piccole e medie aziende che hanno difficoltà a dedicare risorse e personale tecnico di qualità alla collaborazione per lo sviluppo di nuovi prodotti, per la certificazione, per l’evoluzione delle procedure. Petri – Per quanto riguarda la promozione della cultura della misura e lo stato dell’Università italiana non posso che allinearmi a quanto ha già esposto il collega Gasparetto: l’entusiasmo e la competenza dei colleghi sono elementi essenziali per continuare ad accrescere e a trasferire conoscenza, specialmente in questo periodo di
▲
blocchi decennali delle carriere, previsioni triennali, con cadenza annuale, dei concorsi divenute due concorsi distanziati di cinque anni, invenzioni di “nuove figure universitarie sulla falsariga di quanto avviene nel mondo” divenute occasione per ritardare di anni l’età d’immissione nei ruoli, per impedire alla maggior parte dei ricercatori di raggiungere i massimi livelli previsti delle carriere. Questa esperienza non mi permettere di trovare nelle attuali vicende universitarie qualche cosa di nuovo, ma anzi vi vedo una conferma delle vecchie, cattive, procedure: è stata indetta una procedura riformata, l’ennesima, per i concorsi col risultato di bloccare tutto dal giugno 2008 e si accettano scommesse se i primi vincitori con le nuove procedure potranno prendere servizio sei anni dopo, ovvero entro giugno 2014; sono state diramate norme di “qualità degli studi universitari” impartendo una serie di regole fra di loro incompatibili e quindi irrealizzabili, ad esempio le classi nelle lauree magistrali dovrebbero avere numerosità massima di 80 allievi ma, se così fosse, sarebbero drasticamente diminuiti i finanziamenti provocando quindi la chiusura delle stesse lauree; le regole sulla “sicurezza nelle Università” impongono tali e tanti vincoli e procedure burocratiche da rendere problematico lo svolgimento di esercitazioni sperimentali in laboratorio, impossibili, se non a rischio e pericolo dei docenti, le visite ad aziende e laboratori esterni; e l’elenco potrebbe continuare parlando delle procedure previste per i concorsi, per l’accreditamento dei corsi di studio, per la certificazione della qualità della ricerca, per l’attivazione o mantenimento dei corsi di dottorato di ricerca, ecc. Nonostante questo contesto drammatico però, ci sono ancora docenti, o aspiranti docenti, che credono nella loro missione di educatori, che continuano a lavorare per accrescere la conoscenza, per trasferire a partner esterni, nel nostro caso industriali, le metodologie e le procedure che li aiutino a risultare vincitori nella competizione internazionale. Proprio lo stimolo dei Colleghi che continuano a lavo-
IL TEMA
grandi difficoltà socio-economiche. Prima d’illustrare le strategie per promuovere la cultura della misura che discuteremo nelle prossime riunioni del Consiglio direttivo del GMEE, desidero però soffermarmi a riflettere sul perché questa cultura è importante e a chi può importare. Basta riflettere un po’ sulle attività che svolgiamo o che vediamo svolgere tutti i giorni per verificare quanto le misure siano ormai applicate in tutti i domini dell’attività umana, quanto siano essenziali per promuovere uno sviluppo giusto ed efficiente della cosiddetta società della conoscenza. Le misure sono infatti un fondamentale fattore abilitante per l’innovazione tecnologica e il progresso in molti settori d’importanza vitale, come i trasporti, le tecnologie dell’informazione, l’energia, l’impatto ambientale, il clima, l’agricoltura, le industrie alimentari, le industrie chimiche, le industrie farmaceutiche, le nanotecnologie, la medicina, la salute e la sicurezza, tanto per citarne alcune. Ma l’impatto delle misure non si ferma agli ambiti più prettamente tecnologici. Si stima infatti che l’80% di tutte le transazioni commerciali richiedano la definizione di standard e l’esecuzione di misurazioni. Le misure stanno inoltre assumendo un rilievo sempre maggiore anche in ambito biomedicale, dove concetti quali incertezza e riferibilità sono purtroppo ancora patrimonio di pochi, con conseguenze non di rado disastrose per la salute delle persone e i bilanci del Servizio sanitario nazionale. Anche in ambito forense le misure stanno assumendo un ruolo sempre più cruciale. Cosa dire poi della tanto auspicata (e ben poco applicata) meritocrazia, caratteristica essenziale per lo sviluppo di una società esposta alla competizione globale: si ritiene possibile parlare seriamente di meritocrazia senza definirne in modo oggettivo le caratteristiche più rilevanti e senza misurarle? È quindi evidente che un’adeguata cultura metrologica deve essere patrimonio di tutti. In una società complessa come quella attuale, tutti dovrebbero conoscere almeno i fondamenti della scienza della misurazione, avere la
T_M ƒ 257
capacità d’impostare ed eseguire correttamente una semplice misurazione, essere in grado d’interpretare correttamente l’informazione ottenuta. Considero inoltre parte essenziale della cultura metrologica la capacità di descrivere in modo formale (ossia di modellare) il mondo che ci circonda: non si può misurare senza prima avere definito un modello che possa descrivere il misurando in modo appropriato per gli scopi prefissati. La cultura metrologica, pertanto, non è solo un ambito di studio universitario o un insieme di conoscenze di pertinenza dei professionisti, ma è piuttosto un fondamentale fattore di sviluppo per l’intera Società. Purtroppo, forse a causa della sua trasversalità, nei percorsi formativi di ogni livello le misure sono di fatto considerate la Cenerentola delle discipline. Ne consegue che la cultura metrologica non
T_M ƒ 258
N. 04ƒ ; 2013
▲
IL TEMA
è una parte significativa del bagaglio culturale dell’uomo della strada e neppure del professionista medio. Veniamo ora al cuore della domanda posta dall’intervistatore: come promuovere la cultura della misura? Penso che sia innanzitutto necessario mostrare a tutti (studenti di ogni livello e percorso formativo, professionisti e cittadini) il valore essenziale che questa cultura riveste nella società moderna, anche attraverso esempi o aneddoti che mostrino i disastri che la mancanza di un’adeguata cultura metrologica produce quotidianamente. Nel contempo la comunità scientifica che opera nel settore potrebbe favorire la disseminazione della conoscenza dei fondamenti della misurazione, anche utilizzando i nuovi supporti informatici, le social network, seminari ad hoc, oppure producendo testi divulgativi snelli.
L’attuale carenza di risorse può ostacolare non poco la realizzazione di questa strategia, ma confido che l’entusiasmo, la competenza e la disponibilità di molti colleghi del GMEE e del settore MMT possano supplire almeno in parte a questa carenza. T_M – Qual è, secondo voi, la visibilità della vostra Associazione da parte delle imprese? E quali le modalità operative per migliorare, se necessario, questa visibilità? Gasparetto – La situazione storica dei Gruppi disciplinari di Misure elettriche ed elettroniche e di Misure meccaniche e termiche è fortemente diversa: le Misure elettriche hanno una indipendenza disciplinare nata già subito dopo la seconda guerra mon-
N. 04ƒ ;2013
possa rappresentare una piattaforma da cui avviare attività più strutturate. Per rispondere in modo efficace alla competizione globale e uscire definitivamente da questa fase di recessione occorre infatti attuare iniziative di sistema ambiziose e di valore. Quello che ci manca per fare questo non è la qualità delle risorse umane (che è molto elevata, sia nell’Industria, sia all’Università), ma la capacità di lavorare insieme. Nella nostra cultura, infatti, l’Università era storicamente focalizzata sulla produzione e sulla disseminazione della conoscenza fine a se stessa, mentre le Imprese miravano a competere sui mercati internazionali puntando più sulla svalutazione della valuta nazionale che sull’innovazione. Entrambi questi modelli non funzionano più, ed è quindi imperativo un cambio di paradigma. Questo cambiamento non è certo facile, né immediato, ma è comunque necessario. Per quanto riguarda il GMEE, in particolare, auspico che alle Unità operative universitarie si affianchino Unità operative industriali in grado di produrre risultati di ricerca di livello internazionale nell’ambito delle misure e della strumentazione. T_M – Oggi, per mancanza di fondi, gli Atenei chiudono importanti corsi di Dottorato di Ricerca (ultimo in ordine di tempo quello di Metrologia del Politecnico di Torino). Come valutate l’apporto dei Dottorati in ambito accademico e industriale nel campo delle misure, e come fronteggiare questa contrazione? Gasparetto – La problematica dei dottorati di ricerca è complessa non solo per il mondo delle Misure ma per tutta l’Università italiana e, a leggere le riviste scientifiche internazionali, anche per i paesi sviluppati più ricchi. Alle difficoltà mondiali, in Italia si aggiungono oggettive difficoltà proprie delle Università e proprie del mondo del lavoro. Per quanto riguarda le Università le
▲
diale, le Misure meccaniche solo negli anni ottanta si sono affermate sganciandosi da una visione solo ancillare nei confronti delle altre discipline meccaniche. I singoli docenti di Misure meccaniche e termiche hanno sviluppato molte e proficue collaborazioni con partner nazionali e internazionali; sono numerose le collaborazioni di prova e di ricerca spaziando dal monitoraggio di macchine, d’impianti, di strutture, allo sviluppo di strumentazione ottica, biomedica, per lo spazio, allo studio di algoritmi e metodi per la visione, per l’automazione, per il controllo, per l’ingegneria clinica. In questa serie di collaborazioni i misuristi meccanici e termici non hanno invece ancora sviluppato un approccio unitario di Gruppo nei confronti delle imprese, delle Associazioni industriali. Vale la pena che ora i meccanici si muovano per creare rapporti istituzionali? Direi sicuramente di si ma non da soli, ritenendo ottimale un’azione coordinata con i “cugini” elettrici per approfondire ed estendere le collaborazioni che hanno già attivato. Petri – Nonostante il Gruppo Misure Elettriche ed Elettroniche abbia una propria chiara identità da alcuni decenni, la nostra esperienza non è molto diversa da quella dei colleghi di Misure Meccaniche e Termiche. In particolare, nei contatti con le Imprese prevalgono nettamente le iniziative individuali rispetto a quelle a livello associativo. Entrambe queste modalità di collaborazione sono valide e vanno promosse attraverso iniziative quali il sito dell’Associazione e la rivista Tutto_Misure. Lasciatemi essere però un po’ provocatorio: più che discutere su come migliorare la visibilità ritengo importante riflettere su quello che è il fine ultimo della collaborazione tra Università e Imprese. Dico questo perché una cosa è fornire a un’Impresa una consulenza qualificata su uno specifico problema da questa individuato, un’altra è invece definire e attuare attività di ricerca congiunte di lungo periodo su obiettivi strategici. L’auspicio che voglio esprimere è che la prima modalità di collaborazione
IL TEMA
difficoltà sono legate sia ai finanziamenti, che non sempre consentono di garantire il numero minimo di borse previsto dalla normativa, sia di tipo normativo che impongono una numerosità di docenti di riferimento difficile da raggiungere anche in Atenei che, come il Politecnico di Torino, abbiano una lunga e consolidata tradizione di ricerca e di credibilità nel campo dell’ingegneria e nel campo delle misure. Per quanto riguarda il mondo del lavoro, la figura del dottore di ricerca, anche se oramai i primi dottori sono stati formati a fine anni ottanta, e quindi più di vent’anni fa, non è ancora conosciuta per la sua importanza, per la sua peculiarità, talché spesso il dottore di ricerca, malgrado la selezione superata, malgrado la sua preparazione superiore dedicata allo sviluppo innovativo, viene assunto dalle aziende come se fosse un neolaureato, anzi in alcuni casi svantaggiato rispetto al neolaureato in quanto più anziano. Giustamente l’intervistatore ci chiede se vediamo soluzioni: io vedo come via principale la creazione di un raccordo Università – Industria (sia vista come singola Impresa, sia come organizzazione sindacale industriale) che porti alla progettazione, alla creazione, al mantenimento di percorsi fortemente scientifici ma rivolti a tematiche d’interesse per i partner industriali. Questa prospettiva ha già trovato applicazioni di successo in alcune nostre sedi: è compito nostro di far diventare sistema questa comunanza d’interessi, sia per rinvigorire i corsi di dottorato sia per continuare a invogliare gli allievi migliori a iscriversi in quanto anche attirati dall’interesse delle Imprese. Petri – I Dottorati di ricerca stanno vivendo un periodo difficile in tutto l’occidente, ma in particolar modo in Italia, sia per la congiuntura economica, sia per la debolezza strutturale delle nostre Scuole di Dottorato; le figure professionali formate sono infatti d’interesse solo per l’Università o per i Centri di ricerca stranieri (nord Europa o USA prevalentemente), non sono però richieste dal mercato del lavoro nazionale. Data questa situa-
T_M ƒ 259
zione, non sorprende che le misure siano tra le prime a farne le spese: infatti, non riconoscendo l’importanza primaria della cultura metrologica, le misure sono spesso considerate una disciplina marginale. Analizzando per un momento la questione dei Dottorati a livello di macrosistema, negli ultimi anni per ogni nuovo dottore di ricerca in materie tecnico-scientifiche residente in Europa o in Nord America ci sono stati dieci nuovi dottori di ricerca con residenza in Asia, magari addottorati in una Università europea o statunitense. Questo fa prevedere che nel prossimo futuro il baricentro dello sviluppo scientifico e tecnologico si sposterà decisamente verso oriente, con prevedibili conseguenze economiche e sociali. Tornando ai problemi di casa nostra, ribadisco che per contrastare efficacemente gli effetti di questa crisi occorre mettere in atto azioni di sistema. Nella fattispecie, occorre avviare dottorati congiunti Università-Imprese. Per avere un esempio di come poter fare possiamo guardare alla Germania, dove sono previste almeno quattro diverse modalità di collaborazione: a) il dottorando è assunto a tempo pieno dall’Università e lavora presso un Istituto universitario, finanziato sui fondi di un contratto di ricerca industriale; b) il dottorando è un dipendente dell’Azienda (che quindi continua a pagargli lo stipendio), ma viene distaccato presso l’Università durante il periodo del Dottorato; all’Università vengono pagati i costi indiretti associati alla collaborazione; c) il dottorando rimane in Azienda e si reca in Università saltuariamente; questa soluzione è poco diffusa in Università, mentre è frequente nelle collaborazioni con gli enti di ricerca (ad es. gli Istituti Fraunhofer); d) il dottorando è finanziato mediante un progetto federale presentato congiuntamente da Università e Industria (i progetti federali richiedono la presenza obbligatoria dell’Università); il dottorando rimane comunque sempre a stretto contatto con l’Industria, anche se il legame è indiretto.
T_M ƒ 260
N. 04ƒ ; 2013
▲
IL TEMA
Vale la pena ricordare che il costo di un dottorato in Germania (oltre i 100.000 €/anno per quattro anni) supera di circa 3-4 volte quello di un dottorato in Italia. È anche fondamentale precisare che in Germania il titolo di dottore di ricerca ha un alto riconoscimento sociale: è abbastanza inusuale nell’industria tedesca incontrare manager di un certo livello privi di questo titolo. Ne consegue che gli studi di dottorato non sono visti come una scelta legata a un puro interesse accademico, ma come una fase essenziale della formazione. T_M – Questo è un periodo di “esami” per i Ricercatori Universitari: alla Valutazione della Qualità della Ricerca si è affiancata la procedura di abilitazione di Ricercatori e Professori, con il Decreto sull’autovalutazione e valutazione degli Atenei sullo sfondo. Tutte queste valutazioni sembrano prediligere i contributi scientifici dei ricercatori (pubblicazioni certificate ISI o SCOPUS, impact factor, H-Index, ecc.) rispetto alla ricerca applicata e al trasferimento tecnologico (contratti con aziende, brevetti, startup). Come valutate il rischio di ulteriore distacco tra università e mondo delle imprese, tra domanda e offerta di tecnologia? Gasparetto – Nell’apparente uniformità del sistema universitario italiano, vi sono consistenti differenziazioni fra sede e sede, fra gruppo disciplinare e gruppo disciplinare. Nella mia sede, il Politecnico di Milano, il contrasto ipotizzato dalla domanda non esiste. L’assegnazione di risorse, e in particolare la assegnazione di posti di ruolo, tiene conto sia della numerosità degli studenti, sia della produttività scientifica come numero e collocazione editoriale delle pubblicazioni, sia infine della capacità di collaborazione con enti e aziende esterne, capacità misurata
attraverso la quantità di autofinanziamento che i singoli ricercatori sono in grado di attirare. L’autofinanziamento inoltre può essere direttamente utilizzato per attivare corsi di dottorato, per creare nuovi posti di ruolo oltre a quelli (pochi) istituzionali. La spinta alla collaborazione è molto forte, così come è molto forte la spinta alla pubblicazione dei risultati delle ricerche talché il pericolo nascosto non è nel distacco fra università e mondo delle imprese ma bensì nel rischio che la ricerca della quantità metta in ombra il perseguimento della qualità. Petri – La valutazione della qualità della ricerca e le altre iniziative di valutazione a livello nazionale sono state basate su prodotti e parametri omogenei con quelli considerati in ambito internazionale. Non ritengo che sarebbe stato opportuno fare diversamente, anche se si possono avere riserve su alcune modalità con cui le valutazioni sono state eseguite (ad esempio sui valori di soglia scelti). Il trasferimento tecnologico rappresenta un aspetto completamente diverso delle attività di un ricercatore e deve quindi essere valutato in modo indipendente dalla ricerca, considerando prodotti di tipologia diversa, come ad esempio i brevetti, gli spin-off, i contratti. Al momento, la valutazione a livello nazionale ha riguardato solo la ricerca e nel prossimo futuro riguarderà la didattica. Non si prevede che saranno valutate attività di trasferimento tecnologico. Questo non significa che gli Atenei non possano definire le loro strategie di sviluppo premiando anche queste attività. Molti Atenei, tra cui l’Ateneo di Trento in cui presto servizio, lo stanno già facendo, anche per favorire azioni di sistema tra Università e territorio. Vale inoltre la pena osservare che un’attività di trasferimento tecnologico, specialmente se di alto livello, può generare prodotti di ricerca. Questo può avvenire, in particolare, quando si tratta di un’attività di ricerca congiunta (magari nell’ambito di un percorso di Dottorato) e non una saltuaria consulenza qualificata.
N. 04ƒ ;2013
NEWS
esigenza e di condividere la stessa base culturale – non hanno pertanto contrastato la decisione di accorpamento del Ministero. Resta comunque da gestire la fase di transizione in modo da preservare (e per quanto possibile valorizzare) le importanti specificità di ciascuno dei due settori. A questo fine si è concordemente deciso di favorire l’aggregazione attraverso un approccio bottomup, ossia favorendo le iniziative proposte dai singoli ricercatori. Per questo i due gruppi organizzano le rispettive riunioni annuali in contemporanea nella stessa sede già da alcuni anni; sono inoltre state avviate altre iniziative, tra cui collaborazioni scientifiche tra gruppi di ricerca dei due settori e la co-organizzazione della scuola estiva di Dottorato in Misure.
▼
Gasparetto – Come già accennato la storia dei due gruppi, così come la loro numerosità di qualche anno fa e attuale, sono notevolmente differenziate. Non bisogna nascondersi il fatto che le diffidenze esistenti nel 1961 quando nacque la disciplina Misure Meccaniche e Termiche stentano a essere superate. Quando il Ministero ha deciso l’accorpamento (per ora solo ai fini delle abilitazioni concorsuali) fra i due Gruppi, i Gruppi stessi hanno deciso di non combattere contro la decisione ma si sono incontrati per sviscerare i possibili motivi di contrasto, per evidenziare le affinità. La riunione, vivace e costruttiva, ha portato alla conclusione che i motivi di affinità erano in misura superiore ai motivi di contrasto, e che quindi poteva essere accettata la decisione imposta, ma che per non creare disastri sarebbe stata opportuna un’azione, lenta ma tenace, di avvicinamento. In seguito a quella disamina sono state create occasioni d’incontro sia fra le Giunte, sia tra i gruppi nella loro interezza, e l’organizzazione di Congressi separati ma coincidenti come date e sedi negli ultimi due anni ne è una grande testimonianza. Sono state inoltre progettate riunioni più o meno allargate per risolvere, prima che potessero diventare dirompenti, eventuali situazioni di contrasto. Non ci siamo dati una scadenza temporale per la completa assimilazione dei due gruppi ma devo constatare che già ora è stata creata una conoscenza comune, già ora sono state premiate proposte di finanziamenti competitivi presentate congiuntamente da membri dei due gruppi. Petri – Nei decenni appena trascorsi la ricerca era prevalentemente orientata all’approfondimento della conoscenza in specifiche aree del sapere: ne conseguiva una richiesta di specializzazione e di separazione disciplinare.
Negli ultimi anni le maggiori opportunità di nuove scoperte si sono manifestate nelle aree di confine tra i diversi saperi; ne è conseguita una focalizzazione verso ricerche di tipo multi- o interdisciplinare e una spinta alla convergenza dei saperi, favorita anche dalla richiesta di orientare la ricerca alla soluzione di problemi concreti, anziché alla produzione di nuovo sapere. Spesso la complessità di questi problemi richiede infatti d’integrare competenze di aree diverse, non di rado metodologicamente distanti tra loro. Anche la richiesta (purtroppo raramente esplicita) di cultura metrologica proveniente dalla Società spinge sicuramente in questa direzione: la convergenza dei due settori MMT e MEE ne consegue quindi in modo naturale. I ricercatori – consapevoli di questa
■
Misure Elettriche ed Elettroniche, Misure Meccaniche e Termiche: due settori gemelli e di cui è previsto l’accorpamento, ma con storie ed esigenze diverse. Questo matrimonio si farà?
IL TEMA
PARIGI: IL CONGRESSO INTERNAZIONALE DI METROLOGIA CONFERMA LA SUA OTTIMA SALUTE...A 30 ANNI La 16a edizione del Congresso si è svolta, presso la Porte de Versailles a Parigi, il 7 e il 10 ottobre scorsi, in collaborazione con la mostra Enova. Quest’anno gli organizzatori hanno concentrato la preparazione dell’evento su tre priorità principali: l’apertura permanente a tutte le aree di interesse, a ogni Paese e settore di attività; ampio spazio all’innovazione e all’eccellenza tecnica e tecnologica; promozione del trasferimento tecnologico. Nel 2013 il Congresso ha offerto tre giorni e mezzo di scelta molto ampia: 180 presentazioni tecniche, sei tavole rotonde industriali, tre tour aziendali e una mostra nella sezione Mesurexpovision della fiera Enova. Una sessione è stata dedicata ai vantaggi delle carriere misuristiche ed è stato dato spazio all’illustrazione di due programmi di ricerca metrologica a livello europeo. Sono state introdotte, infine, nuove tematiche, come la trasformazione alimentare, le sfide energetiche e le nanotecnologie. Alcuni numeri di questa 16a edizione: 850 fra partecipanti ed espositori (+6% rispetto al 2011), il 35% dei quali di provenienza estera (36 Paesi rappresentati, non solo europei ma anche del Nord e Sud America, Africa, Medio Oriente e Asia); 53 aziende presenti nel Metrology Village, il cuore della manifestazione, luogo di ritrovo durante le pause, le sessioni poster, cocktail e aperitivi. Il livello tecnico e scientifico del congresso è stato giudicato eccellente o soddisfacente, rispettivamente, dall’87% e dal 90% dei partecipanti. La serata di gala presso la Torre Eiffel ha attirato quasi 200 congressisti e partner di ogni provenienza. I partecipanti sono stati utenti industriali di misura nei settori analisi e laboratori di metrologia, produzione di macchine e attrezzature (68%), laboratori nazionali dei grandi Paesi europei, ministeri, enti di accreditamento, organizzazioni internazionali (11%), docenti universitari o ricercatori (13%), sanità, formazione, consulenza, stampa (8%).
T_M ƒ 261
▲
MISURE OTTICHE
GLI ALTRI TEMI
M. Benedetti 1,2, G. Capelli 2, M. Norgia 1,3, G. Giuliani 1,2
Strumentazione laser per la misura delle vibrazioni con tecniche di retro iniezione
LASER INSTRUMENTS FOR VIBRATION MEASUREMENTS Julight srl, a spin-off Company from the University of Pavia, has developed an innovative laser instrument for the contactless measurement of vibrations. The Julight Laser Vibrometer has the smallest optical head on the market, and can host up to four independent optical measuring channels. Applications range from automotive industry to the biomedical field. RIASSUNTO Julight srl è una società spin-off dell’Università di Pavia che ha sviluppato un innovativo strumento laser per la misura di vibrazioni senza contatto. I vibrometri laser Julight hanno la testa ottica più piccola disponibile sul mercato, e offrono la possibilità d’includere fino a 4 canali ottici di misura indipendenti in un singolo strumento. Vengono qui illustrate le diverse applicazioni, che spaziano dall’ambito automotive a quello biomedicale.
INTRODUZIONE
Oggigiorno, in ambito industriale e automotive, è importante poter misurare con elevata precisione grandezze fisiche come distanze, spostamenti, vibrazioni e velocità, mediante tecniche senza contatto e non invasive che non alterino le caratteristiche fisiche o il funzionamento dell’oggetto da analizzare. In commercio esistono diverse tipologie di sensori: induttivi, capacitivi, elettromagnetici e a ultrasuoni, il cui impiego varia in funzione della risoluzione richiesta, del range dinamico di misura, delle particolari condizioni operative. La nascita del laser negli anni ’60 e l’avvento dei laser a semiconduttore nel decennio successivo, hanno fornito un forte stimolo allo sviluppo di soluzioni ottiche. Infatti, è possibile sfruttare le proprietà della radiazione elettromagnetica emessa dai laser, come la monocromaticità, l’elevata brillanza, la coerenza spaziale e temporale, per ricavare le informazioni desiderate con elevata risoluzione e precisione, con tecniche senza contatto. È in quest’ottica che Julight srl [1], azienda start-up e spin-off dell’Uni-
versità degli Studi di Pavia, progetta, sviluppa e realizza innovativi sensori ottici e sistemi di misura, non solo per i settori automotive e industriale, ma anche per applicazioni in ambito biomedicale, dove l’assenza di contatto e la non invasività della misurazione sono requisiti fondamentali. Grazie alle competenze e conoscenze maturate in anni di esperienza nel campo dell’optoelettronica dal suo staff, Julight srl si presenta sul mercato della strumentazione laser per metrologia con i suoi vibrometri laser innovativi. Essi sono basati sull’interferometria ottica a retro iniezione [2], hanno una testa ottica di dimensioni molto compatte (la più piccola sul mercato), e la possibilità di combinare più canali di misura in un unico strumento. I VIBROMETRI LASER JULIGHT DELLA SERIE VSM
quali metallo grezzo, plastica, gomma, carta, tessuto. La versione base, modello VSM100, dispone di una testa ottica e di un’unità elettronica per l’elaborazione del segnale, mentre il modello VSM400 (si veda la Fig. 1) è espandibile e può ospitare fino a quattro teste ottiche, cioè quattro canali di misura indipendenti, per misure di vibrazioni simultanee in diversi punti dell’oggetto da esaminare, oppure misure differenziali e/o 3D.
Figura 1 – Vibrometro laser VSM400 prodotto da Julight srl, qui mostrato nella versione con due teste ottiche laser
I vibrometri laser Julight sono basati su un innovativo schema interferometrico, denominato “self-mixing” (S-M, anche detto “a modulazione indotta” o a retro iniezione) [2,3] in cui si sfrutta l’interferenza coerente che si genera quando la luce, retrodiffusa da una
1
Julight srl, Polo Tecnologico, Pavia Julight srl ha sviluppato e realizzato 2 Dip. Ingegneria Industriale un innovativo vibrometro laser (serie VSM) che permette di effettuare misu- e dell’Informazione, Università di Pavia re accurate e affidabili senza contat- 3 Dip. Elettronica Informazione to, operando con successo su molti e Bioingegneria, Politecnico di Milano tipi di superfici, ruvide e/o diffusive, giuliani@julight.it
T_M
N.
4/13 ƒ 263
superficie, rientra nella cavità laser generando interferenza con il campo preesistente nella cavità stessa. Essendo uno schema di rivelazione coerente, esso è caratterizzato da un’elevata sensibilità, che permette allo strumento di funzionare correttamente anche con una debole intensità della luce retrodiffusa dall’oggetto in esame. Mentre i convenzionali vibrometri/velocimetri laser a effetto Doppler (LDVs) implementano una configurazione interferometrica di tipo Michelson, con la configurazione a S-M si ha una notevole riduzione del numero dei componenti ottici. Inoltre, nella serie VSM, come sorgente ottica viene utilizzato un laser a semiconduttore di dimensioni molto compatte che, grazie anche a un attento design optomeccanico, permette di ottenere la testa ottica più piccola e maneggevole presente oggi sul mercato.
T_M ƒ 264
N. 04ƒ ; 2013
▲
GLI ALTRI TEMI
I vibrometri laser Julight forniscono in uscita un segnale elettrico che è una replica analogica dello spostamento del bersaglio (con una sensibilità di 1 mV/µm), su un campo di frequenze che va dalla continua fino a 50 kHz e uno spostamento minimo misurabile pari a 0,4 nm (per una banda di rumore di 1 Hz). L’ampiezza di vibrazione massima picco-picco che può essere misurata è maggiore di 20 mm, mentre la velocità massima del bersaglio rilevabile arriva a 1 m/s. Il segnale di vibrazione può essere visualizzato su un oscilloscopio, oppure fornito in ingresso a un analizzatore di spettro per l’analisi nel dominio della frequenze (FFT), o ancora essere digitalizzato per una successiva elaborazione. Ulteriori dati tecnici sono riportati nella Fig. 2. Effettuare misure con i vibrometri della serie VSM è estremamente sempli-
ce. Il fascio laser viene puntato sulla superficie dell’oggetto del quale si vuole misurare la vibrazione; un sistema di allineamento automatico (speckle-tracking) provvede a mantenere l’allineamento del fascio, riducendo al minimo i casi di misura errata (principalmente indotti dal fenomeno dello “speckle-pattern”, di cui soffrono tutti i sistemi interferometrici laser), mentre un indicatore a barra LED permette di visualizzare in tempo reale la qualità del segnale ottico di ritorno dal bersaglio. Un altro punto di forza dei vibrometri Julight è rappresentato dal campo di temperature di funzionamento esteso, da -30 °C a +80 °C, mentre gli strumenti concorrenti tradizionali non sono in grado di superare i 45 °C. È inoltre allo studio una soluzione “high-temperature” che permette di operare sino a 150 °C, consen-
N. 04ƒ ;2013 sere fastidiosi e irritanti riducendo il comfort dell’utilizzatore; (ii) generano dispersione di energia; (iii) generano stress meccanici aumentando l’usura di diverse componenti e riducendone quindi la vita media. Come mostrato dalla Fig. 3 i vibrometri laser Julight risultano essere estremamente maneggevoli e adatti ad applicazioni di tipo automotive. Il range termico di funzionamento e le ridotte dimensioni della testa ottica fanno sì che essa possa essere montata in Figura 2 – Caratteristiche tecniche del vibrometri laser Julight della serie VSM spazi angusti, come, nel caso specifico di Fig. 3, all’interno del vano motore di un’automobile, consentendo di effettuare APPLICAZIONI misure non solo a veicolo fermo ma DEI VIBROMETRI JULIGHT anche “on the road”. Quest’ultimo I campi di applicazione dei vibrome- aspetto, a meno di soluzioni con setup tri laser Julight sono i più svariati: dal- complessi, costosi e laboriosi, non la misura di vibrazioni senza contatto nei settori automotive, aerospaziale e nell’industria meccanica, alla misura delle vibrazioni su strutture di piccole dimensioni (anche micrometriche, come i MEMS); nel controllo di processo e di qualità in impianti industriali; nella manutenzione predittiva e sotto condizione (Machinery Condition Monitoring); nei test di altoparlanti e piezoceramiche; nell’analisi modale e dei materiali, nelle applicazioni musicali [4] e infine anche nelle applicazioni cliniche e biomedicali [5]. tendo per la prima volta di effettuare misure laser interferometriche in ambienti ostili quali vani motore, sale macchine, ecc.
VIBRAZIONI IN AMBITO INDUSTRIALE – AUTOMOTIVE
Uno dei settori in cui è fondamentale poter analizzare e ridurre le vibrazioni è il settore automotive. Considerando il caso specifico di un’automobile, le sorgenti di rumore possono essere svariate: il motore, la carrozzeria, le componenti interne dell’abitacolo ecc. Poter ridurre le vibrazioni generate dal motore e trasmesse da quest’ultimo alla scocca e all’abitacolo, nonché qualsiasi sorgente di vibrazione all’interno dell’automobile, è fondamentale per tre motivi: (i) generano onde di pressione e quindi rumore acustico che talvolta possono es-
▲
GLI ALTRI TEMI
può essere soddisfatto dai vibrometri laser oggi presenti in commercio, caratterizzati dall’avere una testa ottica di grosse dimensioni, poco maneggevole e che spesso deve essere sorretta da un opportuno cavalletto. La Fig. 4 mostra un esempio di misura effettuata outdoor dove la velocità di rotazione del motore viene incrementata da 1.500 rpm (25 Hz) fino a 4.100 rpm (135 Hz). Dalla Fig. 4 si nota bene la fase di accelerazione durante la quale l’ampiezza delle vibrazioni diminuisce gradualmente con l’aumentare della frequenza di rotazione. MISURA DI VIBRAZIONI IN AMBITO BIOMEDICALE
I campi di applicazione dei vibrometri laser Julight non si limitano all’ambito industriale e meccanico. A ripro-
Figura 3 – Esempio d’installazione della testa ottica all’interno del vano motore di un’automobile per la misura delle vibrazioni del motore stesso
Figura 4 – Esempio di spettrogramma ottenuto per una misura effettuata in accelerazione con auto in movimento. Il regime di rotazione del motore varia da circa 800 rpm (26,6 Hz) fino a 4.050 rpm (135 Hz). Il segnale di vibrazione principale è causato dagli scoppi nelle camere di combustione del motore a 4 tempi a ciclo Diesel
T_M ƒ 265
N. 04ƒ ; 2013
▲
GLI ALTRI TEMI
va della loro versatilità, negli ultimi anni sono stati testati con successo anche in applicazioni nel settore biomedicale [5], che è in forte espansione e in cui è sempre più importante ottenere informazioni attraverso metodi senza contatto o poco invasivi. In un contesto clinico, per esempio, è necessario poter monitorare e analizzare i parametri del sistema cardiovascolare di un paziente (frequenza cardiaca, deformazione dell’arteria, tempi di propagazione nel sistema arterioso dell’onda di pressione generata dalla contrazione del cuore) per eseguire la diagnosi di molte patologie e disfunzioni. Esempi sono costituiti dalla diagnosi e dall’analisi dell’indurimento e dell’ispessimento arterioso causato dall’arteriosclerosi. Attraverso i vibrometri laser Julight è possibile misurare piccoli spostamenti sulla superficie della pelle generati dalla dilatazione e contrazione dell’arteria esaminata. La Fig. 5 riporta un esempio di misura effettuata sull’arteria radiale. Il segnale blu rappresenta il segnale acquisito con un comune elettrocardiogramma (ECG), mentre il
segnale rosso rappresenta l’uscita del vibrometro laser, ovvero la replica dello spostamento della superficie della pelle in prossimità dell’arteria. Come mostrato esiste una buona corrispondenza tra i due segnali, nonostante il secondo sia stato ottenuto con una tecnica senza contatto e non invasiva. VIBRAZIONI, MA NON SOLO
L’analisi e la misura delle vibrazioni sono aspetti di primaria importanza nei settori automotive, aerospaziale e dell’industria meccanica. Tuttavia le esigenze possono essere molteplici, come la misura di profili, planarità, distanze, velocità ecc., e l’elevato livello di precisione raggiunto in questi anni fa sì che le specifiche siano sempre più stringenti e le precisioni richieste sempre maggiori. Julight srl crede fortemente nelle potenzialità e nei vantaggi derivanti dalle misure con tecniche ottiche e mette a disposizione le proprie risorse e conoscenze anche per realizzare soluzioni custom, analizzando e studiando il problema per poi proporre e svilup-
pare la soluzione ottimale in tempi rapidi. RIFERIMENTI BIBLIOGRAFICI
[1] www.julight.it [2] G. Giuliani, S. Bozzi-Pietra, S. Donati, “Self-mixing laser diode vibrometer”, Measurement Science and Technology, vol. 14, pp. 24-32 November 2003. [3] G. Giuliani, M. Norgia, S. Donati, Thierry Bosch, “Laser diode selfmixing technique for sensing applications”, Journal of Optics A, vol. 4, pp. 283-294 November 2002. [4] G. Capelli, G. Giuliani, “Laser vibrometry for testing the acoustic quality of musical instruments: analysis of bells vibrations”, Atti di Fotonica 2011 – 13° Convegno Nazionale delle Tecnologie Fotoniche, 9-11 maggio 2011, Genova, Italy [5] C. Bollati, G. Capelli, G. Giuliani, “Non–contact monitoring of the heart beat using optical laser diode vibrocardiography”, atti di “Biophotonics 2011” International Workshop, 8-10 giugno 2011, Parma, Italy. Mauro Benedetti è ricercatore Post-doc presso l’Università di Pavia e co-fondatore di Julight srl, per cui coordina i progetti custom.
Giorgio Capelli è ricercatore Postdoc presso l’Università di Pavia e si occupa di sviluppare nuove tecnologie per misure laser senza contatto.
Michele Norgia è Ricercatore Universitario e docente di Misure Elettroniche presso il Politecnico di Milano e co-fondatore di Julight srl, per cui coordina l’area di ricerca e sviluppo.
Figura 5 – a) Schema per la misura di vibrazioni della cute sul corpo umano; b) Confronto tra i segnali ottenuti da un ECG (blu) e il segnale ottenuto con il vibrometro laser (rosso) misurando lo spostamento della pelle in prossimità dell’arteria radiale del polso
T_M ƒ 266
Guido Giuliani è professore associato di Elettronica presso l’Università di Pavia e co-fondatore di Julight srl, per cui coordina le attività di sviluppo legate all’innovazione tecnologica.
▲
MISURE PER LE TELECOMUNICAZIONI
GLI ALTRI TEMI
Leopoldo Angrisani 1, Federico Flaviano 2
Progetto MisuraInternet: indicatori di qualità e architettura del sistema di misura Il progetto italiano per la misurazione della qualità del servizio di connessione a Internet da rete fissa – Parte I
THE “MISURAINTERNET” PROJECT: QUALITY INDICATORS AND MEASUREMENT SYSTEM ARCHICHITECTURE The Authority for the Communications was one of the first European National Regulatory Authorities to pay specific attention to the quality of services in the Internet connections. Its action, which began in 2006, was strengthened in 2008 when the Authority started a project to measure the quality of the connections: MisuraInternet. Born in a context of a cooperation between the Authority, the telecom operators, universities, the Ministry of Economic Development and the Higher Institute of Communications, the project had as independent implementing entity the Ugo Bordoni Foundation. This article illustrates the quality indicators considered in the context of the project and the architecture of the system set up to measure them. RIASSUNTO L’Autorità per le Garanzie nelle Comunicazioni è stata tra le prime Autorità Nazionali di Regolamentazione europee ad aver prestato specifica attenzione alla qualità del servizio delle connessioni a Internet. La propria azione, iniziata nel 2006, si è rafforzata nel 2008 quando l’Autorità ha avviato un progetto per la misurazione della qualità delle connessioni: il progetto MisuraInternet. Nato nell’ambito di un contesto di cooperazione tra l’Autorità, gli operatori di telecomunicazioni, le Università, il Ministero dello Sviluppo Economico e l’Istituto Superiore delle Comunicazioni, il progetto ha visto come soggetto attuatore indipendente la Fondazione Ugo Bordoni. Il presente articolo illustra sia gli indicatori di qualità considerati nell’ambito del progetto, sia l’architettura del sistema allestito per la loro misurazione. MISURAZIONE DELLA QUALITÀ DELLE CONNESSIONI A INTERNET DA RETE FISSA: NECESSITÀ DELL’INTERVENTO DI REGOLAMENTAZIONE
Il diffondersi delle connessioni a Internet a banda larga ha evidenziato, ben presto, la necessità di nuovi strumenti di tutela dei consumatori, capaci di fornire una risposta efficace alle molteplici problematiche concernenti la qualità del servizio sperimentata dagli utenti. D’altra parte, in un contesto di evoluzione del quadro normativo, europeo e nazionale, la qualità delle reti e dei servizi è destinata ad assumere importanza crescente e sempre più basilare.
Riguardo alla connessione a Internet da postazione fissa, l’Autorità per le Garanzie nelle Comunicazioni (Agcom) ha rivolto fin dal 2006 particolare attenzione agli aspetti di qualità di tale servizio, recependo molteplici denunce da parte di consumatori e associazioni dei consumatori rispetto a: • ingannevoli modalità di vendita delle offerte in abbonamento a Internet da postazione fissa, che presentavano esclusivamente l’indicazione della massima velocità di trasmissione raggiungibile, senza indicazione di un valore minimo garantito e senza possibilità sia di comprovare la scarsa qualità del servizio, sia di recedere gratuitamente dal contratto in caso d’inadempienza dell’operatore;
T_M
• impossibilità di effettuare confronti significativi tra la qualità del servizio ricevuto e quella offerta da differenti provider, per assenza d’informazioni trasparenti sul tipo di connessione utilizzata. Nello specifico, l’Autorità ha risposto a tali denunce con una serie d’interventi e attività, tra le quali la pubblicazione della delibera n. 131/06/CSP e s.m.i. (degna di particolare nota è la delibera n. 244/08/CSP) e la realizzazione del progetto “MisuraInternet”. Quest’ultimo annovera l’implementazione del sito “MisuraInternet” e lo sviluppo del pacchetto software Ne.Me.Sys. a uso dell’utente finale, operativo dal novembre 2009 [1]. IL PROGETTO MISURAINTERNET
Con la delibera n. 244/08/CSP, l’Agcom ha delineato un nuovo sistema per la misurazione della qualità degli accessi a Internet da postazione fissa, che prevede, tra l’altro, in capo agli operatori, obblighi di maggior trasparenza nelle condizioni contrattuali, per quanto riguarda le prestazioni dei collegamenti alla rete e la qualità del servizio di accesso a Internet. Tra gli aspetti qualificanti di tale intervento regolatorio, e del connesso progetto MisuraInternet, occorre evidenziare sia l’attività di valutazione, sull’intero terri-
1
Dip. Ingegneria Elettrica e Tecnologie dell’Informazione, Università di Napoli Federico II angrisan@unina.it 2 Direzione Tutela dei Consumatori, Autorità per le Garanzie nelle Comunicazioni f.flaviano@agcom.it
N.
4/13 ƒ 267
torio nazionale, delle effettive prestazioni dell’accesso a Internet, sia l’introduzione di sistemi di valutazione delle prestazioni del servizio da parte della clientela finale. Il primo obiettivo dell’intervento consiste nel misurare, per i principali operatori del settore, a parità di condizioni operative, le prestazioni dell’infrastruttura che collega il terminale utente al nodo di accesso alla rete, sulla base d’indicatori standard definiti dall’ETSI, l’Istituto Europeo per gli Standard nelle Telecomunicazioni. I risultati delle misurazioni, elaborati con approccio statistico, consentono di operare un confronto tra le prestazioni offerte dai diversi provider, offrendo all’utente utili informazioni per vagliare con maggiore cognizione di causa le offerte di mercato disponibili nell’area territoriale d’interesse. Il secondo obiettivo è legato alla possibilità offerta all’utente, attraverso l’utilizzo del pacchetto software “certificato” Ne.Me.Sys., di ottenere informazioni dettagliate sulle prestazioni del proprio accesso alla rete Internet, e di verificare personalmente il rispetto degli impegni contrattuali del servizio per cui paga un canone. Una volta ultimata la misurazione, Ne.Me.Sys. restituisce all’utente un documento in formato pdf riportante i valori di alcuni key performance indicators, che forniscono un quadro oggettivo della qualità del servizio. Le fasi operative del progetto MisuraInternet sono state curate dalla Fondazione Ugo Bordoni (FUB), riconosciuta soggetto indipendente da tutti gli stakeholders. L’analisi dei requisiti progettuali e l’andamento degli sviluppi sono stati coordinati dall’Agcom nell’ambito di un apposito tavolo tecnico, che ha visto la partecipazione attiva del Ministero dello Sviluppo Economico, dell’Istituto Superiore delle Comunicazioni, delle Associazioni dei Consumatori, degli operatori di telecomunicazione e del mondo universitario e della ricerca. Molto proficuo, in particolare, è stato il contributo dell’ex Dipartimento di Informatica e Sistemistica (ora Dipartimento di Ingegneria Elettrica e delle Tecnologie dell’Informazione) dell’Università degli
T_M ƒ 268
N. 04ƒ ; 2013
▲
GLI ALTRI TEMI
Studi di Napoli Federico II, che ha partecipato attivamente ai tavoli tecnici, apportando l’esperienza maturata, sia metodologica sia applicativa, nell’ambito delle misurazioni su sistemi e reti di comunicazione, e nello specifico della misurazione della qualità del servizio d’accesso a Internet da rete fissa. INDICATORI DI QUALITÀ MISURATI, ED EVOLUZIONI DELLO STANDARD ETSI
della rete a una determinata richiesta dell’utente; • tasso di perdita dei pacchetti: percentuale di pacchetti d’informazione che vengono persi nella tratta tra il proprio PC e la destinazione Internet. Tanto minore è il valore del valore misurato, tanto maggiore è la probabilità che i singoli pacchetti d’informazione raggiungano correttamente la destinazione; • tasso d’insuccesso nella trasmissione dati: affidabilità del trasferimento dati in termini percentuali. Si valuta come il rapporto tra il numero di trasmissioni fallite e il numero totale di tentativi di trasmissione. Tanto minore è il valore misurato, tanto maggiore è la probabilità che la trasmissione dei dati abbia successo. Il protocollo impiegato per la misurazione della banda in download e upload è l’FTP, come raccomandato dal predetto standard ETSI. Tale standard è evoluto verso il nuovo standard ETSI ES 202 765-4, che raccomanda il protocollo HTTP [3]. Differenze emergono anche in merito alla procedura di misura. La precedente versione dello standard (vigente al momento dello sviluppo del software Ne.Me.Sys.), difatti, prevede l’impiego di un file di dimensioni fissate, e richiede la misurazione del tempo necessario al suo completo trasferimento, valutando media e deviazione standard unitamente al 5° e 95° percentile. La nuova, invece, considera un tempo di trasferimento fissato a priori, e richiede la misurazione del
Le misurazioni contemplate dal progetto MisuraInternet mirano a valutare la velocità di download e upload nel trasferimento dati, e il ritardo di trasferimento per le connessioni a Internet da rete fissa. Sono effettuate utilizzando i protocolli FTP e ICMP, così come suggerito nella raccomandazione ETSI EG 202 057 v.1.2.1, tra due terminazioni di rete note: il NAP (Neutral Access Point) e il punto di misura. Gli indicatori considerati nell’ambito del progetto MisuraInternet sono quelli individuati dallo standard ETSI 202 057-4, e in particolare [2]: • velocità di trasmissione dati, sia in termini di banda massima (valore di velocità in download e upload della linea al di sotto del quale rientra il 95% di tutte le misure ottenute, quindi nel 95% dei casi la velocità di trasferimento dati è inferiore a tale valore) sia di banda minima (valore di velocità in download e upload della linea al di sotto del quale rientra il 5% di tutte le misure effettuate, quindi nel 5% dei casi la velocità di trasferimento dati è inferiore a tale valore); • ritardo di trasmissione dati: tempo necessario per far transitare i pacchetti d’informazione tra il proprio PC e la destinazione Internet. Esso indica quanto rapidamente la rete è in grado di rispondere alle richieste effettuate dall’utente. Tanto minore Figura 1 – Locazione dei server di misura è il valore misurato, tanto maggiore è la reattività
N. 04ƒ ;2013
delle misurazioni sono sempre i NAP. Una schematizzazione dell’architettura del sistema di misura è riportata in Fig. 2. Al fine di rendere le condizio-
ARCHITETTURA DEL SISTEMA DI MISURA
In ogni sistema per la misurazione della qualità del servizio di connessione a Internet, la locazione dei server di misura gioca un ruolo di fondamentale importanza. Nel progetto MisuraInternet, i server di misura sono stati collocati presso i nodi d’interscambio – Neutral Access Point (NAP) di Roma, Milano e Torino, come illustrato in Fig. 1 [4]. La scelta del NAP come “bersaglio” delle prove garantisce che le misurazioni di velocità e ritardo vengano effettuate sulle reti (o sui segmenti di rete) di responsabilità degli operatori e solo su quelle: tutto il traffico scambiato tra il NAP e le sonde transita esclusivamente sulla rete dell’operatore sotto test. All’interno dei NAP, la FUB è direttamente connessa sulla LAN di peering: questo garantisce un collegamento diretto tra gli apparati di misura e le reti sotto test. Come detto, il progetto è articolato su due livelli di obiettivo. • Stime statistiche ottenute sperimentalmente, che consentono agli utenti di confrontare le prestazioni misurate sulle reti degli operatori, a parità di profilo, nelle medesime condizioni operative, declinate regione per regione. Per ragioni di efficienza, economicità e controllo la FUB, con la collaborazione del Ministero dello Sviluppo Economico, ha convenuto di mettere a disposizione alcune locazioni pubbliche per l’implementazione dei punti di misura. Ogni operatore porta presso gli Ispettorati le due connessioni ADSL/ADSL2+ più rappresentative del venduto nel corso dell’anno precedente, in conformità a quanto specificato nella delibera n. 244/08/CSP e in riferimento ai due profili più commercializzati. I bersagli
Figura 2 – Prestazione della rete: Architettura del sistema di misura
▲
numero di byte trasferiti, valutando sia la velocità media su un intervallo di 10 secondi (average bit rate) sia il secondo di trasferimento più veloce (faster second bit rate). Le future versioni del software Ne.Me.Sys. terranno conto di tale evoluzione.
GLI ALTRI TEMI
poter produrre il certificato, deve raccogliere dati di misura nell’arco di 24 ore, considerando slot temporali di un’ora. Se in un dato slot temporale non fosse raccolto alcun dato di misura (ad esempio, a causa di eccessivo traffico spurio suscettibile d’inficiare i risultati), il software ritenterebbe la misurazione nello stesso slot temporale al massimo per tre giorni consecutivi, dopodiché l’intero processo di misurare sarebbe integralmente ripetuto. I risultati ottenuti da Ne.Me.Sys. vanno confrontati con i valori indicati dall’operatore nella documentazione allegata all’offerta, sottoscritta e pubblicata sul sito www.misurainternet.it. Se i risultati forniti dal software Ne.Me.Sys. risultassero peggiori rispetto a quelli indicati dall’operatore, l’utente potrebbe presentare reclamo entro 30 giorni dalla data di emissione del file pdf restituito dal software, chiedendo il ripristino degli standard di qualità contrattuali. Se, decorsi i 30 giorni dal reclamo, risultasse, sempre tramite Ne.Me.Sys., che l’operatore non abbia ancora rispettato gli obblighi contrattuali, l’utente potrebbe inviare una raccomandata A/R all’operatore, allegando copia del nuovo file pdf, con la comunicazione di recesso. L’architettura del sistema di misura per gli utenti finali è mostrata in Fig. 3 [5].
ni di misura presso gli Ispettorati quanto più simili a quelle che caratterizzano l’esperienza media dell’utente, sono stati presi accorgimenti sulla distanza tra la centrale e l’Ispettorato, nonché sull’attenuazione fisica della linea. È noto infatti che la velocità di linea dipende dalla lunghezza del doppino in rame e dalla degradazione dello stesso. In Italia circa il 50% delle linee dista 1,2 km dalla centrale, e presenta un’attenuazione in upload pari a 11 dB. È cura della FUB ricreare tali condizioni, ove non sussistenti, in tutti gli Ispettorati allestiti [5]. • Misurazioni da parte degli utenti finali, realizzate tramite il software Ne.Me.Sys., messo a disposizione gratuitamente. Ne.Me.Sys. è il primo (e fino a novembre 2012 unico) caso in Europa di software certificato per misurare la qualità della propria connessione. È un software open source che funziona su un normale PC utente, ed è disponibile per tutti i principali sistemi operativi. Esegue controlli sullo stato della macchina prima di ogni singolo test, e se rileva fattori in grado di falsare la misurazione, ne impedisce l’ese- Figura 3 – Utenti finali: architettura del sistema di misura cuzione. Il software, per
T_M ƒ 269
RIFERIMENTI BIBLIOGRAFICI
1. F. Flaviano, S. Del Grosso, D. Di Napoli – Misurainternet.it Qualità dell’accesso a Internet da postazione fissa – I Quaderni di Telèma, Giugno 2012. 2. ETSI Guide EG 202 057 Part 4: Speech Processing, Transmission and Quality Aspects (STQ); User related QoS parameter definitions and measurements. Part 4: Internet access. 3. ETSI Standard ES 202 765-4 Part 4: Speech and multimedia Transmission Quality (STQ); QoS and network performance metrics and measurement methods. Part 4: Indicators for supervision of Multiplay services. 4. Sito web del progetto MisuraInternet – www.misurainternet.it 5. Atti del convegno “La qualità dell’accesso a Internet da rete fissa in Italia – I risultati del progetto MisuraInternet.it e lo sviluppo della banda ultralarga” www.agcom.it/Default.aspx? message=contenuto&DCId=704
T_M ƒ 270
N. 04ƒ ; 2013
▲
GLI ALTRI TEMI
Leopoldo Angrisani è Professore Ordinario di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Elettrica e delle Tecnologie dell’Informazione dell’Università di Napoli Federico II. Si occupa di misure su sistemi e reti di comunicazione, misure su sistemi wireless in presenza d’interferenza, misure per la sicurezza. È General Chairman del IEEE International Workshop on Measurements & Networking – M&N2013.
Federico Flaviano è Direttore della Direzione Tutela dei Consumatori dell’Autorità per le Garanzie nelle Comunicazioni. Coordina le attività di regolamentazione della qualità dei servizi di comunicazioni elettroniche, della vigilanza sugli operatori e dei relativi procedimenti sanzionatori, nonché del contenzioso utente-gestore.
▲
METROLOGIA FONDAMENTALE
GLI ALTRI TEMI
Nicola Giaquinto
Incertezza di misura: teoria coerente o edificio da ricostruire? Parte 2: Due approcci rivali alla teoria dell’incertezza
MEASUREMENT UNCERTAINTY: A COHERENT THEORY OR A SHAKY CONSTRUCTION? PART 2: TWO RIVAL APPROACHES TO UNCERTAINTY THEORY This paper illustrates and discusses the main features of two rival approaches to statistical inference, and therefore to measurement uncertainty: the “frequentist” (or “orthodox”), and the “Bayesian” ones. The work is written as a tutorial, suitable to clarify the fundamental aspects of the two approaches, and their relationship with GUM and the issues addressed therein. In particular, it is highlighted that the power and the flexibility of the Bayesian approach require also considerable caution in its use – caution, however, that has perhaps been disregarded in the writing of Supplement 1 of the GUM. RIASSUNTO In questo articolo vengono illustrate e discusse le caratteristiche principali di due approcci rivali alla teoria dell’inferenza statistica, e di conseguenza dell’incertezza di misura: il “frequentista” (o “ortodosso”), e il “bayesiano”. Il lavoro ha la forma di un tutorial, adatto a far comprendere gli aspetti fondamentali dei due approcci, e il loro rapporto con le questioni affrontate nella GUM. In particolare, si evidenzia che la potenza e flessibilità dell’approccio bayesiano rendono necessaria anche una notevole cautela nell’adoperarlo – cautela che però è stata forse trascurata nella scrittura del Supplemento 1 della GUM. INTRODUZIONE
“Basically there’s only one way of doing physics but there seems to be at least two ways to do statistics, and they don’t always give the same answers”. Con queste parole Bradley Efron [1] ha condensato efficacemente l’attuale stato delle cose nella scienza statistica, che per qualsiasi problema d’inferenza ci propone (almeno) due strade, comunemente note come “approccio frequentista”, o “ortodosso”, e “approccio bayesiano”. Nell’articolo precedente [2] abbiamo esaminato due possibili soluzioni a un problema di propagazione dell’incertezza. La prima soluzione era errata e la seconda corretta. Tuttavia, non possiamo dire di aver chiarito dove sia l’errore nella prima soluzione, che è stata ricavata secondo il dettato del Supplemento 1 (S1) della GUM. Per
having important practical consequences.” L’intento di questo articolo è di esporre in modo breve e discorsivo la differenza tra i due approcci, bayesiano e frequentista, con riferimento alla valutazione dell’incertezza di misura, e soprattutto d’illustrare le peculiarità dell’approccio bayesiano. Questo è molto importante per capire tanti aspetti essenziali della teoria dell’incertezza di misura correntemente standardizzata. Permette anche d’iniziare a capire un problema piuttosto elusivo: perché la propagazione del S1 funziona male. UN ESEMPIO DIDATTICO: LA QUALITÀ DI UNA MACCHINA SALDATRICE
Facciamo un esempio molto semplice, adatto a un corso di base sulla teoria della misurazione. La qualità di una saldatrice automatica è rappresentata dal suo tasso di difetti P. Con ciò si intende dire che ogni saldatura ha una probabilità P di essere eseguita in modo difettoso. Si è costruito un prototipo di una saldatrice innovativa, per cui è necessario stimare P. A questo scopo si eseguono n=100 saldature, e se ne osservano X=3 difettose. Qual è la stima di P? E qual è l’incertezza di questa stima? Questo esempio non è particolarmente originale: è essenzialmente lo stesso scelto dal reverendo Thomas Bayes per illustrare alcune sue idee in merito alla teoria della probabilità [3]. Tuttavia, a distanza di esattamente due secoli e mezzo (1763), esso risulta ancora piuttosto utile.
capire l’inghippo è necessario capire che la prima soluzione è bayesiana, la seconda frequentista, e di conseguenza il problema consiste in una scorretta applicazione dell’approccio bayesiano. La differenza tra approccio frequentista e approccio bayesiano non è cosa che appassioni la comunità dei “misuristi”, perché chi si occupa concretamente di misure deve solitamente affrontare una molteplicità di problemi teorici e pratici più pressanti. Probabilmente la maggior parte di essi ha solo un’idea vaga dell’esistenza dei due approcci, ed è incline a pensare che si tratti di una disputa più filosofica che sostanziale. Ma, citando ancora una volta Efron, potremmo rispondere che “the 250-year debate between Bayesians Dipartimento di Ingegneria Elettrica and frequentists is unusual among e dell’Informazione, Politecnico di Bari philosophical arguments in actually giaquinto@misure.poliba.it
T_M
N.
4/13 ƒ 271
N. 04ƒ ;2013 Approccio frequentista Nell’approccio detto “frequentista”, o “ortodosso”, il parametro incognito P è una quantità deterministica sconosciuta, mentre il numero di saldature difettose osservate, X, è una variabile aleatoria. Questa ha, evidentemente, distribuzione binomiale di parametri n e P:
( )
(
)
f x x P = Pr X = x P = n−x n = P x (1− P ) x
(1)
Partendo dalla (1), il modo di procedere è ben noto: si costruisce una seconda variabile aleatoria, Pˆ=h(X), “stimatore” del parametro sconosciuto P. Un buon metodo per costruire uno stimatore è quello della massima verosimiglianza: Pˆ è quel valore di P che rende massima la probabilità (1). Con calcoli semplici si trova che Pˆ=X/n=0,03, che è anche una soluzione intuitiva. Questo stimatore ha diverse proprietà desiderabili, come la non distorsione: il suo valore atteso coincide col parametro da stimare (E[Pˆ]=P ). Tutti gli stimatori di massima verosimiglianza, inoltre, sono asintoticamente efficienti, cioè al crescere di n la loro varianza tende al limite di Cramer-Rao (la varianza più piccola che può avere uno stimatore non distorto). La distribuzione dello stimatore Pˆ non è perfettamente nota, e questo è inevitabile nello schema concettuale frequentiˆ=pˆ) infatti è sta. La probabilità fPˆ(pˆ)=Pr(P data dalla (1), ponendo pˆ=nx, e questa dipende dal parametro sconosciuto P. Essa si può rappresentare solo assegnando a P un valore ipotetico: in Fig. 1 si ipotizza che sia P=0,03, cosa che in realtà non sappiamo. L’incertezza della stima può essere quantificata come deviazione standard dello stimatore, che è
▲
GLI ALTRI TEMI
a e b. Rappresentare graficamente la relazione tra questi due valori e la probabilità del 90%, comunque, non è elementare. Sottolineiamo che, nello schema frequentista, non possiamo dire che P “è compreso tra 0,0082 e 0,0757 con una probabilità del 90%”. Dobbiamo invece dire che l’intervallo è stato costruito in modo tale che, prima di essere determinato, aveva una probabilità del 90% d’includere il valoFigura 1 – Distribuzione di probabilità (ipotetica) dello stimatore “frequentista” Pˆ =X/n del tasso re di P. di difettosità P di una saldatrice. La media La soluzione presentata – bidella distribuzione coincide col valore di P (in rosso). sogna dirlo – è completaL’area celeste indica un intervallo di confidenza al 90%, mente al di fuori della GUM. nell’ipotesi di avere osservato Pˆ =0,03 In particolare, non è lecito dire che l’incertezza è la deche questo parametro è sconosciuto: viazione standard dello stimatore, l’incertezza della stima deve quindi a anche se questa è pratica comune, sua volta essere stimata. Ciò può es- che può essere rintracciata in innumesere fatto sostituendo Pˆ=0,03 al valo- revoli lavori scientifici. Nemmeno la stima Pˆ=3%, come vedremo, è conforre sconosciuto P, ottenendo me al dettato della GUM. u ≅ Pˆ( 1− Pˆ ) / n ≅ 0 , 017 . Approccio bayesiano Il valore Pˆ=0,03 è una stima puntua- Nell’approccio bayesiano i ruoli del le. Se vogliamo una “stima per inter- parametro sconosciuto e delle osservalli”, con proprietà statistiche asse- vazioni si invertono. Il parametro P, in gnate, l’approccio frequentista ci quanto incognito, è modellato come mette di fronte a un problema logica- una variabile aleatoria, mentre il numente involuto e tecnicamente labo- mero di saldature difettose osservate, rioso. Dobbiamo determinare un X, è una quantità deterministica. Il intervallo aleatorio I=[Pˆ1;Pˆ2] tale che problema di stima consiste nella deterPr(P ∈I )=cl, e cioè un intervallo di con- minazione della densità di probabilità fidenza I con livello di confidenza cl. di P condizionata all’osservazione di Per il parametro P di una binomiale X, f (p|X). Questa si ricava con la forP questa è faccenda complessa. La solu- mula di Bayes, che in questo caso si zione tecnicamente più esatta [4] è scrive: data dalla formula (calcolata per un livello di confidenza del 90%): f x X p fP ( p ) fP p X = (2) f X p f p dp ( ) ∫ x P I = B(1−cl ) / 2 ( x , n − x + 1);
[
( )
]
( ) ( )
dove fX(X |p) è la probabilità (1), calcolata per x uguale al valore osservato X=3. La fP (p) è la distribuzione a priori del parametro P, cioè una di= [0 , 0082; 0 , 0757 ] stribuzione che descrive le informazioni disponibili su P prima di eseguidove Ba(a,b) è il quantile α-esimo re le saldature. u = P( 1− p ) / n . Naturalmente, an- della distribuzione Beta di parametri Poiché P è compresa tra 0 e 1, in as; B(1−cl ) / 2 ( x + 1, n − x ) =
(3)
T_M ƒ 273
N. 04ƒ ; 2013
▲
GLI ALTRI TEMI
senza di altre informazioni una scelta naturale per fP (p) è la distribuzione uniforme in [0;1] (considerando tutti i valori di P ugualmente probabili). La distribuzione a posteriori risultante è in Fig. 2. Analiticamente è una distribuzione Beta, B(X+1, n–X+1), ma può anche essere calcolata numericamente con applicazione diretta della (2). Dovendo scegliere una stima puntuale per P possiamo optare per il valore atteso, Pˆ=E[P]=0,0392, oppure per il valore modale, Pˆ=arg max fP(p |X)=0,03 (che coincide con l’“intuitiva” stima frequentista). L’incertezza della stima è u=std[P]=0,0191. Se vogliamo una stima per intervalli con proprietà statistiche assegnate, il problema questa volta è d’interpretazione e soluzione assai semplice. Occorre individuare, per la distribuzione di Fig. 2, un intervallo che racchiuda un’area di probabilità assegnata, la “probabilità di copertura” cp, per esempio del 90%. Nel caso in esame, per cp = 90%:
Questo intervallo (“di copertura”, o “di credibilità”, o “bayesiano”), è rappresentato in Fig. 2. La soluzione bayesiana qui esposta, contrariamente a quella frequentista, è completamente conforme al dettato della GUM.
ONORI E ONERI DELL’APPROCCIO BAYESIANO
Confrontando i procedimenti, e le Figg. 1 e 2, ci si dovrebbe forse chiedere, a parere dell’autore, perché mai qualcuno si ostini a usare l’approccio frequentista. I vantaggi dell’approccio bayesiano sono ovvi, e tra essi i seguenti: 1. Lo stimatore frequentista può assumere (in questo esempio) solo valori discreti. 2. Nel caso frequentista abbiamo a che fare con distribuzioni sconosciute e incertezze stimate, in quello bayesiano le distribuzioni e le incertezze sono prive d’incertezza. 3. L’approccio bayesiano risponde alla domanda logica: “quanto è proI = B(1−cp ) / 2 ( x + 1, n − x + 1); babile che P si trovi in un certo intervallo?” Nel caso frequentista questa B(1+cp ) / 2 ( x + 1, n − x + 1) = (3) domanda non ha risposta e non ha neanche senso. 4. Con l’approccio bayesiano pos= [0 , 0136; 0 , 0750] siamo adattare il criterio di scelta della stima puntuale alle esigenze del problema. Per certi casi potremmo preferire il valore modale, per altri il valore atteso. Nel caso di distribuzione a posteriori multimodale, possiamo formulare risposte complesse, del tipo “i valori più probabili sono x e y”. 5. Con l’approccio bayesiano è possibile integrare nella stima le informazioni a priori disponibili. Se, per esempio, siamo certi che il tasso di difettosità della saldatrice non può superare il 10%, possiamo usare una distribuzione a priori fP (p) uniforme Figura 2 – Distribuzione a posteriori del tasso di difetti P di una saldatrice, per una distribuzione a priori in [0 - 0,1]. uniforme in [0;1]. In rosso sono evidenziati In realtà proprio le ultime valore modale e valore medio. due caratteristiche, che moL’area celeste è un intervallo di credibilità al 90% strano bene la potenza e la
[
]
T_M ƒ 274
raffinatezza dell’approccio bayesiano, sono anche il suo tallone d’Achille. La n. 4 ci mette in difficoltà se abbiamo bisogno una regola unica, uno standard, per scegliere la stima puntuale. La GUM risolve decretando che la stima puntuale è sempre il valore atteso, cioè Pˆ=3,92%. La questione seria però è rappresentata dalla “possibilità” d’integrare nella stima le informazioni a priori disponibili. Questa purtroppo non è solo una possibilità, ma anche un obbligo: si deve scegliere una qualche fP (p), e la scelta può essere difficile. Per risolvere il problema si possono seguire diverse strade, che danno luogo a diversi tipi di bayesianismo. Se non si dispone d’informazioni frequentiste, ma di opinioni e convinzioni a priori su P – per esempio, P secondo noi non può superare il valore del 5%, e lo diciamo perché siamo esperti – possiamo fissare fP (p) di conseguenza. Questo è il bayesianismo soggettivo. Se non si dispone d’informazioni frequentiste, e non si vogliono introdurre scelte soggettive nell’analisi, allora si dovrà fissare fP (p) in modo da “far parlare i dati”, e cioè in modo tale che la scelta di fP (p) abbia la minima influenza possibile sul risultato finale. Questo è il bayesianismo oggettivo. Il bayesianismo soggettivo ha molti usi pratici. È una eccellente “macchina sillogistica”, adatta a trarre conclusioni coerenti da un insieme di dati e da determinate opinioni. Esso, però, è difficilmente proponibile in un ambito di comunicazione scientifica, o in qualsiasi situazione in cui sia necessaria una sostanziale incontestabilità dei risultati. Per queste situazioni rimane il bayesianismo oggettivo, che è poi quello effettivamente applicato nell’esempio illustrato. (A rigore dovrebbe essere citato anche il “bayesianismo empirico”, una tecnica avanzata che, comunque, è essenzialmente un bayesianismo oggettivo). I concetti del bayesianismo oggettivo sono anche quelli utilizzati nell’impianto concettuale della GUM e del S1.
N. 04ƒ ;2013 Le raffinatezze del bayesianismo oggettivo Il bayesianismo oggettivo è una metodologia potente e una teoria affascinante, ma è decisamente per esperti, e non si presta a essere applicata meccanicamente [5]. Ad esempio, la soluzione che abbiamo presentato al problema della saldatrice non è indiscutibile, ma ha una certa arbitrarietà. La mancanza d’informazioni a priori su P è stata codificata con una distribuzione uniforme in [0;1]. Sembra una scelta ovvia, ma se il problema fosse formulato in termini di un altro parametro Θ, (per esempio Θ=P2) dovremmo attribuire una distribuzione uniforme a Θ. Qual è il “parametro privilegiato”, con distribuzione uniforme? Questo problema può essere risolto fissando la fP (p) con la “regola di Jeffreys” [6], che assicura l’invarianza per una riparametrizzazione, senza dover scegliere una parametrizzazione privilegiata. In alcuni problemi la regola ha un ruolo fondamentale. Stimando la deviazione standard di una gaussiana, una distribuzione a priori uniforme (fΣ(σ)∝1) dà risultati non buoni. Con la regola di Jeffreys si fissa fΣ(σ)∝1/σ, e si ottengono risultati corretti. Nel caso della stima di P, la fP (p) della regola di Jeffreys è la distribuzione arcoseno, e i risultati finali sono un po’ diversi da quelli presentati sopra: Pˆ=E[P]=0,0347, Pˆ=arg max fP(p|X)=0,0253. La differenza non è grande, ma nemmeno trascurabile. A volte, tuttavia, anche la regola di Jeffreys non dà buoni risultati. Per ovviare a questo, la teoria offre altri metodi per la scelta della fP (p), dal principio di massima entropia alle “reference prior” di J. Bernardo [7]. Però una regola che va bene sempre semplicemente non esiste: ogni problema di stima richiede uno studio a sé stante. Questo non è un ostacolo per uno statistico professionista, ma lo è se si desidera un metodo automatico per derivare stima e incertezza. Di fatto, anche nel semplice problema proposto, con l’approccio bayesiano abbiamo ricavato due diverse distribuzioni e
▲
BAYESIANISMO OGGETTIVO E GUM
GLI ALTRI TEMI
quattro diverse stime, da un minimo di 0,025 a un massimo di 0,039. Ma il peggio deve ancora venire. Il problema fondamentale del bayesianismo oggettivo, per quanto riguarda la sua implementazione nella GUM, è che alle distribuzioni ottenute non si applicano le normali leggi di propagazione. Il paradosso di Stein Se dobbiamo scommettere sul Figura 3 – Distribuzione di P2, ricavata dalla valore X che risulterà dal lancio distribuzione di Fig. 2. Sono evidenziate due di un dado, supponendo di possibili stime puntuali di P2, e cioè il valore modale avere una perdita propor- e il valore medio. Questa distribuzione non è corretta, e le stime non sono accettabili zionale al quadrato della differenza tra la scommessa Xˆ e il risultato del lancio X, la scommessa deve essere Xˆ=E[X]=3,5. Se prossimativa) della distorsione, o bias, dobbiamo scommettere su quale valore si deriva immediatamente uno stimatoˆ =ˆ ˆ ˆ2 ˆ ˆ assumerà Y=X2, la risposta deve essere re corretto: Y ′ Y – var[P ] P –P (1–P )/n. 2+ ˆ Si noti che, come nell’articolo preceY=E[Y]=E[X] var[X]=15,17. In altre dente [2], dove l’approccio bayesiaparole, è sufficiente calcolare la propano somma (Yˆ=E[P]2+var [P]), l’approcgazione della distribuzione. ˆ ˆ2 ˆ Se dobbiamo scommettere sul valore cio frequentista sottrae (Y=P –var [P ]). Nemmeno il paradosso di Stein è un che assumerà la variabile aleatoria P, ostacolo per uno statistico professionidi cui conosciamo la distribuzione, la nostra risposta (stima) è ˆP=E[P]=0,0392. sta. Per avere una stima bayesiana 2 Ma se dobbiamo scommettere sul va- corretta di P , si dovrà applicare il 2 procedimento delle “reference priors” lore di Y=P , perché ci interessa la prodescritto da J. Bernardo in [7] (seziobabilità di avere due saldature consecutive difettose, possiamo applicare a ne 5.3). Esso consiste nel definire e P la propagazione, rispondendo usare una nuova distribuzione a priori per la quantità Y=P2, perché quelYˆ=E[P2]=E[P]2+var[P]=0,001904? La risposta è no. La distribuzione a posteriori di P2 (Fig. 3), ricavata da quella in Fig. 2, purtroppo non è corretta. Questo è un fatto ben noto della metodologia bayesiana oggettiva, osservato per la prima volta da Stein (1959) nell’ambito della cosiddetta “statistica fiduciale” [8], e studiato approfonditamente, con riferimento alla GUM, in [9]. Si deve notare che, se invece seguiamo il “brutto” approccio frequentista, la propagazione è semplice. Calcoliamo la distriˆ 2 (Fig. 4), propabuzione di Yˆ=P Figura 4 – Distribuzione di probabilità gando quella di Fig. 1. Ci acdi P2=(X/n)2, ricavata da quella di Fig. 1. corgiamo che il valore atteso di La media della distribuzione (linea rossa continua) non coincide col valore P2=0,0009 (linea rossa Yˆ non coincide col parametro 2 ˆ tratteggiata). Di conseguenza lo stimatore è distorto: da stimare, perché E[Y]=P +var lo stimatore corretto è P2 – bias 2 ˆ [P ]>P . Dalla correzione (ap-
T_M ƒ 275
la usata per P non va più bene (“the use of such a prior overwhelms what the data have to say” [7]). Il S1 della GUM, però, parla solo di distribuzioni in senso bayesiano, e della loro propagazione; non certo delle reference prior di Bernardo. In molti hanno, infatti, osservato i risultati “strani” del S1 almeno in alcune occasioni, e hanno formulato correzioni, per esempio implementando, a valle della propagazione Monte Carlo, una procedura numerica supplementare con l’obiettivo di applicare la prior distribution “giusta” [10]. Alla luce di quanto esposto, rimane, a parere dell’autore, un dubbio. Una teoria complessa e delicata, come il bayesianismo oggettivo, è veramente adatta a definire procedimenti automatici per la valutazione di stime e incertezze, e in particolare per la loro propagazione? E poi, come fare per valutare l’incertezza di stime frequentiste? Dovremmo proibirle? CONCLUSIONI
Esaminando le caratteristiche dei due approcci rivali all’inferenza statistica, il frequentista e il bayesiano, si capisce per quale motivo il secondo sia stato preferito per l’impostazione della GUM, ma si capisce anche perché questa scelta abbia provocato problemi. La questione centrale di cui si occupano la GUM e il S1 è la propagazione, che è proprio l’operazione più difficoltosa di tutte nell’approccio bayesiano. Essa richiede di definire una nuova distribuzione a priori per ogni nuovo problema di propagazione, e non esiste un modo semplice e automatico per farlo. Nello schema frequentista, per quanto involuto e “brutto”, la propagazione risulta invece estremamente semplice. Come nel precedente articolo abbiamo visto che, quando si propaga una grandezza incerta, la stima bayesiana prevede una somma, mentre quello frequentista prevede una sottrazione. Questo fenomeno può essere chiarito in modo molto semplice, senza tirare in ballo distribuzioni a priori e la loro complicata teoria; ma questa è materia per un ulteriore approfondimento.
T_M ƒ 276
N. 04ƒ ; 2013
▲
GLI ALTRI TEMI
RIFERIMENTI
[1] B. Efron, “Bayesians, Frequentists, and Scientists”, J. Am. Stat. Assoc., vol. 100, pagg. 1-5, 2005. [2] N. Giaquinto, “Incertezza di misura: teoria coerente o edificio da ricostruire? Parte 1: il Supplemento 1 della GUM e il suo paradosso”, Tutto_Misure, vol. XV, n. 3, pagg. 189-194, set. 2013. [3] M. Bayes e M. Price, “An Essay towards Solving a Problem in the Doctrine of Chances. By the Late Rev. Mr. Bayes, F.R.S. Communicated by Mr. Price, in a Letter to John Canton, A.M.F.R.S.”, Philos. Trans., vol. 53, pagg. 370-418, gen. 1763. [4] Clopper, C.J. e E.S. Pearson, “The Use of Confidence or Fiducial Limits Illustrated in the Case of the Binomial”, Biometrika, vol. 26, n. 4, pagg. 404-413, dic. 1934. [5] J. Berger, “The Case for Objective Bayesian Analysis”, Bayesian Anal., vol. 1, n. 3, pagg. 385-402, 2006. [6] H. Jeffreys, “An Invariant Form for the Prior Probability in Estimation Problems”, Proc. R. Soc. Lond. Ser. Math. Phys. Sci., vol. 186, n. 1007, pagg. 453-461, set. 1946. [7] J.M. Bernardo, “Reference Posterior Distributions for Bayesian Inferen-
ce”, J.R. Stat. Soc. Ser. B Methodol., vol. 41, n. 2, pagg. 113-147, 1979. [8] C. Stein, “An Example of Wide Discrepancy Between Fiducial and Confidence Intervals”, Ann. Math. Stat., vol. 30, n. 4, pagg. 877-880, 1959. [9] F. Attivissimo, N. Giaquinto, e M. Savino, “A Bayesian paradox and its impact on the GUM approach to uncertainty”, Measurement, vol. 45, n. 9, pagg. 2194-2202, nov. 2012. [10] A.B. Forbes, “An MCMC algorithm based on GUM Supplement 1 for uncertainty evaluation”, Measurement, vol. 45, n. 5, pagg. 11881199, giu. 2012.
Nicola Giaquinto è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Elettrica e dell’Informazione del Politecnico di Bari. I suoi principali interessi di ricerca riguardano l’elaborazione numerica dei segnali per le misure e la sensoristica, i modelli matematici per le misure, l’affidabilità e la qualità, e le problematiche teoriche relative alla definizione e alla valutazione dell’incertezza di misura.
Abbonarsi ORA per 2 anni a
TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
CONVIENE!!!
70 euro (anziché 80) L’abbonamento biennale Vi offre 8 numeri cartacei + 8 telematici (Tutto_Misure News) Per richiedere le modalità di abbonamento, telefonare al n° 011/0266700 o inviare una e-mail a: metrologia@affidabilita.eu
CAMPI E COMPATIBILITÀ ELETTROMAGNETICA
▲
LA COMPATIBILITÀ ELETTROMAGNETICA Carlo Carobbi 1, Alessio Bonci 1, Marco Cati 2
Strumentazione di base nelle misure di CEM Modello del Circuito Equivalente del Generatore di Impulsi Combinato 1,2/50 – 8/20 µs secondo la futura norma IEC 61000-4-5 ed. 3
EQUIVALENT CIRCUIT MODEL OF SURGE GENERATOR ACCORDING TO THE FUTURE IEC 61000-4-5 ED.3 STANDARD In the present issue of Tutto_Misure the elementary equivalent circuit model of the surge generator is derived. Such equivalent circuit is capable to reproduce the standard waveform that will be specified by the future edition 3 of IEC 61000-4-5 in the defined loading conditions for the generator. The present paper completes the previous one published in issue 3/2013 of Tutto_Misure. RIASSUNTO In questo numero di Tutto_Misure deriviamo il circuito equivalente elementare del generatore di surge. Tale circuito equivalente è capace di riprodurre la forma d’onda normalizzata dell’impulso che sarà specificata nella futura edizione 3 della norma IEC 61000-4-5 nelle condizioni di carico previste per il generatore. Il presente articolo è il completamento del precedente pubblicato nel n. 3/2013. INTRODUZIONE
Nel momento in cui questo articolo viene scritto, l’edizione 3 della norma IEC 61000-4-5 è in forma di bozza (CDV) [1]. Alcune importanti modifiche sono previste nella futura edizione 3 rispetto all’attuale edizione 2 [2] relativamente alla verifica dei parametri della forma d’onda ai terminali del generatore. La prima novità è che la verifica è effettuata utilizzando un condensatore da 18 µF in serie all’uscita del generatore, sia in condizioni di circuito aperto che di corto circuito. Il condensatore da 18 µF è stato introdotto per rendere coerente la verifica ai morsetti del generatore (NdA: necessariamente per assicurare l’intercambiabilità dei generatori) con quella alla porta EUT della CDN per l’accoppiamento linea-linea all’alimentazione AC/DC (brevemente, 18 µF CDN nel seguito). Il condensatore ha un effetto trascurabile sulla tensione a circuito aperto, ma ha un impatto significativo sulla corrente di corto circuito. Poiché l’intenzione del gruppo di lavoro responsabile del manteni-
punto a metà ampiezza del fianco discendente dell’impulso. Nella futura edizione 3 (vedi Fig. 2) la durata sarà sostituita dalla larghezza dell’impulso, definita come l’intervallo di tempo tra i punti a metà ampiezza. La larghezza dell’impulso di corrente di corto circuito Twi, è fissata a 20/1,18 µs (cioè 16,9 µs), dove 1,18 è un coefficiente empirico (abbastanza vicino al valore di 1,19 derivato nel precedente articolo [4]). La larghezza dell’impulso di tensione a circuito aperto, Twv, è fissata a 50 µs. Infine il tempo di fronte è sostituito
mento dello standard è di lasciare invariati i valori nominali dei parametri delle forme d’onda del segnale sia ai morsetti del generatore, sia alla porta EUT della 18 µF CDN, allora la soluzione più ragionevole è quella d’introdurre lo stesso condensatore da 18 µF anche nel setup di verifica, in serie con l’uscita del generatore. Si noti che la verifica alla porta EUT della 18 µF CDN era già stata prevista dopo la pubblicazione dell’edizioFigura 1 – Forma d’onda tipica della corrente ne 1 della norma [3]. di cortocircuito 8/20 µs del generatore di surge. Parametri definiti in accordo Ciononostante, in base all’esperienza all’edizione 1 [2] e 2 [3] della IEC 61000-4-5 maturata da allora, molti generatori attualmente utilizzati dai laboratori mal soddisfano, o non soddisfano affatto, gli stessi requisiti sia ai morsetti del generatore, sia alla porta EUT della 18 µF CDN, in particolare se si tiene conto dell’incertezza di misura 1 Università di Firenze, Dipartimento nella valutazione di conformità. La di Ingegneria dell’Informazione ragione di ciò sarà chiara a breve. 2 Elettra srl – Calenzano, FI La seconda novità è la modifica della definizione della durata della forma marco.cati@esaote.com d’onda dell’impulso. Nelle edizioni 1 Estratto e adattato per Tutto_Misure da: Carlo e 2 (vedi Fig. 1) la durata è definita F.M. Carobbi, A. Bonci “Elementary and Ideal Equivalent Circuit Model of the come l’intervallo di tempo compreso 1,2/50 – 8/20 µs Combination Wave tra l’origine virtuale (O) della scala Generator”, in corso di pubblicazione temporale e l’istante corrispondente al su IEEE EMC MAGAZINE
T_M
N.
T_M 4/1 3 ƒ 277
N. 04ƒ ; 2013
▲
CAMPI E COMPATIBILITÀ ELETTROMAGNETICA
È evidente che non è possibile adottare la stessa procedura di progettazione descritta nel precedente articolo [4]. È comunque possibile pre-distorcere la Figura 3 – Circuito equivalente standard forma d’onda della correndel generatore di surge 1,2/50 – 8/20 µs te di cortocircuito generata come richiamato dalla bozza dell’ed. 3 in assenza del condensatodella IEC 61000-4-5 [1] re da 18 µF in modo che, quando il condensatore è – il tempo di salita si riduce da inserito, i parametri di forma d’onda della corrente di cortocircuito coinci6,4 µs a 5,7 µs; – la larghezza dell’impulso dano con i valori nominali riportati in Figura 2 – Forma d’onda tipica della corrente passa da 16,9 µs a 14,3 µs, Tab. 1, con un errore trascurabile di cortocircuito 8/20 µs del generatore l’undershoot aumenta da 0,34 a rispetto alle tolleranze. Questo risultadi surge. Parametri definiti in accordo all’edizione 3 to può essere ottenuto attraverso una 0,44. (bozza) [1] della IEC 61000-4-5 Alcune interessanti considera- procedura di trial-and-error, che in zioni sono suggerite da questi pratica converge in due passi, se un dal tempo di salita, Tri, dal 10% al risultati. In primo luogo, un generato- errore dell’ordine dell’1% è conside90% per la corrente di corto circuito, re progettato per il rispetto dei requi- rato soddisfacente (altrimenti sono e dal 30% al 90% per la tensione a siti di forma d’onda previsti dall’edi- necessari più passi d’interazione). Si circuito aperto, Trv. I nuovi parametri zione 2 molto probabilmente non noti che, poiché l’inserimento del condelle forme d’onda previsti dalla futu- rispetterà i parametri previsti dalla densatore da 18 µF non ha alcun ra edizione 3 sono riportati in Tab. 1. futura edizione 3. In secondo luogo, effetto sulla tensione a vuoto, i paraun generatore progettato per il rispet- metri di questa forma d’onda corrito dei parametri di forma d’onda in spondono esattamente ai valori nomiPROBLEMA DI PROGETTAZIONE corrispondenza dei terminali EUT nali di Tab. 1. della 18 µF CDN molto probabilmen- Per chiarezza illustriamo brevemente PER L’EDIZIONE 3 te rispetterà anche i vincoli della futu- la procedura trial-and-error. Il primo DELLA IEC 61000-4-5 ra edizione 3 della norma. In terzo passo di pre- distorsione è il seguente: Il cambiamento più critico è senza luogo, il requisito presente nelle edi500 dubbio l’introduzione del condensato- zioni 1 e 2 della norma secondo cui il lP = 500 = 555 A , 450 re da 18 µF, mentre la nuova defini- generatore deve soddisfare gli stessi zione dei parametri della forma d’on- parametri di forma d’onda, sia ai 6, 4 Tn = 6, 4 = 7 , 2 µs da ha in effetti un impatto marginale. propri terminali sia ai morsetti EUT 5, 7 In Fig. 3 è riportato il modello del cir- della 18 µF CDN, è decisamente cuito equivalente del generatore pre- ambiguo. 16, 9 Twi = 16, 9 = 20 µs visto per l’adozione del condensatore Torniamo al problema di progetta14 , 3 . da 18 µF in uscita. Utilizzando i valo- zione del generatore di surge. Cori dei parametri circuitali previsti per me possiamo determinare un insieVP l’edizione 2 (vedi precedente articolo me di valori dei parametri del cir- Si noti che ora R = l = 1, 8 Ω . P cuito equivalente del generatore di [4]) il risultato è che: – la corrente di picco si riduce da surge di Fig. 3 in modo che i requi- Con questi valori di partenza pre-di500 A a 450 A (assumendo un valo- siti di Tab. 1 siano soddisfatti quan- storti dei parametri della forma d’onre di picco VP della tensione di uscita do è inserito il condensatore da da si ottengono, seguendo i passaggi descritti nel precedente articolo [4], i 18 µF? a vuoto pari a 1.000 V); seguenti valori dei parametri circuitali: R3=25,8 Ω, C=8,84 µF, L=10,8 µH, R1=11,1 Ω, R2=0,820 Ω Tabella 1 – Parametri delle forme d’onda standard di surge IEC 61000-4-5 Ed. 3 (bozza [1]) ed E=1.062 V. Ora, con questi valori dei parametri del circuito, con il conFORMA D’ONDA Ampiezza di picco Vp o Ip Tempo di salita Tr Larghezza Tw densatore 18 µF presente, si ottiene: IP=487 A, Tri=6,2 µs e Twi=16,2 µs. Circuito aperto 0,5-1-2-4 kV ± 10% 0,72 µs ± 30% 50 µs ± 20% Secondo passo, pre – distorciamo ancora una volta i parametri della forma Cortocircuito 0,25-0,5-1-2 kA ± 10% 6,4 µs ± 20% 16,9 µs ± 20% d’onda come segue:
T_M ƒ 278
N. 04ƒ ;2013 lP =
500 500 = 513 A , 487
Tn =
6, 4 6, 4 = 6, 6 µs e 6, 2
Twi =
16, 9 16, 9 = 17 , 6 µs . 16, 2
Da questi valori pre-distorti si ottiene infine: R3=25,5 Ω, C=9,98 µF, L=10,7 µH, R1=9,39 Ω, R2=0,832 Ω ed E=1.063 V. I parametri della forma d’onda della corrente di cortocircuito, con il condensatore da 18 µF presente, ora sono: IP=496 A, Tri=6,3 µs e Twi=16,7 µs. In particolare, l’under-shoot è 0,39. Dopo due passi d’iterazione il massimo errore sui parametri della forma d’onda della corrente di cortocircuito è 1,5 % (sul parametro rise-time, la cui tolleranza è del 20%), mentre i parametri della forma d’onda di tensione a circuito aperto corrispondono esattamente ai valori nominali, come previsto. La Tab. 2 consente di confrontare in sintesi i valori dei parametri del circuito equivalente del generatore di surge di Fig. 3 per l’attuale edizione 2 e la futura edizione 3 della norma IEC 61000-4-5. Le variazioni maggiori, nel passare dall’edizione 2 alla 3, sono a carico della resistenza R1 che dimezza all’incirca il suo valore, e a carico della capacità C che all’incirca lo raddoppia: gli altri parametri circuitali rimangono pressoché invariati.
CONCLUSIONI
▲
CAMPI E COMPATIBILITÀ ELETTROMAGNETICA
ca del modello di circuito elementare. Ci si può chiedere, in particolare, se il circuito è in grado di riprodurre pienamente il comportamento di generatori di surge reali. La risposta è no, perché non è possibile determinare un modello circuitale lineare generale (cioè valido per qualsiasi generatore commerciale) capace di riprodurre la forma d’onda di corrente dopo l’istante del primo attraversamento di zero della corrente di cortocircuito. Per dimostrare Figura 4 – Corrente di corto circuito misurata questa affermazione confrontiasu un generatore commerciale, livello 2 kA. mo la Fig. 4 con la Fig. 5 in cui L’impulso presenta un vistoso under-shoot sono mostrati gli andamenti delle correnti di cortocircuito generate da un generatore commerciale a due livelli diversi (2 kA in Fig. 4 e 500 A in Fig. 5). È da notare che l’impulso in Fig. 4 ha un significativo under-shoot, mentre l’impulso in Fig. 5 è praticamente unidirezionale. Questo differente comportamento è da attribuire alla non linearità del generatore, che è probabilmente causata dall’interruttore. Simili differenze possono essere riscontrate tra i generatori di produttori diversi, ciascuno con la stessa firma caratteristica (oscillante o Figura 5 – Corrente di corto circuito misurata su un generatore commerciale, livello 500 A. L’impulso è unidirezionale) a tutti i livelli. praticamente unidirezionale Un altro problema è il tempo di salita dell’interruttore che può cuitale elementare presentato è la da solo dominare il tempo di salita simulazione numerica e la previsiodella tensione a vuoto del generatore, ne, piuttosto che il progetto vero e piuttosto che la proprio di un generatore, se non L costante di tempo . Per que- come punto di avvio della fase di sviluppo. ( R2 + R1)
ste e altre non idealità degli interrutRiportiamo qui alcune considerazioni tori impiegati nei generatori, l’applifinali riguardanti l’applicazione prati- cazione principale del modello cir- RIFERIMENTI BIBLIOGRAFICI Tabella 2 – Valore dei parametri del modello del circuito del generatore di surge: confronto fra i valori relativi all’edizione 2 e 3
Edizione
R1 [Ω]
R2 [Ω]
R3 [Ω]
L [µH]
C [µF]
E [V]
2
20,2
0,814
26,1
10,9
5,93
1.060
3
9,39
0,832
25,5
10,7
9,98
1.063
[1] IEC 77B/685/CDV, Project number IEC 61000-4-5 Ed. 3.0. [2] Electromagnetic compatibility (EMC) – Part 4-5: Testing and measurement techniques – Surge immunity test, IEC 61000-4-5, Ed. 2.0, 200511. [3] Electromagnetic compatibility (EMC) – Part 4-5: Testing and mea-
T_M ƒ 279
N. 04ƒ ; 2013
Carlo Carobbi si è laureato con lode in Ingegneria Elettronica nel 1994 presso l’Università di Firenze. Dal 2000 è Dottore di Ricerca in Telematica. Dal 2001 è ricercatore presso il Dipartimento di Elettronica e Telecomunicazioni dell’Università di Firenze dove è docente di Misure Elettroniche e di Compatibilità Elettromagnetica. Collabora come ispettore tecnico con l’ente unico di accreditamento Accredia. È presidente del SC 210/77B (Compatibilità Elettromagnetica, Fenomeni in alta frequenza) del CEI.
Marco Cati si è laureato con lode ed encomio solenne in Ingegneria Elettronica all’Università di Firenze nel 2001. Dal 2013 è responsabile tecnico del laboratorio prove e misure Elettra srl. Dal 2005 fa parte del reparto R&S di Esaote dove è responsabile delle verifiche di Compatibilità Elettromagnetica su dispositivi ecografici. Collabora come ispettore tecnico con l’ente unico di accreditamento Accredia. Svolge attività di consulente nel campo della compatibilità elettromagnetica e della sicurezza elettrica.
Alessio Bonci si è laureato in Ingegneria delle Telecomunicazioni presso l’Università di Firenze nel 1999. Lo stesso anno è passato a Magnetek spa, dove è stato coinvolto nel progetto e sviluppo di alimentatori a commutazione. Dal 2002 è insegnante del corso di sistemi elettrici presso lo “Istituto Professionale Statale Francesco Buitoni” di Sansepolcro. Attualmente svolge il Dottorato di Ricerca in Ingegneria Industriale e dell’Affidabilità presso l’Università di Firenze.
“Modello del Circuito Equivalente del Generatore di Impulsi Combinato 1,2/50 – 8/20µs”, TUTTO_MISURE, anno XV, n° 3, pp. 211-214.
NEWS
▼
surement techniques – Surge immunity test, IEC 61000-4-5, Ed. 1.1, 200104. [4] C. Carobbi, A. Bonci, M. Cati,
NUOVI TORSIOMETRI ROTATIVI PER MISURE DI COPPIA
Instrumentation Devices propone una vasta gamma di trasduttori rotativi per misure di coppia, realizzati secondo varie configurazioni meccaniche e con differenti tecnologie (telemisura digitale, accoppiamento ottico, trasformatore rotante, slip ring….). – Versioni a doppia flangia, senza cuscinetti e di tipo contact-less. – Esecuzioni ad albero senza contatti striscianti. – Soluzioni ad alta velocità. – Versioni per sperimentazione automotive ed esecuzioni speciali. I modelli disponibili sono raggruppati in due principali categorie e permettono di soddisfare varie necessità in un range di misura compreso tra pochi Nm e centinaia di kNm fondo scala. La categoria dotata di attacchi meccanici a flangia prevede torsiometri di costruzione compatta e adatti a un’installazione “inline” su sistemi di trasmissione meccanica, che utilizzano tecniche telemetriche ottiche o RF per la trasmissione dei segnali tra rotore e statore. Privi di contatti striscianti e cuscinetti, offrono elevata affidabilità e lunga vita operativa senza la necessità di alcuna manutenzione periodica; hanno la particolarità di poter essere forniti in versione brevettata “dual range”, con due differenti fondi scala di misura selezionabili. La categoria ad albero include vari torsiometri disponibili con diversi tipi di attacchi meccanici: circolari, quadri, esagonali, ecc. Questi modelli sono disponibili secondo varie tecnologie di accoppiamento dei segnali tra rotore e statore: ottico, trasformatore rotante, slip-ring, ecc. Le versioni con accoppiamento ottico offrono grande affidabilità, lunga vita operativa e minimizzano la necessità di manutenzione periodica. Per ulteriori informazioni: www.instrumentation.it
I SERIALI MISURE E FIDATEZZA
▲
MISURE E FIDATEZZA M. Catelani 1, L. Cristaldi 2, M. Lazzaroni 3
Tecniche di analisi della fidatezza FMEA – Analisi dei modi ed effetti di guasto
FMEA – FAILURE MODE AND EFFECT ANALYSIS One of the most important techniques for dependability evaluation is represented by FMEA – Failure Modes and Effects Analysis. Starting from the knowledge of the system to be studied, FMEA allows to analyze the effects produced on the system by a failure of a subsystem or a component. RIASSUNTO Il lavoro presenta una delle più importanti e diffuse tecniche di valutazione della fidatezza. Per l’implementazione dell’analisi occorre disaggregare il sistema secondo una logica di scomposizione per blocchi funzionali, fino a livello di componente. INTRODUZIONE
Nel precedente lavoro [1] è stata presentata una panoramica delle tecniche più in uso per la valutazione della fidatezza. È nostra intenzione, in questo e nei lavori a seguire, effettuarne una trattazione più dettagliata iniziando dall’analisi FMEA. L’analisi dei modi e degli effetti di guasto (FMEA) è una procedura sistematica per l’analisi di un sistema, condotta allo scopo d’individuare i potenziali modi di guasto, le cause e gli effetti sulle prestazioni ed eventualmente sulla sicurezza delle persone, dell’ambiente e del sistema [1]. Quando impiegata in fase di avanzata progettazione, la tecnica di analisi è in grado di evidenziare le eventuali carenze del sistema, in modo tale da suggerire le modifiche necessarie per il miglioramento dell’affidabilità e, più in generale, della disponibilità. Spesso l’analisi FMEA consente di concentrarsi su questi aspetti e di capire se l’apparato in esame mantiene, ad esempio, i requisiti di sicurezza. Prima di addentrarci oltre nell’argomento è bene stabilire che in modo più appropriato si dovrebbe parlare di modo di guasto invece che di guasto. Per modo di guasto si intende l’effetto (evidenza oggettiva) dovuto al guasto di un componente o di una parte di un sistema. La FMEA è un metodo adatto essen-
zialmente allo studio dei guasti di dispositivi realizzati anche con tecnologia diversa (elettrici, meccanici, idraulici, ecc.) o loro combinazione. La FMEA può anche essere usata per lo studio delle prestazioni di un software e delle mansioni, nonché dei comportamenti dell’operatore. L’analisi è condotta partendo dalle caratteristiche dei componenti di sistema attraverso un processo induttivo: ipotizzando il guasto di un componente, l’analisi consente di evidenziare la relazione esistente fra il guasto stesso e i guasti, i difetti, la degradazione delle prestazioni o dell’integrità dell’intero sistema. L’analisi FMEA consente di ben comprendere il comportamento di un componente di sistema, quale può essere una scheda elettronica o un componente meccanico, e come questo influisca sul funzionamento dell’intero sistema in particolare nel caso in cui abbia un’avaria. È infatti sempre necessario assicurarsi che un malfunzionamento di una parte di un sistema non porti all’instaurarsi di situazioni pericolose. In un impianto industriale o in una macchina a controllo numerico, per esempio, non è tollerabile che il guasto di un dispositivo elettronico di una scheda di controllo possa consentire operazioni ritenute poco sicure. La scheda su cui si è verificato il guasto dovrà pertanto essere progettata in modo tale che, a guasto pre-
sente, sia inibito il funzionamento del sistema, o almeno lo siano le operazioni non sicure. La soluzione è di tipo progettuale, e l’analisi FMEA consente da un lato d’individuare tutti i guasti che, se non ben previsti, possono dar luogo a situazioni pericolose, e dall’altro a verificare che le soluzioni adottate risultino efficienti. Ecco pertanto il motivo per cui, sebbene sempre utile, è consigliabile effettuare e aggiornare l’analisi FMEA durante la fase di progettazione, anche se può essere uno strumento di verifica a posteriori della progettazione e di prova della conformità del sistema alle specifiche, alle norme, ai regolamenti e alle esigenze dell’utilizzatore. Risulta chiaro che i risultati della FMEA fissano le priorità per i controlli di processo da attuare e le ispezioni previste nel corso della costruzione e dell’installazione nonché per le prove di qualifica, di approvazione, di accettazione e di messa in esercizio. Non si vuole ovviamente sminuire l’importanza di una FMEA condotta su un apparato già progettato. In tal caso, semplicemente, l’analisi è condotta come una sorta di verifica a posteriori di quanto realizzato e, a ben vedere, può ritenersi un primo passo utile a definire i requisiti e i criteri progettuali nel momento in cui si riterrà opportuno riprogettare o anche solo aggiornare il prodotto. Una FMEA consente (i) l’identificazione dei guasti ivi compresi i guasti indotti; (ii) l’individuazione della ne-
1
Università degli Studi di Firenze marcantonio.catelani@unifi.it 2 Politecnico di Milano loredana.cristaldi@polimi.it 3 Università degli Studi di Milano e INFN Milano massimo.lazzaroni@unimi.it
T_M
N.
4/13 ƒ 281
N. 04ƒ ;2013 PROCEDURA OPERATIVA
La procedura per l’analisi FMEA è di seguito descritta. Passo 1 Definizione del sistema In questa fase si definisce il sistema, i suoi requisiti funzionali, le condizioni ambientali e le eventuali prescrizioni legali da rispettare. Nel definire i requisiti funzionali e operativi occorre precisare, oltre alle prestazioni attese, anche le funzionalità indesiderate, ovvero le situazioni che devono essere considerate come condizioni di guasto. Le condizioni ambientali riguardano la temperatura dell’ambiente di lavoro del sistema, l’umidità, la pressione e, infine, la presenza o meno di polveri, muffe e salinità. Oltre a ciò, si devono tenere in debito conto tutte le problematiche legate alla compatibilità elettromagnetica (EMC). È bene, infine, verificare quali prescrizioni legislative sono applicabili al sistema, soprattutto in termini di sicurezza e rischio. Passo 2 – Elaborazione dei diagrammi a blocchi Si elaborano i diagrammi a blocchi funzionali con lo scopo di chiarire l’interconnessione fra i vari sottosistemi, circuiti, componenti.
Passo 3 Definizione dei principi di base Inizialmente è necessario fissare il livello di analisi più adeguato. Il livello ottimale è scelto da chi esegue la FMEA e il livello più basso possibile è quello per cui si può disporre delle necessarie informazioni. In una FMEA relativa a un sistema elettronico è chiaro che il livello più basso possibile è quello in cui si analizzano i modi di guasto dei singoli componenti elettronici. Passo 4 Definizione dei modi di guasto Si identificano i modi, le cause e gli effetti dei guasti, la loro importanza relativa e, in particolare, la modalità di propagazione. Il modo di guasto è l’evidenza oggettiva della presenza di un guasto. È necessario in questa fase individuare gli elementi/componenti critici del sistema ed elencarne i modi di guasto. I modi di guasto sono dedotti in maniera diversa a seconda che il componente sia nuovo oppure già utilizzato. Quando il componente è nuovo – in assoluto o per il progettista che, non avendolo mai utilizzato non ha ancora accumulato sufficiente informazione circa il suo comportamento – i modi di guasto si possono ricercare per similitudine con componenti che hanno la stessa funzione o da risultati dei test del componente sottoposto a condizioni di lavoro particolarmente gravose. I modi di guasto possono anche essere dedotti da uno studio teorico del componente o del sistema. Per componenti già ampiamente utilizzati e conosciuti, invece, i modi di guasto sono generalmente dedotti dalla documentazione fornita dal costruttore e dai dati storici inerenti il suo utilizzo. I modi di guasto possono essere quasi sempre classificati in uno dei modi di guasto elencati in Tab. 1. Una volta definiti i modi di guasto se ne studiano gli effetti. Infine, si valutano gli effetti del guasto, generali e/o locali, e l’effetto finale al più alto livello del sistema. Una ulteriore considerazione merita qui di essere fatta a proposito dei cosiddetti guasti di modo comune che sono tutt’altro che infrequenti. Tali sono i guasti originati da un avvenimento che provoca contemporaneamente stati di guasto in due o più componenti. I guasti di
▲
cessità di ridondanze e ulteriori sovradimensionamenti e/o semplificazioni del progetto; (iii) la determinazione della necessità di scegliere materiali, parti, dispositivi o componenti adeguati; (iv) l’identificazione delle conseguenze gravi dei guasti e pertanto determinare se è necessario rivedere e modificare il progetto oltre che trovare tutto ciò che può presentare rischi per la sicurezza e l’incolumità delle persone o sollevare problemi di responsabilità legale; (v) l’ottenimento di aiuto nel definire le procedure di collaudo e di manutenzione suggerendo i modi potenziali di guasto, i parametri che devono essere registrati durante il collaudo, le verifiche e l’utilizzazione e nella stesura di guide per la ricerca dei guasti; (vi) la definizione di alcune delle caratteristiche del software, se presente [2-3].
I SERIALI MISURE E FIDATEZZA
Tabella 1 – Elenco dei modi di guasto
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33
Guasto alla struttura (rottura) Grippaggio o inceppamento Vibrazioni Non resta in posizione Non apre Non chiude Rimane aperto Rimane chiuso Perdita verso l’interno Perdita verso l’esterno Fuori tolleranza (in più) Fuori tolleranza (in meno) Funziona anche quando non dovrebbe Funzionamento intermittente Funzionamento irregolare Indicazione errata Flusso ridotto Attivazione errata Non si ferma Non si avvia Non commuta Intervento prematuro Intervento in ritardo Ingresso errato (eccessivo) Ingresso errato (insufficiente) Uscita errata (eccessiva) Uscita errata (insufficiente) Mancanza d’ingresso Mancanza di uscita Corto circuito (elettrico) Circuito aperto (elettrico) Dispersione (elettrica) Altre condizioni di guasto eccezionali a seconda delle caratteristiche del sistema, le condizioni di funzionamento e i vincoli operativi Tabella tratta dalla NORMA CEI 56-1
modo comune possono essere riconducibili alle condizioni ambientali, ad assegnazione di prestazioni e/o caratteristiche insufficienti (insufficienze di progetto), a difetti dovuti alla fase realizzativa (difetti di costruzione), a errori di montaggio, d’installazione, a errori umani per esempio durante l’esercizio e/o la manutenzione. L’analisi FMEA consente anche l’analisi qualitativa di questi guasti. Passo 5 – Identificazione delle cause dei guasti In corrispondenza di ogni modo di guasto è bene individuarne la causa. Tanto maggiore è l’effetto del modo di guasto tanto più accuratamente deve esserne descritta la causa.
T_M ƒ 283
▼
Passo 6 – Identificazione degli effetti dei guasti Un modo di guasto comporta generalmente effetti in termini di ridotta o mancata funzionalità del sistema, sino ai casi più gravi in cui si instaurano situazioni pericolose per l’operatore e/o per l’ambiente. Si riconoscono tipicamente due tipologie di effetti: locali e finali. I primi sono gli effetti dei modi di guasto sul componente in esame mentre i secondi sono gli effetti che si evidenziano a livello di sottosistema/sistema. Passo 7 – Definizione dei provvedimenti e dei metodi per rilevare e isolare i guasti In questa fase si identificano i provvedimenti e i metodi per individuare e isolare i guasti indicando le modalità da seguire per rilevare il guasto e i mezzi da impiegarsi a tal scopo. Lo scopo è quello di fornire all’utilizzatore, o a chi effettua la manutenzione, le informazioni necessarie a verificare la presenza o
NEWS
MICROFONI PER TEST AUTOMOTIVE PCB Piezotronics è lieta di annunciare il suo continuo impegno nel dedicare risorse per sviluppare e implementare la linea di microfoni conformi agli standard IEC e certificati A2LA (ACCREDIA) dedicati ad applicazioni automotive. PCB® è in grado di offrire una vasta gamma di microfoni per test automotive: microfoni a condensatore, pre-polarizzati, array, sonde, capsule da campo libero, in pressione e a incidenza casuale. Ognuna di queste tipologie è proposta a un prezzo competitivo, senza rinunciare a un’elevata qualità e a un supporto, prima e dopo la vendita, senza pari sul mercato. “Oggi l’utente è alla ricerca di misure qualitativamente superiori, da poter eseguire con sensori performanti ma che rispettino i budget preposti, consentendogli di misurare con precisione e affidabilità i livelli di pressione sonora, rendendo il lavoro dei tecnici più semplice e veloce, migliorando i processi di setup e la registrazione dei dati”, ha spiegato Mark Valentino, Product Manager
T_M ƒ 284
N. 04ƒ ; 2013
▲
I SERIALI MISURE E FIDATEZZA
meno del modo di guasto considerato. L’FMEA può essere applicata a un processo, a un prodotto ma anche a un progetto, cambiando nei diversi casi le modalità e i tempi d’individuazione dei guasti. Quando l’FMEA è applicata a un processo è necessario stabilire dove è più efficiente rilevare i guasti: durante il funzionamento del processo da un operatore, dal Controllo Statistico del Processo (SPC) o dal controllo qualità per citare alcuni esempi. Quando l’FMEA si applica a un progetto, invece, si deve porre la massima attenzione nello stabilire quando e dove un modo di guasto può essere più facilmente individuato: durante la revisione del progetto, nella fase di analisi, di test ecc. Passo 8 – Prevenzione degli eventi indesiderabili Si identificano i possibili provvedimenti, di progetto e operativi, per prevenire gli eventi indesiderati. Oltre alla via più breve che è quella di risolvere alla radi-
ce il problema in modo che non si verifichino eventi indesiderati, è possibile ricorrere alla ridondanza, all’utilizzo di sistemi di allarme e di monitoraggio, all’introduzione di limitazioni ai danni ipotizzabili. Passo 9 – Classificazione della severità degli effetti finali La classificazione degli effetti finali viene fatta tenendo conto dei più svariati aspetti: la natura del sistema in esame, le caratteristiche funzionali e le prestazioni del sistema, i requisiti contrattuali, i requisiti derivanti da legislazione cogente, soprattutto in relazione all’incolumità degli operatori e, infine, i requisiti stabiliti dalla garanzia. Per la classificazione è possibile fare riferimento alla Tab. 2. Passo 10 – Guasti multipli Si ricercano le specifiche combinazioni di guasti multipli da tenere in debito conto. Passo 11 – Raccomandazioni Si stilano eventuali raccomandazioni
di PCB Piezotronics. “La PCB è in grado di proporre un’ampia offerta di microfoni, con tempi di consegna certi e una politica di garanzia ai massimi livelli di mercato, cosi da soddisfare le molteplici esigenze dell’utente finale e dare un valore aggiunto all’applicazione”. La PCB® segue le esigenze del cliente fornendo un supporto locale e evoluti servizi pre e post vendita, comprese le riparazioni e le tarature accreditate (A2LA – o ACCREDIA).
Informazioni su PCB Piezotronics PCB Piezotronics è leader mondiale nella progettazione e produzione di microfoni, accelerometri, sensori di pressione, forza, coppia, carico e deformazione, così come il pioniere della tecnologia ICP®. Questa strumen-
Per ulteriori informazioni: www.pcbpiezotronics.it Informazioni sulla Divisione Automotive di PCB Con sede a Farmington Hills, Michigan, USA, si dedica alle esigenze di prova e alla strumentazione necessarie al mercato dei mezzi di trasporto nella loro globalità (automobili, treni, navi, motociclette, ecc.). Il team è focalizzato sullo sviluppo e l’applicazione di sensori per test su veicoli: modal analysis; driveability; ride & handling; component & system performance; durability; road load data acquisition; vehicle and powertrain NVH; legislative testing; quality control; powertrain development and motorsport.
tazione è utilizzata per test di prova, misure, monitoraggi e requisiti di controllo nel settore automobilistico, aerospaziale, industriale, ricerca e sviluppo, commerciale, education, applicazioni militari, OEM e altro ancora. Il nostro programma di prodotti Platinum garantisce la consegna veloce di oltre 10.000 modelli di sensori.
Tabella 2 – Esempio di classificazione degli effetti finali(*)
Impatto o gravità/criticità del guasto Livello di Criticità
▲
Classe
I SERIALI MISURE E FIDATEZZA
Effetti di guasto
I
Insignificante
II
Marginale
Evento suscettibile di nuocere al buon funzionamento del sistema, causando però danni trascurabili al sistema o all’ambiente circostante e senza presentare rischi di morti o menomazioni alle persone. Evento che nuoce al buon funzionamento di un sistema senza tuttavia causare danni notevoli al sistema né presentare rischi importanti di morti o menomazioni. Ogni evento che potrebbe causare la perdita di (una) funzioni(e) essenziali(e) del sistema provocando danni importanti al sistema o al suo ambiente, ma con un rischio trascurabile di morti o menomazioni.
III
Critico
IV
Catastrofico
(*)
Ogni evento che potrebbe causare la perdita di (una) funzioni(e) essenziali(e) del sistema provocando danni importanti al sistema o al suo ambiente e/o che potrebbe causare morti o menomazioni. Tratta dalla NORMA CEI 56-1
ove si riportano le osservazioni utili per chiarire, per esempio, eventuali aspetti non completamente analizzati, le condizioni insolite, gli effetti dei guasti di elementi ridondanti, gli aspetti particolarmente critici del progetto, i riferimenti ad altri dati per l’analisi dei guasti sequenziali e ogni osservazione a completamento dell’analisi. La Fig. 1 riporta la procedura tipica di un’analisi FMEA. Le attività contenute nei riquadri tratteggiati sono generalmente proprie di un’analisi FMECA di cui si dirà in una successiva memoria.
ni sottosistemi già utilizzati in precedenti progetti. Se le condizioni di utilizzo sono le medesime, è possibile mutuare le considerazioni di fidatezza fatte in precedenza anche per il nuovo progetto. I risultati di una FMEA possono fornire informazioni assai importanti per fissare le priorità del controllo statistico del processo, del campionamento in accettazione, delle ispezioni e per la qualificazione.
Figura 1 – Schema dell’analisi FMEA/FMECA (la FMECA verrà trattata in una successiva memoria)
CONCLUSIONI ALCUNI “TRUCCHI”
È chiaro che nel caso si debbano analizzare sistemi complessi l’analisi tende a divenire assai corposa, tediosa e irta di possibili ripetizioni. In questi casi l’esperienza dell’autore, o degli autori, della FMEA gioca un ruolo assai importante. Esistono inoltre alcuni particolari che tendono a semplificare l’analisi. In particolare, è bene considerare il fatto che raramente si è in presenza di un sistema progettato dal nulla, avendo spesso a che fare con la revisione di un sistema già esistente o, anche in caso di nuovo progetto, si potranno avere alcu-
zioni generali e un approccio alla valutazione”, Tutto_Misure n. Anno 15, N° 3, mese 2013, pp. 217- 219, ISSN 2038-6974. 2. M. Lazzaroni, L. Cristaldi, L. Peretto, P. Rinaldi and M. Catelani, Reliability Engineering: Basic Concepts and Applications in ICT, Springer, ISBN 978-3-642-20982-6, e-ISBN 978-3-642-20983-3, DOI 10.1007/ 978-3-642-20983-3, 2011 SpringerVerlag, Berlin Heidelberg. 3. M. Catelani, L. Cristaldi, M. LazBIBLIOGRAFIA zaroni, L. Peretto, P. Rinaldi, “L’affi1. M. Catelani, L. Ciani, L. Cristaldi, dabilità nella moderna progettazione: M. Lazzaroni, “Fidatezza: considera- un elemento competitivo che collega Il lavoro ha preso in considerazione e trattato una delle principali tecniche di analisi della fidatezza: l’analisi dei modi e degli effetti dei guasti (FMEA-Failure Mode and Effects Analisys) In successive memorie saranno illustrati alcuni esempi applicativi che potranno meglio chiarire quanto qui esposto. Si segnala, infine, l’esistenza di una notevole bibliografia sull’argomento [per es. 4-7].
T_M ƒ 285
N. 04ƒ ; 2013
▲
I SERIALI MISURE E FIDATEZZA
NEWS
▼
Marcantonio Catelani è Professore Ordinario di Misure Elettrisicurezza e certificazione”, Collana che ed Elettroniche presso il Dipartimento di Ingegneria dell’InforI quaderni del GMEE, Vol. 1 Editore: mazione dell’Università di Firenze. La sua attività di ricerca si svolA&T, Torino, 2008, ISBN 88ge prevalentemente nei settori dell’Affidabilità, della diagnostica e 90314907, ISBN-13: 9788890314902. qualificazione di componenti e sistemi, del controllo della qualità e 4. IEC 60812:2006 – Analysis techdel miglioramento dei processi. Fa parte del CT 56 – Affidabilità – niques for system reliability – Procedel CEI ed è coordinatore di gruppi di ricerca, anche applicata, dure for Failure mode and effects anadelle tematiche citate. lysis (FMEA). 5. SAE J1739, Potential Failure Mode and Effects Analysis in Design (Design Loredana Cristaldi è Professore Associato di Misure Elettriche ed FMEA), Potential Failure Mode and Elettroniche presso il Dipartimento di Elettrotecnica del Politecnico di Effects Analysis in Manufacturing and Milano. La sua attività di ricerca è svolta principalmente nei campi Assembly Processes (Process FMEA), delle misure di grandezze elettriche in regime distorto e dei metodi and Potential Failure Mode and di misura per l’affidabilità, il monitoraggio e la diagnosi di sistemi Effects Analysis for Machinery (Machiindustriali. Fa parte del CT 56 – Affidabilità – del CEI. nery FMEA), (revision June 2000) (1a edn., July 1994). 6. AIAG, Potential Failure Mode And Massimo Lazzaroni è Professore Associato di Misure Elettriche ed Effects Analysis (FMEA), 3a edn. (July Elettroniche presso il Dip. di Fisica dell’Università di Milano. La sua 2001). attività di ricerca è rivolta alle misure per le applicazioni industria7. A.N.F.I.A., FMEA – Linee Guida li, per la diagnostica dei sistemi industriali, per l’Affidabilità e il per l’applicazione della FMEA, Controllo della Qualità. Fa parte del CT 85/66 – Strumenti di misuANFIA QUALITÀ 009, Edizione n. 2 ra delle grandezze elettromagnetiche Strumentazione di misura, di (2006). controllo e da laboratorio e del CT 56 – Affidabilità del CEI.
NUOVO SENSORE LASER TRACKER
Hexagon Metrology ha recentemente presentato il Leica B-Probe, un sensore portatile wireless che estende le potenzialità del Leica Absolute Tracker AT402. Il nuovo sensore è stato studiato per il collaudo, l’allineamento e il
T_M ƒ 286
montaggio di grandi componenti, come carrozze ferroviarie, veicoli movimento terra e a uso non stradale o macchinari agricoli. Il Leica B-Probe opera entro una distanza radiale di 10 metri dall’AT402, con una precisione di ± 0.2 mm nell’intero campo di misura, offrendo maggiori potenzialità e flessibilità rispetto ad analoghi sistemi con rilevamento fisso. Il sensore ha un peso di soli 190 g, è certificato IP50 ed è alimentato con normali batterie AAA. È l’ideale complemento al laser tracker AT 402, al quale aggiunge flessibilità e facilità d’uso. Usando il metodo dello spostamento della stazione laser, il campo operativo del sistema può essere aumentato quasi senza perdita della precisione di rilevamento. Per componenti di dimensioni ancora maggiori o misure che
richiedono precisioni superiori, si può usare un retroriflettore standard insieme al B-Probe, per sfruttare pienamente la precisione dell’AT402 ed estendere il campo di misura fino a 160 metri. “Il B-Probe colma un vuoto tra le misure basate sul riflettore e la nostra gamma ad alte prestazione e 6 gradi di libertà basata sul Leica T-Probe e l’Absolute Tracker AT901”, ha dichiarato Duncan Redgewell, General Manager della Linea di Prodotti Laser Tracker di Hexagon Metrology. “Ci siamo resi conto che molte aziende che fabbricano gruppi costruttivi di grandi dimensioni avevano esigenze di campo di misura, portabilità e collaudo di elementi nascosti ma richiedevano una precisione significativa. Il B-Probe è stato studiato appositamente per questi utenti”. Il sensore è già disponibile e viene distribuito attraverso la rete di vendita mondiale e i rivenditori Hexagon Metrology. Il B-Probe è semplice come aggiungere un riflettore a un laser tracker, e qualunque laser tracker AT402 già in uso può essere aggiornato con un B-Probe dall’utente stesso. Per ulteriori informazioni: www.hexagonmetrology.it
I SERIALI CONFORMITÀ ED EFFICACIA
▲
CONFORMITÀ ED EFFICACIA Tommaso Miccoli
Dalla Conformità all’efficacia Parte 6 – Assicurazione qualità dei dati
DATA QUALITY ASSURANCE In the context of the mature application of the management system of a test laboratory, the synthesis of the qualitative performance offered by the laboratory itself is certainly to be found in the data deriving from Quality Assurance activities. However, the analysis of this type of data is not usually done for this purpose. Possibly because of the low conceptual level with which the Quality Assurance plan is designed, or due to the scarce attention paid to the use of adequate supports for the registration of data – which should permit a direct interpretation during the next analysis stage, such as control charts – or due to neglecting the “potential information” that can be derived from the analysis of the gathered data or their significant contribution to the re-examination of the Quality Assurance plan itself. The purpose of the present article is to deal with such issues proposing a practical methodology to be used after an adequate fitting to the specific operative reality. RIASSUNTO In un laboratorio di analisi, con anni di attività alle spalle o appena aperto, i dati derivanti dalle attività di AQ esprimono la sintesi del livello di qualità delle prestazioni fornite. Spesso, però, l’analisi dei dati di AQ non viene effettuata per la valutazione del grado di maturità dell’applicazione del sistema qualità. Questo innanzitutto per carenza di criteri con cui elaborare il piano di AQ stesso, poi per la scarsa attenzione dedicata all’utilizzo di idonei supporti nella registrazione dei dati che ne possano consentire una lettura efficace in sede di successiva analisi, quali ad esempio le carte di controllo, ed infine, perché non si tiene conto della “potenzialità informativa” che può essere desunta dalla lettura dei dati raccolti e dal loro significativo contributo nel riesame del piano di AQ stesso. Nel presente articolo si vogliono affrontare tali problematiche proponendo anche una pratica metodologia da utilizzare dopo opportuna personalizzazione alla singola realtà operativa. ASSICURAZIONE QUALITÀ (AQ) E CONTROLLO QUALITÀ (CQ)
Nell’affrontare questi argomenti non si devono mai perdere di vista i principi guida che devono assistere le decisioni da prendere. Possiamo quindi riassumere che le attività di AQ devono: • essere programmate tenendo conto delle priorità delle azioni, della criticità dei risultati e della sostenibilità del rapporto costi/benefici; • basarsi sulla continua analisi dei dati storicamente acquisiti mediante sistematiche attività di riesame. Prima di analizzare in dettaglio que-
chiarazione di validazione per quanto concerne i metodi interni, e nella verifica delle prestazioni per i metodi normati, d’ora innanzi entrambe chiamate validazione per brevità. L’impatto sui risultati di prova riguarderà il processo analitico in termini d’incertezza e accuratezza. Infatti, l’incertezza e l’accuratezza trovate in sede di validazione dei metodi dovrebbero essere garantite in egual misura in fase di applicazione operativa dei metodi di prova. Questo compito dovrebbe essere demandato proprio al Piano di Assicurazione della Qualità nel quale: • si analizzano preventivamente quali e quante attività di Controllo Qualità sono necessarie per raggiungere un obiettivo di rischio accettabile; • si identificano quali dati sono necessari per dare evidenza della coerenza tra obiettivi da conseguire (garantire Accuratezza e Incertezza di validazione) e risultati raggiunti (Analisi dei dati); • si definisce quando, come e in che formato i dati vengono raccolti e conservati sia ai fini informativi sia per quelli cogenti; • si indicano quali responsabilità sono assegnate agli attori coinvolti nel Piano. Possiamo ora comprendere più facilmente la differenza tra Assicurazione della Qualità (AQ) e Controllo Qualità (CQ). Quest’ultimo rappresenta, quindi, la componente operativa dell’attività di Assicurazione della Qualità e ne è parte integrante.
sti aspetti, però, è opportuno fare una riflessione sul significato di AQ e la sua differenza rispetto al termine CQ, spesso considerati sinonimi. Nelle normali fasi della vita, con un contratto di Assicurazione ci si garantisce che al verificarsi di un evento futuro e incerto (rischio), generalmente dannoso per la propria salute o patrimonio, gli impatti provocati da tale probabile evento vengono ridotti nella loro intensità e riportati entro livelli di rischio ritenuti accettabili. Per quanto attiene le attività di laboratorio, invece, il punto di Tiemme Sistemi - network Kosmosnet partenza nell’accettabilità del rischio (Padova) è implicitamente definito nella di- tiemme@protec.it
T_M
N.
4/13 ƒ 287
Consiste in una o più attività tecniche di controllo volte a verificare e dimostrare che il processo analitico “Assicurato” consegua i requisiti qualitativi richiesti dal metodo di prova e/o da specifiche tecniche cogenti o contrattuali aggiuntive. Le sequenze e i tipi di controllo vengono eseguiti secondo le modalità e frequenze previste nel Piano di Assicurazione della Qualità che sarà elaborato considerando il livello di rischio accettabile. Infatti, minore sarà il livello di rischio accettabile e maggiore sarà l’intensità di attività di CQ; viceversa quando si possono accettare livelli di rischio maggiori, minore sarà l’intensità di attività di CQ. Possiamo identificare, ad esempio tre livelli di Assicurazione della Qualità in base all’intensità di attività di Controllo Qualità definiti come Alto, Medio, Basso (vedasi Fig. 1).
N. 04ƒ ; 2013
▲
I SERIALI CONFORMITÀ ED EFFICACIA
mente che la criticità maggiore è a carico dell’operatore in quanto, anche se adeguatamente qualificato e sottoposto a valutazione periodica delle prestazioni, il rischio di una probabile disattenzione in sede di sessione analitica rimane elevato. Questo può ulteriormente essere aggravato Figura 2 – Variabile del Processo Analitico e relativa criticità da alcune caratteristiche dei metodi di prova che sono state identificate in frequenza di teggio più elevato corrisponde una esecuzione del metodo, impatto e cri- maggiore criticità. ticità nell’utilizzo dei risultati da parte dell’utiliz- IDENTIFICAZIONE DELL’INTENSITÀ zatore e com- DI ATTIVITÀ plessità del meto- DI CONTROLLO QUALITÀ (CQ) do. Per quanto ri- Per la determinazione dell’intensità guarda l’operato- delle attività di controllo qualità occorre la pianificazio- rerà fare una riflessione su quali e ne dovrebbe es- quante tipologie sono disponibili e sere schedulata quali caratteristiche qualitative esse per ciascun ope- vanno a monitorare. In particolare ratore, mentre queste caratteristiche sono riconduciper quanto attie- bili all’accuratezza delle misure ed ne le criticità indi- alla ripetibilità della prova. Per la viduate sui meto- prima caratteristica sono in genere utidi di prova que- lizzati i circuiti interlaboratorio e i ste saranno utiliz- materiali di riferimento, mentre per la Figura 1 – Correlazione Rischio Accettabile e Intensità di CQ zate per l’indivi- seconda in genere si utilizzano le produazione delle ve in doppio. IDENTIFICAZIONE classi di rischio. Nella Tab. 1 a titolo in- La dimensione dell’intensità è rapdicativo è riportato un esempio di defi- presentata dalla frequenza con cui CLASSI DI RISCHIO nizione e calcolo delle possibili classi tali attività possono essere effettuate Per poter procedere operativamente di rischio da impiegare nella classifica- in relazione, ad esempio, a tre livelli nell’elaborazione del Piano di AQ zione dei metodi. L’indice di rischio (IR) definiti come alta, media e bassa freconviene identificare classi di rischio del metodo viene identificato dalla quenza ottenendo una matrice così come riportata in Fig. 3. da associare a ciascun metodo di pro- seguente formula: va o a gruppi di metodi se applicabile. IR = (criticità uso risultati*Peso)* I criteri per definire le classi di rischio (complessità metodo*peso)*(frequen- ELABORAZIONE DEL PIANO DI ASSICURAZIONE devono prendere in considerazione le za esecuzione*peso) variabili che interessano il processo Mentre per le classi di rischio posso- DELLA QUALITÀ analitico. In Fig. 2 sono state riepilo- no essere identificate 4 classi in un gate in un diagramma di Hishikawa, range di punteggi come indicato nel- Completati i criteri per la definizione e dal loro esame emerge sostanzial- la Tab. 1 con il criterio che a un pun- delle classi di rischio e assegnando a
T_M ƒ 288
N. 04ƒ ;2013 Tabella 1 – Classi di rischio e classificazione dei metodi
▲
I SERIALI CONFORMITÀ ED EFFICACIA
In Fig. 4 è riportato, a titolo d’esempio, un possibile schema di Programma di AQ. REGISTRAZIONI DEI DATI DERIVANTI DAI CONTROLLI QUALITÀ
La caratteristica peculiare della registrazione dei dati derivanti dai Controlli Qualità è quella che deve mettere in evidenza le linee di tendenza inerenti la distribuzione di tali dati man mano che essi vengono registrati. A tale scopo si prestano molto bene le carte di controllo. Ve ne sono di vari tipi in relazione sia al tipo di misurazione (qualitativa/quantitativa), sia alle esigenze di quali e quante caratteristiche monitorare e il motivo del monitoraggio stesso. Non è oggetto di questo articolo la trattazione delle carte di controllo, anche se di seguito si riportano indicazioni di massima. Una carta di controllo di Shewhart è un grafico per presentare e confrontare informazioni basate su una sequenza di campioni di dati che rappresentano lo stato corrente di un processo rispetto a limiti stabiliti. Consiste in una linea centrale coincidente con il valore di riferimento del parametro che si vuole osservare, generalmente coincidente con la media dei valori rilevati. Ha due limiti di controllo, in genere calcolati statisticamente, uno per ciascun lato della linea centrale chiamati rispettivamente limite di controllo superiore
• la classe di criticità assegnata a ciascun metodo di prova; • il tipo di attività di Controllo Qualità; • la frequenza con cui viene eseguito il controllo qualità. Sulla base dei suddetti elementi è possibile elaborare un Gantt dove riportare il Figura 3 – Intensità di attività di Controllo Qualità piano di AQ completo in un formato che è ogni metodo di prova la sua classe possibile aggiornare man mano che di appartenenza, si può procedere la situazione evolve. alla elaborazione del piano di Assicurazione Qualità. Non vengono riportati nel piano di assicurazione della qualità i controlli di processo previsti dai metodi di prova, ma gli esiti di tali dati sono comunque oggetto di valutazione in sede di riesame, in quanto costituiscono elementi per la variazione della classe di criticità così come indicato nel successivo capitolo Riesame del Piano di Assicurazione della Qualità. Le variabili da considerare per l’elaborazione del Piano di Assicurazione della Qualità sono: • gli operatori abilitati all’esecuzione delle prove; Figura 4 – Piano di Assicurazione della Qualità • i metodi di prova eseguiti;
T_M ƒ 289
N. 04ƒ ; 2013
▲
I SERIALI CONFORMITÀ ED EFFICACIA
(LCS) e limite di controllo inferiore (LCI). Esse aiutano a individuare andamenti non naturali di variazione in dati risultanti da processi ripetitivi e forniscono criteri per evidenziare l’assenza di controllo statistico. Un Processo è in controllo statistico quando la sua variabilità dipende soltanto da cause non identificabili (variabilità naturale). Determinato il livello accettabile di variazione, per ogni deviazione dovrebbe essere identificata la relativa causa ed eliminata o ridotta. L’obiettivo del controllo statistico di processo è quello di avviare e mantenere un processo ad un livello accettabile e stabile all’interno delle specifiche che sono state definite. L’uso della carta di controllo e la sua analisi portano ad una migliore conoscenza del processo in esame e facilitano l’identificazione delle azioni per il suo miglioramento. Una volta appurato che il processo operi in condizioni di controllo statistico, le sue condizioni sono prevedibili e si può valutare preventivamente la sua capacità di soddisfare le specifiche. Per un approfondimento sia sulle varie tipologie di carte di controllo esistenti, sia sulle modalità di utilizzo e interpretazione si rimanda alla norma: “ISO 8258:2004 carte di controllo di Shewhart”.
termine riesame assume una valenza fondamentale per la conduzione del sistema stesso in quanto rappresenta la traduzione operativa di uno degli otto principi della qualità: Decisioni basate su dati di fatto”. Anche il Piano di Assicurazione della qualità non fa eccezione a questo principio e, così come per le normali assicurazioni, viene rivisto, di norma annualmente, il premio assicurativo sulla base di parametri oggettivi, anche in ambito Qualità occorre rivedere l’efficacia di quanto effettuato e sulla base di valutazioni oggettive verificare se è possibile garantire lo stesso livello di efficacia con una maggiore efficienza. Per maggiore efficienza qui si vuole intendere l’utilizzo di minori risorse a parità di risultati. Durante il riesame possono essere tratte deduzioni sulla capacità di Governo del Processo analitico da parte del Laboratorio, che consentono una gestione personalizzata e più accurata dell’assegnazione delle classi di rischio ai vari metodi di prova. Questo dovrebbe consentire di beneficiare in termini d’intensità di controlli da fare in relazione alla reale capacità di esecuzione delle prove. In questo contesto si realizzerebbe pienamente quanto previsto da Shewhart nella norma precedentemente citata, in quanto si avrebbeRIESAME ro informazioni statisticamente significative per poter supportare la deciDEL PIANO DI ASSICURAZIONE sione di ridurre i controlli in quanto DELLA QUALITÁ la conoscenza storica della distribuNei moderni sistemi di gestione il zione dei dati porterebbe ad affer-
mare che il processo può considerarsi efficace (….valutazione preventiva della sua capacità di soddisfare le specifiche). Un esempio pratico potrebbe essere quello di applicare alla modalità di calcolo della classe di rischio un fattore di correzione (FC) che va a moltiplicare il risultato inizialmente ottenuto. Questo fattore potrebbe essere definito nel seguente modo: • FC = 0,5 se il processo è sotto controllo statistico (vedi nr. 02/2013 di Tutto_Misure); • FC = 0,75 se il processo presenta solo variabilità naturale ma non è sotto controllo statistico; • FC = 1 se il processo non è in nessuna delle condizioni precedenti. Ipotizzando di applicare questa regola alle classi precedentemente definite e riportate in Tab. 1 risulterebbe una variazione di classe di rischio per alcuni metodi così come riportato nella Tab. 2. Disponendo di dati storici statisticamente significativi è possibile utilizzare questo criterio di definizione delle classi di rischio sin dalla prima applicazione del metodo. CONCLUSIONI
Il piano di Assicurazione della Qualità oggi è visto dai laboratori di prova principalmente come documento formale richiesto dalla norma UNI EN ISO/IEC 17025. Talvolta si configura solamente come un programma di partecipazione ai circuiti inter-
Tabella 2 – Classi di rischio dei metodi a seguito di Riesame
T_M ƒ 290
N. 04ƒ ;2013 NEWS
▼
laboratorio; spesso, oltre ai suddetti circuiti riporta anche qualche attività di CQ effettuata internamente con materiali di riferimento o prove in doppio, ma quasi mai contiene criteri di elaborazione correlati con un criterio di gestione del rischio in relazione alle criticità emerse nella gestione del processo analitico. Come si è cercato di dimostrare in questo articolo, invece, esso è strettamente correlato alla validazione dei metodi e interconnesso con la capacità da parte del laboratorio di dare evidenza della sua capacità di garantire il mantenimento dell’incertezza di misura nelle condizioni di operatività. Con riferimento al quaderno UNICHIM 179/0 ed. 2011, esso va visto come un documento appartenente alla categoria di documenti indentificati nella pubblicazione UNICHIM come “documentazione Gestione Sistema Qualità” resa disponibile a seguito della validazione del metodo di prova assieme alla procedura di prova e alla dichiarazione di validazione. Come tale il riesame del Piano di Assicurazione della Qualità
LED METROLOGY Per la misura e caratterizzazione dei LED, Avantes propone un’intera gamma di strumentazione e applicazioni per ogni configurazione di sistema. Il CIE ha emesso le normative di caratterizzazione dei LED nella sua pubblicazione numero 127, dove è definita l’Intensità Media LED (ALI). Per rispettare la procedura di misura del CIE bisogna misurare la ALI dall’alto del LED, con un detector posto in linea con l’asse meccanico del LED. Le due grandezze, Superficie dell’apertura circolare del rilevatore (100 mm2) e Distanza dell’apertura dalla punta del LED, sono così definite, rispettivamente: standard CIE Condizione A: la distanza è di 316 millimetri (ILEDA); standard CIE Condizione B: la distanza è 100 millimetri (ILEDB). Avantes offre due sistemi configurazioni per consentire la misura ALI: AvaSpecIRRAD-ILEDA e AvaSpec-IRRAD-
presentato nell’articolo altro non è che una delle attività che dovrebbero essere effettuate in sede di riesame della validazione dei metodi. In Fig. 5 è riportato l’intero ciclo del riesame del Piano di Assicurazione della Qualità in parallelo al riesame della validazione del metodo di prova.
■
I SERIALI CONFORMITÀ E AFFIDABILITÀ
Figura 5 – Riesame del Piano di Assicurazione della Qualità correlato con il riesame della validazione dei metodi
Tommaso Miccoli Laureato in Scienze Strategiche e Scienze Politiche è amministratore della Tiemme Sistemi sas. Membro fondatore del network Kosmosnet. Si occupa della Progettazione, Sviluppo e Ottimizzazione di Processi Organizzativi e di Supporto alla definizione di Strategie e ottimizzazione dei Sistemi di Governance. Lead Auditor Certificato di Sistemi di Gestione. Collabora con Accredia in qualità di Ispettore di Sistema dal 1998. ILEDB, che corrispondono alla condizione A e B, rispettivamente. il sistema si basa sugli spettrometri AvaSpec2048-USB2 e AvaSpec3648-USB2, configurati con una fenditura 25 µm e 600 linee/mm di reticolo, che coprono la gamma 360-880 nm e forniscono 0,7 nm (FWHM) di risoluzione. Un cavo a fibra ottica (FC-UV200-2) è accoppiato allo strumento e termina nella Sfera d’integrazione AvaSphere-IRRAD-30, che si accoppia con il corrispondente ILED-TUBE-A o ILED-TUBE-B. Il sistema d’irraggiamento è calibrato con una sorgente NIST specifica per la lunghezza d’onda spettrale (µW/cm2/nm). L’ILED TUBE-A o -B è accoppiato con l’Ava LED-Holder-5mm (LED per 5mm /T 13/4 LED), che è accoppiato con un alimentatore di corrente stabilizzato. Il sistema può essere gestito utilizzando AvaSoft, che elabora i seguenti parametri: Intensità media LED, X, Y, Z, x, y, z, u, v, CRI, Colore Temperatura, Lunghezza d’onda dominante, Complementare Lunghezza d’onda dominante, FWHM, Centroide, Lunghezza d’onda di picco e Purezza.
Il sistema viene fornito di serie con lo spettrometro, fibra ottica metal jacketed di 2 metri, Avasphere - IRRAD – 30, alimentazione AvaPower -LED, IRRAD-CALVIS calibrazione irradianza, AvaSoft Full & IRRAD. Facoltativamente il sistema può essere configurato con lunghezze delle fibre più lunghe. Il controllo del sistema Avantes è possibile tramite libreria (DLL ) con LabView, C #, C++ e una serie di altri ambienti di programmazione. Gli strumenti Avantes sono distribuiti in Italia da OPTOPRIM: www.optoprim.it
T_M ƒ 291
LETTERE AL DIRETTORE
▲
A cura di Franco Docchio (franco.docchio@ing.unibs.it)
La Misura del consumo di suolo in Italia Ovvero, la “Misura dell’Autolesionismo”...?
LETTERS TO THE DIRECTOR This section contains letters, comments and opinions of the readers. Please write to Tutto_Misure! RIASSUNTO In questa rubrica vengono pubblicate lettere dei lettori della Rivista. Continuate a scrivere e a dire la vostra sui principali temi della ricerca, della didattica delle misure, e dello sviluppo industriale! Caro Direttore, ho appena terminato di consultare il IX Rapporto Ispra sulla “Qualità dell’Ambiente Urbano”, recentemente presentato a Roma, e ripresomi (a fatica) dal “coccolone” che i dati in esso contenuti mi hanno provocato, non posso esimermi dal proporli sinteticamente ai lettori della nostra rivista, esseri umani e cittadini prim’ancora che ricercatori, docenti, tecnici e operatori del mondo industriale. Vengo subito ai “numeri” più eclatanti, che sembrano celebrare la lenta agonia di quello che una volta era il Bel Paese… L’Italia perde quotidianamente 70 ettari di suolo: Milano e Napoli hanno cementificato il 60% del proprio territorio, mentre a Roma sono stati cancellati 35.000 ettari. Nel complesso le 51 aree comunali soggette a monitoraggio hanno cementificato un territorio pari a quasi 220.000 ettari (quasi 35.000 solo a Roma), con un consumo di suolo giornaliero pari a quasi 5 ettari di nuovo territorio perso ogni giorno (sono circa 70 a livello nazionale). Il 7% del consumo giornaliero in Italia è concentrato nelle 51 città analizzate. La maggior parte dei Comuni indagati ha destinato a verde pubblico meno del 5% della propria superficie: a Messina, Cagliari e Venezia le più alte quote di aree naturali protette, fondamentali per la conservazione della biodiversità urbana. Negli ultimi anni il consumo di suolo in Italia è cresciuto a una media di 8
metri quadrati al secondo e la serie storica dimostra che si tratta di un processo che dal 1956 non conosce battute d’arresto, passando dal 2,8% del 1956 al 6,9% del 2010. In altre parole, sono stati consumati, in media, più di 7 metri quadrati al secondo per oltre 50 anni. Questo vuol dire che ogni 5 mesi viene cementificata una superficie pari a quella del comune di Napoli e ogni anno una pari alla somma di quella di Milano e Firenze. In termini assoluti, l’Italia è passata da
T_M
poco più di 8.000 km2 di consumo di suolo del 1956 a oltre 20.500 km2 nel 2010, un aumento che non si può spiegare solo con la crescita demografica: se nel 1956 erano irreversibilmente persi 170 m2 per ogni italiano, nel 2010 il valore raddoppia, passando a più di 340 m2. Se confrontiamo questi dati con la realtà in cui viviamo, fatta di milioni di alloggi vuoti, di migliaia e migliaia di capannoni abbandonati, di terreni impermeabilizzati o pesantemente contaminati da rifiuti tossici (e non ho fatto ancora esplicito riferimento alle necessità “alimentari”…!), viene spontaneo domandarci perché si continui inutilmente a consumare suolo sempre più vitale per la nostra sopravvivenza e non si passi invece immediatamente a considerare il recupero e la ristrutturazione dell’esistente come unica soluzione praticabile. Credo sia necessario che ciascuno di noi faccia qualcosa, sia per sensibilizzare tutti i cittadini sulla drammaticità della situazione sia per spingere i nostri pubblici amministratori ad agire veramente a tutela del nostro benessere e del nostro futuro, oggi trascurati in nome di una “lotta contro l’emergenza” che giustifica qualunque scempio del nostro territorio (a chi volesse approfondire questo argomento consiglio il sito web w w w. s a l v i a m o i l paesaggio.it). Magari con l’obiettivo (oggi, ahimé, remoto) di poter un giorno passare dalla misura dell’autolesionismo a quella del benessere, della vita comunitaria, della solidarietà, della trasparenza… Massimo Mortarino
N.
T_M 4/1 3 ƒ 293
▼
Caro Massimo, pubblico volentieri questa tua lettera, anche se non strettamente pertinente con il focus della Rivista. Per due ragioni: la prima è l’esiguità del numero di lettere che mi pervengono, che vorrei incrementare anche allargando i temi d’interesse; la seconda è il filo conduttore che la lega al mio recente editoriale su Tutto_Misure News (“Fine della Banana Blu”, T_MNews 3/2013). Dovunque ci si rigiri, qualsiasi Rapporto si legga, uno solo è il leitmotiv: l’Italia perde. Perde competitività, perde i suoi Gioielli (Alitalia, Telecom), perde il benessere e i livelli di occupazione, perde il senso dello Stato e il senso dell’”altro” inteso come senso del sentirsi parte di una Società coesa, perde il suo habitat (adesso ci si mette anche chi vuole vendere le spiagge!). Dobbiamo stupirci della cementificazione selvaggia?
NEWS UNA MACCHINA CHE INTEGRA DUE MODALITÀ DI MISURA 3D
Hexagon Metrology ha presentato la Micro-Hite 3D DUAL, la nuova macchina di misura tridimensionale di TESA, in occasione della fiera EMO ad Hannover, in Germania. La TESA MH3D DUAL convince per le sue molteplici caratteristiche innovative; ora gli operatori non dovran-
T_M ƒ 294
N. 04ƒ ; 2013
■
LETTERE AL DIRETTORE
Costruire è sempre stato indice di benessere: lo è anche all’estero, ma con la differenza che nei Paesi più socialmente coesi è sempre presente un “progetto di sviluppo” che da il senso del costruire. Nel nostro Paese, in cui il costruire è sempre stato sbandierato come “segno di progresso” ma in cui i “disegni” latitano secondo la parola d’ordine “ognuno per sé e Dio (in questi ultimi tempi sostituito da “Io”) per tutti, gli effetti sono quelli che denunci. I nostri amministratori (tranne lodevoli eccezioni) sono, sembra, più impegnati ad approfittare delle opportunità loro offerte per arricchire se stessi che a occuparsi della cosa comune, e qui la cessione di aree pubbliche per incrementare la cementificazione sembra un ottimo business. E anche le zone non cementificate non stanno meglio (discari-
che abusive in mano a criminalità organizzata). E l’inquinamento, con relativi rischi di patologie correlate. In questo contesto drammatico, il Parlamento si trova ingabbiato e impotente. E gli Enti spesso si trovano alla mercé dei poteri forti (non è di qualche tempo fa la notizia che analisi sul contenuto di piombo nel sangue dei bambini che vivono in una determinata area a rischio sono state “taroccate” per timore che la vicina fabbrica fosse costretta a chiudere?). Speriamo che, a furia di Rapporti, cresca una nuova coscienza sociale con una maggiore attenzione ai problemi delle comunità e del territorio. Altrimenti, veramente non ci sarà limite al peggio. Con stima
no più scegliere tra la misura manuale e quella automatica perché la macchina, con il suo sistema 2-in-1, offre tutte due. Una sola e unica macchina permette infatti di eseguire automaticamente o manualmente una sequenza di misure. Ideata per un ampio target di clientela, la TESA MH3D DUAL può essere usata anche da operatori non esperti. La gestione rapida e flessibile dei dati, con sei diverse opzioni di tracciabilità delle misure, consente di generare la soluzione migliore. Il sistema intuitivo di automatizzazione, abbinato al software TESA-REFLEX, facilita le misure. Lo stesso software consente, tra l’altro, di salvare i risultati di misura in formato PDF e garantisce la compatibilità con il software Q-DAS. E, per un’efficienza ancora maggiore, viene data la possibilità di misurare automaticamente un pallet portapezzi a partire da una sequenza creata manualmente su un singolo pezzo. Hexagon Metrology ha progettato la tastiera di controllo per resistere alla polvere e alle particelle oleose. La TESA MH3D DUAL può quindi rispondere alle più severe esigenze, in laboratorio come in officina. Per Marcel Bila, Direttore Marketing di TESA: “L’obiettivo principale di questa macchina tridimensionale è semplificare il processo di misura, rendendolo comprensibile e produttivo. I guadagni a livello di efficienza accelerano il ritorno sugli investimenti e fanno sì che la polivalente MH3D DUAL rappresenti una scelta remunerativa”.
L’anello mancante tra la macchina manuale e la macchina automatica è arrivato sul mercato italiano a ottobre, con una precisione di 2,5 micrometri. Per ulteriori informazioni: www.hexagonmetrology.it
Franco Docchio, Direttore
A proposito di TESA Fondata nel 1941, con sede a Renens in Svizzera, TESA SA (www.tesabs.ch) produce e commercializza oggi oltre 5.000 strumenti e sistemi di misura, da quello più semplice al più sofisticato. Il suo programma di vendita comprende anche soluzioni per la misura tridimensionale o senza contatto con i suoi sistemi ottici. La maggior parte dei prodotti si può fregiare del marchio SWISS MADE. L’azienda si concentra soprattutto sull’industria automobilistica, aeronautica, orologiera, medica e micromeccanica tramite la sua rete di distribuzione mondiale. A proposito di Hexagon Metrology Hexagon Metrology offre una gamma completa di prodotti e servizi per tutte le applicazioni di metrologia industriale in svariati settori, tra cui l’industria automobilistica, aeronautica, energetica e medicale. Fornendo ai nostri clienti gli strumenti necessari per mantenere sotto controllo i loro processi produttivi, consentiamo loro di migliorare la qualità dei prodotti e aumentare l’efficienza negli stabilimenti produttivi in tutto il mondo.
METROLOGIA LEGALE E FORENSE
▲
A cura dell’Avv. Veronica Scotti (veronica.scotti@gmail.com)
www.avvocatoscotti.com
La metrologia forense in Italia Forensic metrology in Italy
LEGAL AND FORENSIC METROLOGY This section intends to discuss the great changes on Legal Metrology after the application of the Dlgs 22/2007, the socalled MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the Directive. This section is also devoted to enlighting aspects of ethical codes during forensic activities where measurements are involved. Please send all your inquiries to Ms. Scotti or to the Director! RIASSUNTO Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati! LA METROLOGIA FORENSE
Benché le attività sperimentali giochino un ruolo sempre più importante in ambito forense, la nozione di metrologia forense trova una propria espressa e compiuta definizione solamente a livello internazionale (in specie nei paesi anglosassoni), ove viene indicata come quella branca della metrologia posta al servizio delle scienze forensi, ovvero la conoscenza metrologica applicata ai procedimenti che coinvolgono aspetti di misura di importanza preminente ai fini del giudizio. Appare evidente e anche naturale che la definizione poggi le sue basi sulla metrologia che, pertanto, assume rilevanza preponderante rispetto a meccanismi giuridici. Infatti l’attività condotta nell’ambito di un procedimento giudiziario, sebbene “soffra” delle normative che disciplinano l’attività giudiziaria e i processi in generale, è comunque caratterizzata in gran parte da elementi tecnici e richiede l’applicazione e osservanza delle regole generali comunemente riconosciute e
applicate dai tecnici stessi. Come più volte ho avuto modo di sottolineare, qualsiasi attività di misura impone, non solo un’indagine accurata e scrupolosa, ma anche l’indicazione dell’incertezza di misura associata al metodo o strumenti utilizzati, sulla scorta di quanto stabilito dalle pertinenti norme tecniche in materia emanate. Tuttavia tale metodologia risulta spesso disattesa, soprattutto nell’ambito dei nostri processi giudiziari, in ragione di una riottosità del sistema giuridico a dati “incerti” o percepiti erroneamente come tali a causa di una infelice terminologia come quella utilizzata nel campo delle misure. Pertanto, anche nel caso in cui vengano fornite tali informazioni (ovvero la misura sia correttamente condotta e sia conseguentemente espressa l’incertezza di misura), pare che le stesse non assumano alcuna rilevanza ai fini decisionali del giudizio in quanto considerati come orpelli privi di significato (si rammenti, tra gli altri, il caso del processo del delitto di Perugia1 ove la valutazione della metodologia
utilizzata dal tecnico per l’indagine del DNA, che in ragione di un’incertezza molto elevata non consentiva di stabilire se il DNA della vittima fosse effettivamente presente o meno sul coltello incriminato, è stata valutata superficialmente senza tenere conto dell’incertezza del metodo e quindi dei risultati forniti dal laboratorio). In realtà, tale dato rappresenta un elemento utile all’accertamento della verità e, in ogni caso, idoneo alla quantificazione del dubbio, funzionalmente orientato al superamento del “ragionevole dubbio”, come definito secondo l’art. 533 del codice di procedura penale2. Costituendo in tal modo una base razionale sulla quale il giudicante può fondare la propria decisione, ovviamente con riferimento alle prove prodotte nel processo. In ordine alle prove, in particolare per quelle scientifiche, si rende necessario precisare che è comunque sempre il giudice a stabilirne la validità, atteso che “la valutazione sull’attendibilità scientifica della prova – riguardando la sua ammissibilità e rilevanza – è compito esclusivo del giudice che lo eserciterà nel contradditorio delle parti avvalendosi, ovviamente, anche delle informazioni fornitegli dall’esperto (o dagli esperti nominati dalle parti) ma non limitandosi ad esse soprattutto nel caso di contestazione della validità3”. Proprio riguardo all’ammissibilità e rilevanza della prova scientifica per talune tipologie di reato si intende qui porre in evidenza la diversità di atteggiamento dimostrata nell’ambito nazionale rispetto a quanto adottato in altri Stati, in particolare negli USA. Nel nostro ordinamento, come avviene anche negli Stati Uniti, la guida in stato di ebbrezza è sanzionata penalmente: ma come viene riconosciuto lo stato di ubriachezza? In entrambi i Paesi gli agenti accertatori si avvalgono dell’uso di strumenti di misura del tasso alcolemico che funzionano mediante la prova del respiro del sog-
T_M
N.
4/13 ƒ 295
getto presunto trasgressore. La diversità di trattamento della fattispecie si rileva a livello processuale: infatti, mentre in Italia tendenzialmente si riconosce validità pressoché assoluta ai risultati resi dal test così condotto (salvo rari casi), negli USA sono considerati validamente condotti i test solamente se sussistono le specifiche condizioni dettate dalle norme tecniche applicabili nella materia in questione. In particolare, alcune Corti Supreme Federali (p.es. Corte Suprema di Washington) hanno riconosciuto l’inammissibilità e, conseguentemente, la non utilizzabilità, di test alcolimetrici condotti in modo non conforme a quanto stabilito dalle norme tecniche del National Institute of Standards and Testing (NIST), che contemplano, tra le altre cose, l’espressione dell’incertezza di misura associata alla misura effettuata. “La politica adottata (dal NIST) sulla riferibilità mette in evidenza le procedure necessarie per la riferibilità: per assicurare la riferibilità dei risultati di misura ai campioni mantenuti dal NIST, il singolo deve riferire i risultati di misura ai campioni del NIST, in quanto assunti come riferimento, attraverso una catena ininterrotta di confronti che tengono conto dell’incertezza. La catena dei confronti può essere corta, se l’utente possiede strumenti e apparecchiature tarate direttamente dal NIST, o può essere più lunga se l’utente fa riferimento ad altri confronti all’interno di una catena di confronti che riconduce comunque a riferimenti sviluppati e mantenuti dal NIST. Il tribunale a cui ci si appella darà peso a definizioni e termini tecnici promulgati da un Ente competente. Ogni regolamento deve essere tale da non ingenerare ambiguità nel tribunale chiamato a considerare definizioni tecniche”.4 Le decisioni prese nell’ambito dei procedimenti giudiziari che importano analisi tecniche, per espressa affermazione dei giudicanti, fondano le loro basi sul portato che le prove scientifiche, per essere qualificate tali, non solo devono essere ammissibili e rilevanti sotto il profilo giuridico ma devono essere conformi a quanto stabilito dalle specifiche tecniche riconosciute dalla comunità tecnico-scientifica. In mancanza, i risultati derivanti da attività di misura non potranno essere
T_M ƒ 296
N. 04ƒ ; 2013
▲
METROLOGIA LEGALE E FORENSE
considerati attendibili e, pertanto, la prova del fatto (nel caso specifico la prova dello stato di ebbrezza) dovrà essere fornita mediante altre risultanze (ad esempio testimonianze). Diversamente rispetto a quanto avviene negli USA, nei procedimenti nazionali relativi alla guida in stato d’ebbrezza, fatte salve alcune pronunce eccezionali, in specie rese in primo grado, ove è stato contestato l’etilometro o comunque ove si è dubitato del suo corretto funzionamento (sul punto si rinvia ad un precedente breve articolo su Tutto_Misure n. 4/ 2012), lo strumento utilizzato per la rilevazione del tasso alcolimetrico viene considerato attendibile e, conseguentemente, l’accertamento così condotto costituisce la base fondante della decisione giudiziale, senza che venga disposta alcuna ulteriore indagine sull’apparecchio. Al riguardo va opportunamente precisato che l’accertamento sullo stato di ebbrezza può essere legittimamente fondato su altre evidenze, escludendo quindi l’uso di qualsivoglia apparecchio di misurazione del tasso alcolimetrico. In particolare, possono costituire elementi rilevanti per la validità dell’accertamento, anche singolarmente considerati, l’indicazione, riportata nel verbale, della sintomatologia manifestata dal presunto trasgressore o l’osservazione del suo comportamento effettuata dagli agenti. In tali casi, ovvero qualora gli agenti accertatori rilevassero la presenza di determinati segnali, si ritiene validamente accertato lo stato di ebbrezza che va ricondotto nella fattispecie di cui all’art 186 lett. a) ovvero come illecito amministrativo. Ne deriva che, anche nel caso in cui, a seguito di un’indagine condotta sullo strumento di misura (mediante, ad esempio, apposita consulenza tecnica d’ufficio), l’etilometro risultasse non conforme alle pertinenti norme tecniche e non possedesse quindi i requisiti per un’attendibile misurazione, la sussistenza di altri elementi, purché espressamente riportati nel verbale di accertamento e contestazione del reato (o dell’illecito se trattasi di fattispecie amministrativa) consentirebbe comunque di ritenere sussi-
stente una fattispecie illecita (di natura amministrativa e non penale!!!). Conclusivamente, per quanto riguarda l’accertamento della sussistenza di fattispecie trasgressive, illeciti amministrativi o penali, qualora l’accertamento coinvolga indagini di natura tecnica e, in particolare, comporti attività di misura, la considerazione riservata alle norme tecniche riguardanti le attività di misura risulta estremamente diversa in Italia rispetto a quanto accade negli USA. In quest’ultimo Paese, infatti, le problematiche tecniche costituiscono oggetto di studio, anche da parte dei legali difensori delle parti5 che, mediante contestazioni di natura tecnica sulla scorta degli standard di riferimento nel campo delle misure, consentono l’ingresso della metrologia nelle aule giudiziarie al fine di rendere il giudice e, quindi, la decisione più vicini alla verità. NOTE 1
Cfr “Forensic Metrology: a new application field for measurement experts across techniques and ethics” di Alessandro Ferrero e Veronica Scotti, in IEEE Instrumentation & Measurement Magazine n. 1/2013. 2 Art 533 c.p.p.: Condanna dell’imputato – Il giudice pronuncia sentenza di condanna se l’imputato risulta colpevole del reato contestatogli al di là di ogni ragionevole dubbio. Con la sentenza il giudice applica la pena e le eventuali misure di sicurezza. 3 CSM Corte d’Appello di Milano – Milano 9/02/2010 – Atti del convegno: L’ingresso della prova scientifica nel processo penale (quesiti, tipi di accertamenti, rapporti con periti e consulenti, ecc.) con particolare riguardo all’evoluzione nel tempo e alla fallibilità della scienza in rapporto alla decisione da adottarsi “al di là di ogni ragionevole dubbio”. 4 Supreme Court of Washington – No. 74579-0, No. 74602-8, No. 746036/July 2004 5 Per un’utile illustrazione di casi giudiziari trattati in USA, comportanti l’introduzione di problematiche tecniche in ambito forense, si veda Ted Vosk – attorney in Seattle – Forensic Metrology: The Key to the Kingdom, National Forensic Blood and Urine Testing Seminar, Georgia Association of Criminal Defense Lawyers, San Diego CA, May 14, 2009
METROLOGIA LEGALE
▲ Maria Cristina Sestini
La realizzazione del Mercato Unico Il New legal Framework e la Direttiva 22/2001/CE (MID) sugli strumenti di misura
La progressiva realizzazione del mercato interno costituisce uno dei pilastri dell’Unione europea e uno dei fondamentali obiettivi che l’Europa ha perseguito ritenendo che questo fosse basilare per la prosperità, la crescita e l’occupazione. In tale ottica, da anni, l’Unione mira a costituire uno spazio senza frontiere interne in cui le persone, le merci, i servizi e i capitali circolino liberamente, in conformità del trattato che ha istituito la Comunità europea; è proprio per tale motivo che l’attività di normazione e regolazione di livello europeo mira a creare un vero e proprio spazio integrato, aperto e concorrenziale, in cui si affermino sempre più la mobilità, la competitività e l’innovazione, anche congiuntamente alle politiche settoriali dell’Unione. D’altro canto, al fine di rendere effettivi questi obiettivi, è evidente come l’Unione ritenga di dover spazzar via ogni genere di ostacoli che ritardino o impediscano l’efficacia normativa, cercando quanto più possibile di armonizzare le legislazioni degli Stati Membri, adattandole ai processi di allineamento internazionali così come alle nuove sfide tecnologiche. In tale generale contesto il Parlamento Europeo e il Consiglio hanno adottato il 9 luglio 2008 quello che è stato definito il “goods package”, composto dal Regolamento (CE) n. 764, che stabilisce procedure relative all’applicazione di determinate regole tecniche nazionali a prodotti legalmente commercializzati in un altro Stato
membro, il Regolamento (CE) n. 765, che pone norme in materia di accreditamento e vigilanza del mercato per quanto riguarda la commercializzazione dei prodotti, e infine la Decisione n. 768, relativa a un quadro comune per la commercializzazione dei prodotti, tutti provvedimenti il cui obiettivo corrisponde dall’esigenza di ridisegnare un quadro normativo più attuale per l’implementazione del mercato unico, dal momento che erano stati evidenziati i limiti e le debolezze del precedente. In particolare l’Unione, nonostante l’adozione della legislazione di armonizzazione, aveva constatato la presenza sul mercato di prodotti non conformi o persino pericolosi, cosicché anche la fiducia nella marcatura CE appariva essere diminuita. Si era inoltre generata una situazione di svantaggio per gli operatori economici che invece avevano correttamente rispettato le norme, provocando altresì l’alterazione di quelle condizioni di equilibrio che sono alla base del mercato unico. Un altro grosso limite era inoltre dovuto al fatto che gli Stati, nell’adottare e applicare le direttive integrandole nel proprio contesto normativo generale,
efficacia molto diversa a seconda dei Paesi interessati. Le stesse procedure per la designazione degli Organismi Notificati da parte delle Autorità nazionali risultavano non coerentemente applicate, la qual cosa aveva poi recato, di conseguenza, palesi inefficienze nel sistema di accertamento della conformità dei prodotti. L’insieme dei provvedimenti sopra richiamati andava quindi a completare e rafforzare il quadro normativo già esistente delineando, in particolare attraverso il Regolamento (CE) 765/2008 e la decisione 768/ 2008/CE, il cosiddetto “New Legal Framework”, il quale comportava altresì l’esigenza di aggiornare le altre direttive più specifiche, come la Direttiva 2004/22/CE sugli strumenti di misura. In tale ambito, in particolare, il regolamento aveva introdotto nuove regole sull’accreditamento, prevedendolo come strumento fondamentale per la valutazione di conformità, e aveva anche stabilito i requisiti per l’effettuazione di un’efficace sorveglianza del mercato. La decisione d’altro canto offriva una serie di strumenti normativi, come nuove e univoche definizioni, e la precisa individuazione delle responsabilità degli
producevano anche effetti distorsivi sul mercato. Questo appariva determinato dal fatto che, sul piano prati- Camera di Commercio di Prato, co, la capacità dissuasiva nel caso di Responsabile Servizi di Metrologia prodotti non conformi risultava avere cristina.sestini@po.camcom.it
T_M
N.
4/13 ƒ 297
operatori e degli organismi notificati. In linea con il Single Market Act (NdA: Communication from the Commission to the European Parliament, the Council, the Economic and Social Committee and the Committee of the Regions, COM – 2011 – 206 final), che ribadiva la necessità di restaurare la fiducia dei consumatori, occorreva dunque allineare tutte le precedenti norme con le nuove previsioni, uniformandole e rendendole più facilmente applicabili. Una consultazione pubblica con gli esperti nazionali, gli stakeholders e le associazioni degli industriali, tenutasi nel 2010, oltre alle altre informazioni raccolte, ha consentito alla Commissione di condurre l’analisi d’impatto che, rispetto ad altre ipotesi, rendeva auspicabile l’allineamento al New Legal Framework tramite strumenti normativi, prevedendo quindi l’integrazione delle nuove previsioni nella normativa già esistente. Questa soluzione infatti prometteva di migliorare la competitività dei fabbricanti e degli organismi notificati, offrendo a tutti eguale trattamento nel mercato interno, senza peraltro produrre ulteriori costi per gli operatori che già rispettavano le regole. È da mettere in rilievo come la proposta di adeguamento della direttiva MID al nuovo quadro normativo, peraltro basato sull’articolo 114 del Trattato, sia stata ispirata da due principi. In primo luogo si è interpretato il principio di sussidiarietà tenendo conto che la competenza sul mercato interno è certamente condivisa tra Unione Europea e Stati membri, ma che l’azione al livello nazionale debba essere limitata a questioni territoriali in considerazione del fatto che soltanto un’azione di tipo normativo coordinata a livello europeo può raggiungere gli obiettivi posti dalla Direttiva e, in particolare, un’efficace sorveglianza del mercato. D’altro canto il principio di proporzionalità imponeva che le modificazioni da introdurre nella MID fossero limitate al raggiungimento degli obiettivi stabiliti, soprattutto rendendo la normativa esistente più trasparente e chiara, senza aggiungere ulteriori gravami sulle imprese. E infatti uno
T_M ƒ 298
N. 04ƒ ; 2013
■
METROLOGIA LEGALE E FORENSE
degli adeguamenti che perseguono proprio l’esigenza d’intelligibilità della direttiva è l’uniformazione delle definizioni attraverso l’armonizzazione delle stesse con quelle del New Legal Framework, così da renderne univoca la lettura. Quanto all’effettività dell’implementazione della Direttiva, è stata proposta una più puntuale declinazione delle responsabilità per i fabbricanti e i loro rappresentanti oltre che per i distributori e gli importatori. In base a questa precisazione i distributori dovranno assicurarsi che lo strumento rechi la marcatura CE, il nome del fabbricante e la presenza delle istruzioni e della documentazione prescritta, mentre gli importatori, oltre a ciò, dovranno farsi carico di verificare che i fabbricanti abbiano applicato una procedura di accertamento della conformità e rendano disponibile alle autorità la documentazione tecnica. Questi inoltre sono tenuti a conservare una copia della dichiarazione di conformità e a indicare il loro nome e indirizzo sul prodotto, sull’imballo o sulla documentazione di accompagnamento: in tal modo s’intende assicurare la completa tracciabilità ovvero la certa riconduzione dello strumento fino all’operatore economico responsabile dello stesso. La proposta riguarda anche la presunzione di conformità ai requisiti essenziali, già prevista dalla Direttiva MID nel caso in cui lo strumento soddisfi gli standard armonizzati; il nuovo testo, in linea con un progetto di regolazione sulla standardizzazione europea adottato dalla Commissione il primo di giugno del 2011 (che tra l’altro prevede il coinvolgimento della
European Standardization Organization e la partecipazione degli stakeholder nel processo di standardizzazione) adotta alcune modifiche prevedendo i casi in cui gli standard coprano solo parzialmente i requisiti essenziali prescritti dalla direttiva. Una serie d’importanti allineamenti riguarderà inoltre la revisione delle procedure per l’accertamento della conformità e la corretta apposizione della marcatura CE; ancor più rilevanti sono però le nuove previsioni sui criteri per la notificazione degli organismi notificati. Inoltre anche i “subsidiaries” e i “subcontractors” dovranno dimostrare di possedere i requisiti e le competenze, già richiesti all’organismo stesso, attraverso un processo di notificazione completamente rivisitato e basato di norma sull’accreditamento, ferma restando la possibilità degli altri Stati membri di sollevare le proprie obiezioni riguardo al processo di notificazione. Un’importante novità è infine costituita dalla rivisitazione della procedura di salvaguardia, resa più snella e più efficace. La nuova procedura contempla una fattiva e basilare fase di scambio d’informazione tra gli Stati interessati, alla quale segue una valutazione esplicita da parte della Commissione soltanto in caso di disaccordo tra gli Stati membri interessati. Più semplicemente, qualora gli Stati interessati concordino riguardo alla non conformità di uno strumento, questi sono di fatto tenuti ad adottare le misure appropriate sul rispettivo territorio di competenza, così da assicurare un’efficiente tutela dei consumatori e realizzare il completamento del mercato unico.
SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI
▲
Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo
Dalle Associazioni Universitarie di Misuristi
THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT This section groups all the significant information from the main University Associations in Measurement Science and Technology: GMEE (Electrical and Electronic Measurement), GMMT (Mechanical and Thermal Measurements), AUTEC (Cartography and Topography), and Nuclear Measurements. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure Nucleari. GMEE: GRUPPO MISURE ELETTRICHE ED ELETTRONICHE
L’Assemblea dei Ricercatori GMEE – Trento L’Assemblea dei ricercatori GMEE si è tenuta l’11 settembre 2013, presso l’Università di Trento. Tra le comunicazioni, una relazione di La Monaca sull’ultima Summer School 2013 tenutasi a Barcellona, una presentazione, da parte di Angrisani, del CeSMA – Centro di Servizio al territorio per le Misurazioni Avanzate – dell’Università di Napoli Federico II, la presentazione, da parte di Daponte, del Workshop Metrology for Aerospace, che si terrà a Benevento, il 29-30 maggio, 2014, la presentazione, da parte di Arpaia, del congresso TC4 dell’IMEKO, che si terrà il 15-17 settembre, 2014, e delle Borse di Studio bandite dal CERN. Con rammarico, Ferraris informa l’Assemblea che il dottorato in “Scienza e Tecnica delle Misure” del Politecnico di Torino è stato soppresso per motivi amministrativi. L’Assemblea si rammari-
GMEE, la rivitalizzazione della commissione didattica e una sempre maggiore attenzione alla crescita dei giovani ricercatori. Su proposta di Betta, l’Assemblea ha poi eletto all’unanimità come Presidente del GMEE per il prossimo triennio Dario Petri, il cui mandato avrà inizio al termine dell’Assemblea. Sempre su sua proposta, l’Assemblea ha eletto all’unanimità come Segretario del GMEE per il prossimo triennio Pasquale Daponte, il cui mandato avrà inizio al termine dell’Assemblea. Annarita Lazzari è stata confermata all’unanimità quale Rappresentante dei Soci Sostenitori nel Consiglio Direttivo. Inoltre Roberto Buccianti è stato eletto Rappresentante dei Soci Ordinari nel Consiglio Direttivo. Per quanto riguarda i rappresentanti delle Unità Operative, l’Assemblea approva di considerare confermati gli attuali rappresentanti, a meno che le sedi interessate non inviino una segnalazione di variazione. A questo proposito l’Unità di Brescia informa di avere eletto come proprio rappresentante Giovanna Sansoni. In conformità alla vigente normativa, i soci Andria, Carbone, Catelani, Landi, Narduzzi, Sardini sono stati eletti membri del Comitato di Coordinamento GMEE. Andò, Attivissimo, Carullo, Cataliotti, Ferrigno, Malcovati, Salmeri, Rapuano, Tellini sono stati votati all’unanimità componenti della Commissione didattica. Infine, Benetazzo, Savino, Ferraris sono stati eletti membri del Comitato Etico e Deontologico. A. Ferrero è stato confermato tesoriere all’unanimità. Betta ha ricordato che la nuova versione del sito web dell’Associazione è operativa.
ca per la notizia e unanime esprime l’auspicio che possa essere attivata la prossima edizione del dottorato. Flammini ha presentato il Sensor Application Symposium (SAS) della IEEE I&M Society, che si terrà nel 2014 in Nuova Zelanda. Betta ha ricordato all’Assemblea il convegno sui sensori che si terrà nel 2014 a Udine, e che è in corso di stampa il primo volume della collana Franco Angeli sulle misure; il volume riguarda i Sensori e ne è autore M. Savino. È seguita una relazione del Presidente sulle attività del GMEE nel triennio 2010-2013 (importante per le numerose novità legislative introdotte). Il GMEE presenta oggi 44 Unità operative (di cui 35 universitarie e 1 straniera) e 248 soci (di cui la metà strutturati nel SSD ING-INF/07); il calo del numero di soci juniores (80 nel 2012) può rappresentare una delle criticità per lo sviluppo del GMEE. Illustra anche l’andamento della scuola Gorini, l’attenzione e l’impegno del GMEE per la Terza missione, anche attraverso Tutto_Misure e il progetto DITRIMMIS. Proiettando l’analisi al prossimo futuro Betta auspica la creazione di un’unica Associazione Misure che riunisca il GMEE e l’MMT, la pratica implementazione dei contenuti del documento per la valorizzazione delle attività dei ricercatori del franco.docchio@ing.unibs.it
T_M
N.
4/13 ƒ 299
Ringrazia in particolare l’Unità di Bari per l’attività svolta a favore del sito e degli atti delle riunioni annuali, ora editi dalla casa editrice Aracne. Docchio ha presentato un breve rendiconto sullo stato della rivista Tutto_Misure, illustrando i principali dati relativi ai contributi editoriali ricevuti e sollecitando nuovi contributi. Il Premio di dottorato C. Offelli ha ricevuto quest’anno 4 domande. La Commissione ha conferito il premio a Paolo Pivato, dell’Unità di Trento. La borsa di studio per ricerca all’estero è stata assegnata a Grazia Barchi, della stessa Unità di Trento. Per la Giornata della Misurazione 2014 l’organizzazione è stata affidata a Domenico Mirri, stante il successo delle edizioni degli ultimi anni da lui curate. Narduzzi ha relazionato sull’andamento dell’ultima edizione della Scuola Gorini. Dalla discussione è emerso il suggerimento di valutare l’opportunità di offrire la scuola anche a studenti di provenienza internazionale. Il Congresso annuale GMEE 2014 si terrà ad Ancona, l’8-10 settembre. La settimana successiva è inoltre previsto il Convegno IMEKO-TC4, a Benevento, mentre la settimana precedente sarà organizzata la Scuola Gorini. Premio IEEE alla Carriera per il Prof. Massimo D’Apuzzo L’amico e collega Massimo D’Apuzzo, membro del GMEE, ha ottenuto il prestigioso premio “Career Excellence Award” della IEEE I&M Society. Le nostre congratulazioni più vive e sincere a Massimo, uno dei padri fondatori e un pilastro della nostra Associazione. L’assegnazione di questo prestigioso premio internazionale è un più che meritato riconoscimento all’entusiasmo, alla passione e alla competenza che Massimo ha profuso in questi anni per favorire lo sviluppo del GMEE e delle misure in Italia. Congratulazioni a Massimo a nome della Redazione di Tutto_Misure!
T_M ƒ 300
N. 04ƒ ; 2013
▲
SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI
Dimissioni del Prof. Andrea Ferrero dal Politecnico di Torino Riceviamo dall’amico e collega Prof. Andrea Ferrero, Ordinario di Misure Elettriche ed Elettroniche del Politecnico di Torino, la seguente lettera di accompagna-mento alle sue dimissioni dalla sua Università. Caro Dario e cari colleghi, Dopo 32 anni passati al Politecnico di Torino di cui 23 da dietro la cattedra ho deciso rassegnare le dimissioni per iniziare una nuova esperienza professionale e di vita. Con molti di voi ho condiviso una lunga carriera fatta di ricerca, concorsi e convegni ove scoprivo ogni volta di più la vitalità della ricerca misuristica in Italia. A volte con meraviglia altre con curiosità mi hanno sempre affascinato i mille ambiti diversi dove i nostri ricercatori applicano tecniche e metodologie comuni per garantire la qualità della misura. Da circa 13 anni, prima da associato e poi da ordinario, ho fatto parte di molte commissioni di concorso fino all’ultima avventura dell’ASN. Ho così avuto modo di conoscere da vicino molti di voi e di condividere l’onere della scelta prima con i miei “Maestri” e oggi con coloro con i quali avevo a suo tempo condiviso ansie e speranze dei concorsi. Tutte queste occasioni hanno via via cementato rapporti umani che vanno al di là del semplice rapporto di lavoro anche grazie alle nostre riunioni annuali e al loro aspetto “ludico” oltre che scientifico. Auguro a tutti voi di continuare come sempre a tener alta la cultura misuristica in Italia a nel mondo e per i più giovani di costruire quelle solide relazioni interpersonali che oggi rendono la scrittura di queste righe un po’ amara. Un caro saluto a tutti Andrea Ferrero
Il Presidente del GMEE, Dario Petri, ha scritto al Gruppo: Carissimi, ho ricevuto dall’amico e collega Andrea Ferrero l’inattesa notizia delle sue prossime dimissioni dal Politecnico di Torino. Sono convinto che questa decisione rappresenti una importante scelta nel suo percorso professionale. A titolo personale e a nome del GMEE gli auguro di continuare a raccogliere tutti i successi e le soddisfazioni che giustamente merita. Auspico anche che il GMEE possa continuare a contare sul suo importante contributo scientifico e umano. Un caro saluto Dario Ciao Andrea, da Tutto_Misure La Rivista Tutto_Misure e il suo Comitato Editoriale salutano Andrea, gli augurano buon lavoro e buona fortuna per il suo nuovo futuro professionale, e si augurano di averlo ancora gradito collaboratore. GMMT: GRUPPO MISURE MECCANICHE E TERMICHE
Assemblea dei Ricercatori del Gruppo di Misure meccaniche e Termiche a Trento
Il giorno 11 settembre, a Trento si è tenuta l’Assemblea annuale del gruppo di Misure Meccaniche e Termiche. È stato ancora una volta sancito e rafforzato il percorso di avvicinamento con il gruppo di Misure Elettriche ed Elettroniche, grazie anche agli interventi dei colleghi Franco Docchio, che ha fornito una efficace sintesi sulla situazione della rivista Tutto Misure e sui futuri piani editoriali, e a quello di Pasquale Daponte, che ha
N. 04ƒ ;2013
Marco Mugnaini Editor in Chief di rivista Internazionale L’Ing. Marco Mugnaini, dell’Unità di Siena, è stato eletto Editor in Chef della Rivista Internazionale “International Journal of Instrumentation Technology”, edita da Interscience. www.inderscience.com/jhome. php?jcode=IJIT Unità di Brescia: recenti nomine Alessandra Flammini è stata eletta nel Consiglio di Amministrazione del CSMT (Centro Servizi Multisettoriali e Tecnologici) che, sotto la Direzione Scientifica del Prof. Riccardo Pietrabissa, intende evolvere da un Centro di Servizi a un Centro di Attrazione per nuove imprese e Trasferimento Tecnologico.
■
offerto una panoramica assai apprezzata e interessante sulle attività e possibilità di partecipazione alle varie iniziative di IMEKO, associazione da lui stesso presieduta. In un panorama legislativo e normativo mutevole la carrellata solitamente offerta dal Presidente sulle nuove disposizioni di legge è dunque risultata più leggera rispetto alle passate assemblee. Alcuni gli aspetti meritevoli di nota. L’organico del gruppo presenta parecchie novità, alcuni abbandoni, ma fortunatamente anche muovi ingressi: il Prof. Revel, nuovo associato ad Ancona, l’Ing. Tarabini nuovo ricercatore a tempo determinato tipo A a Milano. L’attenzione dell’Assemblea ha riguardato una valutazione della nuova formula di convegno introdotta quest’anno, con una sessione riguardante i laboratori didattici, per un approfondimento dei contenuti della lettera pubblicata sull’ultimo numero di Tutto_Misure, proprio sul tema dei laboratori didattici, e una sessione di tutorial, svoltasi con 5 interventi su aspetti di base riguardanti il mondo della visione: la formula ha trovato interesse, soprattutto nei giovani e si lavorerà per mantenere attiva questa nuova iniziativa negli anni a venire. Altro momento interessante è stato la sintesi offerta dal collega Prof. Nicola Paone, riguardante la sua esperienza come coordinatore dei valutatori ANVUR della qualità della ricerca. Prestando attenzione a non rivelare dati sensibili, il collega Paone ha offerto una serie di punti di vista assolutamente originali, che hanno aiutato a una corretta ed equilibrata interpretazione dei risultati del complesso processo di valutazione del sistema universitario. L’Assemblea ha poi confermato alla presidenza il Prof. Michele Gasparetto. Il neo presidente ha dichiarato di volere conservare la carica per un anno, allo scopo di preparare alla successione qualche giovane meritevole, cui lasciare la guida del gruppo il prossimo anno ad Ancona.
SPAZIO ASSOCIAZIONI UNIVERSITARIE MISURISTI
Paritetica del Dipartimento ai sensi del Decreto su Autovalutazione, Valutazione e Accreditamento (AVA). Franco Docchio, Presidente della Commissione per il Trasferimento Tecnologico del Dipartimento di Ingegneria Meccanica e Industriale, è stato nominato dal Direttore del Dipartimento membro del Tavolo di Ateneo per il Trasferimento Tecnologico dell’Università di Brescia. Unità di Messina vincitrice di Progetto Samsung Il Prof. Nicola Donato, Direttore del Laboratorio di Sensori e Sistemi di Trasduzione dell’Università di Messina, ci comunica che il suo Progetto “SmArt sensors For brEath anaLYsis, SAFELY” redatto a quattro mani insieme al collega Giovanni Neri, è stato selezionato dal Samsung Advanced Institute of Technology (SAIT) nell’ambito del Global Research Outreach Program (GRO) per il 2013. Il Progetto ha durata triennale. Di seguito il link della pagina Samsung con la lista dei vincitori e del comunicato della conferenza stampa svolta presso l’Ateneo di Messina. w w w. s a i t . s a m s u n g . c o . k r / saithome/Page.do?method= main&pagePath=01_about/ &pageName=2013gro
Giovanna Sansoni è stata recentemente nominata Coordinatrice Didattica per il Dipartimento di Ingegneria dell’Informazione. Giovanna è anche Responsabile del Corso di Laurea Magistrale in Ingegneria Elettronica, nonché membro della Commissione
w w w. u n i m e . i t / _ s l i d e r _ i n _ evidenza/la_salute_a_portata_ di_smartphone-5541.html www.tempostretto.it/news/ eccellenze-progetto-dipartimen to-ingegneria-universit-messinaconquista-samsung.html Complimenti al Prof. Donato!
T_M ƒ 301
N. 04ƒ ; 2013
▲
NEWS
VIETNAM, LA SCANSIONE LASER “INCONTRA” GLI ANTICHI IMPERATORI CAM2 (Gruppo americano FARO Technologies, Inc. NASDAQ: FARO), prestigioso fornitore di tecnologia di misura 3D, imaging e realizzazione, ha annunciato che SI2G S.r.l. ha utilizzato con risultati eccellenti un CAM2 Laser Scanner Focus3D nel progetto internazionale di recupero e valorizzazione della storica cittadella imperiale di Huê’ in Vietnam. SI2G srl, Sistemi Informativi Intelligenti per la Geografia (www.si2g.it), è uno Spin-off dell’Università Politecnica delle Marche, nato nel 2008 su iniziativa di ricercatori con esperienza pluriennale nelle varie discipline per lo studio del territorio e dell’ambiente, a partire dall’informatica e dalla fotogrammetria. L’impresa si occupa di acquisire, analizzare, elaborare, archiviare e distribuire “dati ambientali” in formato digitale, con un approccio sistemico integrato e multidisciplinare, fornendo servizi di telerilevamento del territorio, fotogrammetria, topografia, cartografia e ICT. Eva Savina Malinverni, Professore associato di Topografia dell’Università Politecnica, spiega come mai SI2G abbia di recente investito in un Laser Scanner Focus3D, innovativo strumento di scansione laser della CAM2, che permette rilevazioni 3D con grande precisione e semplicità: “Dopo tanti anni di esperienza cartografica acquisita lavorando con diversi strumenti geodetici, abbiamo deciso di ampliare le nostre conoscenze e le possibilità applicative in fatto di rilevazione, introducendo all’interno della nostra struttura un laser scanner”. La scelta è caduta sul CAM2 Focus3D, strumento che abbina a un’elevata precisione di rilevazione una grande facilità d’uso. “Conoscevamo questo strumento per precedenti collaborazioni ed esperienze e ritenevamo che avrebbe potuto fare la differenza nella rilevazione di elementi architettonici, in particolare nei progetti di ricerca internazionali. Oggi possiamo dire di aver fatto la scelta giusta: il Laser Scanner Focus3D può infatti essere adoperato in maniera davvero semplice, come una normale fotocamera digitale. Possiamo portarlo con noi ovunque, anche in aree difficilmente raggiungibili o in Paesi del secondo o terzo mondo in cui sarebbe difficile giustificare, anche solo dal punto di vista burocratico, l’utilizzo di apparecchiature vistose”. CAM2 Laser Scanner Focus3D è in effetti uno strumento compatto, leggerissimo (appena 5 kg) e con ingombro assai ridotto pari a 24 x 20 x 10 cm, che l’operatore può portare con sé sempre e ovunque. Inoltre, la tecnologia WLAN consente di avviare, arrestare, visualizzare o scaricare le scansioni a distanza. Eva Savina Malinverni aggiunge: “Abbiamo acquistato il dispositivo lo scorso febbraio e in pochi mesi abbiamo preso dimestichezza e maturato la giusta esperienza. CAM2 Focus3D ci è stato di fondamentale aiuto soprattutto per due interessantissimi progetti che SI2G, in collaborazione con l’Uni-
T_M ƒ 302
versità Politecnica delle Marche, ha svolto in Vietnam”. Si è trattato di attività svolte su iniziativa del Ministero degli Affari Esteri italiano (responsabile scientifico universitario il Prof. F. Pugnaloni) per la salvaguardia dei siti storici e architettonici nel mondo. “In ¸ particolare, ci siamo occupati delle carceri fortificate di Quang Tri e della cittadella imperiale di Huê’”. La città imperiale di Huê’, dichiarata nel 1993 “Patrimonio dell’Umanità” dall’UNESCO, è probabilmente il sito architettonico più grande e celebre di tutto il Vietnam: da qui governarono gli imperatori della dinastia Nguyen tra il 1802 e il 1945. Essa è costruita sul modello del Palazzo Imperiale di Pechino e presenta mura, fossati, porte fortificate, ponti e decorazioni che la rendono un luogo suggestivo, di grande interesse artistico e storico. “Tutta l’area – riprende la Professoressa – fu completamente distrutta durante la guerra del Vietnam, ed è ora in fase di restauro grazie alla sovvenzione di diversi sponsor internazionali. Noi, in particolare, abbiamo operato sulla cosiddetta “Porta Est”, elemento architettonico molto complesso costituito da decorazioni in maiolica e fregi di ogni tipo. La rilevazione sarebbe stata un’operazione davvero lunga e complicata se avessimo utilizzato le normali tecniche fotogrammetriche”. CAM2 Laser Scanner Focus3D, invece, ha permesso all’equipe di SI2G di portare a termine il lavoro in poche ore e di ottenere, con sole 17 scansioni, risultati davvero sorprendenti: “Abbiamo rilevato la splendida Porta Est della città imperiale di Huê’ in pochissimo tempo, acquisendo una griglia 3D costituita da milioni di punti, con una distanza di pochi millimetri l’uno dall’altro, che ci ha permesso di ricavare una mesh 3D con texture fotorealistica in cui è possibile leggere ogni dettaglio di forma e colore delle strutture originali”.
Hanno contribuito all’acquisizione e all’elaborazione dei dati anche il Prof. Fangi e i suoi collaboratori, gli Ingegneri Tassetti e Bozzi dell’Università Politecnica delle Marche. Malinverni conclude: “Non va dimenticato che abbiamo lavorato in condizioni critiche, in una zona a elevato flusso turistico. Lo strumento non ha minimamente risentito della temperatura di quasi 40 °C, né dell’elevatissimo tasso di umidità, pari a circa l’85%. CAM2 Laser Scanner Focus3D si è rivelato uno strumento molto maneggevole, utilizzabile anche in luoghi “scomodi” e difficilmente accessibili, semplice nel suo utilizzo e molto versatile. I nostri colleghi stranieri in Vietnam ne sono rimasti impressionati”. Per ulteriori informazioni: www.cam2.it
SPAZIO DELLE ALTRE ASSOCIAZIONI
■
Rubrica a cura di Franco Docchio e Alfredo Cigada
Notizie dalle altre Associazioni A dimostrazione di quanto proposto e discusso con i partecipanti sono stati infine illustrati alcuni esempi già in uso in alcuni laboratori. ALATI si ripropone come vettore d’innovazione e assistenza per tutti i laboratori accreditati promuovendo altre iniziative formative, focalizzando l’attenzione sulle opportunità che il mercato offre, selezionando gli opportuni strumenti HW e SW per poter far fronte alle problematiche quotidiane. Sarà quindi riproposta un’altra giornata formativa sullo stesso argomento presentando altre esperienze pratiche applicative del documento. Ma le iniziative non si limiteranno solo a questo ma anche a indagini capillari per poter affrontare e risolvere tutti gli aspetti dei problemi tecnico organizzativi dei laboratori di taratura in Italia. Paolo Giardina, Presidente A.L.A.T.I.
OTHER ITALIAN ASSOCIATIONS This section reports the contributions from Associations wishing to use Tutto_Misure as a vehicle to address their information to the readers. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle Associazioni che vedono nella Rivista uno strumento per veicolare le loro informazioni al pubblico di Tutto_Misure. A.L.A.T.I.: GIORNATA DI FORMAZIONE SU ACCREDIA DT-02-DT
Orgogliosi del successo ottenuto in collaborazione con il Politecnico di Milano, nella giornata di formazione relativa al doc. ACCREDIA “DT-02DT “GUIDA ALLA GESTIONE DEL SISTEMA INFORMATIVO DEI LABORATORI” riassumiamo brevemente i contenuti del corso. Consapevoli che ormai i fogli di calcolo elettronici sono entrati a pieno titolo tra gli strumenti utilizzati nei laboratori di taratura per la gestione della catena di misura, dell’acquisizione dei dati e molto spesso per la deter-
minazione degli errori e delle incertezze associate, non possiamo esimerci dal fatto che anche questi oggetti, partecipando alla catena di misura, in quanto elaboratori di dati, vadano trattati alla stessa stregua di uno strumento di misura. Cosi come contemplato in diversi punti anche dalla norma ISO/IEC 17025, è stata nostra intenzione analizzare tali aspetti attraverso i seguenti contenuti didattici: • Illustrazione dei requisiti del documento ACCREDIA DT-02-DT; • Presentazione di esempi dei documenti di registrazione necessari e di metodologie applicative; • Requisiti minimi di una procedura di validazione di un foglio di calcolo elettronico utilizzato per la registrazione dei dati di misura ed la determinazione dell’incertezza: ❏ struttura del foglio di calcolo; ❏ controllo del formato dei dati in ingresso; ❏ controllo del formato dei dati in uscita secondo le regole del documento sulla compilazione del certificato di taratura IO-09-DT e del documento DT-04-DT sulle principali regole di scrittura; ❏ tipologia del set di dati in ingresso al foglio di calcolo e dei corrispondenti risultati attesi.
ASSOCIAZIONE ITALIANA PROPRIETÀ TERMOFISICHE (AIPT)
L’AIPT assegna il Premio “Ermanno Grinzato” al Dott. Francesco Zonta Cari lettori di Tutto Misure, è con grande piacere che il Comitato Direttivo dell’A.I.P.T. – Associazione Italiana Proprietà Termofisiche comunica l’avvenuta assegnazione del Premio “Ermanno
franco.docchio@ing.unibs.it
T_M
N.
4/13 ƒ 303
N. 04ƒ ; 2013
■
SPAZIO DELLE ALTRE ASSOCIAZIONI
Grinzato” al merito scientifico al Dott. Francesco Zonta. Il Premio è stato istituito al fine di promuovere tra i giovani ricercatori lo studio e le applicazioni delle proprietà termofisiche, in ambito sia scientifico che industriale, ed è dedicato alla memoria di Ermanno Grinzato, socio dell’A.I.P.T. che ci ha prematuramente lasciati il 21 agosto 2012 dopo una lunga attività di ricerca presso l’Istituto per le Tecnologie della Costruzione del C.N.R., sezione di Padova. Ermanno Grinzato è stato fino all’ultimo un lucido e brillante ricercatore, organizzatore e animatore della comunità scientifica nella quale ha operato. A concorrere all’assegnazione del premio, pari a 2.000 euro al lordo degli oneri fiscali e cortesemente offerto dall’azienda Mimesis Srl (www.mimesis.eu), sono stati ammessi giovani ricercatori di cittadinanza italiana, oppure residenti in Italia, con laurea o dottorato di ricerca in discipline di ambito scientifico-tecnologico conseguiti da non oltre 10 anni. La partecipazione è stata numerosa e qualificata e ha visto i candidati presentare alla Commissione giudicatrice, nominata dal Comitato direttivo e formata da Francesco Righini, Giuseppe Ruscica ed Elena Campagnoli, prima un elaborato scritto in lingua inglese e, successivamente, in occasione del XIX Convegno annuale dell’A.I.P.T., una relazione orale. Il Convegno annuale dell’A.I.P.T. si è tenuto il 19 settembre u.s. a Bologna, presso il Dipartimento di Ingegneria Industriale dell’Università di Bologna, grazie all’ospitalità accordata dal Prof. Gian Luca Morini e dal suo gruppo di lavoro e al supporto di Netzsch (www.netzsch-thermal-analysis.com) ed Energy Seal Italia (www.energy-seal.it). Durante il Convegno sono state presentate relazioni da parte sia degli associati all’A.I.P.T., sia dei concorrenti al Premio. La proclamazione formale del vincitore è avvenuta al termine dei lavori e, dopo una relativamente lunga camera di consiglio per la presenza di vari lavori meritevoli,
T_M ƒ 304
ha visto la Commissione assegnare il Premio al sopraccitato Dott. Zonta. Francesco Zonta, laureato con lode in Ingegneria Meccanica presso l’Università di Udine nel 2006, è diventato Dottore di Ricerca in Tecnologie chimiche ed energetiche nel 2010. Dal medesimo anno svolge attività di ricerca presso l’Università di Udine nel campo dello scambio termico turbolento, dei flussi turbolenti multifase e dei metodi numerici per la termofluidodinamica. Il lavoro premiato, intitolato ‘’The effect of temperature dependent fluid thermophysical properties on heat and momentum transfer in turbulent mixed convection’’, si è incentrato sull’impiego di tecniche di supercalcolo per l’analisi dei processi di raffreddamento ad acqua di dispositivi elettronici soggetti a elevate dissipazioni termiche come, ad esempio, i supercalcolatori, e ha permesso di verificare come la variazione delle proprietà termofisiche del fluido di raffreddamento possa persino inibire lo scambio termico turbolento (inducendo fenomeni di rilaminarizzazione locale) e avere quindi un ruolo determinante nel computo del coefficiente globale di scambio termico. Nel constatare con piacere il successo dell’iniziativa presso i giovani ricercatori, che Ermanno Grinzato ha sempre avuto a cuore nella sua attività scientifica e organizzativa, formuliamo a tutti loro e, in particolare, a Francesco Zonta e agli altri che hanno concorso al Premio gli auguri più sentiti per una carriera piena di soddisfazioni. Il Comitato direttivo A.I.P.T.: Alberto Muscio (Presidente), Elena Campagnoli (Segretario), Francesco Righini (Tesoriere), Giuseppe Ruscica, Paolo Coppa (Revisori dei Conti).
▲
LO SPAZIO DEGLI IMP
Marco D’Arienzo, Marco Capponi, Pierino De Felice
La metrologia delle radiazioni ionizzanti nella radioterapia molecolare Dalla misura dell’attività alla valutazione della dose al paziente
METROLOGY OF IONIZING RADIATIONS IN MOLECULAR RADIATION THERAPY Molecular radiation therapy is a unique form of radiotherapy where a high radiation dose is delivered internally through the administration of radiopharmaceuticals. Recent research indicates that, as a consequence of biological variation across patients, the absorbed dose can vary, for the same administered activity, by as much as two orders of magnitude. It is clear that there is a need of accurately assessing both the activity administered to a patient and the radiation dose delivered to a tumor area. This requires an innovative metrological support. RIASSUNTO La radioterapia molecolare è una tecnica medico-nucleare per la terapia dei tumori nella quale un’elevata dose è somministrata a organi interni mediante somministrazione di radiofarmaci. Studi recenti hanno dimostrato che, a causa delle variazioni biologiche e anatomiche tra pazienti, la dose assorbita da un determinato organo o tessuto può variare, a parità di attività somministrata, anche di due ordini di grandezza. È evidente, quindi, la necessità di determinare in modo accurato l’attività somministrata al paziente e la dose rilasciata al tumore e agli organi sani. Ciò richiede un supporto metrologico dedicato e innovativo. ASPETTI METROLOGICI DELLA RADIOTERAPIA MOLECOLARE
L’impiego di iodio radioattivo agli inizi del XX secolo per la cura delle patologie della tiroide ha rappresentato, per certi versi, la prima forma di radioterapia molecolare. Negli ultimi vent’anni, la crescente disponibilità di radionuclidi impiegati a scopo terapeutico ha favorito l’introduzione di nuove tecniche di radioterapia molecolare, sempre più efficaci e mirate. Nella moderna radioterapia molecolare il radionuclide è legato a un farmaco o ad altro agente chelante che presenta particolari affinità di legame con la sede tumorale. La somministrazione del complesso molecolare così formato (radiofarmaco) è seguita da un accumulo selettivo del radionuclide all’interno del distretto anatomico patologico, all’interno del quale verrà rilasciata la dose di radiazione terapeutica. Questa può variare ampia-
mente a seconda delle caratteristiche fisiche e fisiologiche del singolo paziente, della cinetica specifica del radiofarmaco e del radionuclide impiegato. Recenti studi hanno dimostrato che, a parità di attività somministrata, la dose alla sede tumorale può variare anche di due ordini di grandezza [1,2]. Questa circostanza è particolarmente critica dal punto di vista clinico poiché, in uno scenario di sottodosaggio, il paziente non ottiene alcun beneficio terapeutico dal trattamento mentre, in una situazione di sovradosaggio, il paziente riceve una dose maggiore di quanto sarebbe necessario al trattamento della patologia, con conseguente irraggiamento indebito degli organi sani. Nella radioterapia con fasci esterni sono già utilizzati protocolli di misura dosimetrici, condivisi a livello internazionale, che stabiliscono ben definiti livelli di accuratezza e tolleranza nell’erogazione della dose (entro il 5%
T_M
[3]). Per contro, nella radioterapia molecolare non si dispone ancora di una procedura standardizzata per la valutazione della dose al paziente e, per la maggior parte dei trattamenti, la metodologia per la somministrazione personalizzata del radiofarmaco non è ancora sufficientemente definita. La necessità di conoscere in modo accurato l’attività somministrata al paziente e la dose rilasciata al tumore e agli organi sani richiede un supporto metrologico innovativo alla radioterapia molecolare, che sia in grado di garantire l’affidabilità e la riferibilità delle misure effettuate a livello clinico. In questo contesto, l’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti (INMRI) dell’ENEA ha contribuito alla formulazione di un progetto di ricerca metrologica dedicato alla radioterapia molecolare. Il progetto “Metrology for Molecular Radiotherapy” (MetroMRT) è stato ammesso al finanziamento da parte dell’European Metrology Research Programme (EMRP) e conta attualmente 28 partecipanti (6 Istituti Metrologici Primari Europei direttamente finanziati e 22 centri di ricerca clinica a supporto del progetto, essendo direttamente interessati per loro attività di ricerca o di pratica clinica). Il progetto è iniziato nel mese di giugno 2012 e ha durata triennale.
Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti (INMRI), ENEA, C.R. Casaccia marco.darienzo@enea.it
N.
T_M 4/1 3 ƒ 305
DALLA MISURA DELL’ATTIVITÁ ALLA VALUTAZIONE DELLA DOSE
Gli aspetti metrologici nei trattamenti di radioterapia molecolare sono molteplici. Nel seguito, la catena metrologica è analizzata nei singoli passaggi. Misura dell’attività somministrata La metrologia dei radionuclidi è ritenuta oggi una scienza matura. Tuttavia, affinché tutta l’energia sia depositata localmente, i radionuclidi impiegati nella terapia medica sono molto spesso (in alcuni casi esclusivamente) emettitori beta di bassa energia. Questa circostanza impone metodologie e tecniche dedicate per la determinazione dell’attività, sia nelle misurazioni con campioni primari, sia in quelle effettuate a livello clinico. Ad esempio, nei trattamenti di radioembolizzazione epatica con 90Y legato a microsfere in resina o vetro, gli elettroni (raggi beta) emessi dal radionuclide depositato sulla superficie o all’interno della microsfera possono essere da questa autoassorbiti, ponendo quindi specifici problemi di misura dell’attività. A questa circostanza si aggiungono inoltre problemi legati alla sedimentazione delle microsfere che non costituiscono una soluzione omogenea con il liquido fisiologico in cui sono immerse. Per l’90Y legato a microsfere in resina o vetro sussiste quindi l’esigenza metrologica di realizzare un sistema primario di misura dell’attività, a oggi non disponibile. Nell’ambito del progetto MetroMRT l’INMRI sta lavorando sulla realizzazione di un rivelatore Cˇerenkov TDCR (Triple to Double Coincidence Ratio) [4] che consenta di estendere la consolidata tecnica TDCR, utilizzata in misure con scintillatori liquidi [5], a misure di radioattività che facciano uso della radiazione Cˇ erenkov emessa da particelle cariche energetiche. Il metodo, alquanto innovativo, permette non solo una misura diretta dell’attività del radionuclide ma funge anche da selettore d’impurezze di tipo β, eventualmente presenti nella
T_M ƒ 306
N. 04ƒ ; 2013
▲
LO SPAZIO DEGLI IMP
soluzione. Obiettivo di tali misure è lo sviluppo di un sistema primario di misura dell’attività di microsfere di 90Y in modo da consentire la taratura per tale radionuclide di strumenti di misura dell’attività in uso presso centri di produzione di radio farmaci e/o centri di medicina nucleare presso strutture ospedaliere. Misura dell’attività nel volume di interesse attraverso procedure di imaging quantitativo Nei trattamenti di radioterapia molecolare larga parte dell’attività somministrata al paziente si accumula preferenzialmente all’interno del distretto tumorale. Tuttavia, inevitabilmente, parte dell’attività si localizzerà anche all’interno di organi o tessuti sani. La determinazione dell’attività all’interno di un determinato distretto anatomico è possibile grazie a tecniche d’imaging quantitativo con gamma camera o PET (Positron Emission Tomography). A tal fine è necessario effettuare la taratura dei suddetti sistemi e sviluppare opportune catene di riferibilità. Una gamma camera è costituita da un sistema a due o tre testate di misura in grado di acquisire immagini scintigrafiche grazie all’impiego di cristalli rivelatori (generalmente NaI(Tl)) montati sulle testate e accoppiati a fotomoltiplicatori. Le immagini scintigrafiche rappresentano la distribuzione della radioattività all’interno del distretto anatomico. Per definizione una gamma camera è in grado di rivelare radiazione fotonica, quali radionuclidi gammaemettitori e, in alcuni casi, radionuclidi beta-emettitori che producono radiazione gamma di frenamento sufficientemente energetica da emergere dal paziente. I sistemi PET forniscono informazioni di tipo funzionale, e impiegano come rivelatori un elevato numero di cristalli (generalmente BGO, LSO o di GSO) assemblato in blocchi, ciascuno dei quali accoppiato a un gruppo di fotomoltiplicatori. Questi blocchi, nel numero di un centinaio, vengono organizzati a formare un anello con dia-
metro di 80-90 cm. I sistemi PET sono in grado di rivelare in coincidenza i fotoni da 0,511 MeV emessi a seguito dell’annichilazione di un positrone (β+) con un elettrone della materia, fornendo un’informazione sulla posizione dell’evento. La taratura di un sistema d’imaging consiste nella determinazione del coefficiente di conversione (Bq/ cps⋅s-1) tra il rateo di conteggio del sistema di acquisizione (cps⋅s -1 ) e l’attività di un radionuclide (Bq) all’interno di un determinato volume d’interesse in un organo del paziente. Essa è eseguita acquisendo l’immagine di una sorgente campione in geometria e attività note in determinate condizioni di riferimento. Il coefficiente di conversione è funzione del radionuclide e del sistema di rivelazione utilizzato. La successiva elaborazione dell’immagine e l’applicazione di opportuni fattori di correzione che tengano conto dei diversi effetti fisici che contribuiscono a degradare la qualità dell’immagine consentono la determinazione dell’attività nelle condizioni cliniche di misura. Attualmente non sono disponibili procedure standardizzate per la taratura di sistemi SPECT o PET. Le pubblicazioni internazionali di riferimento riportano l’esistenza di più metodiche di taratura e di più algoritmi di correzione delle immagini, non sempre confrontabili tra loro a causa della diversità degli algoritmi e dei procedimenti di calcolo. Nell’ambito del progetto MetroMRT l’INMRI collabora al raggiungimento dei seguenti obiettivi: I) il consolidamento della riferibilità metrologica dei campioni di attività impiegati nella fase di taratura della gamma camera; II) lo sviluppo di protocolli di taratura standardizzati e validati dagli istituti metrologici nazionali partecipanti; III) la determinazione dei principali algoritmi e fattori di correzione che intervengono nel processo d’imaging; IV) la valutazione dell’incertezza composta nella determinazione dell’attività tramite procedure d’imaging quantitativo.
N. 04ƒ ;2013 Integrazione temporale delle immagini acquisite tramite imaging quantitativo Ai fini della valutazione della dose assorbita dall’organo o tessuto d’interesse è necessaria la determinazione del numero totale di particelle emesse all’interno di esso, ottenibile eseguendo l’integrale della curva attivitàtempo calcolata nel volume selezionato. A livello clinico la curva attivitàtempo si determina acquisendo una serie d’immagini a diversi intervalli temporali, seguendo cioè la biocinetica del radiofarmaco per periodi sufficientemente lunghi. Le curve attivitàtempo seguono generalmente una cinetica esponenziale o multiesponenziale a seconda dei tempi con cui l’attività viene assorbita o rilasciata dal distretto d’interesse:
Attualmente non si dispone di una procedura standardizzata per l’integrazione delle curve attività-tempo e le funzioni esponenziali descritte nella relazione (1) sono generalmente derivate tramite procedure d’interpolazione di dati clinici. Il valore finale dell’integrale (2) sarà quindi affetto da approssimazioni e incertezze legate alla particolare procedura d’interpolazione adottata, al campionamento temporale dei dati clinici e specifica alla cinetica del radiofarmaco. Una serie d’immagini total body planari, relative allo stesso paziente somministrato con radiofarmaco 111In-Zevalin e acquisite in tempi differenti, fino a 144 h è riportata in Fig. 1. La curva attività-tempo è valutata delineando una regione d’interesse e calcolando l’attività contenuta all’interno di tale regione in funzione del tempo. Uno degli obiettivi del progetto MetroMRT è la determinazione dell’incertezza associata al valore di à quando tale grandezza è valutata secondo le diverse procedure attualmente riportate nella Figura 1 – Sequenza d’immagini total body planari acquisite sullo stesso letteratura e l’inpaziente a diversi istanti dopo la somministrazione del radiofarmaco dividuazione 111In-Zevalin. È chiaramente visibile la fase vascolare fino a 24 h dopo di un’affidabile la somministrazione. Dopo 72 h dalla somministrazione diviene procedura d’invisibile anche la lesione sovraclaveare terpolazione dei punti speri(1) mentali. A( t ) = ∑ Ai ( 0 )e − λi t i
dove Ai(0) è l’attività iniziale dell’iesima componente esponenziale e λi la costante di rimozione effettiva, data dalla somma della costante di decadimento fisica e della costante di rimozione biologica. Per quanto detto, dunque, la grandezza à è data dalla seguente relazione: ˜ = A
∞
A ( 0)
i ∫0 A( t )dt = ∑ λ i i
[Bq × s ]
(2)
Determinazione della dose Nota l’attività cumulata in un determinato organo o tessuto, la dose assorbita D nel volume d’interesse è determinata tramite la seguente relazione: D=÷S
(3)
dove S (Gy/Bq⋅s) rappresenta la dose assorbita nella regione bersaglio per trasformazione nucleare all’interno della regione sorgente. I fattori S
▲
LO SPAZIO DEGLI IMP
dipendono dalla geometria d’irraggiamento e dal radionuclide, e sono calcolati generalmente tramite tecniche Monte Carlo. Non esistono oggi misure sperimentali di tale fattore riferibili a campioni primari di dose assorbita. Di conseguenza, i fattori S dipendono in maniera sostanziale dall’accuratezza dei dati nucleari disponibili e dalla tecnica di calcolo impiegata. Uno degli obiettivi del progetto MtroMRT è sviluppare catene metrologiche utili alla determinazione sperimentale dei fattori S. CONCLUSIONI
Attualmente non esistono in radioterapia molecolare protocolli di dosimetria clinicamente accettati, e gli studi dosimetrici sono generalmente eseguiti sulla base d’iniziative individuali e delle risorse tecniche disponibili presso i singoli centri che eseguono dosimetria a livello clinico. Di conseguenza i risultati dosimetrici sono oggi difficilmente confrontabili. A riscontro di tale circostanza, recenti lavori di letteratura riportano differenze tra valore di dose calcolato e valore misurato tra il 10% e il 30% per misure su fantoccio in condizioni di riferimento, e incertezze tipo nell’intervallo 10%100% per misure su paziente. Al fine di armonizzare e rendere omogenee le procedure dosimetriche è quindi necessario sviluppare opportune catene di riferibilità che consentano di confrontare le valutazioni dosimetriche su paziente. Il principale obiettivo del progetto MetroMRT attualmente in corso, al quale l’INMRI contribuisce significativamente, è proprio lo sviluppo della metrologia di base necessaria a garantire la riferibilità delle procedure dosimetriche in radioterapia molecolare. La definizione di procedure standardizzate per la dosimetria clinica in radioterapia molecolare unitamente al consolidamento della riferibilità metrologica dei campioni di attività impiegati nella pratica clinica consentiranno, in futuro, di personalizzare i trattamenti di radioterapia molecolare, con imme-
T_M ƒ 307
N. 04ƒ ; 2013
■
LO SPAZIO DEGLI IMP
ization by means of a new TDCR-Cerenkov counting technique. Appl. Radiat. Isot. 68(6), 1116-1120.[8] R. Broda, P. Cassette, K. Kossert, 2007. Radionuclide Metrology Using Liquid Scintillation Counting. Metrologia 44, 36-52. 5. R. Broda, P. Cassette, K. Kossert, 2007. Radionuclide Metrology Using Liquid Scintillation Counting. Metrologia 44, 36-52.
diato beneficio del paziente sottoposto a terapia con le radiazioni. L’adozione di protocolli di misura dosimetrici condivisi a livello internazionale risulta infatti fondamentale per la corretta determinazione della dose terapeutica somministrata ai pazienti e il conseguente miglioramento delle possibilità di guarigione.
for radioiodine ablation in differentiated thyroid cancer”, Eur J Nucl Med Mol Imaging 37:270-275 (2010). 3. International Commission on Radiation Units and Measurements. Prescribing, recording, and reporting photon beam therapy: ICRU report 50. Bethesda, MD: International Commission of Radiation Units and Measurements, 1993. 4. Kossert, K., 2010. Activity standard-
RIFERIMENTI BIBLIOGRAFICI
Marco D’Arienzo si è laureato in Fisica nel 2003 presso l’Università Roma Tre e nel 2006 ha conseguito la specializzazione in Fisica Medica presso l’Università di Roma Tor Vergata. Dal 2010 è ricercatore presso l’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti (INMRI) del C.R. ENEA Casaccia, dove è responsabile della sezione Campioni Primari Alte Dosi. È responsabile scientifico in ENEA del progetto europeo “Metrology for Molecular Radiotherapy” (MetroMRT).
NEWS
▼
1. G.D. Flux, M. Bardies, C. Chiesa et al, “Clinical radionuclide therapy dosimetry: the quest for the “Holy Gray””, Eur J Nucl Med Mol Imaging 34,1 (2007). 2. G.D. Flux, H. Masud, S.J. Chittenden et al, “A dose-effect correlation
SOLUZIONI INNOVATIVE PER LA SICUREZZA DI PROCESSO ATTRAVERSO IL CONTROLLO QUALITÀ INTEGRATO Kistler ha recentemente presentato, nell’ambito della fiera SPS IPC (26-28 novembre 2013 - Norimberga), nuovi componenti, sistemi e soluzioni complete per i controlli di qualità, mirate sulla massima flessibilità, garanzia ed efficienza. Nuova flessibilità nella misura della coppia La nuova flangia di misura KiTorq System è in grado di fornire all’operatore del banco prova una flessibilità senza pari nella misurazione della coppia per i motori elettrici a combustione interna, ingranaggi , pompe e compressori nei settori automobilistico e dell’ingegneria energetica , aeronautica e astronautica , medicina e ingegneria di processo. La base di questo sofisticata innovazione risiede soprattutto nella separazione dei corpi di misura e nell’unità di valutazione, così come nella loro combinabilità modulare. Il Sistema KiTorq è costituito da un corpo di misura, ovvero il rotore 4551A con una nuova taglia di flangia, e da un’unità di valutazione statore 4542A, che integra vari protocolli di comunicazione, dal Profibus DP all’EtherCAT e Ether-net/IP. Così come il rotore 4551A, Kistler offre anche il modello a flangia 4550A di dimensioni in accordo con il formato DIN ISO 7646. Entrambi i rotori possono essere combinati con lo stesso statore, progettato per essere semplice da installare e per agevolare l’adattamento dei vari componenti sotto test, senza la necessità di dover ricostruire completamente l’impianto di prova. Gli utenti beneficiano di un alto grado di flessibilità per quanto riguarda la scelta dei componenti adeguati per il rispettivo
T_M ƒ 308
banco di prova , consentendo tempi d’installazione e manutenzione ridotti. Inoltre, il design senza statore semplifica l’assemblaggio: così come il sensore non dev’essere collocato all’interno di un anello/antenna. Con un trasferimento completamente digitale, il sistema KiTorq offre la massima dinamica e precisione: con un livello di precisione < 0,05% e una banda passante di 10 kHz, esso offre la possibilità di configurare vari campi di misura impostabili direttamente dall’operatore. Sistemi per il monitoraggio dei processi manuali e automatizzati A SPS IPC Drives 2013, Kistler ha presentato alcuni accorgimenti meccanici applicati alla serie maXYmos, per un’integrazione facile e veloce nei processi manuali (presse a mano, ecc.) oltre che in contesti automatizzati. Gli strumenti della famiglia maXYmos facilitano la visualizzazione e la valutazione dei processi, quindi forniscono oggettivamente la garanzia della qualità del processo integrato. Le deviazioni rispetto al livello di qualità desiderato possono essere identificate tramite una diagnosi “precoce” e rimosse dal processo di produzione, aumentandone così l’efficienza e diminuendone i costi. L’impiego di questi strumenti contribuisce a una riduzione dei tempi di fermo non programmati, aumenta la disponibilità della macchina e aumenta la produttività complessiva del processo di produzione. Oltre a ciò, maXYmos consente la tracciabilità dei risultati di processo, perché i monitor possono documentare tutti i dati in modo che i pezzi difettosi possano sempre essere identificati univocamente. Kistler offre ai propri clienti maXYmos BL (Basic Level) e maXYmos TL (Top Level), rispettivamente mono canale e multi canale, entrambi facili da usare e intuitivi. Per ulteriori informazioni: www.kistler.com
MANIFESTAZIONI EVENTI E FORMAZIONE
■
2014 eventi in breve 2014
7-9 GENNAIO
Lisbon, Portugal
International Conference on Pervasive and Embedded Computing and Communication Systems (PECCS 20914)
www.peccs.org
11-12 GENNAIO
Phuket, Thailand
2014 International Conference on Artificial Intelligence and Software Engineering (AISE2014)
www.aise2014.org
12-14 GENNAIO
Shenzen, China
The 5th International Conference on Information Technology in Education
www.engii.org/workshop/CITE2014January/Home.aspx
11-14 FEBBRAIO
Castelldefels, Spain
11th International Multiconference on Systems, Signals & Devices
www.ssd-conf.org/ssd14
17-19 FEBBRAIO
Roma, Italy
Secondo Convegno Nazionale Sensori
www.aisem.eu/CNS/Home.html
22-23 FEBBRAIO
Shanghai, China
International Conference on Electrical, Control and Automation (ICECA 2014)
www.ic-eca.org
22-23 FEBBRAIO
Shenzen, China
2014 International Conference on Energy, Environment and Materials Engineering (EEME2014)
www.eeme2014.org
22-23 FEBBRAIO
Shenzen, China
2014 International Conference on Advanced Materials, Testing and Information Engineering(AMTIE2014)
www.amtie.org
3-5 MARZO
Angers, France
BIODEVICES 2014 - Int’l Conf. on Biomedical Electronics and Devices
www.biodevices.biostec.org
4-7 MARZO
Orlando, USA
5th International Multi-Conference on Complexity, Informatics and Cybernetics: IMCIC 2014
www.2014iiisconferences.org/imcic
16-17 APRILE
Torino, Italy
Affidabilità e Tecnologie - Ottava edizione
www.affidabilita.eu
20-24 APRILE
Chamonix, France
BIOTECHNO 2014
www.iaria.org/conferences2014/BIOTECHNO14.html
25-28 APRILE
Dalian, China
7th Annual world congress of Industrial Biotechnology (IBIO-2014)
www.bitlifesciences.com/ibio2014
5-6 MAGGIO
Torino, Italy
8th Workshop on Analysis of Dynamic Measurements
www.inrim.it/ADM2014
24-25 MAGGIO
Shanghai, China
2014 International Conference on Management and Engineering (CME 2014)
www.cme2014.org
27-31 MAGGIO
Torino, Italy
Advances in Foundations of Quantum Mechanics and Quantum Information with atoms and photons
www.inrim.it/~brida/Quantum_2014
29-30 MAGGIO
Benevento, Italy
IEEE International Workshop on Metrology for Aerospace
www.metroaerospace.org
8-13 GIUGNO
Montecatini Terme, Italy 13th International Ceramics Congress
www.cimtec-congress.org/2014/abstract_submission.asp
12-15 GIUGNO
Chicago, USA
2014 IEEE International Technology Management Conference (ITMC2014)
http://ieee-tmc.org/itmc2014
18-20 GIUGNO
Ischia, Italy
International Symposium on Power Electronics, Electrical Drives, Automation and Motion (SPEEDAM 2014)
www.speedam.org
26-27 GIUGNO
Kohala Coast, Hawaii, USA ASPE/ASPEN Summer Topical Meeting
www.aspe.org
28-29 GIUGNO
Shanghai, China
2014 International Conference on Materials Science and Engineering Technology (MSET 2014)
www.icmset.org
8-10 SETTEMBRE
Ancona, Italy
Congresso GMEE 2014
www.gmee.org
15-17 SETTEMBRE
Benevento, Italy
20th IMEKO TC-4 Symposium
http://conferences.imeko.org/index.php/tc4/tc4_2014
T_M
N.
4/13 ƒ 309
N. 04ƒ ; 2013
▲
NEWS
UN NUOVO SVILUPPO PERMETTE DI CAPIRE MEGLIO LE PRESTAZIONI DEGLI ASSI ROTANTI
Con il lancio del nuovo software rotativo fuori asse per il calibratore XR20-W, Renishaw ha ampliato ulteriormente la propria serie di soluzioni per la verifica delle prestazioni di allineamento e posizionamento degli assi rotanti delle macchine utensili. Grazie a questo software, il dispositivo XR20-W può essere utilizzato anche su macchine utensili a cinque assi che non permettano l’installazione del calibratore sul centro di rotazione. In combinazione con il già consolidato sistema AxiSetTM Check-Up di Renishaw, che fornisce verifiche rapide e accurate delle condizioni degli assi e dei punti di rotazione, questo dispositivo fornisce un gran numero di informazioni a chi debba ottimizzare le prestazioni di macchine con assi rotanti. XR20-W “fuori asse” Il calibratore consente di misurare le prestazioni di posizionamento degli assi rotativi con un’accuratezza di ± 1 secondo d’arco utilizzando un laser XL-80. La funzione di test “fuori asse” permette di eseguire verifiche su una maggiore varietà di macchine utensili rispetto al passato: questo significa migliore ritorno dell’investimento e possibilità di offrire maggiori servizi ai propri clienti. Il metodo per le misure fuori asse prevede la sincronizzazione dei movimenti degli assi lineari e rotativi in modo che il fascio del laser XL-80 sia allineato durante l’intero test. Dato che l’asse lineare si sposta, le misure effettuate dal dispositivo XR20-W potrebbero includere errori angolari aggiuntivi (ad esempio di beccheggio) provenienti dall’asse lineare. Questi errori sono misurati separatamente con il laser e le ottiche angolari e possono essere rimossi dai risultati di prova dell’asse rotativo. Il risultato finale è un gruppo di dati che rappresenta, separatamente dagli altri, gli errori dell’asse rotativo. Il software rotativo fuori asse è un’opzione aggiuntiva di XR20W e include un pacchetto di utilità software, generatori di programmi e un manuale in formato elettronico. AxiSet™ Check-up La conoscenza della posizione dei centri di rotazione degli
T_M ƒ 310
assi rispetto agli assi lineari è fondamentale per effettuare lavorazioni corrette. Se la posizione di questi punti non è nota in maniera molto accurata, il controllo della macchina non può guidare gli assi in maniera affidabile e i risultati di lavorazione saranno incoerenti. AxiSet Check-Up fornisce un metodo di prova accurato e ripetibile usando routine di ispezione automatiche su un oggetto calibrato, e include un’analisi semplice ma completa. I controlli di allineamento e prestazioni di posizionamento sono eseguiti in modo rapido e conforme agli standard e permettono di monitorare nel tempo il funzionamento di macchine complesse. Tutte le prove utilizzano tastatori a contatto Renishaw collocati nel mandrino, vale a dire un’opzione standard su molte macchine multiasse, in combinazione con routine di ispezione generate usando macro software specifiche per il modello di macchina e fornite con AxiSet Check-Up. Il piazzamento è rapido e semplice: per eseguire la prova l’utilizzatore, utilizzando una base magnetica, colloca all’interno dell’area di lavoro della macchina una sfera tarata; con le macro del software personalizzato la sonda effettua misure su diversi punti della sfera. I risultati delle misure sono inviati a un PC e presentati in un foglio elettronico di Microsoft® Excel® per consentire una chiara analisi dei dati in vari formati, inclusa una rappresentazione grafica delle prestazioni che evidenzia gli errori di centraggio e di inseguimento, una semplice funzione che compara due gruppi di prove su una stessa macchina, un semplice test “passa / non passa” contro una tolleranza definita e una schermata di analisi storica per confrontare le prestazioni degli assi rotativi nel tempo. Altre prove e verifiche Per assicurare l’ottimizzazione dell’analisi degli assi rotanti utilizzando Check-Up è importante che i tre assi lineari si muovano in maniera corretta. Questo requisito dovrebbe essere ottenuto eseguendo le correzioni con un laser Renishaw XL-80, e verificato regolarmente con un ballbar Renishaw QC20-W. Insieme al sistema XR20-W e ad AxiSet Check-up, queste potenti soluzioni assicurano che i pezzi della più alta qualità possano essere prodotti in maniera affidabile e riproducibile su centri di lavoro a cinque assi e macchine di tornitura-fresatura. Si tratta di un portafoglio di prodotti ricchissimo in grado di fornire una soluzione diagnostica che non teme confronti e mira ad eliminare completamente le variazioni all’interno dei processi di lavorazione, per massimizzare la produttività durante il taglio dei metalli. Per ulteriori informazioni sui prodotti Renishaw per la taratura e il monitoraggio delle prestazioni, vedere i siti Web www.renishaw.com/calibration e www.renishaw.com/AxiSet
COMMENTI ALLE NORME
▲
COMMENTI ALLE NORME: LA 17025 A cura di Nicola Dell’Arena (ndellarena@hotmail.it)
Non conformità, azioni correttive, azioni preventive, reclami e miglioramento - Parte nona Miglioramento e azioni preventive
A great success has been attributed to this interesting series of comments by Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025. RIASSUNTO Prosegue con successo l’ampia e interessante serie di commenti di Nicola Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La struttura della documentazione (n. 4/2000); Controllo dei documenti e delle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e laboratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto (n. 3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4 /2003, n. 2/2004 e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecchiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n. 1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali (n. 3/2007, n. 2/2008 e n. 3/2008); il Campionamento (n. 4/2008 e n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità parte 1.a (n. 4/2010); Assicurazione della qualità parte 2.a (n. 1/2011); Assicurazione della qualità parte 3.a (n. 2/2011). Non conformità, azioni correttive, ecc. parte 1.a (n. 4/2011), parte 2.a (n. 1/2012), parte 3.a (n. 2/2012), parte 4.a (n. 3/2012), parte 5.a (n. 4/2012), parte 6.a (n. 1/2013), parte 7.a (n. /2013), parte 8.a (n. 3/2013). AZIONI PREVENTIVE
La norma ISO 9000 definisce azione preventiva come “l’azione per eliminare la causa di una non conformità potenziale o di altre situazioni potenziali indesiderabili”. Non era necessario aggiungere la seconda parte “situazioni…” poiché la non conformità si riscontra su attività tecniche e gestionali (cioè su situazioni). La definizione pone l’accento sul termine potenziale, cioè su qualcosa che può accadere subito, che non può acca-
dere o accadere nel futuro (breve o lungo?). Il termine potenziale reca con sé qualcosa di indefinito, e molti dubbi sulla sua applicazione. Una società potrebbe obiettare: “perché dovrei occuparmi (e spendere dei soldi) per un problema che potrebbe accadere ed essere risolto tra 10 anni?”. La definizione continua con due note. La prima “una non conformità potenziale può dipendere da più cause” è così ovvia e banale che, se non ci fosse stata, sarebbe lo stesso, anche se raramente mi è capitato di vedere una non conformità dipendere da più cause. La seconda “un’azione preventiva si adotta per prevenire il verificarsi (di una non conformità), mentre un’azione correttiva si adotta per prevenirne la ripetizione”, è un delirio pericoloso, poiché l’azione correttiva è stata sempre applicata dapprima per eliminare la non conformità, e poi per evitare che si possa ripetere. Le azioni preventive non esistevano
nelle prime norme sulla garanzia della qualità, e neppure nelle norme per i laboratori. Esse sono state introdotte solo di recente, e sinceramente se non fossero state introdotte il sistema qualità non ne avrebbe risentito. A mio parere non era necessario introdurre la differenza tra azione correttiva e preventiva. Tutte le norme sui sistemi qualità erano basate sul principio che “prevenire è meglio che curare”, cioè erano basate sulla prevenzione dei problemi. Per esempio, il controllo della progettazione era stato introdotto per prevenire che un errore in fase di progettazione non si ripercuotesse nella fase di funzionamento dell’impianto. Nonostante la definizione, un’azione preventiva corregge qualcosa di esistente, e pertanto non ho mai capito perché introdurla e perché non chiamarla azione correttiva. Praticamente nelle norme sono stati introdotti due requisiti identici ma con modalità di attuazione che sono fortemente differenti. Sinceramente devo ammettere che chi ha introdotto questo termine nelle norme non mi rimane particolarmente simpatico. Naturalmente quello che prescrive la norma dev’essere applicato. IDENTIFICAZIONE
Il punto 4.12.1 della ISO 17025 riporta due prescrizioni. La prima è “devono essere identificati i miglioramenti necessari e le possibili fonti di non conformità, sia di natura tecnica, sia riguardanti il sistema di gestione”. Nell’applicare la norma bisogna sempre tenere distinti i due casi che portano poi ad adottare le azioni preventive: (i) opportunità di miglioramento; (ii) possibili non conformità. La prima cosa da dire è che non era necessario specificare che si applica a problemi di natura tecnica e di sistema di gestione, in quanto il sistema di
T_M
N.
4/13 ƒ 311
una semplice registrazione, se esiste, o in qualsiasi altro modo. Generalmente il riesame della Direzione serve più ad adottare la soluzione che nella fase di segnalazione. Per le opportunità di miglioramento non era necessario introdurre un apposito requisito: bastava indicare le modalità di applicazione nel capitolo 4.10 della norma. Così invece il problema è trattato in tre requisiti diversi della norma: il 4.10, il 4.12 e in quello del riesame della Direzione con una leggera confusione nell’applicazione. PIANI DI AZIONE
La seconda prescrizione afferma “quando sono identificate opportunità di miglioramento o quando è necessaria un’azione preventiva, devono essere sviluppati, attuati e monitorati dei piani di azione al fine di ridurre la probabilità del verificarsi di tale non conformità e trarre vantaggio dalle
▼
gestione comprende tutto, compresi i problemi tecnici (purtroppo il normatore se ne scorda sempre). Secondo me era meglio utilizzare il termine individuare al posto del termine identificare. La prima prescrizione è banale: bisogna solamente identificare i miglioramenti e le possibile fonti di non conformità. Chi può identificare e come si identifica? Praticamente tutto il personale può identificare. I momenti sono tanti: durante le attività di prova/taratura, audit interni, riesame delle procedure, informazioni di ritorno dal cliente, informazioni dal mercato, riesame della direzione, audit esterni. La prescrizione è facile, ma le difficoltà nascono nel momento di decidere se esiste e quanto pericolo reca con sé la non conformità potenziale, mentre le opportunità di miglioramento sono più facili da individuare. La cosa più semplice è quello di far sempre pervenire la segnalazione e poi far decidere dall’Alta Direzione se attuarla. La segnalazione può avvenire con
NEWS
N. 04ƒ ; 2013
■
COMMENTI ALLE NORME
ESTENSIMETRI MINIATURA PER USO OEM Gli estensimetri miniatura Micro-Measurements sono progettati per offrire prestazioni superiori a un minor costo per il cliente OEM (Original Equipment Manufacturer). Questi estensimetri possono essere usati in molte applicazioni, in particolare in quelle applicazioni ove lo spazio a disposizione è ristretto o dove è necessario limitare il consumo in corrente, come negli apparati alimentati da batterie. Gli estensimetri miniatura Micro-Measurements possiedono infatti una elevata resistenza elettrica in una griglia molto piccola, per esempio una resistenza da 10 kOhm in una griglia di soli 1 mm x 1 mm. La resistenza molto elevata consente di aumentare la tensione di alimentazione per ottenere un’uscita più elevata. Caratteristiche • Uscita più elevata rispetto agli estensimetri tradizionali, grazie a griglie più corte; • Alta resistenza elettrica - fino a 20 kOhm; • Dimensioni miniaturizzate; • Basso consumo di corrente; Gli estensimetri miniatura sono disponibili nelle seguenti versioni: • lineari con resistenze da1, 5, 10 kOhm; • 2 griglie a mezzo ponte da 1 e 5 kOhm; • 4 griglie a ponte intero da 1 e 5 kOhm per celle di carico; • 4 griglie al taglio, ponte intero, da 1 e 5 kOhm per torsiometri; • 4 griglie a diaframma da 5 kOhm per trasduttori di pressione. Per ulteriori informazioni: www.luchsinger.it
T_M ƒ 312
opportunità di miglioramento”. Come si legge, essa parte subito con un pezzo forte, “piani di azione”, senza valutare se è veramente necessario per l’argomento preparare documenti di pianificazione. Per le opportunità di miglioramento sicuramente si dovrà utilizzare un documento di pianificazione, mentre per le possibili non conformità dipende dalla gravità della risoluzione se utilizzare un piano o la semplice registrazione. Per l’esperienza fatta basta l’identica registrazione utilizzata per le azioni correttive. Per non sbagliare la norma parla al plurale, e quindi si dovrebbe preparare più piani di azione: invece basta preparare un solo piano per ogni argomento. La norma non porta un nome per questo documento, nel caso del miglioramento si potrebbe chiamarlo “Piano di miglioramento”. La norma prescrive che bisogna “sviluppare, attuare e monitorare piani di azione”. Nel caso delle opportunità di miglioramento, il Piano può essere preparato dal Responsabile della Qualità, a seguito della decisione presa e poi firmata per approvazione dall’Alta Direzione; deve essere attuato da colui cui compete la responsabilità (indicata nel piano) e alla fine è necessaria la verifica che esso sia stato attuato e che l’azione sia stata efficace (generalmente il Responsabile della Qualità). Nel piano bisogna riportare: le azioni da effettuare, le risorse da impiegare (economiche e di personale), i tempi di attuazione e tutte le responsabilità (di attuazione e di verifica). Naturalmente la norma non lo dice, ma tutto dev’essere documentato: ne consegue che oltre al Piano c’è bisogno di qualcosa per documentare le azioni fatte. Nel caso di una potenziale non conformità il generico modulo utilizzato per le azioni correttive è validissimo ed esplica i due compiti: sia quello di pianificazione che quello di documentazione delle azioni fatte. Naturalmente il modulo deve contenere tutte la fasi: dalla segnalazione alla verifica finale. CONCLUSIONE
Spero fortemente che questo requisito sia tolto dalle future revisioni della norma.
▲
STORIA E CURIOSITÀ
Mario F. Tschinke
Segnali pneumatici nella metrologia Il TUBO, grande incompreso
PNEUMATIC SIGNALS IN METROLOGY The role of tubes in everyday life, in instrumentation and in making the industrial revolution possible, is briefly described here. RIASSUNTO Alcune notizie sulla tecnologia dei tubi e sul ruolo che essi hanno avuto e hanno nella vita dei paesi industrializzati e nella metrologia. I tubi esistono da sempre in natura: non è stato necessario inventarli. La vita nostra e degli animali dipende dal buon funzionamento di tubi corti e lunghi che trasportano una varietà di sostanze più o meno fluide su e giù per il nostro corpo, ma solo nel 1500 Andrea Cesalpino (Arezzo, 1519 – Roma, 1603) cominciò a capire come funzionava la circolazione del sangue. Gli antichi usavano tubi naturali per fare cerbottane, altri attrezzi e salsicce. I doccioni di terracotta sono molto antichi, ma non si possono considerare veri tubi. Di tubi metallici si ha notizia solo da due o tremila anni, ma fino a tempi molto più recenti l’idraulica era ancora a pelo libero e i gas si studiavano nei laboratori. Si parla di trombe nella Bibbia, ma quelle di Gerico erano ricavate da corna di capra. Gli Egizi, almeno secondo Ghislanzoni - Verdi nell’”Aida”, avevano vere trombe di ottone. Quanto ai Romani, il poeta Ennio (239 a.C. – 169 a.C.) negli Annales canta: “àt tuba tèrribilì sonitù taratàntara dìxit”. I Romani avevano tubi di piombo e qualcuno ha scritto addirittura che l’Impero sarebbe caduto a causa di un gigantesco caso di saturnismo. Le prove non ci sono, anche per via della riciclabilità di quel metallo. In uso fino a tempi recenti per scarichi e raccordi flessibili, oggi il piombo è sparito dalle case insieme al diffusissimo cemento-amianto, purtroppo molto meno riciclabile. Pare che la pneumatica sia nata un paio di secoli prima
bile grazie alla disponibilità di tubi di ferro e di acciaio, realizzati per lo più con lamiera saldata. Per le pressioni e temperature degli impianti a vapore hanno avuto un ruolo importante i tubi senza saldatura prodotti a partire dal 1885 a Düsseldorf dai fratelli Reinhard e Max Mannesmann con una tecnologia molto interessante: da un cilindro pieno incandescente si ottiene dapprima un forato di grosso spessore con il laminatoio obliquo; il forato, ancora incandescente, passa a un altro laminatoio dal nome suggestivo di laminatoio a passo di pellegrino, che riduce lo spessore e aumenta la lunghezza fino a 10 volte quella iniziale. Questa tecnologia permette però solo la produzione di tronchi di tubo di pochi metri. (La Mannesmann AG divenne una multinazionale, che cent’anni dopo sarebbe passata ad occuparsi di telefonia fissa e mobile). I limiti di lunghezza sono oggi superati con il ritorno dei tubi saldati con nuove tecnologie.
della nostra era ed Erone certamente bricolava sotto pressione nel I secolo d.C., ma la tecnologia necessaria per fabbricare tubi sottili non sarà sviluppata prima del 1600, o giù di lì. Si sa che i Romani usavano livelli ad acqua, come quelli in uso ancora oggi, ma non si ha notizia di come fosse realizzato il tubo flessibile, forse con un budellino di abbacchio. Galileo e Torricelli potevano disporre di tubi di vetro accuratamente calibrati (non possiamo fare a meno di ricordare qui il compianto torr, scippatoci dal metrico pascal). Gli strumenti a fiato moderni, specialmente gli “ottoni”, sono sistemi pneumatici di tutto rispetto. Anche il cannello della pipa è un tubo – ne hanno fatti di tutti i materiali immaginabili – e non è un caso che in inglese il termine “pipe” comprenda sia il tubo che il nobile attrezzo. Su scala diversa il sinonimo, o quasi, “tube” è il nome che i londinesi usano per la loro amata Università di Palermo metropolitana. La rivoluzione industriale è stata possi- mtschinke@alice.it
T_M
N.
4/13 ƒ 313
Oltre che con molti acciai diversi, l’industria è in grado di produrre tubi di tutte le misure di una varietà di altri materiali. Il rame e le resine sintetiche consentono l’estrusione con lunghezze illimitate. Molti tubi, specialmente di acciaio e di alluminio, sono destinati per tutta la loro vita a non contenere e convogliare alcun fluido, pur essendo perfettamente in grado di farlo. Essendo un solido di rivoluzione, un tubo ha infatti uguale resistenza alla flessione per tutte le giaciture del piano di sollecitazione intorno all’asse di simmetria. Rispetto al cilindro pieno, a parità di massa impiegata può sopportare carichi di flessione e di torsione molto maggiori. I tubi di leghe di alluminio hanno avuto un ruolo importante nelle strutture aeronautiche fino all’inizio della Seconda Guerra Mondiale. Lo hanno ancora insieme a quelli di acciaio, di solito trafilati a freddo, nei telai di cicli e motocicli. Invece quei miracoli della metallurgia e della tecnologia che sono i tubi ipodermici (cannule) trasportano liquidi spesso preziosi, ma si buttano via dopo pochi secondi di uso. Tubi flessibili, dapprima di gomma naturale rinforzata con fibre, hanno reso possibili gli attuali sistemi frenanti di tutti i veicoli, a cominciare dai treni, con aria compressa, e poi delle automobili con un fluido incomprimibile. Molto usati i tubi corrugati in PVC e PE, molto flessibili, che, murati “sotto traccia” o interrati, proteggono cavi elettrici e fibre ottiche. Quelli con diametro di pochi centimetri hanno una proprietà imprevista: sono veri e propri generatori di segnali. Emettono suoni se ci si soffia dentro e sono talvolta usati come strumenti musicali. I tubi flessibili, o manichette, sono oggi realizzati in una varietà di materiali, quelli di polietilene o altra resina possono essere “spiralati”, cioè avere un rinforzo di filo metallico antischiacciamento, oppure essere essi stessi “a spirale”, come quelli per aria compressa di colore arancione che si vedono fra le motrici e i semirimorchi o dai gommisti o quelli degli idropulsori dentali. Urge una legge che punisca i riferimenti impropri alla gloriosa curva di Archimede, Cartesio e Bernoulli. Oggi
T_M ƒ 314
N. 04ƒ ; 2013
▲
STORIA E CURIOSITÀ
acquedotti in pressione, oleodotti e gasdotti, sono realizzabili solo con tubi metallici o di resina sintetica. I primi servizi a rete, per acqua e gas, erano necessariamente affidati ai tubi. L’acqua corrente nelle case e nelle camere di albergo è stata a lungo uno status symbol, come oggi la vasca con idromassaggio. Nel 1869 a Milano, alimentate dall’usina di San Celso, in fondo a Corso d’Italia, si accendevano 3.000 fiamme per l’illuminazione delle strade, e 32.000 “becchi” privati nelle case. Si ricorda che la centrale elettrica di Via Santa Radegonda – la seconda in Europa, dopo quella di Londra – è stata costruita soltanto nel 1883. Sorgeva praticamente all’ombra del Duomo, aveva una bella ciminiera alta 52 m, macchine motrici alternative a vapore e 4 dinamo a 110 V capaci di alimentare circa 5.000 lampadine. Una rete poco nota è quella che a Londra nell’800 distribuiva a piccole industrie acqua ad alta pressione per azionare presse. Le reti hanno necessariamente determinato lo sviluppo di strumenti contatori di costo contenuto e di accuratezza accettabile.
Merita un posto in questa piccola rassegna la Posta Pneumatica, per quanto essa avesse compiti di puro trasporto, come quelli dei piccioni viaggiatori. Diffusa fin dai primi del ‘900 all’interno di strutture bancarie o commerciali, fu anche messa a disposizione del pubblico in grandi città per inviare lettere da un ufficio postale a un altro. In Italia ha funzionato a Milano, Roma e Napoli dal 1910 al 1981 e l’Italia fu l’unico Paese che stampò francobolli appositi per questo servizio. Telegrammi, espressi e lettere arrivate per posta aerea erano inoltrati gratuitamente per posta pneumatica
ove possibile. Chiaramente obsoleto per la trasmissione di dati e informazioni, anche questo sistema mantiene la sua nicchia per il trasporto di piccoli oggetti e banconote. Se il misurando è la pressione di un fluido il trasporto del segnale per mezzo di un tubo fino allo strumento indicatore o al trasduttore è inevitabile, o quasi. La rivoluzione industriale, iniziata verso la fine del ‘700, non sarebbe stata possibile senza buoni manometri, che sopravvivevano alle caldaie e si tramandavano di padre in figlio fino ai nostri giorni. Eugène Bourdon (1808-1884) è stato un ingegnere e orologiaio parigino, che nel 1849 ha inventato il manometro Bourdon, valido ancora oggi e molto più compatto e robusto dei manometri a U pieni di liquido. La misura di portate comprende spesso una conversione in pressione, possiamo citare i venturimetri e simili dispositivi, in concorrenza con gli ovvi mulinelli, con il Rotameter “a gravità”, nato in Germania nel 1908, anche per gas, e con il misuratore a induzione elettromagnetica Schlumberger, solo per liquidi. Nelle catene di strumentazione compare ogni tanto un segnale pneumatico, che si converte di solito al più presto in elettrico, più facile da trasmettere e processare. Nella strumentazione aeronautica tradizionale troviamo sistemi pneumatici obbligati con i sensori Pitot/Prandtl per la velocità e con apposite prese per la pressione statica, indicatrice della quota, in cui un tubicino porta la pressione a un adeguato strumento a capsula meccanico. Anche nelle macchine lavabiancheria il livello dell’acqua è convertito in segnale pneumatico per azionare il “pressostato”. Nelle tecnologie meccaniche può essere utile un sistema pneumatico per controllare dimensioni di pezzi, ad es. di anelli per cuscinetti a sfere. Anche gli sfigmomanometri che misurano la nostra tensione arteriosa sono pneumatici. Oltre all’ingombro, l’inconveniente principale di questi sistemi consiste nel tempo non trascurabile che impiega una variazione di pressione a percorrere una certa distanza. In navi e edifici hanno svolto un ruolo importante i Tubi Portavoce, in cui una bella
N. 04ƒ ;2013 NEWS
▼
soffiata segnalava la chiamata con un fischietto e poi il tubo trasmetteva le piccole variazioni di pressione prodotte parlando. (Speaking Tube o Voicepipe, Sprachrohr). Negli anni ’30, per merito dell’ingegnere americano Claude Elwood Shannon (1916-2001), si comincia a parlare di circuiti logici, che seguono le regole enunciate dall’inglese George Boole (1815-1864) già nel lontano 1850. Le vene fluide si sono rivelate molto adatte per realizzare questi sistemi: esse hanno infatti una proprietà esclusiva, l’effetto Coanda, che rende possibile la realizzazione, fra l’altro, di elementi bistabili molto semplici. Coanda, parola vagamente inquietante, sembra un gerundio, è il cognome dell’ingegnere rumeno Henri Marie Coanda (1886-1972, sulla a finale ci andrebbe una specie di accento che i normali sistemi di videoscrittura non offrono), che però era di casa in tutta l’Europa ed è stato un pioniere dell’aeronautica. Nel 1960 nasce la fluidica, e quindi
NUOVO SERVIZIO DI TARATURA SEMPLIFICATA DAKKS PER TRASDUTTORI DI FORZA In ambito di Sistema Qualità, sono sempre maggiori i requisiti imposti per le procedure di taratura accreditate con certificati di taratura. Fino a oggi, per quanto riguarda i trasduttori di forza soltanto procedure di taratura dispendiose e costose erano in grado di assolvere a tali requisiti. Il nuovo servizio di taratura DAkks semplificato di HBM Test & Measurement garantisce il superamento degli audit. Si possono tarare senza problemi trasduttori di forza, sia nella tecnica di misurazione industriale per il monitoraggio di produzione sia in banchi prova nel settore R&S. La procedura si basa sull’esperienza e la competenza del laboratorio di taratura DAkks di HBM, il primo a essere accreditato in Germania ai sensi della DIN EN ISO/IEC 17025 (ex ambito DKD), da anni sinonimo di sicurezza e precisione. I suoi impianti di taratura, i miglio-
la logica fluida. Per convertire un segnale elettrico in un valore di pressione è necessaria una sorgente di aria compressa pulita a 150 kPa, l’aria passa attraverso una strozzatura tarata e arriva a un ugello con efflusso nell’atmosfera modulabile a mezzo di una valvola flapper a sua volta comandata da una elettrocalamita. Il segnale di uscita si preleva fra la strozzatura e l’ugello. Con ugello completamente aperto la pressione in uscita sarà ancora circa 20 kPa, che si fa corrispondere allo zero, dato che pressioni più basse darebbero una trasmissione incerta. Il valore massimo sarà circa 100 kPa con il flapper a fine corsa. Questi sistemi avevano vantaggi significativi sui relé elettromagnetici, ma furono presto messi in ombra dalla irresistibile ascesa dell’elettronica a stato solido, che offre costi e ingombri di gran lunga inferiori. I sistemi di controllo completamente pneumatici hanno ancora la loro nicchia per ambienti esplosivi o in presenza di forti campi elettromagnetici. ri dal punto di vista della tecnica di misurazione, hanno incertezze di misurazione certificate pari allo 0,005% - 0,02% del valore effettivo. Normalmente la verifica delle normative di riferimento utilizzate viene effettuata tramite misurazioni comparative con PTB, dove il certificato di taratura assume automaticamente il ruolo di certificazione di tracciabilità. Questo certificato contiene inoltre una valutazione della conformità e dell’incertezza della misurazione, a garanzia del superamento degli audit. Oltre all’elevata precisione degli impianti, la procedura comprende anche il range più ampio di stadi di taratura esistente nel DAkkS, che spazia da 2,5 N a 5 MN per forza di trazione e pressione. La nuova taratura DAkkS è disponibile per trasduttori di forza allo stesso prezzo vantaggioso di una taratura di fabbrica.
▲
STORIA E CURIOSITÀ
Sono stati usati comandi pneumatici per gli organi (strumenti musicali da chiesa o da concerto), quando, per grandi impianti, la consolle si trova a una certa distanza dalle canne. Gli organisti dovevano abituarsi al ritardo fra comando ed effetto e il sistema fu presto soppiantato da comandi elettrici e ora anche digitali. Pneumatico è anche, nel suo piccolo, un comando molto diffuso in Italia, noto come “Batteria CATIS”, per lo sciacquone del WC. E, per concludere, YouTube, un tubo virtuale, ma molto attuale, che non sarebbe nato se prima non fossero arrivati i veri tubi in carne e ossa. Mario F. Tschinke, classe 1929, ingegnere, è stato Professore Ordinario di Misure Meccaniche nella Facoltà di Ingegneria di Palermo. Collocato a riposo, si occupa di storia della scienza e della tecnica, bricolage metalmeccanico e giardinaggio. mercato nell’industria delle misurazioni e prove. HBM offre prodotti per la catena di misurazione completa, dalle prove virtuali a quelle fisiche. Le sedi di produzione sono situate in Germania, USA e Cina; HBM è presente in più di 80 paesi nel mondo.
Per ulteriori informazioni: www.hbm.com/it/menu/prodotti/t rasduttori-e-sensori/forza HBM Test and Measurement Fondata in Germania nel 1950, Hottinger Baldwin Messtechnik (HBM Test and Measurement) si è costruita una reputazione come leader mondiale di tecnologia e del
Gli impianti di taratura di HBM vantano una gamma di taratura che si estende da pochi Newton fino al range dei Mega Newton
T_M ƒ 315
N. 04ƒ ; 2013
▲
NEWS
LA VISIONE ARTIFICIALE NEL CONTROLLO QUALITÀ DEI RASOI Da oltre 60 anni, BIC è presente in 160 Paesi di tutti i continenti e il suo marchio è uno dei più conosciuti al mondo: BIC® Cristal è la penna a sfera più venduta nel mondo e l´azienda è il maggiore produttore di articoli di cancelleria in Europa, America Latina e Africa, oltre a essere un leader mondiale negli accendini tascabili griffati. Nel 1975, BIC ha rivoluzionato il mondo della rasatura con il suo primo rasoio monolama “usa e getta”. Le vendite dei suoi rasoi a tre lame e a quattro lame stanno crescendo fortemente e l´azienda è il secondo maggior produttore mondiale di rasoi “usa e getta”. Nel 2012, BIC ha riportato un fatturato netto di 2.482 milioni di euro, il 20% del quale derivante dai rasoi. Ogni rasoio BIC® è prodotto in uno dei tre stabilimenti nel Nord della Francia (Verberie), in Grecia (Atene) e in Brasile (Manaus). Lo stabilimento di Verberie ha installato il sistema di visione Serie XG di Keyence sulle sue linee di assemblaggio dei rasoi BIC® Comfort Twin. “Eseguiamo diverse verifiche di controllo della qualità. Cerchiamo lame mancanti o difettose: ispezioniamo i coperchi, che sono piccole parti di plastica che tengono a posto le lame, verifichiamo le strisce lubrificanti difettose o mal posizionate e, infine, verifichiamo le barre frontali, ossia le parti che scivolano sulla pelle”, afferma Jean-Philippe Pollet, Direttore del Progetto Assemblaggio per i rasoi BIC® Comfort Twin/Classic. “I rasoi hanno lame lucenti e lubrificate con barre frontali scanalate che rendono difficoltoso il rilevamento”, aggiunge Pollet “Il sistema che utilizzavamo in precedenza scartava anche rasoi buoni, quindi dovevamo rieseguire il controllo, facendolo però manualmente. Avevamo bisogno di un sistema di visione che potesse superare questi problemi, eseguire numerose verifiche e ispezioni e sostenere le nostre elevate velocità di produzione”. Grazie all’installazione del sistema di visione Keyence, l´impianto incrementato la sua affidabilità di rilevamento, soprattutto per tre ragioni: in primo luogo, le telecamere in miniatura del sistema hanno liberato spazio per l´illuminazione, più grande a prestazioni più elevate, di Keyence. Inoltre la risoluzione è più fine, nonostante le elevate velocità di produzione: la telecamera in miniatura da 2 megapixel di Keyence è la più piccola del mondo e trasferisce tutti i 2 milioni di pixel in 59 ms. Infine il rilevamento è stabilizzato dagli algoritmi integrati di ottimizzazione delle immagini (filtri immagine). Il sistema è caratterizzato da una serie di filtri in tempo reale, incluso un filtro di correzione che elimina le
T_M ƒ 316
ombre e i riflessi sulle superfici del target. A differenza delle soluzioni adottate da altri sistemi di visione, che applicano la stessa correzione a ogni immagine, il filtro di correzione ombre si adatta alle variazioni in tempo reale. “Gli algoritmi e gli strumenti software hanno fortemente influenzato la nostra decisione di scegliere Keyence, così come il design compatto delle telecamere, perché non c´è molto spazio per mettere altre cose sulle nostre macchine di assemblaggio. Infine, anche l´intuitività e la facilità di programmazione del sistema costituiscono un vantaggio. È facile modificare le impostazioni, e questo è molto importante. Siamo riusciti a sviluppare rapidamente interfacce utente intuitive che permettono ai nostri operatori di cambiare da soli le soglie di rilevamento e le altre impostazioni”, spiega Pollet. I sistemi di visione Serie XG di Keyence offrono un ambiente opzionale di programmazione basato su PC, chiamato VisionEditor, che è intuitivo, semplice e totalmente customizzabile. La programmazione viene eseguita sotto forma di un diagramma di flusso, in cui gli utenti devono semplicemente trascinare e depositare i ´blocchi´ di elaborazione, caratterizzato da un´ampia gamma di algoritmi e filtri. “Il sistema di visione Keyence combina qualità e stabilità di rilevamento. Esso ci ha permesso di ottenere una riduzione di sei volte del nostro tasso di scarto dei rasoi e di eliminare il controllo manuale. Come si può immaginare, i conseguenti vantaggi economici sono considerevoli. Inoltre, nonostante le telecamere siano miniaturizzate, esse acquisiscono anche immagini a colori. Di conseguenza, possiamo verificare le sfumature delle strisce di lubrificazione, cosa che in precedenza non era possibile. Infine, nonostante sia necessario avere un minimo di conoscenza di base sulla tecnologia della visione, è molto facile imparare a utilizzare il sistema”, conclude Pollet. Per ulteriori informazioni: www.keyence.it/PRXG7
STORIA E CURIOSITÀ
▲
MISURAZIONI “PARTICOLARI” a cura della Redazione (franco.docchio@ing.unibs.it)
Misurazioni particolari Tartarughe, laer show e windsurf...
MISURARE ESATTAMENTE I RAGGI LASER DURANTE I LASER SHOW
I laser show sono affascinanti, ma non sempre innocui. A fine di evitare lesioni oculari, per legge sono stati fissati valori limite, che devono essere rispettati dagli organizzatori di laser show. Le misurazioni effettuate durante i laser show hanno dimostrato che spesso i valori limite vengono superati di molto. Negli ultimi anni il numero di laser show è sensibilmente aumentato, non da ultimo anche perché i prezzi per tali sistemi sono diminuiti. Misurazione in tempo reale Finora era molto difficile valutare il potenziale di pericolosità di un laser show completo. Per questo motivo, l’Istituto federale svizzero di metrologia (METAS) in collaborazione con l’Ufficio federale della sanità pubblica (UFSP), ha sviluppato un nuovo sistema di valutazione: il Laser Show Risk Analyzer (LASRA). Il LASRA consente di misurare e controllare sul posto il laser show programmato nella sua interezza nel settore destinato al pubblico. Se lo show supera il valore limite, si può cercare di trovare soluzioni con gli organizzatori. Spesso bastano adeguamenti tecnici minori per minimizzare il rischio e rispettare i valori limite della OSLa. In tal modo si possono effettuare laser show sicuri senza con-
travvenire a un divieto. L’hardware del LASRA consiste essenzialmente di un fotosensore, che in una prima fase di misurazione rileva le caratteristiche relative alla potenza del laser utilizzato. In una seconda fase il software del LASRA analizza direttamente il programma che pilota il laser show. In base a ciò il LASRA determina se vi è superamento dei valori limite nel settore destinato al pubblico. Il LASRA è stato testato in modo intensivo nella fase pilota di questi ultimi mesi. L’apparecchio funziona in modo affidabile, è stato accolto favorevolmente dagli organizzatori e dalle autorità, e ha pure già suscitato interesse a livello internazionale. Per ulteriori informazioni: Istituto federale di metrologia METAS, 3003 BernWabern, Tel. 0041/583870111 www.metas.ch
se di noleggiare l’apparecchiatura necessaria e si rivolse alla HBM, leader nei sistemi di misurazione, che si offerse di svolgere tale compito gratuitamente. Alla fine di Febbraio 2013, la HBM Benelux rese disponibile il sistema di acquisizione dati espressoDAQ, il relativo software catman e il supporto di alcuni propri specialisti di misura, per effettuare la pesatura a tre punti di una tartaruga gigante presso lo Zoo olandese di Blijdorp.
LA PESATURA DI UNA TARTARUGA GIGANTE
Una delle teorie più probabili fu verificata misurando il baricentro del guscio. Grazie alla strumentazione all’avanguardia, ciò si poteva effettuare senza dover rovesciare sul dorso il vulnerabile animale dal peso di 150 kg.
I ricercatori si chiedevano da tempo perché il guscio delle tartarughe giganti avesse forma così ampiamente variabile nelle diverse isole delle Galapagos. Si riteneva, inoltre, che la forma specifica del guscio rendesse più facile per la tartaruga rotolare nel modo giusto per sdraiarsi sul dorso, cosa che accade frequentemente nell’ambiente roccioso del suo habitat naturale. Esistevano varie ipotesi, ma nessuno disponeva dei dati necessari per verificarle. Il ricercatore olandese Arie van der Meijden, quindi, deci-
Tre Celle di Carico La struttura per eseguire la misurazione, appositamente costruita dal personale HBM e dai ricercatori, consisteva di due piastre. Tre celle di carico tipo Z6FC4/100 kg (strumento robusto e affidabile, il cui alto livello di resistenza alla polvere e all’umidità è molto utile nei giardini zoologici) erano fissate alla piastra inferiore, ciascuna con una punta arrotondata sporgente quale punto di appoggio; questi punti di appoggio, che entrano nei recessi circolari situati nella piastra superiore, sono spaziati fra loro in modo equidistante e il triangolo così formato è sempre stabile. Poiché i punti di ap-
T_M
N.
4/13 ƒ 317
poggio formano un triangolo equilatero, è facile calcolare il baricentro usando la geometria. Un lato della piastra fu sollevato con un martinetto, conseguendo l’effetto di spostare il peso e quindi il baricentro, necessario per determinare l’altezza di quest’ultima. I dati così rilevati erano necessari per posizionare il baricentro in un ambiente 3D. Fattori importanti nella pesatura erano il carico nominale di 100 kg e il carico di servizio di 150 kg, per cui il sensore non si sarebbe guastato se tutto il peso della tartaruga fosse gravato su di esso. Al fine di raggiungere la desiderata accuratezza di 10 g, fu scelta la versione C4 da 4000 d, con un intervallo verticale minimo dello 0,0066%.
Acquisizione Dati Piazzando la tartaruga sulla piastra superiore, con il suo baricentro all’interno del triangolo, ogni trasduttore di forza fornisce una parte della forza causata dal peso dell’animale. Per determinare il baricentro si deve calcolare l’equazione (y=ax+b) per ogni punto di appoggio. Ciò crea tre linee che dovrebbero intersecarsi nel baricentro. Il terzo punto è per la verifica ed è necessario per determinare la massa totale. Durante la misurazione, veniva anche inclinata la piastra superiore, spostando così il baricentro. Era necessario conoscere anche il peso della piastra superiore e la posizione del suo baricentro, al fine di sottrarre dal risultato l’effetto dello spostamento del suo baricentro. Spostando il baricentro di un certo angolo era possibile determinare la sua altezza. Per poter determinare le coordinate
T_M ƒ 318
N. 04ƒ ; 2013
▲
STORIA E CURIOSITÀ
3D del baricentro relative alla piastra, la tartaruga doveva restare nella stessa posizione rispetto alla struttura. L’intero allestimento fu ricostruito fotogrammetricamente per determinare la posizione del baricentro della tartaruga. Per le misurazioni fu utilizzato il compatto sistema di acquisizione dati tascabile universale espressoDAQ tipo DQ430, che può misurare quattro segnali contemporaneamente, collegato alla porta USB di un laptop e quindi immediatamente pronto all’uso. Non erano necessari alimentatori o cavi aggiuntivi e tale caratteristica fu molto utile poiché le misurazioni venivano effettuate nella gabbia della tartaruga, che non disponeva di prese di corrente. Il software catmanAP si occupava di ricevere i dati di misura dalle tre celle di carico. Trattandosi del peso della tartaruga, la cadenza di campionamento di 20 misurazioni al secondo era sufficiente. La cosa più importante era che i dati delle tre celle di carico fossero rilevati simultaneamente. Le misurazioni erano filtrate da un filtro passa-basso Bessel con frequenza di taglio impostata a 4 Hz, filtro già integrato nello strumento espressoDAQ. Per alimentare le celle di carico fu usata una frequenza portante con tensione di 2,5 V, garantendo così che certi segnali elettrici di interferenza non avessero alcun effetto sul segnale di misura. Un ottimo esempio di come la ricerca, anche quando è rivolta a un ambito non propriamente industriale o strettamente collegato al business, possa trovare partner in grado di offrire soluzioni di misura innovative e risorse umane provviste di elevatissimo knowhow a costo zero (o molto basso), il cui ritorno sarà comunque interessante a livello mediatico.
e all’abilità dei surfisti, è principalmente uno dei componenti della tavola da surf a contribuire all’ottenimento dei record di velocità: la pinna montata sotto la tavola. Nell’ambito di un progetto di ricerca condotto dagli studenti della Università di Vienna, sono state effettuate misurazioni spettacolari per trovare la “pinna perfetta”. È un dato di fatto che alcuni progetti di misura abbiano requisiti specifici: sia per l’apparecchiatura di misura e prova sia per coloro che effettuano le misurazioni. Le misurazioni in diretta sulla pinna di una tavola da surf G1 (pinne Pfaffi), iniziate dal DI Peter Pfaffenbichler (www.pfaffi.at) e da cinque studenti dell’Università di Vienna, erano il cuore del progetto: un surfista professionista doveva acquisire i valori di sette punti di misura a una velocità fino a 50 chilometri all’ora.
La sfida: era essenziale che sia gli estensimetri installati sulla pinna sia l’apparecchiatura di misura posta nello zaino e sulla tavola da surf (laptop e amplificatore di misura) fossero protette, in modo da fornire risultati a “tenuta d’acqua”, nel vero senso della parola.
Componenti delle tavole da surf: high-tech ma sottovalutati La squadra di ricercatori sperava di ottenere conoscenze approfondite CON LA PINNA PERFETTA VERSO dalle prove per migliorare l’ulteriore sviluppo della pinna: sebbene si tratti IL RECORD DI WINDSURFING di un componente high-tech, montato Quali fattori concorrono al raggiun- su tutte le tavole da surf, essa viene gimento di nuovi record di velocità spesso sviluppata per tentativi e concon i windsurf? Oltre alla destrezza seguente correzione degli errori. Le
N. 04ƒ ;2013 NEWS
▼
prove rigorose per l’ottimizzazione sistematica del componente sia in laboratorio sia in campo, che da lungo tempo vengono effettuate su molti altri componenti e assemblaggi, sono invece molto rare in questo settore specifico. Con il loro progetto di ricerca, i futuri ingegneri dell’Università di Vienna desideravano cambiare lo stato delle cose, mandando la tavola da surf “in pista”. L’eccitazione era quindi palpabile quando, durante una coppa del mondo di surf, la tavola venne provata sul lago Neusiedl in Austria nell’Ottobre del 2012, in presenza di vento a raffiche. Le prove furono effettuate su una tavola da surf modello Formula 167 Wide Starboard. Nella pinna, sotto la tavola furono installati sette estensimetri prodotti dalla HBM: tre del tipo XY41 (resistenza 350 Ohm), per misurare la torsione, e quattro del tipo LY41 (resistenza 350 Ohm), per misurare le deformazioni. Gli estensimetri e il relativo cablaggio erano completamente annegati nella pinna di laminato di carbonio, per garantire che le caratteristiche idrodinamiche non venissero influenzate.
RISCOPRI I SISTEMI DI TARATURA INTEGRATI “SYSTEMS SMCS” A fronte di una crescente richiesta del mercato, WIKA ripropone in nuova veste i sistemi integrati di taratura della strumentazione di processo. Forte della pluriennale tradizione SCANDURA, leader nella produzione dei banchi di taratura di pressione, temperatura e segnali elettrici, che integrano ora anche l’ampia gamma di controllori di pressione MENSOR e innovativi software di gestione delle tarature, WIKA è in grado di proporre soluzioni alle più svariate richieste nel campo della taratura integrata. Oltre alle tradizionali proposte dei ban-
■
STORIA E CURIOSITÀ
struire e riprodurre tutti i dati di misura rilevati dal vero. I risultati delle serie di prove erano chiari e i ricercatori furono in grado di ottimizzare la pinna, ottenendo maggiori velocità durante la coppa del mondo. Prove e apparecchiature di prova affidabili sono ciò che conta nelle situazioni in cui le misurazioni non possono fallire e ove non esistano, o siano Risultati a “tenuta d’acqua” Per l’acquisizione dei dati e la con- poche, le opportunità di ripetere le versione analogico/digitale fu impie- prove. gato l’amplificatore espressoDAQ USB della HBM, ultra compatto, affi- Vincitore del premio dabile e facile da usare, collegato a nella competizione mondiale un notebook. Per la misurazione con Il progetto guadagnò anche l’attenestensimetri circuitati a mezzo e ponte zione internazionale: ad esempio, e a ponte intero fu usato il modulo nell’“espressoDAQ Global ApplicaDQ430 per espressoDAQ: questo tion Contest”, una competizione per modulo può essere collegato a PC idee particolarmente innovative per e notebook mediante la porta USB e l’impiego di apparecchiature di misuconsente cadenze di campionamento ra e prova, vinse il secondo premio. La “giuria” era costituita dai lettori di max 40.000 valori al secondo. La prova in campo sul lago fornì dati delle newsletter HBM, che partecipaimportanti per lo sviluppo di un banco rono e votarono il progetto in gran prova a scala ridotta, con cui rico- numero. fiche necessità, ottenendo così la migliore soluzione strumentale con il vantaggio di disporre anche di un comodo piano di lavoro. Sono parte integrante dei banchi tutte le opzioni di servizio che rendono il sistema di taratura completamente autonomo e “integrato”, quali: – alimentazioni elettriche; – alimentazioni pneumatiche; – moduli configuratori bus di campo HART®, FIELDBUS® e PROFIBUS®; – segnali elettropneumatici predefiniti.
chi modulari in Rack 19” e di quelli in esecuzione predefinita, nuovo impulso è stato dato alla produzione dei Systems “SMCS” (Scandura Modular Calibration Solution), che si avvale di nuove proposte e soluzioni tecniche. Questi banchi di taratura, grazie alla loro naturale flessibilità di realizzazione, possono essere configurati sulle specifiche esigenze del cliente, utilizzando moduli predefiniti oppure Per ulteriori informazioni: variando gli stessi in funzione delle speci- www.wika.it
T_M ƒ 319
T U T T O _ M I S U R E Anno XV - n. 4 - Dicembre 2013 ISSN: 2038-6974 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 - Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttore: Alfredo Cigada Comitato di Redazione: Salvatore Baglio, Antonio Boscolo, Marcantonio Catelani, Marco Cati, Pasquale Daponte, Gianbartolo Picotto, Luciano Malgaroli, Massimo Mortarino Redazioni per: Storia: Emilio Borchi, Riccardo Nicoletti, Mario F. Tschinke Le pagine delle Associazioni Universitarie di Misuristi: Stefano Agosteo, Bruno Andò, Filippo Attivissimo, Alfredo Cigada, Domenico Grimaldi, Anna Spalla Lo spazio delle altre Associazioni: Franco Docchio, Alfredo Cigada Le pagine degli IMP: Maria Pimpinella Lo spazio delle CMM: Alberto Zaffagnini, Alessandro Balsamo Comitato Scientifico: ACISM-ANIMA (Roberto Cattaneo); AEI-GMTS (Claudio Narduzzi); AIPnD (Giuseppe Nardoni); AIPT (Paolo Coppa) AIS-ISA (Piergiuseppe Zani); ALATI (Paolo Giardina); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Anna Spalla),CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE (Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto); GRUPPO MISURISTI NUCLEARI (Stefano Agosteo) INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Rodolfo Zich, Paolo Vigo, Franco Pavese); ISPRA (Maria Belli); OMECO (Clemente Marelli); SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa); SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione e Stampa: la fotocomposizione - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/3/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, Redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 0266700 - Fax 011 5363244 E-mail: info@affidabilita.eu Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. ABBONAMENTO ANNUALE: 40 EURO (4 numeri cartacei + 4 numeri telematici) ABBONAMENTO BIENNALE: 70 EURO (8 numeri cartacei + 8 numeri telematici) Abbonamenti on-line su: www.tuttomisure.it L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO • • • • E
Il tema: Misure per l’ambiente Visione artificiale TRV: Caratterizzazione dei Materiali Misure per la comunicazione molto altro ancora...
ABBIAMO LETTO PER VOI
■
La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it)
We have read for you
LA METROLOGIA DIMENSIONALE: TEORIA E PROCEDURE DI TARATURA Gianfranco Malagola, Aldo Ponterio 396 pp. – Esculapio Edizioni (2013) ISBN 978-88-74886-074 Prezzo: € 39,00
Questo volume, risultato della lunga esperienza scientifica e industriale degli autori nel settore metrologico, può risultare di grande utilità per quanti hanno a che fare quotidianamente con le misure dimensionali nell’industria meccanica. Dovete scegliere quale strumento di misura usare? State pensando di accostarvi al mondo della metrologia a coordinate, magari per acquistare una CMM, oppure per verificare in modo adeguato le tolleranze geometriche? Volete che il vostro sistema di gestione della strumentazione sia conforme alla normativa garantendo la riferibilità metrologica delle misure ed effettuando adeguatamente il processo di conferma metrologica? Volete affrontare con consapevolezza i problemi di misura e quelli di stima dell’incertezza? Il volume vi sarà di valido aiuto! Contiene infatti, rispetto alla precedente edizione, un’ampia sezione riguardante la taratura degli strumenti con esempi completi di procedure di taratura per i più comuni strumenti di misura meccanici. Rappresenta quindi un ottimo punto di partenza per chi in azienda vuole eseguire autonomamente il processo di taratura, avendo approfondito la conoscenza sulle caratteristiche degli strumenti e sulla loro gestione. La sua lettura può essere utile anche per la formazione tecnica, con particolare riferimento agli studenti di Ingegneria che affrontano i problemi delle misure meccaniche. Il volume può essere acquistato, anche on-line, tramite il sito dalla Società Editrice Esculapio di Bologna www.editrice-esculapio.it, andando nel Catalogo e selezionando la voce “Ingegneria” quindi “Meccanica”. Sul sito potete trovare il Sommario completo del libro e la Presentazione dello stesso. Gli autori Gianfranco Malagola, laureato in ingegneria elettrotecnica, dopo una prima esperienza nei laboratori di prova e ricerca nel settore elettrico, ha ricoperto l’incarico di Direttore Tecnico presso numerose industrie nel settore delle macchine utensili e della strumentazione industriale. Nel settore metrologico ha svolto un’intensa attività divulgativa, è autore di innumerevoli articoli sulle problematiche di misura ed è “Esperto Tecnico senior di Misure (Spec. Misure Meccaniche)”, certificato CEPAS. Aldo Ponterio, laureato in ingegneria elettronica, ha svolto attività di ricerca e sviluppo nel settore delle misure ed un’intensa attività formativa in campo metrologico erogando centinaia di corsi di formazione su tematiche di misura. È autore di numerose pubblicazioni in ambito metrologico, partecipa all’attività di normazione in ambito nazionale (UNI) nel campo delle apparecchiature di misura ed è inoltre “Esperto Tecnico senior di Misure (Spec. Misure Meccaniche)”, certificato CEPAS.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO Affidabilità & Tecnologie p. 246-247-248-249 Aviatronik 4a di cop. Bocchi p. 272 Cibe p. 258 DL Europa p. 244 DGTS p. 264 HBM p. 254-316-317-318 Hexagon Metrology p. 294 IC&M p. 270 Instrumentation Devices p. 280 Keyence p. 241-316 Kistler Italia p. 308 Labcert 3a di cop
T_M ƒ N. 320 4/13 ƒ 320
LMS Italiana LTTS Luchsinger Mitutoyo Italiana Optoprim PCB Piezotronics Physik Instrumente Renishaw Rupac Tattile WIKA CAM2
p. 282 p. 292 p. 256-312 p. 242 p. 291 p. 284 p. 280 p. 262-304 2a di cop. p. 250 p. 319 p. 302
T U T T O _ M I S U R E Anno XV - n. 4 - Dicembre 2013 ISSN: 2038-6974 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 - Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttore: Alfredo Cigada Comitato di Redazione: Salvatore Baglio, Antonio Boscolo, Marcantonio Catelani, Marco Cati, Pasquale Daponte, Gianbartolo Picotto, Luciano Malgaroli, Massimo Mortarino Redazioni per: Storia: Emilio Borchi, Riccardo Nicoletti, Mario F. Tschinke Le pagine delle Associazioni Universitarie di Misuristi: Stefano Agosteo, Bruno Andò, Filippo Attivissimo, Alfredo Cigada, Domenico Grimaldi, Anna Spalla Lo spazio delle altre Associazioni: Franco Docchio, Alfredo Cigada Le pagine degli IMP: Maria Pimpinella Lo spazio delle CMM: Alberto Zaffagnini, Alessandro Balsamo Comitato Scientifico: ACISM-ANIMA (Roberto Cattaneo); AEI-GMTS (Claudio Narduzzi); AIPnD (Giuseppe Nardoni); AIPT (Paolo Coppa) AIS-ISA (Piergiuseppe Zani); ALATI (Paolo Giardina); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Anna Spalla),CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE (Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto); GRUPPO MISURISTI NUCLEARI (Stefano Agosteo) INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Rodolfo Zich, Paolo Vigo, Franco Pavese); ISPRA (Maria Belli); OMECO (Clemente Marelli); SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa); SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione e Stampa: la fotocomposizione - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/3/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, Redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 0266700 - Fax 011 5363244 E-mail: info@affidabilita.eu Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. ABBONAMENTO ANNUALE: 40 EURO (4 numeri cartacei + 4 numeri telematici) ABBONAMENTO BIENNALE: 70 EURO (8 numeri cartacei + 8 numeri telematici) Abbonamenti on-line su: www.tuttomisure.it L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO • • • • E
Il tema: Misure per l’ambiente Visione artificiale TRV: Caratterizzazione dei Materiali Misure per la comunicazione molto altro ancora...
ABBIAMO LETTO PER VOI
■
La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it)
We have read for you
LA METROLOGIA DIMENSIONALE: TEORIA E PROCEDURE DI TARATURA Gianfranco Malagola, Aldo Ponterio 396 pp. – Esculapio Edizioni (2013) ISBN 978-88-74886-074 Prezzo: € 39,00
Questo volume, risultato della lunga esperienza scientifica e industriale degli autori nel settore metrologico, può risultare di grande utilità per quanti hanno a che fare quotidianamente con le misure dimensionali nell’industria meccanica. Dovete scegliere quale strumento di misura usare? State pensando di accostarvi al mondo della metrologia a coordinate, magari per acquistare una CMM, oppure per verificare in modo adeguato le tolleranze geometriche? Volete che il vostro sistema di gestione della strumentazione sia conforme alla normativa garantendo la riferibilità metrologica delle misure ed effettuando adeguatamente il processo di conferma metrologica? Volete affrontare con consapevolezza i problemi di misura e quelli di stima dell’incertezza? Il volume vi sarà di valido aiuto! Contiene infatti, rispetto alla precedente edizione, un’ampia sezione riguardante la taratura degli strumenti con esempi completi di procedure di taratura per i più comuni strumenti di misura meccanici. Rappresenta quindi un ottimo punto di partenza per chi in azienda vuole eseguire autonomamente il processo di taratura, avendo approfondito la conoscenza sulle caratteristiche degli strumenti e sulla loro gestione. La sua lettura può essere utile anche per la formazione tecnica, con particolare riferimento agli studenti di Ingegneria che affrontano i problemi delle misure meccaniche. Il volume può essere acquistato, anche on-line, tramite il sito dalla Società Editrice Esculapio di Bologna www.editrice-esculapio.it, andando nel Catalogo e selezionando la voce “Ingegneria” quindi “Meccanica”. Sul sito potete trovare il Sommario completo del libro e la Presentazione dello stesso. Gli autori Gianfranco Malagola, laureato in ingegneria elettrotecnica, dopo una prima esperienza nei laboratori di prova e ricerca nel settore elettrico, ha ricoperto l’incarico di Direttore Tecnico presso numerose industrie nel settore delle macchine utensili e della strumentazione industriale. Nel settore metrologico ha svolto un’intensa attività divulgativa, è autore di innumerevoli articoli sulle problematiche di misura ed è “Esperto Tecnico senior di Misure (Spec. Misure Meccaniche)”, certificato CEPAS. Aldo Ponterio, laureato in ingegneria elettronica, ha svolto attività di ricerca e sviluppo nel settore delle misure ed un’intensa attività formativa in campo metrologico erogando centinaia di corsi di formazione su tematiche di misura. È autore di numerose pubblicazioni in ambito metrologico, partecipa all’attività di normazione in ambito nazionale (UNI) nel campo delle apparecchiature di misura ed è inoltre “Esperto Tecnico senior di Misure (Spec. Misure Meccaniche)”, certificato CEPAS.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO Affidabilità & Tecnologie p. 246-247-248-249 Aviatronik 4a di cop. Bocchi p. 272 CAM2 p. 302 Cibe p. 258 DL Europa p. 244 DGTS p. 264 HBM p. 254-315-317-318 Hexagon Metrology p. 286-294 IC&M p. 270 Instrumentation Devices p. 280 Keyence p. 241-316 Kistler Italia p. 308
T_M ƒ N. 320 4/13 ƒ 320
Labcert LMS Italiana LTTS Luchsinger Mitutoyo Italiana Optoprim PCB Piezotronics Physik Instrumente Renishaw Rupac Tattile WIKA
3a di cop p. 282 p. 292 p. 256-312 p. 242 p. 291-304 p. 284 p. 280 p. 262-310 2a di cop. p. 250 p. 319