N 3/2020 Trimestrale Anno VII
Ordine degli Ingegneri della Provincia di Roma
Quaderno
N 3/2020 Trimestrale Anno VII
Ordine degli Ingegneri della Provincia di Roma Piazza della Repubblica, 59 - 00185 Roma www.ording.roma.it
Quaderno dell’Ordine degli Ingegneri della Provincia di Roma
RESINE - 5G - INDUSTRY 4.0 - MONOROTAIA
Ordine degli Ingegneri della Provincia di Roma
Quaderno
Ordine degli Ingegneri della Provincia di Roma Piazza della Repubblica, 59 - 00185 Roma www.ording.roma.it
Quaderno dell’Ordine degli Ingegneri della Provincia di Roma
RESINE - 5G - INDUSTRY 4.0 - MONOROTAIA
Quaderno
In copertina: Immagine di repertorio
Quaderno
In copertina: Immagine di repertorio
Il saluto del Presidente Dott. Ing. Carla Cappiello
Il 22 luglio la Commissione informatica dell’Ordine degli Ingegneri della Provincia di Roma ha organizzato il Convegno “Nuove Reti 5G: gli effetti sulla salute e il ruolo dell’informazione”. “Cos’è il 5G? È pericoloso per la salute?”, queste le domande che molti italiani si stanno ponendo negli ultimi mesi, interrogandosi su cosa c’è dietro alla nuova quinta generazione di connessione mobile. Il 5G è destinato a cambiare non solo la nostra vita, ponendosi in tutto e per tutto come la sfida tecnologica del futuro. Le prime offerte mobile, tra TIM e Vodafone, sono già presenti e le prime sperimentazioni sono già state avviate nelle prime città (da Roma a Milano) con un implemento globale previsto per i prossimi tre anni. L’ampia diffusione del 4G, attualmente la miglior connessione possibile in termini di smartphone, è destinata a lasciare il posto a una connettività così diversa da permetterci di utilizzare il telefono come mai prima d’ora. Il 5G sarà in grado di spalancare opportunità mai immaginate, le cui strade sono ancora oggi frutto di studio e sperimentazioni. La Next Generation Mobile Networks Alliance (associazione fondata nel 2006 che riunisce i migliori operatori, ricercatori e venditori operanti nel campo della telefonia mobile) ha definito il 5G come il nuovo standard in grado di: elaborare dati di decine di megabit al secondo per decine di migliaia di utenti; offrire sostegno e supporto garantito a centinaia di migliaia di connessioni senza fili contemporaneamente; garantire migliore copertura ed efficienza delle rete, notevolmente potenziata rispetto al 4G. Ma il 5G fa davvero male? La risposta è no, come dichiarato dall’Istituto Superiore di Sanità. Un report intitolato “Radiazioni a radiofrequenze e tumori: sintesi delle evidenze scientifiche” smentisce questa correlazione tra l’insorgere di patologie tumorali e l’uso delle reti mobile, compreso il 5G. Si tratta di “teorie complottiste”: nessun standard di rete, nemmeno il 4G o il 3G, ha portato all’aumento dell’insorgenza di mali per la salute dei cittadini. Purtroppo le fake news sul 5G si diffondono velocemente e trovano un facile seguito. Ad esempio, quelle proliferate, in particolare sui social network, relativamente alla correlazione fra il 5G e la diffusione del coronavirus hanno sortito atti di vandali-
smo, minacce e violenze contro i tecnici delle aziende di telecomunicazione in Europa e anche nel nostro Paese. Sono, poi, per continuare gli esempi, arrivate le ordinanze da parte di alcuni sindaci su tutto il territorio nazionale per bloccare l’installazione delle nuove antenne, tanto che l’Anci ha deciso di realizzare una guida utile a comprendere il 5G sia negli aspetti tecnologici sia nelle questioni legate alle emissioni elettromagnetiche. Certamente a questo punto si apre un altro aspetto importante, e forse più generale, quello relativo all’informazione e alle fake news. Come ben sappiamo, nell’era dell’informazione digitale sta crescendo sempre più il dibattito sulle notizie false che, grazie anche al passaparola delle reti amicali e sociali, riescono facilmente a essere interpretate come veritiere, senza verifiche ulteriori. Dall’altra parte, diminuisce il peso e l’autorevolezza dei professionisti dell’informazione. Il problema della fake news non può quindi essere ridotto a un problema delle piattaforme di social networking, ma riguarda l’intero sistema della informazione, in un mondo in cui i tempi e i luoghi della fruizione sono sempre più liquidi, e poco inquadrabili nelle classici matrici delle programmazioni o dei menabò. A partire da questa situazione, credo che sia oggi più che mai importante individuare forme di “garanzia dell’utente dell’informazione”. Per ciò che riguarda, nello specifico, il 5G l’intero ecosistema della comunicazione ai cittadini deve muoversi relazionandosi con noi tecnici e noi tecnici dobbiamo contemporaneamente relazionarci con il mondo della comunicazione, per fornire informazioni corrette e vanificare l’impatto delle tante “bufale”.
Ing. Carla Cappiello Presidente Ordine degli Ingegneri della Provincia di Roma
L’Editoriale Ing. Francesco Marinuzzi Ph.D.
La guerra informativa o infowar La guerra è stato sempre un elemento caratteristico della storia dell’uomo. I romani erano soliti dire si vis pacem para bellum tanto era viva la dialettica fra periodi di pace e di guerra. Nella nostra civiltà, dopo le due guerre mondiali del secolo scorso, l’Europa ha vissuto uno dei più lunghi periodi di pace tant’è che anche molti detrattori dell’Europa riconoscono, comunque questo regime di pace, come concreto risultato. Invero, nel tempo le guerre ed in generale le conflittualità tendono a spostarsi non solo geograficamente ma anche concettualmente su altri piani di confronto e di scontro fra gli Stati e fra le Comunità. Da questo punto di vista le olimpiadi ed in generale tutte le competizioni sportive internazionali e nazionali sono anche una valida forma di contenimento ed espressione delle diversità pur nella loro limitatezza. Una nuova dimensione di confronto, a livello europeo, ad esempio, è stata alla fine del secolo scorso, quella economica con la costituzione della moneta unica che ha visto una forte svalutazione della Lira e un sostanziale riconoscimento del valore del marco tedesco. Qualcuno ha addirittura visto in questo progetto della moneta unica e del connesso regime di austerity, l’ennesimo tentativo germanico di supremazia continentale dopo i due fallimentari del ‘900. Dipoi, più recentemente, con la rivoluzione digitale, è emersa la nuova dimensione cyber con presunti attacchi da parte di hacker di alcuni Stati verso le risorse informative e infrastrutturali più preziose degli altri Stati. Questo ha generato, anche recentemente, un grande dibattito nazionale per la costituzione e il finanziamento di specifiche strutture ed organizzazioni dello Stato dedite alla Cybersecurity. Una tematica e una materia propria degli ingegneri soprattutto del settore dell’informazione ma non solo. Infatti, sviluppare programmi, progetti ed architetture informatiche tenendo in debito conto, fin dall’inizio, le esigenze sempre mutevoli di sicurezza informatica, è un compito molto complesso e tipicamente sistemistico ed ingegneristico dove gli approcci più teorici e, permettetemi di dire, filosofici o giuridici, rischiano di esser rischiosi e dannosi. Digitalizzare, infatti, senza considerare debitamente fin dall’inizio la sicurezza, rappresenta un disvalore generale in quanto aiuta il potenziale hacker a sottrarre, in modo invisibile, quantità incredibili di dati in pochissimo tempo e minimo sforzo rispetto allo scenario classico cartaceo. Troppe volte, anche in posizioni apicali di realtà pubbliche nazionali, vediamo laureati in matematica, fisica, architettura o filosofia se non sociologia e psicologia, senza che l’Amministrazione abbia valorizzato adeguatamente il capitale umano già presente afferente al settore ingegneristico. Ma negli ultimi anni e soprattutto con le recenti elezioni USA è emersa all’attenzione generale una ulteriore dimensione strettamente connessa alla precedente: la dimensione informativa che genera la guerra informativa o infowar. È sempre esistita ma in modo marginale e/o sinergico con le altre dimensioni come quando la decriptazione delle macchine Enigma, da parte di Alan Turing e del suo gruppo, costituì una svolta del conflitto armato della Seconda guerra mondiale.
Attualmente, invece, sta emergendo come dimensione prevalente, se non unica del conflitto. Alcuni suoi tipici obiettivi sono, ad esempio, l’orientamento e l’opinione delle persone al fine del condizionamento dei momenti elettorali delle democrazie occidentali oppure l’induzione di proteste massive popolari in regimi più rigidi oppure delle variazioni improvvise e forti del mercato azionario su cui speculare. Una informazione, un tweet emesso da specifici soggetti può colpire decine di milioni di persone istantaneamente in tutto il mondo, alla velocità della luce e, ricorsivamente ed immediatamente, tutte le persone in relazione con questi attraverso i noti meccanismi di condivisione od inoltro della informazione: può destabilizzare il mercato azionario o quello politico immediatamente. Talvolta la velocità e il danno sono così diretti ed immediati che l’eventuale smentita o precisazione successiva risulta inutile. Inoltre, non sempre l’identità della fonte è stata autenticata ed è successo che personalità anche ai vertici si trovino, loro malgrado, a dover smentire tweet o informazioni emesse, non armoniche con il loro ruolo, dal loro account violato. Pertanto, la garanzia della sicurezza informatica e cyber diventa ancora più critica e fondamentale in quanto se violata può potenziare enormemente l’infowar. Il dibattito attuale nazionale è ancora rimasto alla cyberwar e il problema dell’infowar viene da molti ancora non focalizzato o scambiato per la tematica delle notizie false o fake news. Il successo dell’Osservatorio di Andrea Ceccherini, del blog Il Disinformatico di Paolo Attivissimo, che si definisce cacciatore di bufale, sono sintomatici del problema ma non rappresentano, a dire dello scrivente, pur lodevoli, una sufficiente risposta rispetto alla posta in palio. Neanche la rimozione o il blocco immediato del profilo social è una valida soluzione perché pur apparentemente efficace nell’immediato, solleva seri problemi in termini di trasparenza, appellabilità delle decisioni e distribuzione del potere fattuale. Non è un caso che molti parlano dello stato attuale come feudale, digitale, sovranazionale o addirittura oltre le nazioni quasi un ritorno agli imperi del Settecento. Il problema è certo politico ma anche e soprattutto tecnologico ed informatico viste le velocità dei colpi e dei contraccolpi della Infowar. Se gli Stati vogliono sopravvivere e contrastare il potere di influenza degli imperi digitali e soprattutto garantire una vera libertà di opinione e di giudizio devono avviare iniziative strutturate e sinergiche con quelle relative alla cybersecurity dove gli ingegneri possono e devono giocare un ruolo decisivo essendo gli unici, praticamente, in grado di progettare e realizzare complessi sistemi, in tempo reale, di protezione, difesa e/o di preventivo attacco dei soggetti autori o presunti tali della infowar. Ora, soprattutto qui in occidente siamo ancora troppo inermi ai bombardamenti informativi ai quali possiamo giusto opporre una sana e temporanea indifferenza con un approccio disincantato o di transurfing. Francesco Marinuzzi Ph.D. Direttore Editoriale
Quaderno Direttore responsabile
Stefano Giovenali Direttore editoriale
Francesco Marinuzzi Comitato di redazione Sezione A
Carla Cappiello Gioacchino Giomi Lucia Coticoni Giuseppe Carluccio Carlo Fascinelli Lorenzo Quaresima
Manuel Casalboni Filippo Cascone Alessandro Caffarelli Massimo Cerri Francesco Fulvi Tullio Russo
Sezione B
Giorgio Mancurti Amministrazione e redazione
Piazza della Repubblica, 59 - 00185 Roma Tel. 06 4879311 - Fax 06 487931223 P. M. Art director
Tiziana Primavera Assistenza editoriale
Chiara Notargiacomo
Flavio Cordari
Stampa
Press Up Ordine degli Ingegneri della Provincia di Roma
Piazza della Repubblica, 59 - 00185 Roma www.ording.roma.it segreteria@ording.roma.it editoriale@ording.roma.it Finito di stampare: febbraio 2021
Il Quaderno IOROMA è una estensione alla rivista IOROMA La Direzione rende noto che i contenuti, i pareri e le opinioni espresse negli articoli pubblicati rappresentano l’esclusivo pensiero degli autori, senza per questo aderire ad esse. La Direzione declina ogni qualsiasi responsabilità derivante dalle affermazioni o dai contenuti forniti dagli autori, presenti nei suddetti articoli.
Sommario
N. 3/2020
GLI EDITORIALI Il saluto del Presidente
1
L’Editoriale
4
di Carla Cappiello
di Francesco Marinuzzi
GLI ARTICOLI Cedimenti degli edifici e metodi di consolidamento dei terreni: utilizzo delle resine chimiche ad espansione controllata A. Colasanti
8
Gestione Manageriale nel processo di Feature Delivery di Sistema o di Software in ambito Meccanico, Aeronautico ed Automobilistico metodologie Waterfall ed Agile a confronto
20
La monorotaia EUR – Aeroporto Fiumicino – Porti Fiumicino – Ostia Lido
36
La sicurezza e la resilienza nelle infrastrutture di Rete verso il 5G: Perimetro Cyber & Data Protection
46
The advantages of industry 4.0 in automatic industrial plants
80
Le reti radiomobili e l’esposizione elettromagnetica
90
E. Basile
F. Testaguzza
G. Gasbarrone D. Tomassini F. Mazza
L’AREA WEB DEL QUADERNO E DELLA RIVISTA
102
8
a cura di Ing. A. Colasanti Commissione Manutenzioni Edilizie visto da Ing. A. Tirocchi Ing. P. M. Pertici
CEDIMENTI DEGLI EDIFICI E METODI DI CONSOLIDAMENTO DEI TERRENI: UTILIZZO DELLE RESINE CHIMICHE AD ESPANSIONE CONTROLLATA
Uno dei problemi più frequenti che si incontrano nell’edilizia pubblica e privata è la 1. Introduzione formazione e la conseguente disamina delle crepe che si notano nei vari manufatti componenti un immobile o un’infrastruttura, spesso causa di malumori e procurati allarmismi (spesso esagerati) dei Proprietari e/o Usufruttuari. Precisiamo subito che le “lesioni” (è il giusto termine tecnico per le “crepe”) non sempre sono dovute a cedimenti del terreno di fondazione ma anche a svariati altri fattori, quali difetti strutturali, sopraelevazioni, impianti tecnologici murati e/o protetti non a regola d’arte, umidità, dilatazioni termiche, ecc… In ogni caso, e questo è un dato statistico, la percentuale che individua la causa generante delle lesioni in un movimento del terreno di fondazione di un edificio è altissima ed è di questa che ci occuperemo in questo articolo. ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
CENNI TEORICI DELLA MECCANICA DELLE TERRE E FONDAZIONI Perché e come si deforma un terreno nel tempo? A priori è facile intuire che un materiale come la terra (tralasciamo la sua tipologia, per il momento), cioè un mix di materiali composto da minuscoli granuli di inerti, vuoti d’aria e, spesso, acqua o gas, è un elemento altamente deformabile in condizioni di esercizio naturale o forzato; il termine “forzato” lo intendiamo quando “schiacciamo” il terreno sotto l’azione verticale (ma anche orizzontale) dovuta al peso dell’edificio e, a seconda della tipologia del medesimo terreno, riceviamo da questi un comportamento più o meno elastico di deformazione che si esaurisce in un breve, medio o lungo periodo (c.d. “assestamento”). Inoltre, per quanto concerne la modalità di “rottura” di un terreno, si sa che ci sono diversi modi e forme nelle quali essa si manifesta, ma principalmente questi si “rompe” per taglio (Leggi di Mohr-Coulomb e Tresca), cioè per scorrimento relativo dei granuli di terra l’uno sull’altro, ovvero, ragionando con le formule, quando il rapporto tra la tensione tangenziale resistente e
10
Figura 1 Figura 2
quella “efficace” in quel punto raggiunge un valore critico, dipendente dalla tipologia di terreno e dai carichi ivi applicati. Situazioni per le quali un terreno subisce una rottura dei suoi granuli per compressione è rarissima e non viene quasi mai trattata, in quanto ci sarebbero in ballo pressioni talmente elevate in gioco su di esso difficili da trovare in edilizia. È nota infatti la Legge che regola la Meccanica delle Terre, cioè la formula di Terzaghi: σ = σ’ + u (“Principio delle Tensioni Efficaci” – 1923 - 1936) τ = τ’ dove: σ, τ = tensione globale/taglio litostatica nel terreno in un punto a quota h dal p.c. σ’, τ’ = tensione “efficace” globale/taglio litostatica nel terreno in un punto a quota h dal p. c. u = pressione dell’acqua (e/o gas) alla quota h individuata (pressione “neutra” in quanto l’acqua non resiste al taglio e quindi non partecipa direttamente alla “rottura” del terreno). Si evince come la tensione in un qualunque punto del terreno di fondazione è dovuta sia al peso del terreno sopra quella quota (carico litostatico) + i carichi permanenti (es. edificio) e/o accidentali ivi applicati che all’eventuale pressione dovuta a presenza di acqua o gas *(naturalmente se ci troviamo sopra la quota di falda e senza presenza di gas la formula si riduce a: σ = σ’). Da questa formula deriva quella della “portanza” di un terreno di fondazione. In geotecnica, infatti, la portanza o capacità portante è la capacità di un terreno di sopportare le sollecitazioni di compressione verticale dovute ad un carico sovrastante. Il calcolo della capacità portante è frutto di un complesso procedimento di valutazione, su cui influiscono molteplici fattori, fra cui: • resistenza meccanica del terreno; • storia tensionale del terreno; • intensità dei carichi; • eccentricità dei carichi; • forma della sovrastruttura e della fondazione;
11
• •
approfondimento del piano di posa; presenza di carichi adiacenti alla zona in esame. Le formule proposte per il calcolo della capacità portante determinano un carico limite di riferimento per il terreno, che viene ridotto con un appropriato coefficiente di sicurezza, definito dalle normative, per ottenere il carico di esercizio ed essere così impiegato nella progettazione. Per la determinazione della capacità portante di un terreno è ormai accreditata, nell’uso corrente, una formula trinomia *(sempre di Terzaghi, ma ce ne sono altre es. Brinch-Hansen, ecc…), espressa come somma di tre termini, di cui uno rappresenta il contributo della resistenza a taglio del terreno, il secondo dell’approfondimento del piano di posa, il terzo della dimensione della fondazione:
dove (a parte i 3 Fattori N tabellati da Terzaghi): c è la coesione del terreno q è il carico preesistente sul piano di posa B è la larghezza della fondazione (la dimensione minore)
γ è il peso dell’unità di volume del terreno. Ciascuno dei termini della formula trinomia contiene un parametro, detto “Fattore di capacità portante”, la cui espressione è funzione dell’angolo di resistenza a taglio del terreno. Tuttavia, sebbene vi sia un quasi unanime accordo sulle espressioni di Nc ed Nq, a causa dell’incertezza nella determinazione dell’ultimo termine, sono disponibili in letteratura tecnica espressioni di Nγ tra loro anche molto diverse e ciò in parte spiega anche la necessità di applicare un opportuno fattore di sicurezza al carico limite determinato con una qualsiasi di tali formule. Nella vecchia normativa italiana (D.M. 11/3/1988), per fondazioni c.d. “dirette” *(plinti, travi rovesce, platee), era richiesta l’applicazione di un fattore di sicurezza Fs pari a 3, che implicava la limitazione progettuale del valore ammissibile del carico ad un terzo del carico ultimo sopportabile dal terreno *(metodo delle T.A.):
Con le attuali Norme Tecniche per le Costruzioni (D.M. 17/1/2018 e ss.mm.ii., c.d. “NTC 2018”) anche la normativa italiana (come già presente in quella europea con l’Eurocodice 7) adotta i
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
12
coefficienti di sicurezza parziali applicati alle varie grandezze (con varie combinazioni), in luogo dell’unico coefficiente di sicurezza previsto precedentemente *(metodo agli S.L.U.). A conclusione di questo accenno teorico della Meccanica delle Terre e Fondazioni *(che nasce dagli studi di Boussinesq nell’800, il quale creò un modello del terreno elastico lineare, isotropo, omogeneo e con deformazioni edometriche) si ricorda che le pressioni che si sviluppano nel terreno sotto una fondazione seguono un andamento per lo più di tipo “isobaro” (ci sono diagrammi già standardizzati), mentre a seconda del tipo e forma di fondazione che si usa e a seconda che il terreno sia di tipo “incoerente” (es. sabbie) o “coesivo” (es. argille, limi), sono state elaborate negli anni numerose teorie e metodi di calcolo per individuare l’esatto valore tensionale alla quota h nel terreno dovuto alla fondazione sovrastante (es. “metodo di Peck” per le sabbie, “Steinbrenner”, “Skempton & Bjerrum”, ecc… per gli altri terreni). FUNZIONAMENTO DELLE RESINE CHIMICHE AD ESPANSIONE CONTROLLATA Illustrata quindi in modo molto sintetico la teoria di base della meccanica dei terreni, andiamo ad analizzare i vari metodi di consolidamento di essi esistenti oggi in commercio ed in parti-
colare quello con ausilio di resine chimiche ad espansione controllata. Negli ultimi due decenni in Europa *(negli USA i primi studi furono fatti negli anni ’50), il consolidamento dei terreni tramite iniezioni di resine chimiche ad espansione controllata con metodi “a diffusione libera” o “mista” si è affiancato alle tradizionali tecnologie già esistenti (chiodi, bulloni e barre in FRP per gli scavi; pali, micropali, sottofondazioni, geotessili, jet-grouting, iniezioni per permeazione a bassa pressione, ecc… per il resto) in virtù della minor spesa, dei tempi assai ridotti di cantiere, della possibilità di lavorare anche internamente all’edificio senza produrre alcun danno e senza invasività e di altri fattori non meno primari. La comparsa delle famigerate lesioni ad es.) nei muri di casa è infatti legata in genere alle seguenti motivazioni: - Inadeguatezza o vetustà delle fondazioni; - Eventuali sopraelevazioni di piani; - Terreni aventi scarsa portanza o che hanno diminuito nel tempo questa loro capacità; - Abbassamento/innalzamento del livello di falda naturale o indotto da pompaggio; - Flussi idrici sotto le fondazioni con fenomeni di dilavamento (es. tubi dell’acqua/fognature rotti); - Diversità litologiche nell’area di sedimentazione del fabbricato;
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
- Presenza di piante immediatamente a ridosso del fabbricato. Ma che cos’è e come funziona una resina chimica da consolidamento autoespandente? Essa non è altro che una miscela in genere bi-componente di polimeri sintetici eco-compatibili (non tossici) e non bio-degradabili a reazione immediata, avente una composizione riservata e brevettata a livello europeo da ogni singolo Produttore e generante in fase di espansione (circa 30 volte il volume iniziale) una pressione isotropa max. nel terreno solitamente di 10.000 kPa e molto resistente a compressione e sforzi di diversa natura. Il principio con cui opera è molto semplice: nel riassunto teorico di inizio articolo si è visto che il terreno è composto da granuli, vuoti d’aria, gas e/o acqua: l’iniezione di queste resine liquide nel terreno, a lento rilascio, fa si che questo materiale vada prima ad occupare gli spazi vuoti tra un granulo e l’altro del terreno e poi a compattarlo con la sua espansione una volta saturati questi *(chiusi tutti i vuoti la spinta della resina va a “pressare” i granuli) ed infine, raggiunta la compattazione max. ammissibile, questa pressione si “sfoga” nell’unica direzione ove non incontra una massa di terra (ormai compattata) cioè quella verticale dove insiste il fabbricato che ha ceduto e quindi producendo su di esso un “sollevamen-
to” fino alla condizione di equilibrio statico originaria (o quasi). Durante questa fase di grande compattazione il terreno si “rompe”; infatti la grandissima pressione esercitata in esso da questa miscela chimica che, indurendosi, si espande, porta a superare il suo famoso “valore critico” di resistenza e quindi ad innescare una sua rottura a taglio, il tutto però compensato dal nuovo materiale che si aggiunge a quello “rotto” e ne diventa parte integrante, realizzando un reticolato resistentissimo ed aumentandone a dismisura le sue capacità portanti. Le resine poliuretaniche inoltre sono più leggere del terreno e quindi non lo appesantiscono, sono infatti tali da avere un modulo elastico simile a quello dei terreni, variando da 15 a 85 MPa a seconda della densità. In questo modo, si può essere certi che trattando il terreno di fondazione limitatamente al cosiddetto bulbo di pressione significativo (teoria di Boussinesq), non vi sia il trasferimento del carico in profondità, evitando l’instaurarsi di nuovi cedimenti nel volume sottostante il terreno trattato. Infine, in un terreno incoerente trattato con le resine in esame, si nota un miglioramento della sua resistenza alla “liquefazione” (fenomeno ben noto nelle zone sismiche), generalmente in media fino ai 4 mt di profondità dalla fondazione. Ancor più in dettaglio: il rigonfiamento per indurimento delle resine genera una sovrapressione che comporta un incremento delle pressioni orizzontali e verticali in regime non lineare elasto-plastico al di sotto dell’impronta di carico consolidata; l’elevato valore incrementale di pressione comporta la rottura del materiale di fondazione, con la generazione di un reticolo di superfici di taglio lungo le quali avviene, almeno parzialmente, la dissipazione delle pressioni neutre (acqua), permettendo così un consolidamento efficace anche su terreni a bassa permeabilità come le argille. Per un risultato duraturo, l’azione delle resine espandenti deve svilupparsi con continuità al di sotto di tutta la fondazione interessata dal dissesto. MODALITA’ DI ESECUZIONE E LOGISTICA DEGLI INTERVENTI IN SITU Generalmente a livello operativo le Aziende del settore operano nel modo-tipo qui di seguito descritto: 1) SONDAGGIO E PROGETTAZIONE: dopo un’attenta verifica dell’eventuale presenza di linee interrate dei sottoservizi (elettricità, gas, acqua, fognature, ecc...) e preso quindi atto delle condizioni “al contorno”, si progetta la migliore soluzione per l’intervento da eseguire in base alle problematiche riscontrate sull’edificio (c.d. “quadro fessurativo”). 2) REALIZZAZIONE: si mette in opera tutta la strumentazione laser di controllo sui muri
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
13
14
Figura 3
collegata ad un computer da campo e si eseguono dei fori di circa 25 mm di diametro perimetralmente all’edificio ed in corrispondenza della fondazione del medesimo, ad interasse di max. 1 mt e per una profondità ritenuta significativa (di solito pochi mt) in relazione al terreno ed alla fondazione stessa; si inserisce in ogni foro un tubo in rame collegato in testa ad una pistola, a sua volta in comunicazione con il compressore generale e si inietta la tipologia di resina ritenuta opportuna ad elevate pressioni: questa fase, particolarmente delicata, è monitorata dai tecnici con gli strumenti di cui sopra, che consentono di tenere sotto controllo sia il livello di quota dell’edificio sia il processo di consolidamento del terreno in ogni momento. Dopo poche ore, la resina raggiunge l’espansione finale ed il terreno assume immediatamente nuove caratteristiche geotecniche con una resistenza a compressione ben superiore alla fase di pre-iniezione. Si prevede che le resine debbano espandersi di quel tanto che è necessario per riempire i pori del terreno, conferendo
3)
allo stesso un’elevatissima resistenza a compressione, ed il processo si esaurisce quando i livelli laser posti intorno al fabbricato comunicano al computer l’avvenuto raggiungimento nella zona dissestata della nuova quota stabilita. L’efficacia della resina è massima in terreni granulari (sabbie) diminuendo progressivamente nel range delle granulometrie fini (argille, limi). MONITORAGGIO: in ogni caso, sia prima che dopo l’intervento si eseguono delle prove penetrometriche e geofisiche (georadar) per evidenziare sia la dimensione e profondità della nuova massa iniettata sia il cambiamento di portanza del terreno e verificare così i risultati aspettati.
PROBLEMATICHE CHE POSSONO INSORGERE NEL TERRENO E VARIE Basandosi su una teoria così apparentemente semplice non si ha però anche una fase operativa di applicazione altrettanto semplice, in quanto bisogna prestare grandissima attenzione a tutta una serie di problematiche (alcune gravissime
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
con conseguenze irreversibili) esistenti in questo processo di risollevamento del nostro edificio. Teniamo a precisare, in ogni caso, che i tecnici incaricati dall’Azienda che fornisce il prodotto ed alla quale viene commissionato il lavoro realizzano a monte un progetto di risollevamento, analizzando dati e materiali presi in situ tramite prove distruttive e non, la configurazione dell’area litologica e dell’edificio, il suo contesto nell’area dell’intervento, ecc…e riportando il tutto su personal computer tramite apposito programma in loro dotazione. Gli aspetti da non tralasciare sono così sinteticamente riassunti: 1) La prima considerazione riguarda il terreno di iniezione: in presenza di falde, benché si abbiano analoghi risultati di quelli in un terreno asciutto, la grande pressione che genera la resina espelle quasi tutta l’acqua dal volume di terra interessato, ma vede allontanarsi questo fluido con modalità, direzione e velocità dipendenti dalla tipologia di terreno; ora, dato che in genere si ha a che fare con diverse stratigrafie litologiche, può accadere che porzioni di terreno intorno a quello da consolidare vengano impregnate in modo eccessivo a causa di questo “allontanamento” forzato delle acque, subendo quindi un notevole cambiamento del loro con-
15
Figura 4
Figura 5
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
16
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
17
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
tenuto idrico che, come visto nella prefazione teorica, è una delle cause di movimento del suolo. Si pensi infatti ad un edificio cittadino nel quale si intervenga in adiacenza o nelle immediate vicinanze di altri: i cambiamenti idrologici di falda nel terreno a seguito di queste iniezioni potrebbero comportare l’insorgere di cedimenti differenziali sotto questi ultimi, ottenendo quindi un risultato finale disastroso, con danni a cose e/o a terzi non previsti inizialmente e costosissimi, anche a livello giudiziario, da risolvere. Le indicazioni delle Aziende produttrici indicano oltretutto un risultato di consolidamento max. nei terreni incoerenti (sabbie) e risultati buoni in quelli coesivi (argille, limi); ora, mentre è chiaro che in un terreno incoerente l’azione della resina è di tipo “permeante”, l’opposto si verifica in quelli coesivi, dove si verifica un’azione “penetrante” con innesco di una frattura idraulica creata appositamente. La resistenza di una sabbia infatti è decisamente minore a quella di un’argilla se sottoposta ad una elevatissima pressione, in quanto data la natura coesiva di quest’ultima, all’inizio è proprio l’acqua a “portare” il carico sovrastante per poi “trasferirlo” nel tempo (la durata dipende se c’è un normale consolidamento o un sovraconsolidamento) alla parte coerente (granuli), mentre nella sabbia il trasferimento dei carichi è immediato: allora, se nel terreno ci fossero cavità non rilevate a monte dagli strumenti (può succedere) il risultato sarebbe che dinanzi ad una pressione di iniezione così elevata la sabbia verrebbe “sparata” nel primo vuoto che si trova nei dintorni, venendo sostituita sì dalla resina (ne serve una quantità maggiore) ma provocando per un lasso di tempo una condizione dinamica nel terreno che potrebbe innescare altri cedimenti differenziali nelle fondazioni.
18
Figura 6
2) La seconda considerazione va fatta sulla “presenza” permanente della miscela di resine chimiche nel terreno dopo l’intervento, cioè tutto quanto concerne la durata delle sue caratteristiche meccaniche o un suo un eventuale “collasso” nel tempo, oppure la creazione di un danno ambientale in situ a causa del suo permanere. Se si va a navigare sui vari siti internet delle Aziende produttrici di queste resine, tutti sottolineano il fatto che la natura poliuretanica del prodotto assicura un’ottima durabilità nel tempo anche in presenza dei più comuni agenti aggressivi nel terreno e, in genere, esse ne garantiscono la stabilità, la eco-compatibilità ed anche un vantaggio fiscale *(i costi dei lavori infatti si possono detrarre fiscalmente dall’IRPEF al 50% o fino all’85% in casi di miglioramenti antisismici; in alcuni casi e tipologie di interventi questi possono rientrare oggi anche nel discorso Superbonus al 110%) e con IVA agevolata al 10% anche per tutto il 2020, fino ad un importo max. di € 96.000,00 e per un periodo che può arrivare fino ai 10 anni; ad indurimento avvenuto le resine assumono le caratteristiche di semplice inerte, senza creare effetti inquinanti all’ambiente circostante – vedi D.M. 471/99 e D.Lgs. 152/06-Allegato 5-Parte IV - e non modificando il proprio comportamento anche se utilizzate in presenza di acqua). Non dobbiamo dimenticarci però che in tempi successivi all’intervento, il terreno, per altre cause esterne dell’intervento, può diventare ancora più “aggressivo”, cioè contenere una quantità maggiore di elementi chimici e più acidi per la stabilità della massa di consolidamento e con la possibilità che le caratteristiche meccaniche di essa decadano in modo repentino e prematuro rispetto a quanto preventivato. Naturalmente questo è solo un esempio e di situazioni impreviste nel tempo se ne possono pensare tante altre; da ingegneri però è opportuno non tralasciare questi aspetti in quanto anche le Aziende che fanno questo lavoro ormai da 20 anni possono incappare in valutazioni sottostimate dei futuri pericoli in situ. 3) Una terza considerazione va fatta su fondazioni ed eventuali sottoservizi esistenti nel terreno da consolidare, in quanto durante la fase di indurimento e di espansione della resina (e quindi con la generazione di sovrapressioni dell’ordine di 10.000 kPa) è possibile, oltre alle fondazioni stesse, che sottoservizi di uso comune ai fabbricati, come le fognature, le adduzioni dell’acqua, del gas, dell’elettricità, ecc… *(anche non di proprietà condominiale ma ivi esistenti per un discorso di “servitù di passaggio”) vengano danneggiati in modo serio ed irreparabile da questa massa chimica che invade tutti gli spazi che trova nel suo cammino. Ovviamente, a monte dell’intervento è dovere dell’Amministrazione di Condominio ed obbligo
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
19
dell’Azienda esecutrice richiedere disegni, planimetrie e tutto quanto possa far venire alla luce ciò che c’è nel sottosuolo, al limite eseguendo una campagna di indagini preliminari per la loro tracciabilità. Anche in questo caso, però, c’è un potenziale rischio in atto da tenere bene a mente quando ci si occupa di queste lavorazioni. 4) In ultimo, e non meno importante, vogliamo soffermarci su eventuali errori in fase di progettazione e/o esecuzione da parte degli addetti ai lavori. Chi si occupa materialmente di questi interventi sono tecnici specializzati, ingegneri, ecc… con svariati anni d’esperienza alle spalle, però la possibilità di commettere a monte un errore di calcolo della miscela chimica, di valutazione del terreno, della eventuale falda o delle condizioni al contorno c’è e comporta a valle un risultato che può essere inaspettato (o l’edificio non si è completamente risollevato o si è sollevato troppo da un lato!), quindi con perdita di tempo, soldi (a carico dell’Azienda) ma, soprattutto, di disagi per i residenti talvolta grandi (c’è anche un potenziale rischio che l’errore commesso porti ad una configurazione statica dell’edificio non più agibile da parte di nessuno, ma è un caso limite). CONCLUSIONI Questo articolo ha avuto lo scopo di trattare, seppure in modo strettamente sintetico, la recente tecnologia commerciale di consolidamento dei terreni tramite iniezioni di resine chimiche ad espansione controllata. Il sistema qui analizzato ha avuto un grande successo commerciale per
i già ricordati motivi di non-invasività e costi abbastanza contenuti, ed è di facile comprensione nei funzionamenti e nella logistica d’intervento. In ogni caso, si ha a che fare con un materiale fluido che scende nelle cavità del terreno, si espande generando una fortissima pressione interna e va ad occupare gli spazi di tutto quello che incontra nel suo cammino: è proprio questa la perplessità davanti alla quale ci si chiede se questo sistema funzioni al 100% e dia sempre i risultati aspettati o vengono, a volte, “mascherati”: il “core” dell’attività avviene dove l’occhio non può vedere ne controllare, il controllo avviene solo mediante sensori. Gli imprevisti in gioco sono parecchi e prevederli tutti all’inizio è un compito assai arduo anche per tecnici esperti come quelli che si occupano materialmente di questi lavori, le Aziende stesse progettano e migliorano le resine in base ai dati raccolti “sul campo”, quindi si tratta di un processo di produzione basato sulla statistica di centinaia di casi analoghi e non su reali esperienze di funzionamento geo-meccanico di ogni singola particella componente il terreno. È interessante comunque andare a vedere su internet, per curiosità di conoscenza, le foto dei vari “campi prova” allestiti dalle singole Aziende che illustrano come lavorano questi materiali in opera. Il metodo di consolidamento dei terreni con le resine ad espansione controllata è quindi certamente interessante e commercialmente molto utilizzato oggigiorno, ma nasconde delle insidie tecniche e non per le quali bisogna prestare la massima attenzione nella scelta finale dell’intervento di consolidamento da eseguire.
Bibliografia - documentazione varia su internet - sito internet Uretek: http://www.uretek.it/
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
GESTIONE MANAGERIALE NEL PROCESSO DI FEATURE DELIVERY DI SISTEMA O DI SOFTWARE IN AMBITO MECCANICO, AERONAUTICO ED AUTOMOBILISTICO METODOLOGIE WATERFALL ED AGILE A CONFRONTO Introduzione a cura di Ing. E. Basile Commissione Aerospazio visto da Ing. M. Nava Ing. G. Nicolai
Dispositivi complessi di nuova generazione utilizzabili in campo meccanico, automobilistico o aeronautico stanno diventando simili ad apparecchiature IT. Sempre più spesso, infatti, si creano sistemi combinati in cui l’architettura di sistema o il software è asservito, o controlla, sistemi meccanici. Per questo motivo, lo sviluppo e la realizzazione di alcune parti di suddette attrezzature possono richiedere soluzioni alternative ed innovative di derivazione anche diversa da quella tradizionalmente usata in campo meccanico. In parallelo alle nuove esigenze di mercato, alcune tecniche di project management per queste tipologie di progetti legati ad apparecchi ibridi, ovvero ottenuti per combinazione di componentistica meccanica (automotive ed aeromotive) e componentistica IT, possono essere ispirate a settori non strettamente relativi all’industria tradizionale ma ad ambiti differenti, quali quello della tecnologia dell’informazione o le software house. Nell’ultimo decennio, l’industria meccanica ha visto un crescente servirsi (ed asservirsi) di metodologie di controllo a calcolo numerico più che richiedere un diretto coinvolgimento dell’operatore. Per alcune funzionalità di sistemi anche vitali e complessi, è stato rilevato un costante aumento di risorse informatiche in settori tradizionalmente orientati ad un ambito meccanico. Questa nuova domanda richiede un numero crescente di risorse dedicate allo sviluppo di software e firmware che ospitano le “linee di comando” della gestione del componente (generalmente note come “caratteristiche” o “feature”). ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
21
Sono pertanto possibili analogie tra le software house di aziende operanti in ambito meccanico in generale, con quelle di firme operanti in ambiti strettamente informatici. In ambito automobilistico ed aeronautico si stanno diffondendo sempre più rapidamente piattaforme unificate in grado di gestire differenti funzionalità di un veicolo o un aeromobile che vanno dalla gestione interfaccia con l’utente al controllo di pilotaggio o guida autonoma (per il settore automotive questa funzionalità è conosciuta come ADAS - Advanced Driver Assistance System). Queste feature includono la gestione ottimizzata del sistema di consumo (fuel efficiency) o il controllo della stabilità del velivolo (o veicolo) anche in differenti condizioni atmosferiche o stradali a seconda che si faccia riferimento ad un aeromobile o ad una automobile. Data la complessità di questi sistemi di controllo integrato, si stanno creando collaborazioni tra aziende operanti nello stesso settore o in settori similari miranti allo sviluppo di sistemi di controllo IT comuni a più firme ed a più sistemi. Questo approccio unificato introduce un’importante unificazione, quindi un risparmio sui costi, nell’intera linea produttiva. D’altra parte, il suddetto modus operandi, porta inevitabilmente complessità di implementazione e richiede risorse più altamente qualificate. Riduzione costi, rapidi cambiamenti nella definizione dei requisiti, flessibilità nell’attuazione e soddisfazione del cliente, implicano un processo di implementazione diverso non solo dal punto di vista tecnico ma anche dal lato della gestione progetto. ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
22
Figura 1 Scenari in cui la metodologia Agile risulta essere maggiormente efficace
GENERALITÀ
DESCRIZIONE DEL PROCESSO – STATO ATTUALE
Le attuali tecniche di sviluppo utilizzate in ambito meccanico aeronautico e automobilistico, principalmente basate su set di requisiti definiti interamente nella fase iniziale del processo (metodologia Waterfall), sono qui presentate e confrontate con un approccio alternativo per l’implementazione delle funzionalità in cui i requisiti sono definiti in fasi sequenziali in base al feedback degli stakeholder (approccio Agile). Le due metodologie sono alternative, ovvero possono essere utilizzate entrambe a seconda delle scelte aziendali o dei gruppi di lavoro coinvolti. Tuttavia, ci sono casi in cui il primo approccio non è praticamente rimpiazzabile con il secondo mentre in altre circostanze le due metodologie sono alternative e la scelta tra le due è di natura economica o relata alle strutture organizzative dei team di lavoro. In generale, la metodologia Agile ha una buona applicabilità in quei contesti in cui non si ha uno scopo di progetto completamente definito nella fase iniziale ed è necessaria una maggiore sperimentazione e definizione nelle fasi successive del progetto. La metodologia Agile, infatti, funziona principalmente quando i requisiti iniziali e le tecnologie applicate hanno un range medio di incertezza. Progetti in cui si ha elevata incertezza sia a livello di tecnologia da utilizzare che di requisiti iniziali, non permettono un buon utilizzo di nessuna delle due metodologie. In modo analogo, laddove il progetto richieda alti investimenti in fase iniziale ed abbia un alto livello di confidenza nella definizione dei requisiti sin dalle prime fasi di definizione, si potrebbe preferire un’adozione di un metodo più tradizionale (Waterfall).
Secondo lo stato dell’arte per buona parte dei progetti in ambito meccanico, l’implementazione inizialmente prevede una definizione della funzionalità ad alto livello per arrivare ad una più dettagliata descrizione della stessa prima di iniziare la fase esecutiva, Rif. [1]. In parallelo all’esecuzione da parte del project management si esegue un processo di monitoraggio e controllo per allineare le aspettative di progetto con lo stato reale e assicurare che impedimenti, quali rischi o blocchi, vengano rimossi o, per lo meno, si mettano in atto adeguate strategie per limitare la loro probabilità ed il loro impatto sul progetto. A seguito della fase esecutiva, quando il cliente ha accettato le consegne (delivery), segue una fase di chiusura progetto e rilascio dei team che hanno lavorato su di esso. La Figura 2 mostra un processo di creazione e realizzazione di una generica feature secondo un processo tradizionale (Waterfall) ad oggi in uso in industrie meccaniche. Una nuova feature o un cluster di nuove funzionalità sono create a partire da una richiesta del mercato, determinata mediante benchmarking, sondaggi sui clienti, vantaggio competitivo o esigenza normativa. Il processo inizia con una definizione di massima della feature a partire dalle esigenze di progetto e termina con un’implementazione delle funzionalità nell’architettura di sistema prima di essere testato e quindi messo sul mercato. Con riferimento ad un processo di implementazione di feature attualmente adottato in differenti contesti, il presente studio fa riferimento ad una nota azienda automobilistica europea, la metodologia Waterfall prevede l’esecuzione di quat-
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
23
Figura 2 Feature delivery, panoramica generale
tro fasi sequenziali. Nella definizione dei requisiti del cliente (o SC – System Concept), viene presentata una descrizione generale della funzione e viene assegnato un budget adeguato a seconda delle diverse divisioni coinvolte nell’implementazione della feature. Questa valutazione si basa su stime preliminari della complessità dell’attività e delle risorse necessarie. La fase seguente è la definizione dei requisiti di sistema (o SD - System Design) in cui ogni aspetto della funzionalità viene analizzato e confrontato con le normative vigenti. In questa fase viene creata una seconda stima dell’impatto delle funzionalità e, se necessario, viene assegnato ulteriore budget. La progettazione del sistema è una fase importante del processo di implementazione, che termina con la decisione “go / no go” di implementare una funzionalità nell’architettura di sistema. La fase successiva è System Architecture Definition (o SA - System Architecture) in cui l’obiettivo è la definizione della funzionalità secondo una specifica architettura. In questa fase, le nuove funzionalità sono incluse nell’architettura preesistente assicurandosi che non vi siano conflitti o incompatibilità. Viene eseguito un controllo finale prima di consegnare la funzione (che ora è denominata ticket) ai requisiti del sottosistema e alla definizione dell’architettura (o NR - Network Release) di Figura 3. Queste fasi presentate sono implementate in momenti sequenziali. Una serie di funzionalità (di solito circa 20) vengono implementate ogni 3 mesi nelle fasi SC e SD. Una volta completate, queste feature vengono trasferite al team SA che implementa quanto completato in SD ed altri ticket dovuti a revisioni interne. La quantità di ticket che viene implementata ogni tre mesi (intervallo di iterazione) nello spazio SA è di circa 70 unità. Al termine dell’implementazione SA, il nuovo pacchetto di funzionalità viene trasferito al NR che completa l’implementazione nel mese successivo. La consegna in rete rilascia un nuovo software in un lasso di tempo fisso e non modificabile, lo scopo del progetto, tuttavia, può
cambiare (de-scoping) per garantire che ogni consegna avvenga nei tempi concordati. Tutte queste fasi sono sequenziali ed implementate in un approccio con metodologia Waterfall, ogni fase termina con un gateway che consente l’avvio della fase successiva. Se un ticket non viene completato entro i tre mesi di esecuzione, passa alla successiva iterazione e verrà consegnato nel successivo pacchetto di funzionalità. Eccezioni sono trattate su base individuale e richiedono una ufficiale approvazione in una Change Control Board (CCB). Il processo analizzato è mostrato in Figura 3 – e fa parte del sistema di implementazione che, assieme ad integrazione e test, completa l’intero processo di realizzazione e consegna al cliente di una feature in un’architettura di sistema. Per garantire che una feature venga consegnata in tempo per uno specifico modello (Model Year) ma anche una fase specifica dell’assemblaggio del componente, la tempistica deve essere concordata in anticipo con ciascun proprietario della funzione. In sintesi, un approccio di tipo Waterfall è tradizionale per il settore automotive ed è caratterizzato da “un rigoroso processo sequenziale di consegna di prodotti o servizi”, Rif. [2]. Ogni iterazione (o bundle) è composta da: • Ricerche di mercato condotte per set completi di funzionalità nella fase di definizione concetto, SC (3 mesi secondo il processo di consegna delle funzionalità sopra descritto), • Implementazione della progettazione del sistema delle funzionalità che comprende un’indagine completa e una descrizione dei requisiti applicabili, fase SD (3 mesi), • Implementazione dell’intero set nell’architettura di sistema, fase SA (3 mesi), • Sviluppo e rilascio della rete, fase NR (1 mese), • Test finali e correzione dei bug. Per la metodologia Waterfall, si richiede grande attenzione nell’avere requisiti completi, ben de-
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
finiti e un piano di progetto dettagliato sin dalle prime fasi di progetto, Rif. [3]. La Tabella 1 riassume pro e contro di questo approccio. DESCRIZIONE DEL AGILE
24
Un approccio alternativo (basato su metodologia Agile), Rif. [4]) può essere utilizzato per implementare funzionalità nell’intero processo di feature delivery. Questa metodologia si basa su definizioni di requisiti più flessibili inseribili con tempistiche diverse nella fase di delivery delle feature. In questa maniera, le feature hanno una maggiore continuità di implementazione attraverso le varie fasi dalla definizione a livello di concetto (fase SC) alla consegna della feature (o ticket) nell’architettura di sistema (completamento della fase NR). Questo approccio, inoltre, rimuove il vincolo di avere un periodo di consegna fisso per quelle feature che possono essere ultimate in tempi più brevi rispetto a quelli det-
Tabella 1 PROs and CONs della metodologia Waterfall per il processo di feature delivery
tati dalla durata della iterazione. Inoltre, questa metodologia funziona anche per quelle feature che sono in ritardo nel processo o per quei ticket che richiedono periodi di implementazione maggiori di una singola iterazione. Infatti, tale processo si basa sull’avere ogni feature, anche complessa, definibile come combinazione di più feature di dimensioni minori (processo di slicing) e quindi implementabili nel timeframe di una interazione singola. Secondo questo criterio pertanto, ogni feature, per quanto complessa, può essere implementata come successive ed indipendenti funzionalità da consegnare in cascata in diverse interazioni sino ad ottenere la funzionalità complessiva desiderata. Avere un approccio più flessibile consente un migliore allineamento tra funzionalità implementate e requisiti aggiornati [4]. Quindi, se una funzione richiede un cambiamento nel suo sviluppo, può essere facilmente adattata senza richiesta formale di modifica (processo di CCB).
PROs
• Ogni fase del processo è completamente documentata e può essere gestita e contro lata in dettaglio dalle prime fasi di pianificazione progetto alla sua conclusione • L’intero processo di consegna è lineare e facile da monitorare • Buona allocazione delle risorse e controllo dei costi durante tutte le fasi
CONs
• Bassa flessibilità nell’accomodare nuove richieste specialmente nelle ultime fasi implementazione • Ogni feature richiede un stesso lasso temporale per essere completata (indipendentemente dalla sua complessità) • Modifiche alla feature incluse in una delivery, dovute ad esempio ad obsolescenza, sono difficili da gestire una volta iniziatala fase di esecuzione
Figura 3 Processo di feature delivery ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
Per rendere questo processo più efficiente, invece di considerare la singola iterazione come una entità unica, essa può essere divisa in diversi sprint di diversa lunghezza a seconda della fase. Con riferimento all’esempio presentato in precedenza del processo di implementazione feature per aziende operanti nel settore automotive, uno sprint di due settimane si adatta alla fase di implementazione nel network (NR), mentre uno sprint di 30 giorni potrebbe funzionare meglio per l’architettura di sistema (SA), per la fase di progettazione del sistema (SD) e per quella dello sviluppo del concetto (SC). La scelta di avere una lunghezza diversa dipende dal numero di feature da trattare in ogni fase, dalla loro complessità e da come i diversi stakeholder rispondono alla sua implementazioni in termini di come loro supportano il processo. Ogni sprint inizia e termina in un determinato e non modificabile periodo di tempo, tuttavia le attività che non vengono completate nel periodo assegnato vengono automaticamente assegnate al successivo, questa operazione è definita con la denominazione di “re-priorizzazione del backlog” e deve essere eseguita con regolarità durante tutta la fase di esecuzione con lo scopo di eliminare quelle funzionalità non richieste e priorizzare quelle che invece aggiungono maggior valore al prodotto finale. L’ultimo sprint di ogni fase rappresenta un’eccezione; se un ticket di questo sprint non viene completato entro il periodo di tempo assegnato, può essere assegnato alla successiva interazione oppure può essere rivisitato, ridotto e quindi completato con un contenuto limitato nella corrente. Questo approccio consente una migliore distribuzione del carico durante l’intera interazione ed evita un aumento del volume delle attività nell’ultima parte di essa. Inoltre, l’avere un approccio Agile nell’intero processo di feature delivery crea una migliore soddisfazione del cliente grazie a una definizione dei requisiti più flessibile. Feature aventi una maggior facilità di implementazione possono essere inserite in un arco di tempo più veloce e possono essere completate prima. Allo stesso modo, se una feature è ben supportata durante l’intera fase di imple-
mentazione, può essere completata in un tempo più breve nel network di sistema. D’altro canto, se una funzionalità perde supporto può essere parcheggiata in attesa che le parti interessate siano più coinvolte senza vincolare l’intero pacchetto di consegna. In questo modo si aumenta l’attenzione nell’avere una stretta collaborazione tra sviluppatori di software e proprietari di feature nell’intero processo di implementazione. Avere una definizione di requisiti minimi, invece di una serie completa di requisiti secondo l’approccio Waterfall, riduce al minimo il tempo impiegato nella preparazione delle funzionalità aumentando il focus sulle attività che realmente contano per la consegna richiesta. Si ha in questo modo un immediato ritorno di investimento specie se si priorizzano in backlog quelle feature con maggior valore aggiunto. Le discussioni faccia a faccia sono maggiormente promosse al fine di mantenere un allineamento costante tra gli sviluppatori e i team proprietari delle feature. In questo modo, qualsiasi mancanza di definizione può essere chiarita e possono essere creati requisiti più robusti durante la fase di esecuzione (riduzione del cosiddetto “golfo di valutazione”, ovvero il gap esistente tra le aspettative del cliente e le sue vere necessità). D’altro canto, la mancanza di definizione completa in fase iniziale può essere vista come un aspetto negativo dell’approccio Agile perché può portare ad attività aggiuntive per arrivare alla definizione della feature richiesta dal cliente, si richiede pertanto un processo di monitoraggio e controllo più attento per coordinare queste attività, Rif. [5]. La Tabella 2 riassume i pro e contro dell’approccio agile. APPROCCIO AGILE IN ALTRI SETTORI L’origine della metodologia Agile è da trovarsi in quelle attività che richiedono più know-how e meno investimenti in asset iniziali. Infatti, in quelle aree in cui vi è un elevato livello di incertezza nella definizione iniziale, le attività correlate sono meno definibili rispetto a un flusso di lavoro industriale più tradizionale, Rif. [7]. Un processo completamente definito, basato sulla tecnica Waterfall, rimane un percorso preferito
PROs
• • • • • •
La definizione e l’implementazione delle funzionalità è eseguita in tempi brevi Il cambiamento dei requisiti può essere accettato prima (priorizzazione del backlog) Stretta collaborazione tra sviluppatori di sistemi e proprietari delle feature Focus maggiore sullo sviluppo di feature Miglioramento continuo (Kaizen), Rif. [4] Maggiore controllo delle risorse
CONs
•
Feature più complesse potrebbero essere penalizzate a causa dell’aumento del numero di team coinvolti nella loro implementazione Le feature non aventi un buon livello di coinvolgimento da parte degli stakeholder possono essere ritardate o parcheggiate (anche se altamente richieste dal cliente)
•
25
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
Tabella 2 PROs and CONs della metodologia Agile, feature delivery
26
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
per quei processi che potrebbero essere completamente definiti nelle fasi iniziali soprattutto se è richiesto un importante iniziale investimento. D’altra parte, le soluzioni iterative, utilizzate in Agile, possono essere adottate in quelle aree in cui le fasi sequenziali sono più dipendenti dalle fasi precedenti e dai risultati sperimentali nonché dai riscontri dei vari stakeholder. Per quei processi che non richiedono investimenti di partenza importanti e le attività possono richiedere modifiche in corso d’opera senza influire pesantemente sui costi iniziali, un’implementazione più flessibile può essere considerata un approccio valido come sostituto ad una metodologia più rigorosa in termini di iniziale definizione. Il principio Agile di base è quello di dividere l’intera produzione in piccole sottoinsiemi (sprint) che possono essere implementati rapidamente dando un rapido riscontro con il cliente. In questo modo, è possibile implementare modifiche riducendo i tempi di consegna. Diverse società di sviluppo software stanno attualmente utilizzando l’approccio Agile con buoni risultati. La metodologia è stata inoltre trasferita ad altri settori come quello aerospaziale, delle telecomunicazioni e delle costruzioni. Facendo riferimento a un approccio più tradizionale (Waterfall), l’ambito dei requisiti viene definito all’avvio del progetto in maniera rigorosa. Tempistiche e costi devono assecondare il conseguimento dello scopo del progetto. Cambi di scopo richiedono accettazione formale d parte del cliente (Change Request Board). In contrapposizione a quanto detto per la metodologia Waterfall, lavorare in ambiente Agile consente di avere tempo e costi concordati e di variare lo scopo del progetto in base alla richiesta dei clienti, Rif. [7]. Il tradizionale triangolo di gestione del progetto (con scopo fisso, costi e tempi variabili) può essere trasformato ed invertito per un processo Agile rendendo variabile lo scopo ma mantenendo costanti tempi e costi. Esistono vari approcci Agile, quello presentato è basato su: • Avere la completa trasparenza dell’intero risultato per garantire l’accordo delle parti interessate; • Controlli tempestivi dello stato del progetto e valutazione delle tappe intermedie; • Ridimensionamento del team in base alle esigenze del progetto. Le attività sono divise in vari sprint (o sotto-iterazioni) aventi lo scopo di creare un prodotto di valore minimo e sempre crescente da poter presentare al cliente per iniziale discussione. A seconda della fase, ogni sprint ha una lunghezza diversa per facilitare l’implementazione delle attività incluse, Figura 5. Ogni sprint può essere considerato un progetto a sé in cui qualORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
27
28
Figura 4 Triangolo Waterfall (Iron) Vs Agile (quality driven), Rif. [8]
Figura 5 Rif. [4] – approccio Agile in generale siasi modifica condiziona il risultato finale. I ridimensionamenti del team di solito non devono avvenire durante uno sprint ma nelle fasi finali. Le attività, che diventano obsolete durante l’esecuzione, devono essere rimosse dal deck di implementazione corrente, rivalutate o eliminate se non più necessarie, Rif. [9]. Ogni sprint inizia con un meeting iniziale in cui vengono stabilite le linee dettagliate di implementazione. Gli sprint terminano con un’analisi retrospettiva (retrospective) che consente ai membri del team di rivedere le fasi più importanti dell’esecuzione, evidenziare aspetti negativi e possibili soluzioni da implementare nelle successive esecuzioni. I retrospective rappresentano un buon modo per identificare regole e principi di base che potrebbero essere applicati a fasi o iterazioni successive per renderle più snelle ed efficienti (continuous improvement o Kaizen, Rif. [4]). Un quotidiano meeting di start up, in cui il team presenta una panoramica delle attività correnti e crea un registro dei problemi, completa i set di riunioni relative alla definizione ed esecuzione di ogni sprint. Al termine di una iterazione, si eseguono test e verifiche di completezza attività con il cliente per garantire che il team e
gli stakeholder siano d’accordo con la delivery appena completata. L’idea di mantenere un backlog attivo durante ogni sprint consente di ridurre gli sprechi durante la fase di esecuzione e di mantenere il team concentrato sulle attività correnti. In ogni sprint le attività dovrebbero essere completate o parcheggiate perché, avendo attività che non stanno avanzando, porta ad una cattiva allocazione delle risorse. È necessario promuovere il multitasking e la riassegnazione delle attività in base alle competenze di maggior valore aggiunto per accelerare la consegna. Il team di implementazione deve essere completamente dedicato all’esecuzione dei task a loro assegnati. Il lavoro extra o aggiuntivo (gold plating) non è richiesto e pertanto deve essere evitato, solo il minimo livello di qualità accettabile dal cliente deve essere implementato e garantito durante le fasi esecutive. Un monitoraggio costante di attività collaterali deve essere condotto dai project manager e dai riferimenti tecnici al fine di avere una migliore distribuzione del carico di lavoro ed evitare creep di attività causato dallo sviluppare task non attesi o concordati con il cliente. Tecniche di priorizzazione di backlog sulla base
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
della generazione di maggior valore aggiunto alla consegna o sulla precedenza di feature che richiedono maggiori tempi di implementazione, devono essere pianificate in anticipo come regole di base al fine di non creare situazioni di ambiguità durante la fase di esecuzione. MODIFICHE USANDO L’APPROCCIO AGILE L’approccio Agile può facilmente adattarsi al processo di feature delivery descritto in pre-
cedenza, esso può essere applicato alla totalità processo, partendo dalla definizione del concetto (in fase SC) sino al completamento della fase di consegna del nuovo network (in fase NR). Da notare come la metodologia Agile può essere adottata anche solo ad alcune delle fasi dell’intero processo ma, ovviamente, il metodo ha maggiore efficacia se tutta la linea di processo è allineata e permette l’implementazione in cascata di feature e ticket da una fase ad un’altra. In questa maniera, i differenti team
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
29
implementano le 4 fasi presentate in Figura 3 in modo sequenziale per ogni feature in modo individuale, ogni fase inizia quando lo stesso feature viene completata nella fase precedente. In questa maniera ogni fase può essere condotta in parallelo alle altre e non in sequenza, le feature possono quindi passare da SC a SD, da SD a SA e quindi da SA a NR senza attendere la chiusura ufficiale di ogni fase. La Figura 6 riporta una rappresentazione grafica del processo secondo l’approccio attuale, ogni feature elencata sull’asse verticale è implementata in un approccio tipo Waterfall da una fase all’altra a partire da SD a NR (SC è stato omesso per semplificare la visualizzazione). Come si può vedere, alcune funzionalità richiedono più di un’iterazione per essere completate e si vanno a parcheggiare in SD o SA in attesa che il primo NR sia reso disponibile. Secondo l’attuale stato dell’arte, queste fasi sono non modificabili e, se una funzione non viene completata nel periodo di tempo concordato, deve essere spostata in una successiva iterazione. Ciò implica che le feature, anche se complete, attendono il completamento del processo di consegna senza poter essere processate nella fase successiva.
30
Figura 6 Processo e durata implementazione delle feature
La Tabella 3 riassume alcuni importanti risultati. Ci sono alcune feature del processo che potrebbero essere completate in 16 giorni (6 in SD, 7 in SA, 3 in NR) ma richiedono 53 giorni in totale per essere pienamente implementate. La maggior parte di questo tempo (37 giorni) è tempo di attesa in cui la feature resta parcheggiata sino alla prima iterazione disponibile dopo il suo completamento. Utilizzando un approccio Agile alcune di queste funzionalità potrebbero essere implementate prima nel processo. Allo stesso modo, alcune funzionalità richiedono una lunga implementazione SD (su più di una iterazione) ma potrebbero essere implementate in pochi giorni quando queste funzionalità sono in SA o NR. Ancora una volta, un approccio Agile può accelerarne il completamento e la feature può essere consegnata prima del completamente dell’intera fase SD nell’architettura (fase SA). Come detto, l’obiettivo di poter completare una funzionalità in un tempo più flessibile e di consegnarla non appena disponibile alla fase successiva (test) rappresenta uno stato cruciale del processo. Una piena convalida del processo si verifica solo quando viene testata l’architettura, i potenziali problemi potrebbero essere evidenziati prima se i test avvenissero con maggior tempismo e, se necessario, potrebbero essere rielaborati. Un ulteriore miglioramento nella direzione di disporre di una soluzione più Agile in grado di consentire la consegna di funzionalità può essere quello di suddividere ciascuna feature in attività da implementare come sforzo combinato di ciascun team anziché come attività singola di un solo membro. La Figura 7 è un esempio di work load per una delle fasi del processo di feature delivery. Una struttura simile può essere adottata per il resto del processo rivalutando la lunghezza dello sprint, la complessità del ticket e le risorse presenti. Prima dell’inizio dell’attività in ogni sprint, è necessario predisporre alcune attività di setting dello sprint per consentire un processo di implementazione più armonizzato. In questa fase (pianificazione), la disponibilità delle risorse deve essere valutata parallelamen-
Tabella 3 tempi di implementazione media di risoluzione feature ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
te alle attività da realizzare in uno sprint. Una seconda parte della pianificazione è condotta con il supporto di un esperto tecnico (o Scrum master) ed è correlata alla valutazione della complessità delle caratteristiche, all’identificazione consegnabile e alla definizione delle priorità. Le attività di gestione del progetto a supporto della fase di esecuzione saranno la gestione del rischio e della qualità, il controllo dei costi e delle risorse. Completano le attività di project management il daily start-up, per allineare la squadra e la definizione degli obiettivi della giornata. Al termine della fase di esecuzione c’è la chiusura dell’interazione (retrospective) in cui vengono analizzati i risultati e viene effettuata una valu-
tazione della qualità per valutare gli aspetti tecnici dei risultati. Attività non complete devono essere trasferite allo sprint successivo. Se l’intero processo di feature delivery ha la stessa struttura, un ticket può essere messo in cascata lungo il processo da una fase all’altra seguendo la struttura riportata nella Figura 3. L’unico vincolo sarà quindi la sequenza temporale della rete che non può cambiare in relazione al programma specifico. D’altra parte, ciò non rappresenta un vero ostacolo fintanto che, quando una funzione (o un ticket) viene implementata in NR e viene completata, può essere parcheggiata in attesa che venga incluso nella prima consegna del nuovo network (NR) disponibile.
31
Figura 7 Processo di feature Delivery con metodologia Agile
Figura 8 Esempio di tool per monitoraggio attività ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
PROs
Tabella 4 PROs and CONs dell’utilizzo di tool di planning
• •
CONs
• •
Strumento di pianificazione che consente di gestire diversi progetti con diverso livello di complessità Semplici analisi delle attività (analisi del percorso critico) e facile loro priorizzazione Schematizzazioni delle attività possono sminuire la loro complessità (specialmente per l’approccio Agile) Sono necessari aggiornamenti costanti per mantenere il piano allineato alle attività
TOOLS Tools di supporto sono utilizzati in diverse fasi del progetto e variano a seconda delle fasi. Durante la fase di definizione, è necessario creare un piano di attività iniziale per avere una previ to al fine di controllare in dettaglio ogni sprint. I dati raccolti saranno utili per la gestione interna del team e delle parti interessate. PLANNING Prima di iniziare ogni fase, è necessario mettere in atto una previsione di attività e condurre un’allocazione delle risorse in base al volume di attività ed alle capacità delle risorse. In questo modo si ha la possibilità di identificare potenziali problemi relativi allo svolgimento di più task in parallelo o alla mancanza di risorse. Inoltre, le attività di pianificazione consentono di condividere informazioni sul progetto con altre parti rilevanti dell’azienda. Task e milestone sono traferiti in cascata ad altri team per fornir loro una previsione circa il completamento delle attività, armonizzare i task con quelli di altri
stakeholder e informare il management circa lo stato ed i costi di progetto. Alla fine delle attività inerenti ad un determinato processo di delivery, il team crea un archivio storico da utilizzare per le attività future (lesson learnt). Tool di gestione manageriale quali Primavera P6 o MS.Project vengono utilizzati in entrambe le metodologie Waterfall e Agile per prevedere le attività di progetto. L’utilizzo di tool di planning è da vedersi anche come punto di partenza per rivedere stato di avanzamento di progetto, previsione e gestione costi in generale. Le persone e le attività possono essere gestite anche in diversi progetti in base al tempo e ai costi ed alle loro capacità. Pertanto, le risorse potrebbero essere priorizzate in base alle richieste degli stakeholder. La Tabella 4 riassume alcuni degli aspetti positivi e negativi della pianificazione delle attività. MONITORAGGIO E CONTROLLO Il non avere uno scopo definito sin dalle prime fasi del progetto implica il dover applicare un livello più rigoroso di monitoraggio durante tutta la durata delle attività al fine di avere un buon
Figura 9 Monitoring tool for ticket implementation, Rif. [6] ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
33
Figura10 Burndown chart (Forecast vs actual status) e pie chart, Rif. [6]
Figura11 Dashboard per start-up meeting coinvolgimento del team e un regolare controllo degli avanzamenti. Ogni feature viene monitorata, utilizzando strumenti dedicati, in parallelo all’implementazione tecnica per valutare la progressione delle attività ed alleviare i potenziali rischi ed ostacoli che potrebbero crearsi. Il monitoraggio e controllo inizia dalle prime fasi di ogni iterazione con la stima della complessità di ogni ticket e relativa assegnazione di un tempo di esecuzione adeguato. Ogni attività può essere suddivisa in diversi task e ciascuno di essi può essere implementato da persone diverse (in sequenza o in parallelo) in base alle loro competenze. I tools di monitoraggio e controllo evidenziano le risorse assegnate ad un’attività specifica e il loro stato relativo in differenti momenti della iterazione, le risorse allocate si renderanno automaticamente disponibili per implementare task successivi quando l’attività viene completata o interrotta. L’uso di questo tool di controllo permette di mantenere un controllo e ridurre eventuali attività non contemplate nello
scopo dell’iterazione (scope creep) così come accordato dal cliente e dai vari stakeholder. Il carico di lavoro totale rispetto alla previsione viene essere mostrato in grafici (burn-down chart) mostranti le attività previste rispetto alla previsione. Utilizzando questo strumento è possibile valutare le attività che sono state finalizzate in un determinato sprint e quindi identificare se stanno procedendo come previsto o se devono essere riprogrammate, Rif. [6]. In maniera analoga si possono utilizzare pie-chart per riportare lo stato complessivo delle attività e i vari stati dei ticket in un preciso momento dell’iterazione. L’uso di dashboard di riassunto è da considerarsi un ulteriore complemento utile per sintetizzare lo stato delle attività e per le comunicazioni con il management. CONCLUSIONI Dal momento che alcuni settori di industrie operanti in settori meccanici, automotive e ae-
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
34
romotive sono stati trasformati in vere e proprie software house che devono supportare il controllo delle parti, tecniche di gestione alternative per soddisfare queste nuove esigenze e per accomodare queste nuove esigenze di mercato devono essere prese in considerazione. L’approccio Agile è sicuramente uno di questi. Tale metodologia è da considerarsi valida quando i requisiti richiedono modifiche durante l’esecuzione del progetto o quando non esiste una definizione completa ad inizio pianificazione. Essere flessibili (o agili) diventa più complesso quando i team iniziano a crescere, quando la definizione non può cambiare o se c’è una mancanza di comunicazione tra le parti interessate.
Dal punto di vista della convenienza economica, un approccio tipo Waterfall richiede costi inferiori in quei casi in cui la definizione può essere completata (o quasi) nelle fasi iniziali. In sistemi complessi si può considerare l’uso di una metodologia combinata, correttamente armonizzata, che porti ad ultimare un programma complesso richiedente l’implementazione di progetti aventi diversa natura ma uno stesso fine. Come esempio si consideri la realizzazione di un veicolo in cui elettronica, architettura di sistema e parti meccaniche devono venire armonizzate per assicurare un design di appeal ma anche una affidabilità degna di tale design e delle feature di controllo che esso contiene.
Referenze 1. 2. 3. 4. 5. 6. 7. 8. 9.
Murray Robinson, Agile Technology Delivery Process, March 23, 2010 www.startnearshoring.com/knowledge/it-project-management-a-quick-guide-to-tools-and-methodologies/ F. Turkley, Prince 2 Foundation training manual, 2017 hub.packtpub.com/9-reasons-to-choose-agile-methodology-for-mobile-app-development T. Linchpin, A Beginner’s Guide To The Agile Method & Scrums 2019 www.atlassian.com/agile/tutorials J. Highsmith, Agile project management: creating innovating products 2nd Ed., 10 Jul 2009 www.visual-paradigm.com/scrum/classical-vs-agile-project-management M. Cohn, Agile estimating and planning, 1 Nov 2005
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
a cura di Ing. F. Testaguzza
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
LA MONOROTAIA EUR AEROPORTO FIUMICINO PORTI FIUMICINO - OSTIA LIDO Nel nostro Studio, abbiamo pensato questo percorso immaginandoci di soddisfare le esigenze di un ipotetico viaggiatore che viene a Roma per un Convegno, arrivando all’Aeroporto di Fiumicino dove, immaginiamo debba trovare, ben indicata, la possibilità di avere un mezzo diretto che lo porti nel cuore di Roma per capire che è arrivato in una città millenaria che tutto il mondo conosce. Noi, abbiamo pensato, che potrebbe farlo salendo su una Monorotaia che dall’Aeroporto lo colleghi al Centro Convegni dell’EUR (la Nuvola di Fuksas) con un percorso che, seguendo il Tevere, possa godere del paesaggio e qualcuna delle straordinarie qualità di questa città che, magari ha già visto in precedenza su internet o su altri mezzi più tradizionali, come riviste ecc. ecc.
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
Le motivazioni e l’idea Questo tracciato per una Monorotaia, bidirezionale e appoggiata su travi che corrono, mediamente, 5 m dal suolo, è stato pensato in coerenza con il sistema di riferimento territoriale vigente, governato dal PRG del Comune di Roma, approvato il 12/02/2008, dal PTPG della Provincia di Roma, approvato l’12/02/2010, al PTPR approvato dalla Regione Lazio il 12/02/10, al Piano di Gestione dell’area protetta nazionale, meglio nota come Riserva Naturale Statale del Litorale Romano (istituita D.M. 29/03/1996), al Piano Stralcio di Sicurezza n° 5 dell’Autorità di Bacino del Tevere, approvato il 19/05/2009 e aggiornato con il Decreto n. 58/2016, ed infine, al Strategico sulla Mobilità Sostenibile, recentemente adottato dal Comune di Roma con un’importante e partecipata conferenza cittadina, quale naturale implementazione di uno dei buchi più evidenti e gravi del PRG vigente, vale a dire quello della mobilità pubblica e privata della città. Come evidenziato molto bene nella Conferenza sulla Mobilità Sostenibile Municipale, Roma deve realizzare un’intermodalità diffusa fra i vari sistemi di trasporto se vuole recuperare il ritardo accumulato nei confronti delle principali città, suoi competitor nel mondo, e questo non può essere realizzato in modo efficiente pensando ancora e solo alla realizzazione di infrastrutture tradizionali, tipo Metro A, B e C, ma a soluzioni innovative, vale a dire capaci di far fare alla mobilità di Roma un grande salto tecnologico che consenta, non solo di recuperare il ritardo accumulato, ma di porsi all’avanguardia per quantità, qualità dei servizi offerti al cittadino e/o al turista.
E’ con queste motivazioni e ragionamenti che abbiamo pensato da tempo alla monorotaia come un sistema semplice, flessibile, efficace e poco costoso per realizzare non solo per un collegamento veloce e ad alto valore turistico di Roma con il suo Aeroporto e i suoi Porti ed anche per quella mobilità trasversale, nord sud sul Litorale Romano, perché questo è il vero tallone di Achille per quanti vogliono lavorare tra Fiumicino ed Ostia e Acilia, in quanto esistono ancora solo due attraversamenti del Tevere, a circa 25 Km l’uno dall’altro ed un nuovo previsto dal PRG, appena approvato, che ne ha previsto solo uno a meta di questa distanza, all’altezza di Acilia e questo in una città che assomma ormai circa 300.000 residenti (la seconda città del Lazio che sarebbe poi fra le prime dieci in Italia). Va considerato che quanto sopra indicato accade in un territorio che abbraccia le foci del Tevere ed è da sempre la porta naturale di una città come Roma con tutto il mondo, così come lo è sempre stata nella sua storia millenaria, basti pensare al complesso portuale dell’antico Porto di Roma che con i suoi 130 ettari di bacino, fu il più importante porto del Mediterraneo per almeno 4/5 secoli e come, sempre questo territorio, continui ancora ad esserlo con la realizzazione dell’Aeroporto di Fiumicino, recentemente riconfermato dal Ns. Governo, come il più importante Hub internazionale italiano che dovrà crescere dagli attuali 50 milioni di passeggeri/anno ai 90 milioni nel corso dei prossimi 30 anni. Non a caso la nostra classe dirigente ha deciso di mettere a profitto tutta questa attrazione culturale che genera Roma da secoli e che produ-
ce una mole di visitatori sempre in crescita che sempre più spesso scelgono Roma anche per fare incontri culturali e di lavoro. A questa forma di turismo il Comune ha pensato quando ha deciso di creare all’EUR il più importante palazzo dei congressi d’Europa e va da se che per funzionare bene ed essere un motore di economia per la città, esso deve essere capace di offrire servizi di grande qualità, in particolare con l’Aeroporto e il nuovo Porto di Fiumicino, realizzando collegamenti tanto efficienti, quanto spettacolari, proprio per far ritornare Roma a pensare a livello internazionale, così come già fecero i nostri antichi predecessori, per una Roma aperta al mondo in quanto capace di collegarsi ad esso via mare, via terra ed anche con gli aerei. Solo se Roma sarà capace di realizzare nel prossimo decennio questi obiettivi, allora potrà tornare ad essere quel naturale centro del Mediterraneo come lo è stata per secoli, proprio per le sue capacità non solo militari, ma anche culturali, economiche e sociali che l’anno resa finora immortale nel panorama mondiale ed è nostro dovere, come cittadini del mondo e come romani del 21° secolo, continuare e migliorare questo primato che tutti, giustamente, ci invidiano. Partendo da queste motivazioni, abbiamo individuato come strategica, per la capitale e per il territorio interessato, la realizzazione, su monorotaia, del collegamento veloce EUR – nuova Fiera di Roma – Aeroporto di Fiumicino – la nuova portualità di Fiumicino, fino alla metro B di Ostia Lido, convinti che essa, una volta realizzata possa dare un concreto contributo a quella intermodalità dei sistemi di trasporto di Roma, forse unica al mondo, con ricadute economiche
sullo sviluppo della nostra città oggi impensabili se si vogliono cogliere le possibilità assai concrete ed importanti che già oggi si intravedono.
Il percorso (verificato a scala 1.10.000) Se accettiamo quest’impostazione, ed osservando la Tavola n° 01 che descrive il percorso in scala 1 : 10.000, iniziamo il Ns. viaggio dalla Stazione Metro B - Eur Fermi, immaginando di percorrerla a piedi. Il percorso inizia con la realizzazione, in quel sito, di una splendida stazione intermodale per poi proseguire con l’attraversamento in galleria, dopo aver curvato a sinistra verso ovest. Subito fuori dal tunnel, la Mono inizia il suo percorso su piloni e travi, mediamente alto 5 m dal terreno, deviando a destra e passando sopra l’attuale deposito ferroviario della Magliana che, potrebbe servire anche alla Mono come deposito e manutenzione. Da quel punto è previsto subito l’attraversamento della viabilità stradale, rappresentato in quel punto dall’autostrada Via del Mare, dalla statale Via Ostiense e della Ferrovia Roma - Lido ed infine dal collettore sinistro principale fognario di Roma che una volta scaricava nel Tevere a Vitinia, mentre oggi scarica nel Depuratore di Roma sud, mediamente 6 - 8 mc/sec. Tutte queste infrastrutture corrono parallele fra loro in quel punto e la soluzione su piloni a 5 m da terra e con interasse medio di 25/30 m ci sembra adeguata a superare questo nodo viario senza particolari difficoltà. Una volta superato il tracciato si attesta nello spazio, mediamente di circa 10 m, che esiste
40
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
con l’argine del Tevere e la Via del Mare, realizzando così una prima vista, sulla sinistra, del ponte della Magliana della valle del Tevere che lascia la città, fino ad arrivare ad un altro nodo importante, quello con la stazione di Tor di Valle (ferrovia Roma – Lido) – dell’Ippodromo omonimo e/o il nuovo quartiere Torrino (vedi Tav. n° 02). Da quel punto si procede lasciando sulla destra il grande Depuratore e attraversando il Tevere con un ponte che immaginiamo in acciaio alto e snello, in modo tale da superare il fiume e appoggiare i piloni, praticamente, sugli argini avendo cura in questo modo di non diminuire la sezione idraulica del Tevere che in quel punto non è molto grande, se teniamo conto che esso ha un corso di circa 90 – 100 m. (vedi Tav. n° 2). Superato il fiume deviamo di fronte al Business District della Magliana, dove si potrebbe pensare ad una fermata e ad un sistema di collegamento veloce con la stazione Magliana del Treno FM1 (treno tradizionale che collega Termini con l’Aeroporto), realizzando un altro punto d’intermodalità fra sistemi di trasporto diversi. Camminando a destra della viabilità presente, l’autostrada Roma Fiumicino, si devia poi a sinistra verso il Tevere (vedi Tav. n° 3) superando il Grande Raccordo Anulare di Roma e andando poi a lambire la vecchia ansa del Tevere, eliminata da Mussolini nel 1934 per realizzare il “drizzagno di Spinaceto” (ideata per la realizzazione di una stazione per gli idrovolanti, considerata allora troppo lontana per la città da quella di Ostia sulla foce di Fiumara, chiamata appunto Idroscalo). Un punto dove sarebbe interessante realizzare una stazione per dare una intermodalità con il GRA e per il Centro Golf Parco De Medici, completo di alberghi ecc. ecc.. Da questo punto, il tracciato della Mono si avvicina all’argine del Tevere e lo segue fino alla foce del Fosso di Galeria, (vedi Tav. n° 4 e 5), rinunciando a seguire l’asse viario dell’autostrada Roma – Fiumicino per valorizzare, con la Monorotaia, lo spettacolo della naturalità Tevere in quel punto che, invitiamo tutti a verificare. Dopo aver superato il Fosso di Galeria il tracciato si mette al centro della viabilità principale che divide la Nuova Fiera di Roma da Commerce City, dove ci sarà la Stazione Fiera (vedi Tav. 06 e 07), in quanto questo punto rappresenta un polo commerciale e turistico di livello europeo ed internazionale, nel quale si susseguono, settimanalmente, manifestazioni che andranno sempre in aumento con il varo della nuova darsena portuale lungo l’adiacente Tevere che permetterà all’importante industria nautica romana di competere, finalmente, ad armi pari con quella degli altri competitors internazionali. Il tracciato devia poi verso sinistra, (vedi Tav. n. 7) per procedere parallelamente alla vecchia statale Via Portuense, passando tangenzialmen-
41
42
te al Centro Servizi Leonardo dove è prevista la Stazione omonima), che, oltre a 5.000 residenti, ospita un’area di servizi di livello Metropolitano, come una delle sale cinematografiche più grandi d’Italia e tanti altri punti commerciali di grande richiamo anche interregionale, (vedi Tav. n° 8). Usciti dal Centro Leonardo, il tracciato devia verso sinistra per accostarsi alla vecchia ferrovia FM1 andando a lambire il futuro Centro visite dell’area archeologica dei porti di Claudio e Traiano, per poi deviare a sinistra verso il vicino Aeroporto, superando la ferrovia e l’autostrada Roma – Aeroporto di Fiumicino (vedi Tav. n° 9). Entrando nella sede aeroportuale si è pensato di passare nel viale che collega i principali hangar della manutenzione Alitalia, per un’eventuale fermata, e per arrivare dritti all’aerostazione e per creare a Stazione Aeroporto in testata con la FM1 (camminando sempre in sopraelevata e al livello primo piano, vale a dire quello delle partenze, ritenendo meno adatta la scelta del piano Terra (zona arrivi) per il fatto che la mono rappresenta sempre una barriera architettonica da evitare per non limitare la libera circolazione dei passeggeri in transito), (vedi Tav. n° 10). L’uscita della mono dall’area aeroportuale è prevista, sempre in quota,parallela ed esterna alla viabilità automobilistica, al fine di realizzare un attraversamento del suggestivo bacino dell’antico Porto di Roma che in quel punto, se oppor-
tunamente indicato, appare in tutta la sua grandezza di circa 100 ettari (vedi Tav. n° 10) per poi puntare dritti a destra verso il nuovo porto commerciale di Fiumicino. Da questo punto il percorso prosegue al centro via della Foce Micina per deviare a sud verso il costruendo Porto commerciale di Fiumicino Nord, dove si potrà realizzare una stazione degna della storia dei luoghi e subito dopo un ponte che permetta di superare, in modo spettacolare, il ramo di Fiumicino del Tevere (vedi Tav. 11). Un ponte agile e snello che permetterà oltre alla vista dei porti anche la città di Fiumicino, la vista del mare Tirreno che, soprattutto al tramonto, permetterà delle visioni straordinarie che hanno già suggestionato numerosi artisti locali ed internazionali. Il percorso procede poi fino al Porto Turistico di Fiumara che con i suoi 1600 posti barca, si avvia a diventare uno dei più importanti porti da diporto del Mediterraneo, (vedi Tav. n° 12). Da questo punto si è pensato di realizzare un’opera straordinaria, un tunnel di 1 Km sotto la foce del Tevere, per non disturbare la naturalità la foce di Fiumara, finora notevolmente violentata dai residenti per renderla praticabile come imboccatura, provocando così l’erosione in tutto il Litorale Romano. Fiumara anziché essere la più importante foce del Tevere è, da 40 anni, un’imboccatura portuale del grande porto fluviale di Fiumara che con le sue attuali 5.00 bar-
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
che all’attracco è il più grande porto turistico del Mediterraneo (vedi tav. n° 12 e 13). (Gli autori hanno scelto questa soluzione di passare sotto il Tevere, anziché pensare al tradizionale Ponte, non solo per dare una risposta concreta ai problemi naturalistici e ambientali della foce naturale del Tevere, ma e soprattutto, per il fatto che il Ponte impedirebbe la navigazione del fiume fino a Roma. Una possibilità che il romano del terzo millennio deve conservare, così come non è mai accaduto nella storia millenaria di questo territorio, arrivando a prevedere d’interrompere la Mono al Porto Turistico, rinviando la sua realizzazione a tempi migliori). Il tracciato una volta riemerso dal tunnel, mediamente 20 m sotto il livello del fiume, si incammina poi al centro di uno dei più bei assi viari di Ostia Lido, perché dotato di un ampio spartitraffico di 30 m. (via delle Isole del Capo Verde) che va ad intercettare la Roma Lido per poi terminare il suo percorso, realizzando un altro punto di scambio con al Metro Roma Ostia, (vedi Tav. n° 14) e una stazione terminale. A tal fine, non va escluso il suo prolungamento fino al grande Viale Corrado del Greco, per dare il servizio alla città di Ostia e avere più spazio di manovra. Un tracciato sopra descritto di circa 30 Km permetterebbe il collegamento Roma con le sue infrastrutture portuali ed aeroportuali e di dare anche alle popolazioni locali un mezzo di mobilità pubblica sostenibile, moderno ed efficace
che permetterebbe a Roma ed anche al territorio di Ostia, Acilia e Fiumicino di fare quel salto di qualità nel mondo internazionale, degno della sua storia e della sua civiltà millenaria. Nel concludere questo sforzo di creatività progettuale, non possiamo non evidenziare, come ingegneri, i costi necessari per la sua realizzazione, calcolati, certamente, per il livello di progettazione di prefattibilità, quello quale qui indicato, ma desunti da confronti con sistemi già in esercizio e facendo tutti gli opportuni confronti tecnici che danno un valore medio per una Monorotaia sospesa su piloni e travi di 28,8 M€/km, vale a dire un costo complessivo che arriva a circa 900 Milioni di Euro. Un valore che, come indicava un nostro indimenticato maestro (Antonio Cederna), equivale a meno di due Km di una Metro tradizionale. Questo è il costo che il nostro Stato sta spendendo e spenderà per realizzare la nuova Metro C che usa ormai una tecnologia obsoleta che genera costi elevatissimi e sempre meno competitivi (40.000 pp. rispetto ai 15.000 pp. di una moderna Monorotaia come quella pensata e possibile in questa memoria). Si ringraziano colleghi Antonio Alei, Alberto Di Stazio, Giuseppe Marchiori e Paolo Ercolani, per la loro cordiale collaborazione. Segue planimetria del percorso sopra descritto.
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
43
44
45
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
46
LA SICUREZZA E LA RESILIENZA NELLE INFRASTRUTTUREDI RETE VERSO IL 5G: PERIMETRO CYBER & DATA PROTECTION
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
Quaderno 47
a cura di Ing. G. Gasbarrone
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
5G – Architetture
48
Le nuove opportunità di business saranno legate allo sviluppo delle nuove infrastrutture di rete 5G che si basano sulle architetture Software Defined Network, mentre le nuove interfaccia Radio in prospettiva integreranno le tecnologie di Software Defined Radio e Cognitive Radio che possono contribuire ad una maggiore efficienza nell’utilizzo dello spettro. Lo slicing di rete nel 5G sfrutta la virtualizzazione dell’infrastruttura e rappresenta una modalità di erogazione dei servizi abilitando modelli di business che si differenziano sulla base dei servizi e verticalizzazione per mercati oltre ad offrire un’ulteriore opportunità per la sicurezza se gestito correttamente. Il network slicing è la capacità di poter configurare reti per diverse categorie o gruppi di clienti attivando il funzionamento simultaneo di reti virtuali / logiche per supportare operatività aziendali indipendenti (ad esempio con scenari specifici di casi d’uso verticali nel trasporto, nella sanità o pubblica sicurezza) utilizzando una infrastruttura fisica comune. Il network slicing è una componente di architettura di rete fondamentale nel 5G. La suddivisione in rete E2E sfrutta le network capabilities della tecnologia di virtualizzazione centrale nel 5G per affrontare in modo flessibile un’ampia varietà di casi d’uso con requisiti diversi. Tuttavia, lo slicing di rete solleva una serie di problemi di sicurezza, dall’isolamento della porzione di rete (slice) simultaneo accesso alle sezioni da parte di un singolo utente, che richiede l’indirizzamento. Le porzioni di rete 5G devono essere pertanto adeguatamente protette per le diverse use case previsti. Questa nuova architettura che presenta innegabili vantaggi introduce nuovi tipi di minacce alla sicurezza poiché crea una superficie d’attacco aumentata. ENISA ha pubblicato una serie di documenti che evidenziano i rischi e le criticità legati alla implementazione della rete 5G. Grande rilievo viene dato agli standard che supportano la certificazione delle componenti infrastrutture 5G. Evoluzione del 5G per gli aspetti di sicurezza della rete La rete 5G è pensata per i nuovi scenari di cyber security offrendo resilienza e mitigando i tentativi di violazione della infrastruttura di telecomunicazione mobile. Il 5G non è pertanto di per sé un problema per la cyber security ma contribuisce ad arginare il problema con le nuove soluzioni architetturali verticali per gli scenari IOT, Smart Factory, etc. 5G è la prima architettura mobile progettata per supportare più casi d’uso specifici, ognuno con il proprio requisiti peculiari ed esclusivi di sicurezza informatica. Ad esempio, il 5G abiliterà
Massive Internet of Things (MIoT) applicazioni come sensori di traffico e servizi da veicolo a infrastruttura (V2I) che sono alla base delle città intelligenti. È fondamentale che gli hacker non possano accedere a tali dati, dirottare i dispositivi IoT o interrompere i servizi con attacchi DDoS (Distributed Denial of Service). La resilienza del sistema 5G agli attacchi informatici è realizzata attraverso una varietà di funzioni complementari. Innanzitutto, l’accesso al 5G NR (new radio) è stato sviluppato pensando a molti “use case” e predisposto per funzionalità che supportano la sicurezza, e alcuni di questi sono stati raccolti in una classe sotto il termine comunicazioni ultra-affidabili a bassa latenza (URLLC). Le funzionalità fornite da 5G NR per casi d’uso di questa classe sono ideali per il controllo industriale, l’infrastruttura critica e le applicazioni di pubblica sicurezza. Le reti 5G sostituiranno nella loro evoluzione i
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
49
meccanismi di sicurezza già in campo con misure di sicurezza dinamiche che vengono implementate dai sistemi basati sull’intelligenza artificiale per rispondere a una nuova generazione di attacchi “zero day” su più livelli. Le strategie di protezione delle Reti 5G si inquadrano in una serie di controlli di visibilità di tutti gli elementi in real time, con rilevamento delle intrusioni e mitigazione per rendere una superficie di attacco più gestibile applicando tecniche di intelligenza artificiale. L’introduzione della sofisticata suddivisione in sotto reti nel 5G (network slicing) espande potenzialmente anche la superficie di attacco attraverso la quale è possibile effettuare attacchi DDOS ed introdurre malware nelle piattaforme del cliente. Tuttavia, le nuove protezioni 5G isolano queste sezioni attraverso più livelli della rete e forniscono sicurezza end-to-end attraverso un frame work di autenticazione comune.
Uno sguardo alle attività di standardizzazione a livello mondiale per il 5G e cyber security Sul versante sicurezza 5G sono stati pubblicati diversi rapporti tra cui: ENISA - Signalling Security in Telecom SS7/Diameter/5G-: EU level assessment of the current situation GSMA -Mobile Telecommunications Security Threat Landscape January 2019 Questi rapporti riportano analisi e raccomandazioni per limitare i rischi e sono suggerite strategie e soluzioni ma non sono individuate risposte per casi specifici come applicazioni nei mercati verticali. Il vero lavoro sulla cyber security per il 5G viene svolto nei gruppi di standardizzazione già indicati, dove sono armonizzate soluzioni per evitare le minacce e rendere robuste e resilienti agli attacchi degli hacker i protocolli e le architetture 5G core e radio.
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
50
Tra questi si segnala ETSI, GSMA, 3GPPP e 5GPPP che hanno prodotto standard e raccomandazioni tra cui si segnala un importante rapporto sul 5G: • EU 5GPPP- Security Landscape -Produced by the 5G PPP Security WG • E T S I h tt p s : / / w w w. e t s i . o r g / eve n t s/1594-2019-05-gsma-mobile360-series-security-for-5g?jjj=1568915355534 • GSMA https://www.mobile360series.com/ security-for-5g/ Vanno sottolineati i miglioramenti nelle tecnologie 5G che sono stati pertanto sviluppati dai costruttori secondo le raccomandazioni di questi enti di standardizzazioni per affrontare le minac-
ce alla sicurezza informatica attuali ed emergenti nelle reti 5G. La sicurezza rimane pertanto un tema centrale nella commercializzazione delle reti 5G in tutto il mondo. Gli standard 3GPP 5G includono miglioramenti per crittografia, autenticazione, protezione dell’integrità, privacy e disponibilità della rete. Le innovazioni in 4G LTE creano una base per miglioramenti della sicurezza in 5G. Le misure di sicurezza dinamiche offrono una protezione aggiuntiva per lo slicing di rete e le tecnologie basate su AI. Il 3GPP (3rd Generation Partnership Project), l’organizzazione mondiale ha lavorato allo sviluppo
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
standardizzato di tutti i requisiti di sicurezza fondamentali che includono misure per la crittografia, l’autenticazione reciproca degli elementi di rete core e di accesso, la protezione dell’integrità, la privacy e la disponibilità della rete. Risulta così un frame work di autenticazione unificato che consente una mobilità senza soluzione di continuità tra le diverse tecnologie radio di accesso e di interconnessione tra gli elementi core. Particolare attenzione è stata posta nella protezione della privacy dell’utente per le informazioni sensibili che essendo potenzialmente vulnerabili potrebbero essere utilizzate per identificare e tracciare gli abbonati. Le reti 5G sostituiranno nella loro evoluzione i meccanismi di sicurezza già in campo
con misure di sicurezza dinamiche che vengono implementate dai sistemi basati sull’intelligenza artificiale per rispondere a una nuova generazione di attacchi “zero day” su più livelli. Le strategie di protezione delle Reti 5G si inquadrano in una serie di controlli di visibilità di tutti gli elementi in real time, con rilevamento delle intrusioni e mitigazione per rendere una superficie di attacco più gestibile applicando tecniche di intelligenza artificiale. L’introduzione della sofisticata suddivisione in sotto reti nel 5G (network slicing) espande potenzialmente anche la superficie di attacco attraverso la quale è possibile effettuare attacchi DDOS ed introdurre malware nelle piattaforme
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
51
52
del cliente. Tuttavia, le nuove protezioni 5G isolano queste sezioni attraverso più livelli della rete e forniscono sicurezza end-to-end attraverso un frame work di autenticazione comune. Questa suddivisione facilita inoltre l’implementazione personalizzabile delle funzioni sensibili alla sicurezza dell’accesso 5G NR, come la crittografia del piano utente, in una posizione centrale sicura, mantenendo le funzioni non sensibili alla sicurezza in posizioni distribuite meno sicure. Un operatore della Rete 5G grazie al network slicing può anche isolare i dispositivi IoT a bassa priorità su una porzione separata per garantire che questi non interferiscano con altri utenti in caso di problemi con dispositivi IoT mission critical o per servizi di public safety. Tuttavia, gli attacchi DDOS “multi vector” avvengono a vari livelli e interessano tutte le componenti architetturali secondo strategie precise che mirano a superare le difese saturandole per arrivare all’applicazione d’utente come ad esempio nella smart factory. Nella figura si esprime a livello concettuale la coesistenza degli attacchi “multi vector”. Cyber security & 5G nel 3GPP Un ruolo importante per gli aspetti di standardizzazione 5G cyber security è svolto dal 3GPP Sicurezza 3GPP 5G Il 3GPP nato per il 3G ad oggi è il fulcro della standardizzazione anche per il 5G Infatti, produce e mantiene le specifiche per gli standard 2G, 3G, 4G, 5G sia lato accesso sia lato core e per le architetture di servizio Un importante documento ETSI è disponibile sul sito all’indirizzo https://www.etsi.org/deliver/etsi_ts/133500_1335 99/133501/15.01.00_60/ts_133501v150100p.pdf I contributi forniti da parte del 5G PPP come input al 3GPP conferma quest’ultimo come unico Forum per gli standards mentre sempre di più i progetti e le piattaforme verticali sul 5G ricadono entro le attività e responsabilità del 5G PPP. Il contributo fornito dal 5GPPP al 3GPP ha visto nella fase 1 (2016-2017): Una decina di progetti per i verticali formulati nel 5G PPP Phase 1:210 dei “deliverables” 5GPPP sui 317 contributi totali come input al 3GPP (66%) Il contributo fornito dal 5GPPP al 3GPP ha visto nella fase 2 (2017-2019): “Phase 2 project: “facilitating a European- led contribution to 5G networks” Focus shifts verso le applicazioni verticali con la fase 2: crescente aumento dei contributi oltre il 77% verso il 3GPP. Lanciati 3 nuovi progetti per piattaforme test sui verticals da giugno 2019 per la fase 3
53
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
54
“La sicurezza e la resilienza nelle infrastrutture di Rete TLC verso il 5G Perimetro Cyber & Data Protection” CYBER SECURITY E ARTIFICIAL INTELLIGENCE: SFIDE E OPPORTUNITA’ PER LE PMI 28 /02/2020
Ing. Giovanni Gasbarrone https://it.linkedin.com/in/giovanni-gasbarrone-7b7244
Ing. G. Gasbarrone
55
Data fraud, cyber attacks, and critical information infrastructure breakdown flagged among 2019’s most significant causative risks.
il Report del World Economic Forum evidenzia che i rischi (valutati considerando l’analisi dell’impatto e la probabilità di accadimento) degli attacchi di Cyber Security sono paragonabili ad eventi come crisi finanziarie e conflitti fra Paesi.
Il World Economic Forum riconosce i Cyberattacks tra le minacce globali…
56
✓ Endorsement del Tech accord con la Paris Call, nell’Internet Governance Forum 2018. Ha ricevuto il sostegno di 51 stati, tutti i membri dell'UE, 90 gruppi senza scopo di lucro e 130 società private e università. ✓ La posizione delle aziende private USA , Europa e far east come il Giappone del Tech Accord sottolinea l’impegno per la sicurezza delle infrastrutture ICT.
✓ L’iniziativa coinvolge oltre 100 aziende ICT e pone come obiettivo la protezione degli utenti contro attacchi informatici, anche da organizzazioni governative. Partita con un accordo a Ginevra dell’industria IT e TLC. ✓ Cybersecurity Tech Accord, un’iniziativa che vede la partecipazione di numerose società di sicurezza di tutto il mondo (CA Technologies, Bitdefender, ESET, F-Secure, G Data, Panda, Trend Micro) e giganti dell’IT del calibro di Cisco, Dell, HP e Microsoft, giganti TELCO operators come BT, Orange , Telecom Italia, Telefonica, NTT.
Ing. G. Gasbarrone
57
21 Novembre 2019. EU emette il Threat Model del 5G a seguito di una analisi del rischio svolta in collaborazione con diversi stati membri. Tuttavia, diverse organizzazioni standard e forum sono attive nel definire l'architettura e per standardizzare i vari aspetti delle tecnologie 5G. Attività coordinamento sul 5G: comitati regionali EU: METIS and 5G-PPP China: IMT-2020 Korea: 5G Forum Japan: 5GMF USA: 5G Americas
Referenze istituzionali ed internazionali sul tema della Comunication Security
58
Ing. G. Gasbarrone
59
• At EU level, Member States should exchange information with each other and with the support of the Commission and the European Agency for Cybersecurity (ENISA), will complete a coordinated risk assessment by 1 October 2019. On that basis, Member States will agree on a set of mitigating measures that can be used at national level.
• At national level, each Member State should complete a national risk assessment of 5G network infrastructures by the end of June 2019. On this basis, Member States should update existing security requirements for network providers and include conditions for ensuring the security of public networks, especially when granting rights of use for radio frequencies in 5G bands. These measures should include reinforced obligations on suppliers and operators to ensure the security of the networks. The national risk assessments and measures should consider various risk factors, such as technical risks and risks linked to the behaviour of suppliers or operators, including those from third countries. National risk assessments will be a central element towards building a coordinated EU risk assessment.
Α common EU approach to the security of 5G networks
60
• The Recommendation will help Member States to implement these new instruments in a coherent manner when it comes to 5G security.
• Today's Recommendation will make use of the wide-range of instruments already in place or agreed to reinforce cooperation against cyber-attacks and enable the EU to act collectively in protecting its economy and society, including the first EU-wide legislation on cybersecurity (Directive on Security of Network and Information Systems), the Cybersecurity Act recently approved by the European Parliament, and the new telecoms rules.
Α common EU approach to the security of 5G networks
Ing. G. Gasbarrone
61
www.wwrf38.ch/tl_files/Themes/wwrf38/Docs/Programme_march24.pdf
Basic SDN architecture and layers
62
• Slicing Simplifies, we are implementing automatic network slicing service generation, maintenance, and termination for various services to reduce operating expenses through agile network O&M.
• Slicing Uses Cloud-RAN to reconstruct radio access to provide massive connections of multiple standards and implement on-demand deployment of RAN functions required by 5G.
• Slicing is provides logically independent network on a single network infrastructure to meet diversified service requirements and provides DC-based cloud architecture to support various application scenarios.
abilita nuovi modelli di business e si apre a nuovi operatori di rete e di servizio OTT
5G NetworkSlicing
Ing. G. Gasbarrone
63
64
Questa nuova architettura – che presenta innegabili vantaggi – introduce nuovi tipi di minacce alla sicurezza poiché crea una superficie d’attacco aumentata. Questo impatta sul perimetro di sicurezza nazionale. In caso di “rischio grave e imminente per la sicurezza nazionale connesso alla vulnerabilità di reti, sistemi e servizi”, l’art. 5 del Perimetro di Sicurezza Nazionale Cibernetica concede al Presidente del Consiglio dei Ministri il potere di disattivare, in modo parziale o totale, uno o più apparati o prodotti impiegati nelle reti e nei sistemi colpiti. Questo può riguardare porzioni di reti (ad es. Sottoreti slicing 5G, componenti reti IOT). Quindi un operatore della Rete può anche isolare i dispositivi IoT a bassa priorità su una porzione separata per garantire che questi non interferiscano con altri utenti in caso di problemi con dispositivi IoT mission critical o per servizi di public safety. Quindi le soluzioni infrastrutturali per gli “use case” relativi ai mercati verticali devono tener conto delle nuove “network capabilities” e sfruttare tutti i meccanismi che lo standard 5G mette in campo – non ultima la sua resilienza.
5G Network Resilience by design
Ing. G. Gasbarrone
65
66
• In particolare sono stati rilasciati documenti anche sul 5G per la Cyber security come contributi al 3GPP
• Importante in ambito europeo è il 5GPPP: 5G Infrastructure Public Private Partnership (5GPPP). Iniziativa tra la Commissione Europea e l’industria europea ICT. Il 5G PPP è impegnato a fornire soluzioni, architetture, tecnologie e standard per le infrastrutture di comunicazione 5G del prossimo decennio.
• A completamento degli organismi e associazioni che lavorano sulla implementazione e promozione del 5G ci sono: NGMN (Next Generation Mobile Network), GSMA (associazione operatori GSM), WWRF (Wireless World Research Forum), 5GPPP, 5GMF, 5GForum (5G Forum per la promozione) solo per citarne alcuni.
Organismi e Associazioni per la implementazione e promozione del 5G
Ing. G. Gasbarrone
67
• Focus shifts verso le applicazioni verticali con la fase 2 crescente aumento dei contributi oltre il 77% verso il 3GPP. Lanciati 3 nuovi progetti per piattaforme test sui verticals da giugno 2019 per la fase 3.
• I contributi forniti da parte del 5G PPP come imput al 3GPP conferma quest’ultimo come unico Forum per gli standards mentre sempre di più i progetti e le piattaforme verticali sul 5G ricadono entro le attività e responsabilità del 5G PPP. • Il contributo fornito dal 5GPPP al 3GPP ha visto nella fase 1 ( 2016-2017 ) : Una decina di progetti per i verticali formulati nel 5G PPP Phase 1 210 dei “deliverables” 5GPPP sui 317 contributi totali come input al 3GPP (66%). • Il contributo fornito dal 5GPPP al 3GPP ha visto nella fase 2 ( 2017-2019 ) : “Phase 2 project: “facilitating a European- led contribution to 5G networks”.
LIAISON TRA 5G PPP e 3GPP
68
3GPP - Sicurezza 3GPP 5G Il 3GPP nato per il 3G ad oggi è il fulcro della standardizzazione anche per il 5G Infatti produce e mantiene le specifiche per gli standard 2G, 3G, 4G, 5G sia lato accesso sia lato core e per le architetture di servizio. A dicembre 2017 sono state approvate le specifiche Non Standalone (aka. NSA) per la nuova radio 5G (NR), seguite a giugno 2018 dalle specifiche Standalone - completando la parte radio della 5G Fase 1 (Versione 15 di 3GPP). Il gruppo di lavoro sulla sicurezza 3GPP (SA3) è stato coinvolto sin dall'inizio del lavoro. Quindi parlare di assenza di sicurezza sulla rete 5G è inappropriato in quanto mano a mano che vengono implementate dai costruttori le release 15 e 16 del 5G e rilasciate agli operatori vengono rese disponibili in rete tutte le “network capabilities” e funzionalità per la sicurezza previste dagli standard.
Cyber security & 5G nel 3GPP Un ruolo importante per gli aspetti di standardizzazione 5G cyber security è svolto dal 3GPP
Ing. G. Gasbarrone
69
5G ECONOMICS
5G Business Modelling
70
• The structure of the economy as use cases will have varying relevance to different verticals.
5G success will not be tracked by simply counting connections, as was the case with previous generations of mobile broadband. The rate of enablement of 5G and impact on an economy will be determined by: • The evolution of technology supporting use cases; • The readiness of an economy to adopt use cases;
5G Economics
Ing. G. Gasbarrone
71
5G outlook : Economics
5G
72
https://rivista.ording.roma.it/5g-business-modelling/
Ing. G. Gasbarrone
73
5G Business Model Tool
74
Ing. G. Gasbarrone
75
• La digital transformation in atto nelle città e nei territori come volano del sistema produttivo è il motore dell’innovazione dei territori, delle città in particolare, ed è strettamente collegata alla sfida di Industria 4.0. • Le città, il modo vivere e lavorare come le smart working sono infatti driver di cambiamento – grazie alla trasformazione digitale – e sono in grado di sviluppare nuove economie, abilitando un approccio totalmente nuovo al lavoro, dove intere catene di produzione, dai fornitori alla logistica alla gestione del ciclo di vita del prodotto, sono strettamente connessi e integrati con le piattaforme trasversali delle applicazioni ed evoluzione delle infrastrutture TLC.
5G : L’impatto su smart factory e smart working determinerà una svolta nell’organizzazione del lavoro e quindi le relazioni industriali.
76
I prossimi use case, vedono quindi l’interazione con gli ologrammi nell’ambiente di lavoro in cui l’evoluzione dello smart working si attua con il 5G grazie alle sue caratteristiche di bassa latenza ed elevatissima banda attraverso la creazione di uno spazio per riunioni virtuali in cui l’avatar dell’organizzatore interagisce con quelli dei colleghi che sono in altri sedi, condividendo contenuti multimediali nei tavoli di lavoro 3D. Attualmente la collaborazione ai progetti e la condivisione di attività si attuano grazie alle piattaforme applicative in cloud di lavoro collaborativo a cui si accede con “device” mobili come tablet e PC. Quindi lo Smart Working in 5G rappresenta un vero salto di paradigma.
Sarà possibile effettuare chiamate olografiche sulla rete 5G e grazie ai visori disponibili per la realtà virtuale e aumentata con i smartphone 5G sarà possibile partecipare alle presentazioni 3D condividendole da tablet e smartphone. La realtà aumentata e la realtà virtuale sono le applicazioni che viaggeranno sulla rete 5G grazie alla maggiore larghezza di banda: una vera killer application.
Smart working: i nuovi work place
Ing. G. Gasbarrone
77
5G : servizi per il lavoro collaborativo
78
Rivista ordine ingegneri di Roma – Articoli recenti disponibili on line o https://rivista.ording.roma.it/5g-business-modelling/ o https://rivista.ording.roma.it/industry-4-0-come-la-digital-transformation-incide-nella-rivoluzione-industriale/ o http://rivista.ording.roma.it/digital-transformation/ o http://rivista.ording.roma.it/digital-transformation-2/ o https://rivista.ording.roma.it/cognitive-radio-e-software-defined-radio-per-le-reti-di- telecomunicazione/
5G cosa cambia per il mondo del lavoro https://www.agendadigitale.eu/infrastrutture/5g-cosa-cambia-per-il-mondo-del-lavoro/
• LO SCENARIO
25 Ott 2019 di Giovanni Gasbarrone
Cybersecurity a prova di 5G, così nasce la "resilience by design"
•LO SCENARIO
03 Mar 2020 di Giovanni Gasbarrone
Cybersecurity per IoT e 5G, il ruolo strategico degli standard
•INFRASTRUTTURE DIGITALI
22 Mag 2019
5G e Industria 4.0, il ruolo delle telco per la quarta rivoluzione industriale
Articoli pubblicati d’interesse sul 5G e Cybersecurity
Ing. G. Gasbarrone
79
Quaderno
a cura di Ing. D. Tomassini
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
81
THE ADVANTAGES OF INDUSTRY 4.0 IN AUTOMATIC INDUSTRIAL PLANTS ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
82
Figura 1 Example, Wired Industrial Plant
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
The subject of #industry4.0 is one of the increasingly important topics among industry competitors in the field of automatic industrial plant, but there seems to be no adequate awareness of its use among them. There is a lot of confusion on how to achieve the potential of #industry4.0 (i.e. the use of wireless, digital, big data technologies, and how they can make the fourth digital revolution), and on which degree these new technological vectors will produce, or not, real economic advantages. During 2019, an important national government institution, advanced a case study on automatic industrial printing systems, evaluating different connectivity choices, in order to improve automatic supervision of production processes. Over time, industrial plants, and the industrial automation sector, have undergone profound changes, especially, in the programmable logic controllers’ field (PLC).
The implementation of using PLC modules with different “sizes”, offered the possibility of creating scalable, and diversified “distributed” (Layered) and “no-distributed” (Not Layered) plant architectures. In the field of distributed architectures, it was possible to use PLCs more contained in size, memory and costs, for the main operative functions (i.e. data acquisition ones: position for axis control, rotation speed, current, voltage, etc.) and, after sending the collected information to a master PLC (with coordination, and decision-making capabilities), that performs the usual control rules for regulation. On the opposite side, in an architecture with a “no-distributed” logic, each PLC already has the measurement chain “embedded”. Therefore, the ability to: acquire the data, adapt and cleaning it, then record it, and provide for an autonomous regulation, coordinated with the other subsy-
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
83
84
Figura 2 Example, Web Based and Saas (Software as a Service) Industrial Plant stems of the same lay. This is certainly a more reliable, and faster solution, but more expensive than the previous one, because the tasks related to regulation, are already present at the “field” level. Industrial Communication Networks are based on a simplified Stack IP than ISO/OSI normal standards. In fact, Stack IP has been contracted: “Application, “Presentation”, and “Sessions” layers have been melted together in a singular layer. In case of “non-distributed” Industrial Architecture, instead, all the functions, present in the layer “Network”/ “Data-Link” have been migrated into the “Field” layer. In any case, in both the two solutions, we must consider the potential problems related to the
latency of communication in the different subsystems, but also, the time, and cost burden for realizing the wiring of the two different architectures: layered or not layered. The use of wireless modules, and the introduction of IoT-Nb or 5G would eliminate all the previously listed problems. Each PLC module, or “node” would be virtually connected to the different field subsystems giving the possibility of obtaining a complete wireless mesh of the network. The entire architecture of the plant would be virtualized, with the advantage that the reconfiguration of the plant, would be almost immediate (near real time), if needed, because it would be free from a physical connection. (In case of a mixed
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
85
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
86
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
87
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
88
architecture, partially wireless, and still depending on a physical connection, the Network Backhouling would privilege the physical path). With this virtualized system, the introduction of a new physical, or virtual plant node, in the architecture would become faster and easier, as well as its control, evaluation, and supervision. (“Network Discovery”). Naturally, this applies also to all the other nodes present in the virtualized architecture, always, having an updated network topology. “Hot Swap” is possible, and also, a programmed “out of service” would be eliminated or reduced. Furthermore, the limits of the reliability of the cable transmission system would be overcome by the wireless ones: an example, is the possibility to eliminate the connections redundancy used to overcome the temporary absence of signal caused by the tearing of the wiring, its breakage, or by the degradation of the signal because of the long distance between nodes in the industrial plant. The storage measurement function, a PLC module functional requirement, can be overcome thanks to the implementation of: first, an adequate sizing “Big Data”, which could receive, and store the measurements. Second, to the possibility of a “cloud-native” system, that for each network node, could detect, and store unusual measurement events, and last but not least, an adequate maintenance policy, such as
the #maintenancepredictive one. Current technologies allow high speeds, and significantly lower latencies than usual communication channels, making possible to overcome, for example, the action of anti-wind-up filters essential to mitigate delays in regulating the control loops. These are only a small, though substantial part, of the advantages that can be reached with the adoption of wireless systems in automatic industrial plant industry. In the era of #COVID-19, all the new means, suggested by #industry4.0, (like remote control systems), become indispensable, and far more appreciable due to the dramatic effects on society of anti-pandemic measures. More than ever, the most important industrial brands that deal with communication systems, TLC, IT, are working to spread these new systems all over Italy. Their goal is to create and assert a “new digital culture” in the country. These new wireless systems in #industry4.0 will provide the capacity to industrial automatic plants to better protect the security of digital infrastructures, but also would enhance their efficiency. As far as #COVID-19 pandemic problems are concerned, social distance in time of lockdown, and after, industry4.0 is a perfect mean for the security of people working in the industry field, and beyond.
Figura 3 Evolution of Line Manufacturing with Wireless Technology ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
89
Bibliografia Industry 4.0 – Come la Digital Transformation incide nella rivoluzione industrial https://rivista.ording.roma.it/industry-4-0-come-la-digital-transformation-incide-nella-rivoluzione-industriale/ Evoluzione delle infrastrutture Telco verso il 5G e industria 4.0 https://issuu.com/ordingroma/docs/qt3-66ok da pag 110 a pag 121 Materiale pubblicato relativo agli eventi su Industria 4.0 della nostra Commissione https://www.ording.roma.it/formazione/evento-formazione?IdEvento=1120 Programma https://old.ording.roma.it/archivio/ul3jrphckr4Digital_Transformation_Industry_4.0_e_Smart_Land_-_ ordine_ingegneri.pdf
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
LE RETI RADIOMOBILI E L’ESPOSIZIONE ELETTROMAGNETICA
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
Quaderno 91
a cura di Ing. F. Mazza
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
PROLOGO
92
L’uso del cellulare fa male o no alla salute? Ce lo chiediamo da più di vent’anni, nei quali ancora non si è riusciti a mettere tutti d’accordo, mentre le reti radiomobili sono evolute passando da 1G al 5G. Molti sono gli studi che hanno cercato di fare chiarezza e la conclusione della Organizzazione Mondiale della Sanità è che ad oggi non sono stati accertati effetti avversi sulla salute causati dall’uso del telefono cellulare. Ma per alcuni l’uso del cellulare esporrebbe il cervello a pericolose onde elettromagnetiche che sul lungo periodo aumenterebbero il rischio di ammalarsi di cancro. Con gli sviluppi tecnologici nelle telecomunicazioni e in ambito medico e industriale, l’esposizione ai campi elettromagnetici è diventata ubiquitaria. Ciò ha aumentato la preoccupazione per gli eventuali rischi per la salute associati a queste esposizioni. Pertanto, negli anni si è intensificata la ricerca su eventuali effetti nocivi di esposizioni prolungate ma di intensità inferiori
ai livelli raccomandati per la protezione da effetti nocivi accertati. Un ruolo chiave nell’ambito della valutazione degli effetti sanitari e della prevenzione dei rischi da esposizione ai campi elettromagnetici lo ha assunto l’Organizzazione Mondiale della Sanità (World Health Organization, WHO) operando su una armonizzazione internazionale dei livelli di esposizione a protezione della salute, raccomandando quelli dell’ICNIRP, come vedremo in seguito. Per quanto concerne, invece, i rischi per la salute da esposizione a radiofrequenze, l’Agenzia Internazionale per la Ricerca sul Cancro (International Agency for Research on Cancer, IARC), che è una agenzia specialistica del WHO, le ha classificate nel gruppo 2b dei “possibili cancerogeni per l’uomo”, cioè lo stesso che include il caffè e i sottaceti. Vuol dire in pratica che c’è qualche studio che mostra qualche indicazione di un aumento del rischio, che però potrebbe essere dovuta ad altri fattori, inclusi problemi su come sono stati condotti gli studi stessi. È attualmente in corso una revisione sistemati-
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
ca di tutti i rischi per la salute da esposizione a radiofrequenze, coordinata proprio dalla WHO. LO SCENARIO ATTUALE ED IL 5G Nelle settimane di emergenza da COVID-19, nelle quali si è registrato, in Italia e non solo, una impennata di traffico anche per il ricorso crescente dello smart working da parte delle aziende e delle attività di didattica online, il Governo, mediante Decreto, ha evidenziato nero su bianco la necessità di accelerare sui cantieri e sui lavori per la banda ultra-larga per ridurre il digital divide, anche mediante le tecnologie mobili, nelle aree più remote del Paese. Questa accelerazione ha riacceso il timore sui rischi per la salute da esposizione ai campi elettromagnetici. Nel contempo, la crescente costituzione di comitati e gruppi anti-5G (in maniera predominante sui Social Network) rischia, non solo di rallentare i lavori, ma addirittura di bloccarli, in particolare, a livello di piccoli territori, ossia proprio dove il 5G può fare la differenza. Proprio la UNCEM (Unione Nazionale Comuni Comunità Enti Montani) nell’ultimo trimestre del 2019, ri-
volgendosi ai sindaci dei 120 Comuni coinvolti nella attuazione del Piano nazionale 5G, ricordando loro che questa nuova rete possa costituire una opportunità di sviluppo anche per le aree interne e montane del Paese, richiamava la scienza e l’ultimo rapporto emesso dal nostro autorevole Istituto Superiore di Sanità per bloccare il divagare di nuovi timori sulla salute. Infatti, dal report “Esposizione a radiofrequenze e tumori: sintesi delle evidenze scientifiche” si legge che “In base alle evidenze epidemiologiche attuali, l’uso del cellulare non risulta associato all’incidenza di neoplasie nelle aree più esposte alle radiofrequenze durante le chiamate vocali”. Il report, raccogliendo, infatti, studi pubblicati nel periodo 1999-2017, non rileva incrementi di rischi di tumori maligni (glioma) o benigni (meningioma, neuroma acustico, tumori delle ghiandole salivari) in relazione all’uso prolungato dei telefoni mobili. Aggiunge, inoltre, che “Gli impianti per telecomunicazione sono aumentati nel tempo ma l’intensità dei segnali trasmessi è diminuita con il passaggio dai sistemi analogici a quelli digitali. Gli impianti Wi-Fi hanno basse potenze e cicli di
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
93
lavoro intermittenti cosicché, nelle case e nelle scuole, in cui sono presenti, danno luogo a livelli di radiofrequenze molto inferiori ai limiti ambientali vigenti”. Ancora, “La maggior parte della dose quotidiana di energia a radiofrequenze deriva dall’uso del cellulare. L’efficienza della rete condiziona positivamente l’esposizione degli utenti perché la potenza di emissione del telefonino durante l’uso è tanto minore quanto migliore è la copertura fornita dalla stazione radio base più vicina. Inoltre, la potenza media per chiamata di un cellulare connesso ad una rete 3G o 4G è 100-500 volte inferiore a quella di un dispositivo collegato ad una rete 2G. Ulteriori drastiche riduzioni della esposizione si ottengono con l’uso di auricolari o viva-voce. In modalità stand-by, il telefonino emette segnali di brevissima durata e ad intervalli, con un contributo trascurabile all’esposizione personale”. Infine, in relazione al 5G afferma “Al momento non è possibile prevedere i livelli ambientali di radiofrequenze associati allo sviluppo dell’Internet delle Cose (Internet of Thinks, IOT). Le emittenti aumenteranno, ma avranno potenze medie inferiori a quelle degli impianti attuali e la rapida variazione temporale dei segnali dovuta all’irradiazione indirizzabile verso l’utente comporterà una ulteriore riduzione dei livelli medi di campo nelle aree circostanti”. A nulla è servito anche l’intervento della Commissaria UE alla Salute Stella Kyriakidou per sgombrare il campo da dubbi e perplessità legati perlopiù alla diffusione di fake news e a campagne cavalcate da sedicenti esperti della materia. In risposta alla interrogazione dell’eurodeputato Klaus Buchner, la commissaria ha ribadito che “le bande di frequenza previste
94
Tabella 1
dal 5G sono coperte dalla Raccomandazione del Consiglio”, quella del 1999 (519/CE) e che l’esposizione ai campi elettromagnetici generati dalla nuova rete, essendo molto vicina a quella del 4G, risulta ben al di sotto dei rigorosi limiti raccomandati dal Consiglio. E ancora, non è servito a sopire le polemiche sui rischi per la salute connessi al 5G neanche la recente pubblicazione delle linee guida aggiornate della International Commission on Non-Ionizing Radiation Protection (ICNIRP), Organizzazione indipendente internazionale non governativa che fornisce consulenze scientifiche e linee guida sugli effetti sulla salute e sull’ambiente delle radiazioni non ionizzanti, per tutelare le persone e l’ambiente dai danni da esposizioni di questo tipo. Collabora ufficialmente con la WHO, come già anticipato. Ebbene, nel suo ultimo rapporto ha chiarito che non ci sono evidenze per ritenere la quinta generazione mobile una tecnologia “pericolosa” in quanto la maggior parte delle frequenze dedicate sono le medesime delle precedenti generazioni. Intanto, si continua a leggere di atti vandalici a carico di impianti di telefonia di nuova generazione o ordinanze comunali di sospensione delle autorizzazioni alla realizzazione di siffatti impianti “a titolo precauzionale”, facendo ravvisare un orizzonte burrascono per questa nuova tecnologia. ALCUNE DEFINIZIONI Al fine di poter comprendere gli effetti dell’esposizione ai campi elettromagnetici, è bene avere chiaro alcune definizioni e grandezze di misura. Lo spettro elettromagnetico (vedi tabella 1) include diversi tipi di radiazione, la cui natura fisica consiste nell’oscillazione spazio-temporale di un campo elettromagnetico a determinate frequenze (f) o lunghezze d’onda ( ). In particolare, le radiazioni a radiofrequenze, che rientrano nell’intervallo di frequenze tra 100 KHz e 300 GHz, sono definite radiazioni non-ionizzanti. Queste non sono in grado di trasportare quantità di energia (espressa in elettronvolt, eV) tale da rompere i legami atomici o molecolari. L’interazione con la materia avviene quindi in modo meno distruttivo rispetto a quello proprio delle radiazioni ionizzanti, quali i raggi X o i raggi . I campi elettromagnetici a radiofrequenze possono penetrare nel corpo (maggiore è la frequenza, minore è la profondità di penetrazione) e causare vibrazione di molecole elettricamente cariche. Ciò si traduce in attrito e quindi in produzione di calore. Il riscaldamento dei tessuti, funzione della quantità di energia assorbita nel tempo (potenza) e dei meccanismi fisiologici di dissipazione del calore, è l’unico effetto critico dell’esposizione, rilevante per la salute e la sicu-
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
rezza, scientificamente dimostrato ad oggi. Pertanto, sono stati definiti dei limiti di esposizione ai campi elettromagnetici con relazioni dose-risposta ben caratterizzate in termini qualitativi e quantitativi. Infatti, gli effetti deterministici, legati al superamento di un dato livello di esposizione, identificano un valore di soglia di esposizione, mentre gli effetti stocastici, la cui probabilità aumenta con la dose, identificano un livello accettabile di rischio. I limiti di esposizione sono calcolati applicando al livello critico di esposizione, ovvero quello che evidenzia un effetto nocivo, opportuni fattori di riduzione che tengano conto della inevitabile incertezza delle stime di rischio e della variabilità inter ed intra individuale nella risposta biologica all’esposizione. Il livello critico di esposizione è misurato mediante il “tasso di assorbimento specifico di energia” (Specific Absorption Rate, SAR), ovvero la potenza assorbita per unità di peso (espressa in W/kg). Il SAR è direttamente proporzionale alla densità di potenza superficiale (S) (espressa in W/m^2) del campo elettromagnetico nel punto in cui si trova la persona esposta. Riferendoci al modello di onde piane per rappresentare, con buona approssimazione, la propagazione dei campi elettromagnetici, segue che il campo elettrico (E) ed il campo magnetico (H), espressi in forma vettoriale, e la direzione di propagazione sono mutuamente ortogonali (vedi figura 1). La fase del campo elettrico (E) e del campo magnetico (H) è la stessa ed il rapporto delle ampiezze (E/H) è costante e pari a circa 377 ohm, nota come impedenza caratteristica del vuoto. L’intensità del campo elettrico (E) è espressa in V/m mentre l’intensità del campo magnetico (H) in A/m. La densità di potenza superficiale (S) è legata al campo elettrico (E) e magnetico (H) dalla seguente formula:
direttamente proporzionale alla radice quadrata della densità di potenza superficiale (S). Quindi, il SAR e la densità di potenza superficiale (S), sono legati al quadrato del campo elettrico (E). Infine, sebbene il livello critico di esposizione sia indipendente dalla banda di frequenza della radiazione, a causa di meccanismi di accoppiamento del campo elettromagnetico con il corpo umano, a parità di livello di campo esterno, l’assorbimento di energia da parte dei tessuti varia in funzione della frequenza.
95
Linee guida e normative Come già anticipato, la WHO raccomanda l’adozione di limiti basati sulle evidenze scientifiche e periodicamente aggiornati in funzione dell’evoluzione delle conoscenze, nonché redatti da organismi internazionali, come la ICNIRP. Questa, partendo dal livello critico di esposizione rilevato, corrispondente a SAR pari a 4 W/kg a corpo intero, ha applicato dei fattori di riduzione in via cautelativa, ottenendo i seguenti limiti di esposizione di riferimento per i “lavoratori” e la “popolazione in generale” (vedi tabella 2). I valori limiti a corpo intero sono 1/50 del rispettivo valore critico e corrisponde al fattore di riduzione applicato. Come abbiamo visto, per effetto delle relazioni della grandezza SAR con il campo elettrico (E) e magnetico (H), è possibile rappresentare i valori limiti di esposizione in funzione della frequenza (vedi figura 2). In materia di prevenzione dei rischi per la salute da esposizione a radiofrequenze, l’UE ha adottato gli standard ICNIRP sia per la popolazione
S=EH=E^2/377=377H^2
Tabella 2
I limiti di esposizione sono espressi come intensità del campo elettrico (E). Dalla suddetta formula, il campo elettrico (E) è
Figura 2
Figura 1
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
generale (Raccomandazione1999/519/CE), sia per i lavoratori (Direttiva 2013/35/UE). In Italia, la protezione della popolazione dalla esposizione ai campi elettromagnetici a radiofrequenza è garantita dal D.L 36 del 2001. Poi, con il DPCM del 08/07/2003, relativo ai campi elettromagnetici a frequenze comprese tra 100 kHz e 300 GHz, sono state recepite le linee guida ICNIRP per la maggior parte delle fonti a radiofrequenza ad esclusione delle sorgenti radiotelevisive e di telecomunicazioni. Pertanto, la normativa italiana ha definito nell’intervallo di frequenze 3 MHz – 3 GHz il limite di esposizione in 20 V/m, valore più restrittivo della ICNIRP. Inoltre, ha stabilito un valore di attenzione, ovvero il valore limite nelle aree a permanenza prolungata (> 4 h), come protezione da eventuali effetti a lungo termine (finora non emersi), e un obiettivo di qualità, da tenere in considerazione all’atto della progettazione ed installazione dei siti. Il valore di attenzione e l’obiettivo di qualità è fissato in 6 V/m. L’obiettivo di qualità fissa il suddetto valore limite anche in aree esterne densamente frequentate, come luoghi di aggregazione sociale o parchi gioco. Con il Decreto del 02 dicembre 2014 il governo italiano ha definito le modalità con cui eseguire le valutazioni di esposizione della popolazione ai campi elettromagnetici. Ovvero stabilisce che il valore di attenzione e l’obiettivo di qualità è da intendersi come valore limite mediato sulle 24 ore e non più su 6 minuti, rendendolo applicato, difatto, alle aree urbanizzate. Il valore di attenzione fissato di 6 V/m corrisponde a una densità di potenza superficiale di 0,1 W/m^2, ovvero un fattore 10 di riduzione rispetto al limite di esposizione di densità di potenza di 1 W/m^2, corrispondente ai 20 V/m di campo elettrico. La tabella 3 compara proprio i limiti di esposizione della linea guida ICNIRP e della normativa italiana per gamme di frequenza. La figura 3, infine, mostra i limiti di densità di potenza superficiale (S) e di campo elettrico (E) nell’intervallo di frequenze 2 – 3 GHz, adottati dai singoli paesi dell’UE.
96
Tabella 3
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
97
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
L’esposizione elettromagnetica Analizziamo ora le diverse sorgenti di campi a radiofrequenze che danno origine all’esposizione. Le applicazioni tecnologiche che fanno uso delle radiofrequenze sono molteplici: • le telecomunicazioni (trasmissioni radio-TV, radar, telefonia mobile e WiFi); • la medicina (ad es. la risonanza magnetica); • la produzione di calore ad uso domestico (forno a microonde); • la produzione di calore ad uso industriale (ad es. alcuni tipi di saldature). La popolazione in generale è esposta a due tipologie di sorgenti: • sorgenti fisse ambientali; • sorgenti da apparati ad uso personale. Le prime determinano una esposizione prolungata nel tempo e interessano tutto il corpo, le seconde una esposizione non continuativa nel tempo e interessano un’area localizzata del corpo. Gli impianti di telecomunicazione sono sorgenti fisse ambientali. Queste, per garantire la ricezione dei segnali da parte degli utenti del servizio, originano un livello di fondo del campo a radiofrequenze nella porzione di territorio interessata. L’intensità di campo elettrico emessa da questi impianti si riduce in modo inversamente
98
Figura 3
proporzionale alla distanza dalla sorgente ed ulteriormente all’interno degli edifici con fattori di riduzione che vanno da 1,4 (3 dB) a 10 (20 dB) a seconda dei materiali da costruzione utilizzati. Ma, abbiamo visto che, l’esposizione alle radiofrequenze non è determinata solo dall’intensità del segnale ma anche dalla sua frequenza. All’aumentare della frequenza si riduce la profondità di penetrazione del campo elettromagnetico nel corpo umano e, di conseguenza, l’assorbimento di energia elettromagnetica si limiterà ai tessuti più superficiali. Ad esempio, la profondità di penetrazione alle frequenze dei segnali radiofonici (88-108 MHz) è pari a circa 10 cm, mentre si riduce a valori dell’ordine di 1 cm alle frequenze utilizzate per la telefonia mobile (800-2500 MHz) e i sistemi WiFi (circa 1-5 GHz). Tornando alle diverse sorgenti fisse ambientali, mentre per la diffusione radiotelevisiva un solo sistema emittente irradia potenze elevate per poter coprire un territorio più vasto possibile contenendo così le interferenze da altri impianti, per la telefonia mobile non è così. Infatti, l’utente non è un ricevente passivo ma deve a sua volta poter comunicare con gli impianti fissi installati sul territorio. Da qui scaturisce la suddivisione del territorio in porzioni o “celle”. Con il crescere del numero di utenti, la dimensione delle celle è divenuta sempre più piccola. Infatti, in aree urbane, il raggio di copertura della cella può essere dell’ordine di 200-300 m, facendo sì che le potenze irradiate dagli impianti radiomobili non superino qualche decina di Watt. Ulteriore differenza tra queste due sorgenti fisse ambientali è che, mentre i segnali radiotelevisivi sono stabili nel tempo, quelli emessi dagli impianti radiomobili variano in funzione del traffico, ovvero del numero di utenti. Ciò dà luogo a variazioni nei livelli di campo elettromagnetico in ambiente, maggiori nei momenti di elevato traffico e minori in quelli di minore utilizzo della rete. Le linee guida illustrate sono applicate proprio alla progettazione anche delle stazioni radiomobili per proteggere dagli effetti della esposizione a radiofrequenze le persone che possano trovarsi nelle immediate vicinanze (ordine delle decine di metri), come ad esempio vicino a finestre, balconi, terrazzini calpestabili, ecc. Infatti, ricordiamo che la densità di potenza superficiale (S) del campo elettromagnetico nel punto in cui si trova la persona esposta, cala secondo il quadrato della distanza dalla stazione radiomobile. Si definisce volume di rispetto l’area, inviluppo dei lobi di irradiazione dell’antenna, all’esterno della quale sono rispettati i limiti (vedi figura 4). Dall’analisi dei diversi tipi di sorgenti fisse ambientali è scaturito che i livelli più elevati di campo elettromagnetico a radiofrequenze possono essere rilevati in aree interessate da siti radiotelevisivi. Tuttavia, poiché tali siti sono spesso ubicati
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
in aree extra-urbane, come sommità di colline o alture, l’esposizione a queste sorgenti impatta su una esigua frazione della popolazione. Per dare una indicazione dei livelli ambientali di radiofrequenze rilevati, riporto i risultati di una grande campagna di monitoraggio realizzata in Italia nel periodo 2002-2006 in 8000 siti. I livelli di radiofrequenze risultarono stabili sull’intero periodo con una media annuale di densità di potenza pari a 0,79 mW/ m^2 (0,54 V/m di campo elettrico). Il valore medio di densità di potenza nella banda di frequenza della telefonia mobile (933 MHz - 3 GHz) fu di 0,47 mW/m^2 (0,42 V/m di campo elettrico), ovvero circa 200 volte inferiore ai valori di attenzione di 0,1 W/m^2 (6 V/m di campo elettrico) previsti dalla normativa italiana e circa diecimila volte inferiore al valore minimo di 4,67 W/m^2 (42 V/m di campo elettrico) della linea guida ICNIRP in questa banda. Ma cosa ci dobbiamo aspettare in termini di esposizione quando avremo una copertura del nostro Paese da sorgenti fisse ambientali 5G? Applicando in fase di progettazione la normativa vigente, non ci aspetteremo sforamenti, ma dovremo tener conto della nuova modalità “user-centric” di irradiazione del campo elettromagnetico delle sorgenti fisse ambientali 5G. Le antenne dei sistemi 5G, infatti, sono dinamiche e irradiano potenza selettivamente grazie al “beam-forming”, ovvero indirizzano il fascio di radiazione emesso dalla stazione radio base verso l’utente (vedi figura 5). La direzione del fascio cambia dinamicamente con una granularità dell’ordine dei ms, dando ai lobi di trasmissione la forma e la direzione più opportuna per ottimizzare il collegamento verso l’utente o il gruppo di utenti, piuttosto che dell’area. Questa tecnologia aumenta l’efficienza di propagazione dei sistemi 5G e riduce l’inqui-
namento elettromagnetico nelle altre direzioni rispetto ai sistemi precedenti. La maggiore direttività del fascio di radiazione porta, però, ad una maggiore variabilità spaziale e temporale di esposizione da tali sistemi. Pertanto, come evidenzia anche il rapporto dell’ISS, al fine di valutare correttamente l’esposizione da sistemi 5G occorre considerare non solo i valori medi di campo elettromagnetico ma anche i valori massimi raggiunti per brevi periodi, inferiori al minuto. Tale aspetto richiede un adeguamento della normativa nazionale che, ad oggi, non considera esposizioni di breve durata ma solo continuative, con valori di campo elettromagnetico mediati sulle 24 ore. Inoltre, bisogna definire un fattore correttivo da applicare sulle potenze in antenna, in fase di rilevazione sul campo, che tenga conto che l’esposizione in un determinato punto dello spazio si ha solo in presenza di un utente che genera traffico o comunque funzione del numero di utenti, statisticamente coperti in quel punto. Cambia, quindi, il paradigma che è alla base del modello di esposizione passando da un approccio deterministico ad uno statistico, implementato su un insieme di dati sufficientemente ampio da garantire la consistenza del valore numerico del fattore correttivo sulla potenza da applicare.
99
Figura 4
Figura 5
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
100
In letteratura sono già presenti risultati di lavori sull’esposizione in prossimità di sistemi 5G basati su approcci statistici. A titolo di esempio, cito quello della International Electrotechnical Commission (IEC) pubblicato nello Standard IEC TR 62699/2019. Questo partendo da una stima teorica del livello medio di campo elettromagnetico sulla base della distribuzione statistica spaziale degli utenti nell’area di copertura dell’antenna, ha definito un grafico di radiazione inviluppo dei singoli contributi. Applicando, poi, un fattore di riduzione statistico che tenga conto della probabilità di essere esposti al fascio in una determinata posizione, ha ricavato il valore limite teorico previsto di esposizione. Intanto, anche la ICNIRP, nell’ultimo aggiornamento della propria linea guida, oltre a far rientrare nei limiti precedentemente definiti le onde millimetriche del 5G (banda 26,5-27,5 GHz), ha aggiunto delle restrizioni per esposizioni a corpo intero a frequenze superiori ai 6 GHz e per brevi esposizioni (< 6 min). In conclusione, considerando che la rete di quinta generazione adopera le stesse frequenze dei sistemi precedenti con l’aggiunta della banda 26,5-27,5 GHz che, per effetto della elevata attenuazione, dà luogo ad aree di copertura molto contenute (“small cells”) e tenendo conto dell’incremento dei siti dovuto alla riduzione della dimensione delle celle e all’efficienza di propagazione dei sistemi 5G, avremo una riduzione media delle potenze emesse. Purtroppo, abbiamo visto che la variabilità spaziale e temporale di esposizione introdotta dal 5G non ci consente, al momento, di fare una previsione sui livelli di campo elettromagnetico ambientale che avremo da questa copertura. Per completare la presentazione delle diverse sorgenti a cui siamo esposti, passiamo all’analisi delle sorgenti da apparati ad uso personale. Principalmente ci riferiremo all’uso del cellulare. L’esposizione a radiofrequenze associata a questa sorgente presenta caratteristiche peculiari: è episodica, discontinua e molto localizzata. L’esposizione è episodica in quanto ha luogo solo se il telefono cellulare viene utilizzato (in stand-by, il cellulare emette segnali di brevissima durata e ad intervalli). L’esposizione è discontinua, in quanto l’andamento della potenza del segnale trasmesso dal terminale varia in rapporto inverso al livello del segnale ricevuto e potrà subire notevoli variazioni in funzione della distanza dalla stazione radio base o della presenza di barriere tra l’utente e
la stazione radio base stessa. L’efficienza della copertura nonchè l’evoluzione tecnologica delle reti radiomobili hanno portato, pertanto, ad una drastica riduzione della esposizione dell’utente durante la connessione. Infine, l’esposizione è strettamente localizzata in quanto se durante la chiamata vocale il cellulare è appoggiato all’orecchio, l’assorbimento di energia da parte dei tessuti del corpo è confinata all’area della testa molto vicina alla sorgente (entro i 5 cm da questa). Si tenga conto che basta allontanare la sorgente di soli 30 cm per avere sensibili riduzioni degli effetti da esposizione che ricordiamo essere espresso dal SAR. CONCLUSIONI Il presente articolo ha raccolto le linee guida internazionali e le normative nazionali nonché numerosi contributi scientifici in fatto di esposizione ai campi a radiofrequenze. Ha analizzato le caratteristiche delle diverse sorgenti fisse ambientali e in particolare quelle del 5G, rilevando, in queste, che per la elevata variabilità spaziale e temporale del segnale trasmesso non ci è consentito di fare una previsione sul livello di esposizione indotto. Ha analizzato, quindi, le sorgenti da apparati ad uso personale (il cellulare, come attore principale) con le sue peculiarità. Inoltre, ha riportato anche i risultati di ricerche fatte dalla WHO sugli effetti da esposizione cumulativa in microambienti. Queste, pur rilevando valori di 0,5 - 1 V/m sui mezzi di trasporto, 0,3 - 0,7 V/m in ambiente esterno e 0,1 - 0,4 V/m nelle abitazioni, evidenziano che per fornire la misura di esposizione personale è necessario conoscere anche il tempo di permanenza in ognuno di questi microambienti. Altre ricerche, infatti, cambiando la prospettiva, ovvero riferendosi alla media pesata sul tempo dei contributi di specifiche fonti di esposizione, evidenziano che la sorgente ad uso personale rappresenta il contributo dominante non solo alla dose a radiofrequenze media giornaliera localizzata nella testa (94%) ma anche sull’intero corpo (91%). Pertanto, ritornando alla domanda con cui è iniziato il presente articolo e non volendo avere la presunzione di sentenziare sull’argomento, dagli elementi raccolti si localizza nel cellulare la principale sorgente di esposizione a radiofrequenze. Ma nel contempo si è anche dimostrato come i suoi effetti possano essere drasticamente ridotti con il suo distanziamento dal corpo durante l’uso.
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
101
Bibliografia • “Campi Elettromagnetici e Salute Pubblica” Promemoria OMS/304 del 17 maggio 2006. • “ICNIRP Guidelines for limiting exposure to time-varying electric, magnetic and electromagnetic field (up to 300 GHz)” published in 1998. • “ICNIRP Statement on the guidelines for limiting exposure to time-varying electric, magnetic and electromagnetic field (up to 300 GHz)” published in 2009. • “DPCM del 22/03/2020” in materia di accelerazione dei cantieri e dei lavori per la banda ultralarga. • “Risposta del Presidente UNCEM Bussone ai Sindaci dei 120 comuni sul Piano Nazionale 5G” Novembre 2019. • “Esposizione a radiofrequenze e tumori: sintesi delle evidenze scientifiche” rapporto ISTISAN 19/11. • “Raccomandazione 1999/519 del Consiglio Europeo” relativa alla limitazione dell’esposizione della popolazione ai campi elettromagnetici da 0 Hz a 300 GHz, del 12 luglio 1999. • “Direttiva 2013/35 del Parlamento Europeo” sulle disposizioni minime di sicurezza e di salute relative all’esposizione dei lavoratori ai rischi derivanti dagli agenti fisici (campi elettromagnetici), del 26 giugno 2013. • “D.L 36/2001”, Legge quadro sulla protezione dalle esposizioni a campi elettrici, magnetici ed elettromagnetici, del 22 febbraio 2001, GU n. 55 del 07-03-2001. • “DPCM del 08/07/2003” in materia di “Fissazione dei limiti di esposizione, dei valori di attenzione e degli obiettivi di qualità per la protezione della popolazione dalle esposizioni a campi elettrici, magnetici ed elettromagnetici generati a frequenze comprese tra 100 kHz e 300 GHz”, GU n.199 del 28-08-2003. • “The Italian national electromagnetic field monitoring network” di Troisi F, Boumis M, Grazioso P, Ann. Telecommun. del 2008. • “Determination of RF field strength, power density and SAR in the vicinity of radiocommunication base stations for the purpose of evaluating human exposure” IEC 62332 del 2017. • “Case studies supporting IEC 62232 - Determination of RF field strength, power density and SAR in the vicinity of radiocommunication base stations for the purpose of evaluating human exposure” IEC technical report 62669 del 2019. • “ICNIRP Guidelines for limiting exposure to electromagnetic field (100 kHz to 300 GHz)” published in 2020. • “5G Radiofrequency - RF EMF Background to mobile telecommunications technologies” ICNIRP web site 2020. • “Human exposure evaluation to mobile phone electromagnetic emissions” di D’Amore G, Anglesio L, Benedetto A, Mantovan M, Polese M. In: Atti del III Convegno Nazionale Interazioni tra Campi Elettromagnetici e Biosistemi, Napoli, 2-4 luglio 2014.
ORDINE DEGLI INGEGNERI DELLA PROVINCIA DI ROMA
https://rivista.ording.roma.it/civile/
https://rivista.ording.roma.it/industriale/
https://rivista.ording.roma.it/informazione/
https://rivista.ording.roma.it/intersettoriale/
Quaderno
È possibile consultare tutti i numeri all’indirizzo Internet ioroma.info
In copertina: Immagine di repertorio
Quaderno
In copertina: Immagine di repertorio
N 3/2020 Trimestrale Anno VII
Ordine degli Ingegneri della Provincia di Roma
Quaderno
N 3/2020 Trimestrale Anno VII
Ordine degli Ingegneri della Provincia di Roma Piazza della Repubblica, 59 - 00185 Roma www.ording.roma.it
Quaderno dell’Ordine degli Ingegneri della Provincia di Roma
RESINE - 5G - INDUSTRY 4.0 - MONOROTAIA
Ordine degli Ingegneri della Provincia di Roma
Quaderno
Ordine degli Ingegneri della Provincia di Roma Piazza della Repubblica, 59 - 00185 Roma www.ording.roma.it
Quaderno dell’Ordine degli Ingegneri della Provincia di Roma
RESINE - 5G - INDUSTRY 4.0 - MONOROTAIA