METHODO #3

Page 1



Proprietà OTTOLOBI editoria e comunicazione Via A.Caretta, 3 20131 - Milano t/f 02.36798297 www.ottolobi.it P.IVA 03559000983 N.REA: MI-2021527 Pubblicità t/f 02.36798297 info@ottolobi.it

2 Editoriale Le nostre Rubriche:

4 8 16 22 26

Metodi di sviluppo prodotto a cura di N.Lippi Metodi di produzione a cura di A.Viola L’intervista a cura di C.Ravaioli Project management a cura di A.Fischetti

settembre-ottobre 2014

44 54

LCA a cura di M.Granchi e R.Bozzo

59

Un libro in 10 minuti (management) a cura di P.Pirone

73

Qualità del servizio a cura di M.Galgano

66

Software a cura di S.Di Pietro Creatività a cura di D.Donati

Ecodesign e sostenibilità a cura di Collettivo NUUP®, sustainable creativity

78

REDAZIONALE Come trasformare la passione in emozioni intervista a Mario Manganelli Gli autori di METHODO

1

ET

34 39

Design Industriale a cura di G.Alito

Sommario


editoriale OPEN (TRUE) INNOVATION

METHODO

Non mi piace sentire parlare d’innovazione, non mi piace vedere istituzioni pubbliche o semipubbliche investire denaro in scatole vuote o in cui l’accesso avviene, quando va bene, per titoli. Non mi piace soprattutto un’innovazione aperta unicamente agli ingegneri — sto parlando anche contro di me — o a persone in generale che avendo studiato molti anni e solo per aver osservato prodotti e concetti del passato, debbano essere gli unici in grado di creare il futuro.

ET

2

Per fortuna credo che le cose stiano cambiando, la parola “open” derivante dalla web-democrazia si può mettere ormai davanti a tutto e, cosa più importante, finalmente è approdata davanti a “innovation”. Per ora questo termine è ancora abusato, forse chiamano open il guardare al di fuori del proprio confine aziendale, aprirsi a banche dati, ad altri attori generalmente istituzionali, quali università e centri di ricerca, ma per essere aperta l’innovazione lo deve essere realmente per tutti, teoricamente anche all’uomo della strada e alle sue idee. Si dice che il potere non appartiene più a chi ha i mezzi di produzione, chiunque può diventare inventore ma soprattutto produttore e imprenditore. Allo stesso modo con cui oggi è possibile autoprodursi un libro, domani — anche in questo momento per i pionieri — sarà possibile creare, realizzare e vendere oggetti, prodotti più o meno complessi. In un certo senso questa sarà la nostra fortuna, almeno dal punto di vista occupazionale, la manifattura su larga scala non sta più offrendo posti di lavoro a causa dell’aumento dell’automazione, piuttosto si sta contraendo. Il movimento chiamato dei “Makers”, dei Fablab, cerca d’invertire questa tendenza dando vita a tanti piccoli imprenditori globali, creatori di prodotti di nicchia ma che grazie alle potenzialità della rete — e al fatto che i prodotti oggi sono descritti interamente da informazioni digitali — possono diventare miniere di profitti, oltre i propri normali confini fisici. Oggi, quindi, la strada da percorrere per rovesciare questo stato di cose non è quella che porta al ritorno delle fabbriche gigantesche con eserciti di dipendenti, ma quella che permette di creare un tipo di economia più simile al web stesso, bottom up, largamente distribuita


Da questo affascinante mondo nascono anche importanti opportunità per le grandi imprese. Immaginate un luogo (anche virtuale) dove le aziende portano i loro prodotti e chiedono a una comunità di reinventarli, modificarli, aggiungere funzioni, ove chiunque — grazie alle sue idee e alle sue capacità digital-artigiane — possa partecipare al processo d’innovazione. Il tutto a costi ridottissimi e con l’opportunità di coinvolgere i propri clienti. Noi siamo pronti alle nuove sfide. METHODO, che è tutt’altro che statico, in un futuro non troppo lontano cercherà di essere un supporto a questo nuovo mondo, apportando competenze, rete ed energia a chi per ora dispone solo di splendide idee. Buona lettura. Nicola Lippi

METHODO

e altamente imprenditoriale, un po’ come era l’economia prima della rivoluzione industriale, fatta di tanti piccoli artigiani (artigiani digitali appunto), ma con mezzi di produzione tutt’altro che artigianali.

ET

3


Rubrica Design Industriale

a cura di Giuseppe Alito

ET

4

Nei numeri precedenti abbiamo parlato prima di eccellenza e dopo di quale eccellenza, cercando di liberare questo termine da tutte le inutili sovrastrutture ideologiche che lo appesantiscono da sempre. Quindi, per fare un sunto delle “puntate precedenti”, potremmo dire che la nostra fantomatica impresa “Italia”, per essere profittevole, dovrebbe operare nella parte alta della forbice di prezzo e - dunque - produrre solo eccellenza. Sappiamo inoltre che l’impresa “Italia” è una leader di diversificazione, quindi legittimata a operare in moltissime categorie di prodotto e relative fasce di mercato. Affermando che quella dell’eccellenza è l’area di pertinenza ideale e definendo meglio i “confini” del termine eccellenza abbiamo certamente sfoltito di molto la quantità di “strade possibili” da scegliere per intraprendere un percorso che sia il meno tortuoso e quindi meno rischioso possibile. Tuttavia questo non è sufficiente. Paradossalmente è proprio uno dei pregi della nostra impresa, cioè l’essere leader di diversificazione, che rende insufficienti i dati fino a ora raccolti al fine di operare scelte strategiche di prodotto/mercato. Gli esperti di marketing ci dicono da tempo immemore, ormai, che il mercato ha la forma di una piramide, anche se ultimamente ha subito una mutazione genetica non poco significativa della quale parleremo in seguito. In prossimità del vertice ci sono i prodotti premium ma pochi consumatori target, alla base i prodotti entry level con tanti consumatori target. Un’impresa leader di diversificazione,

QUALE DESIGN PER QUALE

come la nostra, sta lontana dalla base ma si muove nel resto dello spazio (mercato) disponibile. Si muove in orizzontale, quindi prodotti diversi ma, si muove anche in verticale (senza appoggiarsi al fondo), quindi - e soprattutto, direi - consumatori diversi. Osservando una qualsiasi analisi statistica focalizzata su un prodotto o su una categoria di prodotti simili noteremo una sorta di stratificazione tendenziale dei comportamenti del consumatore nei


PER QUALE MERCATO UTENTE

Kartell e il consumatore y che decide di acquistarla al bricocenter operano la stessa scelta in termini di funzione d’uso ma pongono una scala di valori completamente differente. Quindi acquistano la stessa “che cosa” ma una differente “quale”.

confronti dello stesso prodotto (o della stessa funzione d’uso). Pur non esistendo (nella realtà) confini nitidi tra una fascia di consumo e un’altra esistono, invece, delle differenze nette e sostanziali nella scala di priorità dei valori che stanno alla base della scelta di una stessa funzione d’uso in fasce di mercato differenti operata da soggetti diversi tra loro. Per fare un esempio pratico il consumatore x che decide di comprare una sedia da

Al di là di ogni considerazione di carattere economico che porterebbe i più a pensare che chi compra al bricocenter lo fa perché non può permettersi Kartell - considerazione sfatata da innumerevoli indagini che ci dicono che chi acquista prodotti economici non è necessariamente “povero” - il nocciolo della questione è invece molto più sofisticato e ben poco noto, quantomeno agli operatori (designers e imprese) che nel corso di questi ultimi anni hanno considerato il mass market come una sorta di eldorado popolato da soggetti incapaci di “creare bellezza”. Proponendosi, quindi, come salvatori eruditi e illuminati che, attraverso una errata trasformazione dell’offerta, hanno cercato di proporre lo stile “Kartell” al consumatore “bricocenter” pensando di farlo contento perché finalmente reso libero dal brutto. Una sorta di “esorcismo artigianale” che qualcuno - ancora meno intelligente ha chiamato design democratico! E’ proprio dietro l’errata convinzione che chi compra “bricocenter” vorrebbe possedere “Kartell”, il luogo dove s’insidia l’errore più grave e più

ET

5


diffuso che ha portato molte aziende sull’orlo del fallimento.

ET

6

Vorrei analizzare la questione partendo da tre testi che trovo utili alla migliore comprensione del fenomeno, “Design il senso delle forme dei prodotti” di Andries Van Onck, “Supernormal” di Jasper Morrison e Naoto Fukasawa e il già noto “La vita delle cose” di Remo Bodei.

non è forse abbastanza capace di concepire oggetti più gradevoli dal punto di vista estetico? (All’epoca ritenevo che un oggetto potesse essere bello o brutto e costare uguale). 2. Perchè, allora, è così evidente la correlazione estetica (apparentemente mediocre) tra i soggetti (quasi tutti) che concorrono in questa fascia di mercato, c’è forse un motivo più alto?

In tutti e tre i testi è ricorrente il tema del perché. Perché un prodotto debba avere una determinata forma essendo l’estetica elemento aperto e soggettivo non riconducibile (in apparenza) a vincoli di necessità.

Ho capito presto che la domanda corretta era la seconda e che il motivo stava tutto nella psicologia del consumatore di quel mercato. Gli oggetti sono concepiti in quel modo perché è il consumatore che li vuole così.

I quattro personaggi in questione, che fanno mestieri diversi (Van Onck è un designer e un teorico, Bodei è un filosofo, Morrison e Fukasawa sono designer “puri”), mostrano uno spaccato temporale della vita di un oggetto. Van Onck si propone come “creatore” attraverso la teoria del buon design, Morrison e Fukasawa si propongono come “utilizzatori” seguendo per certi versi la filosofia di Achille Castiglioni (la forma segue sempre la funzione e da essa viene determinata) proponendo elementi del cosiddetto design anonimo. Bodei, invece, si propone come “consumatore” nel senso vero del termine, cioè colui che consuma gli oggetti nel tempo trasformandoli in cose. Il mio interesse verso questo tema nasce in una occasione particolare della mia carriera quando, diversi anni fa - da giovane designer - mi sono confrontato con il mass market. La fatica di decodificare le regole semiotiche che stavano alla base degli oggetti di “largo consumo” che in prima analisi ritenevo brutti, mi ha condotto a due domande: 1. Chi si occupa di disegnare quei prodotti

Immaginando, ancora, la forma del mercato a piramide (di una sola determinata categoria di prodotto) dove alla base si trovano i prodotti di massa entry level e al vertice si trovano i prodotti di eccellenza premium price, una regola aurea del marketing afferma che i consumatori della base tendono a scelte maggiormente over design delegando al prodotto (opulento nella forma) l’affermazione di uno status presunto che è più alto di quello reale. Mentre via via ci si avvicina al vertice la scelta è orientata prevalentemente al minimal design, dove il consumatore in questo caso tende a minimizzare l’affollamento semiotico del proprio spazio delegando al “meno” l’appartenenza a uno status non più di tipo economico quanto, invece, di tipo intellettuale. Oggi il mercato ha cambiato forma passando dalla piramide alla clessidra, dove in una piccola piramide capovolta si trova l’elite del consumo. Elite sia di tipo culturale che economico e le aziende che operano in quella piccola piramide sono le uniche che


non solo non hanno risentito della crisi mondiale ma sono cresciute sia come cifra d’affari che sul fronte della redditività. Louis Vuitton, Dolce & Gabbana, Prada, Flos, B&B Italia, Poltrona Frau, Vertu, Balmain, Hermes, Lanvin, Aston Martin, Maison Martin Margiela, Ferrari, Ralph Lauren, Moooi, Chanel, sono solo alcuni degli esempi. Pur non con gli eccessi descritti in precedenza e a causa di questa nuova trasformazione del mercato, un’altra domanda sorge spontanea: esistono delle correlazioni tra differenti fasce di consumo nell’operare una scelta di prodotto o di servizio senza che questo debba avvenire attraverso la forzatura mediatica (pubblicità) che tende a rendere il prodotto aspirazionale? Nella mia esperienza ho conosciuto solo due casi in cui la forma del prodotto ha costituito valore aggiunto oggettivo (quindi insindacabile), la Apple che ha proposto una nuova chiave di lettura con una estetica di rottura rispetto agli stilemi sedimentati fino a quel momento e la BMW che con Chris Bangle ha rivoluzionato (facendo la fortuna dell’azienda) il rapporto tra forma e funzione. Per la prima volta un’auto tedesca era agli onori della cronaca non per la sua qualità tecnica - rimasta comunque elevata - ma anche per la forte valenza estetica. E’ di questi giorni la notizia che tutto questo non ha avuto solo un effetto

mediatico ma anche una forte ricaduta in termini di business consentendo a BMW di superare nelle vendite la rivale di sempre Daimler-Benz, sia in termini di quantità che di redditività. La trasformazione del mercato ha portato all’evoluzione (o involuzione) dell’estetica dei prodotti. L’approccio opulento non si trova più alla base della piramide grande ma anche nella piccola piramide capovolta dove la cultura del “brutto” è diventata elemento aspirazionale. Alcuni esempi li troviamo nel lavoro di Prada, Miu Miu, Philippe Starck, Marcel Wanders. Si tratta dell’ennesimo ciclo e riciclo tipico della moda? Oppure di evoluzione culturale del consumo che tende a scelte sul gradino più alto del proprio mercato di riferimento? La “forma della memoria” (MDM di cui ci parlava Gropius) che riconduce tutti a una unica immagine può essere, ai fini della scelta, un elemento d’interesse trasversale a prescindere dalla classe sociale, economica, e intellettuale di appartenenza? Certamente sono domande insidiose e sicuramente ci sarà bisogno di molto tempo per trovare una risposta. Nel frattempo dovremmo tutti consolarci con la sola certezza che non può esistere “un design per tutte le stagioni”.

ET

7


Rubrica Metodi di Sviluppo Prodotto

a cura di Nicola Lippi

PROGETTARE L’ARCHITETTURA DI PRODOTT

Nel numero 2 di METHODO abbiamo ampiamente posto in evidenza il ruolo dell’architettura di prodotto e il relativo impatto sul funzionamento aziendale. Avevamo già precedentemente fissato i requisiti del nuovo prodotto, a questo punto è il momento di costruirne l’architettura, ovvero definire chi dovrà svolgere le funzioni (derivanti dai requisiti), impostare conseguentemente il numero di elementi del sistema e le relative interfacce. Nel fare questo non ci concentreremo unicamente nella direzione che porta a prodotti modulari. La modularità infatti non è un concetto dicotomico, in linea di principio non esistono sistemi (beni, servizi, organizzazioni, etc.) perfettamente modulari e altri totalmente integrali. Al contrario, vi sono prodotti (o più in generale sistemi) caratterizzati da un diverso livello di modularità. Il giusto livello dovrà essere individuato sulla base delle considerazioni già fatte nel numero precedente con l’aiuto di alcuni strumenti di analisi che andremo a presentare. Prima ancora però di ragionare su quali debbano essere i “candidati moduli” è importante realizzare il cosiddetto “progetto concettuale”(figura 1) che passa attraverso la definizione della “matrice morfologica”.

DESCRIZIONE DEL SISTEMA MATRICE MORFOLOGICA

E

Il processo di astrazione è necessario per individuare ciò che è essenziale e ignorare ciò che è particolare, legato solo a pregiudizi o a tradizioni tecniche dell’azienda. Ad esempio nel caso di un progetto di un dispositivo per misurare in modo continuo

ET

8

Figura 1 - Dalle specifiche alla

la quantità di liquido in un serbatoio, è più opportuno formulare il problema in questo modo: - Misurare la quantità di fluido in continuo piuttosto che: - Misurare il livello di un liquido con un galleggiante. E’ necessario quindi astrarre da particolari soluzioni già configurate soluzioni innovative migliori. Sappiamo bene come esistano più principi fisici, e quindi più dispositivi, che possano svolgere la stessa funzione. Elencarli prima di scegliere è un dovere. Il progettista deve confrontare le nuove soluzioni con le soluzioni preesistenti sulle quali deve ampiamente documentarsi, e valutare se la nuova soluzione soddisfi i seguenti requisiti:


TO

a soluzione

- Sicurezza migliorata - Spazio e peso sono ridotti - I costi sono ridotti - I metodi di fabbricazione sono migliorati - I tempi di consegna sono ridotti Questi, e altri requisiti, potrebbero avere di volta in volta una importanza relativa diversa. Per giungere alla formulazione astratta di questi problemi essenziali è quindi necessario analizzare la specifica relativamente alle funzioni richieste e ai vincoli posti, elencando in ordine d’importanza decrescente le strutture funzionali. Le strutture funzionali

Per quanto già visto in precedenza, i requisiti determinano la funzione cioè la relazione tra ingressi e le uscite di un

sistema che può essere un impianto, una machina o un prodotto qualsiasi. Formulato il problema è possibile indicare una funziona globale (o complessiva) che può esprimere la relazione tra ingressi e uscite indipendentemente dalla soluzione. Come un sistema tecnico o ingegneristico può essere suddiviso in sottosistemi (gruppi) ed elementi, così una funzione globale può essere divisa in sottofunzioni di minore complessità. Si giunge così a una combinazione di sottofunzioni che danno origine alla struttura funzionale del sistema complessivo. Prendiamo come esempio una semplice macchina da caffè per utilizzo domestico (figura 2) Figura 2 - Struttura funzionale di una macchina da caffè

ET

9


Esplicitare le sottofunzioni facilita la successiva ricerca di soluzioni. Nel caso di progetti originali (nuovi) non sono note le sottofunzioni né le relazioni e la loro ricerca costituisce proprio un punto importante per il progetto concettuale. Nel caso di progetti adattativi la struttura è nota e può essere facilmente ottenuta osservando il prodotto oggetto del miglioramento. Sottolineiamo come nei sistemi modulari la struttura funzionale ha una influenza decisiva sui moduli e in questo caso la struttura funzionale e la struttura dell’assemblaggio tendono a coincidere. La ricerca dei principi risolutivi delle varie funzioni elementari può essere svolta mediante ricerche in letteratura di principi fisici, l’analisi dei sistemi naturali, l’analisi

di sistemi tecnici esistenti in altri ambiti che svolgono funzioni similari. Se prendiamo come esempio la semplice funzione di riscaldamento, avremo molteplici soluzioni a disposizione, la più comune, ovvero una resistenza elettrica ma anche microonde, riscaldamento a gas, energia solare e così via. La matrice morfologica Il risultato finale della fase di ricerca delle soluzioni deve tendere alla presentazione in uno schema come quello riportato in figura 3, chiamato “matrice morfologica”. In essa a ciascuna delle “n” sottofunzioni che compongono la funzione globale vengono assegnati “m” possibili principi di soluzione.

Figura 3 - Matrice morfologica di una macchina da caffè

ET

10


La matrice morfologica offre innumerevoli combinazioni, non tutte queste però sono ovviamente possibili per limiti geometrici o fisici. La selezione della combinazione più idonea può avvenire mediante metodi opportuni di decision making visti nel primo numero parlando di AHP (o metodo del confronto) oppure attraverso il confronto su temi specifici quali costi della soluzione, realizzabilità, sicurezza etc. (figura 4).

numero ideale di moduli in cui suddividere il proprio sistema e la risposta potrebbe essere trovata in un criterio che si basa sull’analisi dei tempi di assemblaggio dei vari moduli in relazione al tempo di assemblaggio finale. Se si assume che i diversi moduli siano realizzati contemporaneamente e inviati alla linea finale di assemblaggio, l’esperienza mostra che il tempo di lead time inizialmente decresce all’aumentare del numero dei moduli per poi tornare ad aumentare. Esiste quindi un numero ideale minimo a cui fare riferimento in corrispondenza del minimo della curva del lead time (figura 5).

Figura 4 - Semplice tabella per selezione del concept

Una volta definita l’architettura di base della soluzione con un’attribuzione di funzione a diversi sottosistemi, e identificato il principio fisico con il quale realizzare la funzione stessa, si può passare alla fase d’identificazione degli eventuali candidati moduli, sia nel caso si voglia definire una famiglia di prodotto basata su una unica piattaforma, che per definire quali componenti sia più ragionevole tenere distaccati dagli altri per i criteri che poi dettaglieremo.

SCELTA DEI CANDIDATI MODULI Per arrivare a definire quali componenti o sottogruppi dovranno essere in qualche modo “separabili” — e quindi resi modulari all’interno del nostro sistema — è necessario introdurre i cosiddetti “module drivers”, cioè gli “argomenti” attraverso l’analisi dei quali è possibile identificare i migliori candidati alla categoria di “modulo”. Innanzitutto potrebbe essere lecito domandarsi se esiste un

Figura 5 - Lead time e numero ideale di moduli

Se non si ha la possibilità di simulare il processo produttivo, una stima grezza del numero ideale di moduli può essere ottenuto come radice quadrata del numero dei singoli componenti d’assemblare. Se abbiamo un sistema costituito da 100 elementi, una suddivisione ideale prevederebbe 10 moduli. Una volta che i moduli sono stati definiti, all’interno di questi ultimi è fondamentale spingere al massimo l’integrazione, cioè ridurre al minimo il numero di componenti e spingere verso una standardizzazione estrema. La scelta dei candidati moduli deve essere espressione della strategia aziendale. Un modulo, si dice infatti,

ET

11


è un “mattone costruttivo” con delle interfacce ben definite e “guidato” da una specifica strategia aziendale. Per orientare il team di progetto nella scelta si possono analizzare i “module drivers” e, definendo un punteggio appropriato per i vari moduli, farsi condurre alla scelta degli stessi.

ET

12

Nella figura 6 abbiamo rappresentato la matrice di selezione dei moduli per il tettuccio di un’auto. Sono rappresentate le diverse sottofunzioni (in verticale) e i criteri di scelta con i punteggi. La matrice guida all’analisi del progetto attraverso la verifica dei diversi requisiti (module drivers). Tanto più una funzione è impattata da uno dei criteri — ad esempio riparazione/manutenzione — tanto maggiore sarà il valore, in questo caso in una scala 9-3-1. Le funzioni a maggior punteggio complessivo, come ad esempio cablaggi, luce interna, parasole e Luce di lettura hanno, più di altri, le caratteristiche per diventare moduli. Ad esempio il parasole è un carryover (ovvero è un sottogruppo recuperato da altri prodotti già in produzione), dev’essere separato per esigenze di produzione, esigenze di testing e in ultimo ha

anche la necessità di essere riciclabile. Tanti diversi motivi lo rendono un buon candidato a diventare modulo, cioè non integrato con altre parti di prodotto. Lo stesso vale per i cablaggi che per esigenze di testabilità separata, l’essere un modulo comune nella piattaforma e avere anch’esso esigenze di

Figura 6 - Matrice di selezione dei moduli

riciclabilità, deve divenire un modulo a parte e disaccoppiabile dagli altri. Questa matrice è uno strumento davvero utile per guidare l’azienda in questo passaggio concettuale. E’ molto probabile che per poter assegnare un punteggio a ogni casella siano necessari studi e approfondimenti. Proprio questo aspetto fa divenire la matrice di selezione una perfetta checklist per decisioni inerenti l’architettura. Vediamo ora quali sono in dettaglio i “module drivers” suggeriti. Carryover Un “carryover” è una parte o sottosistema che molto probabilmente non sarà esposto a cambiamenti durante la vita della piattaforma


di prodotto. La parte potrebbe essere “presa” da un prodotto esistente o non più in produzione. L’aspetto temporale quindi è predominante, cioè cogliere opportunità in prodotti del passato, di attuale produzione o addirittura non ancora sul mercato. Technology push/Evoluzione tecnologica Esistono parti che potrebbero essere oggetto di evoluzione tecnologica repentina durante la vita del prodotto o della piattaforma, ragion per cui integrare questa parte con altre potrebbe precludere rapidi aggiornamenti in futuro. In questo caso è facile pensare all’evoluzione di processori, schermi, batterie dei moderni Smartphone. Potrebbe quindi essere opportuno lasciare l’architettura “aperta” alla innovazione, capace quindi di accogliere moduli con prestazioni di volta in volta superiori. Non dimentichiamoci che una nuova piattaforma di prodotto può costare moltissimo in termini d’investimento, soprattutto in ricerca e sviluppo. Commettere errori di valutazione sulla evoluzione tecnologica del prodotto potrebbe rendere necessario rivedere il progetto a pochi mesi dal lancio. Modifiche al progetto pianificate Un aspetto importante da valutare è se all’interno del progetto esistono parti per le quali sono già pianificate modifiche future, per meglio assecondare le richieste del mercato o perché si è in ritardo nello sviluppo di nuove soluzioni e s’intende comunque uscire sul mercato. Potrebbero essere inoltre pianificate azioni di riduzione costo, o se vuole riservare la possibilità di farlo. Specifiche tecniche È il caso più comune in cui, per differenziare

la gamma di prodotto dal punto di vista di una determinata prestazione, si cambiano alcuni componenti. Ad esempio un motore (elettrico, endotermico) spesso è un elemento che determina le prestazioni di un macchinario generico o di un’automobile, cambiando il quale si possono variare parametri fondamentali quali la potenza, il consumo o le emissioni. Ottime ragioni per mantenere questo elemento separato dal resto del sistema. O ancora funzioni opzionali, che possono esserci o non esserci a seconda dell’esigenze del mercato o del segmento specifico. Stile Alcune parti del prodotto potrebbero essere fortemente influenzate dai trends, mode o essere correlate al brand che commercializza il prodotto. Questo fa si che vi possano essere ragioni per separare queste influenze facendo in modo che non perturbino il resto del sistema. L’esempio più banale è un cambiamento di colore o di stile semplicemente sostituendo una cover, una carrozzeria o degli accessori. Modulo comune Un modulo comune è un modulo che potrebbe avere le caratteristiche per soddisfare l’esigenze dell’intera gamma di prodotto. La differenza con il carryover è che quest’ultimo implica una durata “nel tempo” mentre un modulo comune impatta i volumi di produzione. Processo/Organizzazione Per rendere la produzione più efficiente possibile, alcune parti potrebbero avere le caratteristiche per essere accomunate in moduli. Ad esempio un telaio saldato

ET

13


ha delle caratteristiche di processo (la saldatura appunto) talmente particolari e uniche che spingono queste tipologie di parti a diventare un modulo unico e separato da altre parti magari di materiali o processi primari differenti. Lo stesso vale per ragioni logistiche, di trasporto o perché il componente è una “black box”, ovvero viene acquistato sul mercato non avendo, l’azienda, le competenze per realizzare tale funzione all’interno. Testing Alcuni componenti potrebbero avere la necessità di essere separati per consentire prove, misure, validazioni a favore della riduzione dei lead time, dei loop di rilavorazione a favore quindi della qualità e dei tempi. Riparazione/manutenzione Facilità e velocità di riparazione, sostituzione o manutenzione potrebbero richiedere che alcuni elementi siano separabili o magari raggruppati in “service module”. Upgrading Se si vuole lasciare la possibilità al cliente di poter migliorare il prodotto anche dopo l’acquisto (pensiamo al software, oppure a tutto il mondo Open Source) è importante che le funzioni impattate siano separate dal resto del sistema. Riciclo

ET

14

Esiste una importanza crescente delle tematiche ambientali, spesso tradotte in norme che impongono ai produttori criteri per la separabilità dei materiali a fine vita, per lo smaltimento o per il riutilizzo. Questo

criterio aiuta a valutare al meglio questi aspetti, parte per parte. CONCLUSIONI Abbiamo ragionato su come condurre il progetto dai requisiti all’architettura, eseguendo i passi che conducono attraverso una progettazione concettuale. Siamo arrivati a definire i criteri per scomporre e ricomporre il progetto definendone i moduli base. Prima di passare alla progettazione vera e propria rimane un compito da svolgere: la definizione e descrizione delle interfacce, di questo tema ci occuperemo nella rubrica presente all’interno del prossimo numero. Faremo inoltre alcune considerazioni sui costi, in particolare quelli regativi alla varietà, per capire quali fattori sono importanti per compiere valutazioni economiche e verificare se alcune decisioni in fatto di modularità possono convenire o meno. Riferimenti Bibliografici: Controlling Design Variants platform A. Ericsson, G. Erixon Lingua: Inglese

Modular product

Product platform and product family design T. Simpson, Z. Siddique, J. Jiao Lingua: Inglese La modularità e il suo potenziale ruolo nelle imprese M. Bordignon Lingua: Italiano Progettazione e sviluppo di prodotto K.T. Ulrich, S. Eppinger, R.Filippini Lingua: Italiano Configurazione di prodotto C. Forza, F. Salvador Lingua Italiano


ET

39


Rubrica Metodi di Produzione

a cura di Alberto Viola

COSTRUIRE LE BASI PER IL MIGLIOR PRODUTTIVO: LO STRUMENTO DELL Nell’ultimo numero di METHODO abbiamo visto come l’implementazione del modello lean production passi attraverso l’applicazione (e personalizzazione) di 3 principi operativi di riferimento: in questo numero inizieremo a vedere come sia possibile introdurre in azienda questi principi attraverso una serie di metodologie e strumenti, da tempo utilizzati in tutto il mondo ma, ahimè, molto meno conosciuti e applicati nelle aziende italiane. Prima di cominciare è tuttavia opportuno ricordare come tutte le metodologie che verranno presentate in questo e nei prossimi numeri di METHODO, rappresentino solo dei mezzi con i quali sia possibile introdurre nella propria azienda il modello lean, ma che il fine — e quindi l’obiettivo — debba essere solo e soltanto la riduzione degli sprechi nelle attività produttive. La “cassetta degli attrezzi” del modello lean Secondo il modello lean production, il processo produttivo ideale (cioè quello con massima efficacia ed efficienza) è quello ”capace di realizzare un prodotto con un flusso continuo di attività produttive che pulsano come pulsa il mercato”: secondo questo punto di vista, quando vi è un’interruzione del flusso produttivo, si genera uno spreco proprio perché ci si allontana dalla situazione ideale.

ET

16

Si può affermare che, mentre un processo produttivo può essere definito come “un insieme di risorse e attività tra loro interconnesse che trasformano degli elementi in ingresso (input) in elementi in uscita (output), un flusso produttivo è “un insieme di risorse e di attività ininterrotte che trasformano gli elementi in ingresso in elementi in uscita”. I principali fattori produttivi che concorrono a realizzare un prodotto sono uomini, materiali e macchine e il flusso produttivo ideale è quindi quello in grado di non interrompere il flusso di generazione del valore del prodotto da parte di questi fattori: che cosa è la sovrapproduzione se non l’interruzione del flusso dei materiali? Che cosa rappresenta una macchina ferma (in attesa) durante un cambio formato? Il movimento di un operatore non è di fatto un’interruzione nella creazione del flusso del valore del prodotto? Il modello lean production fornisce una serie di metodologie che, se applicate correttamente, aiutano a ridurre le interruzioni di questi flussi di risorse. Le principali sono: •

5S (Seiri, Seiton, Seiso, Seiketsu, Shitsuke): per definire un posto di lavoro standard ed evidenziare immediatamente qualunque anomalia rispetto allo standard definito; TPM (Total Productive Maintenance): per massimizzare l’efficienza produttiva degli impianti;


RAMENTO DEL PROCESSO LE

5S • •

SMED (Single Digit Minute Exchange of Dies): per ridurre al minimo i tempi di setup di macchine e impianti produttivi; CELL DESIGN: per collegare in sequenza (“a flusso”) tutte, o alcune operazioni a valore aggiunto, necessarie per produrre un determinato prodotto, riducendo al minimo gli sprechi durante il flusso produttivo; KANBAN SYSTEM: per implementare la produzione “tirata dal cliente”.

In questo numero ci occuperemo delle 5S, metodologia che fa da sfondo ed è preliminare all’utilizzo di qualsiasi altra metodologia lean facente parte della “cassetta degli attrezzi”

a nostra disposizione: come vedremo, le 5S ci consentono di definire una configurazione standard del processo produttivo e dei suoi fattori (uomini, macchine e materiali). Il metodo delle 5S Uno dei principali insegnamenti che ci ha lasciato Taichi Ohno, inventore del Toyota Production System (e quindi della lean production) è il seguente: “Dove non c’è standard non ci può essere miglioramento”. Cos’è uno standard? Una definizione che mi piace molto è: “lo standard è il miglior metodo a oggi conosciuto e condiviso per produrre”,

ET

17


dove per migliore intendo quello in grado di realizzare un prodotto con il minor spreco possibile. Le 5S ci insegnano un metodo il cui obiettivo è proprio quello di costruire una configurazione standard del processo produttivo, base di partenza per qualsiasi attività di miglioramento delle performance operative. Il metodo prevede la realizzazione in sequenza di 5 fasi che in Giapponese iniziano per S (da cui l’acronimo 5S). 1aS = SEIRI (Separare) Definita l’area d’intervento — che può essere sia una singola postazione di lavoro piuttosto che reparti interi di uno stabilimento produttivo — in questa fase del metodo 5S si procede semplicemente a separare ciò che serve da ciò che non serve. La parola semplicemente non deve trarre in inganno poiché, quando s’inizia a separare materiali (materie prime, componenti, semilavorati, attrezzature, documenti, etc.), la sindrome del “mi può sempre servire” è molto forte e se non s’interviene con decisione il rischio è quello di riposizionare solamente in modo diverso il materiale già presente nell’area. Ѐ quindi fondamentale definire dei criteri di separazione per classificare il materiale in utile e inutile.

ET

18

Le logiche con le quali definire i criteri di separazione durante la 1aS sono (e devono essere) tutte riconducibili ancora una volta a un unico principio: l’eliminazione degli sprechi dalle attività produttive. Inoltre, allo scopo di evitare che, dopo poco tempo da

un’attività di separazione, l’area di lavoro ritorni nelle condizioni iniziali, è altrettanto fondamentale identificare la causa che ha portato un materiale inutile nell’area e quindi anche la contromisura (o azione correttiva) che consentirà di mantenere l’area di lavoro nelle condizioni standard definite. Lo strumento operativo utilizzato di frequente durante la fase di separazione è quello del cartellino (in genere rosso, per essere più visibile) da posizionare su tutti gli oggetti individuati che si ritengono inutili nell’area di lavoro. 2aS = SEITON (Ordinare) Durante questa fase si deve trovare un posto a ogni cosa utile rimasta nell’area di lavoro dopo la fase di separazione: il motto più conosciuto di questa fase è “un posto per ogni cosa e ogni cosa al suo posto”. Anche in questa fase i criteri con


i quali ordinare i materiali e attrezzature avranno come obiettivo la riduzione degli sprechi durante le attività operative. Essi pertanto s’ispireranno alla frequenza di utilizzo (posizionando vicino all’operatore il materiale maggiormente utilizzato per ridurre lo spreco di movimento) e all’ergonomia del posto di lavoro. Le principali fasi previste dalla 2aS sono: • • • •

Codificare tutti gli oggetti utili dell’area di lavoro Identificare chiaramente la posizione di ciascun oggetto Definire la quantità standard di tutti gli oggetti Definire eventuali frequenze di riordino degli oggetti

Un ulteriore obiettivo di questa fase è quello di rendere il materiale facilmente reperibile da chiunque per ridurre i tempi di ricerca e prelievo degli stessi durante le attività di produzione. a

3 S = SEISO (Pulire) Nello specifico di questa fase per “pulire” s’intende ispezionare macchine e attrezzature presenti nell’area di lavoro allo scopo di: • •

ripristinarne le condizioni ottimali di funzionamento; mantenerne le condizioni ottimali attraverso attività di manutenzione autonoma e preventiva.

Ѐ evidente che anche in questo caso quello che si vuole ottenere è uno standard di funzionamento delle macchine e attrezzature finalizzato alla riduzione degli sprechi (in particolare perdite di processo e attese).

La 3aS prevede quindi di definire le condizioni operative ottimali di macchine e attrezzature (quali, a titoli di esempio: velocità di funzionamento, temperature d’esercizio, livello di rumorosità, etc.) e quindi ispezionare macchine e attrezzature allo scopo d’individuare tutto ciò che vi è di anomalo rispetto alle condizioni definite e tutto ciò che potrebbe comprometterne il funzionamento standard. L’ultimo passo prevede di definire delle check list di mantenimento delle condizioni ottimali che dovranno essere utilizzate dagli operatori (per la manutenzione autonoma delle macchine) e dai manutentori (per la manutenzione preventiva). Vedremo in uno dei prossimi numeri di METHODO che la 3aS può anche essere considerata come un’attività preliminare all’applicazione del TPM (Total Productive Maintenance), metodologia che si pone l’obiettivo di massimizzare l’efficienza produttiva delle macchine. 4aS = SEIKETSU (Standardizzare) Questa fase del metodo 5S è quella più importante perché, senza standardizzazione, tutto il lavoro fatto con le prime 3S non può che andare perso con il passare del tempo: senza standardizzazione i materiali inutili torneranno a essere accumulati nelle aree di lavoro, in breve tempo il disordine tornerà a imperare e le macchine, così come le attrezzature, non si troveranno a funzionare nelle loro condizioni ottimali. Ciò detto, nel metodo 5S la novità non risiede tuttavia nel concetto di standard, presente in molti (se non tutti) altri strumenti di miglioramento, ma nelle modalità attraverso le quali il metodo prevede di comunicare gli standard definiti.

ET

19


Nelle 5S gli standard devono essere segnalati con semplici sistemi e strumenti visivi, perché immediata e trasparente deve essere la loro comprensione: la semplicità degli strumenti utilizzati deve consentire a chiunque di comprendere gli standard definiti e, se necessario, di partecipare attivamente alla loro definizione o revisione. Tanto più uno standard è semplice da capire, tanto più è facile comprendere per chiunque eventuali situazioni anomale rispetto allo standard definito: questo è il valore profondo che sta nella semplicità. In produzione spesso non si ha molto tempo per reagire di fronte a un’anomalia: il problema deve poter essere individuato e compreso “a colpo d’occhio” per trovare rapidamente una soluzione! Quali sono questi strumenti visivi? Non è

ET

20

possibile farne un elenco esaustivo perché tutto ciò che è presente in un’area produttiva può essere uno strumento visivo. Ad esempio, gli spazi e le aree possono diventare uno strumento per comunicare uno standard: un’area vuota, se delimitata con del nastro adesivo, può comunicare, ad esempio, che si è di fronte a un’anomalia (mancanza di materiale). La presenza di materiali (componenti, semilavorati) fuori posto è un’altra anomalia: la quantità standard definita non è rispettata e quindi deve essere successo qualcosa nel processo produttivo. Secondo questa filosofia anche i documenti utilizzati per descrivere uno standard di lavoro (ad esempio un ciclo di lavoro o un’istruzione operativa) devono contenere poche parole e usare molte immagini (grafici, foto, diagrammi, disegni).


5aS = SHITSUKE (Rispettare)

L’importanza delle 5S

Obiettivo di questa ultima fase del metodo è di mantenere e migliorare continuamente gli standard definiti: per farlo si definiscono degli strumenti finalizzati a monitorare periodicamente, attraverso degli audit, il rispetto degli standard definiti.

Il metodo delle 5S, apparentemente semplice, è lo strumento più importante tra tutti quelli presenti nella “cassetta degli attrezzi” del modello lean production: lo è sicuramente se si considera che il metodo ha come scopo principale quello di definire la baseline sulla quale costruire il successivo miglioramento del processo produttivo.

Gli strumenti più utilizzati sono in genere delle check list. Per ciascuna S viene predisposta una serie di domande che permette di definire un punteggio rappresentante il livello di esecuzione della fase: in caso di punteggio negativo, l’audit si conclude con la definizione delle azioni correttive necessarie al ripristino della situazione standard definita.

Di sicuro nessuna azienda può diventare lean senza implementare questa metodologia: basta ricordare il monito di Taichi Ohno “Dove non c’è standard non ci può essere miglioramento” per capire il perché.

Tre suggerimenti

Tre spunti di riflessione

Durante ciascuna fase di un intervento di 5S ricordati che l’obiettivo di qualunque attività che andrai a implementare è la riduzione di uno spreco. Chiediti sempre: “Quale spreco andrò a ridurre con questa attività?” Non confondere mai il fine (il miglioramento del processo) con il mezzo (l’applicazione del metodo5S).

Qual è il livello di standardizzazione del tuo processo produttivo? Ѐ stata definita una quantità standard di materiali (materie prime, componenti, semilavorati, attrezzature) da tenere nelle aree di lavoro? Se esiste, quando è stato rivista l’ultima volta, questa quantità standard?

Durante la 2aS, una volta posizionato ciascun materiale utile, non lasciare aree e scaffali vuoti nell’area. Questo renderà impossibile posizionare materiali inutili. Nella 4aS fai uso massiccio di sistemi visivi (colori, spazi vuoti, luci, simboli, aree delimitate su banchi di lavoro e sul pavimento) per comunicare gli standard definiti. Più gli strumenti visivi saranno semplici più saranno efficaci per monitorare lo standard.

Entrando in stabilimento, in quanto tempo sei in grado di capire se il processo sta funzionando come previsto? Devi chiedere a qualcuno (supervisori, capi intermedi, operatori) per capire se tutto funziona secondo gli standard? Osserva per 10 volte consecutive il ciclo di lavoro di un operatore: quante volte il ciclo si è ripetuto nello stesso modo (tempo impiegato e sequenza delle operazioni)?

ET

21


a cura di Corrado Ravaioli

Rubrica Intervista

Alla ricerca del prodotto perfetto.

LO SVILUPPO DI UN PRODOTTO 28 anni e una laurea in ingegneria meccanica, Filippo Tognarelli ha una passione viscerale per la musica. Dal punto di vista professionale è responsabile Ricerca e Sviluppo presso Dorelan, azienda forlivese leader nel settore della produzione di materassi, letti, reti e guanciali. Di giorno cerca di alzare lo standard di qualità di un prodotto e la sera suona la batteria in quattro diversi progetti musicali. Lo abbiamo incontrato per conoscere da vicino un altro ruolo chiave del processo produttivo e per scoprire se il suo lato artistico lo aiuti in qualche modo nell’ambito professionale. Innanzitutto mi piacerebbe sapere qualcosa sul suo background, professionale ma anche personale. Vengo da Santa Sofia, una cittadina dell’Appennino Tosco-Romagnolo in provincia di Forlì Cesena. Mi sono laureato in Ingegneria Meccanica dopo aver frequentato le scuole superiori all’ITIS G.Marconi di Forlì diplomandomi come Perito Elettrotecnico. Dopo il diploma ho intrapreso una strada diversa per seguire quella che, in fondo, è sempre stata una passione: macchine, meccanismi, soluzioni. Inoltre mi piace scoprire sempre ambiti nuovi, un aspetto che penso sia importante per la mia vita personale e lavorativa. Nel 2004 ho effettuato uno Stage presso Romagna Acque Spa come elettricista mentre nel 2008 ho fatto un’esperienza di tirocino per tre mesi alla Babbini Spa (Gruppo Cangialeoni),

ET

22

dove ho potuto toccare con mano la vita e i compiti di un Ufficio Tecnico. Nel 2013 ho seguito un corso di specializzazione dal titolo “L’ottimizzazione del processo produttivo per la riduzione dei costi e degli sprechi” e in seguito ho partecipato a un Workshop, organizzato da una delle società più qualificate del management consulting di matrice giapponese, dal titolo Kart Factory, che mi ha permesso


O TRA METODO E CREATIVITÀ di approfondire in maniera concreta il concetto di Lean Production. Nel tempo libero continuo a coltivare la mia grande passione per la musica. Suono la batteria da quando avevo sei anni. Attualmente seguo quattro progetti musicali diversi, spaziando dal pop al rock progressive, fino al musical. E per anni ho giocato a calcio, facendo le giovanili nella squadra del mio paese. Ho militato alcuni anni in promozione e poi sono passato al calcio a 5, sempre a Santa Sofia, in C1. Da quanto tempo lavora in Dorelan? Può spiegarci in poche parole in quale comparto operate, il mercato di riferimento. Sono in Dorelan dal 2011. Questa realtà nasce nel 1968 e da oltre 15 anni è leader nel settore della produzione di materassi, letti, reti e guanciali. Nel corso degli anni la crescita dell’azienda è stata costante ed è diventata laboratorio di progettazioni, innovazioni tecniche e di design, realizzando sempre nuove soluzioni nell’ambito del sistema letto. Dorelan pensa e produce unendo l’esperienza del passato alla moderna tecnologia rendendo ogni prodotto la massima espressione di artigianalità, tecnologia ed estetica. Il nostro mercato principale è l’Italia dove siamo presenti con 65 punti vendita in

franchising e con la presenza in tutti i principali rivenditori. Da diversi anni, inoltre, ci stiamo imponendo in maniera importante in Europa occientale, Europa dell’Est, Asia centrale, Medio Oriente, Sud-Est asiatico e America centrale, valorizzando al meglio la manifattura italiana e il Made in Italy. Quali sono le sue mansioni principali? Sono Responsabile R&D, il mio è un ruolo che spazia a 360° gradi su tutta l’azienda e non solo. La mia mansione principale consiste nello sviluppo di un prodotto, che non vuol dire semplicemente valutare il prodotto in sé, ma tenere conto di tutti gli aspetti legati alle richieste del mercato, al processo produttivo e alla logistica di produzione. Sviluppare macchinari per la produzione dei nuovi prodotti o per migliorare il processo produttivo dei vecchi. Un ruolo che mi permette di affrontare ogni aspetto dell’azienda e mi costringe ad avere una visione ampia tenendo presente tutte le fasi del lavoro. Questo grazie a un’azienda che crede e investe tantissimo in Ricerca e Sviluppo oltre che in tecnologie produttive sempre più moderne. Lo dimostra anche il nuovo stabilimento dove ci siamo trasferiti a gennaio 2012, una struttura moderna e altamente funzionale. Ci parli degli aspetti più avvincenti e quelli più delicati del suo lavoro. Sicuramente gli aspetti più avvincenti sono legati alla ricerca — anche attraverso viaggi

ET

23


all’estero — finalizzata al raggiungimento di obiettivi e soluzioni, una filosofia quotidiana in Dorelan. La sfida più delicata è quella di garantire standard di prodotto sempre alti e novità importanti per il mercato e per il miglioramento della vita dei nostri clienti. È al tempo stesso la mia mission e quella aziendale: garantire al cliente il massimo per il suo benessere e la qualità della vita. Inoltre bisogna sempre tener presente tutti gli aspetti gestonali, fondamentali per garantire anche efficienza e fluidità all’intero sistema.

ET

24

Quanto conta il metodo nel suo campo? Che cosa rappresenta? Quali altri aspetti sono decisivi per raggiungere il risultato? Il metodo è fondamentale per la propria gestione del lavoro e quella delle persone che lavorano con te. Quando parliamo di gestione delle attività, delle informazioni, del timing e degli studi di processo, il metodo è un elemento imprescindibile.

Nel mio campo però conta molto anche essere pronto a cambiare strada in qualsiasi momento perché, a volte, da una situazione impensabile — che avevi scartato a priori — può nascere qualcosa di estremamente interessante. Quali sono gli elementi chiave nello sviluppo di prodotti come quelli realizzati in Dorelan? La ricerca continua del miglioramento, l’innovazione e creazione di prodotti con un elevato valore aggiunto. Essere sempre in linea con le aspettative del mercato e chiaramente vicini alle esigenze dei nostri clienti. La vocazione di Dorelan è quella d’innovare e rinnovare, perseverando nella ricerca di nuovi design, materiali, forme e strutture di prodotti. Importanza del teamwork? Ha sicuramente un’altissima incidenza in quanto aiuta nell’organizzazione del lavoro ma anche nell’interscambio delle


informazioni e delle conoscenze. Anche se il suo è un lavoro tecnico, quanto è importante avere una mente aperta e creativa? È fondamentale perché senza una mente aperta e creativa non si ha la possibiltà di valutare appieno tutte le situazioni che si devono affrontare, non saremmo in grado di intraprendere nuove strade e nuovi percorsi che possono portare al raggiungimento dell’obiettivo. Quali aspetti teorici appresi durante l’università le sono stati utili nel mondo del lavoro? Grazie anche agli studi e alle esperienze precedenti, nella mia vita lavorativa posso dire che, fortunatamente, ho ritrovato molti aspetti teorici. Concetti di meccanica applicata alle macchine come lo studio dei cinematismi, meccanica dei materiali, conoscenza del disegno tecnico 2D e 3D, conoscenza di base degli impianti

elettrici legati all’edile e ai macchinari, concetti di fluidodinamica, conoscenze d’impianti meccanici e Lean Production. Tutte conoscenze che mi hanno aiutato nel percorso professionale. Uno spunto di riflessione che le piacerebbe segnalare? Durante il mio percorso lavorativo ho sempre cercato di far collimare gli aspetti teorici delle mie conoscenze di base, con le realtà quotidiane della vita lavorativa. Questo, a mio parere, è un aspetto fondamentale del proprio lavoro, cioè modellare a tua immagine quelli che sono aspetti per tutti universali. È l’applicazione di concetti o metodi — come può essere la stessa Lean Production o altri — che può fare la differenza. Non basta aver chiari i concetti di base, è necessario capire bene come lo stesso concetto possa essere adattato e rivisto in base alla tua esigenza e alla tua realtà. Quindi per un buon risultato credo che la combinazione giusta sia metodo e mente aperta.

ET

25


a cura di Alberto Fischetti

Rubrica Project management

I RISCHI NELLA GESTIONE Quest’anno è stato celebrato il settantesimo anniversario dello sbarco in Normandia. Lo sbarco dell’esercito alleato sulle coste della Normandia, iniziato all’alba del 6 giugno del 1944, è stato l’evento che ha condotto la guerra contro la Germania nazista verso la sua fine.

Nel contesto in cui ci troviamo ora, comodamente seduti davanti allo schermo del nostro computer, dopo un esordio così drammatico, vorremmo cercare di tranquillizzarci e riportare invece la nostra attenzione su rischi sicuramente a molto minore impatto emotivo, cioè quelli insiti nella gestione dei progetti. Questa imponente operazione bellica, denominata “Operazione Overlord”, forse la più vasta mai effettuata in tutta la storia militare, può essere considerata come un progetto di grande complessità. Basti pensare che in tale progetto furono utilizzate 5000 navi e mezzi da sbarco, 6 corazzate, 23 incrociatori, 256 cacciatorpediniere, 277 dragamine, 1200 aerei per le divisioni aviotrasportate, più di 1000 bombardieri e — solo per la prima ondata dello sbarco — 130000 uomini appartenenti a 12 nazioni diverse.

ET

26

per la riuscita dell’operazione stessa, sia — soprattutto — per le persone che vi parteciparono. E’ difficile per noi, a distanza di tempo e molto lontani da uno scenario come quello, immaginare cosa volesse dire la parola “rischio” per quei ragazzi di vent’anni che si apprestavano a saltare giù dai mezzi da sbarco e raggiungere le spiagge della Normandia bersagliate da un implacabile fuoco nemico.

Nell’ambito dell’Operazione Overlord la parola “rischio” aveva senza alcun dubbio assunto il suo significato più vero, sia

Come tutti ben sanno, il successo di un progetto è determinato dal raggiungimento di tre obiettivi principali: 1. il rispetto dei tempi; 2. il rispetto dei costi; 3. il rispetto dei risultati. Purtroppo tutte le statistiche dimostrano che sono pochi i progetti riusciti a raggiungere tali obiettivi. Moltissime sono le cause che hanno portato al fallimento di progetti che non hanno rispettato tempi, costi e conformità dei “deliverables” alle specifiche originarie. Fra le cause d’insuccesso dei progetti certamente una delle più importanti è la non adeguata gestione dei rischi.


DEI PROGETTI schema:

Un rischio è qualsiasi area d’incertezza che rappresenta una minaccia per il progetto. La maggior parte dell’attenzione richiesta dalla gestione dei rischi sarà rivolta a evitare o ridurre la probabilità di eventi che potrebbero portare “fuori rotta” il progetto, oppure l’effetto negativo che tali eventi avrebbero sul progetto in caso essi dovessero presentarsi. Il rischio è strettamente legato al concetto d’incertezza e poiché per sua definizione un progetto implica la realizzazione, senza la possibilità di sperimentarne prima lo svolgimento, di qualcosa che non esisteva prima, ecco che si può dire che non esista progetto che non contenga una qualche misura più o meno grande di rischio. Per gestire i rischi, è necessario prima identificarli, valutarne la probabilità che essi occorrano e stimare l’impatto che potrebbero avere sul progetto. In pratica, poiché un progetto si articola nelle due fasi principali di pianificazione e poi di esecuzione, possiamo associare a ognuna di queste due fasi un trattamento dei rischi secondo questo

Nella fase di pianificazione di un progetto devono essere valutati i rischi (risk assessment), mentre nella fase di esecuzione di un progetto devono essere gestiti i rischi (risk management) qualora essi si presentino. Una corretta gestione di un progetto mira a contenerne l’esposizione al rischio adottando misure volte a ridurre e, in alcuni casi, eliminare il rischio di non conseguire gli obiettivi stabiliti. Vorremmo ora esaminare un po’ più in dettaglio le due fasi del risk assessment e del risk management, sperando di poter dare qualche utile suggerimento di carattere pratico a chi abbia la responsabilità di progetti.

ET

27


L’IDENTIFICAZIONE E LA VALUTAZIONE DEI RISCHI L’identificazione e la valutazione dei rischi sono parte integrante della gestione di un progetto in modo da limitarne il livello d’incertezza. Abbiamo utilizzato due parole importanti: identificazione e valutazione. Identificazione

Identificare i rischi significa esaminare un progetto e determinare quali possono essere i rischi a esso associati. L’attività d’identificazione dei rischi dovrebbe seguire un processo che coinvolga tutte le principali parti in causa (gli “stakeholders”): i membri del team di progetto ma anche persone esterne come i contractors, gli sponsor, i clienti, eventuali rappresentanti delle autorità di controllo etc.

ET

28

In questa fase d’identificazione dei rischi il processo più efficace a nostro avviso è il “brainstorming”, il cui obiettivo è quello di pensare a quali possano essere i rischi possibili e non quello di trovare le soluzioni. Tale processo di brainstorming è conosciuto quasi da tutti ma molto spesso non viene applicato o viene applicato in

maniera approssimativa. Pensiamo quindi di dover spendere qualche parola su questo punto. In un processo di brainstorming, al quale pensiamo debbano partecipare i principali esperti coinvolti nel progetto (non più di una dozzina di persone, comunque), è necessario seguire alcune regole fondamentali: 1. nominare una persona responsabile di annotare su una lavagna a fogli mobili i punti espressi dai partecipanti (lo “scriba”); 2. nominare un facilitatore che garantisca il corretto svolgimento del processo; 3. tutti i partecipanti, a turno, devono avere la possibilità di esprimere una loro idea (che verrà annotata dallo scriba); 4. nella fase d’identificazione nessuno deve intervenire con commenti o proposte su quanto il partecipante sta dicendo (la critica non è permessa); 5. si devono avere ben presenti i principi che tutti gli individui sono uguali e che nessuna idea è così stupida da non dover essere espressa. Nel processo di brainstorming il responsabile del progetto dovrà tenere presente che vi sono, fra i partecipanti, comportamenti che devono essere mediati e spesso corretti. Esiste il dominatore, che tende a sovrastare gli altri, il solutore, che spasima per enunciare la sua soluzione a ogni problema, il super-analitico che deve sempre aggiungere dettagli, a volte del tutto inutili, a quanto viene detto, il polemico che cerca sempre il responsabile anziché focalizzarsi sul problema. Per meglio capire e gestire la problematica di un’attività di team quale quella che


abbiamo descritto, vorremmo citare l’interessante “Team Roles at work” di R. Meredith Belbin.

parola in più sul Registro dei Rischi.

Altri due pericoli che minano un buon processo d’identificazione dei rischi sono:

Una volta ottenuto un elenco dei rischi si avvierà il processo di valutazione degli stessi.

• •

la visione a orizzonte limitato, ossia il concentrare la propria attenzione a una sola fase del progetto; la visione a tunnel, ossia il considerare i rischi solo se ricadono nel proprio raggio di azione.

Una volta terminata l’elencazione (fase “divergente” del brainstorming) si procederà al riesame dell’elenco prodotto (fase “convergente”) in modo da consolidare l’elenco stesso ottenendo una serie di punti di attenzione sui quali tutti concordano. In definitiva un buon processo d’identificazione produrrà una lista di rischi che sarà utile classificare in categorie di appartenenza, quali ad esempio: • • • • •

Valutazione

funzionalità e competenze del team di progetto; utilizzo di tecnologie nuove; affidabilità di fornitori esterni e contractors; variazioni delle richieste dei committenti a progetto già avviato; fattori chiave esterni (ad esempio variazioni nei tassi d’interesse, nuove leggi, eventi naturali etc).

Il prodotto finale dell’identificazione dei rischi sarà il Registro dei Rischi, ossia un documento di base per la gestione dei rischi stessi. Spenderemo in seguito qualche

La valutazione dei rischi viene fatta assegnando a ogni rischio una cifra di merito che ne indica la probabilità che esso avvenga e l’impatto sulle variabili principali di progetto, cioè il tempo, il costo e la qualità dei risultati. Esistono innumerevoli tecniche di valutazione della probabilità che un evento accada. Ci si potrebbe limitare qui molto semplicemente a classificare i rischi in tre fasce di probabilità, per esempio: • • •

bassa probabilità (meno del 25% di probabilità che l’evento si verifichi); media probabilità (tra il 25% e il 75% di probabilità che l’evento si verifichi); alta probabilità (oltre il 75% di probabilità che l’evento si verifichi).

Ricordiamoci comunque che generalmente in fase di pianificazione di progetto di solito vengono già considerati degli elementi d’incertezza quando vengono stimate le durate delle singole attività e le quantità di risorse necessarie a svolgere tali attività. Un criterio di stima delle durate delle attività molto utilizzato è quello di definire una

ET

29


durata Ds (durata stimata) come: Ds = (Do + 4Dn + Dp) / 6 Dove Dp è la stima pessimistica della durata (worst case), Do è la stima ottimistica (best case) e Dn è la durata normale. Di solito Dp, Do e Dn vengono determinate con criteri di distribuzione gaussiana. Anche per la determinazione dell’impatto sul progetto possono essere applicati moltissimi criteri quantitativi. Non ci dilungheremo su questo argomento. Teniamo comunque presente che nella valutazione dell’impatto dovremo definire delle priorità di progetto. Se abbiamo a che fare con un progetto “cost driven” faremo molta attenzione all’impatto che ogni rischio può avere sul costo. Se il progetto è invece “time driven” valuteremo l’impatto sulle durate, ovviamente dando la priorità alle attività poste sul cammino critico. Analogamente a quanto fatto per le probabilità, potremo classificare i rischi in tre categorie, ad esempio: • • •

basso impatto sul progetto (per esempio incremento di costo non superiore al 5%); medio impatto (per esempio incremento di costo superiore al 5% ma inferiore al 15%); alto impatto (per esempio incremento di costo superiore al 15%).

Otterremo quindi una classificazione dei rischi in una matrice a tre righe e tre colonne come quella in figura in alto.

ET

30

Se ad esempio nell’elenco dei rischi di un progetto che dura un anno appare la voce “Fulmine che cade sulla testa del Project

Manager uccidendolo all’istante” si può calcolare la probabilità di tale evento pari a 15/59.885.000, dove 15 sono i decessi a causa di fulmini che avvengono in un anno in Italia e 59.885.000 è la popolazione italiana. La probabilità del rischio è dunque dello 0,000025%. Quanto all’impatto sul progetto, esso dipende dal Project Manager: in qualche caso potrebbe essere addirittura un impatto positivo! Un altro indicatore molto utilizzato nella valutazione dei rischi è il composite risk index, che è il prodotto della probabilità per l’impatto, espressi entrambi in una scala numerica da 1 a 5 secondo la tabella seguente. Con queste classificazioni si ha la possibilità di concentrare l’attenzione sui rischi che cadono nell’area indicata in rosso (area critica), e in maniera via via decrescente su quelli che ricadono nelle aree gialle e verdi. La valutazione di probabilità e impatto dei rischi verrà riportata nel Registro dei Rischi, documento “master” per la gestione dei rischi.


Vale la pena sottolineare che il registro dei rischi non è un documento che una volta creato debba essere messo in un cassetto e dimenticato: durante la vita del progetto esso deve essere riesaminato con sufficiente periodicità, ossia seguendo una tempistica che permetta d’intraprendere le più opportune e tempestive azioni di gestione dei rischi. LA GESTIONE DEI RISCHI Una volta creato il Registro dei Rischi con le stime di probabilità e impatto, inizia la parte più difficile: definire in che modo va affrontato ogni rischio qualora questo si presenti. Ovviamente siamo ancora in una fase di pianificazione, ma questa è la fase più importante in un processo di gestione dei rischi. L’obiettivo di questa fase è quello di predisporre le azioni da fare per affrontare ogni rischio e non farsi cogliere impreparati (o come si suol dire in termini poco accademici ma efficaci “con le braghe calate”). E’ ovvio che è inutile creare una bellissima e molto completa lista dei rischi possibili e poi non pianificare il da farsi nel caso in cui i rischi si trasformino in problemi concreti. Le soluzioni che possono essere pianificate per affrontare i rischi ricadono normalmente in queste quattro categorie:

• • • •

trasferimento; eliminazione; mitigazione; accettazione.

Trasferimento Il concetto è quello di trasferire il rischio o a chi ha maggiori competenze per gestirlo, o comunque a un’altra organizzazione. Nel primo caso, ad esempio, si può decidere di affidare una certa attività a un fornitore esterno di comprovata esperienza, stipulando un adeguato contratto di fornitura che includa delle penalità per ritardata consegna, oppure di acquistare un certo prodotto anziché costruirlo con le risorse interne al progetto. Un esempio inerente al secondo caso è quello della stipula per una determinata attività a rischio di un contratto di assicurazione con una compagnia assicurativa: in questo caso viene gestito l’impatto sui costi causato da eventuali problemi nello svolgimento delle attività di progetto. Eliminazione Viene sviluppato un piano che possa eliminare l’insorgenza del rischio. Si può quindi decidere, in fase di pianificazione, di escludere attività considerate a rischio

ET

31


e includere invece attività considerate sicure. Possiamo fare un semplicissimo esempio. Supponiamo che per trasportare un’importante componente del nostro progetto vi siano due possibilità: una strada statale o un tratto autostradale. La strada statale è molto più breve e non prevede un costoso pedaggio, ma comprende un passo di montagna che nel periodo invernale viene spesso chiuso per neve. L’utilizzo della strada statale è molto meno costoso e richiede meno tempo per il trasporto, ma vi è una probabilità media del rischio neve. Si decide dunque di eliminare il rischio includendo nella pianificazione di progetto il trasporto via autostrada. Mitigazione Viene sviluppato un piano che possa ridurre la probabilità che il rischio si verifichi o l’impatto del rischio sul progetto qualora questo si verifichi. Ritornando all’Operazione Overlord con la quale abbiamo iniziato ad affrontare il nostro tema, sappiamo che la data dello sbarco fu stabilita in base al calendario delle maree: facendo lo sbarco in un giorno di alta marea si sarebbe diminuito il tragitto che i soldati dovevano compiere sulle spiagge prima di potersi attestare su posizioni difendibili, e quindi si sarebbe ridotta la durata della fase più critica dello sbarco.

predispone un piano d’azione alternativo nel caso in cui il rischio dovesse verificarsi. I piani d’azione alternativi comportano sempre un allungamento dei tempi e un aumento dei costi, quindi di essi si dovrà tenere conto introducendo un fattore di “contingency” nella determinazione della durata e del costo del progetto (scarto + o – nella durata e nel costo e probabilità relativa). IL REGISTRO DEI RISCHI In definitiva il Registro dei Rischi contiene: • • • •

la voce di rischio; la valutazione probabilità/impatto; il responsabile della sua gestione; il piano d’azione adottato (trasferimento, eliminazione, mitigazione, accettazione).

Si farà riferimento dunque a questo documento guida nella fase di esecuzione del progetto, adottando i piani d’intervento stabiliti nel caso in cui i rischi diventino delle realtà. IL RISCHIO COME OPPORTUNITÀ

MINACCIA

O

Accettazione

ET

32

Questo è il caso in cui si è consapevoli che esiste un certo rischio, ma si decide di accettarne le conseguenze nel caso in cui questo occorra. Il rischio viene affrontato creando delle opzioni alternative (contingency plans o fall back plans). Si decide dunque di includere il rischio connesso con una certa attività, ma si

Abbiamo fin qui associato alla parola “rischio” il concetto negativo di minaccia


al successo di un progetto. Vorremmo invece concludere la nostra chiacchierata considerando il rischio anche come un’opportunità. In realtà, come in ogni impresa umana, nella definizione di un progetto va fatto un bilancio fra rischi da affrontare e benefici che si possono ottenere. Per essere più concreti facciamo un esempio. Se per una certa attività pensiamo di fare ricorso a tecnologie ben sperimentate riduciamo i rischi di progetto, ma rinunciamo a possibili vantaggi in termini di costi, tempi e qualità di risultati offerti da eventuali nuove tecnologie. In analogia al mondo della finanza, dove a maggiori rischi negli investimenti di capitali si associano maggiori possibilità di rendimento, nei progetti la propensione al rischio può portare a risultati particolarmente brillanti. Il contenuto d’innovazione di un progetto dunque viene accresciuto introducendo

in esso volutamente dei fattori di rischio in termini di utilizzo di nuovi processi e tecnologie eventualmente mai sperimentate prima. Quello che diventa fondamentale è un accordo con gli sponsor del progetto su quale sia il livello di rischio che essi vogliono assumersi. E’ per questo motivo che diventa fondamentale una buona analisi dei rischi per poter basare su di essa questo tipo di decisione.

ET

33


Rubrica Software

a cura di Silvestro Di Pietro

AGGIORNAMENTO DELLE BASI DI DATI

Ci sono moltissimi casi dove è necessaria la sincronizzazione di due o più basi di dati: archivi di utenti remoti, acquisizione asincrona di aggiornamenti; altrettanto spesso queste acquisizioni richiedono anche ulteriori elaborazioni, quali ad esempio adattamento o rielaborazione dei dati aggiornati. L’ambiente nel quale avviene questa sincronizzazione comporta delle restrizioni che vincolano lo studio e l’implementazione di una strategia efficace: banda di rete a disposizione, capacità di elaborazione e ampiezza della ram a disposizione, solo per citarne alcune. Risulta evidente la necessitá di elaborare una strategia efficiente e ció è possibile solamente se si ha a disposizione un algoritmo efficiente, cosa che consenta di svincolare le possibili strategie necessarie alla implementazione richiesta dai vincoli di dimensione e frequenza degli aggiornamenti. La scelta tecnica

ET

34

Volendo chiarire con un esempio concreto, immaginiamo una società “vendo tanto” che si occupa di grande distribuzione e che ha la necessità di mantenere aggiornati i listini dei punti vendita. È facile immaginare la complessità che comporta la formulazione di un listino, e quanto sia importante che gli aggiornamenti dello stesso siano, una volta delineati, trasmessi tempestivamente ai propri punti vendita. Sfortunatamente nell’azienda “vendo tanto” la procedura che effettua l’aggiornamento non è stata ritenuta degna di attenzione particolare perché erroneamente ritenuta non di fondamentale

importanza. La software house infatti ha impegnato le migliori risorse a implementare i processi che attengono alla formulazione del listino e non a come questo dato sia poi successivamente propagato. Quindi il network operativo dell’azienda “vendo tanto” copia nottetempo l’archivio listino integralmente negli elaboratori remoti dei negozi con una procedura che comporta anche la messa in manutenzione degli impianti in questione durante l’aggiornamento che avviene una volta al giorno. Tutto normale, al limite il sistema che trasferisce l’archivio ripete l’operazione nel malaugurato caso il trasferimento sia interrotto per qualsivoglia ragione al costo di solo un’altra oretta di fermo manutenzione. Prima di addentrarci nell’esempio vorrei che il mio lettore tenesse presente questa regola fondamentale per chi sviluppa soluzioni tecniche (non solo software): “compito di un progettista é quello di rendere possibili le scelte di politica aziendale, non costringere queste a essere conseguenti a scelte tecniche.” Il lettore che ha o abbia avuto nella sua vita professionale responsabilità direttive sa perfettamente che molte delle strategie aziendali non possono essere attuate a causa di vincoli tecnologici, spesso banali, che riescono comunque a impedire l’attuazione di scelte strategiche. Ma torniamo al nostro esempio, la società “vendo tanto” decide di divenire molto più aggressiva sul mercato espandendo l’orario dei punti vendita sulle


24h. Il problema dell’aggiornamento dei prezzi che normalmente avviene effettuando una messa in manutenzione del sistema diventa ora un problema vincolante: non è accettabile un fermo macchine di un’ora che interrompe la procedura di vendita.

presente che:

Come ho descritto nello scorso numero di questa pubblicazione il problema delle scelte manageriali rispetto la risorsa IT ha radici profonde, determinate dalla bassa cultura e dai bassi investimenti in risorse qualificate. Come nel numero scorso anche a questo problema proveremo a dare una soluzione. Aggiornare due basi dati in maniera efficiente comporta acquisire queste tre informazioni: cosa va aggiornato, cosa va aggiunto e cosa va rimosso. Trasferire in blocco tutto il listino, quantomeno una sua parte, non necessita di acquisire queste informazioni e permette di evitare di dover scrivere procedure che l’elaborino. Volendo esemplificare in sql (Simple Query Language): la procedura di aggiornamento, aggiunta e rimozione ha strutture sintattiche diverse mentre importare integralmente una tabella è un’operazione che si effettua con un singolo comando; va da sé che questa risulta essere la scelta maggiormente seguita. La differenza che passa tra una soluzione semplice e una soluzione semplicistica va sempre rapportata alle sue conseguenze: adottare una soluzione semplicistica, in questo ipotetico caso, genera nel tempo delle importanti limitazioni, e questo avviene in una parte del sistema apparentemente marginale rispetto al resto della soluzione informatica. Nel quotidiano si scopre che di fatto non è possibile prevedere tutte le possibili implicazioni future di una implementazione informatica; quello che si può fare é di effettuare sempre e comunque le implementazioni improntate nel massimo dell’efficienza possibile tenendo sempre

Sulla base di questa massima, in questo articolo sarà illustrato un semplice e originale algoritmo di sincronizzazione di basi dati che ho disegnato anni fa per tenere aggiornato un archivio indirizzi remoto ma che nel tempo si é rivelato un formidabile strumento che ha reso possibili moltissime applicazioni.

“Non esistono implementazioni mai realizzate precedentemente facili da fare, eventualmente ce ne sono di già di fatte bene.”

L’algoritmo Come precedentemente scritto, per poter fare un aggiornamento è necessario avere come informazione la lista degli elementi da aggiungere, quella degli elementi da aggiornare e lista degli elementi da rimuovere. Risulta chiaro che l’aggiornamento va perciò eseguito in due fasi distinte: l’analisi e l’aggiornamento vero e proprio. Scopo di questo algoritmo è quello di fornire appunto le liste delle modifiche da effettuare. Lo descriverò in maniera semplificata, considerando un aggiornamento da lista sorgente autoritativa (master) verso una lista obiettivo non autoritativa (slave). La procedura necessita in ingresso di due liste che chiameremo sorgente e obiettivo. Postuliamo che le due liste siano formate da registrazioni che contengano un identificativo e un valore atto a indicare variazioni delle singole registrazioni, diciamo una data di modifica. La caratteristica di un identificativo é la sua univocità: un codice articolo indica una registrazione in maniera univoca sia nella lista sorgente che in quella obiettivo, altra caratteristica necessaria per questo campo è la sua ordinabilità, cioè la capacità che

ET

35


questo codice possiede di essere ordinato in una qualsivoglia direzione ascendente o discendente. Caratteristica necessaria invece per il campo che verrà utilizzato per rilevare la modifica è che questo sia coerente in ambedue le liste, una data o eventualmente una chiave hash. Diciamo quindi che all’ inizio della procedura si ricavino due liste che contengano identificativi e relative date di modifica. Si precede unendo le due liste inserendo una etichetta che leghi ogni registrazione alla relativa lista di provenienza quindi si ordina, non importa in quale direzione, la lista risultante dall’operazione. Se scorriamo la lista ordinata noteremo che gli identificativi si presenteranno raggruppati in coppie nel caso questi siano presenti in ambedue le liste o singolarmente nel caso questi siano invece presenti solo in una delle due liste. Scorrendo quindi la lista potremo determinare se una registrazione è presente in una sola lista o se questa è presente in ambedue e in questo caso anche sapere, andando a guardare l’indicatore di modifica, se questa deve essere eventualmente aggiornata.

ET

36

Nel dettaglio nella figura (a) é riportato il diagramma di flusso. Per meglio comprendere il diagramma della figura (a) con iteratore — per chi non lo sapesse — s’intende un numero che varia durante un ciclo e che funge anche da puntatore ad un elemento della lista, il primo elemento della lista viene indicato da uno zero, il secondo da un uno il terzo da un due e così via. Perciò nel diagramma di flusso la scritta “identificativo i” rappresenta l’identificativo della registrazione i della lista. Con tms (timestamp) si indica la data sempre relativa all’elemento puntato dall’iteratore i. Scopo di questo algoritmo è fornire tre liste che

Procedura Aggiorname aggiornamento: Lista elementi da aggiungere Lista elementi da eliminar lista elementi da aggiornar

START

base dati sorgente Acquisisci Lista sorgente base dati obiettivo Acquisisci Lista obiettivo

Unisci le due liste Procedura Ordinamento Ordina la lista per Identificativo

i > totale lista combinata ?

end

no

Identificativo i della lista = identificativo

no

i+1?

Identificativo i della lista appartiene alla sorgente?

si

timestamp di i =

timestamp di i+1?

si

si

Aggiungi identificativo

i

agli elementi da aggiungere

no

Aggiungi identificativo

Aggiungi identificativo

agli elementi da aggiornare

agli elementi da eliminare

i = i+2

i = i+1

i

i=0

si

i

Figura a

contengano rispettivamente tutti i codici identificativi da aggiornare, aggiungere o rimuovere, liste che potranno essere poi compiutamente elaborate dalla procedura di aggiornamento vera e propria, procedura che effettuerà perciò solo quello che è necessario. Oltre al diagramma di flusso, per chiarezza è anche riportato nella figura (b) un esempio di esecuzione passo passo che ne mostra il funzionamento. Il risultato dell’elaborazione di questo algoritmo sarà la lista degli indentificativi delle registrazioni che necessitano di aggiornamento, di essere aggiunte alla lista obiettivo o rimosse.


Figura b

ento

re re

no

Valore Iteratore a=a? tms=tms? operazione variazione iteratore

0 si si i = i+2

Valore Iteratore b=c? b appartiene al sorgente? operazione variazione iteratore

2 no si lista aggiungi=b i = i+1

Valore Iteratore c=d? c appartiene a sorgente? operazione variazione iteratore

3 no si lista aggiungi=b,c i = i+1

Valore Iteratore d=d? tms=tms? operazione variazione iteratore

4 si No lista aggiorna=d i = i+2

Valore Iteratore e=e? tms=tms? operazione variazione iteratore

6 si No lista aggiorna=d,e i = i+2

Valore Iteratore f=g? f appartiene al sorgente? operazione variazione iteratore

8 si si lista aggiungi=b,c,f i = i+1

Valore Iteratore g=*? g appartiene a sorgente? operazione variazione iteratore

9 no no lista elimina=g i=i+1

Implicazioni pratiche Questo metodo di preanalisi di un aggiornamento di basi dati offre tutta una serie di vantaggi non marginali. Quello che io ritengo strutturalmente più rilevante è dato dalla possibilità di onorare l’autorità del dato. Aggiornamenti pesanti e poco frequenti provocano, di fatto, una discrepanza nelle basi dati: tornando all’esempio una variazione di un prezzo di listino sarà fruibile solo dopo l’aggiornamento e quindi solo il giorno successivo alla modifica. Questo metodo invece, grazie alla possibilità di rendere gli aggiornamenti molto più frequenti, riduce grandemente questa discrepanza.

In questo esempio si dimostra come, seguendo la logica dell'algoritmo descritto da due liste si ottenga la lista di elementi da eliminare, aggiungere e aggiornare che consentano di rendere la lista obiettivo aggiornata con la lista sorgente. Lista sorgente Id. a b c d e f

timestamp xxxx xxxy xxyx xxyy xyyy yyyy

Lista Obiettivo Id. a d e g

timestamp xxxx xxxx yyyy xyxy

Lista Congiunta ed ordinata i 0 1 2 3 4 5 6 7 8 9

Id. a a b c d d e e f g

timestamp xxxx xxxx xxxy xxyx xyyy xxxx xyyy yyyy xyxy xyxy

appartenenza sorgente obiettivo sorgente sorgente sorgente obiettivo sorgente obiettivo sorgente obiettivo

L’efficienza comporta che l’aggiornamento può essere eseguito a prescindere dal numero di variazioni da propagare e quindi con una frequenza elevata. Questo approccio, oltre che efficiente, risulta anche essere robusto infatti se qualcosa va storto durante l’aggiornamento, rilanciando la procedura, l’aggiornamento ripartirà di fatto dal punto esatto dell’interruzione e senza la necessità di ulteriori informazioni. Costo dell’elaborazione Per determinare il peso dell’informazione valutiamo la stuttura del dato che compone la lista degli elementi: questa necessita

ET

37


ET

38

aggiornamento ottimizzato

Trasferimento/copia

Frequenza:

alta

bassa

Sospensione servizio:

non necessario

necessario

Robustezza

alta

Bassa

Implemetazione

necessaria

non necessaria

di tre informazioni, l’identificativo, la data di modifica, l’indicatore di provenienza. Diciamo che sia l’identificativo che la data occupino 32 bits e che l’indicatore di provenienza un singolo bit (flag) l’elemento della lista peserà 65 bits. Se consideriamo di dover tenere aggiornata una base dati composta da un milione di registrazioni avremo una lista composta da 2 milioni di elementi, la lista sorgente più la lista obiettivo, il che significa 130 milioni di bits e quindi 16.25 megabytes al quale va aggiunto anche il risultato rappresentato dalla lista degli elementi da modificare che, nell’ipotesi peggiore, sarà di un milione di identificativi e quindi 4 megabytes: questo algoritmo, se correttamente implementato, necessiterà perciò di soli 21 megabytes di ram per poter elaborare l’aggiornamento di una lista da un milione di registrazioni. La procedura utilizza un algoritmo di sort che, nel caso venga scelto un quick sort, esegue n*log n passaggi, dove n é il numero di elementi della lista composta dagli elementi sorgente più obiettivo. A questo numero di passaggi andrà sommato il numero di quelli

necessari alla determinazione della lista delle variazioni che cambia a seconda del numero di variazioni stesse e quindi da un minimo di n mezzi a n (un milione di passaggi nel caso non ci siano modifiche a due milioni di passaggi nel caso tutte le registrazioni della lista sorgente vadano aggiornate). Questi valori chiariscono anche al lettore meno esperto la potenzialità d’implementazione realizzabile anche su piattaforme vetuste. Implementazione Questo algoritmo è stato esposto nella sua forma più semplice per ragioni di esemplificazione, ma nelle sue implementazioni operative viene utilizzato con maggiori potenzialità quali la sincronizzazione bidirezionale pura dove variazioni rilevate nella lista obiettivo vengono riportate anche nella lista sorgente o nella sincronizzazione vincolata, dove gli aggiornamenti rilevati nella lista obiettivo verranno riportati nella lista sorgente solo se conformi a parametri.


a cura di Daniela Donati

ARS CREANDI: TECNICHE DI CREATIVITÀ Rubrica Creatività

E SPUNTI PER IL CAMBIAMENTO Per gli amanti del genere, una lettura assai interessante è la storia delle invenzioni e, più precisamente, il processo creativo che ha dato origine a molti degli oggetti e delle soluzioni che ogni giorno utilizziamo. Scorrendo le pagine del libro Eureka! 100 inventori + 100 invenzioni che ci hanno cambiato la vita di Antonio Cianci, potremmo scoprire, ad esempio, come sono nati i surgelati, la scolorina e i cotton fioc. Inoltre, con un ulteriore sforzo associativo, cogliere il medesimo processo creativo che ne è alla base. L’invenzione dei surgelati risale al 1916 e si deve a un giovane biologo statunitense, Clarence Birdseye, considerato appunto il fondatore della moderna industria del cibo surgelato. Osservando gli indiani Inuit pescare, egli vide il pesce ghiacciarsi rapidamente a contatto con l’aria gelida e al momento dello scongelamento risultare ancora molto fresco; intuì quindi che la chiave per avere a disposizione qualsiasi cibo, in qualsiasi momento, risiedeva nella velocità (se il cibo viene congelato velocemente si ricopre di cristalli molto piccoli che preservano il prodotto, se invece il processo di congelamento avviene lentamente, il ghiaccio prende la forma di cristalli molto grossi e taglienti, che lacerano il cibo dall’interno) e così

inventò il processo di congelamento. I Cotton fioc, che molti di noi utilizzano nonostante oggi i medici ne sconsiglino l’uso per la pulizia dell’orecchio, sono rimasti sostanzialmente uguali, nonostante siano trascorsi più di novant’anni dalla loro invenzione. Nel 1923 infatti, Leo Gerstenzang, inventore statunitense di origine polacca, osservando sua moglie mentre puliva le orecchie del figlio utilizzando uno stuzzicadenti, sulla cui estremità aveva fissato un fiocco di cotone, ebbe l’idea di migliorarne la funzionalità utilizzando un bastoncino morbido con del cotone incollato alle estremità. Così nacquero i moderni bastoncini. Un’altra statunitense, Bette Clair McMurray,

ET

39


come tutte le segretarie del suo tempo, viveva l’incubo degli errori di battitura per i quali con il passaggio alle nuove macchine da scrivere elettriche non vi era rimedio se non riscrivere il testo. L’idea le venne un giorno del 1951, osservando degli operai che dipingevano su un muro l’insegna dell’azienda e che eliminavano gli errori semplicemente pitturandoci sopra nuovamente. Inventò, dopo vari esperimenti, la formula giusta per ottenere un liquido bianco che assomigliasse al colore della carta e che potesse essere steso con un pennellino d’acquarello; chiamò il fluido ottenuto “Mistake Out”, brevettò il prodotto e ottenne gran successo nelle vendite fino a che la Gillette acquistò per oltre 47 milioni di dollari la sua industria. Questa è la storia dell’invenzione della scolorina per coprire gli errori. Che cos’hanno in comune queste tre invenzioni? La capacità di osservare prima di altri qualcosa che è davanti ai propri occhi, immaginare un collegamento con la propria realtà e cogliere l’opportunità di risolvere un problema o soddisfare un’esigenza latente.

ET

40

Tra le varie caratteristiche che distinguono una persona creativa — ovvero una persona che utilizza il proprio potenziale creativo — vi è sicuramente una certa attitudine alla curiosità, all’esplorazione della realtà che ci circonda, la tendenza a individuare connessioni tra ciò che è visibile e ciò che non lo è ancora, se non attraverso delle immagini mentali e un certo livello di piacere connesso alla messa in discussione dello stato delle cose osservate alla ricerca di nuove combinazioni e utilizzi. Saper vedere per modificare, trasformare e inventare.

Poniamo che abbiate deciso di sviluppare la vostra capacità di “saper vedere”. Da dove partire? Un buon inizio può essere l’allenamento di una delle potenzialità in nostro possesso: la curiosità. Potete cominciare col chiedervi che ruolo abbia la curiosità nella vostra vita; che posto occupa tra le vostre diverse abitudini comportamentali; quale è stata l’ultima volta in cui avete provato un insaziabile interesse verso la vita nelle sue infinite sfaccettature; quanto frequentemente vi capita di provare un’inestinguibile sete di sapere… Se non siete ancora soddisfatti delle risposte e desiderate approfondire l’argomento, suggerisco di cimentarvi in questo test di autovalutazione tratto dal


libro Pensare come Leonardo di Michael J. Gelb. Eccolo: Curiosità: Autovalutazione

⸋ ⸋ ⸋ ⸋ ⸋ ⸋ ⸋ ⸋ ⸋ ⸋ ⸋ ⸋

Tengo un diario o un quaderno d’appunti dove prendo nota delle mie osservazioni e domande. Dedico il giusto tempo alla contemplazione e alla riflessione. Imparo sempre qualcosa di nuovo. Quando devo prendere una decisione importante, considero diversi punti di vista. Leggo molto. Imparo dai bambini piccoli. Sono bravo a identificare e risolvere problemi. I miei amici dicono che sono curioso e ho la mente aperta. Quando sento o leggo una parola o una frase nuova, vado a cercare il significato e lo trascrivo. Conosco molto delle altre culture e ne so sempre di più. Conosco o sto imparando una lingua straniera. Chiedo agli amici, ai familiari e ai colleghi la loro opinione.

Se avete segnato meno della metà delle caselle… forse è proprio arrivato il momento di mettersi al lavoro! Se ne avete segnate più della metà, molto probabilmente sarete comunque curiosi di provare i prossimi esercizi tratti dal libro sopra citato. Le cento Domande Fate un elenco di cento domande che ritenete importanti. La lista può comprendere qualsiasi tipo di domanda, sempre che la consideriate significativa. Va bene tutto, da “Come faccio a risparmiare più soldi?” o “Come posso divertirmi di più?” fino a

“Quali sono il significato e lo scopo della mia esistenza? e “Come posso servire al meglio il Creatore?” La lista va compilata in una sola seduta. Scrivete in fretta; non preoccupatevi dell’ortografia, della grammatica o di ripetere la stessa domanda con parole diverse (le domande ricorrenti vi indicheranno dei temi emergenti). Perché cento? Le prime venti, più o meno, sono le più superficiali. Nelle successive trenta o quaranta spesso cominciano a emergere dei temi ricorrenti, mentre nell’ultima parte della lista scoprirete probabilmente un materiale inaspettato e profondo.

Quando avete finito, rileggete la lista ed evidenziate le tematiche principali. Osservatele senza giudicarle. La maggior parte delle vostre domande riguarda i rapporti interpersonali? Il lavoro? Il divertimento? Il denaro? Il significato della vita? La Top Ten delle Domande Rileggete la lista delle cento domande, quindi scegliete le dieci che vi sembrano più significative e mettetele in ordine

ET

41


d’importanza (naturalmente potete sostituirle o cambiare l’ordine in qualsiasi momento). Non provate a rispondere, ora; vi basterà averle messe per iscritto e poterle ritrovare facilmente. Dieci Domande tipiche Queste domande sono tratte da diverse top ten. Sono potenti catalizzatrici della crescita e della realizzazione personale. Copiatele sul vostro quaderno per poi meditarvi: • •

• • • • • •

• •

In quali occasioni sono più spontaneo? Quali persone, luoghi e attività mi permettono di essere me stesso? Qual è la cosa che, da oggi, potrei smettere di fare, cominciare a fare o fare in modo diverso per migliorare la qualità della mia vita? Qual è il mio più grande talento? Come posso fare ciò che più mi piace ed essere pagato? Quali sono i modelli di vita che più m’ispirano? Come posso servire gli altri in modo migliore? Qual è il mio desiderio più profondo? Come sono visto dal mio migliore amico; dal mio peggior nemico; dal mio capo; dai miei figli; dai miei colleghi etc.? Quali sono le gioie della mia vita? Quale abitudine del passato vorrei abbandonare?

Come fa un uccello a volare? Scegliete uno dei temi ispirati dalle appassionate indagini di Leonardo: un uccello in volo, l’acqua che scorre, il corpo umano, un paesaggio, la luce riflessa, un nodo o una treccia, poi scrivete sul vostro diario almeno dieci domande a

ET

42

proposito. Anche qui non c’è bisogno di dare le risposte; il principio della curiosità si concentra sulle domande. Per esempio: • • • • • • • • • •

Come fa un uccello a volare? Perché ha due ali? Perché ha le penne? Come fa a “decollare”? Come fa a rallentare? Come fa ad accelerare? Che altezza può raggiungere? Quando dorme? Quant’è acuta la sua vista? Cosa mangia?


A questo punto scegliete un aspetto della vostra vita privata o professionale e fate lo stesso esercizio: ponetevi dieci domande sul vostro lavoro, i rapporti con le persone, la salute. Trascrivetele nel diario… e non date risposte. Solo domande, per ora. Mano a mano che vi allenerete nel porvi domande, senza aver fretta di trovare una risposta, vi accorgerete presto non solo che le risposte spesso arriveranno da sole, ma soprattutto, di come affinando la capacità di porre domande, la vostra stessa capacità di risolvere problemi al lavoro o nella vita privata miglioreranno. E se è già verità assodata che per dare la corretta soluzione a un problema spesso basta riformulare e reimpostare la domanda iniziale — si pensi, ad esempio, all’intuizione di Steve Jobs che avendo deciso di entrare nel mercato della musica producendo degli adeguati

dispostivi che permettessero di ascoltarla, riformulò l’obiettivo e si pose la questione di come creare una piattaforma dalla quale poter scaricare della musica: prima dell’iPod occorreva inventare iTunes! —, potrà invece sorprendervi come questa vostra potenzialità adeguatamente allenata possa aprirvi le porte dell’intuizione e dell’immaginazione. A cosa può servirvi? Ecco come vi risponderebbe Albert Einstein: “La logica vi porterà da A a B. L’immaginazione vi porterà dappertutto”.

ET

43


Rubrica Ecodesign e sostenibilità

a cura di NUUP, Sustainable Creativity®. Revisione del testo e coordinamento articolo a cura di Luca Pastore per NUUP

ET

44

AUTOPRODUZIONE 2.0 E SOSTENIBILITÀ Il fenomeno dei Fablab (autoproduzione) e la produzione diffusa a km zero legata al tessuto imprenditoriale del territorio I Fablab (fabrication laboratory) sono una rete di laboratori di fabbricazione digitale. Nati al MIT (Massachusetts Institute of Technology) di Boston si stanno diffondendo in tutto il mondo con l’intento di rendere accessibili gli strumenti di fabbricazione digitale a privati, istituzioni e aziende. Le attrezzature presenti in questi luoghi consentono la realizzazione di svariati prodotti a seconda delle esigenze e dei singoli bisogni. Sono centri di produzione d’idee, aperti al pubblico e connessi in rete. Un Fablab è quindi un laboratorio che accanto agli utensili della tradizione (martello, cacciavite, sega circolare, pialla, smerigliatrice, macchine da cucire, etc...) affianca gli utensili del futuro (lasercutter, stampanti 3D, CNC, vinyl cutter, software e componenti basati su tecnologia Arduino); uno spazio del “fare tecnologico” e dell’artigianato digitale, di condivisione (sharing) di ambienti, know-how, relazioni, canali commerciali, competenze tecniche e attrezzature. Il target interessato può comprendere scuole, università, designer, imprese creative, makers, aziende, così come semplici cittadini che vogliono trasformare le loro idee, creative e innovative, in prodotti unici e irripetibili. I settori d’interesse sono: product, forniture, food, fashion design, integrazione elettronica, architettura, campo biomedicale.

Tutto ciò sviluppa e dà ispirazione a quella corrente definita “do it yourself”, legata al tema della personalizzazione, quindi alla cultura dell’autoproduzione e alle successive fasi di promozione e di autofinanziamento tramite siti di crowdfounding. Il contesto in cui questi laboratori nascono e crescono è legato al passaggio dall’intelligenza collettiva, cioè analogica/ televisiva caratterizzata da un rapporto passivo con il pubblico, a quella connettiva/ attiva, fatta d’interazione favorita dal mondo digitale; una forma di produzione quindi “autocratica”, un processo di tipo circolare per cui chi produce, investe o consuma è intercambiabile, senza che nessuna autorità assenta come un oggetto debba essere o meno, chi usa può modificare, chi produce può usare, chi crea può produrre, etc… Digital revolution, social network, smart cities, open data: tutto ciò può portare a un rischio, il cosidetto “too much virtual” che relega alla esclusione sociale chi non ha possibilità di accesso ai media e alla rete. Questa tendenza viene in parte contrastata tramite questi laboratori, gestiti da persone definite Makers, da “make” cioè “fare” e “sono”, come ribadisce Luca Castelli, «un fenomeno moderno che affonda però le radici in un sentimento antico che è quello del desiderio di produrre, creare, riparare e modificare gli oggetti». Il settimanale “The Economist” parla di


P, Sustainable Creativity®

AMBIENTALE Terza Rivoluzione Industriale, in cui tutta la parte di branding e retail, dal notevole peso in fase di diffusione di un prodotto, può essere ridiscussa e addirittura esclusa dal classico processo di commercializzazione, per cui possiamo pensare, ad esempio, a un prodotto ideato in Italia ma stampato, in tempo reale, dall’altra parte del mondo eliminando, inoltre, le fasi di trasporto e di logistica. Fablab Reggio Emilia è uno dei Fablab che riunisce in sé quanto appena esplicitato. Nasce come laboratorio di “Reggio Emilia Innovazione” all’interno di uno spazio di arte contemporanea. Questa è una caratteristica specifica di questo luogo che sfrutta la grande opportunità di avere un rapporto col pubblico diretto in cui le mostre presenti all’interno dello spazio vengono messe in stretta relazione con le attività del Fablab stesso: le performance artistiche sono in tal modo combinate alla progettazione di gadget, alla prototipazione e stampa 3D nonchè laboratorio introduttivo alla robotica. Più che attorno alle macchine il Fablab cresce intorno alle persone. I Fablab diventano “nuove possibili formule” che consentono alle imprese d’investire poche risorse senza rinunciare alla ricerca e sviluppo; è proprio grazie alla prototipazione rapida a basso costo e alle particolari offerte formulate in questi spazi di costruzione che gruppi di lavoro interdisciplinare possono dare un concreto contributo all’esigenze

delle aziende o dei singoli cittadini. In particolare il Fablab Reggio Emilia organizza dei “Challenge”, una formula rivolta alle aziende, la cui sfida è quella di mettere alla prova talenti creativi su tematiche specifiche proposte dalle aziende presenti sul territorio al fine di lavorare congiuntamente allo sviluppo di nuove e concrete proposte indirizzate all’economia reale del territorio.

Nell’ambito della produzione territoriale c’è da segnalare Slowd, una piattaforma che applica il concetto di “chilometro zero” nel mondo del design, mettendo in relazione designer emergenti, artigiani e clienti finali. I progetti dei designer selezionati vengono caricati sul sito di riferimento, il cliente acquista il prodotto e l’artigiano del network più vicino al cliente lo realizza. Il know-how profondo dell’artigianato di punta viene così messo in rete con i designer emergenti e

ET

45


talentuosi, come un sistema peer to peer, nel quale sono i progetti a viaggiare e non solo le idee. La missione è portare nelle case di tutti design di qualità a prezzi accessibili, dando risalto alle qualità dei nostri moderni artigiani attraverso le idee dei migliori designer emergenti dando origine, in tal modo, a una reale filiera sostenibile.

L’objet trouvé all’epoca dell’autoproduzione 2.0 Nel 1912 Picasso inserì nella sua “Natura morta con la sedia di paglia” un elemento di tela cerata a imitazione di un’impagliatura, fu l’introduzione della poetica dell’objet trouvé (oggetto trovato), concetto che sarà poi utilizzato dalle avanguardie come vero e proprio metodo d’ispirazione, impiegato nelle tecniche artistiche come il collage e l’assemblage. Da non confondere con il ready-made (dove l’oggetto di uso comune viene presentato senza mediazioni di forma e ricontestualizzato in ambito artistico), “l’oggetto trovato” è utilizzato come materiale grezzo che, sebbene anch’esso decontestualizzato dalla sua funzione d’origine, viene rielaborato e spesso unito ad altri materiali, dando vita a qualcosa di diverso rispetto all’uso per cui era stato designato.

ET

46

Troviamo validi esempi in architettura, dove l’oggetto trovato può assumere diverse valenze: quella simbolica ed estetica, come le composizioni ossee dei Frati Cappuccini già nel 1500 (si veda la cripta dei Cappuccini a Roma) o come la tecnica del “trencadís” di Gaudí che riutilizza vecchie ceramiche; in altri casi le valenze sono più funzionali, come in alcuni esempi di architettura ecologica, si pensi al famoso Tempio Wat Lan Kuat, costruito con più di un milione di bottiglie di birra usate, raccolte dai monaci

nelle campagne circostanti, o come la scuola costruita nel 2009 dal gruppo ARCò in Palestina con l’impiego di copertoni usati. Sembra quindi che oggi, in uno scenario di emergenza ambientale, l’objet trouvé rivendichi il suo ruolo con una valenza legata soprattutto alla sostenibilità. In un momento storico in cui la produzione industriale è considerata ormai spesso opulenta, il riuso rientra a pieno titolo nelle linee guida del design sostenibile, in quanto allunga la vita utile dell’oggetto, evitandone la produzione di un nuovo (o di una sua parte) con le relative emissioni dovute alle fasi di estrazione dei materiali e di lavorazione. Il riuso può rappresentare una scelta progettuale importante anche nell’ambito della gestione dei rifiuti, la cui produzione in Europa ha ormai superato i 500 kg pro capite all’anno. Ma cosa accade all’objet trouvé nel contesto appena descritto se consideriamo anche la recente esplosione di tecnologie di autoproduzione? Diversi sono i progetti che decontestualizzano oggetti di uso comune, rivalutandone gli aspetti estetici e formali in nuove soluzioni progettuali attraverso il coinvolgimento per esempio di elementi stampati in 3D, attuando così un processo di “upcycling”.


Buoni esempi, open source e gratuiti, sono il progetto “troppi tappi” di +Lab e “RE_” di Samuel N. Bernier, dove la stampa 3D provvede a creare tappi dalle nuove funzionalità (dosatore, portafiori, etc… nel primo caso, casette per uccelli, pesi, spremiagrumi, etc... nel secondo) che prevedono il riuso di comuni barattoli in vetro e metallo utilizzati originariamente per la conservazione e il trasporto di cibo. Per i bambini il progetto “Cereal Box Townhouse” di Chad Ruble trasforma una scatola di cereali in una casa delle bambole, con la sola aggiunta di alcuni accessori “architettonici” stampati in 3D. Tali tecnologie di autoproduzione delineano così anche nuovi scenari di distribuzione, come il download design, a cui si ispira la collezione “Keystones” dello Studio Minale-Maeda, dove il design dei complementi d’arredo è ridotto ai soli punti di giunzione, riproducibili ovunque e a km zero con una stampante 3D. Recupero, decontestualizzazione e conseguente ironia sembrano tracciare un filo conduttore con il passato dell’objet trouvé delle avanguardie, mentre si delinea una nuova estetica, quella dell’imperfezione, tipica del prototipo, grezza, funzionale, essenziale, che mostra le parti di giunzione ricercando la massima customizzazione e la serie limitata, conseguenza logica della possibilità di produzione immediata e locale alla base del fenomeno dei Fablab e di un futuro non lontano in cui sarà possibile stamparsi oggetti “on demand” al negozio sotto casa.

Materiali sostenibili e nuovi metodi di produzione Tra le tecnologie di recente ideazione e maggiormente diffuse nei Fablab e laboratori nati sul territorio italiano e non, contiamo in

testa le “Stampanti 3D” seguite da “Frese a Controllo Numerico”, “Laser Cut” e “Plotter da taglio”, tutti questi strumenti rappresentano una finestra aperta sulla sperimentazione in grado di produrre innovazione o per lo meno favorire notevole elasticità progettuale. Se questo tipo di macchinari sono stati realizzati, in un primo momento, per sopperire alla mancanza di veder realizzati i propri prototipi a un livello molto vicino alla realtà industriale, oggi vediamo come facciano concorrenza al mercato in una scala ben più ampia. La possibilità di personalizzare un oggetto, non solo per la sua estetica ma per adattarlo alle esigenze del consumatore, rappresenta il punto di partenza nella scelta dei materiali impiegati, tale valutazione non è mai banale in un’ottica di Design sostenibile: bisognerà quindi considerare la durata dell’utilizzo, le prestazioni meccaniche, l’estetica e lo smaltimento. Tra le riviste e il web vediamo un susseguirsi di manufatti realizzati attraverso le nuove tecnologie con materiali inaspettati. Nel caso della stampa 3D oltre alla plastica, in particolar modo ABS, PLA, sono di utilizzo gomme, ceramiche, legno, metalli e addirittura oro. La plastica è sicuramente il materiale più diffuso e in molti stanno pensando a come riuscirne a ridurre gli impatti. L’organizzazione no-profit “The Ethical Filament Foundation” detta le linee guida attraverso una serie di norme etiche e tecniche per certificare i produttori di plastica riciclata affidabili che possono quindi utilizzare il relativo marchio di accreditamento. Secondo l’organizzazione 15 milioni di persone al mondo si occupano di raccolta rifiuti elaborando, quanto possibile, materiali riciclabili. Dal loro sito internet è possibile scaricare le linee guida che raccolgono i requisiti necessari per ottenere la suddetta Certificazione (http://www.ethicalfilament.org/ why/).

ET

47


Gli obiettivi del progetto sono: offrire al mercato un filamento prodotto in maniera ecologica ed etica in grado di essere competitivo con il materiale vergine, aprirsi a un nuovo mercato dove il materiale proveniente da un rifiuto o scarto sia considerato un valore aggiunto e non venga penalizzato, promuovere le comunità che si occupano di riciclaggio generando progetti che possano crescere nel tempo portando un beneficio reale, sia in termini economici che in qualità della vita, infine contribuire al miglioramento generale dei parametri riguardanti i rapporti commerciali tra i raccoglitori di rifiuti e gli standard di settore che influenzano il loro lavoro. Per quanto riguarda le linee guida tecniche da seguire esse vengono suddivise in cinque macro categorie che comprendono: l’uniformità dimensionale, la stampabilità, le proprietà meccaniche delle componenti stampate, la solidità del colore e il grado di contaminazione; tutti i filamenti di Ethical Filament Foundation sono testati attraverso test universitari e hardware open source. La rete offre certamente molti esempi ed esperienze, i progettisti di tutto il mondo affrontano quotidianamente nuove sperimentazioni che vedono protagonisti numerosi materiali organici e pubblicano i risultati nei blog e sui propri portfoli web.

ET

48

Un appuntamento interessante è rappresentato dalla conferenza annuale dei materiali per la stampa 3D (Printing Materials Conference - http:// www.3dprintingmaterialsconference.com/) tenutasi nel mese di giugno al Chemelot Campus in Geleen (Olanda) in cui una sezione importante è interamente dedicata alla Biostampa; i chirurghi di tutto il mondo stanno utilizzando in maniera sempre

crescente la stampa 3D come strumento per creare piccole protesi tra cui applicazioni dentali e apparecchi acustici. L’applicazione più dirompente potrebbe essere la cosiddetta “Bioprinting” la produzione cioè di organi umani idonei per gli interventi di trapianto, tale tecnologia prevede la realizzazione di tessuti e organi di ricambio stampati layerby-layer (strato su strato) in una struttura tridimensionale. Di pochi giorni fa la notizia della prima vertebra stampata e impiantata in un paziente a Pechino. Il continuo sviluppo di nuovi materiali non solo ha effetti impattanti sulla qualità del prodotto finito ma anche una conseguenza positiva sul costo del materiale stesso infatti, al momento, i produttori di stampanti 3D detengono una sorta di monopolio sui propri clienti, costringendoli ad acquistare il materiale da una sola filiera e concedendosi il lusso di imporre un prezzo sempre crescente. I progettisti di qualsiasi grado e area di sviluppo hanno quindi la possibilità di sperimentare per riuscire a interrompere questo ciclo, alzando così il livello di innovazione.

Impatti ambientali della Stampa 3D Con la diffusione delle stampanti 3D si possono sperimentare tecnologie, dalle qualità accettabili e che fino a poco tempo fa sembravano inaccessibili, con cui è possibile realizzare elementi sia per la prototipazione rapida sia per la produzione in piccoli quantitativi. Ma, quanto sono impattanti queste componenti e qual è la fase più impattante del loro ciclo di vita? Come possiamo ridurre questi effetti? Una piccola analisi può darci un contributo alla risposte sulle precedenti domande; sono partito dalla stampante che ho a


Immagine 1

Immagine 2

presso uno stabilimento in provincia di Vicenza, il suo trasporto a Milano e l’impatto del

disposizione, una Mankati (Immagine 1) dalle seguenti caratteristiche principali: tecnologia di deposizione del filo (FDM), una risoluzione massima di 0.02 mm, doppio estrusore, potenza 280W e una velocità massima di 180 mm/s. Ho ipotizzato due utilizzi comuni di questa tecnologia: l’elaborazione di un prototipo rapido di un terminale domotico (Immagine 2) con una qualità bassa e lo stampaggio, dello stesso elemento, per una prima serie con una qualità superiore, entrambi elaborati in PLA. Tabella riepilogativa:

L’analisi del Ciclo di Vita in modalità “internal screening” è stata effettuata usando come metodo di calcolo l’Ecoindicatore99 e come unità di misura i punti di impatto ambientale comprendenti le diverse categorie d’impatto considerate in Europa espressi in mPt (milli punti). Ho considerato tutte le fasi del Ciclo di Vita del prodotto, dall’ottenimento della materia prima considerando il PLA proveniente dal mais, l’acquisto online

presso uno stabilimento in provincia di Vicenza, il suo trasporto a Milano e l’impatto del relativo packaging. Nella fase di produzione ho considerato il consumo di energia della stampante oltreché tutti i materiali utilizzati per facilitare la stampa come, ad esempio, il nastro adesivo. Il trasporto e l’uso sono equivalenti a zero visto che la componente si produce dove si usa e non ha bisogno di altri elementi per

ET

49


svolgere la sua funzione. Nella fase di fine vita ho considerato l’eventuale riciclaggio di tutti gli elementi, compreso il packaging. Infine ho ipotizzato una possibile conversione del PLA impiegato, in nuovo filo per stampare altri elementi. I risultati sono sintetizzati nel seguente grafico:

Impa% ambientali a seconda del 1po di stampa 3D (mPt) Bassa qualitá

Alta qualitá 462,3

Si vede l’importante incidenza della fase di produzione, il cui consumo di energia rappresenta la maggior parte degli impatti, sia nella stampa a bassa qualità che in quella ad alta, mentre il secondo punto di maggior impatto è costituito dalla materia prima. È interessante vedere come l´incidenza

gg io la cic

gg io

(0,1) (0,2)

Ri

la cic Ri

Ri

cic

la

tc

gg io

h

4 ,5 0,0 2 ,3 3,1 2,3 0 ,0

Sc o

gia er En

lo to

LD ck Pa

ck Pa

Ro

PE

g ag in

o ist qu

rto

Ac

as po

Tr

PL A

130,0 54,2 37,3 0,4 3 ,6 0,1 0 ,6 0,0 0 ,6 2,5 0 ,1 0 ,0 0,1

del consumo di energia non cresca proporzionalmente all’incidenza della materia prima, infatti, mentre nella stampa di bassa qualità la materia prima incide per un 23% e l’energia in un 75%, in quella ad alta qualità il rapporto è pari rispettivamente a 11% e 88%, come evidenziato dal seguente grafico:

Confronto percentuali di impa1o Bassa qualitá 75%

23%

ET

50

88%

11%

MATERIE PRIME

Alta qualitá

0% PRODUZIONE

0%

DISTRIBUZIONE

0%

0%

USO

2%

1%

FINE VITA


Come possiamo intervenire per avere stampe a basso impatto ambientale? - In primo luogo è opportuno porre l’attenzione soppratutto al consumo di energia, rispettando i parametri di qualità richiesti per ogni applicazione, così come verificare l’esatta quantità di materiale necessario. - Considerare che gli elementi che richiedono più layer, a parità di materiale usato, impiegheranno più tempo di realizzazione e maggiore energia, bisogna quindi arrivare a un giusto compromesso tra la qualità superficiale e il tempo di stampa. - Stimare che solo in poche occasioni i primi elementi rispecchiano gli standard di perfezione finale, motivo per cui è più indicato realizzare le prime prove in bassa qualità superficiale così da realizzarle in tempi brevi e riducendo il consumo energetico.

- Evitare le possibili fughe di calore, chiudendo bene la stampante e l’ambiente dove si sta realizzando la stampa, cercando di non rimanere nella stanza durante la lavorazione in quanto i vapori, come quello dell’ABS sono dannosi per la salute. - Se si sta acquistando una stampante è importante considerare il consumo energetico della stessa, orientando la scelta verso apparecchiature ad alta efficienza energetica. - In fase di progettazione studiare una corretta distribuzione della quantità di materiale, in relazione all’uso richiesto, tenendo in considerazione che gli elementi stampati in 3D sono isotropici, pertanto le proprietà di resistenza meccanica cambiano a seconda della direzione in cui sono applicate le forze, ciò eviterà di stampare componenti inutilizzabili.

- Una volta definito l’elemento da stampare ed effettuate le rispettive prove, è indicato stampare più elementi per sessione, così da ottimizzare il riscaldamento della macchina e del piatto.

- Abbinare all’acquisto della stampante 3D una seconda macchina per riciclare le componenti inservibili o le strutture di supporto degli elementi che ne richiedano la presenza nella sola fase di stampaggio, così da implementare la fase di riciclaggio in casa.

ET

51


Parola d’ordine: OPEN Sentiamo parlare con maggiore frequenza di un futuro sempre più “Open” dove conoscenza, tecnica, economia e produzione sono accessibili a tutta la comunità, in fondo non manca poi molto e sono già in atto tutti i presupposti. A luglio si è tenuto a Barcellona “Fab10”, decima edizione della conferenza annuale sulla fabbricazione digitale e sul mondo dei Fablab, dove è stato lanciato l’ambizioso progetto “Fab Cities”, con il quale il consiglio comunale spera di stabilire una rete di Fablab di quartiere. L’obiettivo è quello di avere, nell’arco di circa 6 anni, 10 laboratori attivi e integrati con le comunità locali, uno per ogni distretto. L’idea di creare una rete cittadina di Fablab nasce dal desiderio di riportare la produzione nell’area metropolitana e in particolare ai cittadini, cercando di ricreare una versione moderna delle corporazioni medievali. “Fab10” rappresenta quindi un’occasione per sondare l’interesse da parte della comunità locale e per cominciare a costruire un ecosistema di laboratori che includa anche alcuni spazi ibridi e makerspace già esistenti in città. Un po’ come avvenne all’epoca dei primi computer e calcolatori elettronici, bisognerà passare da una utenza di nicchia alla integrazione di tali tecnologie nella vita di tutti i giorni, creando ecosistemi che facciano i conti con ambiente e comunità locali. Ad oggi il fenomeno dei Fablab è ancora troppo fresco per delineare dei chiari modelli economici di sviluppo, ma possiamo già intravedere quali potrebbero essere i possibili scenari:

ET

52

1. la

produzione

distribuita:

ossia

l’assemblaggio nei Fablab di prodotti rilasciati con licenze “open source”, in questo senso la rete ha già iniziato a pullulare di progetti “open”, dagli oggetti scaricabili attraverso il portale thingiverse.com, ai progetti nati dalla “competition” lanciata qualche anno fa da Domus e Fablab Torino che ha dato alla luce una collezione di “open forniture”, rilasciata con licenza creative commons; 2. la customizzazione on-site: è contenuta in buona parte nella produzione distribuita ma non impiega necessariamente delle licenze aperte. Se le stesse tecnologie di produzione vengono utilizzate per rifinire alcuni dettagli dei prodotti di consumo, è possibile dare vita a oggetti altamente personalizzati. Immaginate di acquisire attraverso degli scanner 3D le mani di un motociclista che si fa stampare le manopole e le leve dei freni su misura; 3. la prototipazione aperta: ovvero lo sviluppo di nuovi prodotti da parte di comunità d’innovatori in collaborazione con le imprese. Un Fablab potrebbe offrire in abbonamento, oltre all’uso dell’attrezzatura, la capacità progettuale del team che lo anima, diventando così un luogo deputato a gestire la prototipazione di nuovi prodotti: questi possono avere origine da un designer, da un inventore o da una società. Come designer trovo stimolante la terza possibilità, resa possibile solo attraverso la condivisione del know how da parte delle imprese in un’ottica di sperimentazione e di sviluppo di nuovi prodotti che possano essere davvero rilevanti per gli utenti finali. Diviene interessante lo sviluppo di un sistema di prototipazione diffusa che potrebbe aprire


delle sedi nei diversi distretti nazionali al fine di favorire un enorme trasferimento di conoscenza, dalle imprese ai designers e tra le imprese. Se volessimo davvero innovare il sistema, i Fablab dovrebbero aprirsi alle PMI e le stesse dovrebbero affiancarsi al mondo dell’open manufacturing. Fablab metropolitani porterebbero a contatto i prototipi con i futuri clienti, testando in anticipo le opportunità commerciali, creando una economia circolare dove i prodotti siano il frutto di una progettualità diffusa e dove i nuovi makers saranno i vettori di questo cambiamento.

Bibliografia: Dopo gli anni Zero, il nuovo design italiano, Chiara Alessi, Editori Laterza, 2014 Sitografia: http://www.wedofablab.com http://www.emiliaromagnastartup.it/categoria/tag/ westarter http://www.fablabreggioemilia.org http://www.reinnova.it http://www.slowd.it http://www.gea-pn.it/wp-content/uploads/2013/06/ Estratto_Rapporto_Rifiuti_Urbani_2013.pdf http://www.ar-co.org/it/progetti/realizzati/gomme/index. php http://www.piulab.it/1/progetti_657473_1.html http://www.thingiverse.com/thing:163746 http://project-re.blogspot.it/ http://www.minale-maeda.com/Keystones/page01.html http://www.mankati.com/fullscale-xt.html#sthash. Uzzj1A4w.dpbs - Stampante Mankati http://www.openlca.org/ - Open LCA http://www.presustainability.com/download/manuals/ EI99_Manual.pdf - Econdicator 99 http://www.chefuturo.it http://www.domusweb.it

ET

53


Rubrica LCA

a cura di Massimo Granchi e Riccardo Bozzo

IL CONSUMATORE SOS Introduzione Da tempo il consumatore ha una scelta varia di prodotti equivalenti offerti a lui con differenti caratteristiche che ne contraddistinguono la modalità di utilizzo. Un consumatore infatti dispone adesso di molteplici canali per raggiungere un prodotto/servizio, che gli viene così offerto con caratteristiche differenti: diverse marche o distributori, una diversa modalità di acquisto, la possibilità di avere dei commenti sulle sue caratteristiche, diverse fasce di prezzo, livelli qualitativi più disparati, etc. Tra le varie caratteristiche, che contraddistinguono un prodotto/servizio da un altro analogo, inizia da poco a farsi strada la variabile ambientale, variabile che può riguardare le prestazioni ambientali del prodotto stesso o anche l’impegno ambientale dell’ azienda che lo eroga al consumatore. Ma quanto incide questo aspetto, quanto il consumatore italiano medio è pronto a recepire il messaggio ambientale e informato - quanto è in grado di decifrare le indicazioni che gli vengono rese? Nel presente articolo si vuole cercare di dare una risposta a questa domanda, basandosi su vari studi effettuati nell’ultimo periodo in Europa e in Italia.

Le tendenze del consumo sostenibile in Italia

ET

54

Come punto di partenza, per parlare

di consumatori e sostenibilità, bisogna ricordare che le ricerche sui dati di consumo sostenibile in Italia sono agli inizi. L’Italia infatti era l’unica nazione europea nella quale non era presente un’ etichetta ambientale fino all’istituzione dell’Ecolabel a livello europeo; infatti paesi come la Germania già dagli anni ’70 possiedono etichette - quindi marchi di qualità e ambientali - che certificano le caratteristiche di un prodotto, anche dal punto di vista ecologico. Va da sé che lo studio delle abitudini di consumo legate alla performance ambientale siano abbastanza limitati e di recente applicazione. Nonostante il breve periodo di analisi gli andamenti del mercato mostrano già chiaramente un diffuso interesse verso i temi della sostenibilità ambientale e del consumo critico e responsabile. Quanto emerge è particolarmente interessante e - inoltre - denota come questa attenzione verso le politiche verdi si sta tramutando velocemente in Italia da tendenza associata a una moda, a un vero e proprio impegno per un “bene comune”, visto l’alto e crescente numero di attori istituzionali ed economici che aderiscono a questo movimento. Un aspetto molto interessante è rivestito poi dal tipo di comunicazione che il consumatore italiano cerca o si aspetta da un’azienda attenta all’ambiente: infatti, la diffidenza nelle novità e nei proclami tipica del consumatore italiano - fa sì che si ricerchi un elevato livello d’ informazione. Il consumatore non si ferma quindi ad azioni di marketing di facciata senza reali interventi di sostanza - ovvero i casi di greenwhasing - ma


STENIBILE

vuole vedere un impegno ambientale reale e comprensibile. Con il termine anglofono greenwashing si intende il “lavaggio verde” dell’immagine che un’azienda dà di sé o dei suoi prodotti e servizi, attraverso l’esaltazione di presunti vanti ecologici ovvero dare un’immagine distorta della reale salvaguardia dell’ambiente messa in campo, ad esempio proponendo prodotti a “impatto zero” mentre in realtà l’azienda ha azzerato o compensato gli impatti di una sola parte della catena produttiva o per un breve periodo di tempo. Questo fenomeno, che esiste in tutto il mondo, in Italia ha portato l’Autorità Garante per la Concorrenza e il Mercato (“Antitrust”) a emettere dal 2009 al 2013 numerosi provvedimenti.

Le aspettative del consumatore Oltre ai famosi casi citati in precedenza, vi sono poi molti casi meno famosi di greenwashing e molte situazioni in cui un attento osservatore può notare una informazione incompleta o poco chiara. Tale pratica è particolarmente insidiosa, non solo perché anche quando praticata da poche imprese essa rischia di compromettere l’intero comparto dei prodotti ecologici, ma innanzitutto perché va a mettere in discussione il rapporto stesso tra imprese e consumatori, un rapporto che deve assolutamente porsi su un piano di assoluta parità e trasparenza, tale per cui venga valorizzato il rapporto di fiducia.

ET

55


Il fenomeno del greenwashing, inoltre, indica che le aziende hanno capito quanto il marketing orientato alle tematiche ambientali sia diventato importante per il consumatore. I pubblicitari infatti conoscono benissimo l’attenzione che i consumatori riversano nelle tematiche ambientali e quindi la predisposizione verso un acquisto di un prodotto ecofriendly: dati recenti dell’Osservatorio sulla comunicazione e l’informazione ambientale dello IEFE, testimonia che, nonostante la forte crisi che ha colpito negli ultimi anni il settore pubblicitario, gli investimenti pubblicitari verso tematiche green hanno subito un’impennata del 430% nel periodo tra il 2006-2010 e gli annunci sponsorizzati sulle piattaforme quali stampa, radio e tv hanno subito l’aumento del 1400%. In generale, quindi, il consumatore italiano si pone mediamente delle aspettative piuttosto elevate, anche perché dai sondaggi risulta molto preoccupato per l’ambiente e in cerca di un impegno concreto, come, d’altra parte, testimoniano un numero crescente d’ indicatori, quali - ad esempio - la crescita della raccolta differenziata, della spesa biologica (o a chilometro zero) di servizi di trasporto “intelligente” come il car sharing, etc. La scelta dell’azienda quindi deve prediligere strumenti istituzionali e riconosciuti a livello internazionale, come etichette ambientali (Ecolabel e EPD) e protocolli di certificazione (EMAS o FSC, ad esempio). A conferma di questo dato basti vedere che le grandi catene di distribuzione hanno aperto una loro linea di prodotti ecocompatibili, dotati di marchi ambientali riconosciuti, relativi o al prodotto intero oppure al solo imballaggio.

ET

56

I fattori che influenzano la scelta del consumatore La crescita degli indicatori legati all’impegno ambientale del consumatore testimonia anche una crescente diffusione della necessità d’intraprendere stili di vita ecocompatibili. I dati, infatti, ci parlano non solo di una crescente fetta di persone attente all’ambiente, ma anche - e soprattutto - di un ampio numero di persone che vorrebbero esserlo, ma che i ritmi, gli impegni e la mancanza d’informazione demotivano fortemente. In tal senso, il bacino potenziale dei consumatori di prodotti ecologici si allarga notevolmente e la sfida rimane quindi


ecologici” (22%). La totale mancanza d’interesse verso i prodotti ecologici riguarda una percentuale decisamente marginale del campione (5%). Questo equivale a dire che circa il 73% degli intervistati non acquista prodotti ecologici poiché non ne comprende le reali prestazioni ambientali migliorate rispetto ad altri prodotti analoghi o, in generale, non ha a disposizione in modo chiaro informazioni esaustive (Cfr. Pei-Chun, Yi-Hsuan 2012). Una recente e molto dettagliata indagine condotta in collaborazione con l’Università degli Studi di Bologna mette in luce alcune caratteristiche che frenano o stimolano il cliente nell’acquisto di un bene ecologico rispetto a un altro. Ad esempio, mentre la qualità del prodotto ecologico non viene vista come un fattore critico, il prezzo più elevato invece - è messo spesso in rilievo: il 67% dei rispondenti hanno dichiarato che un prezzo inferiore favorirebbe l’acquisto di prodotti ecologici, in particolare in quei settori come arredamento e abbigliamento ove i prodotti hanno già prezzi abbastanza elevati. quella di rendere prodotti e servizi sempre più funzionali, sempre più integrati con la vita e le esigenze di tutti i giorni. A sottolineare i problemi pratici legati ai prodotti ecologici è anche una recente ricerca internazionale riguardante i fattori che influenzano le scelte di consumo di prodotti ecologici. In particolare, la ragione per cui i consumatori non comprano mai prodotti eco, riguarda soprattutto: “la non sicurezza se, quello acquistato, fosse realmente un prodotto ecologico” (48%), la “non conoscenza dei prodotti ecologici” in generale (25%) e la “non conoscenza riguardo a dove si possono comprare prodotti

Un altro dato interessante, per valutare la percezione di eco sostenibilità del consumatore, ci dice che un prodotto viene considerato ecologico non solo se consuma poca energia e poca acqua - anche in fase di produzione - oltre al fatto che limita le emissioni di CO2 -caratteristiche che paiono quasi scontate per un bene di questo tipo - bensì se è costruito utilizzando materie prime riciclate o se dotato d’imballaggio di materiali riciclabili e separabili, o addirittura se viene offerto sfuso o col vuoto a rendere. Inoltre - di non poco conto - è il fatto che la possibilità di condividere acquisti, prodotti e servizi, modalità di consumo con altri,

ET

57


viene vista in maniera molto positiva. Ben il 71% degli intervistati considera ecologica in sé l’opportunità di condividere prodotti e servizi. Questa circostanza sicuramente è influenzata dalla fiducia generalizzata riposta nello strumento di internet, che viene visto come garante della correttezza delle informazioni circolanti e come possibilità per coinvolgere altre persone nelle buone azioni personali. Per le aziende che quindi vogliono spingere verso i propri prodotti sostenibili sembra che dotarsi di uno strumento di coinvolgimento e fidelizzazione del cliente, basato sulla tecnologia mobile, sia quantomeno indispensabile per dare la possibilità all’utente di dimostrare il suo impegno verde e interessare nuovi utenti nel proprio processo virtuoso.

Conclusioni

ET

58

Quello che emerge con chiarezza dalle ricerche fin qui condotte però è - innanzitutto

- la mancata realizzazione delle aspettative del consumatore che sono, inizialmente, molto elevate: l’ambiente infatti - secondo una rilevazione Eurisko del 2012 - è tra le tre preoccupazioni principali degli italiani, posizionandosi subito dopo la disoccupazione e la crisi economica. Inoltre, le attese più forti riguardano la riduzione dei consumi inutili, la soddisfazione dei bisogni senza pregiudicare le opportunità delle generazioni future e l’introduzioni di tecnologie che, lasciando invariate le prestazioni, contribuiscano alla riduzione dei consumi energetici. La considerazione finale che possiamo fare è quindi che anche in Italia i consumatori sono pronti ad accogliere e investire emotivamente ed economicamente su prodotti a impatto ambientale ridotto, trovando una risposta da parte delle aziende inadeguata in generale, ovvero poco chiara e basata su tematiche poco convincenti.


ELOGIO

dell’ ERRORE

Estratto da: ELOGIO DELL’ERRORE di Tim Harford (Traduzione di Francesco Casolo). Sperling & Kupfer Editori SpA. Copyright 2011 Tim Harford «Il bizzarro compito dell’economia è dimostrare agli uomini quanto poco sanno di ciò che immaginano di poter progettare.» Friedrich von Hayek

Rubrica Un libro in 10 minuti

a cura di Pasqualina Pirone

Istintivamente, quando ci troviamo di fronte a una sfida complicata, cominciamo a cercare un leader che possa risolverla. Spesso, però, per risolvere problemi complessi come quelli attuali non bastano neppure le menti più eccelse. Forse la prova migliore di quanto stiamo dicendo si può ricavare da una straordinaria ricerca sui limiti dell’expertise avviata nel 1984 da un giovane psicologo chiamato Philip Tetlock. Molti risultati della ricerca sono umilianti per certi guru di professione. E perché non dovrebbero? Una delle cose più divertenti scoperte da Tetlock è stata che più gli esperti erano famosi — i presenzialisti dei dibattiti televisivi — più erano incompetenti. … i suoi risultati dimostravano chiaramente che gli esperti facevano in ogni caso meglio dei non esperti. Questi professionisti istruiti,

intelligenti e con una lunga esperienza alle spalle offrono dunque intuizioni che si rivelano utili, ma che non vanno più in là di questo. E la colpa non è loro, ma del mondo in cui vivono — e in cui viviamo anche noi —, il quale è troppo complicato perché chiunque possa farne un’analisi impeccabile. Ciò non avviene perché ogni volta eleggiamo i candidati sbagliati, ma perché sovrastimiamo le reali possibilità che una leadership del mondo moderno ha di

ET

59


raggiungere determinati obiettivi. Philip Tetlock ha mostrato gli enormi ostacoli che gli analisti politici ed economici incontrano nel tracciare previsioni accettabili, ed è inevitabile che tutti quei professionisti del marketing, dello sviluppo dei prodotti o delle strategie fatichino allo stesso modo per prevedere quello che succederà domani.

Non sono tanti i dirigenti d’azienda che amano ammetterlo, ma il mercato trova a tentoni la via giusta, mentre le idee vincenti prendono il volo e le altre scompaiono. Quando guardiamo ai sopravvissuti di questo processo — Exxon, General Electric e Procter & Gamble — non dovremmo vedere semplicemente storie di successo. Dovremmo fermarci a osservare anche la lunga e travagliata trama di fallimenti di tutte quelle aziende e idee che non ce l’hanno fatta. I biologi hanno una parola per descrivere il modo in cui una soluzione scaturisce da un insuccesso: evoluzione. Spesso sinteticamente definita come il processo di sopravvivenza del più adatto, l’evoluzione è in realtà innescata dalla sconfitta del meno adatto. In maniera del tutto sconcertante,

ET

60

data la nostra istintiva convinzione che i problemi complessi richiedano soluzioni progettate da esperti, l’evoluzione è anche completamente casuale. Un’incredibile complessità nasce come risposta a processi semplici: applichi alcune varianti a quello che già hai, elimini gli errori e tieni i successi, e così all’infinito. Variazione e selezione, ancora e ancora. Siamo abituati a pensare all’evoluzione come a qualcosa che accade nel mondo naturale, come a un fenomeno biologico. Ma non è sempre così. Sappiamo che il processo evolutivo è innescato da variazione e selezione. In biologia la variazione emerge dalle mutazioni e dalla riproduzione sessuale, che mischia i geni di due genitori. La selezione avviene attraverso l’eredità: le creature di successo si riproducono prima di morire e i loro discendenti condividono alcuni dei loro geni. Anche in un’economia di mercato agiscono variazione e selezione. Le nuove idee fioriscono dalle menti di scienziati e ingegneri, da meticolosi manager di medio livello all’interno di grandi aziende o da imprenditori ambiziosi. La selezione sanziona gli errori, dato che le idee cattive faranno poca strada sul mercato: per avere successo devi realizzare un prodotto che i clienti desiderino comprare a un prezzo che copra i costi e batta i naturali concorrenti. Molte idee non superano questo «test», e se non sono troncate sul nascere dal management finirà con l’occuparsene un tribunale fallimentare. Le buone idee, invece, si diffondono perché vengono copiate dagli avversari, perché i dirigenti mollano l’azienda per mettersi in proprio o perché le aziende con buone idee diventano sempre più grandi. Combinando variazione e selezione, abbiamo costruito il contesto


per un processo evolutivo; oppure, per dirla in maniera più diretta, risolvere problemi mediante tentativi ed errori. È tutto piuttosto insensato, anzi quasi fastidioso. Molti ritengono che i dirigenti delle grandi aziende debbano avere delle qualità: lo pensano sicuramente gli azionisti, che pagano loro profumati stipendi, ma anche i milioni di persone che comprano i loro libri per cercare di assorbire un po’ della saggezza di questi talentuosi capitani d’industria. Gli esperti di Tetlock, però, erano quasi impotenti di fronte alle complesse situazioni che ha chiesto loro di analizzare. Dovremmo dunque pensare che questi leader d’azienda siano del tutto incapaci e annaspino in cerca di soluzioni e strategie in una spessa coltre di nebbia? È quello che l’analogia evolutiva parrebbe suggerire. Nell’evoluzione biologica il processo di cambiamento non ha preveggenza. È il risultato della mera successione di tentativi ed errori nel corso di centinaia di milioni di anni. Questo potrebbe valere anche per un sistema economico, nonostante i grandi sforzi di manager, strateghi e consulenti? Un indizio interessante lo fornisce l’economista Paul Ormerod, che ha passato in rassegna ciò che i reperti fossili dicono riguardo all’estinzioni avvenute negli ultimi cinquecentocinquanta milioni di anni, incluse quelle di massa, che fanno sembrare la scomparsa dei dinosauri un fatto irrilevante. Questa raccolta di dati ha messo in luce

un’evidente relazione fra le dimensioni di un fenomeno di estinzione e la frequenza con cui lo stesso avviene: se tale fenomeno è due volte più grande, è anche nove volte più raro. Le epoche in cui avvengono estinzioni molto piccole sono le più frequenti. L’estinzioni biologiche e l’estinzioni delle aziende hanno dunque in comune questa stessa caratteristica. Ciò non significa che il sistema economico sia un ambiente evolutivo e che le strategie aziendali evolvano più attraverso tentativi ed errori che non grazie a buone pianificazioni, tuttavia offre un suggerimento importante. Se le aziende fossero davvero capaci di elaborare strategie di successo, come molti di noi tendono a pensare, e nonostante Tetlock abbia mostrato i limiti dell’expertise, allora l’estinzione delle aziende dovrebbe assumere caratteristiche del tutto differenti rispetto a quella delle specie. In realtà, tali caratteristiche non potrebbero essere più simili. Non dobbiamo trarre conclusioni [...] ma la scoperta di Ormerod mostra chiaramente che una programmazione efficace è rara nell’economia moderna. L’evidenza suggerisce che in un ambiente competitivo si compiono molte scelte imprenditoriali sbagliate, quindi spetta alle aziende scartare continuamente le idee cattive e cercarne di buone. In un modello complesso e mutevole. Il “prova e sbaglia” è essenziale. Questo è vero sia quando lo applichiamo consciamente, sia quando ci facciamo sballottare in giro dai risultati. Se procedere per tentativi ed errori è

ET

61


essenziale per come il mercato funziona, applicare questo metodo alla nostra vita può rappresentare una grossa sfida. Che ci piaccia o meno, procedere per tentativi ed errori è incredibilmente efficace per risolvere i problemi in un mondo complesso, a differenza delle capacità dei leader. I mercati abbracciano tale procedimento, il che non significa che dovremmo lasciare tutto al mercato. Invece, vuol dire che di fronte a problemi apparentemente irrisolvibili, come una guerra civile, il cambiamento climatico o l’instabilità finanziaria, dobbiamo trovare un modo per sfruttare il “segreto” del procedere per tentativi ed errori al di là del contesto familiare di mercato.

Dovremmo commettere un numero imbarazzante di errori e imparare da questi, più che nasconderli o negarne l’esistenza persino a noi stessi. Anche se questo non è il modo in cui siamo stati abituati ad affrontare la vita. • • •

ET

62

Nessun leader può fare sempre la scelta giusta. È impossibile conoscere in anticipo la strategia corretta. Nessuna strategia resiste al primo contatto con il nemico. A fare la differenza

è quanto rapidamente i leader riescono ad adattarsi. Anche se “diverso” spesso viene inteso come “sbagliato”, provare qualcos’altro è di per sé un vantaggio. Le scelte migliori vengono sempre da gruppi eterogenei. Nel 1981, il generale David Petraeus aveva già ricevuto una lezione sull’importanza dei feedback, quando da semplice capitano gli fu offerto di lavorare come assistente del generale maggiore Jack Galvin. Quest’ultimo spiegò a Petraeus che la parte più importante del suo lavoro era criticare il suo capo: “il mio compito è comandare la divisione, il tuo è criticare me”. Fu una lezione fondamentale per un ufficiale che non amava ammettere i propri errori. Jack Galvin insegnò a Petraeus che non era sufficiente tollerare il dissenso: in certi casi bisognava esigerlo. Il ritorno sull’investimento non è un parametro utile per dare un valore alle nuove idee e alle nuove tecnologie. È impossibile fare una stima di un ritorno percentuale sulla ricerca pura, e può essere un’illusione anche solo provarci. La maggior parte delle nuove tecnologie non porta a nulla, e la maggior parte delle idee originali finisce con l’essere non così originale, oppure originale semplicemente perché inutile. Al contrario, quando un’idea originale funziona, il ritorno può essere troppo alto per essere precisamente misurato. Le idee brillanti emergono dal vorticoso mescolarsi con altre idee, non dall’isolamento dei cervelli. Una volta apparsa, una nuova idea ha


bisogno di uno spazio vitale per maturare e svilupparsi in modo che non venga assorbita e schiacciata da visioni più convenzionali.

L’idea di consentire a molte idee di svilupparsi in parallelo è contraria ai nostri istinti, poiché per natura siamo portati a chiederci quale sia l’opzione migliore e a concentrarsi su quella. Ma dato che la vita è così imprevedibile, quella che inizialmente sembrava un’opzione secondaria può rivelarsi esattamente ciò di cui avevamo bisogno. In molte situazioni della vita conviene non scartare la possibilità di affrontare strade parallele – se vogliamo fare amicizia, meglio unirsi a gruppi diversi, non solo a quello che ci sembra più promettente – e questo discorso vale soprattutto nell’ambito dell’innovazione, in cui una singola buona idea o una nuova tecnologia possono risultare davvero utili. “Ho provato. Ho sbagliato. Non importa. Prova ancora. Sbaglia ancora. Sbaglia meglio.” di Samuel Beckett

METTERE IN DISCUSSIONE PROPRIO SUCCESSO

IL

Primo, provare nuove cose. Secondo, provarle in un contesto dove si

possa sopravvivere al fallimento. Terzo, reagire al fallimento. Numerose le trappole della mente che spesso ci impediscono di imparare dagli errori e ottenere risultati migliori. La prima tendenza è quella del rifiuto. Sembra che ammettere di avere fatto un errore e provare a correggerlo sia la cosa più difficile del mondo… perché richiede di “mettere in discussione il proprio successo”. Perché abbiamo una naturale propensione al rifiuto? Gli psicologi hanno dato a questo atteggiamento il nome di “dissonanza cognitiva” che descrive le difficoltà della mente nel conciliare due pensieri apparentemente contraddittori. La seconda trappola che la mente ci riserva consiste nel rincorrere le nostre sconfitte nel tentativo di scacciarle. Fare pace con le nostre sconfitte può essere insostenibile. Mentre il rifiuto è non voler riconoscere un errore e rincorrere le proprie sconfitte aggrava il danno nel tentativo di cancellare frettolosamente lo sbaglio, l’editing edonistico è un processo più elusivo che consiste nel convincere noi stessi che l’errore non conta. Un modo per metterlo in pratica è fare un unico fascio di vittorie e sconfitte. Un processo psicologico diverso, sebbene abbia un effetto simile sulla nostra capacità d’imparare dagli errori, consiste semplicemente nel reinterpretare i fallimenti come successi. Ci convinciamo che quello che abbiamo fatto non è così male, anzi che tutto è riuscito al meglio. Un gruppo di ricercatori, tra cui lo psicologo

ET

63


Daniel Gilbert, ha dimostrato quanto questa tendenza sia profondamente radicata nella nostra mente. “Questa è la felicità in sintesi: quello che ho avuto è molto meglio di quanto pensassi! Quello che non ho avuto, fa schifo!” Tendiamo dunque a considerare le decisioni che abbiamo preso in passato migliori di quello che sono. Sono questi, dunque, i tre ostacoli che ci impediscono di seguire il vecchio consiglio “impara dai tuoi errori”: il rifiuto, perché non sappiamo separare il nostro errore dall’autostima; il comportamento autodistruttivo, perché aggraviamo le sconfitte cercando di recuperarle; e i tentativi d’indorare la pillola delineati da Daniel Gilbert, in base ai quali ricordiamo gli errori del passato come fossero trionfi, o mescoliamo insieme fallimenti e successi. Quindi, come superare questa condizione?

TU SAI CHE HANNO RAGIONE Fare cose stupide nel tentativo di correggere il passato è tipico dell’essere umano. Dobbiamo imparare a dubitare di noi stessi, come possiamo riuscirci? Nelle nostre vite abbiamo bisogno di “informatori” che ci avvertano riguardo agli “errori latenti” che abbiamo fatto e che stanno solo aspettando di coglierci nuovamente di sorpresa. In breve, tutti abbiamo bisogno di un critico, e per molti quello interiore non è abbastanza onesto. Serve qualcuno che ci aiuti a far convivere quei due pensieri inconciliabili: non sono un fallimento totale, ma ho fatto un errore. Dobbiamo avere una “squadra di convalida”:

ET

64

amici e conoscenti che ci sostengano, ma che ci dicano anche come stanno le cose.

Tutto ciò che occorre sono persone con una buona capacità di giudizio in altri ambiti della loro vita, che tengano a te e ti diano un parere sincero senza trattenersi. Uno dei meriti sottovalutati del mercato consiste nel fatto che sia dotato della maggior parte dei requisiti di una squadra di convalida. I clienti di un imprenditore hanno una buona capacità di giudizio riguardo ai loro stessi interessi, e quando comprano o non comprano quello che vende è come se gli dessero un parere sincero, senza peli sulla lingua. Tante nuove idee non funzionano perché è indispensabile un buon meccanismo di selezione, e una buona squadra di convalida può correggere la nostra esperienza meglio di quanto siamo in grado di fare da soli.

CREARE IL PROPRIO SPAZIO SICURO IN CUI SPERIMENTARE John Kay, autore del libro The Truth About Markets (le verità sui mercati) descrive il funzionamento del mercato usando


l’espressione “pluralismo disciplinato” cioè esplorare molte nuove idee ma bocciare senza esitazione quelle fallimentari, anche quando sono sia del tutto originali, sia vecchie di centinaia di anni. Ma sebbene Kay non lo dica, il pluralismo disciplinato potrebbe essere un credo valido anche per una vita ricca di successo e soddisfazioni. Il pluralismo conta perché la vita non sarebbe degna di essere vissuta se non facessimo nuove esperienze: nuove persone, nuovi luoghi, nuove sfide. Ma anche la disciplina conta, perché non possiamo considerare la vita soltanto come un viaggio psichedelico attraverso una sequenza casuale di sensazioni nuove. A volte dobbiamo davvero dedicarci a ciò che funziona. Altrettanto importante è capire che talvolta dobbiamo impegnarci in senso opposto e capire che ciò che ci sta avvelenando la vita vale meno del tempo che gli riserviamo. Forse

con

l’età

esitiamo

di

più

a

sperimentare, perché siamo più consapevoli della verità (alla base di questo libro) cioè che in un mondo complesso è improbabile riuscire bene al primo colpo. Abbracciare l’idea di adattarsi nella vita di tutti i giorni equivale ad accettare di fare errori marchiani in un processo d’incessanti fallimenti. Quindi è bene ricordare perché vale la pena sperimentare, anche se molti esperimenti finiranno davvero con il fallire: perché correggere gli errori può essere più liberatorio di quanto gli errori siano distruttivi, anche se spesso in quel momento pensiamo che sia vero il contrario. Un solo esperimento riuscito può cioè cambiare le nostre vite in meglio più di quanto un esperimento fallito possa peggiorarle, fintantoché non ci ostiniamo a rifiutare o a rincorrere le nostre sconfitte. Sperimentare è un processo che può fare paura. Continuiamo a commettere errori senza sapere se stiamo andando nella direzione giusta o meno. Ma sperimentare non dev’essere necessariamente così. L’abilità di adattarsi richiede senso di sicurezza, la fiducia interiore che saremo in grado di sopportare il costo del fallimento. Qualunque sia la fonte di tale abilità, dobbiamo essere disposti a rischiare di fallire, altrimenti non potremo mai veramente avere successo.

ET

65


Come trasformare la passione in emozioni Ing. Manganelli, che cosa offre questo Master?

Mario Manganelli, Responsabile Area Motori Racing di Aprilia Racing, presenta il Master in Ingegneria del Veicolo da Competizione: «Vorrei che gli studenti capissero l’importanza del lavoro e dello studio: senza passione non si ottengono risultati. Questo corso è una grande opportunità per diventare una figura tecnica con elevate competenze trasversali sia nella progettazione che nel calcolo strutturale».

ET

46

Offre una risposta concreta al bisogno di una figura tecnica flessibile con elevate competenze specialistiche e trasversali sia nella progettazione che nel calcolo strutturale. Il Master propone un percorso di formazione ingegneristica innovativo che unisce le conoscenze teoriche tecniche a quelle pratiche, con l’obiettivo di formare figure professionalmente specializzate in grado di inserirsi direttamente nella realtà del progetto dei motori moderni orientati anche all’utilizzo su veicoli da competizione con approfondimenti utili ad aree che nell’edizione precedente non erano presenti. Ho volutamente inserito nuovi moduli di formazione quali: aerodinamica e dinamica del veicolo, aerodinamica e dinamica del motoveicolo, i gruppi Power Unit Hybrid per veicoli da competizione e un interessante approfondimento sull’utilizzo dei materiali compositi, in particolare del carbonio. Professionalità, qualità dell’insegnamento, ma anche la possibilità di un futuro nel mondo del lavoro: qual è il valore aggiunto di questo Master? Il master si propone, in modo particolare, di: − chiarire e illustrare i regolamenti tecnici che sono alla base delle categorie da competizione;


ET

47


− illustrare la teoria di base dei motori come cenni fondamentali; − definire il processo di progettazione di un motore da competizione; − approfondire la definizione dei componenti principali che compongono un motore 4T; − mostrare nel dettaglio gli impianti funzionali e accessori del motore 4T; − disegnare e progettare tramite CAD 3D & 2D di ultima generazione seguendo un training dedicato alcuni componenti principali del motore; − conoscere tramite le attività di Training Advance il calcolo strutturale FEM e CFD con software evoluti e dedicati alle attività di “Engine design”; − presentare e approfondire le conoscenze sulla dinamica del veicolo e del motoveicolo; − introdurre e ampliare le conoscenze sull’aerodinamica del veicolo e del motoveicolo; − confrontarsi con ingegneri che lavorano nel settore race Engine design & Vehicle development; − presentare e illustrare le tecniche di progettazione e produzione dei materiali compositi che utilizzano la fibra di carbonio; − approfondire le conoscenze delle nuove tecnologie sulle Power Unit da competizione, sulla tecnologia Hybrid e simili sistemi di trazione; − affrontare le problematiche di Team Working e di Problem Solving tramite un esperto del settore di consulenza aziendale; − conoscere e confrontarsi con le diverse esigenze delle realtà aziendali e con la pianificazione dei progetti; − indicare gli obiettivi e quindi i percorsi lavorativi nel settore auto-motoristico internazionale.

ET

48

Mario Manganelli in sella all’Aprilia SBK RSV4 che ha vinto con Max Biaggi il campionato piloti e costruttori WSBK nel 2010. «È la moto a cui sono più affezionato,così pure al pilota Max Biaggi, che ancora sento spesso, essendo la prima moto con cui ho vinto qualcosa di importante nella mia professione di ingegnere e capo progetto motori racing».


Alta specializzazione, capacità di adattamento e studio. Che risposta si aspetta dai ragazzi a un corso di livello così avanzato?

approfondimento. Sono presenti, all’interno delle ore totali, tre moduli di Training Advance con software dedicati:

Mi aspetto che, al termine di questo corso, gli studenti sappiano qual é la prima attività di progetto da fare da dove partitre quando si trovano di fronte al foglio da disegno bianco, oggi chiamato CAD.

Simulazione strutturale di componenti motore con il software VPS di ESI. - Simulazione fluidodinamica di componenti motore con il software CFD-ACE+ di ESI. Corso di formazione del software GTPower per il calcolo 1-D della prestazione del motore. - Corso di formazione del software GT-Valve Train per il calcolo 1-D di sistemi di comando della distribuzione.

Detto degli studenti, parliamo degli insegnanti e del metodo di insegnamento. Come avete scelto i vostri docenti? I docenti dei moduli sono tutti professionisti del settore che operano quotidianamente sulle problematiche dei veicoli da competizione a 360° a livello internazionale. Inoltre sono presenti un certo numero di testimoni aziendali che porteranno agli studenti ulteriori nozioni che derivano direttamente dalla pluriennale esperienza che hanno maturato duranti gli anni di lavoro. Sono testimoni di aziende leader nel settore delle competizioni che è obbligo scegliere quando si opera in questo ambiente a livello internazionale. Simulazioni e pratica garantiscono un approccio dinamico al Master: quali corsi svilupperete in questo senso? Il Master in Ingegneria del Veicolo da Competizione si basa su una didattica attiva, tesa a favorire una costante interazione tra i partecipanti e i docenti oppure testimoni aziendali. Parallelamente all’utilizzo di alcuni software di modellazione parametrica e calcolo numerico sia 3D che 1D per tutto il periodo del corso, si affiancano un certo numero di ore di esercitazioni pratiche mirate a effettuare esempi concreti per verificare direttamente con i docenti ulteriori punti di

Quando un vostro studente esce dal Master è già pronto per inserirsi nel mondo delle competizioni? Rispondo portando un esempio che tratto nel modulo progetto motore: faremo i conti non solo con l’ingegneria. Conservare l’impronta aziendale, l’esperienza del progettista (noi), il rischio di fare qualcosa di nuovo, sono tutti elementi determinanti nella scelta di un progetto motore. Inizieremo a calcolare e progettare, in alcuni casi invece — se abbiamo lo «sbuzzo», come si dice dalle nostre parti — progetteremo e poi calcoleremo (metodo chiamato anche progetto concettuale). Quindi inizieremo a renderci conto di cosa ci piace fare, capiremo dove la nostra mente trova campo di azione per un lavoro prossimo futuro. Un obiettivo che vorrei raggiungere da ingegnere, ma anche da appassionato, è quello di trasmettere agli studenti (se già non è presente dentro di loro) una passione al miglioramento continuo e fargli capire che nella vita bisogna darsi degli obiettivi. E’ anche questo che serve alle aziende che operano nel settore delle competizioni oltre che a un’adeguata formazione tecnica.

ET

49


Finalizzato soprattutto agli ingegneri, il Master sembra fatto su misura per temi come sviluppo e progettazione: avete qualche sinergia con case, team e preparatori?

Tecnologia, innovazione, studio dei materiali sono le basi su cui si fonda il motorsport: quanto conta invece il colpo di genio, il talento?

Si, sono presenti case e team operanti nel settore automotive e motorsport a 2 oltre che a 4 ruote del settore sia diretto che indiretto. Un esempio sono aziende come Aprilia Racing del gruppo Piaggio, la Dallara Automobili, la Lamboghini Automobili, la Oral Engineering il cui direttore tecnico è l’Ing. Mauro Forghieri ed aziende straniere come la Cosworth UK, e la Silkolene UK. Mi riferisco ad aziende operanti come factory e come fornitrici di materiale per realizzare i prototipi da competizione. Sono presenti anche aziende che operano nel settore della lubrificazione e dei carburanti. Tutte le aziende che sono partner contribuiscono con personale specializzato al fine di dedicare una serie di ore come testimoni di esperienze trascorse e presentando anche “case study” reali nel mondo del motorsport.

Come ho indicato prima a volte il talento — lo sbuzzo — ci permette di superare le difficoltà dell’ingegneria permettendo al progettista, anche giovane e con meno esperienza, di provare a tradurre in disegno concettuale la sua idea prima ancora di procedere con la fase più ingegneristica e complessa, comunque fondamentale per il raggiungimento dell’obiettivo che ci siamo prefissi. Il talento in questo momento storico deve in ogni caso essere guidato, al fine di riuscire anche con risorse limitate a esprimersi in modo concreto. Sicuramente un percorso come questo che avvicina i giovani — magari talentuosi e potenzialmente pronti a mettere in campo idee — ai tecnici del settore accelera quel processo di sintesi che le aziende chiedono a loro quando entrano anche con percorsi preliminari di formazione come gli stage oppure i contratti a termine. Sono un’occasione da non fallire se si è riusciti a capire quale direzione tecnica prendere nel settore della progettazione in generale.

Il motorsport si evolve in continuazione, soprattutto per i problemi legati al contenimento dei costi. Quale futuro si aspetta in un settore così elitario? Ritengo che tutte le occasioni che si presentano a noi giovani in questo momento storico, la riduzione dei costi, delle risorse tecniche ed energetiche — quindi delle forze in gioco — siano un’occasione di crescita importante al fine di perseguire una ricerca continua nel nostro miglioramento culturale e tecnico. Ogni difficoltà in realtà nasconde un’opportunità di crescita per tutti, sia per i senior del settore sia per i giovani laureati. Credo che ora più che mai la selezione e il sacrificio siano richiesti in modo importante a tutti come la capacità di fare sinergia.

ET

50

Considerata la situazione economica internazionale e il momento difficile, c’è ancora spazio per fare impresa in Italia in questo settore? Penso fortemente di sì. La cultura è alla base di qualsiasi progresso prima scientifico


Mario Manganelli nel 1998 quando ha vinto la sua prima gara come ingegnere progettista. «Eravamo a San Martino di Castrozza e avevo progettato, per la vettura da Rally BMW318is che correva con il team Oral Engineering, un cambio sequenziale elettro-idraulico come quello usato in F1».

poi tecnologico finalizzato alla produzione e quindi alla crescita economica di tutti non solo delle imprese. Vorrei raccontare una bella esperienza che mi è capitata. Sei anni fa lavoravo insieme ad altre due persone al motore SBKV4 racing, e in un’intervista rilasciata a un giornalista alle prime armi che mi chiese perché avessi deciso di fare questo mestiere, risposi: «Vede, io penso, nel mio piccolo ambito, di trasformare in emozioni la mia forte e grande passione». Terminata l’intervista, prima di congedarsi, gli dissi chiaramente che non lo vedevo convinto della mia risposta. Lui quasi mi snobbò, ero sicuro che stesse pensando:

«ma senti questo ingegnere che fa il filosofo». Quattro anni dopo — era il 2010 a Imola, pista a me molto cara essendo bolognese di nascita, e già da un paio d’anni ero diventato responsabile di tutta l’area motori di Aprilia Racing (19 persone e più responsabilità da gestire non solo tecniche) — dopo la vittoria del mondiale proprio su quella pista da parte di Max Biagi, mi sento chiamare dall’esterno del box, mentre stavamo festeggiando con la squadra. Mi giro e vedo lo stesso giornalista di quel giorno che, mentre mi avvicino, dice: «vede ingegnere, solo ora ho capito cosa significhi per lei fare le corse. Mi scusi per non averla capita, ricordo ancora la frase

ET

51


che mi disse durante la nostra intervista». E’ venuto alla presentazione del Master sui motori a Maggio 2013, era in platea, senza che lo sapessi e siamo diventati amici. Ci sentiamo ogni tanto, anche se non lavora più nel settore racing. Lo stimo molto. Non capisce nulla di motori, ma ora non è più solo un giornalista, ora è un uomo che sa emozionarsi difronte a oggetti puramente metallici o quasi. Sarei molto felice di sapere che, alle persone alle quali voglio bene e che stimo, possano capitare nella vita delle emozioni di questo tipo. Lo auguro fortemente a tutti quelli che credono in un progetto vero, perché vedo che si possono trasmettere, anche con uno sguardo o con poche parole, come capita a me. I Master di questa portata quanto contano per affermare a livello internazionale la centralità, se esiste ancora, dell’Italia nel mondo dei motori?

ET

52

Conoscere aziende internazionali è fondamentale. Consideri che più della metà delle aziende partner del Master operano a livello worldwide in settori principalmente automotive e anche motorsport. Saranno le aziende che potrebbero proporre agli studenti di fare un percorso all’esterno di qualche mese. Un esempio: la metà del tempo che dedico ai fornitori nel mio lavoro lo passo parlando oppure scrivendo in inglese. L’italia nel mondo dei motori esiste anche se alcuni brand molto forti ci hanno acquisito. Comunque rimangono molti tecnici italiani a capo delle stesse aziende ex-italiane e questo mi dimostra che sono più importanti le persone delle cose o delle acquisizioni. Forse noi italiani negli ultimi 10-15 anni non abbiamo compreso veramente che potenziale d’idee — e quindi di menti pensanti — avevamo a completa disposizione. Ora che non siamo più

“padroni” forse ce ne stiamo accorgendo. Ma io sono una persona che non molla mai e così vorrei che facessero i nostri giovani, quelli che si affacciano al mondo del lavoro. Credere nelle proprie idee e prima di tutto la formazione e il metodo. Infine, permettetemi di sottilineare che ho voluto personalmente inserire un Corso di formazione Team Working & Problem Solving, con l’obiettivo di mostrare ai candidati la teoria di base e i concetti necessari a definire un gruppo di lavoro o team working. Vengono presi in considerazione i diversi modi con i quali affrontare i problemi e come gestire le relazioni interne al fine di conoscere se stessi e soprattutto gli altri. L’obiettivo inoltre è quello di mostrare ed evidenziare le azioni necessarie per raggiungere i risultati aziendali richiesti facendo leva sulle tecniche di pianificazione, il controllo dei progetti, i giusti stimoli da trasmettere ai propri collaboratori se si è dei leader. E’ prevista una simulazione tra differenti gruppi di candidati al fine di mostrare elementi di utilità pratica. Quella che vince è sempre la squadra oppure il team, non il singolo.

Il Master in Ingegneria del Veicolo da competizione si svolge nell’arco di 6 mesi e si articola in 14 moduli. La durata è di 250 ore di formazione in aula. La frequenza è full time il sabato dalle 9:00 alle 13:00 - dalle 14:00 alle 18:00 ed alcuni venerdì dalle 18:00 alle 22:30. L’inizio delle lezioni è previsto per novembre 2014 (TBD, la data esatta verrà confermata inizio ottobre). Trovate il programma completo del Master al sito www.peopledesign.it


PROGETTARE LA QUALITÀ NEI SERVIZI LA QUALITÀ NASCE “PROGETTAZIONE”

IN

Questa fase evidenzia bene il ruolo cruciale che una buona progettazione può giocare ai fini della Qualità del servizio. La fase di progettazione è finalizzata a tradurre correttamente i bisogni e le aspettative dei clienti, rilevati nella fase di qualità prevista, in target di prestazione di servizio da erogare, sviluppando e standardizzando le caratteristiche del sistema di erogazione del servizio. Le specifiche di Qualità del servizio così definite costituiscono il riferimento al quale uniformare prestazioni, atteggiamenti e comportamenti e sulle quali impostare il sottosistema di controllo della Qualità erogata. L’entrata reale della “voce del cliente” in azienda è l’obiettivo strategico da perseguire in questa fase. Nella logica della Qualità, ogni elemento del sistema di erogazione del servizio deve essere coerentemente pensato e progettato in funzione dei bisogni e delle aspettative del cliente, anche negli aspetti che in apparenza non sono a diretto contatto con il cliente. Il sistema di erogazione del servizio è qui inteso come l’equivalente del sistema

di produzione di un prodotto e riguarda uomini (front-line, cliente, altri clienti, accompagnatori dei clienti, back office), macchine, strumenti e supporti operativi (hardware, software, etc.), ambiente, processi (sequenzialità di operazioni e modalità di gestione) e sistema organizzativo. S’individua una fase di definizione e di scelta di posizionamento aziendale sul target di clientela a cui rivolgersi e sul livello di prestazioni da offrire a fronte del prezzo riconosciuto e richiesto. Standard di prestazione e caratteristiche degli elementi costituenti il sistema di erogazione discendono da questa scelta di fondo, supportata dall’informativa sviluppata nella macrofase di definizione della qualità prevista.

Rubrica Qualità del servizio

a cura di Mariacristina Galgano

Dopo aver definito il “valore” del servizio da erogare si procede con un approccio guidato e strutturato (Quality Function Deployment) alla definizione delle specifiche di Qualità alle quali uniformare il sistema di erogazione del servizio. Un contributo importante all’individuazione dei bisogni latenti dei clienti e alla proposta di soluzioni progettuali vincenti è in genere sviluppato — nelle aziende che operano in Qualità — dall’attività di miglioramento continuo sviluppata coinvolgendo attivamente gli operatori con strumenti innovativi.

ET

73


MASSIMIZZARE IL VALORE PER IL CLIENTE L’analisi del valore è una logica prima che una metodologia: nel nostro modello, ci aiuta a chiarire le “funzioni” che il servizio intende assolvere e la disponibilità dei clienti a pagare queste funzioni. Per “funzioni” si intende tutto ciò che rende vendibile o utilizzabile il servizio, tutto ciò che risponde all’obbiettivo di soddisfare i bisogni e le attese del cliente. La traduzione dei bisogni dei clienti in specifiche di Qualità (o prestazioni attese) non è né automatica né unica, ma è strettamente collegata al prezzo che il cliente è disposto a pagare a fronte di un determinato livello di prestazioni. Nel confrontare livelli diversi di servizio non bisogna limitarsi a esaminare i livelli di prestazione (qualità di cibo, varietà del menù, accoglienza dell’ambiente, incombenze richieste, stile e atteggiamento del personale, qualità delle bevande, etc.), ma occorre sempre rapportarli al prezzo richiesto e pagato. Prestazioni inferiori in assoluto possono risultare di “valore” superiore agli occhi del cliente se rapportate a un prezzo proporzionalmente più basso. La funzione può essere prevista o no nel sistema di erogazione del servizio e la prestazione può essere erogata a livelli differenti.

TIPI DI VALORE In ogni servizio il valore assegnato dal cliente è sempre la somma di due fattori, anche se i pesi d’incidenza relativi cambiano in funzione della tipologia di servizio:

ET

74

valore funzionale (prestazioni/prezzo) legato ai benefici riscontrabili e quantificabili derivanti dall’utilizzo del servizio; valore d’attrattività, legato ai benefici non direttamente classificabili nell’utilità quali l’immagine derivata o riconosciuta, gli aspetti estetici e tutti i benefici intangibili (sensazioni, emozioni, percezioni) goduti dal cliente nell’utilizzo del servizio. Anche se in apparenza non sono numericamente quantificabili, tuttavia il cliente, nelle sue valutazioni, li monetizza perfettamente.

Gli obiettivi di “valore” devono essere definiti in maniera inequivocabile per ogni tipologia di segmento individuata, perché su di essi si definiranno gli elementi del sistema di erogazione del servizio e i relativi standard di Qualità. In questa fase l’azienda definisce i suoi obiettivi di valore considerando, oltre alla disponibilità del cliente a riconoscere certi prezzi, anche: • la capacità produttiva • i costi gestionali da sostenere per erogare le prestazioni definite (qui, sul versante interno, si ragiona sul rapporto prestazioni/costi, mentre il cliente vede il rapporto prestazioni percepite/prezzo) • gli investimenti da sostenere • la redditività • il livello di rischio organizzativo, tecnologico e ambientale da sostenere per erogare le prestazioni richieste.

I VANTAGGI VALORE

DELL’ANALISI

DEL

L’analisi del valore del servizio si presta a essere utilizzata per: • individuare a priori (anche se mediante


stima) i costi da sostenere per erogare le singole funzioni, raccordati ai benefici e alle valutazioni del cliente al fine di valutare la coerenza con i prezzi attesi. Su queste considerazioni si selezioneranno le funzioni da prevedersi (garantire controllo medico oppure no, fornire il cibo oppure no) e i livelli di prestazione da ottenere (tipologia di menù, livello di servizio, etc.); verificare la coerenza tra priorità di funzione (primarie e secondarie) e costi sostenuti o da sostenere per erogarle. Si confronta il profilo delle priorità di funzione con il profilo dei costi evidenziando eventuali incombenze (funzioni secondarie che assorbono una elevata quota parte di costi); definire i target di costo che dovranno essere rispettati nella progettazione del sistema di erogazione del servizio. La tecnica di riferimento è il “design to cost”; verificare il posizionamento verso la concorrenza, in merito ai costi da sostenere per erogare le stesse funzioni fornite dai competitors allo stesso livello di prestazione.

L’analisi del valore interviene quindi a monte, per fornire i macro riferimenti per la progettazione operativa, ma anche a valle, come azione organizzata e sistematica di ottimizzazione del valore del servizio, finalizzata ad assolvere alle funzioni richieste al costo minimo. I punti di forza dell’analisi del valore sono da ricercarsi nei seguenti aspetti: • approccio interfunzionale • analisi funzionale • creatività • lavoro di gruppo • metodicità.

LA PROGETTAZIONE DEL SISTEMA DI EROGAZIONE DEL SERVIZIO Per riferirsi alla progettazione dell’erogazione del servizio si è scelto di usare il termine “sistema” in quanto esso richiama l’attenzione sull’esistenza di più sottosistemi perfettamente identificabili, strettamente interrelati fra loro e finalizzati a un obiettivo comune (la soddisfazione del cliente); inoltre, ogni variazione in un sottosistema genera effetti sulle prestazioni dell’insieme. In questa fase del modello si tratta di definire sia le prestazioni attese a livello di sistema, sia le prestazioni dei singoli elementi (“che cosa”) e le modalità (“come”) d’interscambio e funzionamento. I sottosistemi che costituiscono il sistema di erogazione del servizio si possono così sintetizzare: • il sistema di servizi (il risultato o output del sistema, definibile anche come l’insieme dei benefici tangibili e intangibili generati dal cliente) • il processo di erogazione (l’insieme delle fasi di trasformazione degli input in servizio compiuto) • gli elementi (i supporti e gli attori che consentono e condizionano lo sviluppo del processo di erogazione del servizio) • il front-line • il back office • il cliente • gli altri clienti • gli accompagnatori • l’ambiente • i supporti fisici • le tecnologie. Approfondiamo di seguito i primi due sottosistemi: il pacchetto di servizi e il processo.

ET

75


SISTEMA DI SERVIZIO Il momento progettuale trasforma l’insieme di benefici tangibili e intangibili in target e in specifiche di prestazione offerta al cliente, con il relativo prezzo. Il percorso logico per la definizione del servizio può essere il seguente: • comprendere i bisogni/attese implicite (quelli la cui soddisfazione è data per scontata dal cliente) e traduzione in prestazioni. In genere coincidono con la funzione principale del servizio, ad esempio: trasporto dall’aeroporto A all’aeroporto B; garantire reddito per la vecchiaia, vendere alimenti; prestare denaro. Le prestazioni vengono descritte in termini di standard o specifiche, come: orario di arrivo-partenza, tipologia aeromobile, coincidenze, traffico, etc; • comprendere i bisogni/attese esplicite (quelli che il cliente è in grado di rendere manifesti) e traduzione in prestazioni. In genere coincidono con le funzioni complementari e integrative del servizio: ad esempio, nel trasporto aereo, collegamenti agli aeroporti, parcheggi, prenotazioni e assegnazione posti, informazioni a terra e a bordo, servizi di assistenza sanitaria, distribuzione di giornali e riviste, servizio snack e bar, sistemazione bagagli, sicurezza, svago e intrattenimento. Anche su questi aspetti le specifiche di qualità devono essere definite sia in termini di parametri numerici quantitativi (tempi di attesa per prenotazione, tempi di riconsegna bagagli, etc.) che di comportamenti attesi; • comprendere i bisogni/attese latenti (quelli che il cliente non è in grado

ET

76

di rendere manifesti finché non ha potuto sperimentarne i benefici) e traduzione in prestazioni. In genere coincidono o con nuove funzioni o con cura spinta dei particolari: ad esempio, servizio caramelle e cioccolatini, telefono e/o personal computer a bordo dell’aeromobile. Entrano in questa classificazione quell’insieme di microservizi che vengono erogati dal front-line al momento in cui il cliente usufruisce del servizio e che sono forzatamente demandati al personale stesso: informazioni specifiche sulla rotta e/o sul tempo, avvisi agli aeroporti di arrivo per segnalazioni ritardi e verifica coincidenza, assistenza bambini.

IL PROCESSO DI EROGAZIONE Il processo è la sequenza di operazioni attraverso le quali si eroga il servizio, con particolare riferimento alle modalità di coinvolgimento del cliente ai flussi operativi interni. Il processo si struttura in tre momenti fondamentali che si riscontrano in tutte le tipologie di servizi: • la fase preliminare • il momento di fruizione del servizio • il post servizio. È proprio sul fronte del processo che esistono e vanno ricercate le principali opportunità di miglioramento e di differenziazione competitiva. La progettazione dei processi deve ricercare questo obiettivo strategico, oltre a definire le specifiche di qualità. Rientrano nella fase preliminare del processo tutte le attività che precedono l’interazione


tra il cliente e il front-line per la fruizione del servizio. Si tratta in genere di adempimenti preparatori quali: • la conoscenza dei benefici, delle opportunità e dei vincoli • la conoscenza dei tempi e delle modalità operative di erogazione del servizio e delle incombenze richieste nonché delle responsabilità reciproche • la conoscenza dei prezzi richiesti e delle modalità di pagamento • la conoscenza dei diritti e doveri • la percezione dell’immagine da parte del cliente • la scelta da parte del cliente • le prenotazioni e le acquisizioni di ticket

• • • •

i pagamenti anticipati il trasferimento delle informazioni di base per l’attivazione del processo e/o per la personalizzazione del servizio il raggiungimento della sede e del punto specifico di erogazione del servizio le attese.

Durante la fase di progettazione della qualità occorre dunque dedicare grande attenzione a “come predisporre il cliente a un positivo rapporto con il front-line”. Una volta individuate le cause che possono contribuire al raggiungimento di una corretta predisposizione del cliente al servizio, è opportuno ricercare con creatività soluzioni progettuali efficaci.

ET

77


gli autori di MET GIUSEPPE ALITO

Dopo la laurea in Disegno Industriale e un Master in Design Management, nel 1998 entra in Baleri Italia, azienda di prodotti di arredamento alta gamma, come Direttore tecnico del centro ricerche e dello sviluppo prodotti. Un anno dopo è in Ferrari come “design techniter” dove si occupa dello sviluppo delle postazioni di rilevamento telemetrico (muretto) utilizzate poi per i campionati del mondo F1 dal 2002 al 2004. Nel 2001 entra in Grand Soleil, azienda di prodotti di arredamento per esterni e di giocattoli mass market come engineering manager e con la responsabilità dello sviluppo prodotti per diventarne, due anni dopo, Responsabile R&S. All’attività professionale affianca la docenza di Design Management ai Master di Car Design e Industrial Design della Scuola Politecnica di Design SPD di Milano. Nel 2005 entra in Gio’Style Lifestyle come Responsabile Ricerca & Sviluppo. NICOLA LIPPI Ingegnere, consulente di direzione, dopo diversi anni trascorsi in aziende multinazionali di primaria importanza nelle aree di Ricerca e Sviluppo, collabora stabilmente con Galgano & Associati, storica società di consulenza italiana, occupandosi con passione e professionalità dei temi dello Sviluppo di Nuovi prodotti. Nell’ambito della professione ha contribuito con numerosi interventi in azienda a organizzare e migliorare la capacità di sviluppare prodotti, aumentandone i contenuti in termini di innovazione, di rapporto tra costi e prestazioni nel rigido rispetto dei tempi. Metodo, visione sistemica, spirito imprenditoriale e capacità di sintesi sono i suoi principali fattori distintivi. Esprime con ironia e leggerezza il suo libero pensiero sui temi dello sviluppo prodotto nel blog personale www.sviluppoprodotto.com

ALBERTO VIOLA È partner della Galgano & Associati Consulting srl, società di consulenza italiana che nel 2012 ha consolidato la sua leadership con 50 anni di attività: da quasi 15 opera nel campo della Consulenza di Direzione. Direttore della Divisione Industria, ha maturato in questi ultimi 15 anni numerose esperienze in Italia e all’estero in aziende industriali di diversi settori e dimensioni. Esperto di “lean organization” e di miglioramento continuo (kaizen) ha utilizzato in queste aziende le tecniche, gli strumenti e gli approcci specifici del Lean Production System. Relatore di numerosi seminari aziendali e interaziendali sulla “lean organization” nel 2005 e 2006 è stato docente del MIP Politecnico di Milano su queste tematiche. Nel 2012 ha pubblicato il libro “A Gemba! Guida operativa per la produzione snella”.

CORRADO RAVAIOLI 36 anni da Forlì. Giornalista professionista, lavora per un’emittente televisiva privata e collabora con testate locali e magazine on line. Si occupa di politica, economia, costume e società. Saltuariamente sviluppa contenuti per il web o redazionali industriali. E’ appassionato di cinema, musica, letteratura e nuovi media.

ET

78


THODO ALBERTO FISCHETTI Laureato in Ingegneria, nel corso di una carriera di oltre trent’anni in grandi industrie multinazionali dei settori della metalmeccanica, ingegneria, cosmesi e farmaceutica, ha maturato significative esperienze manageriali fino a far parte dell’alta direzione aziendale. Fra le varie responsabilità ricoperte è stato Project Manager in importanti progetti a livello di affiliata italiana e di gruppo europeo. Dal 2005 collabora nei settori della formazione, consulenza e coaching professionale con la Change Project. E’ autore di libri su project management, creatività e problem solving, coaching e gestione delle risorse umane.

SILVESTRO DI PIETRO Silvestro Di Pietro ha iniziato a lavorare, appena ventenne, per alcune realta’ regionali quali la TreEmmePi spa di Rimini e la Cedaf informatica di Forli’ scrivendo piccoli programmi, integrando i primi sistemi CAD ma soprattutto facendo reverse engineering e disassemblando codice macchina. Trasferitosi a Milano unisce lo studio in Economia e Commercio al lavoro, operando come analista finanziario dal 1987 al 1995. In questo periodo dirige un mensile di finanza - borsaTime - scrive un innovativo CTS (computerized trading system) in grado di operare autonomamente sul mercato dei derivati e realizza una rubrica di finanza televisiva. Nel 1997 diventa responsabile IT del dipartimento di Ricerca dello IEO di Milano, dove coniuga il lavoro informatico - che spazia dallo sviluppo di algoritmi per l’analisi DNA alla integrazione del sistema gestionale passando dal realizzare programmi per la gestione degli strumenti scientifici - alla sua innata curiosità scientifica. Attualmente coordina il team di sviluppo software all’IFOM (istituto Firc per l’Onocologia Molecolare). www.tntvillage.scambioetico.org (http://www.tntvillage.scambioetico.org/) e’ stato il suo contributo alla libera diffusione di opere e idee. Oggi tra i primi 8000 siti al mondo. Attivamente coinvolto con Protest Italia (http://www.pro-test.it/), associazione attiva contro la disinformazione sulla sperimentazione animale.

DANIELA DONATI Life & Corporate Coach, Trainer & Consultant, esperta nei Processi di innovazione attraverso l’applicazione delle tecniche di Creatività ai processi di miglioramento e allo sviluppo di nuovi prodotti e servizi; opera dal 1998 nell’ambito della consulenza aziendale per grandi e piccole-medie imprese, pubbliche e private. Tra le sue esperienze più significative, ha effettuato progetti di innovazione in Aprilia, Arena, Barilla, Fiat, Granarolo, Moto Guzzi, Natuzzi, Telecom Italia.

continua

ET

79


gli autori di METHODO COLLETTIVO NUUP NUUP®, Sustainable Creativity è un collettivo di designer e professionisti creativi che ha lo scopo di divulgare e promuovere comportamenti e oggetti sostenibili, basando il metodo progettuale sull’Analisi del Ciclo di Vita. Fanno parte del Collettivo Nuup: Barbara Pollini, Luca Pastore, Francesca Maccagnan, Federico Freddi, Serena Vinciguerra, Camilo Martinez, Gloria Escobar e Jared Jiménez. www.nuup.it

MASSIMO GRANCHI Massimo Granchi ha conseguito la laurea in Ingegneria presso il Politecnico di Milano nel 1993 e nel 2003 il titolo di Master in Business Administration presso la SDA Bocconi di Milano (Chartered Master in Direzione Aziendale ex lege 4/2013). Dopo una brillante esperienza presso una multinazionale nel settore metalmeccanico nell’anno 2000 ha fondato la società mtm consulting s.r.l. che offre servizi di consulenza organizzati su quattro linee di prodotto che coprono tutti gli aspetti di sicurezza e ambiente: dai servizi per la marcatura CE agli studi del ciclo di vita (LCA). Nell’anno 2013 ha ideata, creato e avviato GreenNess, divisione di mtm consulting s.r.l., che propone servizi per lo sviluppo sostenibile non più solamente al settore industriale/metalmeccanico, ma anche al settore del commercio attraverso lo sviluppo di una piattaforma proprietaria che, utilizzando le tecnologie di ultima generazione, consente a ogni tipologia di impresa commerciale di offrire ai propri clienti non più solo prodotti, servizi o sconti, ma una vera e propria esperienza di acquisto sostenibile come leva di fidelizzazione.

PASQUALINA PIRONE Laureata in economia aziendale, analista crediti presso una nota banca ma soprattutto appassionata di economia in particolare della gestione di impresa sotto il profilo finanziario e sotto il profilo umano con forte interesse per le moderne teorie e le “rivoluzionarie “ visioni in ottica motivazionale della più strategica delle risorse aziendali, le Persone.

MARIACRISTINA GALGANO Mariacristina Galgano è amministratore delegato e responsabile della Business Unit Servizi del Gruppo Galgano - una delle più affermate realtà italiane di consulenza di direzione al servizio dell’economia nazionale, con forte orientamento ai risultati - nonché della Scuola di Formazione.Profonda conoscitrice del Toyota Production System, ha sviluppato numerosi progetti Lean Six Sigma presso aziende di servizi italiane finalizzati a migliorare qualità ed efficienza. È anche autrice di numerosi libri. La sua ultima pubblicazione è “Il Movimento della Qualità in Italia. Racconti di aziende pioniere” e ha recentemente curato la traduzione italiana del libro “A3 Thinking, il segreto dell’approccio manageriale Toyota” di Durward K. Sobek II e Art Smalley, entrambi i volumi editi da Guerini e Associati.

ET

80




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.