METHODO6 Anno 2 Numero 6 marzo-aprile 2015 Prezzo di copertina 10 â‚Ź
OTTOLOBI
/2015
marzo-aprile
4
design industriale
12
sviluppo prodotto
Innovare quindi vuol dire anche trovare una combinazione nuova.
INN-OVAZIONE
21
Metodi per innovare, TRIZ, la teoria del problem solving inventivo
DOSSIER speciali e incontri Salone del Mobile e Fuorisalone 2015
41
project management
73
I fattori di succeso dei progetti
inserti
Il programma 6 sigma World Class Quality
50
metodi di produzione
56
qualità del servizio
61
valutazione del ciclo di vita
66
supply chain management
Massimizzare la produttività e valorizzare le risorse umane
Qualità del servizio: modello a tendere l’eccellenza anche attraverso il marketing interattivo
Diagnosi energetiche e sistemi di gestione dell’energia
La gestione del processo di approvvigionamento
Proprietà OTTOLOBI editoria e comunicazione Via A.Caretta, 3 20131 - Milano www.ottolobi.it P.IVA 03559000983 N.REA: MI-2021527
1
ET
Pubblicità info@ottolobi.it
82 i nostri autori
editoriale
L’INNOVAZIONE CASUALMENTE SISTEMATICA Da diversi anni il dibattito sulla competitività si svolge staticamente e quasi esclusivamente sul tema della innovazione. Libri, convegni, master, seminari specifici cercano di spiegarci come renderla meno casuale. Qualcuno potrà sorridere a questa affermazione, molti hanno studiato per anni, passando per iperspazi e calcolo matriciale, hanno imparato a dimostrare Navier Stokes, a calcolare integrali doppi tripli e curvilinei, a risolvere equazioni differenziali e a comprendere il cerchio di Mohr per poi dimenticarselo il giorno dopo, gli stessi che alla fine dei loro complicatissimi calcoli moltiplicano il tutto per 2 (!), questo perché, comunque, ci vuole un coefficiente di sicurezza (che dimostra quanto le nostre conoscenze siano superficiali). Sempre gli stessi sono spesso convinti che conoscere implica innovare. In molti casi è vero, in fondo innovare significa anche mettere insieme sistemi diversi – conosciuti, studiati – per ottenere un sistema nuovo. Innovare quindi vuol dire anche trovare una combinazione nuova. Se pensiamo alle note nella musica, non credo vi siano molti tentativi in essere di creare note nuove, piuttosto di trovare nuovi modi per produrle – lavorando sugli strumenti che emettono i suoni – ma soprattutto nuove melodie, successioni di note o combinazioni di accordi. Questi concetti ci sono spiegati molto bene da Giuseppe Alito nel suo articolo INN-OVAZIONE pubblicato all’interno di questo numero. Esiste, invece, un tipo di innovazione, più profonda, vera, frutto del genio e della intuizione del singolo, che però non trae vantaggio dalla conoscenza, ma dalla non-conoscenza. La maggior parte delle invenzioni (o dei prodotti) che hanno fatto la storia, non solo recente, sono state spesso concepite nella mente di non-ingegneri, di persone libere dalla conoscenza e dalle esperienze pregresse. Questa innovazione è casuale, nel senso che non viene da una pianificazione centrale, da laboratori di ricerca – dove comunque spesso si lavora per tentativi – o da piani quinquennali. La stessa tipologia di innovazione potrebbe però diventare “sistematica” aprendo le aziende ai segnali deboli, alla creatività di chi ha delle idee, non solo la conoscenza. Sistematico è aprirsi non chiudersi, condividere le sfide e i problemi; sistematico può essere rendere il proprio prodotto open source dove creatori casuali possono contribuire a innovarne i contenuti. Una prima risposta al caso è quindi di tipo organizzativo,
ET
2
in questo i modelli di open innovation rispondono discretamente alla necessità delle aziende di rendere meno statico non solo il loro processo di sviluppo di nuovi prodotti, ma tutti i processi aziendali strategici. C’è stato qualcuno nella storia che ha cercato di individuare, in questa casualità, una legge che potesse interpretare e sistematizzare il processo che dalla formulazione del problema porta all’invenzione. Effettivamente sappiamo che esiste un caso “buono”, un caso prevedibile: pensiamo alla distribuzione di probabilità normale (la famosa curva a campana), altro non è che la rappresentazione di un fenomeno pseudo casuale – cioè una raccolta di eventi con un valore medio intorno al quale la maggior parte degli eventi stessi si concentra – e una deviazione standard che misura l’ampiezza del fenomeno. Questo “qualcuno” capace di scoprire il caso buono dell’innovazione, ovvero le strategie statisticamente più probabili adottate nella storia delle invenzioni, è Genrich Altshuller, che con il suo TRIZ, “Teoria per la risoluzione dei problemi inventivi” ha gettato le basi della innovazione sistematica. Questa teoria, insieme di diversi strumenti operativi, è figlia dello studio statistico di migliaia di brevetti. Altshuller ebbe l’intuizione geniale di ricercare in eventi che si pensava casuali (“l’invenzione”), delle precise leggi logiche. Fa sorridere no? Un’innovazione sistematica figlia dello studio di fenomeni casuali! Da questo numero inizieremo un percorso che ci porterà a scoprire il TRIZ e i suoi strumenti principali che, come credo, non mancheranno di stupirvi. Buona lettura,
Nicola Lippi
3
ET
design industriale
INN-OVAZIONE Cr t v t un p r l “ mb g “ t nt q nt nn v z n , p c’ l cr s . S p rl t nt d nn v r p r s p r r l cr s , m g r t l zz nd l l v d ll cr t v t , m sp ss s d m nt c l s m nt c d ll d p r l . Pr bl m nt t d (cr s nn v z n ) pr s pp ng n l st ss ff tt : l c mb m nt . d pr pr p r q st m t v ch n n s r sc g v lm nt s p r r n cr s n t nt m n pr d rr v r nn v z n . L’ n rz ps c l g c (t p c d ll’ m ) ch st ll b s d ll p r d l c mb m nt . di Giuseppe Alito
Mi ero ripromesso di parlare di innovazione e cercherò di farlo con la speranza di sgretolare almeno alcune delle granitiche certezze che sembrano pervadere ogni cosa in ogni dove. Il “territorio” è vasto ma molto, molto poco denso. Popolato da luoghi comuni e convinzioni costruite su basi inesistenti, “moderne” credenze popolari alimentate dall’effetto massificazione di un fenomeno tanto discusso quanto poco compreso. Oggi chiunque ha qualcosa da dire e da insegnare sull’innovazione dal momento in cui questa “cosa” è stata chiamata in causa nella battaglia epocale contro la crisi. D’altronde è logico, cerco di sconfiggere qualcosa che non comprendo con una cosa che conosco e comprendo ancora meno! Mi viene in mente Giorgio Gaber. Le parole da conversazione alimentano i dibattiti, i pensatori pensano per sentito dire e tutti sogniamo sogni di altri sognatori. Non c’è da stupirsi dunque se un nuovo orinale mi viene presentato come prodotto innovativo o la nuova ennesima “seduta” (come chiamano la sedia quelli che hanno studiato tutto tranne l’ergonomia) dell’ennesimo Salone del Mobile. Se riusciremo a drenare il superfluo ci accorgeremo che il tema dell’innovazione è non solo di semplice comprensione e quindi attuazione, ma anche circoscrivibile in uno spazio umanamente percepibile. Una credenza dominante continua ad accomunare pericolosamente le parole innovazione e creatività. Ora, in molti autorevoli testi che trattano di innovazione queste due parole sono spesso menzionate e correlate. Il problema, però, è chi legge non chi scrive. La creatività a cui si fa riferimento in quel caso non ha nulla a che vedere con lo stile o l’estetica bensì col pensiero o meglio con
ET
4
della crisi economica, certo. Ma colpa anche della carenza o debolezza, in molte aziende, delle politiche di innovazione di prodotto. Non che manchino le idee, anzi: ogni anno in Europa vengono lanciati sul mercato migliaia di nuovi prodotti di largo consumo. Ma, come certifica una ricerca Nielsen, il 76% dei nuovi lanci fallisce nell’arco di un anno e non riesce a vendere nemmeno 10mila pezzi. Il «Breakthrough Innovation Report» diffuso oggi da Nielsen prende in esame 12mila casi di nuovi prodotti di largo consumo (caffè, cioccolato, biscotti, bevande, prodotti per la cura della persona e della casa, gelati, etc.) immessi nei principali mercati europei tra il 2011 e il 2014. Soltanto sette sono entrati nella classifica European Breakthrough Innovation del 2014: per essere nominato, un prodotto deve avere tre caratteristiche: essere differenziato, essere performante, e avere tenuta e resistenza. Per riuscire a progettare – e lanciare sul mercato nel modo adeguato – un prodotto con tali caratteristiche, il Report Nielsen suggerisce di affidarsi a strumenti strutturati di marketing in grado di abbattere i tassi di fallimento e viceversa ottenere una probabilità di successo pari all’85%. Sono quattro, secondo gli esperti Nielsen, le «regole base» per un lancio di successo: individuare la giusta innovazione (conoscere cioè le motivazioni dei consumatori); costruire all’innovazione i giusti prerequisiti, ovvero assicurarsi che il prodotto risponda a una reale esigenza del mercato e si differenzi dagli altri per una maggiore qualità; scegliere la giusta strategia di lancio, attraverso una attività di marketing creativa; infine, creare un team di collaboratori affiatato e con diverse competenze. L’innovazione di prodotto, conclude dunque lo studio, «è chiave di successo per i nuovi prodotti, anche a prescindere dal brand o dall’andamento sul mercato del settore di riferimento. Per quanto riguarda l’Italia, «in media l’innovazione di successo ha generato vendite pari a 7 volte il fatturato medio delle innovazioni, in linea con il risultato a livello europeo», spiega Christine Gringel, responsabile dell’area innovazione di Nielsen Italia.
la capacità di pensare fuori dagli schemi al fine di trovare una risposta (di tipo prettamente funzionale) a un problema o a una futura esigenza. Purtroppo l’endemica italica carenza linguistica gioca un ruolo fondamentale. Quando si dice “design innovativo” bisognerebbe sapere che il termine design in inglese significa progetto, quindi l’accezione è di tipo tecnico, chi “vola” in superficie, invece, dato che design uguale a stile ha deciso unilateralmente che anche la componente estetica è suscettibile di innovazione. Possiamo dunque sgombrare il campo da quelle “innovazioni” intese come slanci stilistici che nulla di sano, rispetto allo stato dell’arte, portano agli utilizzatori finali. L’estetica, quindi, non ha nulla a che fare con l’innovazione. Poi c’è la grande confusione tra nuovo e innovativo. Sembra che oggi il primo termine abbia abdicato a favore del secondo. È quasi impossibile imbattersi in una pubblicità che non contempli le parole innovazione o innovativo a prescindere che si tratti di crema per le ascelle o dell’ultimo tipo di deambulatore. Mi è capitato di scrivere: […spesso la finalità è creare il nuovo più che
l’innovazione, anche in considerazione del fatto che esiste una grande confusione attorno al termine innovazione. Un prodotto nuovo può non essere innovativo, mentre un prodotto innovativo è sempre nuovo. Inoltre è necessario uscire dalla logica che innovazione sia pertinenza solo di qualcosa di tangibile, di fisico. Si può innovare semplicemente cambiando l’ordine delle cose e del pensiero che ci sta dietro…].
Ma qual è la situazione attuale? Di seguito un recente articolo pubblicato su Il Sole 24 Ore, luci e ombre dello stato dell’arte.
PER IL SUCCESSO DI UN PRODOTTO NON BASTANO LE BUONE IDEE: IL 76% DEI NUOVI LANCI SUI MERCATI EUROPEI FALLISCE. I consumi sono in picchiata in tutta Europa? Colpa
5
ET
Fase 1 si aggira intorno al 4,5%, mentre la media europea è pari al 6%, sfiora o supera il 10% in Paesi come Spagna, Irlanda, Israele e Regno Unito. Ma è la capacità di conquistare i finanziamenti in Fase 2 che genera più preoccupazione. Tre aziende italiane vincitrici su 70 che hanno presentato domanda sono veramente poche…] […Quello che è mancato alle proposte italiane è stata la convincente dimostrazione del quid imprenditoriale da parte dell’azienda. In altri termini i progetti pervenuti sono apparsi in molti casi come confezionati ad hoc per la caccia al finanziamento europeo…] […”Impatto” è la parola chiave di Horizon2020: scienziati, ricercatori e imprese debbono essere credibili nella loro ambizione a contribuire alle grandi sfide della società. Questo non è un risultato scontato, poiché in ogni progetto scientifico e in ogni idea aziendale c’è una componente di rischio, solamente dimostrando di ragionare in maniera imprenditoriale possiamo convincere l’Europa a investire sui nostri progetti…].
A parte l’evidente tendenziosità della compagnia promotrice (comprensibile ma non giustificabile, visto il mezzo), che in poche parole ci suggerisce in maniera neanche poco velata di affidarci alle sue cure promettendoci un successo prossimo all’85%, nel testo sopraccitato ci sono alcuni spunti tanto interessanti quanto inquietanti. Intanto le caratteristiche di nomina: “essere differenziato, essere performante, e avere tenuta e resistenza”, poi le 4 regole suggerite: “individuare la giusta
innovazione (conoscere cioè le motivazioni dei consumatori); costruire all’innovazione i giusti prerequisiti, ovvero assicurarsi che il prodotto risponda a una reale esigenza del mercato e si differenzi dagli altri per una maggiore qualità; scegliere la giusta strategia di lancio, attraverso una attività di marketing creativa; infine, creare un team di collaboratori affiatato e con diverse competenze”. Tralasciando affiatamento e competenza delle persone (che darei per scontate) nessuno dei
per continuare la lettura acquista METHODO su
suggerimenti porta alla creazione di innovazione.
Un prodotto innovativo se veramente tale non avrà mai l’esigenza di differenziarsi perché l’innovazione è oggettiva e, nel peggiore dei casi, si troverà a competere con un limitatissimo numero di soggetti altrettanto innovativi. Nelle prime righe di questo articolo ho adottato un modo “nuovo” di scrivere, senza vocali. Ho fatto esattamente quanto suggerito: mi sono differenziato; ho innovato?! Inoltre il mercato non chiederà mai un prodotto innovativo semplicemente perché non ne sa immaginare i confini (di innovazione) ma certamente lo acquisterà se quell’oggetto o servizio rappresenteranno un progresso in termini di usabilità e quindi risoluzione di vecchi e nuovi problemi (a volte creati ad hoc). In questo caso spesso succede che si risolva il problema sbagliato. Quando si cerca di innovare dei parametri di un prodotto che aggiungono in realtà poco valore. Molti strumenti manageriali portano alla focalizzazione della cosiddetta “voce del cliente”, che non sempre è affidabile.
Infine, solo per completezza di informazioni, sempre sul quotidiano economico si parla della presentazione a Bruxelles dei dati di Epo (European Patent Office, l’organismo che gestisce le domande di brevetto in Europa). Ebbene, seppur si segnali una inversione di tendenza (in positivo), la posizione dell’Italia rimane sostanzialmente invariata: diciannovesima per numero di applicazioni per milione di abitanti, dietro la Slovenia. Questo significa, in base alla statistica, che la seconda manifattura del continente è focalizzata nelle produzioni a basso o bassissimo valore aggiunto, ossia quelle produzioni più a rischio competitivo perché la competizione (in quel caso) è basata esclusivamente sui costi di produzione e più in generale sulla competitività del nostro sistema industriale che come è noto non brilla da anni.
www.ottostorto.com/store/
Bene, anzi male, lo stato dell’arte è sconcertante. Ma perché non si riesce a produrre innovazione nella seconda manifattura del continente europeo?
In un altro articolo sempre de Il sole 24 Ore dal titolo “La difficoltà di dimostrare l’innovazione” si fa riferimento a Horizon2020 il programma europeo di finanziamenti per la ricerca. Alcuni tratti: […
Nel percorso di selezione, si iniziano a registrare le ombre della partecipazione italiana. A partire dal tasso molto basso di successo delle nostre Pmi. In
ET
6
Semplificando molto direi che i motivi sono sostanzialmente due. Il primo si chiama “inerzia psicologica”. Già a fine Ottocento si era cominciato a studiare in maniera scientifica l’innovazione umana, ossia la creatività (!) di un singolo individuo. A quell’epoca lo scienziato francese Theodule Ribot individuò un picco del livello di creatività (!) che si attestava attorno ai 14 anni. Recentemente la Sloan School of Management del MIT ha condotto lo studio analogo che ha riconfermato il risultato, seppure riposizionando il picco creativo all’età di 12 anni. Questo prova che tutti gli individui con il maturare degli anni diventano mentalmente più rigidi. Ciò poiché le idee vengono filtrate dalle esperienze vissute, creando delle barriere cognitive che impediscono l’esplorazione di campi non noti. La cosiddetta inerzia psicologica, ossia la naturale tendenza con il maturare delle esperienze a riferirsi a nostre specifiche conoscenze. Essa è controproducente quando si affrontano problemi inventivi. Sebbene l’esperienza sia irrinunciabile nell’affrontare i problemi, la capacità sta nell’uso parsimonioso che se ne fa. A tal proposito per comprendere meglio il concetto, c’è un curioso esempio dell’era di Chruščёv in Unione Sovietica. È il caso degli scienziati che avevano sviluppato il modulo Luna 16. Tale modulo doveva atterrare nella parte oscura della Luna e ritornare portando delle foto ravvicinate e dei campioni della superficie lunare, ma c’erano dei problemi. Una lampadina doveva servire ai controllori di volo per vedere la superficie della Luna in fase di allunaggio. La difficoltà consisteva nel fatto che la lampadina, causa le eccessive vibrazioni al decollo, si rompeva, che fare allora? Eliminare le vibrazioni? Impossibile, studiare materiali “intelligenti”? Non c’era tempo. Dopo mesi di duro lavoro gli scienziati sovietici altro non fecero che superare l’inerzia psicologica. La lampadina della Luna 16 deve essere vista infatti come il centro di un sistema ingegneristico di cui si va a definire la funzione principale che è quella di emettere luce. Dei vari componenti il bulbo in vetro (causa del problema) serve a impedire che l’ossigeno dell’atmosfera entri in contatto con il filo caldo. Questa funzione è necessaria sulla Luna? No perché non c’è l’aria. Quindi il problema è stato brillantemente risolto eliminando il bulbo in vetro.
Nikita Sergeevič Chruščёv,
(1894-1971), Primo segretario del Partito Comunista dell’Unione Sovietica.
per continuare la lettura acquista METHODO su www.ottostorto.com/store/
Come potrete notare l’esperienza sedimentata, tanto utile nella determinazione della “forma della memoria” di cui abbiamo parlato nello scorso numero, in questo caso gioca un ruolo di contrasto se non addirittura di blocco. 7
ET
Henry Chesbrough,
1956, economista statunitense che ha coniato il termine Open Innovation
Il secondo motivo per cui, a mio avviso, non si riesce agilmente a produrre vera innovazione risiede nella difficoltà ad applicare (specie in Italia) i dettami della Open Innovation.
tradizionalmente “core” a R&D (siano essi interni o esterni all’azienda) è una opportunità per espandere la visione dei “booster” di R&D, questi ultimi avranno sempre di più il compito di tradurre i messaggi di sintesi di quelle che definisco “le esperienze separate” non inquinate da logiche di carattere semiotico, tecnico, produttivo, filosofico che invece rappresentano i cardini dell’approccio dell’uomo di “azienda”. E qui mi domando: lo sharing della conoscenza (di un particolare, mercato, processo tecnologico, etc.) può, secondo voi, attivare un atteggiamento network-oriented nelle nostre Pmi al fine di espandere il proprio perimetro di pertinenza per linee esterne anche collaborando con i propri competitors diretti?
per continuare la lettura acquista METHODO su
Henry Chesbrough professore del Center for Open Innovation di Berkeley definisce questo concetto di innovazione contrapponendolo alla Closed Innovation che ha caratterizzato (direi giustamente) i processi ideativi e di sviluppo delle aziende durante la Seconda Guerra Mondiale, le aziende in quel caso tendevano a un atteggiamento di grande segretezza e quindi di chiusura.
www.ottostorto.com/store/
Il concetto centrale della Open Innovation è che essendo oggi la conoscenza largamente diffusa e distribuita, le aziende non possono pensare di basarsi solo sui propri centri ricerca interni, ma dovrebbero invece comprare o concedere in licenza, condividere insomma, le innovazioni (per esempio i brevetti) attraverso scambi con le altre aziende. Il
coinvolgimento
di
soggetti
In teoria può farlo, in pratica non esiste nel nostro Paese alcun esempio in tal senso. Il motivo è sempre lo stesso: le ridotte dimensioni delle imprese “autorizzano” la mancanza di visione e la diffusa natura familiare delle stesse finisce col determinare la gestione dell’azienda come se fosse la propria famiglia della quale difficilmente si condividono i “segreti”.
non
ET
8
a gran voce la sua testa. Oppure il grande lavoro fatto da Hedi Slimane alla Saint Laurent a partire dalla rivoluzione del brand (non più Yves Saint Laurent) per finire con la concezione di una identità completamente diversa rispetto al passato ma con la grande capacità di tenere un filo sottilissimo con esso. Oggi a distanza di due anni Saint Laurent è il marchio che detiene le migliori performances sia di tipo economicofinanziario, che commerciale e di distribuzione. La stessa cosa sta avvenendo con Gucci grazie a Alessandro Michele dopo il recente terremoto ai vertici. Anche qui si sono levate voci di disappunto degli stessi parrucconi di prima (magari un po’ meno cotonati) poco inclini al cambiamento. Ma sono certo che il risultato, anche in questo caso, sarà eccellente.
Ma che cosa è l’innovazione? Come si riconosce e come si crea? Innovazione è progredire a tutti i costi spesso alterando l’ordine delle cose. Non necessariamente riguarda oggetti fisici. Esistono vari livelli (5) di innovazione: di primo livello quando problema e risoluzione si trovano all’interno dello stesso settore industriale. Di solito le innovazioni di questo tipo non vengono considerate tali anche se da un punto di vista legale sono brevettabili – e qui si spiega l’enorme quantità di brevetti (inutili) depositati che alterano le statistiche alle quali fanno riferimento i “pensatori per sentito dire” di cui si parla sopra. È a partire da terzo livello che si può cominciare a parlare di innovazione. Un’invenzione di terzo livello è un’invenzione che modifica un paradigma, come lo è stato (ad esempio) il passaggio dalla trasmissione manuale a quella automatica per i camion. Raggiunto il quarto livello (il 4% del totale) il problema e le sue soluzioni si trovano fuori dalle frontiere della stessa scienza. In questo caso un problema meccanico si potrebbe risolvere utilizzando l’ottica, la pulizia si potrebbe effettuare utilizzando, per esempio, gli ultrasuoni. Solo le invenzioni al di là della scienza contemporanea si qualificano per il quinto livello (1% di tutti i brevetti). Alla loro base troviamo le scoperte in grado di lanciare una nuova direzione tecnologica mai utilizzata prima, come ad esempio fu a suo tempo la tecnologia laser o quella dei transistor e recentemente la tecnologia LED.
per continuare la lettura acquista METHODO su www.ottostorto.com/store/
Poi ci sono dei casi in cui l’innovazione è intangibile. Riguarda aspetti più di tipo strategico che strettamente tecnico-funzionale. Un esempio sono le aziende produttrici di taglia erba che da qualche tempo hanno cominciato ad acquisire aziende produttrici di sementi. La visione del futuro in questo settore prevede infatti che il modello di business attuale, basato sull’evoluzione delle lame da taglio, non sia infinito. Un altro esempio lo troviamo nel lavoro di Chris Bangle alla BMW che ha innovato e rinnovato un marchio estremamente tradizionalista tanto da suscitare, all’inizio, l’ira dei parrucconi cotonati conservatori che chiedevano
9
ET
Riconoscere la vera innovazione non è cosa immediata, tuttavia ci sono alcuni metodi che possono venire in aiuto. Il più efficace è quello mutuato dalla regolamentazione dei brevetti per modello di utilità (europeo). In sintesi un brevetto per modello di utilità viene concesso se il progetto o l’oggetto in questione risolvono in maniera più efficace di altri precedentemente noti una determinata carenza funzionale. In pratica se sono in grado di migliorare oggettivamente l’esistenza delle persone che decideranno di utilizzarlo. Quindi nessun colpo di fulmine o amore a prima vista bensì fredda e pacata valutazione degli eventuali benefici. Un prodotto innovativo risponde alle stesse leggi. Tra l’altro il collegamento con i brevetti non è casuale. Qualche tempo fa mi è capitato di leggere un libro dal titolo “TRIZ tecnologia per innovare” scritto da Sandra Candido e Dmitri Wolfson. Il testo tratta del metodo TRIZ, Teoria della Risoluzione dei Problemi Inventivi utilizzata da tantissime aziende nel mondo (Procter&Gamble, Intel, Siemens, Whirlpool, etc.) e fondata nel 1946 da un ingegnere e scienziato russo Genrich Altshuller impiegato come esperto brevettuale presso la Marina Militare Sovietica. I suoi studi empirici rivelarono delle tendenze obiettive nell’evoluzione dei sistemi tecnici. Da queste formulò il suo principale postulato: l’evoluzione dei sistemi ingegneristici non è un processo casuale, ma obbedisce a certe leggi. È quindi sbagliato fare affidamento alla casualità del genio, cosa frequente specie in Italia, dove credo sia necessario affrontare ancora la fase propedeutica, capire cioè che cosa è l’innovazione prima ancora di pensare di produrla.
per continuare la lettura acquista METHODO su www.ottostorto.com/store/
Ma se l’innovazione prescinde dall’estetica quale può essere il contributo del design? Quello di “gregario”. Le innovazioni sono (giustamente) figlie di un pensiero analitico che tende alla massima efficacia e la cui scala di priorità spesso limita il successo stesso dell’idea in termini di appeal
Aspirapolvere Dyson (componente soggettiva). Un esempio sono i prodotti eco-friendly della prima ora. Molti di essi erano grandi innovazioni ma quasi tutti orribili dal punto di vista estetico e con un prezzo medio di vendita del 20% più alto rispetto ai corrispettivi non ecologici. Tutti i lanci di questa categoria hanno fallito entro un anno dal debutto. Un altro esempio sono le prime auto ibride lanciate sul mercato da Toyota. Anche in quel caso l’oggetto non brillava per stile. Il consumatore in questi casi si sente oggetto di una sorta di “ricatto”: se vuoi possedere un’auto che ti fa risparmiare
10
ET
e non inquina devi accettare che sia brutta, e allora pochi l’hanno fatto. Questa lezione ha consentito di capire che l’innovazione (l’ibrido in questo caso) non doveva essere da sola prodotto ma una parte di esso. Oggi l’ibrido è una delle tante varianti dei modelli di auto nate anche prima di questa tecnologia. Attenzione però l’innovazione c’era in tutti i casi, renderla appealing per il mercato non significa che è aumentata.
Quindi il design non è innovazione ma la lezione è utile lo stesso. Per capire bene una cosa bisogna sapere anche ciò che non è. Creatività è una parola ambigua tanto quanto innovazione. E poi c’è la crisi. Si parla tanto di innovare per superare la crisi, magari utilizzando la leva della creatività, ma spesso si dimentica (o non si conosce) la semantica delle due parole. Problema e antidoto (crisi e innovazione) presuppongono lo stesso effetto: il cambiamento semplicemente perché esse stesse sono figlie di un processo di cambiamento. Ed è proprio per questo motivo che non si riesce agevolmente a superare una crisi né tantomeno a produrre vera innovazione.
per continuare la lettura acquista METHODO su Chiamerei questa “cosa” non più crisi ma processo forzato e unilaterale di cambiamento. Visto che i singoli non sono stati in grado di superare l’inerzia e attuare un processo governato, leggero ma continuo, che sarebbe stato meno brutale e altrettanto efficace, ci ha pensato il sistema (termine vago e un po’ anacronistico) ma a modo suo. La crisi di cui si parla non è altro che l’effetto della causa. Di quel cambiamento, cioè, che per forza di cose non può tenere conto delle esigenze di sopravvivenza di ognuno perché non è attuato dai singoli ma da moltitudini di persone in modo disordinato e squilibrato. Una sorta di nuovo caos primordiale dal quale, si spera, nascerà il nuovo ordine. D’altronde quando ai pesci sono cominciate a spuntare le zampe immagino abbiano avuto serie difficoltà a nuotare come prima. Chissà, però, se immaginavano a cosa sarebbero servite in seguito. Noi siamo esseri teoricamente dotati di iniziativa e di capacità analitica, tuttavia sembra che molti non solo non si chiedano a cosa servirà tutto ciò, ma addirittura non ne percepiscono la presenza perseverando la pericolosa convinzione che si tratti di qualcosa di passeggero e che un giorno tutto tornerà come prima.
www.ottostorto.com/store/
11
ET
sviluppo prodotto
METODI PER INNOVARE,
TRIZ,
LA TEORIA DEL PROBLEM
SOLVING INVENTIVO di Nicola Lippi
Introduzione
Questa continua ricerca di soluzioni vincenti e innovative è molto difficile e impegnativa, anche perché i prodotti sono sempre più complessi, i competitor molti di più e globali. Esistono, inoltre, numerose barriere all’innovazione che, senza ampliare troppo il discorso alla metafisica o alla filosofia, si possono riassumere in:
Nel nostro percorso ideale, quello tracciato dagli articoli della rubrica sullo sviluppo prodotto, siamo partiti dalla definizione delle specifiche, abbiamo poi costruito il concept impostando nel modo migliore l’architettura definendo chi fa che cosa all’interno del prodotto, per poi eseguire anche una analisi del valore volta principalmente a individuare degli obiettivi di costo sulle singole funzioni, o a valutare il bilanciamento prestazione/costo. A questo punto, la nostra sfida all’ignoto (chi ha respirato l’aria degli ambienti R&D sa bene cosa si intende) si complica, perché bisogna inventare e non ci sono scuole o studi che tengano. Inventare vuol dire fare qualcosa di nuovo, risolvere problemi, trovare il modo di svolgere una funzione e farlo meglio degli altri, riducendo i costi oppure aumentandone le performance, il tutto evitando di comprometterne altre, come ad esempio, per un veicolo, diminuire i consumi senza penalizzare le prestazioni. Quando abbiamo introdotto il QFD (Quality Function Deployment), avevamo proprio scoperto che alcune caratteristiche di prodotto, pure essendo importanti erano in conflitto tra di loro. Spesso trovandosi di fronte a questo problema la via che si tende a perseguire è quella del trade-off, cioè di un compromesso. Il TRIZ ci può aiutare in queste situazioni e non solo.
• • • • • • • •
limitata ampiezza della conoscenza e del carico di informazioni (non possiamo sapere tutto); difesa dello status quo (abbiamo sempre fatto così); priorità del pensiero strategico (non abbiamo tempo per pensare, siamo troppo impegnati a realizzare); limiti al progetto (obiettivi non sfidanti); facilità di interruzione e/o di compromesso; sindrome del “Not-Invented-Here” (noi siamo i migliori - non esistono modi migliore per farlo); incapacità di prevedere il futuro (non sappiamo quale direzione di sviluppo perseguire); risolvere il problema sbagliato (spingere l’innovazione su un binario morto).
A questi aspetti si aggiungono la carenza di tempo e di risorse, e l’assoluta necessità di rendere efficiente, e quindi meno “ignota” e rischiosa, l’attività di ricerca di nuove soluzioni innovative.
12
ET
Un ulteriore ostacolo è rappresentato dalla estrema frammentazione della conoscenza, siamo abituati a ricercare le soluzioni, per esempio, in ambito meccanico, quando la fisica ci può fornire soluzioni anche in altre aree, elettromagnetismo, ottica, chimica (figura1).
Effetti meccanici & tecnologici
Termo-Dinamica P
Un altro esempio della nostra limitata conoscenza è il seguente: provate a elencare quanti modi diversi conoscete per spostare un liquido. Ora osservate in figura 2 l’elenco dei principi fisici che sono in qualche modo riconducibili a uno spostamento di liquidi. Rimarrete sorpresi nello scoprire che, al momento, ne sono censiti 192.
Effetti chimici & tecnologici S oluzione
roblema Effetti elettrici & magnetici & la tecnologia Figura 1
Figura 2
13
ET
È molto probabile che solo una parte di questi sia effettivamente applicabile al nostro problema ma questa mancata conoscenza porta a rendere inefficiente l’innovazione, la rende sterile e orientata sempre all’ottimizzazione dell’esistente e in molti casi ci costringe a un compromesso che, forse, un altro principio fisico potrebbe evitarci. Esistono database degli effetti a cui è possibile accedere per individuare, data una certa funzione da svolgere (ad esempio “muovere”) e dato l’oggetto della funzione (“liquido”, “solido”, “gas” etc.), l’elenco dei principi fisici idonei.
luce uno degli elementi che poi contribuì negli anni alla diffusione del TRIZ, la naturale tendenza dei sistemi ingegneristici a evolversi secondo precise linee evolutive (trends evolutivi). A lungo deportato in Siberia a causa di un articolo in cui spiegava (e quindi indirettamente criticava l’esistente) l’utilità del TRIZ per migliorare la capacità di innovare dell’Unione Sovietica, anche dopo la sua liberazione fu comunque osteggiato dal regime, per cui si dovettero attendere gli anni ’80 con la Perestrojka per vedere diffondersi e applicare le sue teorie, specialmente al di fuori dei confini nazionali. Negli anni Altshuller perfezionò i suoi metodi aggiungendo nuovi strumenti e nuove visioni sulla evoluzione dei sistemi. Morì nel 1998 lasciando un patrimonio inestimabile di genialità, intuizioni e allievi che hanno contribuito a diffondere a livello mondiale le sue teorie.
Ciò che ci promette il TRIZ è di rendere molto più veloce, efficace ed efficiente il processo di innovazione, costringendoci a compiere dei passi che dalla esigenza portano alla soluzione. Il TRIZ cerca di rendere sistematica l’innovazione, aiutandoci a trovare soluzioni non solo al semaforo o sotto la doccia, ma quando servono. Sostanzialmente aiuta a rendere più efficiente l’innovazione (figura 3).
per continuare la lettura acquista METHODO su
In che modo il TRIZ migliora il processo inventivo Per spiegare come il TRIZ opera è sufficiente fare un comune esempio matematico: immaginiamo di dover risolver una equazione di secondo grado come quella in figura (5). Normalmente le strade che possiamo percorrere sono 2, una è andare per tentativi (o con metodi numerici, poco efficiente), la seconda è quella di ricondurre la nostra equazione a un problema tipico, cioè a una equazione tipica, che ci fornisce una soluzione tipica dalla quale ricaviamo i valori di x (soluzione specifica) che soddisfano l’equazione. Il TRIZ opera allo stesso identico modo, ci costringe a formulare il nostro problema inventivo specifico in un modo astratto dal poter ricavare il modello di soluzione e quindi la soluzione specifica.
Figura 3
www.ottostorto.com/store/ Come nasce il TRIZ La parola TRIZ deriva da un acronimo russo la cui traduzione è “teoria per la risoluzione dei problemi inventivi”. La persona che ha avuto la felice intuizione secondo la quale può esistere un processo “inventivo” è Genrich Altshuller, nato nel 1926 nella allora Unione Sovietica. Fin da giovane emerse la sua vena creativa e si impose come brillante inventore. Durante gli anni ’40 fu assegnato alla marina come ispettore delle invenzioni e grazie a questo ruolo riuscì a validare e perfezionare le sue teorie studiando decine di migliaia di brevetti. Fondamentalmente scoprì che dietro a un’idea brevettuale non vi sono semplicemente il genio e l’intuizione, ma è possibile identificare un preciso nesso logico tra problema da risolvere alla base del brevetto e tipologia di soluzione adottata. Inoltre mise in
Figura 5
14
ET
Gli strumenti del TRIZ quindi non sono altro che un insieme di metodologie che possono aiutare a risolvere problemi inventivi. È chiaro che il compito di individuare la soluzione specifica sarà sempre in carico al team di lavoro, il vantaggio però sarà quello di indirizzare il brainstorming in una direzione specifica, su un insieme di principi inventivi specifici.
prossimo articolo, sono: • • • • • •
Approccio “multischermo” Analisi dei trends e della curva a S Matrice di Altshuller Contraddizioni fisiche e separazione degli effetti Modellazione funzionale e trimming Modelli “substance-field”
Per iniziare a capire come il TRIZ opera introduciamo ora un paio di argomenti, in modo da comprenderne meglio le potenzialità, faremo alcuni cenni ai trends di evoluzione dei sistemi ingegneristici e alla matrice di Altshuller, probabilmente lo strumento più conosciuto del TRIZ.
Introduzione ai triends di evoluzione dei sistemi ingegneristici
per continuare la lettura acquista METHODO su
Il postulato principale del TRIZ afferma che “i sistemi ingegneristici non evolvono casualmente, ma secondo trends evolutivi oggettivi. I trends evolutivi sono simili alla legge della selezione naturale e i sistemi ingegneristici competono per differenti tipi di risorse” (denaro, energia, etc.); i trends evolutivi descrivono le caratteristiche tipiche dei vincitori e sono delle tendenze oggettive di sviluppo dei sistemi ingegneristici statisticamente dimostrati. Essi, infatti, derivano dallo studio sistematico dei brevetti e sono indipendenti dalla volontà personale. Descrivono la naturale transizione dei sistemi ingegneristici da uno stato all’altro. I trends si articolano in “linee guida evolutive”, cosicché ogni trend può racchiudere dentro di sé diverse linee. Secondo questa teoria, i sistemi tecnologici, così come gli organismi viventi, sarebbero in competizione tra loro per differenti risorse, solo quelli che seguono determinati percorsi ben definiti sopravvivono. I trends sono molteplici, il più comune è il trend di aumento del dinamismo di cui riportiamo in figura 6 e 7 un esempio di evoluzione dello strumento di misura, in questo esempio vediamo come lo strumento di misurazione della lunghezza ha attraversato i diversi stati previsti dal trend stesso. È stato solido (metro in legno), multi giunto (metro del carpentiere), flessibile e ora lo troviamo sempre più spesso come misura ottica basata sui sistemi laser. Il
www.ottostorto.com/store/ I principali strumenti del TRIZ
Genrikh Saulovich Altshuller
Figura 4
Il TRIZ dispone di un insieme di strumenti con i quali cercare di risolvere i problemi inventivi. Vedremo nei prossimi articoli come si possa addirittura procedere con un vero e proprio algoritmo nell’affrontare i problemi, in modo che i tools vengano utilizzati nel corretto ordine e nella corretta situazione per non lasciare unicamente al singolo la decisione su quale utilizzare prima. Alcuni degli strumenti che analizzeremo già dal
15
ET
trend di aumento del dinamismo prevede altri stati, non è detto che questi siano già stati tutti rappresentati da una soluzione specifica, a volte invece alcuni step possono venire saltati. Ma quanti esempi potremmo trovare di questo tipo? I trends possono essere rivolti a interi sistemi oppure a sottosistemi. Pensiamo all’interfaccia utente dei moderni smartphones, schermi sensibili al tatto hanno sostituito tastiere multi-giunto o flessibili (pensiamo alle tastiere in gomma), spostando la funzione di fatto sul campo elettromagnetico con gli schermi capacitivi.
aspetti più interessanti è che studiando il proprio prodotto e osservando su quali trends ancora Figura 6
Sempre osservando gli smartphone, notiamo un secondo trend importante, chiamato “trend di transizione al supersistema” cioè la naturale tendenza dei sistemi ad aggregarsi, spostando le funzioni, a sistemi adiacenti (facenti parte appunto del “supersistema”). Per capire questo concetto è sufficiente osservare gli esempi che troviamo in commercio, basti pensare alle moderne fotocopiatrici di ufficio (figura 8). Fare fotocopie è solo una delle funzioni, si sono di fatto divorate sistemi quali fax, stampanti, scanner e da qualche anno, anche il lavoro di fascicolazione. Poi la carta transiterà completamente da flessibile a “campo”, diventando solo informazione elettromagnetica dovendo seguire il trend di dinamizzazione di cui abbiamo già fatto cenno.
per continuare la lettura acquista METHODO su www.ottostorto.com/store/
Figura 7
Figura 8
Avremo modo di parlare dei trends in maniera più diffusa e completa nel prossimo numero, essi infatti sono molteplici e con molte articolazioni. In figura 9 notiamo l’insieme dei trends di evoluzione dei sistemi ingegneristici. Uno degli
non si è evoluto è possibile in qualche modo prevedere il futuro; non è così semplice come sembra, ovviamente, ma in qualche modo è una affermazione vera.
16
ET
Figura 9
Introduzione alla matrice di Altshuller La matrice di Altshuller è forse lo strumento più conosciuto del TRIZ, probabilmente perché il più intuitivo e semplice. Si basa sullo studio di migliaia di brevetti in cui gli stessi sono stati classificati in base alla tipologia di problema e ambito della soluzione. Per essere più chiari: Altshuller, studiando i brevetti, ha identificato 39 parametri tipici che, messi in contraddizione tra loro, producono una configurazione di problema la cui soluzione può essere trovata (a seconda del tipo di configurazione) in alcuni dei 40 “principi inventivi”. Questo significa che se si riesce a “modellare” il mio problema come “contraddizione” tra due parametri si ha la possibilità di indirizzare la ricerca della soluzione in “soli” 3 o 4 principi inventivi indicati da questa matrice, questi principi inventivi sono da intendersi semplicemente come quelli che, statisticamente, sono stati maggiormente utilizzati per risolvere problemi simili nel passato. Attenzione però, perché il principio inventivo non fornirà la soluzione specifica, fornirà solo l’ambito in cui ricercare la soluzione. Alla base di tutto vi è quindi una cosiddetta “Contraddizione Ingegneristica” (EC) che si manifesta in una situazione nella quale il tentativo di migliorare un parametro di un sistema ingegneristico porta al peggioramento di un altro parametro. La matrice di Altshuller non è altro che uno strumento di problem solving che segnala dei principi inventivi per risolvere le EC. In figura 10 è riportata una porzione della matrice di Altshuller. Riassumendo, forza e unicità delle Contraddizioni Ingegneristiche e matrice di Altshuller sono:
per continuare la lettura acquista METHODO su www.ottostorto.com/store/
•
La matrice è basata sull’analisi di migliaia di brevetti, tutti i parametri che costituiscono una Contraddizione Ingegneristica possono essere generalizzati in 39 parametri tipici. Si ristringe quindi il numero delle Contraddizioni Ingegneristiche generali a meno di 800.
17
ET
•
•
•
In base alle stesse statistiche, ci sono solo 40 modi tipici di risolvere tutte le Contraddizioni Ingegneristiche. Questi modi sono i principi inventivi. Le analisi statistiche delle correlazioni tra le Contraddizioni tipiche e i modi tipici per risolverli formano la matrice di Altshuller che assegna specifici principi (3-4) per ogni contraddizione. Con l’applicazione dei principi raccomandati da questa matrice migliora significativamente l’efficienza e l’impatto del problem solving, si riduce il numero delle idee potenziali da considerare e si incrementa la loro qualità
•
le contraddizioni identificate. Alla fine, queste raccomandazioni generali devono essere tradotte in specifiche idee tecniche che risolvono la contraddizione tecnica iniziale.
Proviamo ora a schematizzare un semplice esempio. In figura 11 è riportata una ipotesi di contraddizione ingegneristica per l’ala di un aereo: se si aumenta la superficie dell’ala la portanza aumenta ma l’ala sarà più pesante (peggiora). Si può osservare come lo stesso problema dell’ala poteva essere posto come schematizzato in figura 10, ovvero come ala che deve aumentare la sua resistenza in relazione alla condizione di aumento del peso, quindi è possibile indagare un problema schematizzandolo in più contraddizioni ottenendo altri principi inventivi dalla matrice.
Figura 10
Il percorso logico per l’utilizzo della matrice di Altshuller è il seguente: •
•
Il primo step è trasformare una contraddizione tecnica specifica in una tipica. È l’elemento più critico perché non è detto che vi sia una sola contraddizione ingegneristica per modellare il problema anzi, spesso è utile modellare il problema diversamente per ottenere altri principi inventivi su cui indagare. Poi, si identificano e si applicano i principi raccomandati dalla matrice. Il risultato è un set di raccomandazioni generali per risolvere
Figura 11
Una volta identificata la contraddizione in termini di parametri tipici è possibile andarli a incrociare nella matrice di Altshuller e ottenere i principi inventivi raccomandati come in figura 12.
18
ET
per continuare la lettura acquista METHODO su Figura 12
Come possiamo osservare in figura 12 vengono indicati 4 principi inventivi, 2-17-29 e 4. Uno dei capisaldi del TRIZ sono i 40 principi inventivi che forniscono agli aspiranti inventori mezzi sistematici e potenti per abbattere i paradigmi correnti; questi 40 principi non sono altro che una estrapolazione delle soluzioni che il russo poté dedurre dall’analisi dei brevetti e quindi sono l’ipotesi teorica con cui si possono pensare nuove soluzioni a nuovi problemi. Nel caso specifico dell’ala dell’aereo i principi indicati sono i seguenti riportati in figura 13.
www.ottostorto.com/store/ Figura 13
19
ET
all’interno dell’oggetto (ad esempio cuscini d’aria, parti idrostatiche, etc.). • La trasmissione dei movimenti e delle forze può essere fatta per via pneumatica o idraulica. • Selle riempite di gel si adattano all’utente. • O-ring con sezione cava. • Natanti a cuscino d’aria – hovercraft. • Cuscinetti ad aria.
A questo punto non resta che iniziare a generare idee ma non casualmente, bensì sui 4 principi indicati. Vediamoli Principio n° 2 Estrazione A. Estrarre, tirare via la funzione, la proprietà o la parte che disturba. • Mettere il condizionatore dell’aria all’esterno della stanza, quando si vuole eliminare il rumore senza rinunciare al condizionamento. La contraddizione qui è il rumore verso il condizionamento della stanza. È il condizionatore che fa rumore, mettendolo all’esterno si porta il rumore da un’altra parte e si risolve la contraddizione. B. Estrarre la sola parte necessaria – o singola proprietà – di un oggetto. • Nelle case moderne gli aspirapolvere sono posti in un unico vano insonorizzato mentre un impianto consente di agganciare il tubo di aspirazione in ogni stanza della casa.
Principio n° 4: Asimmetria A. Cambiare la sagoma o le proprietà di un oggetto da simmetrico ad asimmetrico. • Un dispositivo per raddrizzare un filo è costituito da due rulli, uno convesso e l’altro concavo, asimmetrici attorno all’asse y, per aumentare la velocità di produzione e la qualità del processo. • Comignoli asimmetrici consentono maggiori gradienti di flusso delle condotte simmetriche. • Ricavare almeno una zona piatta su di un albero cilindrico, per poter utilizzare un dispositivo di bloccaggio (ad esempio, una chiave inglese). • Vetro o carta rivestiti in alcune parti per cambiarne la funzionalità. • Spine elettriche con spinotti asimmetrici. B. Se un oggetto è asimmetrico, aumentate ancora il grado di asimmetria. • Utilizzo di superfici mobili regolabili, per alterare le proprietà di portanza delle ali d’aereo. • Connettori speciali con sagome complesse per assicurare un corretto assemblaggio. • Strumenti di misura con scale diverse (ad esempio: mm e pollici).
per continuare la lettura acquista METHODO su
Principio n° 17: Spostarsi su un’altra dimensione A. Spostatevi su di una dimensione addizionale, da una a due o da due a tre. • Cavetto a spirale per la cornetta del telefono. • Spazzola con setole ricurve. • Scale a chiocciola usano meno area in pianta. B. In luogo di un solo piano o strato, fare più piani o più strati. • Lettore CD con magazzino automatico da 6 o più CD. • Circuiti stampati multistrato o a pacchi. • Blocco uffici con più piani, parcheggi per auto su più piani. C. Inclinate un oggetto o posizionatelo di lato. • Rimorchi per il trasporto delle vetture inclinate per risparmiare spazio. D. Usare l’altro lato o l’altra superficie. • Le clip fermacarte lavorano pressando i fogli da entrambi i lati. • Installare i componenti elettronici su entrambi i lati del circuito stampato. • Incidere un disco fonografico da entrambe le facce. E. Proiettare linee ottiche sull’area circostante, o sul lato opposto dell’oggetto • Le serre con i pannelli solari riflettenti.
www.ottostorto.com/store/
Riuscite a individuare le soluzioni che il settore dell’aeronautica ha sviluppato nel secondo dopoguerra? I concetti di asimmetria (pensate alla forma delle ali attuali e quelle dei primi aerei), di estrazione (flap, ali retraibili), spostarsi una terza dimensione (pensiamo alle ali dei moderni aerei commerciali che ora terminano con una appendice verticale per eliminare vortici di appendice e recuperare portanza), per non parlare poi di pneumatica e idraulica, i moderni parapendio di fatto possiedono ali che si gonfiano con la velocità stessa creando un profilo alare complesso ma leggerissimo.
Principio n° 29: Pneumatica e idraulica A. Incorporare delle parti liquide e/o gassose
Nel prossimo numero entreremo nel merito dei trend, dettagliandone la teoria.
20
ET
A pochi giorni dall’inizio di Expo 2015, si svolgerà a Milano la cinquantaquattresima Fiera Internazionale del Salone del Mobile. Un evento che da anni riceve visitatori da ogni parte del mondo.
La 54a edizione del Salone del Mobile aprirà le porte da martedì 14 a domenica 19 aprile, presso il quartiere fieristico di Rho. Qualità e innovazione, oltre a importanti eventi collaterali e una completa e ampia offerta merceologica sono gli ingredienti che contribuiscono a rendere il Salone l’evento da non perdere. Con oltre 2.000 espositori, un’area espositiva superiore ai 200.000 mq e migliaia di prodotti presentati al mercato in anteprima, il Salone del Mobile si conferma ogni anno la fiera di riferimento del settore a livello internazionale, in grado di attrarre oltre 300.000 visitatori provenienti da più di 160 Paesi. Quest’anno tornano le biennali Euroluce nei padiglioni 9-11 e 13-15 e Workplace3.0/ SaloneUfficio, all’interno dei padiglioni 22-24 dedicata all’ambiente di lavoro. A Euroluce, la manifestazione in cui protagonista è l’eccellenza nel mondo dell’illuminazione, saranno presentate le novità del settore illuminotecnico. In occasione dell’Anno Internazionale della Luce, proclamato dall’Unesco proprio per il 2015, sarà inoltre realizzata l’installazione-evento Favilla. Ogni luce una voce (un racconto-ricerca sull’essenza della luce) ideata per la città di Milano dall’architetto Attilio Stocchi.
Workplace3.0 sarà invece una proposta espositiva con un concept innovativo dedicato al design e alla tecnologia per la progettazione dello spazio di lavoro nel suo insieme. Workplace3.0 riunirà le proposte migliori del mondo dell’arredamento per ufficio, banche e istituti assicurativi, uffici postali e ambienti pubblici; delle sedute per ufficio e comunità, degli elementi per acustica, delle partizioni interne e dei rivestimenti, dei complementi d’arredamento per ufficio e delle tecnologie audiovideo.
Un secondo evento, In Italy, con progetto di Four in the Morning a cura dell’architetto Dario Curatolo, vedrà protagoniste 64 aziende italiane e un gruppo selezionato di designer, progettisti e architetti che si confronteranno sul tema dei prodotti, del design e della progettazione. Le aziende coinvolte si presentano attraverso uno strumento altamente innovativo, un filmato, con il quale il curatore condurrà lo spettatore nell’esplorazione virtuale del saper fare e dell’unicità italiani e del percorso produttivo nascosto dietro ogni oggetto. Il filmato diventerà un’installazione che a sua volta diventerà una App per esplorare cinque soluzioni: Lecce, Milano, Roma, Venezia e Val d’Orcia per cinque stili d’interni. Nei padiglioni 22 e 24 torna il SaloneSatellite. Giunta alla sua XVIII edizione, la manifestazione quest’anno è dedicata al tema “Pianeta vita” inerente a quello di EXPO “Nutrire il pianeta, energia per la vita”. Luogo di incontro per eccellenza tra i 700 giovani designer selezionati da ogni parte del mondo, gli imprenditori, gli architetti, gli interior designer e la stampa, la manifestazione è dedicata agli under 35 che non solo presentano qui i loro progetti, ma hanno anche la possibilità di essere selezionati per la 6a edizione del concorso SaloneSatellite Award, che ogni anno premia i 3 migliori prototipi tra quelli presentati, relativi alle categorie merceologiche presenti in fiera.
Workplace 3.0/Salone Ufficio 2015 “La tecnologia ha cambiato tutto, lasciando l’uomo più libero di organizzarsi come desidera e permette di lavorare ovunque, a casa, in treno o magari all’aria aperta in un parco”. Un evento che vedrà contemporaneamente in mostra le diverse componenti che oggi concorrono nella progettazione degli spazi di lavoro, dalle forniture chiavi in mano per i grandi edifici, agli arredi di grandi e piccoli uffici. Un’area espositiva ricca di proposte e spunti progettuali per pensare e vivere lo spazio di lavoro in un’ottica contemporanea e nelle tante accezioni che questi spazi oggi hanno. “Pensare all’ambiente di lavoro come
una palestra attrezzata per allenare la mente, facendolo diventare uno spazio in cui le relazioni generino nuove idee e possibilità. L’ufficio del futuro va pensato immaginandosi uno stile di vita svincolato dalle convenzioni, un ambiente sempre diverso creatore continuo di novità”.
Con queste parole Michele De Lucchi sottolinea le intenzioni di Workplace3.0 all’interno del quale lui stesso sta progettando una mostra evento che metterà in evidenza come il mondo del progetto stia cambiando e che caratterizzerà l’edizione del Salone del Mobile che si appresta a iniziare.
Un progetto di Michele De Lucchi
Michele De Lucchi, Colonne portanti, Ritratto, Foto di Federico Ridolfi
All’interno dei padiglioni 22-24, dove si svolgerà la biennale Workplace3.0/ SaloneUfficio, più di 1000 metri quadrati saranno allestiti con la visione che l’architetto ha dell’ambiente di lavoro: una palestra attrezzata per allenare la mente, uno spazio in cui le relazioni generino nuove idee e possibilità, un ufficio pensato immaginandosi uno stile di vita svincolato dalle convenzioni, un ambiente sempre diverso creatore continuo di novità. Il progetto continua il percorso tracciato nel 2013 dall’architetto Jean Nouvel con ‘Progetto: ufficio da abitare’. Ancora una volta la mostra sarà un contenitore di suggerimenti e suggestioni per progettisti, designer e interior decorator.
In un mondo in continua e rapida evoluzione, l’ufficio è il luogo maggiormente soggetto a trasformazioni legate ai cambiamenti sociali, economici e culturali. Gli ambienti di lavoro diventano paesaggi mutevoli. L’ufficio del futuro è privo di convenzioni, sempre diverso e creatore di novità.
La Passeggiata,
“L’arte di camminare è un’arte visiva grazie alla quale si acquista la capacità di guardare al mondo in maniera diversa”,
Nasce così “La Passeggiata”, una metafora sull’importanza di non stare fermi. Anche nell’ufficio è più importante muoversi che sostare e il paesaggio interno ed esterno hanno un ruolo fondamentale nella creazione dell’ufficio stesso. Paradossalmente diventano oggi più importanti gli spazi come la reception o la cucina, un angolo di verde in un luogo inaspettato, una sala riunioni particolarmente confortevole e un bel percorso per arrivare alla propria postazione di lavoro piuttosto che la postazione stessa.
come scrive Wu Ming2.
Arredamento, illuminazione, partizioni interne, elementi per acustica, sistemi di comunicazione, tecnologie, controsoffitti, pavimenti, rivestimenti, condizionamento, schermature solari per architettura, queste le merceologie che, con l’obiettivo di mettere a disposizione dei progettisti nuovi strumenti per lavorare meglio, saranno ospitate nei padiglioni 22-24.
Il mondo del lavoro non è più solo quello dell’ufficio. Le tecnologie hanno profondamente modificato il modo di lavorare e di conseguenza il progetto degli spazi dove si lavora.
Pipistrello,
Una lampada che assomiglia a una palma (1965, Gae Aulenti per Martinelli Luce)
Si chiama Pipistrello, ma in realtà assomiglia a una palma. È stata tacciata di neo-liberty e persino di art nouveau, ma in realtà è solo un capolavoro. E come tutti i capolavori ogni elemento è risolto contemporaneamente in chiave estetica e funzionale.
Il Salone che vorrei Laura Traldi per DBlog
Più invenzioni che riedizioni, più rivoluzioni che evoluzioni: ecco cosa sogno di vedere al Salone del Mobile e al Fuorisalone 2015. Chiedendomi, stamattina, cosa davvero mi aspetto dalla designweek di Milano, la risposta che mi sono data è stata chiara: sogno qualcosa di davvero nuovo, memorabile e progettato per segnare il passo per il futuro senza scimmiottare il passato. In altre parole, basta vintage... Non è una critica ma un desiderio, un “wishful thinking” che – mentre arrivano i primi segnali di cambiamento nell’economia – riaffermerebbe la leadership del Made in Italy (nato grazie all’innovazione, non alla poetica del ricordo) e lascerebbe finalmente il passo alle intelligenze del presente (rendendo così anche davvero omaggio a quelle del passato che di certo così avrebbero voluto). Ci vuole coraggio, ovviamente, perché il vintage comporta pochi rischi e vende bene. È anche bellissimo che i pezzi
iconici dei grandi del passato vengano riproposti (sono, il più delle volte, meravigliosi). Ma è triste se si confonde la riedizione con la vera innovazione, ed è strano quando le “nuove” generazioni di mobili, le centinaia di divani, tavoli, sedie e madie che rievocano gli anni ‘50, ‘60, ‘70, sono firmati da progettisti nati tra gli anni ‘70 e ‘80. C’è da chiedersi: come mai questi ragazzi non osano? La risposta è semplice: fanno (giustamente) quello che chiede il mercato. La stampa ha ovviamente avuto un ruolo fondamentale nella creazione di questo “stil novo” che rivisita il passato proponendo per anni immagini di case non sperimentali ma belle nel senso tradizionale del termine. È comprensibile. A nessuno piace “osare” in tempo di crisi... Non è questo, però, il mondo che sarebbe piaciuto a Jean Prouvé, Franco Albini o Gio Ponti.
Jean Prouvé,
(1901–1984) architetto e designer francese.
I grandi del passato, infatti, erano personaggi “scomodi”, autori di oggetti un tempo considerati folli (basti pensare allo sgabello Mezzadro di Castiglioni o alle stesse sedie Standard di Jean Prouvé). Ma non c’è niente di rivoluzionario nel mettersi in casa pezzi ispirati ai grandi classici vintage oggi. È, al contrario, una scelta di comodo per tutti: per i designer, che devono inventare ma all’interno di un’estetica già “testata”; per le aziende, che contano di vendere più facilmente cavalcando una moda ormai mainstream; per i consumatori, che pensano di acquistare il prodotto “senza tempo”; e anche per i giornalisti, a cui non viene richiesto di spiegare ma solo di ammirare una bellezza già declamata.
Franco Albini
Poltrona moderna / cuoio / Franco Albini
Ovviamente è giustissimo che tutto questo esista. Senza un mercato che funziona non ci sarebbe più il design, sperimentale o no. Quindi benvenga la passione per il vintage (vero o aspirante tale) e speriamo che duri il più a lungo possibile. Ma è anche giusto che la cultura del progetto vada avanti. Che alle nuove generazioni venga lasciato lo spazio per guardare oltre – che non è una cosa facile che si improvvisa dall’oggi al domani. Ecco perché spero tanto di vedere qualcosa di diverso in questo Salone e Fuorisalone 2015. Mobili contemporanei, per esempio, capaci di inventare una nuova estetica che racconti il mondo di oggi senza ancorarsi al minimalismo, al rétro o all’iperdecorativismo (tutte espressioni del passato più o meno remoto). Ed eventi che esplorando il futuro del design: se i progettisti giovani, educati al bello, non cominceranno a muoversi in questa direzione, tra dieci anni le nostre case saranno il copyright di ingegneri e aziende high tech, le uniche che al momento lavorano in modo serio alla definizione delle nuove interazioni tra uomini e oggetti. Mi piacerebbe anche essere esposta al domani dei makers: abbiamo capito e apprezziamo la potenzialità dei loro strumenti che mettono insieme il digitale e l’alto artigianato ma vorremmo capire dove tutto questo li porterà (immagino ben oltre la creazione di piccoli oggetti 3D da stampare davanti agli occhi del pubblico del Fuorisalone). Infine, sarei felicissima di vedere il lato “generoso” del design, progetti sul futuro della città, visioni pensate per contribuire a un domani in cui – si spera – le “grandi opere” saranno di nuovo gestite dalle amministrazioni per la gente e non soltanto da privati che sognano skyline sempre più avanguardisti.
Fortebraccio,
una lampada davvero snodabile, 1998, Alberto Meda e Paolo Rizzato per Luceplan
Fortebraccio è la lampada operativa che riesce, dopo quasi 60 anni, a mettere in discussione il primato funzionale e formale della L-1 di Jac Jacobsen.
FUORISALONE 2015 Brera Design District: novità e informazioni sul quartiere più creativo del mondo.
Giunta alla sesta edizione, Brera Design District si presenta quest’anno con il tema “Progetto Forma Identità” - Per creare un’identità è indispensabile investire sulla formazione, unica via per sviluppare una capacità progettuale. Non c’è infatti identità senza progetto; e quel che unisce le due espressioni di questa equazione sono la formazione, l’apprendimento, la conoscenza.
È davvero quasi tutto pronto per la VI edizione di Brera Design District, la manifestazione che in occasione del Salone del Mobile e del Fuorisalone veste a “festa” uno dei quartieri storici, il più bohémien, della città. Un calendario ricco di eventi in programma dal 14 al 19 aprile 2015 per un evento che ormai è divenuto un vero e proprio brand e che negli ultimi anni si è ampliato coinvolgendo sempre più quartieri della città: partendo dalla vecchia Brera ha raggiunto Moscova, Garibaldi, Corso Como, Piazza XXV Aprile e, scommettiamo, arriverà anche nel nuovo quartiere di Porta Nuova.
Perché Brera? Perché non è solo un quartiere, ma un punto di coordinamento di diverse zone della città. Se la scorsa edizione di Brera Design District aveva totalizzato più di 136 eventi e realtà con un passaggio di 140 mila persone, oltre 50.000 visite sul sito per un totale di 17.000 visualizzazioni, per questo 2015, il distretto di promozione del design punta ancora più in alto con eventi e un format che comprende un tema, il premio ‘Lezioni di design’, una serie di incontri, progetti speciali e iniziative culturali. Tra gli ambasciatori di quest’anno, il designer Luca Nichetto, presente con tre eventi in Brera, l’artista Patrick Tuttofuoco che realizzerà un’installazione in Piazzetta Brera e lo studio di architettura Piuarch, con sede in via Palermo, che propone il progetto “Milano tra gli orti”: i 300 mq del tetto dell’edificio che ospita lo studio di architettura saranno convertiti in un orto permanente in modo da riqualificare l’immobile anche dal punto di vista funzionale ed energetico.
Questa del 2015, poi, sarà un’edizione davvero importante, in quanto aprirà le porte e passerà il testimone a Expo 2015: Milano culla del mondo.
Ma dove risiede l’importanza di Brera Design District?
Maarten Baas, designer, 1978.
Perchè tutto questo successo? La risposta è molto semplice: il Fuorisalone e con esso BDD vanno oltre al mero concetto di fare marketing e portare a termine incontri B2B. Significano arte, design, creatività, quella creatività che in tutto il mondo di copiano e invidiano, come hanno spiegato gli organizzatori nel corso della conferenza stampa di presentazione tenutasi qualche settimana fa alla Mediateca di Santa Teresa.
Luca Nichetto, 1976.
Tra i progetti speciali della manifestazione, segnaliamo la proiezione del film documentario Design Capital ‐ I sette giorni che fanno di Milano la capitale del design, un progetto cinematografico indipendente di Studiolabo (realizzato con Andrea Cuman, Massimiliano Fraticelli e Patrizio Saccò che ne firma anche la regia) che raccoglie le testimonianze di influenti designer internazionali (da Ron Gilad a Maarten Baas), di opinion makers come Wallpaper* e CoolHunting, e racconta le idee, le ambizioni e i desideri di chi arriva in città anche solo per pochi giorni, per vivere la frenesia e la vivacità del Fuorisalone. Molte le iniziative culturali, le nuove aperture (come quella di Kartell by Laufen) e i brand – di moda e non solo – che prenderanno parte al Brera Design District: dal custom made di Lanieri al bagno sartoriale di Devon & Devon, fino alle cantine su misura di Vancouver firmate Vin de Garde, solo per citarne alcuni.
Spaghetti Chair,
una sedia classica, 1979, Giandomenico Belotti per Alias
Un nome (ove italiano e inglese giocano sapientemente i loro reciproci ruoli!) e un destino, dovuto all’invenzione dell’estruso in PVC (appunto lo spaghetto) che, arrotolandosi, definisce sedia e schienale. Celebre, e imitata nel mondo, la Spaghetti è una sedia dalla struttura razionalista che diviene in qualche misura pop.
SUPERDESIGN SHOW @ SUPERSTUDIO PIÙ In occasione del suo quindicesimo compleanno, Superstudio Group presenta un nuovo format, SuperDesign show che, prendendo il posto e allo stesso tempo inglobando il Temporary museum for new design, combinerà spazi dedicati alla creatività di brand internazionali, e aree riservate alla ricerca e alla presentazione di nuovi talenti. Riportiamo l’intervista che Carolina Nisivoccia, direttore artistico di questa edizione, ha rilasciato a Ottagono.
Carolina Nisivoccia, architetto.
Un nuovo logo e un nuovo format. Questo le ha dato molta libertà di azione nello sviluppo del progetto? Con il nuovo progetto ho scelto per certi versi di portare avanti quanto Superstudio ha fatto in questi anni, cioè essere non solo un contenitore ma un luogo in cui prendono forma le novità che sono nell’aria. Con SuperDesign Show, a partire dal nome e dal sottotitolo ‘Open your mind’, che è una vera esortazione ad aprire la mente, quest’anno abbiamo deciso di accrescere e rinforzare l’attitudine a intercettare e portare in mostra le tendenze. Anche creando per la prima volta nuove sezioni da noi curate, come il Kids Design, il textile, e l’art design. Ancora di più quest’anno troverete installazioni spettacolari che rappresentano il meglio di quella che oggi sembra essere una tendenza consolidata come “l’architettura della percezione”.
Quali sono le novità di quest’anno in termini di destinazione degli spazi e di allestimento? È un’edizione allargata a nuovi mondi, che dà molto spazio a realtà nuove con una collettiva di designer cinesi ampia e molto interessante o come ‘Islamopolitan’, una mostra molto interessante che abbiamo portato dagli Emirati. Ho già accennato alle nuove sezioni, dalla mostra sull’Art design curata da Gisella Borioli, al basement interamente dedicato al design per bambini. Abbiamo chiamato una curatrice esperta per selezionare le aziende che lavorano con una progettualità attenta. E poi una selezione di aziende tessili per cominciare a mettere in evidenza un settore ricco e affascinante, oggi di forte attualità e tendenza. Anche i materiali saranno protagonisti, non solo per l’importante presenza del Material Village, ma perché noi stessi abbiamo deciso di metterli in evidenza grazie alla partnership con aziende come Abet laminati con De Rosso e Novacolor. Hanno tradotto i colori e lo spirito del nostro logo in nuovi arredi per gli spazi comuni e finiture speciali per le pareti.
Qual è stata la sfida più grande nel portare a termine il progetto? Superstudio è una realtà complessa perché unisce alla superficie molto estesa dei suoi spazi, la volontà di non essere un semplice contenitore ma un luogo in cui l’elevato numero degli espositori presenti partecipa e coesiste per una precisa visione d’insieme. I risultati si ottengono insieme: noi e le aziende che espongono qui. La difficoltà è tenere le fila di un insieme multiforme e indipendente, durante i lunghi mesi di lavoro in cui sorgono variabili e imprevisti che fino all’ultimo vanno gestiti. Per arrivare ad un risultato che quest’anno è davvero interessante.
Al Fuorisalone 2015 la galleria di modernariato a15, in via Marsala 4, si concentra su una figura fondamentale del design del ‘900: Joe Colombo. Dal 14 aprile al 31 ottobre 2015 ci sarĂ una mostra mercato con oggetti, mobili, lampade e curiositĂ .
project management
I
fattori di successo dei progetti di
Alberto Fischetti
I progetti riescono sempre? In tutte le organizzazioni, il numero di progetti affrontati è veramente enorme. Ma come possiamo dedurre dalle statistiche e anche dalla nostra comune esperienza, una larga parte di progetti purtroppo non rispetta gli obiettivi di tempi, costi e coerenza dei risultati con le aspettative. In altre parole il “cimitero” in cui trovano sepoltura i progetti che sono falliti è molto ampio! Se restringiamo questa sconfortante panoramica focalizzandoci solo sui progetti svolti nell’ambito IT, troviamo dei dati molto preoccupanti: ne citiamo qui solo alcuni, tratti da autorevoli fonti. Secondo uno studio di McKinsey & Company, su 5,400 progetti IT di grande scala (con un budget iniziale maggiore di 15 M$): • •
il 17% di essi va così male da minacciare l’esistenza stessa dell’azienda; in media il 45% dei progetti va fuori budget e il 7% fuori tempo, e il 56% produce meno valore di quello previsto.
Secondo un’indagine KPMG Nuova Zelanda: • •
il 70% delle organizzazioni ha sofferto per il fallimento di almeno un progetto negli ultimi dodici mesi; il 50% dei progetti ha mancato gli obiettivi prefissati.
41
ET
La IBM ha dichiarato che: •
concreti, vorremmo iniziare la nostra analisi sottoponendo alla vostra attenzione uno spettacolare progetto che è stato esemplare per gli errori in esso commessi.
solo il 40% dei progetti ha soddisfatto i requisiti di costi, tempi e qualità dei risultati.
Logica Management Consulting dichiara che: • •
Si tratta del progetto denominato “Spruce goose”.
il 35% delle aziende ha abbandonato un progetto importante negli ultimi tre anni; il 37% dei progetti non ha prodotto i risultati attesi.
Descriveremo alcuni fatti relativi a tale progetto, faremo alcune considerazioni sugli errori in esso contenuti, e da questa lezione trarremo una serie di elementi che possono fornire una certa garanzia di successo dei progetti. Ricordiamo comunque che, come si dice in matematica, basare i progetti su questi elementi di successo è una condizione “necessaria ma non sufficiente” per poterli condurre a buon esito.
L’Information Systems Audit and Control Association (ISACA) riferisce che: • •
il 43% delle organizzazioni ha dichiarato il fallimento di almeno un progetto; Il 20% degli investimenti non ha prodotto risultati.
Il progetto Spruge goose
L’ United States Government Accountability Office ha determinato che: •
A titolo d’introduzione a quanto diremo sul progetto “Spruce goose” suggeriamo la visione del bellissimo film del 2004 vincitore di cinque premi Oscar “The Aviator” con la regia di Martin Scorsese e attore protagonista Leonardo Di Caprio.
413 su 840 (49%) progetti finanziati a livello federale sono stati o pianificati male, o eseguiti male o entrambi i casi.
Potremmo andare avanti con questo elenco di dati allarmanti allargando il campo d’indagine a progetti in tutti gli altri campi dell’attività umana, ma siamo convinti che tutti i lettori abbiano sotto gli occhi fallimenti di progetti che hanno visto o nei quali sono malauguratamente stati coinvolti.
Dagli errori si dovrebbe trarre una lezione Quasi sempre dagli errori si possono trarre delle lezioni (pensiamo al vecchio adagio “sbagliando s’impara”). Quando si parla però di progetti impegnativi non si può certamente applicare a questi il metodo di apprendimento “trial and error”, ma si può comunque fare un’analisi su progetti simili, determinare le cause che ne hanno impedito il successo e cercare di non ripetere gli errori che tale analisi ha evidenziato. Per riportare il nostro discorso a fatti
42
ET
Descriviamo brevemente il progetto. Siamo nel 1942 e la flotta di sommergibili tedeschi sta infliggendo pesanti perdite ai convogli di navi che dagli USA trasportano uomini, mezzi e materiali per sostenere lo sforzo bellico alleato in Europa (naviglio affondato pari a quasi 600,000 tonnellate nel periodo compreso tra l’agosto 1940 e il febbraio 1941). L’armatore americano Henry J. Kaiser, ideatore e costruttore delle navi Liberty per i trasporti verso il teatro di guerra europeo, pensò che la soluzione al problema potesse essere quella di utilizzare una flotta di giganteschi aerei, e produsse una brochure che descriveva la “nave volante” che aveva in mente, sostenendo che 5,000 di queste navi volanti avrebbero potuto sostituire i trasporti bellici marittimi. Kaiser era un visionario ma anche un realizzatore estremamente capace, al punto da riuscire a far costruire una nave Liberty nel tempo record di 4 giorni! Kaiser sosteneva: “state lontani dalle soluzioni complesse perché esse creano più problemi di quanti ne risolvono”. È interessante notare anche che Kaiser riteneva la burocrazia governativa un disastro e un ostacolo a fare le cose, e pensava che
per continuare la lettura acquista METHODO su www.ottostorto.com/store/
43
ET
per continuare la lettura acquista METHODO su i politici fossero maestri di indecisione e preferissero aspettare e vedere se i problemi si risolvessero da soli (ci ricorda qualcosa?).
raggiunse con 566 km/h il record mondiale di velocità per aerei a decollo dal suolo (ricordiamo che il record mondiale di velocità per idrovolanti, tuttora imbattuto, fu raggiunto dall’italiano Francesco Agello con 709 km/h nel 1934). Nel 1938 stabilì un altro record mondiale compiendo un giro aereo completo attorno al mondo in tre giorni, diciannove ore e diciassette minuti. Altri record di Hughes furono nel 1936 il volo New York – Miami in 4 ore e 21 minuti e il volo Chicago – Los Angeles in 8 ore e 10 minuti. Non si può quindi dire che Hughes non fosse un grosso esperto di aeronautica.
www.ottostorto.com/store/
L’industriale miliardario americano Howard Hughes, cineasta, progettista aeronautico e ottimo pilota di aerei, si entusiasmò all’idea e fondò con Kaiser la società di costruzioni aeronautiche Kaiser-Hughes Aircraft (KH). Hughes aveva concretizzato la sua passione per il volo ottenendo traguardi significativi. Nel 1935 pilotando un aereo di sua progettazione
44
ET
scena del film
The Aviator,
dedicato alla vita della leggenda americana Howard Hughes, fortunato produttore cinematografico ed aviatore. Martin Scorsese, 2004.
L’aereo Le caratteristiche di progetto dell’HK-1, poi denominato H-4 Hercules e soprannominato “Spruce Goose”, erano veramente impressionanti. L’H-4 Hercules doveva essere costruito quasi interamente in legno (laminati di salice realizzati con un processo chiamato Duramold) per evitare di utilizzare metalli quali l’alluminio considerati strategici per lo sforzo bellico, e rappresentava certamente l’aereo più grande mai progettato nella storia dell’aeronautica. Alcune dimensioni di esso detengono un record a tutt’oggi ancora imbattuto. Tanto per dare un’idea sull’H-4 Hercules ne elenchiamo alcuni dati, confrontando alcuni di essi con quelli del Boeing 747 (Jumbo), aereo che probabilmente ognuno di noi ha potuto vedere negli aeroporti:
per continuare la lettura acquista METHODO su • • •
Apertura alare 97.6 m, record ancora imbattuto (64.4 m nel Boeing 747) Superficie alare 1060 mq, record ancora imbattuto (520 mq nel Boeing 747) Altezza da terra 30.5 m, record ancora imbattuto (19.4 m nel Boeing 747) Lunghezza 66.6 m (70.6 m nel Boeing 747) Peso a vuoto 113.4 t (178.8 t nel Boeing 747) Serbatoi di carburante da 53,000 l (217,000 l nel Boeing 747) Possibilità di trasportare fino a 700 soldati o un carico pagante di 59 tonnellate per 5,600 km a 272 km/h di velocità di crociera Propulsione fornita da 8 motori radiali a 4 stelle e 24 cilindri Pratt & Whitney da 3,000 HP con elica a 4 pale di diametro 5.2 m
www.ottostorto.com/store/ •
Hughes con i tecnici della KH diresse la progettazione di un velivolo idrovolante denominato HK-1 che potesse realizzare l’idea di “nave volante” di Kaiser. Nel Novembre 1942 fu stipulato un contratto per 18 milioni di $ con la Defense Plant Corporation (DPC) del Governo americano per la fornitura di due aerei HK-1 e un telaio per test statici, da realizzare entro 24 mesi. Il budget stanziato copriva la progettazione e realizzazione degli aerei, mentre la DPC avrebbe fornito direttamente i motori, le eliche e la strumentazione.
• • •
•
45
ET
Il risultato del progetto
La lezione
Il progetto fu disastroso: della fornitura richiesta in origine, fu realizzato un solo aereo, completato nel 1947, a guerra oramai finita, e al costo di 27 milioni di $ (lo stesso Hughes investì 7 milioni di tasca sua nel progetto). Non furono rispettati dunque né i tempi né i costi né lo scopo!
Nella storia del progetto Spruce Goose possiamo evidenziare gli errori principali che hanno portato a un insuccesso così clamoroso, e di conseguenza definire gli elementi su cui dovrebbe basarsi un progetto per avere una buona probabilità di successo.
per continuare la lettura acquista METHODO su Definizione degli obiettivi
L’aereo non divenne mai operativo. L’unico volo dell’H-4 Hercules fu compiuto il 2 novembre 1947 con Howard Hughes stesso al comando del velivolo. L’aereo volò per circa 1,6 km a 21 m di altezza sul mare sopra il porto di Los Angeles. Oggi l’H-4 Hercules è ospitato nell’Evergreen Aviation Museum a McMinnville, Oregon (USA). Sulla rivista americana Collier’s apparve una vignetta con un disegno dello Spruce Goose e la didascalia
Il progetto Spruce Goose fu avviato con degli obiettivi troppo vaghi e non sufficientemente dettagliati. In pratica furono messe insieme una parte puramente concettuale e sperimentale e una parte realizzativa. Il punto di partenza era una progettazione da zero di qualcosa che non era mai stata realizzata, e addirittura all’inizio del progetto non era ancora stata decisa l’architettura generale del velivolo. Erano stati elaborati ben sette disegni concettuali molto diversi fra loro: sei, sette o otto motori, una due o tre fusoliere!
www.ottostorto.com/store/ “è un magnifico aereo ma ha solo Sponsorship un piccolo difetto: non vola”.
La sponsorship del progetto fu altalenante, con tutta una serie di ripensamenti e modifiche allo scopo del progetto. Si giunse al punto che il 4 ottobre 1943 il Board della Defense
ET
4
Plant Corporation raccomandasse che il progetto fosse cancellato “perché esso non offre alcun utile contributo allo sforzo bellico”. Kaiser e Hughes furono invitati a Washington e ottennero una dilazione di trenta giorni alla decisione di cancellare il progetto. Le discussioni sul progetto però continuarono e in esse fu coinvolto il “Truman Committee”, un comitato “bipartisan” presieduto dal senatore Harry S. Truman (futuro presidente degli USA successore di Franklin D. Roosevelt) che era stato istituito per investigare sulle enormi spese militari del governo. Membro del Truman Committee era il senatore Ralph O. Brewster, sul quale pesò il sospetto di voler favorire la compagnia di trasporto civile Pan American, nella quale pare avesse interessi diretti, contro la concorrente TWA di proprietà di Hughes. In definitiva nel marzo 1944 a Hughes venne riconosciuto il lavoro già fatto e l’interesse tecnico sul progetto, anche se l’interesse strategico non sussisteva più. Il progetto poteva andare avanti con la costruzione di un solo aereo e senza ulteriori esborsi da parte del Governo. Con questa decisione la priorità del progetto veniva significativamente declassata e la sponsorship diventava unicamente affidata a Hughes stesso.
progetto Hughes s’imbarcò in mille altre imprese sparpagliando su di esse le sue energie. Il progetto di costruzione di un aereo da ricognizione, l’XF-11, mise addirittura in pericolo la sua vita: ai comandi di questo aereo per il suo primo volo di collaudo, Hughes per causa di un problema a uno dei due motori ebbe un grave incidente in cui si fratturò una clavicola e molte costole, ebbe il collasso del polmone sinistro, lo spostamento del cuore nella cavità destra del torace e molteplici ustioni di terzo grado. La tendenza a interessarsi a ogni minimo dettaglio, unita a una maniacale ossessione per il mantenimento del segreto più assoluto sul progetto furono probabilmente le maggiori cause dei ritardi nell’esecuzione. Hughes voleva analizzare e decidere personalmente tutti gli aspetti tecnici senza mai delegare ad altri la ricerca delle soluzioni, e voleva mantenere ogni aspetto tecnico il più possibile segreto esercitando un ferreo controllo su ogni tipo di comunicazione. Questi fattori comportarono inevitabili ritardi. Tutto lo staff di progetto si lamentava dei tempi di attesa delle decisioni di Hughes, il quale spesso era irraggiungibile perché impegnato in troppe attività concorrenti o a causa dei suoi strani e imprevedibili ritmi di lavoro.
Project management
Tecnologia
È stato forse il punto più debole del progetto. Howard Hughes volle svolgere il ruolo di project manager ma la sua gestione si rivelò molto debole a causa di molti fattori legati ai suoi aspetti caratteriali e al suo stile di leadership.
La progettazione e realizzazione dell’HK-1 fu basata su un grande numero di nuove tecnologie, mai sperimentate prima, e quindi era insito nel progetto un notevole “rischio tecnologico”.
Dal punto di vista caratteriale possiamo notare come Hughes soffrisse di manie che addirittura sfociavano nella patologia, dato che era affetto da disturbo ossessivo-compulsivo. In particolare due furono gli aspetti che influirono negativamente sulla corretta gestione del progetto: la scarsa focalizzazione su di esso e l’attenzione ai minimi dettagli con assoluta mancanza di delega verso i suoi collaboratori.
Tra gli elementi tecnologici giocò un ruolo determinante sulla difficoltà del progetto l’utilizzo del legno per la costruzione di una gran parte dell’aereo. La decisione di utilizzare il legno derivava dalla necessità di non utilizzare materiale strategico di scarsa disponibilità come le leghe leggere, ma in fase iniziale del progetto tale necessità venne meno, tanto che gli sponsor autorizzarono Hughes ad abbandonare il legno e utilizzare le più conosciute leghe di alluminio. Hughes non volle modificare il progetto per paura di perderne il controllo e continuò a dover affrontare gli innumerevoli problemi legati all’utilizzo del legno per la costruzione di un aereo così grande.
Per quanto riguarda il primo problema, Hughes era sicuramente un “driver”, ma la formidabile spinta iniziale del suo entusiasmo si disperdeva poi in moltissimi altri interessi che lo portavano a perdere di vista gli obiettivi iniziali. Durante il
47
ET
Innumerevoli altri problemi tecnici dovettero essere affrontati, quali la trasmissione dei comandi dalla cabina di pilotaggio ai motori, agli alettoni e al timone di coda, la realizzazione dei cablaggi elettrici e molti altri.
6. mantenimento del senso di urgenza 7. controllo efficace 8. gestione dei rischi 9. performance del team di progetto 10. leadership del project manager.
Pianificazione
Vediamo di specificare meglio questi fattori.
Uno dei principali problemi di pianificazione fu la scelta del sito di costruzione dell’aereo, piuttosto lontano dal mare da cui avrebbe dovuto decollare il velivolo. Era stata scelta la soluzione idrovolante principalmente per ragioni di peso, poiché il sistema del carrello di atterraggio assorbe il 15% del peso totale di un aereo a vuoto. L’HK-1 fu costruito nelle sue quattro parti principali (la fusoliera, le due gigantesche ali e la parte di coda) nello stabilimento della Kaiser Hughes a Culver City, una contea della città di Los Angeles, distante 45 km da Terminal Island, località sul mare a metà strada tra i porti di Los Angeles e di Long Beach, dove furono edificati tre bacini di carenaggio per la fusoliera e i due galleggianti laterali dell’aereo. Il trasporto su strada delle parti prefabbricate da Culver City a Terminal Island fu un’impresa epica. Per far passare i pezzi dell’aereo dovettero essere rialzate o abbassate 2100 linee aeree elettriche e telefoniche, e moltissimi alberi furono potati o abbattuti. La società di trasporti “Star House Movers” costò a Hughes 140,000 $.
Obiettivi chiari e condivisi Gli obiettivi di progetto devono essere ben articolati ed essere chiari a tutti, team di progetto e “stakeholders” ossia parti in causa. Ognuno deve interiorizzare tali obiettivi e farli diventare da obiettivi di progetto a obiettivi personali. Bisogna che tutti abbiano una risposta alla domanda ‘cosa me ne viene a me’ dal successo del progetto.
Forte sponsorizzazione
per continuare la lettura acquista METHODO su
È indispensabile che ci sia un impegno assoluto da parte degli sponsor sul successo del progetto. I progetti intrapresi solo perché sono ‘di moda’ o perché qualcun altro ha deciso di intraprenderli sono destinati ad avere vita difficile. Gli sponsor devono essere convinti dell’utilità del progetto e devono essere responsabili in prima persona del successo di esso. Devono sostenere il progetto con convinzione e dimostrare con i fatti al team e al project manager il loro impegno (‘walk the talk’).
www.ottostorto.com/store/
Gli elementi di successo
Ruoli e responsabilità definiti
Anche se in maniera molto sintetica abbiamo esaminato alcune delle ragioni di fallimento del progetto “Spruce goose”, in modo da trarre da queste qualche insegnamento utile per un buon svolgimento dei progetti.
L’assegnazione dei ruoli e delle responsabilità deve coprire tutte le attività sia operative che gestionali, senza lasciare lacune o ‘zone grigie’ né aree di sovrapposizione. Ruoli e responsabilità devono essere formalizzati e tutti devono averli ben chiari.
Possiamo sintetizzare la lezione in una sorta di “decalogo” al quale dovrebbe sottostare un progetto per poter avere buone probabilità di riuscita. I punti del decalogo del buon progetto sono: 1. obiettivi chiari e condivisi 2. forte sponsorizzazione 3. definizione di ruoli e responsabilità 4. metodologie di lavoro comuni 5. pianificazione accurata
Metodologie di lavoro comuni Devono essere istituite e adottate metodologie di lavoro comuni, anche con enti esterni. I membri del team devono essere formati sull’uso delle metodologie e devono poi metterle in pratica.
48
ET
intervenire con azioni correttive, fornire feedback aperto a tutti i membri del team, affrontare con determinazione le cause di bassa performance e diffondere nel team le soluzioni che hanno apportato a un’alta produttività.
Pianificazione accurata Tanto più accurata è la fase di pianificazione tanto maggiori sono le possibilità di successo. Pianificazione accurata significa completa, esaustiva e lasciando aperte possibili alternative in funzione dei rischi. Non devono essere fatte stime ‘compiacenti’ cioè irrealistiche e fatte solo per venire incontro ai desideri degli sponsor, promettendo tempi e costi irrealistici.
Leadership del project manager Il project manager deve avere un’azione di leadership sul team, che possiamo sintetizzare nei seguenti punti:
Mantenimento del senso di urgenza
•
Deve essere mantenuto un senso di urgenza durante tutta la vita del progetto. È insita nella natura umana la tendenza a perdere il senso di urgenza quando si ha la sensazione che c’è molto tempo davanti a sé. Nei progetti a lunga durata ci sono forti rischi di perdita del senso di urgenza specialmente all’inizio, quando si vede il completamento del progetto ancora lontano. Il sistema migliore per mantenere il senso di urgenza è quello di fissare delle “milestones” a scadenze ravvicinate e focalizzare il team di progetto sul raggiungimento di queste.
• • • •
avere chiara la visione del risultato ed essere capace di trasmetterla al team; dimostrare fiducia ed entusiasmo, affrontare positivamente le maggiori difficoltà senza trasmettere senso di panico o frustrazione; essere percepiti dal team come una risorsa, sulla quale poter fare affidamento; essere credibili e condurre il team con l’esempio; creare un flusso di comunicazione aperto ed efficace.
Possiamo concludere che la storia dello “Spruce goose”, pur affascinante per la sua spettacolarità, ci fornisce molti insegnamenti preziosi su possibili errori nella gestione dei progetti. Ogni progetto può essere paragonato a un figlio: al proprio figlio non bastano la gioia e l’entusiasmo del momento della nascita, sono necessarie l’attenzione e le cure che dei bravi genitori devono dedicargli durante il corso di tutta la vita.
Controllo di progetto efficace Mantenere un costante controllo sul progetto, ponendo la massima attenzione sugli scostamenti significativi. Evitare da parte del project manager quello che viene definito “micromanagement” ossia il controllo parossistico dei dettagli, che crea solamente demotivazione e mina la creatività e il senso di responsabilità e di appartenenza dei membri del team.
Gestione dei rischi Mantenere una costante attenzione sull’evoluzione dei possibili rischi, e preparare piani di mitigazione o eliminazione. Non nascondere le possibilità che si materializzino imprevisti, ma affrontarle apertamente.
Performance del team di progetto Incoraggiare una performance di eccellenza del team di progetto. Monitorare la performance,
49
ET
metodi di produzione
Massimizzare
la produttività e valorizzare le risorse umane di Alberto Viola
Il tema della produttività (e quindi del costo) del lavoro è sempre più attuale e frequentemente dibattuto, come se fosse l’unico fattore competitivo che potrà garantire la futura sopravvivenza delle aziende italiane: se si considera che, anche in aziende “labour intensive”, l’impatto del costo del lavoro sul costo totale del prodotto si aggira attorno al 15-20%, si comprende che ciò è solo in parte vero. Molte altre possono essere le aree di intervento per ridurre il costo del prodotto: ciò nonostante, spesso ci si concentra sul costo del lavoro inseguendo l’automazione spinta, per sostituire l’uomo con le macchine, con la sola immediata conseguenza di rendere rigido e meno affidabile il processo complessivo, governato e vincolato da grandi macchine complesse e costose. Nel contesto competitivo attuale, sempre più incerto e variabile, la flessibilità del sistema produttivo ha un valore sicuramente maggiore dei pochi punti percentuali di riduzione del costo del prodotto che si possono ottenere da recuperi del 20-30% di produttività delle risorse umane (recuperi in molti casi non semplici da ottenere). Per uscire da questo circolo vizioso, che porta a cercare l’automazione senza se e senza ma del processo produttivo, occorre cambiare paradigma oltre che punto di vista e iniziare a considerare le risorse umane non solo come un costo ma anche come un fattore competitivo in grado di garantire il successo dell’azienda nel medio-lungo periodo.
ET
50
Questo è esattamente il punto di vista del modello “lean production”, di cui stiamo parlando sin dal primo numero di METHODO: nel modello lean, la risorsa più importante del sistema produttivo è la risorsa umana: per questo motivo, questa risorsa, non solo deve essere utilizzata al meglio, ma deve essere anche messa nelle condizioni di poter contribuire al miglioramento e adattamento continuo dell’azienda alle diverse condizioni di mercato (cosa che di certo le macchine non sono in grado di fare). Già parlando di TPM (vedi numero 4 di METHODO), abbiamo più volte sottolineato il ruolo dell’operatore nella gestione delle macchine e la necessità di dotarsi di macchine semplici e flessibili per poter riconfigurare a basso costo il sistema produttivo in base alle esigenze dei clienti.
ottengono grazie alla progettazione e realizzazione di una cella di prodotto sono molti; tra i principali si possono considerare: • • • •
Oltre (non temete), a un miglioramento significativo della produttività degli operatori, grazie alla ricerca della configurazione produttiva che, senza penalizzare l’efficacia del processo (velocità e flessibilità del servizio al cliente), minimizza gli sprechi nelle attività. Con il cell design e la produzione a flusso si elimina la tradizionale produzione “a lotti e code”, con fasi produttive separate tra loro che nascondono molti sprechi, per passare a una produzione a flusso quanto più possibile vicina al principio lean del “one-piece-flow” (un pezzo alla volta).
Creare il flusso per massimizzare la produttività e valorizzare il ruolo delle risorse umane Quando si pensa alla produzione “a flusso” viene subito in mente la linea di assemblaggio tipica delle produzioni di massa e di grandi serie: lunghe linee con decine di operatori che lavorano con cadenze elevate.
La prime due domande a cui occorre rispondere in un’attività di cell design sono: quali prodotti possono essere lavorati nella cella di prodotto che si vuole realizzare? E qual è il Takt Time della famiglia di prodotti selezionata?
Nell’ambito del modello lean, la produzione a flusso si ottiene attraverso la combinazione e ottimizzazione di tutte le risorse che contribuiscono alla realizzazione di un prodotto finito (o di un semilavorato): • • • •
la drastica riduzione dei tempi di attraversamento e del work in process nel processo produttivo; maggiore flessibilità e affidabilità dei piani di produzione; migliore qualità degli output produttivi; ottimizzazione degli spazi occupati.
Mentre la seconda domanda ha un’unica risposta e ad essa si può rispondere in modo semplice applicando la formula che calcola il Takt Time (per vedere la formula per il calcolo del Takt Time si può fare riferimento al secondo numero di METHODO), per definire quali prodotti possono essere considerati facenti parte di una stessa “famiglia tecnologica” e quindi essere inseriti nella cella che si vuole costruire, la risposta non può essere univoca. Tuttavia si possono e devono seguire alcuni criteri per fare delle scelte corrette:
uomini; macchine e attrezzature; materiali; spazi.
Il cell design (questo è il nome della tecnica utilizzata in ambito “lean production” per progettare una cella di prodotto), ha proprio come obiettivo quello di collegare in sequenza tutte o alcune delle operazioni a valore aggiunto necessarie per produrre un prodotto, minimizzando gli sprechi all’interno del processo produttivo.
1. macchine e attrezzature: due prodotti diversi possono essere considerati nella stessa famiglia produttiva se utilizzano le stesse “tecnologie”, cioè utilizzano le stesse macchine per essere prodotti. È importante considerare tra le macchine/attrezzature anche quelle che non trasformano il prodotto durante il processo produttivo ma ad esempio, lo movimentano.
L’output di un’attività di cell design è una “cella di prodotto” dove addetti, macchine e materiali sono disposti uno vicino all’altro in ordine sequenziale e all’interno della quale i prodotti vengono processati secondo un flusso continuo.Gli obiettivi che si
51
ET
2. sequenze produttive: due prodotti diversi fanno parte della stessa famiglia tecnologica se seguono sequenze produttive uguali. In realtà la sequenza produttiva non deve essere necessariamente la stessa ma non può comunque differire di molto. 3. tempi ciclo totali: due prodotti diversi possono essere inseriti nella stessa famiglia se i tempi ciclo uomo totali dei prodotti sono simili tra loro (si indica come differenza massima accettabile un 20% in più o in meno).
Andare a un livello di dettaglio maggiore di questo non ha alcuna utilità. Con questa analisi è possibile individuare tutti gli sprechi presenti nel ciclo di lavoro iniziale, allo scopo di non considerarli quando si andrà a distribuire il contenuto di lavoro tra i diversi operatori: l’obiettivo è infatti quello di collegare in sequenza le sole attività a valore aggiunto per massimizzare la produttività del sistema. Gli sprechi che più facilmente si osservano sono quelli relativi a:
La scelta di quali prodotti inserire nella famiglia dipenderà anche dai volumi produttivi che si ottengono sommando i diversi prodotti selezionati: in termini di Takt Time si consiglia sempre di comporre la famiglia in modo da avere cadenze né troppo lente né troppo veloci (il range ottimale è tra i 20 secondi e i 2 minuti). Pertanto i criteri sopra esposti verranno più o meno utilizzati anche in base a questa esigenza.
•
movimenti e trasporti, a causa della distanza tra le diverse aree di lavoro e/o della disposizione dei materiali necessari per la realizzazione del prodotto finito; attese, per presidio delle macchine durante il tempo ciclo macchina.
per continuare la lettura acquista METHODO su •
La progettazione del flusso degli operatori prevede pertanto le seguenti macro-fasi:
Una volta definiti quali prodotti si intende produrre nella cella, l’ottimizzazione delle risorse produttive coinvolte (uomini, macchine, materiali) si ottiene progettando e costruendo una cella di prodotto all’interno della quale queste risorse possono “fluire” con continuità contribuendo alla produzione di quanto richiesto senza o con il minimo spreco: in termini concettuali ciò significa creare il flusso di queste risorse per ottenere il flusso del prodotto finito.
Situazione: per la produzione del prodotto X vengono attualmente impiegati 4 operatori; il cliente richiede un prodotto ogni 60 secondi.
www.ottostorto.com/store/
Fase 1: si definisce il tempo necessario per realizzare le operazioni elementari a valore aggiunto (in verde) e si individuano contestualmente gli sprechi attualmente presenti nelle attività (in giallo).
Progettare il flusso degli operatori La progettazione del flusso degli operatori, cioè di come gli operatori dovranno lavorare all’interno della cella, parte dall’analisi dettagliata della sequenza di operazioni che è necessario eseguire per arrivare alla produzione di un singolo prodotto: durante l’analisi del ciclo di lavoro degli operatori, il punto chiave da tenere ben presente è quello di separare le operazioni a valore aggiunto dalle attività a non valore aggiunto (sprechi). Il livello di dettaglio dell’analisi da fare è quello che permette di definire la sequenza delle operazioni elementari che devono essere eseguite: per operazione elementare si intende il più piccolo incremento di lavoro (inteso come valore aggiunto al prodotto) che può essere trasferito da un operatore all’altro, allo scopo di ottenere un bilanciamento ottimale del carico di lavoro tra i diversi addetti alla cella.
Fase 2: si considerano solo le operazioni elementari che contribuiscono alla realizzazione del prodotto (solo operazioni a valore aggiunto).
ET
52
•
di prodotto per ridurre lo spreco e ottimizzare il ciclo di lavoro. terzo caso: residuo decimale maggiore di .5. Aggiungere temporaneamente un altro operatore, ma continuare a osservare le attività all’interno della cella per provare a ridurre il contenuto di lavoro. In questo caso potrebbe essere necessario parecchio tempo per giungere alla configurazione ottimale.
Progettare il flusso delle macchine Fase 3: si distribuiscono tra i diversi operatori le sole attività a valore aggiunto andando a bilanciare nel miglior modo possibile il contenuto di lavoro.
Definita l’ipotesi di bilanciamento tra gli operatori occorre valutare se le macchine/attrezzature presenti nella cella soddisfano i seguenti requisiti: • •
le macchine sono in grado di soddisfare il Takt Time? quale livello di automazione delle macchine è ottimale per la produzione?
Nel caso in cui una macchina non sia in grado di produrre secondo il Takt Time (tempo ciclo macchina superiore al Takt Time), le opzioni che si possono perseguire sono (in ordine di preferenza):
per continuare la lettura acquista METHODO su •
In questo caso è possibile garantire il Takt Time con 3 operatori: ovviamente tutto ciò sarà possibile se, e soltanto se, la cella di lavoro sarà progettata mettendo gli operatori in grado di produrre senza sprechi.
•
Nella realtà non accadrà mai che, per produrre al Takt Time i prodotti nella cella, occorrerà un numero esatto di operatori: questo dato si calcola dividendo il tempo ciclo totale (a valore) per il Takt Time. Per valutare quanti operatori mettere nella cella di lavoro si usano, come linea guida di riferimento, i seguenti criteri:
eliminare gli sprechi dal ciclo macchina: anche i cicli macchina possono nascondere degli sprechi. Per individuarli, la domanda da porsi durante l’osservazione è: in questo momento sta succedendo qualcosa al prodotto? Migliorare il tempo ciclo a valore della macchina: in questi casi occorre coinvolgere i tecnici della macchina (ufficio tecnico, manutenzione, fornitore) per valutare se è possibile intervenire sui parametri macchina (ad esempio, per le lavorazioni meccaniche, intervenendo sulla velocità della lavorazione). Separare il ciclo della macchina distribuendolo su due o più macchine: soluzione in linea con la logica, tipica del modello lean, di prevedere macchine semplici e monofase. Duplicare la macchina, mettendo le due macchine in parallelo. Togliere questa fase di lavorazione dalla cella di prodotto: questa opzione comporta l’interruzione del flusso produttivo all’interno della cella.
www.ottostorto.com/store/
•
•
•
primo caso: il residuo decimale di operatori necessari che si ottiene con la formula (Tempo ciclo totale)/(Takt Time) è minore di 3 (ad esempio: 3,3 operatori). In questo caso non si aggiunge un operatore e si lavora ancora per ridurre lo spreco e abbassare il contenuto di lavoro. secondo caso: residuo decimale compreso tra .3 e .5. Non aggiungere l’operatore e provare a individuare altre configurazioni della cella
• •
Poiché in una cella di prodotto l’obiettivo è
53
ET
utilizzare al meglio gli operatori e produrre secondo la frequenza indicata dal Takt Time, la saturazione della macchina non è importante: in una cella di prodotto è sempre la macchina che aspetta l’uomo se ha terminato il proprio ciclo di lavoro, mai viceversa.
dei materiali nella cella di prodotto seguendo i seguenti criteri: •
La definizione del livello di automazione ottimale viene definito tenendo in considerazione i seguenti due fattori: • •
•
l’automazione deve essere tale da consentire all’operatore di non dover presidiare la macchina durante l’esecuzione del ciclo; l’automazione deve essere tale da non aumentare la complessità tecnologica della macchina con impatto sulla flessibilità e affidabilità del processo produttivo.
•
la quantità di materiale deve essere quella minima necessaria per poter garantire la continuità della produzione: materiale aggiuntivo comporta solo sovrapproduzione, maggiori movimenti degli operatori e maggiore occupazione di spazio; il materiale deve essere “tirato” dalla cella di prodotto, seguendo il principio Pull del modello lean production: definita la quantità di materiale da tenere nelle postazioni di lavoro, il ripristino del materiale deve avvenire solo successivamente a un effettivo consumo; il materiale deve essere posizionato nelle postazioni di lavoro secondo principi di ergonomia che consentano all’operatore di prelevare il materiale con il minor sforzo e la massima facilità; il materiale deve essere portato nella cella di prodotto da una figura organizzativa appositamente adibita per questa attività (in un contesto lean questa figura viene denominata “waterspider”): gli operatori della cella di prodotto non si devono approvvigionare del materiale necessario né devono intervenire nel condizionarlo per poterlo utilizzare (come ad esempio, travasarlo da un imballo a uno più comodo da posizionare nella postazione di lavoro).
per continuare la lettura acquista METHODO su
Secondo questi due criteri, il livello di automazione ottimale delle macchine presenti in una cella di prodotto è quello che prevede l’esecuzione automatica del ciclo di lavoro (automazione del valore aggiunto) e dello scarico automatico del pezzo lavorato al termine del ciclo di lavoro (livello di automazione 3). Andare oltre questo livello di automazione prevedendo, ad esempio, il carico automatico del pezzo o il trasporto automatico del pezzo alla macchina successiva, aumenta la complessità del sistema con impatti negativi sulla flessibilità e affidabilità del processo produttivo.
•
www.ottostorto.com/store/
Progettare il flusso dei materiali
In questo modo si separano completamente le attività di produzione del prodotto finito (le attività a valore aggiunto) da quelle legate all’alimentazione dei materiali, affidandole a due figure diverse (operatore e waterspider) e ottenendo i seguenti obiettivi:
Come nel caso delle macchine, le modalità di gestione dei materiali nella cella di prodotto devono favorire la produttività degli operatori e quindi essere tali da consentire agli addetti di lavorare con il minor spreco possibile. Nello specifico, ciò significa che i materiali devono essere disposti e gestiti nelle aree di lavoro in modo tale da ridurre al minimo gli spostamenti degli operatori e in modo da non comportare attese per indisponibilità dei materiali durante le lavorazioni: analogamente, i materiali devono essere sempre ben identificati in modo tale da non far perdere tempo all’operatore per ricerche o verifiche sul materiale da utilizzare.
•
lato operatore, è possibile definire il ciclo di lavoro senza includere attività acicliche, come tipicamente sono le attività di alimentazione dei materiali: in questo modo il livello di standardizzazione del ciclo di lavoro può essere incrementato ed è possibile ottenere maggiore efficienza;
•
lato waterspider, è possibile definire anche per questa figura un ciclo di lavoro, agganciando le sue attività al tasso di consumo del materiale (legato al Takt Time) e alla quantità standard di materiale presente nelle postazioni di lavoro.
Progettare il flusso dei materiali in un’attività di cell design significa definire quantità e posizione
ET
54
Per maggiori dettagli sulla gestione dei materiali sui posti di lavoro secondo le logiche del modello lean, si può fare riferimento allo strumento 5S e Visual Management già trattato nel terzo numero di METHODO.
Il cell design in 8 domande 1. Quali prodotti devono essere lavorati nella cella di prodotto? 2. Qual è il Takt Time della famiglia di prodotti selezionati? 3. Quali sono le operazioni elementari e a valore aggiunto necessarie per realizzare il prodotto? 4. Quanti operatori sono necessari nella cella di prodotto? 5. Come distribuire il lavoro tra gli operatori? 6. Le macchine soddisfano il Takt Time richiesto? 7. Qual è il livello di automazione necessario per ridurre al minimo gli sprechi degli operatori? 8. Come gestire i materiali per massimizzare l’efficienza complessiva della cella di prodotto?
per continuare la lettura acquista METHODO su www.ottostorto.com/store/ Tre suggerimenti
Tre spunti di riflessione
Per individuare le operazioni elementari e definire il tempo necessario per produrre un prodotto osserva quanto succede in reparto. Non affidarti mai ai cicli e ai tempi standard vigenti: spesso sono vecchi e comunque non rappresentano fino in fondo la realtà.
Nella tua azienda le diverse aree produttive producono secondo il Takt Time o invece puntano a saturare le macchine? Esistono operatori che presidiano la macchina attendendo che la stessa termini il suo ciclo di lavorazione?
Utilizza nella cella di prodotto macchine semplici e facilmente configurabili: in questo modo sarà più facile configurare la cella di prodotto in modi diversi per seguire le esigenze dei clienti in termini di volumi e mix produttivi richiesti.
Nei cicli di lavoro degli operatori sono previste attività di alimentazione dei materiali? Come vengono definite e quantificate queste attività?
Definisci la disposizione dei materiali e quindi il layout della cella di prodotto come se in essa dovesse lavorarci un solo operatore: in questo modo potrai definire la configurazione che consente di ridurre al minimo gli sprechi durante le attività produttive.
55
ET
qualità del servizio
Qualità del servizio: modello a tendere l’eccellenza anche attraverso il
marketing interattivo di Maria Cristina Galagno
Aristotele,
filosofo, scienziato e logico greco antico.
“Noi siamo quello che facciamo, sempre. L’eccellenza non è un atto, ma un’abitudine”.
Lo diceva Aristotele, ma il concetto è di grande attualità.
capaci di dare risposte adeguate al cliente, richiede la necessità di avere processi capaci di dare soluzioni adeguate. Qui entra in gioco uno dei principali problemi di molte aziende di servizi, oggi ancora poco abituate a ragionare per processo. Lavorare per processi implica avere meccanismi efficaci che favoriscano l’integrazione interfunzionale. Richiede lo sviluppo di una cultura che porti ciascun attore a:
In qualsiasi organizzazione l’obiettivo determinante di una gestione d’impresa efficace è quello di creare valore. In modo particolare, oggi, la qualità del servizio si rivela essere sempre più una potente leva competitiva che permette alle aziende di differenziare la propria offerta sul mercato, puntando sul “valore” per il cliente ed eliminando quella che viene definita la qualità superflua. Migliorare drasticamente la qualità del servizio è quindi oggi un imperativo.
• • •
Nel mercato attuale la chiave per raggiungere un vantaggio competitivo sostenibile è proprio quella di servire i clienti in modo eccellente piuttosto che limitarsi a vendere. Ma i dirigenti conoscono veramente le aspettative dei propri clienti? Questo, purtroppo, non sempre avviene. I manager delle aziende di servizi spesso danno per scontato il fatto di conoscere ciò che il cliente vuole e questa convinzione fa commettere loro degli errori. Il dare per scontata la conoscenza di ciò che il cliente realmente desidera è un errore grave. Questa errata convinzione implica che risorse preziose vengano investite in aspetti che per il cliente non sono rilevanti.
vedere trasversalmente i processi; avere chiaro il concetto di flusso del valore per il cliente; comprendere come ciascuna funzione possa e debba massimizzare questo valore per il cliente, a beneficio dell’azienda.
Si tratta di un cambiamento culturale sul quale c’è ancora molto lavoro da fare. In un mercato in cui la voce del cliente è in grado di farsi sentire e propagarsi in maniera velocissima (grazie ai canali online), l’integrazione interfunzionale rappresenta una delle sfide più importanti per le aziende che puntano ad acquisire una posizione di leadership e a mantenere un’elevata reputazione sul mercato. In questo scenario la Qualità Superiore del Servizio diventa così la strategia vincente, la strategia di profitto. Un servizio eccellente ripaga, perché crea clienti veri, soddisfatti, che contribuiranno ad alimentare il “passaparola”. Ciò che manca nelle nostre aziende non è tanto la volontà di “fare qualità” quanto una visione complessiva e “sistemica” perdendo opportunità straordinarie e tasselli strategici per il successo.
Eppure, comprendere le aspettative dei propri clienti non è difficile. Ogni azienda ha in casa un patrimonio enorme di conoscenze sul cliente che possono essere “fatte fruttare” in modo strategico per il proprio business. Per molte aziende la qualità del servizio rappresenta l’unica leva per accrescere la propria customer base, differenziandosi dalla concorrenza e offrendo ai propri clienti una eccellente customer experience. Sono ancora poche le organizzazioni capaci di offrire una qualità esemplare e che hanno compreso l’importanza di mettersi nei panni del cliente e di curare anche quei dettagli che possono fare la differenza.
Eppure, non vi è azienda di servizi la cui direzione generale non dichiari di porre la massima attenzione verso la qualità del servizio. Molte citano la presenza di programmi di miglioramento della qualità, tanto da considerare il tema della qualità come “superato”, rispetto ad altre priorità aziendali. Nonostante questo, la nostra personale customer experience spesso ci riporta una realtà diversa. La nostra esperienza quotidiana,
Oggi parlare di customer experience è all’ordine del giorno ma è fondamentale progettarla ad altissimi livelli. Essere affidabili, tempestivi,
57
ET
nella veste di clienti, ci indica che c’è ancora molto da fare per migliorare la qualità del servizio. Visite a punti vendita, filiali o agenzie e telefonate a call center spesso ci ricordano il gap ancora esistente tra il livello di servizio percepito e quello idoneo a soddisfare le aspettative del cliente.
Da dove nasce questo gap? Perché oggi la qualità del servizio percepita è ancora frequentemente al di sotto delle aspettative “minime” rispetto a quanto un cliente sarebbe disposto a tollerare?
per continuare la lettura acquista METHODO su
Riportiamo qui alcune considerazioni frutto sia dell’esperienza maturata in tanti progetti svolti presso aziende italiane, che da alcuni concetti illuminanti di un grande studioso ed esperto di fama internazionale della Qualità del Servizio: il prof A. Parasuraman¹.
www.ottostorto.com/store/
Il giusto mix è fornire un servizio essenziale, che risponda all’esigenza primaria del cliente ma che al contempo lo sappia anche stupire. La priorità è quella di focalizzarsi su ciò che è di valore per il cliente. A questo proposito il “Modello dei GAP”² di Parasuraman è un riferimento efficace che parte dalle modalità di progettazione del servizio fino alla sua erogazione e permette di intraprendere azioni sinergiche e coerenti che migliorino la qualità del servizio stesso. 1 Il Professor A. Parasuraman è uno dei massimi esperti di qualità del servizio. Premiato nel 2004 nel “Guru Gallery” dal Chartered Institute of Marketing (UK). È titolare della cattedra di Marketing alla Scuola di Business Administration dell’Università di Miami, USA. È considerato uno dei massimi esperti mondiali di Marketing della Qualità del Servizio. Il modello da lui sviluppato per misurare la qualità del servizio è adottato da moltissime aziende pubbliche e private. 2 Il “Modello dei GAP” di Parasuraman è prima di tutto concettuale ed è oggi utilizzato da numerose aziende eccellenti in tutto il mondo per diagnosticare e risolvere problemi inerenti il servizio. Da questo modello scaturisce il noto strumento SERVQUAL, per misurare la qualità del servizio percepita dal cliente. Il modello permette la comprensione del significato vero di un servizio di qualità superiore nella prospettiva del cliente, di applicare modelli ben collaudati e framewor, di misurare e migliorare il servizio ai clienti nella loro organizzazione, di identificare e superare le barriere organizzative interne che provocano esternamente la percezione di un servizio ai clienti di scarsa qualità, di approfondire metodi per gestire e superare le aspettative dei clienti, di comprendere i vantaggi ed evitare le insidie nell’utilizzo dei servizi technology-based, di conoscere i fattori critici coinvolti nel determinare il giusto mix tra servizi high-tech e high-touch. Il metodo del SERVQUAL di A. Parasuraman, V.Zeithaml, L.Berry è una tecnica usata per effettuare un’analisi dei gap delle performance della qualità del servizio in un’organizzazione rispetto ai bisogni.
58
ET
Sapersi organizzare intorno al cliente implica per l’azienda un preciso sforzo manageriale e una coerenza di iniziative che riguardano gli aspetti organizzativi, i sistemi di comunicazione e quelli premianti. Nel valutare un servizio i clienti giudicano non solo la sua affidabilità ma anche le sue modalità di erogazione, ovvero gli aspetti di processo.
interazione con l’azienda del cliente, o potenzialmente tale. Fa leva sul concetto, spesso disatteso nei fatti, che non vi è niente di più potente di un ottimo servizio per generare il desiderio di acquistarne ancora, o altri a essi collegati. Uno strumento di marketing straordinario, soprattutto nell’era del web, è certamente il passaparola positivo, cioè quello di un cliente che suggerisce a un altro l’utilizzo di un determinato fornitore. Le aziende misurano questo atteggiamento attraverso indicatori più o meno sofisticati. Nei fatti, tuttavia, si impegnano poco nel fare che questo passaparola venga potenziato. Il marketing interattivo parte dal presupposto che ciascun momento di interazione tra cliente e azienda – attraverso il call center, il sito, un addetto di front line o altro – sia un formidabile strumento di fidelizzazione. Rappresenta uno strumento molto potente – soprattutto ora che il cliente ha molti più canali per far sentire la sua opinione – ma più faticoso da realizzare. Gli elementi differenziali sono costituiti da una organizzazione eccellente, cura del dettaglio, coinvolgimento di tutto il personale (non solo quello di front line) verso la soddisfazione del cliente.
L’impegno coinvolge anche gli addetti al marketing che devono essere pronti, se necessario, a riconfigurare il proprio ruolo in azienda: devono “vedersi” impegnati affinché l’immagine dell’azienda comunicata all’esterno sia coerente con l’effettiva esperienza di consumo vissuta dal cliente. A far guadagnare la fiducia del cliente non sono tanto gli spot pubblicitari quanto la capacità di erogare in modo adeguato il servizio esistente.
per continuare la lettura acquista METHODO su
“Nel mondo offline, il 30% delle risorse viene impiegato per fornire una buona customer experience, mentre il 70% si dedica al marketing. Ma nel mondo online, il 70% dovrebbe essere dedicato a creare customer experience, solo il 30% per farne pubblicità...” Questa frase di Jeff Bezos, CEO e fondatore di Amazon, ci ricorda che non vi è niente di più potente, come strumento di marketing, di un eccellente qualità del servizio. Essa rappresenta una forte leva di marketing ma anche la più difficile da perseguire. Da queste parole si evidenzia uno degli errori più frequenti delle aziende di servizi: grandi investimenti in campagne pubblicitarie e investimenti molto minori in risorse necessarie a garantire una eccellente qualità del servizio.
www.ottostorto.com/store/
Ha senso attrarre centinaia di clienti, grazie a un’autorevole “campagna” di marketing, se poi l’esperienza del cliente – nel momento in cui viene a contatto con l’azienda – è assolutamente frustrante? Inutile suscitare aspettative che l’azienda non è in grado di soddisfare, aumentando la sensazione di insoddisfazione. Perché investire tante risorse per attrarre nuovi clienti se poi non si è in grado di fidelizzarli? Domande e considerazioni di buonsenso che sono spesso disattese nei fatti. Queste osservazioni evidenziano la potenza del marketing interattivo, un approccio che ha come elemento centrale ogni singola
Jeffrey Preston Bezos,
59
ET
imprenditore statunitense, fondatore e CEO di Amazon.com, compagnia di commercio elettronico.
Per far sì che un cliente realmente generi un passaparola positivo, diventa fondamentale che la qualità del servizio sia almeno pari o superiore alle sue aspettative. In questo caso si parla di qualità eccitante, cioè quella parte del servizio che supera le aspettative del cliente. In quest’ottica il personale di contatto diventa il principale “agente di marketing”. Ma attenzione, è importante non ricadere in uno degli errori più frequenti, cioè quello di “scaricare” totalmente la responsabilità della qualità del servizio sul personale di front line. Diventa necessario considerarlo come un cliente interno. Diventa prioritario tutto ciò che possa facilitare l’erogazione del servizio, grazie a una profonda comprensione delle situazioni che esso deve affrontare. Costruire procedure snelle, fornire strumenti adeguati, alleggerirlo da attività inutili o burocratiche, rappresentano l’elemento vincente che deve però partire realmente dalle esigenze del front line.
fin dalla progettazione del servizio, deve partire da una profonda comprensione delle sue esigenze. È inoltre fondamentale che sia chiara la scala d’importanza, cioè le priorità che il cliente attribuisce alle cinque dimensioni della qualità del servizio: 1. affidabilità: mantenere gli impegni presi, la capacità di prestare il servizio promesso in modo affidabile e preciso; 2. capacità di risposta: tempestività, accessibilità del servizio, volontà di aiutare i clienti e di fornire il servizio con prontezza; 3. capacità di rassicurazione: competenza e cortesia dei dipendenti e loro capacità di ispirare fiducia e sicurezza; 4. empatia: assistenza premurosa e individualizzata, che l’azienda presta ai clienti; 5. aspetti tangibili: aspetto delle strutture fisiche, delle attrezzature, del personale e degli strumenti di comunicazione.
per continuare la lettura acquista METHODO su
In quest’ottica diventa fondamentale attivare un efficace canale di ascolto, strutturato e sistematico, e un sistema integrato di monitoraggio e raccolta dati che fotografi le principali tendenze e utilizzi le informazioni per fissare standard. È così possibile cogliere e analizzare:
Questa “bussola” è importante per evitare scelte di progettazione errate o risorse allocate in modo inefficace. Infine alla base delle aziende che vogliono migliorare la propria qualità del servizio ci deve essere una forte leadership che stia a contatto con il cliente e con il personale - il cliente interno – che abbia visione e che creda nella capacità del proprio team di ottenere risultati. Chi guida questo percorso di miglioramento deve sapere che la qualità sta nei dettagli con la consapevolezza che le persone possono dare il meglio se trattate con rispetto.
www.ottostorto.com/store/
• • •
aspetti che generano insoddisfazione del cliente; segnali deboli riguardo a cambiamenti di esigenze del cliente; disservizi che si manifestano frequentemente; azioni di miglioramento, molte delle quali a costo zero.
Il primo passo è ascoltare il cliente, conoscere le sue reali necessità e aspettative, imparare a gestire al meglio la sua insoddisfazione o l’eventuale disservizio, cercando di recuperarlo e trasformandolo in opportunità vincente per trasferire l’immagine di azienda seria e credibile. Affinché il personale di front line possa realmente soddisfare le esigenze del cliente e addirittura superarle, tutta l’organizzazione,
60
ET
LCA
Diagnosi energetiche e sistemi di gestione dell’energia di Massimo Granchi e Riccardo Bozzo
Introduzione Da circa cinque anni a questa parte vi è stato un incremento di attenzione e contenuti verso le tematiche relative ad aziende ed energia. Dalla pubblicazione infatti nel 2009 della ormai già superata norma UNI CEI EN 16001 in merito ai sistemi di gestione dell’energia si sono moltiplicate sia norme che Direttive e relativi Decreti in merito a efficienza energetica, diagnosi energetiche e gestione delle risorse energetiche aziendali. Una spinta ulteriore verso l’innovazione di tali materie è ora fornita dal recente D.Lgs. 102/2014, recepimento nazionale della Direttiva Europea 2012/27/UE sull’efficienza energetica. Tale Decreto propone un esteso quadro di misure per la promozione e il miglioramento dell’efficienza energetica, fornendo una vera e propria linea di indirizzo a medio termine per la gestione politica e pratica dell’energia, coinvolgendo privati, enti pubblici, aziende e gestori di reti e servizi con l’obiettivo ultimo del risparmio energetico a livello nazionale. Questa legge nazionale si pone in un quadro normativo nazionale e internazionale molto fitto e in costante mutamento e ammodernamento, in merito allo sviluppo dei sistemi di gestione dell’energia, alla realizzazione di diagnosi energetiche e audit energetici, alla certificazione delle competenze di tecnici e figure abilitate a svolgere tali compiti. Nel corso del presente articolo vedremo i contenuti salienti e gli obblighi introdotti, per quanto riguarda le aziende italiane, dal D.Lgs. 102/2014 e le varie norme al momento esistenti in merito agli argomenti da esso trattati.
61
ET
Il D.Lgs. 102/2014
politiche legate a incentivi e strategie di acquisti, che fino a questo momento parevano lasciate alla gestione politica del momento, senza una vera pianificazione pluriennale legata al raggiungimento di un obiettivo. Parte delle novità introdotte riguarda però direttamente anche le aziende produttive, le quali vengono investite di nuovi obblighi.
per continuare la lettura acquista METHODO su
Il Decreto, pubblicato nel luglio 2014, ha un campo di applicazione e indirizzo molto ampio. Da una parte infatti mira a gestire in modo più efficiente e lungimirante reti energetiche, acquisti di beni e servizi delle pubbliche amministrazioni territoriali e incentivi ai privati nell’ottica della riqualificazione energetica e del conto energia; dall’altra impone nuovi obblighi, parte dei quali insistono su alcune tipologie di aziende produttive, in particolare riguardo all’esecuzione di diagnosi energetiche.
Il principale obbligo imposto riguarda l’effettuazione di una diagnosi energetica relativa ai propri stabilimenti ubicati sul territorio italiano, da effettuarsi entro e non oltre il 5 dicembre 2015, da ripetere e aggiornare con cadenza di quattro anni. Tale diagnosi energetica è obbligatoria per quelle che il Decreto definisce come grandi imprese, ovvero “impresa che occupa più di 250 persone, il cui fatturato annuo supera i 50 milioni di euro o il cui totale di bilancio annuo supera i 43 milioni di euro”, mentre resta volontaria per le altre imprese. La mancata diagnosi è inoltre un obbligo sanzionato dal Decreto, tramite una sanzione di tipo amministrativo di quota massima pari a 40.000 €.
www.ottostorto.com/store/
L’ampio campo di applicazione del Decreto è dovuto allo scopo finale di tale norma: l’obiettivo di risparmio energetico a cui le misure del D.Lgs. 102/2014 vogliono portare consiste nella riduzione entro l’anno 2020 in 20 milioni di tonnellate equivalenti di petrolio dei consumi di energia primaria, pari a 15,5 milioni di tonnellate equivalenti di petrolio di energia finale, conteggiati sulla base dei consumi rilevati nell’anno 2010. Per raggiungere tale obiettivo il Decreto impone e regola ambiti che in maniera trasversale toccano tantissimi attori presenti sul territorio nazionale, cercando anche di rivestire un ruolo programmatico a medio termine per alcune
Il Decreto offre poi la possibilità di adempiere a questo obbligo tramite l’adozione di un sistema di gestione dell’energia secondo la norma ISO 50001, a patto che il sistema
ET ET
62
energetici di un’azienda e quali sono gli indicatori per misurarli e monitorarli nel tempo, in modo tale da avere uno strumento vivo con il quale verificare i consumi dell’azienda e simulare interventi di miglioramento di tali consumi, valutandone così efficienza ed efficacia tramite una metodologia predefinita e fornendo alla dirigenza elementi decisionali per affrontare investimenti in tal campo. Rappresenta inoltre il documento di partenza per implementare un sistema di gestione dell’energia, al pari di un’analisi ambientale iniziale per un sistema di gestione ambientale o del documento di valutazione dei rischi per un sistema di gestione della salute e sicurezza sul lavoro.
stesso comprenda una diagnosi energetica che abbia le caratteristiche indicate nel Decreto all’Allegato II. Il Decreto poi indica la necessità, per le sole aziende maggiormente energivore, di attuare gli interventi di riduzione emersi nel corso della diagnosi energetica tramite la realizzazione di un piano di intervento a medio termine o tramite l’adozione di un sistema di gestione dell’energia secondo la norma ISO 50001. Per le altre aziende è unicamente obbligatorio monitorare nel tempo i parametri sui quali la diagnosi energetica si basa, avendo però in mano uno strumento per valutare investimenti in materia di ammodernamento del proprio sistema di consumo energetico, correlati a benefici a livello ambientale quantificati.
La diagnosi energetica è costituita da varie parti: •
• •
Altro aspetto del Decreto è quello di individuare quali tipi di professionalità dovranno in futuro, dal luglio 2016, essere utilizzate per svolgere le diagnosi energetiche. Da questa data infatti solo specifici soggetti certificati da organismi accreditati potranno effettuare le diagnosi energetiche valide ad assolvere gli obblighi del Decreto; uno di questi soggetti abilitati sarà l‘Esperto in Gestione Energia (EGE), come definito dalla norma UNI CEI 11339, che in seguito vedremo brevemente, figura sulla quale vi è particolare fermento in questo periodo.
•
un’indagine dello stato di fatto relativo ai consumi energetici aziendali di ogni natura, comprendente quantomeno un periodo temporale pari agli ultimi tre anni di attività dell’azienda; un’analisi delle caratteristiche energetiche e di efficienza di edifici, processi produttivi, impianti, sistemi di trasporto; le modalità di gestione aziendale e il tipo di controllo in atto in merito a tali aspetti; proposte di interventi di miglioramento (sia tecnici che gestionali), valutati sulla base dell’efficacia e anche in termini economici nell’intero ciclo di vita dell’intervento stesso.
I suoi obiettivi sono quindi quelli di: • • • •
La diagnosi energetica
•
La diagnosi energetica è una valutazione sistematica, documentata e periodica dell’efficienza dell’organizzazione del sistema di gestione del risparmio energetico. Questo significa, per una realtà produttiva, che è il primo passo per stabilire quali sono gli aspetti
63
definire il bilancio energetico dell’edificio; individuare gli interventi di riqualificazione tecnologica; valutare per ciascun intervento le opportunità tecniche ed economiche; migliorare le condizioni di comfort e di sicurezza; ridurre le spese di gestione. Come vedremo nel paragrafo seguente esistono già varie norme volontarie che definiscono i requisiti minimi in termini di contenuti e qualità dei dati per la realizzazione di una buona diagnosi energetica.
ET
Norme in materia di efficienza energetica e relative competenze Nel 2011 la norma UNI 16001 viene sostituita dalla UNI CEI ISO 50001 sistemi di gestione dell’energia. Questo è lo schema al momento in uso per realizzare in azienda un sistema che ha la finalità di introdurre un miglioramento continuo dell’organizzazione nella propria prestazione energetica, in termini di efficienza, uso e consumo dell’energia, a prescindere dal tipo di energia utilizzata. La norma, come le analoghe ISO 9001, ISO 14001 e BS 18001, non definisce specifici parametri di prestazione, ma chiede che vengano individuati e monitorati, con identificazione di responsabilità, metodologie e obiettivi. In merito alle diagnosi energetiche sia a livello nazionale che europeo e internazionale sono state già emanate o preparate alcune norme di carattere volontario, ma che definiscono bene che cosa è necessario fare e quale documentazione produrre, anche allo scopo di adempiere a quanto richiesto dal D.Lgs. 102/2014; vediamole brevemente.
per continuare la lettura acquista METHODO su
A livello nazionale è stato emanato nel 2011 lo standard tecnico UNI TR 11428 che funge da linea guida nazionale relativa a requisiti generali, metodologia comune e documentazione da produrre in una diagnosi energetica completa, allo scopo di renderla esaustiva, attendibile, tracciabile, utile e verificabile. È applicabile ai settori terziario, industriale, pubblica amministrazione e residenziale.
www.ottostorto.com/store/
Sempre a livello nazionale nel 2009 è stata pubblicata la norma UNI CEI 11339 che definisce la figura dell’Esperto in Gestione dell’Energia (EGE), riportando i requisiti generali e la procedura di qualificazione per delineare compiti, competenze e modalità di valutazione, ovvero la procedura di verifica delle competenze proprie di un EGE al fine di poterlo qualificare come tale.
Per quanto riguarda l’Europa è stata pubblicata la serie UNI CEI EN 16247, relativa agli energy audits. La serie è così strutturata: la norma generale UNI CEI EN 16247-1 riguarda i requisiti generali per le diagnosi energetiche. I contenuti della norma sono sostanzialmente coincidenti con quelli del documento nazionale italiano. La serie delle UNI CEI EN 16247-2, 16247-3 e 16247-4, pubblicate nell’agosto 2014, sono parti specialistiche che riguardano ambiti di applicazione della diagnosi energetica, rispettivamente edifici, processi, trasporti; è in preparazione la UNI CEI EN 16247-5 in merito alle competenze che devono avere i professionisti per lo svolgimento delle diagnosi. Sempre a livello europeo è stata pubblicata nel 2012 la UNI CEI EN 15900 in merito ai servizi di efficienza energetica. La norma individua e descrive le principali fasi del processo di fornitura del servizio e ne evidenzia i requisiti fondamentali, ad esempio
ET
64
descrivendo come il fornitore del servizio di risparmio energetico debba quantificare questo risparmio, sia esso garantito o non garantito, e come obbligazioni e responsabilità delle parti debbano essere definite a livello contrattuale. A livello nazionale questa norma europea è fortemente connessa con la norma UNI CEI 11352 sulle ESCO.
molto sentito proprio in questi periodi di scarsità di risorse materiali ed economiche, ma anche dalla molteplicità di attori e parti interessate da coinvolgere in una crescita strutturale verso obiettivi comuni. La diagnosi energetica diventa la base di qualsiasi misura di miglioramento dell’efficienza energetica, permettendo di aumentare il valore di tale misura, poiché supporta la scelta tramite evidenze oggettive.
Altre norme europee e internazionali correlate a tale tematica sono: • •
• •
per continuare la lettura acquista METHODO su
UNI CEI EN 16212 definisce un approccio generale alle metodologie di calcolo dei risparmi e dell’efficienza energetica; UNI CEI EN 16231 definisce i requisiti e le procedure per eseguire un’attività di benchmarking dell’efficienza energetica in qualsiasi settore partendo da una metodologia generale; UNI EN 15459 fornisce una procedura di valutazione economica dei sistemi energetici degli edifici; ISO 50002 fornisce uno schema in merito all’esecuzione di audit energetici; non è completamente in linea però con le analoghe viste in precedenza e con i requisiti richiesti dal D.Lgs. 102/2014.
Utilizzare le norme tecniche nello svolgimento di tali diagnosi e nell’implementazione di azioni di miglioramento dell’efficienza energetica diventa altresì fondamentale per fornire fiducia verso risultati che potrebbero essere altrimenti fraintesi o confutati, permettendo di: • garantire il risultato favorendo così la riduzione dei costi e un aumento della competitività; • presentare progetti basati su procedure condivise con allocazione dei rischi, favorendo così la finanziabilità del progetto; • essere rispondenti a requisiti legislativi e poter accedere a sistemi incentivanti.
www.ottostorto.com/store/
Conclusioni Il grande sviluppo della normativa volontaria e obbligatoria in merito alle tematiche energetiche è legato alla tipologia del tema
35
ET
supply chain management
La gestione del processo di
approvvigionamento di Gian Paolo Minghetti
È comunemente identificato come Supply Chain Management l’insieme che racchiude e integra i processi, le organizzazioni, le persone e gli strumenti legati al flusso produttivo e al movimento delle merci. Le principali aree coinvolte sono le seguenti: • • • • • •
pianificazione dei fabbisogni da e verso la rete di vendita; approvvigionamenti di materiali e servizi; pianificazione dei flussi di materiali e componenti; logistica delle merci in entrata e in uscita; flussi operativi interni; gestione e valorizzazione dei magazzini e delle merci in transito.
Il Supply Chain Management è oggi uno degli elementi del processo produttivo su cui si concentrano in modo significativo le attività di ottimizzazione operativa e di miglioramento continuo. I modelli di business dell’economia attuale hanno in buona parte ridotto il valore aggiunto prodotto dalle imprese e lo hanno trasferito nei vari processi operativi lungo la Supply Chain. Molte aziende quindi conseguono significativi vantaggi competitivi attraverso un approccio metodico e sistematico della gestione dell’intero flusso di materiali, servizi e informazioni; dalle materie prime provenienti dai fornitori, proseguendo attraverso le fabbriche e i magazzini, fino a coinvolgere i clienti finali. I principali benefici che si ottengono da una buona gestione della Supply Chain, sono la riduzione dei costi aziendali e il miglioramento della qualità del servizio al cliente. Il processo di organizzazione della Supply Chain è finalizzato fondamentalmente allo sviluppo di un organismo ad alta integrazione interna ed esterna. Ciò si realizza attraverso la razionalizzazione e l’integrazione verticale della catena logistica in ingresso (rappresentata dalle fasi di approvvigionamento e le eventuali fasi del processo produttivo interno) con la catena logistica in uscita (servizi logistici verso il mercato).
67
ET
Caratteristiche e metodi nel processo di approvvigionamento
La struttura della Supply Chain dipende dalla struttura produttiva dell’azienda e dal settore in cui essa opera. Nell’ultimo decennio il concetto di Supply Chain ha subìto molte trasformazioni in seguito a cambiamenti riguardanti ampiezza e accessibilità dei mercati, numero di players presenti ed evoluzione della domanda. Inoltre risulta evidente come l’esternalizzazione dei processi, sia diretti che indiretti, comporti una ridefinizione del rapporto tra fornitore e buyer. Infatti i processi operativi dei fornitori devono integrarsi con quelli del committente, condizionandone il funzionamento e le prestazioni. Altresì risulta necessario condividere con i fornitori informazioni interne, sia tecniche che gestionali, spesso strategiche per l’azienda.
Nel mondo industriale manifatturiero il processo di approvvigionamento o “outsourcing” ricopre oggi un ruolo strategico in grado di influenzare in modo determinante non solo l’intero processo produttivo, ma il risultato globale dell’azienda con impatto significativo sul conto economico. Attualmente, in molte realtà aziendali, oltre il 70% del valore del prodotto proviene da fornitori esterni, e questo rende estremamente importante che tutte le varie fasi del processo di outsourcing siano regolate da metodi operativi “robusti” e misurabili.
per continuare la lettura acquista METHODO su
Nel modello di Supply Chain sopra descritto, il valore aggiunto determinato dai processi di produzione tende a diminuire, mentre aumenta proporzionalmente quello legato al livello di integrazione con i fornitori e all’incidenza dell’area approvvigionamenti. Di conseguenza, la qualità dei prodotti, il servizio offerto al cliente e in qualche modo anche l’immagine dell’azienda sul mercato, dipendono in modo significativo da fattori esterni all’impresa. Il numero dei rapporti di fornitura (numero di fornitori utilizzati) tende a diminuire ma aumenta la complessità della loro gestione. Competenze e responsabilità che erano propri della struttura produttiva passano nell’area approvvigionamenti.
L’affermazione dell’importanza strategica del processo di outsourcing ha radici abbastanza recenti. Fino agli anni ’60 le catene di subfornitura erano pressoché inesistenti e le aziende erano fortemente verticalizzate; si produceva quasi tutto all’interno. L’aumento continuo della domanda, che ha caratterizzato il mondo industriale fino a circa metà degli anni ’70, ha reso necessario l’utilizzo di risorse esterne locali per far fronte alla saturazione delle linee produttive delle fabbriche. L’aspetto principale su cui focalizzare le energie era la capacità produttiva. Qualità e prezzo passavano in secondo piano. Nel decennio successivo l’offerta di subfornitura si sviluppa in modo significativo e la domanda cresce con meno intensità. Le aziende sono meno verticalizzate e si inizia a porre attenzione ai costi e alla qualità. È questo il periodo in cui si inizia a esplorare la potenzialità di mercati più lontani. Tra gli anni ’80 e ’90 l’offerta di subfornitura arriva a bilanciare la domanda. Si inizia a cercare di migliorare la propria competitività lavorando sull’efficienza dei processi produttivi, sulla qualità e sul servizio. Si afferma la concorrenza dei paesi denominati “low cost”. Successivamente parte la globalizzazione e la catena di fornitura è parte integrante del processo di design e realizzazione del prodotto. Il mercato di oggi richiede forte flessibilità, ridotti tempi di risposta e prodotti poco costosi; si cerca
www.ottostorto.com/store/
In questa sede andremo a focalizzare l’attenzione sul processo di approvvigionamento di “materiali diretti”, ovvero l’approvvigionamento dei particolari di cui è composto il prodotto finito, o che comunque sono venduti come accessori o ricambi. Si analizzeranno i criteri che guidano le attività di selezione e gestione del parco fornitori.
68
ET
quindi di lavorare con alti indici di rotazione dei magazzini, massima integrazione tra i vari processi e una continua ricerca di efficienza economica. Per mantenere e rinnovare la propria competitività, le aziende devono quindi prestare una particolare attenzione ai mutamenti delle tendenze di mercato e al miglioramento continuo delle proprie caratteristiche fondamentali: • • • • • • • •
struttura e presenza su vari mercati attenzione alle necessità del cliente finale prezzi qualità tempi di consegna servizi accessori assistenza flessibilità
Proviamo a sviluppare, di seguito, queste due fasi con un metodo operativo strutturato.
Ricerca e omologazione delle fonti di approvvigionamento Flusso delle operazioni:
per continuare la lettura acquista METHODO su
Lo sviluppo del processo di approvvigionamento e la sua rapida evoluzione sono sempre più strettamente correlati con le esigenze e l’andamento mondiale dei mercati, le dinamiche socio politiche internazionali e l’evoluzione delle tecnologie disponibili. Questo rende necessario l’impiego di strumenti evoluti, metodi adeguati ed efficienti e soprattutto di professionisti che dispongano di un ampio spettro di competenze: • • • • •
www.ottostorto.com/store/
competenze tecniche competenze linguistiche competenze economiche competenze negoziali internazionali competenze legali
La dimensione e il perimetro del processo di approvvigionamento all’interno di una realtà aziendale è strettamente correlato con lo sviluppo di un piano strategico industriale. I volumi di vendita, i target economici, lo sviluppo di nuovi prodotti, la localizzazione geografica dei siti produttivi e la scelta strategica di “make or buy”, portano a definire l’insieme dei componenti o dei prodotti che dovranno essere acquisiti da fonti esterne. Il processo di approvvigionamento può macroscopicamente essere scomposto in due fasi: • •
•
la ricerca e omologazione delle fonti di approvvigionamento (global sourcing); lo sviluppo e l’ottimizzazione del perimetro di spesa e del parco fornitori consolidato.
69
Ricerca e mappatura dei potenziali fornitori: sulla base dei requisiti tecnici, qualitativi e commerciali dei prodotti da approvvigionare, si individua un insieme di potenziali fonti di approvvigionamento, attraverso l’utilizzo di vari strumenti informativi quali banche dati, internet, traders, fiere, passaparola.
ET
•
•
Contatto preliminare: ha lo scopo di ridurre l’insieme dei potenziali fornitori precedentemente individuati a un sottoinsieme ristretto, alle sole ditte che manifestano interesse per il potenziale business. Scheda questionario: alle ditte interessate viene esteso un questionario elettronico allo scopo di classificare una raccolta preliminare delle principali informazioni: dati generali, sistema qualità, dati economici, logistica e produzione, R&D. Questo strumento serve per avere una valutazione preventiva del potenziale fornitore. È opportuno quindi che le risposte si traducano in un risultato numerico in modo da produrre un punteggio di riferimento. È importante che in questa fase del processo siano condivisi con il potenziale fornitore i documenti base che raccolgono i contenuti vincolanti per l’avvio e lo sviluppo del rapporto di fornitura: condizioni generali di acquisto, privacy, impegno di riservatezza dei dati. Parallelamente è opportuno ottenere un report sulla solidità finanziaria del potenziale fornitore attraverso agenzie specializzate. Audit preliminare e di omologazione qualità: in questa fase vengono approfonditi sul campo gli aspetti tecnici, produttivi, commerciali e logistici attraverso un protocollo standardizzato di domande e ispezioni. Anche in questo caso occorre che i risultati si traducano in un punteggio numerico di riferimento. Richiesta di offerta: ai potenziali fornitori che, a valle delle fasi precedenti, hanno raggiunto un punteggio ritenuto adeguato, viene inviata una scheda di richiesta d’offerta relativa al contenuto della potenziale fornitura. I dati di offerta possono essere raccolti utilizzando un modello standard contenete due sezioni: • una sezione a cura del committente in cui sono indicate le caratteristiche e i requisiti richiesti per i componenti o materiali in oggetto; • una sezione da completare a cura del potenziale fornitore, dove sono indicati e classificati per colonna gli elementi necessari richiesti per poter assegnare la fornitura.
•
Comparazione delle offerte: per una valutazione omogenea e affidabile dei dati raccolti occorre utilizzare uno strumento che sia in grado di comparare numericamente le varie proposte commerciali in modo oggettivo, trasparente e a costo totale. Principali elementi di valutazione: • parte economica (prezzi unitari, costo attrezzature, termini di pagamento, capacità produttiva, logistica, termini e condizioni di consegna); • parte qualità (punteggio dell’audit preliminare); • valutazione generale dei rischi (rating finanziari specifici e punteggio del questionario informativo).
per continuare la lettura acquista METHODO su
•
Si restringe a questo punto il campo a due, tre concorrenti e si procede con la fase di negoziazione finale. A valle di questa, si definisce l’assegnazione potenziale del business e si pongono le basi per la stesura di un accordo di fornitura. •
Audit di processo: audit a cura dell’ente qualità fornitori dove viene analizzata in dettaglio la struttura e l’affidabilità dei processi produttivi e gestionali del potenziale fornitore. Viene condiviso tra le parti un eventuale piano di crescita e miglioramento. Piano di campionature ed eventuale preserie: se, a valle dell’audit di processo, il potenziale fornitore viene ritenuto idoneo, si avvia un piano di campionature che certificherà l’effettiva conformità alle specifiche dei prodotti forniti. Si finalizza l’accordo commerciale di fornitura e si definisce il piano di avvio produzione. Avviamento della produzione: fase finale del processo. Il fornitore viene inserito nella lista dei fornitori omologati per una determinata tipologia di materiale o categoria ed entra nel flusso operativo del ciclo di produzione. Le prestazioni del processo di approvvigionamento sono monitorate sia a livello globale che per singolo fornitore attraverso la rilevazione a consuntivo dei parametri significativi che caratterizzano la qualità e l’efficienza del processo (KPI). L’analisi dei KPI di processo e la sua relativa congruenza con ai piani strategici industriali sono il punto di partenza per la stesura dei successivi programmi di miglioramento continuo.
www.ottostorto.com/store/
•
•
•
Un documento così strutturato è facilmente integrabile in uno strumento elettronico di comparazione ed elaborazione delle offerte.
70
ET
Sviluppo e ottimizzazione del perimetro di spesa e del parco fornitori consolidato •
Categorie e fornitori: definizione e classificazione di categorie merceologiche omogenee e di tutti i parametri che le contraddistinguono (sottocategorie, valore, fornitori). Si definiscono delle classi di valore.
•
i relativi pesi in termini di valore. Si assegna un punteggio globale di criticità di fornitura della categoria. È possibile rappresentare i dati finali in una grafico avente sulle ordinate il punteggio ottenuto e sulle ascisse la classe di valore. Piano di miglioramento: si definisce un valore obiettivo del livello di criticità e si interviene in prima battuta sulle categorie che lo superano. La priorità di intervento può essere definita partendo dalle categorie di maggiore importanza in termini di valore. Si individuano i parametri e i relativi fornitori su cui lavorare e si pianifica un piano di azione. Le attività principali sono le seguenti:
per continuare la lettura acquista METHODO su • • •
di tipo contrattuale (commerciale e logistico); di tipo tecnico (qualità e processo); riallocazione componenti: • scelta dei codici o famiglie da riallocare; • scelta dei potenziali nuovi fornitori: • da parco fornitori omologato, dove il criterio di scelta è l’adeguatezza consolidata; • da global sourcing, dove il criterio di scelta è l’adeguatezza potenziale.
www.ottostorto.com/store/ •
Parametri di valutazione: identificazione dei parametri che possano esprimere una valutazione di rischio e criticità di fornitura, ad esempio: • • • • • • • • •
•
•
lead time puntualità delle consegne qualità prezzi n° di fornitori verticalizzazione del processo produttivo peso in quota parte sul fatturato totale dei fornitori distanza proattività
Implementazione delle attività: si definisce un programma delle attività pianificate con obiettivi, scadenze e responsabilità definite. Lo sviluppo di questo programma deve essere monitorato regolarmente almeno con cadenza bisettimanale.
L’insieme di queste attività forma un ciclo di miglioramento continuo, un progetto strategico da ripetere periodicamente (in genere con cadenza annuale in corrispondenza con la stesura del budget). È quindi assolutamente importante che il progetto si concluda nei tempi previsti e che i risultati ottenuti siano strutturali e misurabili. Il punto di arrivo del progetto precedente, il mix dei volumi di vendita, le esigenze produttive e commerciali sono il punto di partenza per un nuovo ciclo di miglioramento.
Analisi del rischio di fornitura: vengono attribuiti dei valori e dei pesi a ogni elemento considerato e rilevati i relativi punteggi totali per ogni fornitore della categoria. Il punteggio finale della categoria deriva dalla media ponderata di tutte le rilevazioni dei fornitori per
71
ET
per continuare la lettura acquista METHODO su
L’attività di global sourcing invece è un processo in evoluzione continua. Ha infatti l’importante scopo di mappare costantemente territori e mercati, in modo da individuare le migliori aree di opportunità sia in termini tecnici che in termini geografici.
bilanciamento ottimale tra efficacia, tempestività e qualità dei risultati. Il loro ruolo è quello di garantire la tracciabilità dei processi e supportare in modo pragmatico il processo decisionale, anche attraverso la misurazione continua dei parametri di riferimento (KPI). Le attività manuali di aggiornamento o inserimento dati devono essere minimizzate.
Un’ultima nota legata all’aspetto operativo. Considerando l’importante mole di dati da elaborare e la necessità di ottenere risultati di sintesi affidabili, è opportuno che queste attività siano supportate da validi ed efficaci strumenti informatici di calcolo, archivio ed elaborazione dati. La condizione ottimale è quella che permette di gestire ed elaborare i dati necessari attraverso applicazioni integrate nel software gestionale, meglio se interattivo attraverso un portale fornitori. Oggi l’utilizzo più comune è quello di fogli elettronici e di software specifici, che elaborano le informazioni archiviate nei database dei software gestionali. La scelta e il dimensionamento degli strumenti operativi di supporto sono di fondamentale importanza al fine di ottenere il
www.ottostorto.com/store/
72
ET
Il programma 6 sigma
World Class Quality di Loretta Degan
Il contesto Il forte aumento della competitività, rinnovato e acuito dalla recente crisi economica, da cui l’Italia stenta a uscire, sta creando uno spartiacque: •
da un lato le aziende, che non hanno saputo innovare il proprio modello di business e introdurre logiche manageriali e approcci culturali idonei a perseguire miglioramenti drastici delle prestazioni;
•
dall’altro quelle che hanno accettato la competizione internazionale, puntando sulle qualità dei prodotti e dei servizi, impegnate a cercare approcci, metodi e strumenti sempre più concreti ed efficaci per migliorare i risultati economico/ finanziari e i livelli di qualità del proprio business.
“Per le aziende italiane di successo, che appartengono al secondo gruppo, le logiche e i metodi 6 sigma costituiscono, ora, i veicoli per produrre un radicale miglioramento delle performance qualitative.” ET
73
Passare da livelli di qualità interni ed esterni, di punti percentuali a punti per mille, per diecimila, per centomila, per milione richiede un cambiamento a livello di: • • •
paradigma culturale logiche di approccio e gestionali metodologie e tecniche
realizzabile applicando il programma 6 sigma.
Programma 6 sigma - Introduzione In questa direzione strategica nel corso degli anni ’80 e ’90, ben 30 anni fa, alcune aziende leader mondiali hanno progettato e implementato un nuovo approccio denominato 6 sigma che aveva (e ha tuttora) come concetto base una “catena delle cause” che si può descrivere così: • • • • •
i risultati aziendali sono direttamente collegati alla crescita dell’attività; la crescita è in gran parte determinata dalla soddisfazione dei clienti per i prodotti/servizi acquistati; la soddisfazione dei clienti dipende essenzialmente da qualità, prezzo e disponibilità (consegne); la qualità, il prezzo e le consegne sono funzione diretta delle capacità dei processi aziendali a controllare difetti (o errori), costi e tempi di ciclo; la capacità dei processi è fortemente limitata dalla variabilità.
È la variabilità il vero nemico della qualità dei processi. Non a caso il programma prende il nome dall’indice statistico σ, che sintetizza il grado di dispersione delle caratteristiche che esprimono le prestazioni qualitative dei processi (Critical To Quality - CTQ). Se quindi si vogliono ottenere
riduzioni di costi, aumenti di qualità, riduzione dei tempi di attraversamento, occorre combattere la variabilità dei processi chiave dell’azienda 74
ET
Questa sfida richiede conoscenze diffuse, applicate in modo sistematico, di metodologie e strumenti specifici, propri dell’approccio 6 sigma, di tipo statistico e di tipo organizzativo.
Il programma si dimostra estremamente valido ed efficace anche nelle aziende italiane e in generale in aziende di piccole/ medie dimensioni.
Tali conoscenze, livello di diffusione e applicazione, sono molto diversi da quelli utilizzati ancora oggi dalle aziende.
Significato di 6 sigma
L’approccio 6 sigma integra, recepisce e supporta la filosofia Lean, volta a semplificare e velocizzare i processi aziendali.
Il termine “sigma” è usato per indicare la dispersione attorno al valore medio di una caratteristica critica per la Qualità di un processo. Per un processo di business o produttivo, la sigma capability o sigma level (numero di volte in cui il sigma è contenuto nella semitolleranza) è una metrica che indica la capacità del processo a “lavorare” senza difetti.
I risultati conseguiti dalle aziende che lo hanno applicato Applicato già da molti anni, numerose aziende internazionali hanno sposato questo programma ottenendo risultati economici e di performance molto importanti. General Electric, Motorola, Whirlpool, ABB, Nokia, Sony, Samsung, Siemens, Catarpillar sono solo alcune delle società che hanno implementato con successo il programma 6 sigma. Introdotto in Italia da Allied Signal, GE, IBM, alla fine degli anni ’80, ha ormai raggiunto una notevole diffusione in tutti i settori industriali e recentemente nei settori dei servizi (finanziari, assicurativi, municipalizzate, telefonico, sanitario) fino a coinvolgere aziende di medie e piccole dimensioni.
Un processo avente un sigma level di 6, indica una performance con 3,4 unità difettose ogni milione, assumendo che il valor medio durante la lavorazione possa shiftare di 1,5 sigma.
Risultati ottenibili dall’applicazione dell’approccio 6 sigma:
Caratteristiche del programma
•
La caratteristica principale dell’approccio 6 sigma è la concretezza delle attività di miglioramento che porta l’organizzazione a lavorare in tempi brevi su progetti specifici e concreti che danno risultati a breve termine, come dimostrato da tutte le aziende che lo hanno utilizzato.
a livello aziendale • • •
•
Tale approccio si integra molto bene con tutte le iniziative di miglioramento già in atto. Inoltre, ha validità generale, cioè è applicabile sia su processi di tipo fisico (produzione, logistica, sviluppo nuovi prodotti) che di tipo transazionale (processi gestione dell’ordine e amministrativi, etc.).
riduzione dei costi aziendali: 10 – 15% del fatturato riduzione costo del prodotto: 10 – 25% aumento produttività: 10 – 30%
a livello di singola area aziendale • • •
riduzione lead time: riduzione difettosità: riduzione circolante:
30 – 50% 30 – 70% 30 – 50%
Di seguito riportiamo una sintesi di risultati di due casi aziendali (industria e servizi).
75
ET
INDUSTRIA
per continuare la lettura acquista METHODO su SERVIZI
www.ottostorto.com/store/
76
ET
I metodi 6 sigma Uno dei punti di forza del 6 sigma è la metodologia adottata che, al rigore del processo logico con cui affrontare un progetto, unisce un’ampia opzione di tools da utilizzare. Per affrontare in modo efficace i diversi temi, oggetto di miglioramento, presenti in azienda, il 6 sigma distingue due tipologie di progetti: •
area prodotto: riguardano quest’area tutti i progetti relativi alle prestazioni del prodotto;
•
area transaction: sono di competenza di questa area tutti i progetti che non hanno direttamente a che vedere con le prestazioni del prodotto (es: logistica, vendite, finanza, personale, ect.).
Tipicamente un progetto 6 sigma deve prevedere dei benefici economici: • •
Le due tipologie di progetti utilizzeranno un mix di strumenti diversi: la prima area utilizza strumenti statistici anche sofisticati, la seconda invece utilizza strumenti statistici semplici ma applicati secondo una sequenza logica molto rigorosa.
minimi dell’ordine di 25-40 mila Euro; medi di 70-100.000 Euro.
In aziende di medie dimensioni è tipico individuare problemi che valgono centinaia di migliaia di Euro.
per continuare la lettura acquista METHODO su
A tal fine si utilizza una procedura standardizzata di valutazione dei benefici applicabile in tutti i processi.
Inoltre vengono differenziate due metodologie di approccio ai problemi: •
La seconda fase, denominata Measure, è relativa alla raccolta dati, effettuata prevalentemente su processi interni, al fine di valutare la baseline del processo, oggetto di miglioramento, in termini di prestazioni e costi della non qualità, e di generare indizi utili a localizzare il problema. La valutazione delle prestazioni utilizza una particolare metrica (sigma level o capability index), che fornisce un metodo di misura innovativo, unico per tutti i processi aziendali. L’analisi del processo e delle cause, la fase Analyze, utilizza prevalentemente strumenti statistici di studio delle cause e di analisi del valore. L’identificazione della causa radice richiede la validazione sperimentale. L’individuazione, la relativa fattibilità e implementazione delle soluzioni, fortemente collegate agli elementi critici emersi durante l’analisi, costituiscono le attività della fase successiva, la fase Improve. Quest’ultima si caratterizza per l’utilizzo, oltre che di tecniche statistiche avanzate, di tecniche di creatività, atte a produrre un numero elevato di soluzioni
DMAIC: consiste nella metodologia di miglioramento dei processi esistenti centrata prevalentemente sulla qualità negativa, che ottimizza senza cambiare radicalmente il sistema;
www.ottostorto.com/store/
•
DFSS: è l’approccio di breakthrough, volto alla progettazione e riprogettazione di processi/prodotti che supereranno le aspettative del cliente (qualità positiva).
La metodologia DMAIC La metodologia DMAIC è articolata in più fasi. La prima, denominata Define, è caratterizzata dalla definizione dell’ambito del problema, con successiva definizione dei parametri di qualità e obiettivi del progetto, delineandone chiaramente i confini. Inoltre la definizione e il lancio dei progetti prevedono la valutazione dei benefici economici derivanti dal conseguimento degli obiettivi di miglioramento.
ET
77
alternative all’interno del quale ricercare quella che coniuga efficacia ed economia. Il miglioramento del processo esistente si completa sviluppandone, implementandone, monitorandone e standardizzandone uno nuovo. La fase di Control, è caratterizzata da azioni di supporto al mantenimento del processo e dall’addestramento degli operativi relativamente ai nuovi standard individuati. Le tecniche utilizzate sono le tecniche tipiche del SPC, rese più efficaci dall’applicazione di criteri di interpretazione dei segnali deboli di cambiamento dei processi e dal potenziamento dei criteri di regolazioni, in aggiunta a sistemi di gestione a vista. Le fasi descritte e le relative attività si possono sinteticamente riassumere nella seguente tabella:
per continuare la lettura acquista METHODO su www.ottostorto.com/store/
78
ET
in termini di flessibilità/reattività, etc.).
L’approccio integrato lean sigma
Avere processi con alto valore di Sigma significa controllare la variabilità, insita in tutte le attività operative, così da garantire:
Oggi le aziende di successo, nei settori più competitivi dell’industria e dei servizi, applicano gli approcci organizzativi che sono alla base del successo di due “giganti” del mondo del business, quali General Electric e Toyota. Tali approcci sono rappresentati dalla Lean Organization e dal Six Sigma.
• •
Essere Lean significa: •
• •
•
individuare, in tutte le aree aziendali, le attività che realmente producono valore per il cliente e che spesso rappresentano solo il 10-15% delle attività operative; abbattere i paradigmi legati ai vecchi concetti di produttività, per creare un flusso continuo di valore, eliminando gli sprechi di risorse; migliorare in maniera incredibile, con una serie di interventi mirati che durano solo pochi giorni, i driver del valore aziendale (tempi di consegna, costi associati alle inefficienze, opportunità di business colte
performance affidabili, in linea, o superiori alle aspettative del cliente; chiara identificazione delle caratteristiche critiche dei processi aziendali (CTQ – Critical to Quality) per la soddisfazione del cliente; monitoraggio continuo della capacità del processo e degli scostamenti da prestazioni ottimali, con possibilità di intervenire con iniziative di miglioramento continuo e rapido.
In sintesi, le aziende capaci di lavorare con approccio Lean Six Sigma hanno un chiaro vantaggio competitivo in termini di qualità e velocità dei processi di business.
per continuare la lettura acquista METHODO su
La roadmap rappresentata nella tabella successiva evidenzia come, all’interno del flusso DMAIC è possibile integrare strumenti lean e 6 sigma:
www.ottostorto.com/store/
ET
79
•
La metodologia Design For Six Sigma (DFSS) È la metodologia proposta dal programma 6 sigma, per sviluppare e qualificare prodotti e processi (interni e dei fornitori) aventi un livello di qualità 6 sigma. Il DFSS propone l’utilizzo di un pacchetto di tecniche capaci di progettare e certificare il livello di capability del processo. L’obiettivo è di ammettere, al massimo, 3,4 parti per milione di non conformità.
• •
•
Gli elementi principali della metodologia consistono in:
•
Comprensione del cliente • •
progettare le tolleranze operative, nello sforzo di massimizzarne l’ampiezza, nel rispetto dei requisiti prestazionali, al fine di ridurre scarti non necessari e quindi minimizzare il costo dei componenti; definire configurazioni progettuali robuste, che minimizzino l’influenza dei noise produttivi e applicativi; valutare realisticamente la fattibilità del progetto attraverso la raccolta anticipata dei sigma reali sui parametri e caratteristiche di prodotto; calcolare la precisione delle attrezzature e strumenti di misura; progettare le prove di sviluppo e messa a punto secondo la metodologia DOE; prove di affidabilità e programma di crescita dell’affidabilità.
per continuare la lettura acquista METHODO su •
focalizzare le esigenze del cliente, avvalendosi di Customer Survey, QFD, Value Analysis (etc.); definire attentamente gli obiettivi di prodotto/ servizio attraverso la traduzione delle esigenze del cliente (QFD), una raccolta strutturata dei dati interni relativi ai prodotti esistenti di riferimento, sorvegliando i competitors (Benchmarking).
Process validation •
•
utilizzo di tecniche statistiche per validare la capability dei processi rispetto alle caratteristiche qualitative finali e intermedie del prodotto; progettazione delle tolleranze operative in termini di design space; evidenziare la robustezza delle scelte circa le tolleranze operative attraverso la realizzazione di modelli che esprimono il contributo dei parametri operativi sulle caratteristiche.
www.ottostorto.com/store/
Conoscenza sistemica • •
esplicitare e sviluppare la conoscenza sistemica del prodotto/servizio (QFD e Albero delle CTQ); utilizzare simulazione Montecarlo per valutare la robustezza (sensibilità del processo) rispetto a un ampio spettro di fonti di variazione.
Qualità preventiva e piano di controllo • •
Innovazione di prodotto • •
I ruoli tipici
sviluppare alternative a livello di sottosistema (Set Based Concurrent Engineering); massimizzare il contenuto informativo (tecniche di creatività e di innovazione: es. TRIZ).
Per sviluppare il programma 6 sigma aziendale, esteso in tutte le aree di successo, è necessario definire un certo numero di ruoli che sostenga tale iniziativa.
Validazione del progetto e Progettazione per la Capability e producibilità dei processi (DFMA) •
prevenire i problemi (Risk Assessment e FMEA); sviluppare un piano qualità “6 sigma” sia per i fornitori che per la produzione interna.
Le figure tipiche sono: • • •
utilizzare tecniche statistiche in grado di validare anticipatamente la qualità “6 sigma” dei prodotti e processi in sviluppo;
80
Sponsor Champion Master Black Belt /Deployment manager (in aziende medie/grandi con programma
ET
• • •
6 sigma in fase di crescita avanzata e/o maturità) Black Belt Green belt Yellow belt (tutto il personale, potenziali membri del team di progetto 6 sigma)
Di seguito viene presentata una sintetica descrizione di ogni ruolo:
per continuare la lettura acquista METHODO su I diversi ruoli sono caratterizzati da specifiche competenze, secondo i profili descritti nella tabella sottostante. MASTER BLACK BELT
YELLOW BELT
GREEN BELT
BLACK BELT
0
1
3
Process improvement
1
2
3
3
Business Excellence, policy deployment
0
0
2
3
Competenza Presentation
www.ottostorto.com/store/
Process management
Orientamento al business
1 1
2
3
1
2
3 3 3
Pensiero creativo
0
1
2
3
Gestione dei team di progetto
0
1
3
2
Project management
0
1
3
3
Change management
0
1
3
3
Training
0
0
2
3
Problem solving
1
2
3
2
Leadership Lean
Statistica avanzata Software statistici
Metodi 6 sigma DMAIC Metodi 6 sigma DFSS Innovation tools
0 1 0 0 1 0 0
1
2
1
2
0
2
1
3
2
3
0
1
0
1
ET
81
3 2 3 3 3 3 3
Dove: 0 = non richiesto 1 = competenza base 2 = competenza avanzata 3 = best practice
gli autori di
METHODO
GIUSEPPE ALITO Dopo la laurea in Disegno Industriale e un Master in Design Management, nel 1998 entra in Baleri Italia, azienda di prodotti di arredamento alta gamma, come Direttore tecnico del centro ricerche e dello sviluppo prodotti. Un anno dopo è in Ferrari come “design techniter” dove si occupa dello sviluppo delle postazioni di rilevamento telemetrico (muretto) utilizzate poi per i campionati del mondo F1 dal 2002 al 2004. Nel 2001 entra in Grand Soleil, azienda di prodotti di arredamento per esterni e di giocattoli mass market come engineering manager e con la responsabilità dello sviluppo prodotti per diventarne, due anni dopo, Responsabile R&S. All’attività professionale affianca la docenza di Design Management ai Master di Car Design e Industrial Design della Scuola Politecnica di Design SPD di Milano. Nel 2005 entra in Gio’Style Lifestyle come Responsabile Ricerca & Sviluppo. NICOLA LIPPI Ingegnere, consulente di direzione, dopo diversi anni trascorsi in aziende multinazionali di primaria importanza nelle aree di Ricerca e Sviluppo, collabora con importanti società di consulenza italiana, occupandosi con passione e professionalità dei temi dello Sviluppo di Nuovi prodotti. Nell’ambito della professione ha contribuito con numerosi interventi in azienda a organizzare e migliorare la capacità di sviluppare prodotti, aumentandone i contenuti in termini di innovazione, di rapporto tra costi e prestazioni nel rigido rispetto dei tempi. Metodo, visione sistemica, spirito imprenditoriale e capacità di sintesi sono i suoi principali fattori distintivi. Esprime con ironia e leggerezza il suo libero pensiero sui temi dello sviluppo prodotto nel blog personale www.sviluppoprodotto.com
MASSIMO GRANCHI Massimo Granchi ha conseguito la laurea in Ingegneria presso il Politecnico di Milano nel 1993 e nel 2003 il titolo di Master in Business Administration presso la SDA Bocconi di Milano (Chartered Master in Direzione Aziendale ex lege 4/2013). Dopo una brillante esperienza presso una multinazionale nel settore metalmeccanico nell’anno 2000 ha fondato la società mtm consulting s.r.l. che offre servizi di consulenza organizzati su quattro linee di prodotto che coprono tutti gli aspetti di sicurezza e ambiente: dai servizi per la marcatura CE agli studi del ciclo di vita (LCA). Nell’anno 2013 ha ideata, creato e avviato GreenNess, divisione di mtm consulting s.r.l., che propone servizi per lo sviluppo sostenibile non più solamente al settore industriale/metalmeccanico, ma anche al settore del commercio attraverso lo sviluppo di una piattaforma proprietaria che, utilizzando le tecnologie di ultima generazione, consente a ogni tipologia di impresa commerciale di offrire ai propri clienti non più solo prodotti, servizi o sconti, ma una vera e propria esperienza di acquisto sostenibile come leva di fidelizzazione.
82
ET
ALBERTO VIOLA Management consultant & lean specialist. Direttore della Divisione Industria, ha maturato in questi ultimi 15 anni numerose esperienze in Italia e all’estero in aziende industriali di diversi settori e dimensioni. Esperto di “lean organization” e di miglioramento continuo (kaizen) ha utilizzato in queste aziende le tecniche, gli strumenti e gli approcci specifici del Lean Production System. Relatore di numerosi seminari aziendali e interaziendali sulla “lean organization” nel 2005 e 2006 è stato docente del MIP Politecnico di Milano su queste tematiche. Nel 2012 ha pubblicato il libro “A Gemba! Guida operativa per la produzione snella”. È stato partner della Galgano & Associati Consulting srl, società di consulenza italiana fino a dicembre 2014.
ALBERTO FISCHETTI Laureato in Ingegneria, nel corso di una carriera di oltre trent’anni in grandi industrie multinazionali dei settori della metalmeccanica, ingegneria, cosmesi e farmaceutica, ha maturato significative esperienze manageriali fino a far parte dell’alta direzione aziendale. Fra le varie responsabilità ricoperte è stato Project Manager in importanti progetti a livello di affiliata italiana e di gruppo europeo. Dal 2005 collabora nei settori della formazione, consulenza e coaching professionale con la Change Project. E’ autore di libri su project management, creatività e problem solving, coaching e gestione delle risorse umane.
MARIACRISTINA GALGANO Mariacristina Galgano è amministratore delegato e responsabile della Business Unit Servizi del Gruppo Galgano - una delle più affermate realtà italiane di consulenza di direzione al servizio dell’economia nazionale, con forte orientamento ai risultati - nonché della Scuola di Formazione.Profonda conoscitrice del Toyota Production System, ha sviluppato numerosi progetti Lean Six Sigma presso aziende di servizi italiane finalizzati a migliorare qualità ed efficienza. È anche autrice di numerosi libri. La sua ultima pubblicazione è “Il Movimento della Qualità in Italia. Racconti di aziende pioniere” e ha recentemente curato la traduzione italiana del libro “A3 Thinking, il segreto dell’approccio manageriale Toyota” di Durward K. Sobek II e Art Smalley, entrambi i volumi editi da Guerini e Associati.
83
ET
ISTANT ARCHITECT
Instruction: 1. Cut out pieces 2. Attach Tab A to B 3. Wa-Lah!