Methodo #9 settembre ottobre

Page 1

METHODO9 Anno 2 Numero 9 settembre-ottobre 2015 Prezzo di copertina 4.99 â‚Ź

OTTOLOBI


Shiro Kuramata,

è stato uno dei designer più importanti del Giappone del 20° secolo. Conosciuto per l’uso di materiali industriali per la creazione d’architetture d’interni e mobili. Pyramid Furniture, 1968


/2015

settembre-ottobre

4

design industriale

15

metodi di produzione

22

valutazione del ciclo di vita

C’è un nemico più subdolo ma reale all’orizzonte, e non è la robotica, si chiama genetica.

L’obsolescenza programmata e la funzione della forma

Quality f irst!

Riqualif icazione energetiche e i protocolli di certif icazione ambientale

30 DOSSIER

Inventori e invenzioni: il quadro generale

38

architettura sostenibile

47

project management

Che ne sarà di Expo? Rif lessioni in pillole sul futuro dell’area milanese

La gestione dei progetti nell’aerea information technology

58 i nostri autori Proprietà OTTOLOBI studio creativo Via A.Caretta, 3 20131 - Milano www.ottolobi.it P.IVA 03559000983 N.REA: MI-2021527

1

ET

Pubblicità redazione@ottolobi.it


editoriale

ROBOT O NEANDERTHAL? In questi ultimi mesi ho notato un crescente interesse nei confronti della robotica e dei suoi impieghi produttivi che aumenterebbero a discapito dell’uomo, così da diminuire drasticamente le sue opportunità lavorative. Certamente questo rischio è reale anche perché una prima grande ondata di robot l’abbiamo già subita, molti di questi sono arrivati sotto mentite spoglie, li chiamiamo “software” ma sono robot a tutti gli effetti. Quanti lavori sono già scomparsi? Tanti, la contabilità è stata quasi completamente automatizzata, il diffondersi della fatturazione digitale darà presto un altro duro colpo, i dati saranno inseriti una sola volta alla fonte, la registrazione diventerà forse un flag. Nutro il forte sospetto che la frenesia dei nostri tempi sia in parte dovuta alla necessità di inseguire questo mondo così informatizzato. Si ha l’impressione di essere perennemente in affanno, a fronte dei nostri lunghi, umani, processi decisionali e comportamentali temiamo di non riuscire a tenere il passo della tecnologia. Non voglio però pensare che sia questo il vero pericolo per l’umanità, almeno per quella che conosciamo oggi, in fondo sono maturati nuovi bisogni, nuovi lavori, molti di questi proprio nella stessa informatica che ha fagocitato i Fantozzi. Sono passati molti anni da quando Isaac Asimov coniò le 3 leggi della robotica, queste leggi rappresentano un pilastro fondamentale per le future generazioni di robot ma non solo, qualunque creazione dell’uomo, come i prodotti di una azienda, non possono trascendere dal rispettarle, se si immagina di poter inserirle ad esempio in un qualunque futuribile complesso software di intelligenza artificiale, forse il genere umano potrà in qualche modo dormire sonni tranquilli, i robot non ci recheranno mai alcun danno, ma cosa scrisse Asimov? 1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

ET

2


A cui si aggiunse in seguito 4. 0. Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno. Geniale no? Possiamo quindi rimanere tranquilli? Non ne sono sicuro. Forse i robot non assimileranno le famose 3 leggi, questo probabilmente sarà dovuto alla mancanza di volontà da parte nostra, dagli interessi e non so da cosa altro, o forse non ce ne sarà bisogno. C’è un nemico più subdolo ma reale all’orizzonte, e non è la robotica, si chiama genetica. Alcune interessanti letture mi hanno aperto gli occhi su quanto sia effettivamente più matura, più a buon mercato ma anche più inquietante la biotecnologia. Perché creare una macchina come il robot che, per quanto complessa, segue le logiche (con tutto il rispetto) dei disegni di Leonardo quando possiamo utilizzare gli stessi mattoni originali di madre natura per migliorare la stessa nostra specie? Solo l’etica umana può arginare ciò che è probabilmente già possibile. Dobbiamo ammettere che la manipolazione genetica per creare o selezionare migliori intelligenze o comunque superuomini è già possibile, forse già in corso, in fondo lo facciamo da secoli con gli animali. Esistono addirittura progetti che puntano alla mappatura del genoma dell’uomo di Neanderthal per poi poterlo riportare in vita, un modo forse per farsi perdonare (noi Sapiens) per averne causato l’estinzione. E se poi ci verrà voglia di utilizzare la sua incredibile forza al nostro servizio? Chi potrà inserire nel suo cervello le 3 leggi della robotica? Buona lettura,

Nicola Lippi

3

ET


design industriale

L’OBSOLESCENZA PROGRAMMATA E LA FUNZIONE DELLA FORMA di Giuseppe Alito

Un chiodo, le stringhe delle scarpe che indossate, la chiave che usate per aprire la porta di casa, i tasti del vostro telecomando, un divano di Cassina o uno di Poltrona Frau, una lampada di Artemide, una borsa di Hermes o di Balenciaga, un telefono Vertu, un’auto Bentley, etc, etc. Oltre a essere tutti, proprio tutti, prodotti di design (quindi frutto di progetto) sono anche artefatti, oggetti che esistono solo perché pensati, progettati e prodotti. Questo porta a due conclusioni. La prima, più banale, è che il termine “prodotto di design” per definire solo una certa categoria di oggetti (categoria sempre più spesso economica) è errato. La seconda, e più inerente al tema, è che tutto ciò che è artefatto e arriva sul mercato è frutto di un progetto. Facciamo un passo indietro. Nel breve corso di questa rubrica abbiamo affrontato temi diversi tra loro, ma che tendono tutti a un obiettivo comune, svelare inequivocabilmente la giusta via strategica da seguire. In prima analisi abbiamo cercato di capire chi siamo, che cosa sappiamo e possiamo fare meglio. Dopo abbiamo cominciato a definire il macro “territorio” all’interno del quale (rispetto alle nostre caratteristiche) operare e successivamente abbiamo, anche se molto superficialmente, iniziato a stu-

ET

4


diare il “terreno”. Abbiamo parlato delle “deviazioni” del mercato, perché per sapere cosa fare è utile conoscere anche cosa non fare. Deviazioni che come abbiamo avuto modo di vedere spesso sono veri e propri azzardi, ma che tuttavia esercitano un grande fascino soprattutto nelle fasce più basse dei mercati. In questa occasione parleremo della più subdola delle deviazioni: l’obsolescenza programmata. In linea generale essa rappresenta il fallimento della mission del libero mercato dove, in apparenza, non ci sono limiti per chi sa coglierne le opportunità. Come tutte le deviazioni fin qui analizzate anche l’obsolescenza programmata è relativamente giovane, essa completa un quadro tutt’altro che invidiabile. Rappresenta, forse più efficacemente di altre, il pessimo stato di salute in cui versano i mercati mondiali.

5

Poltrona Frau,

azienda italiana che opera nel settore dell’arredamento dal 1912.

ET


Angus Stewart Deaton,

economista scozzese. Premio Nobel per l’economia nel 2015.

Per acquistare METHODO scrivi a: redazione@ottolobi.it


In origine si pensava che all’espansione dei consumi non ci sarebbe stato limite alcuno, soprattutto di tipo geografico, immaginando un passaggio soft tra la fase dei consumi interni dei singoli paesi sviluppati e quella del resto del mondo. Evidentemente qualcosa è andato storto. Da un lato le imprese si sono strutturate (e spesso sovra-strutturate) per servire i mercati interni accelerando il processo di saturazione, dall’altro nessuno si è preoccupato di creare le condizioni economiche necessarie al fine di aumentare il potere di acquisto in un numero enorme di paesi e per un numero anch’esso enorme di persone (a oggi la maggioranza della popolazione del pianeta) aumentando, a partire dal primo dopoguerra, le disuguaglianze (coefficiente di Gini) fino a un livello senza precedenti nella storia. Morale, oggi abbiamo un serio problema di sovrapproduzione di merci (e tra non molto anche di servizi), che farne di tutta ‘sta roba? L’industria mondiale si è trovata di fronte a un bivio. Da una parte poteva decidere di soprassedere agli obiettivi (evidentemente sbagliati) di espansione senza fine e di ridimensionarsi in attesa che si creassero le condizioni di consumo nella parte povera del pianeta. Dall’altra trovare altre leve, utili a spingere oltre ogni limite i consumi nei territori noti. Quest’ultima sembra essere stata la scelta della quasi totalità delle industrie.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Il recentissimo Premio Nobel per l’economia assegnato al prof. Angus Deaton, economista e docente alla Princeton University, è un riconoscimento agli studi fatti sui consumi con la scoperta scientifica di un’affermazione nota: i soldi non fanno la felicità. Una semplificazione che serve a spiegare su cosa si è basata la sua ricerca. Angus Deaton è anche noto per essere l’ideatore del “paradosso di Deaton” ossia la regolarità del consumo di fronte a shock inattesi del reddito permanente. In pratica, oltre un reddito di 75mila euro, non si verifica un aumento di propensione al consumo. Ecco perché l’attività dell’economista è riconosciuta in un’ottica di ripartizione della ricchezza: l’accumulo nelle mani di pochi, non rappresenta uno stimolo all’economia. Anzi, finisce per essere un freno. Inoltre, nella sua carriera è notevole l’attenzione prestata al concetto di “felicità”, spesso ignorata nelle teorie economiche.

7

ET


Serge Latouche,

economista e filoso francese.

Serge Latouche filosofo ed economista francese ha definito l’obsolescenza programmata “uno dei tre pilastri che sostengono la società dei consumi” insieme a pubblicità e credito. Latousche, come abbiamo avuto modo di parlarne qualche tempo addietro, è un fervido sostenitore della “decrescita felice”.

Per acquistare METHODO scrivi a: - redazione@ottolobi.it Partendo dall’impossibilità di una crescita infinita in un pianeta finito, Serge Latouche ha sostenuto la necessità In un tratto del quarto numero di questa rubrica

“LUSSO PUBBLICO E LUSSO PRIVATO”:

di una svolta complessiva. La sua teoria della “decrescita” ha riscosso condanne e consensi, ottenendo comunque una certa fortuna sia tra i critici del consumismo sia tra gli ambientalisti. Ma se l’atteggiamento dei secondi trova ogni giorno preoccupanti conferme a ogni livello, quello dei primi rischia spesso di confondersi con un certo disprezzo estetico di élites colte e privilegiate nei confronti di ciò che hanno rappresentato i consumi di massa.8

ET


Ed è proprio questo il caso di una ulteriore conferma sul fronte ambientale. Latouche ritiene che l’obsolescenza programmata sia un espediente deplorabile per aumentare infinitamente i consumi e con essi la crescita fine a se stessa, nociva sia per l’uomo sia per la Terra.

Oltre al prof. Daeton, altri due Premi Nobel si sono interessati alle dinamiche “deviate” del mercato e forse lo hanno fatto in maniera meno “diplomatica” del primo. Si tratta del Prof. George A. Akerlof, economista e docente alla Berkeley University (Premio Nobel per l’Economia 2011) e il Prof. Robert J. Shiller, considerato uno dei padri della Finanza Comportamentale e docente a Yale (Premio Nobel per l’Economia 2013). In un recente testo pubblicato dai due Premi Nobel dal titolo “Phishing for phools. The economics of manipulation and deception” gli autori ricorrono al neologismo delle truffe informatiche, phishing, per indicare le manovre usate dai produttori per indurre i consumatori creduloni, definiti per simmetria phools, a scelte che vanno nell’interesse dei primi, ma non dei secondi. I due autori non si concentrano solo sulle manipolazioni fraudolente (tipo il recente caso Volkswagen) ma anche su quelle più sottili, e più largamente diffuse, che ci inducono a scelte dannose come, ad esempio, scelte troppo costose rispetto all’utilità effettivamente procurata del bene o servizio acquistato. Il consumatore non è quindi sovrano rispetto alla logica del libero mercato, ma è un phool che crede a quello che i produttori vogliono fargli credere. Per citare gli autori – i liberi mercati non producono solo ciò di cui abbiamo realmente bisogno, ma anche ciò che vogliamo perché indotti da preferenze manipolate quindi, alla fine, noi compriamo ciò che i produttori vogliono –.

Ora, per creare le condizioni di un consumo indiscriminato in un mercato relativamente saturo (e finito) è necessario che alcune variabili della produzione (e prima ancora della progettazione) vengano modificate ad hoc. Con esse è stato modificato anche il vocabolario. I beni durevoli, non sono più così durevoli, i certificati di garanzia (regolati per legge in tutti i paesi del mondo) non rappresentano più la certezza di durabilità ma semmai sono utili a sapere quale sarà la “data di scadenza” del nostro nuovo oggetto e così via. Anni di ricerche, scoperte, invenzioni, innovazioni hanno, quindi, avuto semplicemente lo scopo di ridurre la vita media dei prodotti? Evidentemente sembra di si, ma certo non a causa della scarsità dei risultati raggiunti dalla propedeutica, bensì per consapevole quanto criminale scelta dell’industria. Forse il caso più clamoroso è quello della DuPont, quando i suoi chimici riuscirono a creare il nylon, fibra molto resistente utilizzata ai tempi prevalentemente per la produzione di calze da donna. Ebbene presto ci si rese conto che le calze si smagliavano molto meno rapidamente. La durabilità era diventata eccessiva, era diventata un problema. L’impresa chiese ai suoi tecnici di depotenziare immediatamente le caratteristiche della nuova fibra per salvaguardare gli affari. La letteratura è piena di casi come questo registrati nel corso della storia dell’industria mondiale. Pur tuttavia l’industria (e quindi i suoi prodotti a scadenza programmata) non è considerata la causa dominate di questo male, o quanto meno non più. Oggi è stata surclassata dalla pubblicità in tutte le sue forme. Essa è considerata l’arma letale, la più efficace in assoluto, crea motivazioni d’acquisto, convince, parla del nuovo senza citare il vecchio mentre rende quest’ultimo in un istante superato, inutile, obsoleto. E questo anche (spesso) quando il nuovo non ha nulla di diverso rispetto al vecchio o addirittura è peggiore da un punto di vista funzionale o nel rapporto costo-beneficio.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Gli autori denunciano una certa mancanza di etica soprattutto nei modi di comunicare ai consumatori come, ad esempio, quella di far leva sui buoni sentimenti della vita agreste per vendere un biscotto, mi viene in mente un famoso attore spagnolo che sforna “leccornie” in continuazione dal forno di un noto quanto fasullo mulino che più che dall’acqua sembra essere “alimentato” da olio di palma! Ma non mancano di distribuire colpe anche alle scienze economiche e al modo in cui l’economia viene oggi insegnata. I manuali dei corsi di base ci descrivono solo i mercati come dovrebbero essere, come se le deviazioni fossero un fatto casuale e limitato. È come se agli studenti di medicina si insegnasse l’anatomia normale e non quella patologica.

9

ET


Ovviamente tutto ciò, oltre che a provocare un sempre crescente malcontento da parte di chi è in grado di consumare, crea un problema ben più grave (guarda un po’) nei paesi più deboli, che invece che attendersi politiche di ridistribuzione del reddito si vedono sommersi di rifiuti molti dei quali altamente nocivi che spesso rappresentano, purtroppo, l’unica fonte di reddito. Ma che cosa è esattamente l’obsolescenza programmata e quali sono le leve su cui agisce? Si tratta di una “strategia” volta a definire il ciclo vitale di un prodotto. Passata dall’essere ritenuta necessaria per risollevare le sorti dell’industria durante la Grande Depressione americana (all’epoca fu chiesto che fosse imposta per legge), all’essere definita fuori legge da una recente proposta di alcuni parlamentari francesi che ritengono debba essere punita con la reclusione. Come tutte le pratiche borderline, anche questa si è evoluta nel corso del tempo. Si è passati dalla semplice “manipolazione” qualitativa dei prodotti a sofisticazioni oltre che di tipo tecnico e tecnologico di tipo psicologico attraverso pratiche di comunicazione mirate. È, infatti, tanto più raro che un prodotto oggi venga sostituito perché si rompe o si consuma, quanto più frequente che venga rimpiazzato da uno più recente anche quando quest’ultimo è solo più nuovo in termini estetici rispetto al precedente. Si può affermare con certezza che è molto più diffusa nella parte bassa dei mercati, dove agisce su una vastissima quantità di tipologie merceologiche, mentre nei segmenti medio-alti fa leva prevalentemente sull’evoluzione tecnologica (prodotti di elettronica). Scarsamente o per nulla presente nelle fasce alte del consumo. Possiamo dunque dire che l’opera di “convincimento” si poggia su due gambe. La prima è quella oggettiva e spesso giustificabile (anche da un punto di vista etico) e riguarda esclusivamente la funzione. Un utilizzatore di smartphone oggi non tornerebbe a usare un cellulare di dieci anni fa. Appunto perché oggettiva questa caratteristica potrebbe bastare a se stessa senza chiedere aiuto alla pubblicità.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

è chiamata a dare il meglio (o il peggio) di sé. C’è modo di arginare questa deriva folle? Sembra proprio di sì. La congiuntura finanziaria è servita (o sta servendo) a una maggiore consapevolezza da parte dei consumatori, orientati sempre di più verso produzioni a maggiore valore aggiunto. Una ricerca commissionata qualche tempo fa (in piena crisi) evidenzia che durante questa fase congiunturale la riduzione quantitativa degli acquisti è stata molto più marcata rispetto quella qualitativa (valore totale della spesa), si è comprato meno ma meglio. Inoltre altre formule di ”possesso alternativo” si sono affacciate sul mercato. Il noleggio a lungo termine prima e il car sharing dopo sono certamente delle innovazioni sia in termini di consumo (o di non consumo) responsabile, sia in termini di possibilità. In passato abbiamo parlato della grande richiesta (nonostante la crisi) di beni posizionali, notoriamente più costosi e quindi alla portata di pochi, ebbene con il non possesso o possesso momentaneo in qualche modo viene soddisfatta anche questa ”esigenza” di consumo evitando il patetico ricorso ai surrogati dei beni posizionali.

L’altra invece si muove in un ambito soggettivo e fa leva sulla componente estetica, terreno paludoso dove l’etica è autorizzata a risiedere solo col permesso di soggiorno. E qui la pubblicità

10

ET


Leica,

marchio appartenente al settore dell’ottica e attivo nella produzione di microscopi, fotocamere e strumenti geodetici.

11

ET



E quale dovrebbe essere il nostro ruolo? Starne lontano! Abbiamo la fortuna di possedere le giuste caratteristiche che ci consentono di ricoprire un ruolo di prima linea nella parte alta dei mercati mondiali, in quell’eccellenza di cui tanto sentiamo parlare, ed è là che dovremmo stare. Il nostro Paese, per scelta figlia di una ”strategia” miope del passato neanche tanto remoto, oggi è fuori dai giochi sul fronte tecnologico quindi poco abbiamo da dare dal punto di vista funzionale (oggettivo). Mentre molto del nostro valore aggiunto (se non tutto) risiede nel saper combinare estetica, artigianalità prestata all’industria e quel poco di innovazione tecnologica che riusciamo bene ad amplificare. Solo questo ci consentirebbe di superare agevolmente il problema dell’appetibilità del mercato verso le nostre proposte. Una produzione di eccellenza (come mi è capitato di dire più volte eccellenza non è solo la Ferrari, può esserlo anche un bicchiere) non ha bisogno di ricorrere a espedienti di nessun tipo per essere accettata dal mercato. Un prodotto di eccellenza è in grado di resistere nel tempo e addirittura di invertire la percezione del valore. Un esempio di ciò lo vediamo nella sequenza (in foto pagg.11-12) di uno stesso modello di prodotto lanciato sul mercato in anni diversi, notate come il valore si polarizza sul primo modello (il recente) e sull’ultimo (il più vecchio), mentre poco pesa la differenza tra i modelli intermedi. Ecco noi dovremmo operare in questo senso fare prodotti che resistano al passare del tempo (esattamente l’opposto di ciò che si pone l’obsolescenza programmata) dove il nuovo non ha il semplice compito di sostituire il vecchio rendendolo obsoleto ma, al contrario, di rafforzarne il suo valore. “La forma della memoria” di cui abbiamo parlato poco tempo fa dovrebbe avere esattamente questo scopo.

anche dal punto di vista etico. Le lotte di classe non si vincono impedendo ai ricchi di spendere i loro soldi ma consentendo ai poveri di guadagnarne di più. Se la smetteremo di violentare il termine made in Italy usato in ogni dove e senza cognizione di causa-effetto (dannoso) avremo creato quella che gli americani definiscono una situazione win-win, dove tutti guadagnano e nessuno perde. Siamo un Paese meta di interessi artistici e culturali perché possediamo arte e cultura tramandata da millenni, come ripeto spesso, è quello che dobbiamo continuare a fare: creare valore, creare cose che restano, esattamente l’opposto di ciò che si prefigge l’obsolescenza programmata che ha, invece, il facile compito di distruggere valore e come in un cimitero senza lapidi, di annientare la memoria.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Ci troviamo in un’epoca in cui, forse per la prima volta nella storia industriale, profitto ed etica possono non solo convivere senza ipocrisia ma essere interdipendenti. E non mi riferisco solo alla nuova industria dell’ecologia (energie rinnovabili, materiali biodegradabili, etc.). Con buona pace dei detrattori del “capitalismo”, soldati della lotta di classe, fare oggetti per persone ricche (cosa che all’Italia consente di produrre oltre la metà del proprio PIL) oggi sembra essere più sano, paradossalmente,

13

ET


Saul Bassi,

designer e pubblicitario statunitense. (1920-1996)

Il design è pensiero reso visibile


metodi di produzione

QUALITY FIRST!

Raggiungere l’eccellenza operativa attraverso la qualità. di

Alberto Viola

La qualità oggi può sapere di vecchio, superato o paradossalmente essere sinonimo di eccellenza: dipende da che cosa si intende per qualità. Esiste la qualità legata ai sistemi, alle certificazioni, che oggi non è più un elemento distintivo ma una “commodity”, senza la quale non si può neanche pensare di entrare nell’agone competitivo. Esiste poi la qualità di prodotto, cioè la capacità dell’azienda di produrre e mettere sul mercato dei prodotti esenti da difetti di ogni genere, anche questa è una qualità “vecchia” ormai implicita per il cliente. Chi di noi oggi non si sente autorizzato a dare per scontato che un prodotto o una fornitura acquistata sia perfetta? E quanti di noi sono disposti a perdonare un fornitore che ci vende un prodotto non esente da difetti? In realtà, se non rimaniamo stupiti da qualche caratteristica del prodotto che non ci aspettavamo siamo pronti a rivolgerci a qualcun altro per un altro acquisto. Questi tipi di qualità sono sì vecchie, obsolete, non distintive! Esiste però un altro concetto di qualità, tutt’ora carico di significato e innovativo che però ancora poche aziende hanno fatto proprio. La qualità di cui parlo è quella che mira alla qualità dei processi aziendali, e in particolare di quello produttivo: puntare a questa qualità, significa puntare all’eccellenza operativa e questo sì può essere un elemento distintivo e un fattore di successo per l’azienda.

Qualità e variabilità del processo produttivo Parlare di qualità del processo produttivo significa immediatamente parlare della sua variabilità: abbiamo già visto che i giapponesi chiamano questa variabilità, all’interno del modello lean production “mura”, ossia la caratteristica di un

15

ET


processo di produrre in modo più o meno costante un output esattamente con le stesse caratteristiche. Processi con alta variabilità possono produrre difetti e/o scarti (e qui si torna alla qualità, o meglio, alla non qualità, di prodotto), ma anche se non producono difetti e/o scarti, possono produrre altri tipi di spreco, non sempre di facile quantificazione, ma ancor più rilevanti.

caratteristica.

Fig.2 Esempio di carta di controllo

Monitorando nel tempo i valori della caratteristica in esame, si possono avere 2 situazioni ben distinte: 1. Il valore rilevato esce dai limiti di controllo: in questo caso si dice che il sistema è “fuori controllo statistico” e che sul processo è intervenuta una causa speciale; 2. Il valore rilevato rimane all’interno dei limiti di controllo: in questo caso si dice che il processo è “sotto controllo statistico” e che è soggetto a cause comuni.

Fig.1 L’iceberg della non qualità.

Non esistono processi senza variabilità: tutti i processi hanno una loro variabilità intrinseca, tecnologica, “naturale”. Ciò non significa tuttavia che la variabilità (e quindi la qualità del processo), non possa e debba essere costantemente ridotta, alla ricerca della perfezione e del miglioramento continuo delle performance operative.

Cause speciali e cause comuni Nell’ambito del controllo di processo, quando si vuole definire e quindi governare la variabilità del processo produttivo, spesso si usa uno strumento noto da molti anni, ma ancora utile se utilizzato in modo corretto: la “carta di controllo”. Dato un processo produttivo e una caratteristica del prodotto da monitorare, la carta di controllo si costruisce riportando su un grafico: • •

Fig.3 Esempio di processo fuori controllo

Il valore atteso di quella caratteristica; Il limite superiore e il limite inferiore di controllo di quella caratteristica: la differenza tra il limite superiore e il limite inferiore rappresenta il range di variazione naturale dei valori della caratteristica sotto controllo. In genere questi limiti si collocano a ± 3 scarti quadratici medi dal valore atteso della

Raramente si considerano come valori significativi quelli ottenuti da una singola osservazione; il più delle volte i valori riportati nelle carte di controllo rappresentano a loro volta il risultato di una stima campionaria (ad esempio, la media campionaria di una serie di misure eseguite campionando vari prodotti dello stesso lotto di produzione).

16

ET


L’ideale è ovviamente avere un processo in grado di generare sempre un output il più possibile standard, cioè identico nelle sue caratteristiche e quindi vicino al valore atteso e sicuramente all’interno dei limiti di controllo. Per capire come ridurre la variabilità di un processo (cioè per aumentare la qualità del processo) è fondamentale distinguere le due tipologie di cause; infatti: •

le cause speciali sono disturbi esterni al processo, che lo possono alterare temporaneamente impattando negativamente sulla variabilità e/o addirittura sulla qualità dell’output (quando il prodotto assume caratteristiche fuori specifica); le cause comuni sono invece una caratteristica del processo e regolamentano nel tempo della sua variabilità naturale (per definizione assumiamo che la variabilità naturale del processo rispetti le richieste del cliente, altrimenti meglio cambiare processo).

La differenza sostanziale tra cause speciali e cause comuni è che le prime possono essere rimosse con continui interventi di miglioramento e di standardizzazione del processo, mentre le seconde sono insite nel processo esistente e non possono essere eliminate se non si cambia la tecnologia del processo stesso. La domanda a questo punto sorge spontanea: al fine di non perdere tempo in iniziative errate o di sbagliare strumenti nel tentativo di ridurre la variabilità del processo produttivo, come si possono distinguere le cause speciali da quelle comuni? Ancora una volta ci possono venire in aiuto le carte di controllo, che ci possono dire in diverse situazioni se il processo è soggetto a cause comuni o speciali: tuttavia in nessun caso esse ci possono dire esattamente a quale causa speciale è sottoposto il processo.

Fig.4 Esempio di andamento anomalo di una carta di controllo.

L’andamento “anomalo” (trend di crecita) dei valori di questa carta di controllo indica che una causa speciale è intervenuta nel processo, nonostante non sia ancora superato il limite di controllo superiore; questa causa può però essere: un utensile che si sta usurando, il peggioramento del materiale utilizzato, l’abilità delloperatore, etc.

17

ET


rio produrre, nel tempo di lavoro disponibile (ora, turno, giorno), un singolo prodotto finito per soddisfare la domanda dei clienti; 2. sequenza di lavoro standard: è la sequenza di operazioni che ciascun operatore deve fare all’interno del takt time definito; 3. standard work in process: è la minima quantità necessaria di materiale (pezzi, metri, chilogrammi, etc.) che occorre avere tra una fase e l’altra del processo produttivo per poter operare secondo il takt time e la sequenza definita.

Un approccio rivoluzionario alla qualità L’utilizzo delle carte di controllo e di strumenti analoghi per il controllo qualità ha un limite intrinseco e un fattore culturale implicito: con esse la non qualità è rilevata “ex-post”, cioè dopo che si è manifestata e, soprattutto, si accetta culturalmente che si debba intervenire solo quando il processo risulta essere difettoso. Un approccio esattamente opposto è quello che, nei confronti della non qualità, non accetta compromessi, dove l’unica qualità accettata è quella al 100% e che prevede di individuare immediatamente comportamenti del processo non conformi alle aspettative e di intervenire su di esso ancor prima, o immediatamente dopo, che la non qualità si possa manifestare o si sia manifestata.

Per capire cosa si intende per lavoro standard mi piace utilizzare questa frase che, secondo me, definisce come meglio non si può definire il significato di lavoro standard: “il lavoro standard è il metodo di lavoro migliore attualmente definito, conosciuto e condiviso con il quale produrre prodotti con la migliore qualità, in sicurezza, velocemente e al minimo costo”.

Strumenti per governare e ridurre la variabilità del processo produttivo

Con la baseline definita dal lavoro standard è possibile applicare un secondo strumento, anche questo molto semplice ma culturalmente molto difficile da accettare: ogni volta che non è possibile lavorare secondo gli standard definiti occorre fermare il processo per mettere immediatamente in evidenza il problema. In pratica questo significa permettere agli operatori che lavorano direttamente nel processo di bloccare la produzione quando gli standard definiti non possono essere mantenuti. È evidente la portata innovativa di questo approccio alla qualità del processo ed è evidente anche quanto sia difficile accettare culturalmente nelle aziende italiane questo atteggiamento: tuttavia è fondamentale se si vogliono individuare facilmente e immediatamente le cause che hanno comportato il problema e innestare un meccanismo di coinvolgimento diffuso del personale aziendale nelle attività di miglioramento continuo della qualità.

Tradurre in realtà questo approccio “culturale” e ottenere un processo con la qualità “built-in” non richiede strumenti particolarmente complicati, ma sicuramente richiede grandissima volontà, convinzione e costanza. Il primo di questi strumenti è la standardizzazione del processo produttivo. Taichi Ohno, ideatore del Toyota Production System diceva: “Dove non c’è standard non ci può essere miglioramento”. Questa frase significa semplicemente che per poter migliorare un processo occorre in primis definire con quali standards le risorse produttive (uomini, macchine e materiali) devono contribuire alla realizzazione del processo produttivo: per quanto possa sembrare semplice, questo concetto non è sempre applicato e non è così inusuale andare in aziende dove gli standard di lavoro non esistono oppure non sono ben definiti.

Sottolineo solo che in realtà fermare il processo è già “normale” in caso di processi produttivi con elevata presenza di macchine o impianti (come ad esempio nei settori alimentari, chimici, farmaceutici).

Gli elementi di base che definiscono il lavoro standard sono tre:

Fermare il processo per far emergere i problemi produttivi permette di utilizzare in maniera diffu-

1. takt time: è il tempo con il quale è necessa-

18

ET


sa un terzo strumento, il cui obiettivo è quello di andare a individuare immediatamente la causa alla radice del problema riscontrato: il metodo dei “5 perché”. Il metodo dei 5 perché costringe chiunque ad andare alla ricerca della causa del problema senza fermarsi alla prima spiegazione, che sicuramente non è mai quella risolutiva: solo chiedendosi 5 volte perché è possibile individuare la vera causa e quindi mettere in atto un’azione correttiva che possa essere risolutiva del problema riscontrato.

Problema: ci sono molti pezzi difettosi. 1° perché: perché ci sono molti pezzi difettosi? Risposta: le macchine non sono in grado di mantenere le tolleranze. 2° perché: perché le macchine non mantengono le tolleranze richieste? Risposta: su quelle macchine operano spesso addetti con scarsa conoscenza delle macchine. 3° perché: perché gli operatori non sono sufficientemente formati su come gestire le macchine? Risposta: perché sulle macchine lavorano molti operatori diversi.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

4° perché: perché c’è un forte turnover del personale sulle macchine? Risposta: gli operatori non gradiscono lavorare sulle macchine perché il lavoro è ripetitivo e non ergonomico e quindi chiedono di essere spostati ad altre mansioni. 5° perché: perché lavorare sulle macchine non è ergonomico? Risposta: perché quando è stato definito il ciclo di lavoro non si sono tenuti in considerazione gli impatti della ripetitività sull’essere umano.

Fig. 5. Esempio di 5 perché.

Il presidio e monitoraggio continuo degli standard e la rilevazione e analisi sistematica immediata di tutte le anomalie porta a una conoscenza approfondita e diffusa del processo produttivo, presupposto necessario per il quarto strumento disponibile: evitare che gli errori diventino difetti. Questo strumento, che è ancora una volta un approccio mentale alla risoluzione definitiva dei problemi, invita a introdurre nel processo produttivo, ogni volta che si genera o si può generare un errore, dei dispositivi “a prova di errore” (i giapponesi chiamano questi dispositivi “poka-yoke”) che, nel peggiore dei casi non consentono ai difetti di avanzare nel processo produttivo (tipico esempio di poka-yoke di questo tipo sono dime, dispositivi passa-non-passa, etc.) o. meglio ancora, non consentono errori (come ad esempio il controllo dei parametri di processo).

19

ET


L’utilizzo sistematico e diffuso di questi strumenti alimenta la cultura del miglioramento continuo che porta all’eccellenza operativa del processo produttivo: per questo lo slogan “quality first”, la qualità al primo posto, spesso utilizzato per fini commerciali, può essere in realtà l’atteggiamento vincente non solo per garantirsi la massima soddisfazione del cliente ma anche per ottenere la massima efficienza delle attività produttive.

Tre suggerimenti

Tre spunti di riflessione

Non pensare alla qualità come a un obiettivo da raggiungere: “quality first” significa pensare alla qualità come leva per raggiungere l’eccellenza operativa attraverso il miglioramento continuo del processo produttivo.

Nella tua azienda le attività di miglioramento vanno a eliminare le cause alla radice della variabilità del processo produttivo? O, diversamente, gli stessi problemi si ripresentano periodicamente?

Prima di pensare a come migliorare il processo produttivo verifica che siano definiti, chiari e condivisi gli standard operativi: diversamente, ogni sforzo sarà vanificato dal mancato mantenimento degli obiettivi raggiunti.

In quante aree del processo produttivo è stabilito qual è il lavoro standard (somma di takt time, sequenza di lavoro e standard workin-process)?

Per raggiungere l’eccellenza operativa devi coinvolgere tutto il personale che opera sul processo produttivo: insegna loro il metodo dei 5 perché e coinvolgili nelle attività di miglioramento.

I problemi del processo produttivo si manifestano nel processo produttivo. Sono definite le condizioni in base alle quali gli operatori sono autorizzati a fermare il processo al manifestarsi di un’anomalia?

20

ET


Modernità non consiste nell’adottare quattro mobili quadrati

Gio Ponti,

è stato un architetto, designer e saggista italiano (1891-1979). Posate in acciaio per Krupp Berndorf, 1933.


sostenibilità

Riqualificazione energetica e i protocolli di certificazione ambientale di Massimo Granchi e Riccardo Bozzo

Introduzione La riqualificazione energetica del patrimonio edilizio esistente è un tema annoso e ampiamente dibattuto, che riveste un crescente interesse da parte di istituzioni, aziende, associazioni e privati. Tale tematica è molto interessante e urgente perché tocca gran parte della popolazione, sia dal lato ambientale che economico. Il continuo miglioramento energetico di edifici vecchi e nuovi costituisce infatti non solo un campo di sviluppo fondamentale per ridurre le emissioni di gas serra e la dipendenza dalle fonti energetiche fossili, ma anche un settore che nel tempo risulta sempre più interessante a livello di sviluppo tecnologico ed economico. L’interesse in questo settore è tale che nel tempo sono stati creati, a livello globale e locale, numerosi strumenti di applicazione volontaria e obbligatoria, allo scopo di far percepire il risparmio energetico e il miglioramento dell’efficienza a fronte di un intervento di riqualificazione energetica per valorizzare l’edificio efficiente: l’attuale mercato, infatti, grazie anche alla certificazione energetica, incrementa il valore di un edificio se le sue prestazioni sono migliorate.

22

ET


cato, spingendo così proprietari e costruttori a intervenire sull’edificio esistente, e sui nuovi, in modo da aumentare il valore dell’immobile.

Certificazione energetica e certificazione ambientale Il protocollo di certificazione energetica che è maggiormente conosciuto a livello nazionale è uno strumento diventato obbligatorio in tutte le regioni italiane in caso di acquisto e locazione di un immobile o parte di esso. Tale strumento analizza in modo parziale quale sia il dispendio di energia per mantenere in situazione di confort standard l’immobile. Essendo uno strumento divenuto obbligatorio è palese che debba essere anche semplice e semplificato. Il suo scopo primario infatti non è quello di misurare le prestazioni energetiche o tantomeno ambientali di un immobile, bensì quello di fornire informazioni ai consumatori/ utilizzatori e creare una scala di riferimento, su cui innestare una logica economica di mer-

A livello internazionale però è man mano cresciuta la necessità di studiare in modo più ampio la prestazione di un edificio, senza concentrarsi unicamente sul minor consumo di energia. Anche nel settore immobiliare cresce sempre di più il concetto che l’obiettivo da raggiungere sia quello di una maggiore sostenibilità, legata al ciclo di vita dell’immobile e dei componenti che ne fanno parte. Nascono così i protocolli di certificazione ambientale come il ITACA, il BREEAM o LEED.

9

ET


I protocolli di certificazione ambientale

Tali protocolli nascono quindi con lo scopo di fornire un punteggio aggregato per valutare la sostenibilità di un edificio, un po’ come fa l’Ecoindicator 99 in merito al ciclo di vita di un prodotto.

la maggiore e minore importanza; il punteggio finale sintetico che definisce il grado di miglioramento dell’insieme delle prestazioni rispetto al livello standard.

ITACA presenta un protocollo per la valutazione degli edifici residenziali, che, grazie alla collaborazione con l’ente di normazione nazionale, l’UNI, è stato di recente trasformato nella Prassi di Riferimento UNI/PdR 13:2015. Gli altri protocolli particolareggiati ITACA al momento disponibili sono:

Oltre agli aspetti energetici, già indagati con maggiore precisione rispetto a quanto accade per la certificazione energetica, vengono considerati aspetti altrettanto impattanti, sia ambientali che economici, sociali e correlati alla salute umana, ovvero aspetti di sostenibilità in senso lato: gestione della fase di cantiere, materiali impiegati, innovazione introdotta, gestione delle acque reflue e piovane, spazi comuni, accessibilità, salubrità degli ambienti, manutenzione dell’edificio, etc.

• • • •

Uffici – Nuova costruzione e ristrutturazione Edifici Commerciali – Nuova costruzione e ristrutturazione Edifici Industriali – Nuova costruzione e ristrutturazione Edifici Scolastici – Nuova costruzione e ristrutturazione

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Tali protocolli, ovviamente ad applicazione volontaria in Italia, stanno avendo una grande crescita negli ultimi anni, in particolare poiché permettono anche di ottenere una certificazione da parte terza dell’edificio che ha applicato il protocollo; edifici di nuova realizzazione o edifici di nuova ed estesa ristrutturazione possono aumentare il proprio valore con una certificazione ambientale dedicata.

Sul sito istituzionale di riferimento è anche disponibile un software per il calcolo dell’indice. Il protocollo BREEAM (Building Research Establishment Environmental Assessment Method for buildings) nasce in Inghilterra circa 20 anni or sono per la certificazione della sostenibilità in edilizia e ha rappresentato il sistema più diffuso al mondo, fino all’introduzione del protocollo LEED, che vediamo in seguito. BREEAM annovera vari schemi di certificazione, sulla base della destinazione d’uso dell’edificio e secondo la localizzazione dell’edificio.

Vediamo ora brevemente i protocolli maggiormente diffusi in Italia. Partiamo proprio con il protocollo elaborato in Italia. ITACA (Istituto per l’innovazione e trasparenza degli appalti e la compatibilità ambientale) nasce nel 2004 dall’esigenza delle Regioni di dotarsi di strumenti validi per supportare politiche territoriali di promozione della sostenibilità ambientale nel settore delle costruzioni. I principi su cui si basa lo strumento sono: •

In Inghilterra sono applicabili lo schema per nuove costruzioni (New Construction), quello dedicato alle ristrutturazioni importanti (Refurbishment), e lo schema dedicato alla certificazione della gestione in opera degli edifici (In-Use). Alcune nazioni europee hanno poi schemi dedicati, che incorporano le differenze correlate alla singola nazione, differenze che comprendono anche il sistema di riferimento (benchmark).

l’individuazione di criteri, ossia i temi ambientali che permettono di misurare le varie prestazioni ambientali dell’edificio posto in esame; la definizione di prestazioni di riferimento (benchmark) con cui confrontare quelle dell’edificio ai fini dell’attribuzione di un punteggio corrispondente al rapporto della prestazione con il benchmark; la “pesatura” dei criteri che ne determinano

Il protocollo LEED Il Leadership in Energy and Environmental Design, più conosciuto con l’acronimo LEED, è il protocollo di misurazione e di certificazione delle

ET

24


prestazioni di sostenibilità ambientale degli edifici, creato come prima versione nell’anno 2000 dall’associazione statunitense non-profit U.S. Green Building Council. A oggi è il protocollo che ha avuto la maggior applicazione a livello internazionale, con più di 40.000 edifici certificati, o in corso di certificazione, in più di 100 nazioni. Il LEED prevede formulazioni differenziate per tipologia edilizia e per fase del ciclo di vita dell’edificio, tra cui le più interessanti sono New Construction (Nuove Costruzioni) e Operations and Maintenance (Edifici Esistenti). La versione Nuove Costruzioni può essere utilizzata per certificare gli edifici di nuova costruzione e gli edifici esistenti soggetti a ristrutturazione (per interventi che coinvolgono elementi rilevanti degli impianti di climatizzazione, significativi interventi sull’involucro edilizio e il rinnovo degli spazi interni). La versione LEED Gestione e Manutenzione è dedicata agli edifici esistenti e può essere utilizzata anche per edifici soggetti a ristrutturazione delle strutture interne purché la maggior parte della superficie di pavimento rimanga occupata.  Il LEED è suddiviso in macrocategorie al cui interno sono definiti prerequisiti obbligatori per poter ottenere la certificazione minima, e crediti opzionali a punteggio per raggiungere un miglior punteggio di certificazione. Sommando i punti ottenuti si ottiene il livello di certificazione secondo la seguente progressione: Base [40-49], Argento [50-59], Oro [60-79], Platino [80 e oltre]. Le categorie sono le seguenti:

Per acquistare METHODO scrivi a: redazione@ottolobi.it

• • • • • • •

sostenibilità del sito; gestione delle acque; energia e atmosfera; materiali e risorse; qualità ambientale interna; innovazione; priorità regionale.

25

ET


Per ogni categoria ambientale sono quindi assegnati un numero di punti variabili, sulla base del livello di rispetto dei requisiti indicati. Il peso di ogni categoria, ovvero quanto il punteggio ottenuto in ogni singola categoria ambientale influisce sul punteggio totale, è riportato graficamente nella figura sottostante.

predisposizione per veicoli a bassa emissione e a carburante alternativo, capacità dell’area di parcheggio, proteggere e ripristinare l’habitat (percentuali del sito destinate al verde, etc.), massimizzazione degli spazi aperti, controllo delle acque meteoriche, controllo dell’effetto isola di calore, riduzione dell’inquinamento luminoso.

Sotto la categoria “Sostenibilità del sito”, il primo requisito indicato è di carattere obbligatorio: prevenzione dell’inquinamento da attività di cantiere. Il requisito in sostanza richiede di sviluppare un piano di controllo del cantiere, che accompagni il progetto dell’opera, in accordo con standard di riferimento, che permetta di raggiungere i seguenti obiettivi: evitare la perdita di terreno durante la costruzione causata dal deflusso superficiale delle acque meteoriche e/o dall’erosione dovuta al vento, includendo la protezione del terreno superficiale rimosso e accumulato per il riuso, prevenire la sedimentazione nel sistema fognario di raccolta delle acque meteoriche o nei corpi idrici recettori, evitare di inquinare l’aria con polveri o particolati.

Sotto la categoria “Gestione delle acque” troviamo invece requisiti come riduzione dell’uso dell’acqua, gestione efficiente delle acque a scopo irriguo, tecnologie innovative per le acque reflue. Sotto la categoria “Energia e Atmosfera” troviamo: commissioning di base (e avanzato) dei sistemi energetici dell’edificio (sostanzialmente una verifica che i sistemi energetici dell’edificio siano installati, tarati e funzionino in accordo con le richieste della committenza), prestazioni energetiche minime, gestione di base dei fluidi refrigeranti, ottimizzazione delle prestazioni energetiche, produzione in sito di energie rinnovabili, gestione avanzata dei fluidi refrigeranti, misure e collaudi, energia verde.

Sempre sotto la categoria “Sostenibilità del sito” sono presenti altri requisiti che forniscono un punteggio, quali: selezione del sito (dove vengono indicate destinazioni d’uso di terreni da evitare per la costruzione di nuovi edifici), densità edilizia e vicinanza ai servizi, recupero e riqualificazione dei siti contaminati, accesso ai trasporti pubblici, presenza di portabiciclette e spogliatoi,

Per “Materiali e risorse” troviamo grandemente valorizzati il recupero (o meglio il riuso) di componenti e materiali o materie prime, privilegiando l’impiego di risorse provenienti dal territorio: raccolta e stoccaggio dei materiali riciclabili, riutilizzo degli edifici, ovvero mantenimento delle murature, solai e coperture esistenti, mantenimento

ET

26


del 50% degli elementi non strutturali interni, gestione dei rifiuti da costruzione, riutilizzo dei materiali, contenuto di riciclato, materiali estratti, lavorati e prodotti a distanza limitata (materiali regionali). Per la categoria relativa alla “Qualità ambientale interna” troviamo vari requisiti in merito agli inquinanti interni rilasciati dai materiali impiegati, argomento di estrema attualità: controllo ambientale del fumo di tabacco, monitoraggio della portata dell’aria di rinnovo, incremento della ventilazione, piano di gestione della qualità dell’aria in fase di realizzazione e uso dell’opera, materiali basso emissivi (adesivi, primers, sigillanti, materiali cementizi e finiture per legno, pitture, pavimentazioni, prodotti in legno composto e fibre vegetali), controllo delle fonti chimiche e inquinanti indoor, controllo e gestione degli impianti termici e di illuminazione, progettazione e verifica del comfort termico, luce naturale per il 75% degli spazi, visuale esterna per il 90% degli spazi.

edifici istituzionali, alberghi ed edifici residenziali con almeno quattro piani abitabili.

Conclusioni La certificazione LEED è sicuramente la massima espressione della certificazione ambientale in campo edilizio; rivolgendosi all’intero processo (dalla progettazione fino alla costruzione vera e propria) e a ogni parte dell’edifico, il LEED opta per una visione globale della sostenibilità. Si individuano e delineano così i capisaldi e buone pratiche per ingegneri, architetti, professionisti e l’intera comunità del settore, destinate a divenire linee guida nella certificazione di parte terza.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Le ultime due categorie, “Priorità regionali” e “Innovazione nella progettazione”, hanno invece requisiti che vengono considerati specificatamente per ogni singola applicazione. Nel 2008 il Distretto Tecnologico Trentino, insieme a una cinquantina di altri soci, fonda il Green Building Council Italia (GBC Italia), un’associazione non-profit con l’obiettivo di adattare la metodologia LEED alla realtà edilizia italiana andando a considerare le specifiche condizioni climatiche, normative e tecniche italiane. Dal confronto tra le conoscenze scientifiche e il mercato edilizio si è arrivati a definire una prima versione LEED 2009 Italia relativa alle nuove costruzioni e alle ristrutturazioni. Il LEED 2009 Italia può essere applicato a diverse tipologie di edifici di nuova costruzione e soggetti a ristrutturazioni: uffici, negozi e attività di servizio,

27

ET



Senza design non c’è progresso

Paola Antonelli

Designer e architetto italiana. Ăˆ curatrice del Dipartimento di Architettura e Design del MoMa.


INVENTORI E INVENZIONI: IL QUADRO GENERALE

O scrittore, con quali lettere scriverai tu con tal perfezione, la intera figurazione qual fa qui il disegno? Leonardo da Vinci, 1510

L’uomo progetta e costruisce strumenti per semplificare e svolgere lavori fin dalla preistoria. Alcune invenzioni sono risultate così rivoluzionarie da aver accelerato o addirittura cambiato il corso degli eventi. Si pensi all’invenzione della ruota, alla fusione dei metalli, all’invenzione della stampa o a quella più recente dell’informatica. Queste invenzioni possono essere scaturite dalla mente di una persona comune, magari intenta a risolvere un problema quotidiano, oppure da processi ed esigenze artigianali o dalle necessità di un settore industriale di rispondere alle richieste di mercato. Gli ambiti in cui si sono palesate le invenzioni sono molto differenti: l’architettura, l’ingegneria, la scienza, l’industria, ma anche l’artigianato o l’arte, tanto che si può tentare un azzardo dicendo che “l’inventare” sia una delle attività più democratiche e trasversali mai esistite. Nell’immaginario collettivo è radicata l’idea di un processo lineare di accumulo lento, progressivo e ordinato che descrive l’evoluzione sociale e tecnica, compresa quella della ricerca e dell’invenzione. Questa idea porta spesso a pensare che il passato è ignoranza, il presente è ricerca e il futuro è conoscenza. Ovviamente non c’è nulla di più lontano dalla realtà, al contrario:

“Il processo è invece sussultorio, conflittuale e drammatico, fatto di scontri, più che di incontri, e soprattutto largamente casuale e improbabile quasi sempre i protagonisti di questa storia inseguono fini ben diversi da ciò che poi si realizzerà e molte cose accadono per una improbabile costellazione di circostanze”.¹

30

ET


Se avessi chiesto ai miei clienti cosa desiderassero, mi avrebbero risposto: un cavallo pi첫 veloce. Henry Ford


Jean-Baptiste Le Rond d’Alembert,

enciclopedista, matematico, fisico, filosofo e astronomo francese.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

La vita cerca la conoscenza e, correndo dei rischi, riesce a dare consistenza a una nicchia ecologica superiore: l’invenzione. Noi esseri umani siamo infatti ricercatori, cerchiamo di modificare con un raggio sempre più largo rispetto a noi lo scenario che ci ospita.

“La vita è “scettica” - dal verbo greco che significa cercare sin dall’inizio. La vita non è mai soddisfatta delle condizioni in cui si trova. Ed è audace nelle sue avventure”.² Quello relativo all’invenzione e agli inventori è un insieme cruciale e per molti versi sfuggente. Rappresenta un territorio che a prima vista può apparire ampiamente esplorato ma che rischia, se confuso, di perdere la propria potenzialità conoscitiva.

In diversi momenti della storia della tecnica, le leggende relative agli inventori e alle invenzioni hanno avuto un ruolo propulsore nei confronti delle loro attività: per esempio nel consentirgli di ottenere fiducia e anche finanziamenti pubblici e privati, nel promuovere le innovazioni verso la parte di una società ancora timorosa del nuovo, oltre che nell’avvicinare ulteriormente il grande pubblico al meraviglioso mondo tecnologico delle Grandi Esposizioni.

32

ET


Facciamo prima alcuni passi indietro per fornire al lettore un quadro generale di quella che era la situazione a metà del Settecento. Accanto alla politica della tecnica e dell’apprendimento ingegneristico voluto dallo Stato francese, procedeva la pratica tecnologica e inventiva della rivoluzione industriale inglese. In questo stesso periodo c’era chi pensava a dare basi culturali e ideologiche al processo in corso. È il caso di Jean-Baptiste Le Rond d’Alembert che, nel suo Discours préliminaire de l’Encyclopédie, scriveva: “Il disprezzo diffuso per le arti meccaniche si è esteso in qualche misura agli stessi inventori. I nomi di questi benefattori del genere umano sono quasi sempre ignorati, mentre la storia dei distruttori, cioè dei conquistatori, è nota a tutti. Eppure, è probabilmente tra gli artigiani che dobbiamo andare a cercare le prove più ammirevoli dell’acutezza dello spirito umano, della sua pazienza e delle sue risorse. È vero, la maggior parte delle pratiche artigiane sono state inventate a poco a poco e c’è voluto un lungo scorrere di secoli per portare gli orologi, per esempio, al punto di perfezione che ora ci mostrano. Ma non succede questo anche nelle scienze? [...] D’altra parte, a dar credito ai pochi filosofi che non si sono lasciati indurre a non studiare le pratiche artigiane dal disprezzo diffuso verso di loro, sappiamo che esistono macchine così complicate e le cui parti sono così interdipendenti, opere di singole persone. Questi geni, il cui nome è spesso sepolto nell’oblio, non sarebbero del tutto degni di essere accostati a quel piccolo numero di spiriti creatori che ci hanno aperto vie nuove nel mondo delle scienze?”.

Questi due campi dell’agire, ossia quello dell’inventore e dello scienziato, che oggi siamo abituati a pensare come ovviamente connessi, all’epoca non lo erano affatto; anzi, la convergenza di scienza e tecnica ha rappresentato una delle novità più radicali del mondo moderno. Gli Enciclopedisi, di cui d’Alembert faceva parte, esaltavano non, come nella tradizione artigiana, la qualità che si è radicata nella routine, la maestria tutelata dalle corporazioni, bensì la rottura della routine stessa; non il punto d’approdo delle abilità minute, ma il nuovo punto di partenza messo in atto da chi sa discostarsi dagli usi. L’inventore viene consacrato come auctor, un’espressione che designa non solo il riconoscimento a una persona di un atto creativo, ma che su questa base gli attribuisce auctoritas, cioè un peso specifico e duraturo nella vita mentale di una società. Una commissione, questa tra invenzione e ruolo “autoriale”, che è idealmente alla base della stretta complementarità che si manifesterà nei secoli a venire tra le due colonne della proprietà intellettuale, il brevetto e il diritto d’autore. L’Encyclopédie introduce un cambiamento non solo culturale. La radicale innovazione sta nella scelta di utilizzare il disegno come strumento di conoscenza e nella volontà di rendere pubbliche le pratiche che fino ad allora erano rimaste non solo riservate ai luoghi della produzione, ma protette dal segreto del mestiere. Veniva quindi effettuata un’opera di illuminazione di ciò che era in precedenza tenuto celato, d’altro canto era stata anche avviata un’azione di espropriazione. Un’azione che trovava simultaneamente espressione nelle nuove macchine che, traducendo le regole del mestiere accumulate dai “maestri” artigiani in meccanismi impersonali, li mettevano sullo stesso piano dei loro stessi apprendisti. Tradizionalmente il potere delle società artigiane nelle città europee era stato garantito, per secoli, da un sistema di segretezza, per cui ogni corporazione, poteva chiedere all’apprendista che veniva iniziato a divenire in pieno artigiano un giuramento di silenzio circa le tecniche del commercio. Era un sistema terribilmente diseguale, legato alla rigidezza delle gerarchie sociali di Ancien Régime. Ed era anche un freno all’innovazione in quanto non solo, come

Per acquistare METHODO scrivi a: redazione@ottolobi.it

E ancora: “Ponete sul piatto della bilancia i vantaggi reali delle più eccellenti scienze e delle più stimate arti, sull’altro i vantaggi reali delle arti meccaniche; constaterete che la stima che si ha per uno e per le altre non è suddivisa in rapporto a tali vantaggi, e che gli uomini che si sono sforzati di farci credere che eravamo felici sono stati assai più lodati degli uomini che si sono sforzati di renderci davvero felici”.

33

ET


Il modo migliore per predire il futuro è inventarlo. Alan Kay

Angus Stewart Deaton,

economista scozzese. Premio Nobel per l’economia nel 2015.


abbiamo visto, privilegiava la perfezione dentro la routine rispetto all’allontanamento della routine, ma imponeva il potere degli anziani sui giovani e quello della regola sull’invenzione. Il processo che darà vita alla figura dell’inventore e porrà l’innovazione al centro della dinamica evolutiva della società industrializzate nasce anche da quell’espropriazione. Soltanto a partire dai primi anni dell’Ottocento gli inventori assunsero una rilevanza storica e sociale tale da permettere un’analisi e una descrizione ragionata, basata cioè su un buon numero di casi, fonti e biografie. La lettura o l’interpretazione di queste fonti e il sostegno di alcune ricerche svolte da altri autori³ ci portano a proporre il raggruppamento degli inventori in tre categorie: 1. I Progettisti di Stato che hanno dominato le scene tra il 1760 e il 1860; 2. Gli inventori imprenditori, protagonisti dal 1860 al 1930; 3. I tecnologi della Ricerca e Sviluppo, in auge nel mondo dell’invenzione dal 1930 a oggi. Nonostante la sua naturale limitatezza questa suddivisione risulta molto utile per mettere in evidenza i comportamenti statisticamente rilevanti e le caratteristiche più importanti degli inventori, fornendo un valido aiuto alla lettura e all’analisi del mondo dell’innovazione tecnologica degli ultimi due secoli.4 Senza aver svolto un’approfondita analisi sociologica di quali siano state le cause e i processi che portarono alla formazione di questi comportamenti condivisi da intere generazioni di inventori, la tesi che seguiamo nelle nostre ricostruzioni è che alla base di questi fenomeni collettivi non vi fu un’innata predisposizione individuale, ma piuttosto, un processo imitativo che ha portato le diverse generazioni di “tecnici” a ricalcare comportamenti simili, se non del tutto identici, a quelli dei personaggi dominanti e vincenti in uno specifico periodo. Molti inventori che operarono nella seconda metà dell’Ottocento, si conformarono al modello di Thomas Alva Edison, per il semplice fatto che in quegli anni era l’inventore più celebrato e conosciuto al mondo. Lo storico della tecnologia Thomas Hughes afferma a tal proposito: “È tanto frequente il caso di altri inventori indipendenti dell’epoca che raccontavano aneddoti su se stessi simili a episodi della vita di Edison che abbiamo ragione di ritenere che la sua biografia, così ben pubblicizzata, fosse assunta da loro, consapevolmente, come modello”.5

35

ET


Per acquistare METHODO scrivi a: redazione@ottolobi.it

Processi emulativi del tutto simili si attivarono anche in altri periodi e per altri modelli di inventori. Questi processi imitativi sono stati attivati o promossi anche grazie alla nascita di una lettura specifica dedicata al tema dell’invenzione, alla diffusione delle biografie sugli inventori e alla pubblicazione delle riviste tecniche specializzate.6

I modelli vincenti degli inventori si diffusero anche grazie alle popolarissime esposizioni universali o all’architettura celebrativa (statue e monumenti) dedicata a questi personaggi. Tutte queste opzioni portarono alla formazione di un’idea comune e idealizzata dell’inventare, ossia quella di trovare, con l’immaginazione o l’ingegno, mezzi o metodi che agevolino il lavoro, la produzione e in generale tutto ciò che contribuisce al progresso dell’umanità. In questo primo articolo non ci interessava svolgere uno sterile esercizio di classificazione, bensì costruire uno strumento utile da utilizzare per comprendere la storia delle invenzioni e delle innovazioni di cui parleremo a partire dal prossimo numero.

1 Francesco Antinucci, Parola e Immagine, Laterza, Roma-Bari, 2011. 2 Konrad Lorenz, Karl Popper, Il futuro è aperto, Tascabili Bompiani, Milano, 2002. 3 Patrice Flichy, Storia della comunicazione moderna. Sfera pubblica e dimensione privata, Baskerville, Bologna, 1994 e Ana Millan Gasca, Fabbriche, sistemi, organizzazioni. Storia dell’ingegneria industriale, Springer, Milano, 2006. 4 Massimo Temporelli, Il codice delle invenzioni, Hoepli, Milano, 2011. 5 Christine MacLeod, Heroes of Invention, Technology, Liberalism and British Identity, 1750-1914, Cambridge University Press, Cambridge, 2008. 6 Peppino Ortoleva, “Vite geniali: sulle biografie aneddotiche degli inventori” pubblicato sulla rivista Intersezioni, agosto 1996 (n.2), il Mulino, Bologna.

36

ET


Inquietudine è scontento, e il malcontento è la prima necessità del progresso. Mostratemi un uomo completamente soddisfatto: vi mostrerò un fallimento. Thomas Alva Edison


ISTRUZIONI

PER

LA

LETTURA :

//Colonna sonora dell’articolo: “Canzone del maggio” di Fabrizio De Andrè. Maggio, il mese nel quale il tutto ebbe inizio.

“Che ne sarà di Expo? Riflessioni in pillole sul futuro dell’area milanese” //a cura di Elvira Bandini

ET

38


Era il 1851 quando, a Londra, si teneva la prima Esposizione Universale. Da allora si contano 34 esposizioni universali, riconosciute e classificate dal BIE (Bureau of International Expositions, l’organizzazione intergovernativa che gestisce le esposizioni universali e internazionali) in due categorie principali e due secondarie secondo precisi criteri: Esposizioni Universali, Esposizioni Internazionali, Esposizioni Orticole e le Triennali di Milano. 33 invece quelle “storiche” svoltesi prima del 1933. Alla fondazione del BIE nel 1928 viene fornita la definizione di esposizione, che diventa il primo articolo dello statuto della neonata organizzazione:

condo determinate caratteristiche e su cosa rimane al loro termine. Secondo il BIE, la frequenza tra una Expo e l’altra deve essere di 5 anni, la durata della manifestazione obbligatoriamente di 6 mesi, il tema deve essere generale e la costruzione dei padiglioni avviene a carico dei paesi partecipanti.

«Un’esposizione è una mostra che, qualsiasi ne sia il titolo, ha come scopo principale l’educazione del pubblico; può presentare i mezzi a disposizione dell’uomo per soddisfare le esigenze della civilizzazione, oppure dimostrare i progressi conseguiti in uno o più rami delle imprese umane, o mostrare le prospettive per il futuro»

Le numerose esposizioni fino a ora svolte, dai temi più vari, hanno sempre lasciato ai posteri un’eredità positiva e ricca? La risposta è “nì”. Esistono sì esempi di architetture, rimaste anche centinaia di anni dopo l’esposizione di cui son state simbolo, ben presenti nell’immaginario di tutti (La Tour Eiffel per Parigi 1889, l’Atomium di Bruxelles 1958, lo Space Needle di Seattle 1962 per citarne alcune). Davvero però è un parametro corretto per determinare se una Expo ha avuto o meno un buon “post”? Sarebbe un po’ come affermare di essere soddisfatti perché di Expo 2015 rimarrà solo l’Albero della vita. Riduttivo? Insignificante? La vita nella distesa di cemento della grigia Rho-Pero?

By-passando i commenti sull’utilità contemporanea di queste fiere e sui dubbi mezzi di progettazione, utilizzo dei fondi e consumo di suolo, al termine di queste enormi macchine infernali il problema da risolvere è cercare di dare un futuro a quei luoghi senza anima.

(Convenzione di Parigi, 1928, Articolo 1)

Senza approfondire l’aspetto educativo che un’esposizione si propone di avere, su cui forse si potrebbero scrivere interi trattati, è utile dare qualche informazione su come si svolgono se-

5

ET


Per fortuna però, possiamo contare anche esempi più qualificanti (o almeno così ci piace credere), come la costruzione di interi quartieri all’avanguardia, la riqualificazione di aree dismesse, il potenziamento delle infrastrutture, il “lifting” ai centri storici. Ed è il caso, ad esempio, di Knoxville 1982, Roma 1942 (nonostante la manifestazione sia stata annullata a causa della guerra), Siviglia 1992, Lisbona 1998, Suisse 2002. Il quartiere EUR di Roma nasce in occasione dei lavori per l’esposizione universale del 1942, che non si svolse per impedimenti bellici noti, e ancora oggi, dopo ulteriori ampliamenti per le Olimpiadi del 1960, è una zona interessante per progettisti e urbanisti, che ne studiano la morfologia al fine di migliorarne la funzionalità. Pensato come una città nella città, un quartiere monumentale che riprendesse i fasti della Roma antica in un progetto guidato da Marcello Piacentini, conta numerosi monumenti (Palazzo della Civiltà Italiana in primis), giardini, servizi, poli museali. Una Expo mai avvenuta che ha lasciato il segno in una grande città.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Nel 2000 in Svizzera si svolse quella che Le Monde definì come “una delle esposizioni più sorprendenti e oneste del nuovo secolo”: in un’area di 42 ettari, con 10 milioni di visitatori (in un paese di 7 milioni di abitanti), situata nella regione dei tre laghi nella parte Nord-Ovest della Confederazione, Expo Suisse era suddivisa in quattro punti focali. Nata con scarse risorse economiche, si svolse e si concluse al motto di attenzione all’ambiente e procedure di smontaggio e riuso sostenibili. Le diverse cittadine coinvolte nella fiera hanno ereditato installazioni artistiche, interventi urbani, edifici multifunzionali e tecnologici. Se si parla di Lisbona 1998, ci si catapulta in un’area di 5 chilometri di lunghezza e 600 metri di profondità vicino al fiume Tago, con il tema “Oceani patrimonio del futuro”, nata anche per dare un nuovo volto a una zona industriale e desolata. Si tratta di un’area dismessa, per metà destinata a residenze, la cui vendita finanziò gran parte della esposizione. Oltre alla riqualificazione urbanistica e architettonica che questa zona di Lisbona ha vissuto, tra le costruzioni mantenute in vita dopo i 6 mesi di fiera, ci sono l’Oceanario, la Torre di Vasco da Gama e l’interessante Padiglione Portoghese progettato da Alvaro Siza.

40

ET


5

ET


D’altra parte però non possiamo non ricordare tutte le aree espositive che hanno avuto un percorso di vita (e di rinascita) non proprio lodevole: è il caso di Saragozza che, oltre ad aver assistito alla deviazione del corso del fiume Ebro, così violato e snaturato, ha avuto una cattiva risposta del pubblico e ancora, a 7 anni di distanza, non ha un piano di conversione e riuso per gli spazi dove si è tenuta la manifestazione. Hannover 2000 è un’altra realtà nata sotto la stella del buon auspicio con il tema “Uomo, natura, tecnologia - Un nuovo mondo sorge”, ma che registra un deficit di 1,2 miliardi di euro e che ora si snoda tra radure deserte e padiglioni fantasma dimora di degrado, silenzio e tristezza.

a interessarsi della vicenda, le associazioni ambientaliste e contro il consumo di suolo tremano, ma non vi è nessuna certezza. Il Governo e il Comune di Milano decidono così di chiedere aiuto alla realtà italiana e internazionale bandendo una gara per trovare idee valide e realizzabili. Il primo bando di gara è andato deserto. Il secondo, con scadenza ai primi giorni del maggio scorso, ha visto invece arrivare 12 manifestazioni di interesse.

È tempo ora di parlare del nostro Bel Paese e di dare giusto qualche numero e qualche dettaglio su Expo 2015. L’esposizione italiana dal tema “Nutrire il Paese. Energia per la vita” (che ha fra i main sponsors e partners McDonald’s, ENI e Coca-Cola, ndr), che “… si confronta con il problema del nutrimento dell’uomo e della Terra e si pone come momento di dialogo tra i protagonisti della comunità internazionale sulle principali sfide dell’umanità”, nasce a Nord-Ovest di Milano su un’area di 1,1 milioni di metri quadri su terreni privati che ad Arexpo, la società con Comune di Milano e Regione Lombardia come soci principali, sono costati 150 milioni di euro. Vi hanno aderito 147 Paesi con un investimento totale di 1 miliardo di euro, le presenze registrate sono buone (il commissario unico di Expo, Giuseppe Sala, conta di arrivare a 20 milioni di visitatori) e si stima un indotto nel periodo 2012-2020 di 15 miliardi di euro spartiti tra industrie, turismo e ristorazione e servizi alle imprese. Molto bene dunque. Almeno apparentemente. I dolori iniziano quando si parla di cosa accadrà dal 1 novembre.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

315 milioni di euro di investimento (un prezzo altissimo - 30 volte il valore agricolo originario di quelle aree) con l’obbligo di riutilizzare l’area edificata solo al 40% in quanto il restante 60% deve essere destinato ad aree verdi e la possibilità di riutilizzare solo le strutture del Palazzo Italia e del Centro per lo Sviluppo Sostenibile: queste le condizioni per il “dopo”. Scampato il pericolo di un nuovo stadio per la squadra rossonera milanese (ancora?), dei 12 progetti già inoltrati due (secondo quanto riporta il Sole24Ore) riguardano iniziative legate allo sport, altri progetti puntano invece su moda, ricerca, ambiente e ristorazione. Assolombarda propone la Silicon Valley all’italiana - la Nexpo - un parco tecnologico per sfruttare la piattaforma appena realizzata. Apprezzata da Comune e Regione anche l’idea della Università Statale per una nuova «Città Studi» da 400 milioni (fondi da recuperare) in uno spazio di non oltre 200 mila mq: un campus, un polo per la ricerca, le residenze per studenti, un auditorium. La Triennale di Milano rilancia invece l’ipotesi di allestire nei padiglioni la XXI Esposizione internazionale di architettura del 2016, che la città attende da 20 anni. Il Demanio, proprietario anche di un terzo della Statale, potrebbe spostare gli uffici milanesi nell’area Expo così come la Consob (la Commissione nazionale per le società e la Borsa).

A oggi, infatti, manca un piano reale gestionale di tutto il complesso dalla fine della mostra in poi. E, a dire il vero, si sono aperti i cancelli di Expo 2015, oltre a lavori ancora da ultimare, senza avere le idee chiare e soprattutto senza avere il nome dell’advisor del progetto da realizzare sull’area dell’esposizione universale quando questa sarà finita. I tempi stringono, l’opinione pubblica comincia

42

ET


//area Expo 2015, Milano

//Albero della vita, Expo Milano 2015 43

ET


//Padiglione Italia, Expo Milano 2015 La sfida è enorme. Pensare a unico soggetto che investa e gestisca 1 milione di mq è forse azzardato e rende tutto più complicato. Probabilmente l’unica via possibile è quella della co-gestione, della partecipazione di più enti, associazioni, università, società, aziende, guidate da una figura capace, competente e onesta. Così Rho-Pero non correrà il rischio di essere solo la fermata fantasma della nuovissima linea 1 della metropolitana meneghina ma potrà diventare il punto di riferimento per studenti, professionisti, cittadini, turisti, lavoratori. Quali sono quindi le reali possibilità di riuso dell’area di Expo2015? Con un occhio alle esperienze estere e uno agli errori passati, le possibilità sono molteplici: dal grande parco

44

ET


//Expo Gate, Milano

agricolo periurbano, al polo tecnologico, al parco tematico, passando per il polo universitario e ai centri di ricerca. Sicuramente saranno necessari una programmazione e uno studio dettagliato del futuro delle singole strutture, evitando così sprechi economici inutili e tempi prolissi. Basti pensare infatti che il solo Albero della Vita, realizzato da 19 imprese del consorzio Orgoglio Brescia, costato ben 3 milioni di euro e pesante 330 tonnellate, prevede un costo di 500.000 € per smontaggio e trasporto. Cifre da capogiro, soprattutto se immaginate investite in recuperi urbani e potenziamento di infrastrutture esistenti.

Per acquistare METHODO scrivi a: redazione@ottolobi.it NOTA DELL’AUTORE:

Non sono riuscita a trovare la formulina magica per il “dopo Expo”. No, nessuna certezza, nessuna soluzione che mi convinca. Nasco ottimista, cerco di esserlo tutte le mattine quando mi sveglio. Ma non so perché non riesco a vedere un futuro roseo per quest’area che nasce così grigia e sfortunata. Sarà per i tanti vizietti che abbiamo noi italiani. Sarà per le esperienze passate di gestione di grandi manifestazioni non proprio esemplari. Sarà che la truffa è dietro l’angolo, il buon senso latitante. Sarà, ma io la vedo dura. E spero proprio di sbagliarmi e di ricredermi e di poter essere fiera del mio Paese, una volta ogni tanto.

Alla luce delle enormi difficoltà di pianificazione e gestione, un’ultima considerazione forse dovrebbe scaturire: nell’era dei collegamenti velocissimi, della supersonica navigazione in rete, dello scambio veloce di informazioni, degli acquisti online, della vita virtuale, del riuso e della sustainability, c’è davvero bisogno di queste enormi fiere che comportano allucinanti investimenti? Non è forse un approccio anacronistico e fine a se stesso? Non sarebbe forse necessario valutare la possibilità di portare queste esposizioni nelle città, magari riqualificando spazi abbandonati donando loro una nuova vita duratura? Concentrare le forze e incanalare i fondi facendo conciliare il recupero urbano e il fine con cui le Expo nascono. I problemi del “dopo” diventerebbero occasione di crescita e rinascita dei centri storici sempre più in difficoltà. Insomma, “fare di necessità virtù”, diceva qualcuno.

SITOGRAFIA CONSIGLIATA

- http://www.expo2015.org/it - http://francomirabelli.it/htm/ - http://www.ilsole24ore.com/dossier/impresa-e-territori/2014/expo// - http://www.arexpo.it/

45

ET


Gaetano Pesce, scultore, designer e architetto italiano.


project management

La gestione dei progetti nell’area INFORMATION TECHNOLOGY di

Alberto Fischetti

Introduzione Abbiamo fin qui esaminato diversi aspetti della gestione dei progetti: dall’importanza del fattore umano, alla gestione dei rischi, dai possibili atteggiamenti verso il lavoro, all’inserimento dei progetti nella strategia aziendale, dai fattori di successo all’importanza della leadership, alle metodiche di valutazione del ritorno sugli investimenti. Ora, illustrati sia pure sommariamente tutti questi importanti elementi che contribuiscono a una buona gestione dei progetti in generale, vorremmo soffermarci su alcune specificità che si possono incontrare quando devono essere affrontati progetti nell’ambito dell’Information Technology. In particolare vorremmo fornire ai lettori eventuali spunti di riflessione su questa tematica alquanto “specialistica”, soprattutto quando ci troviamo in ambiti aziendali dove l’Information Technology non è parte del “core business” aziendale, ma fa parte di un servizio di supporto che viene erogato da risorse interne o addirittura viene esternalizzato (in parte o interamente) per supportare, a vari livelli, la realizzazione di una strategia aziendale.

47

ET


Non temiamo di affermare che tutti quelli che operano nelle più diverse funzioni aziendali hanno avuto esperienze negative di progetti gestiti dall’Information Technology. In un articolo precedente abbiamo fornito alcune statistiche preoccupanti di fallimenti di progetti nell’ambito IT, e a esse aggiungiamo qui con un certo sadismo questa che segue. Da un’analisi di 13.522 progetti di costruzione di software (The Standish Group Report 2003): • • •

66% di tutti i progetti falliscono (non hanno risultato utile); 82% dei progetti superano i tempi previsti; 48% dei progetti producono sistemi senza le funzioni richieste dai clienti.

Un’altra statistica dello Standish Group del 2009 mostra questi dati sugli esiti dei progetti IT:

Dobbiamo constatare purtroppo che difficilmente abbiamo incontrato aziende o organizzazioni completamente soddisfatte dai progetti IT. Estendendo le nostre riflessioni a tutto il mondo industriale, pensiamo con orrore a quale sarebbe il disastro, ad esempio, per una casa automobilistica se immettesse sul mercato una nuova autovettura con lo stesso numero di difetti con cui alcune maggiori aziende d’informatica rilasciano i nuovi release dei loro software! Ci siamo posti dunque questa domanda: perché è così difficile che i progetti IT abbiano un successo proporzionato agli sforzi che in essi vengono profusi? Si tratta del fatto che il prodotto è intangibile (non a caso è stato definito “software”)? Entra in gioco una tecnologia che si evolve troppo rapidamente? C’è un’incomprensione di fondo fra il mondo del business e quello degli analisti IT? Lo sviluppo di un sistema informatico è un processo ancora troppo artigianale e poco industrializzato? Cerchiamo dunque qualche risposta a questi interrogativi, con l’ambizione, forse eccessiva, di dare qualche spunto di riflessione che possa contribuire alla realizzazione di progetti IT di maggiore successo. Analizzeremo quindi alcuni degli ostacoli più comuni che s’incontrano nella vita di un progetto IT, seguendo un percorso abbastanza

48

ET


standardizzato che tali progetti seguono:

proposta viene sottoposta all’approvazione di uno sponsor che dovrà impegnare le risorse necessarie alla sua realizzazione. Una prima considerazione è quella che un progetto IT sia inserito in una strategia di business aziendale. Le domande da porsi sono: “cosa si vuole ottenere dal sistema? Vale la pena di investire in questo progetto? Che priorità riveste nella realizzazione delle strategie aziendali?” Avendo definito delle risposte valide a queste domande, dovrebbe essere avviata la fase di definizione del progetto. Già qui nascono equivoci e incomprensioni, specialmente se l’esecuzione del progetto è affidata a risorse interne all’azienda. Infatti, nel caso di progetti commissionati a società esterne, i principali e fondamentali elementi di un progetto vengono definiti da un dettagliato capitolato di fornitura scritto e firmato dalle due parti. Nella definizione di progetto dovrebbero essere definiti chiaramente scopo, tempi, costi, risorse necessarie, responsabilità, qualità, pianificazione, rischi, organizzazione. Nei progetti di sviluppo IT realizzati con risorse interne spesso questi elementi, o addirittura nessuno di questi elementi, vengono definiti con precisione. In alcuni casi la percezione è che le risorse

Prima di esporre le nostre considerazioni sui progetti IT, vorremmo raccomandare la lettura di “The Mythical Man Month and Other Essays on Software Engineering” di Frederick Brooks, un classico imperdibile sulla tematica che stiamo tentando di affrontare.

Propose

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Questa è la prima fase di un progetto IT, in cui un’idea viene sviluppata in una proposta d’investimento IT, e successivamente tale

33

ET


interne IT siano a costo zero, per cui non si rende necessario instaurare nei rapporti con esse quella chiarezza che diventa indispensabile quando si ha a che fare con un fornitore esterno che alla fine presenterà una fattura da pagare. Una valida definizione del progetto che si vuole intraprendere è il punto di partenza indispensabile per tutte le fasi successive, e offre solide garanzie che il progetto abbia successo.

Design In questa fase gli analisti raccolgono i requisiti funzionali del nuovo sistema, ossia che cosa dovrà fare il sistema e come lo dovrà fare (analisi tecnica). E già qui sorgono le prime difficoltà. Da un lato i futuri utilizzatori hanno difficoltà a concentrare la propria attenzione e a esprimere chiaramente e dettagliatamente le loro esigenze, dall’altra spesso gli analisti IT non hanno chiaro il contesto operativo in cui si dovrà muovere il loro committente. I committenti non danno troppa importanza alla definizione dei requisiti funzionali del sistema: pensano che sia sufficiente una descrizione sommaria di quello che vorrebbero, ritengono che gli analisti siano troppo orientati al dettaglio, non vogliono spendere troppo tempo in descrizioni minuziose, sono convinti che sia meglio iniziare subito la costruzione del sistema perché tanto poi ci sarà tempo e modo per dettagliare meglio le sue funzionalità apportando le necessarie modifiche a un prototipo, con un approccio “trial and error”, hanno difficoltà a focalizzare la loro attenzione su descrizioni contenute in documenti cartacei, e vorrebbero vedere il sistema già fatto.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

50

ET


Dall’altra parte gli analisti spesso vivono in un loro mondo fatto di bits, bytes e logica binaria vero/falso, e non hanno mai vissuto di persona la realtà in cui operano i loro utenti. Ricordiamo a tale proposito la nostra esperienza con un nostro Direttore Generale che esortava noi, responsabili dei sistemi, a spendere alcune giornate sul campo assieme ai venditori dicendoci: “andate a vedere com’è il mondo reale”.

Sulla stima degli sforzi e delle durate esiste una corposa letteratura e molte metodologie. Ricordiamo molto sommariamente il criterio di stima statistica, dove la durata stimata di un’attività DS è data da:

DS = (DO +4DN +DP) / 6 essendo DO la stima più ottimistica della durata, DN la stima normale e DP la stima pessimistica. Un metodo di stima abbastanza utilizzato è il COCOMO (COnstructive COst MOdel), creato da Barry Boehm, basato sul numero e tipo di funzioni che dovrà svolgere un software. Un altro modello è quello di Putnam, derivato da uno studio di Lawrence H. Putnam, che prende in considerazione il numero di righe di istruzioni (LOC = lines of code) del software. Rimandiamo i lettori interessati alle descrizioni dettagliate di questi e di altri metodi. Per ora qui vorremmo limitarci a descrivere due fenomeni abbastanza diffusi quando vengono richieste stime di durata di moduli software: il cosiddetto “sandbagging” e quello delle stime compiacenti.

Riallacciandoci a questa problematica, ricordiamo che il costo delle modifiche apportate a un sistema, come tutta la letteratura riporta, cresce drammaticamente quando la modifica deve essere fatta nelle fasi più avanzate del suo sviluppo.

Diventa quindi un requisito fondamentale di buona conduzione dei progetti quello che gli utenti dedichino una sufficiente attenzione alla fase di definizione delle specifiche funzionali, in modo da minimizzare il più possibile le richieste di modifiche al sistema nelle fasi successive. Dall’altra parte gli analisti dovrebbero possedere una migliore conoscenza e comprensione di come si svolgono i processi di business dei loro clienti. Quando sono stati finalizzati i requisiti funzionali del sistema (più o meno) dovrà iniziare la fase di progettazione del sistema.

Il “sandbagging” consiste nel crearsi barriere protettive (come appunto i sacchetti di sabbia lungo gli argini dei fiumi) per evitare di correre il rischio di essere accusati di scarsa produttività quando si è in ritardo nella consegna del software. S’inseriscono dunque nelle stime delle durate ampi margini di sicurezza, in modo da sviluppare il prodotto certamente entro i tempi dichiarati ed eventualmente anche in meno tempo, mietendo dunque lodi e apprezzamenti per la bravura dimostrata. Il “sandbagging” deve essere accuratamente individuato dai capi progetto, i quali hanno il sacrosanto dovere di sfidare sempre tutte le stime delle durate fornite da chi dovrà poi svolgere il lavoro.

Una delle prime difficoltà che s’incontrano nei progetti IT è quella che si fronteggia quando si devono pianificare, in particolare quando si deve fare una stima delle durate delle varie attività. Molto spesso nell’ambito dell’IT si ha a che fare con attività di system building che non sono riconducibili ad analoghe attività svolte in passato, a meno che non si abbia la fortuna di riutilizzare parti di codice che sono già state sviluppati in altri progetti, e quindi viene a mancare quella che è una fondamentale conoscenza su cui poter basare una solida stima delle durate.

Le stime compiacenti sono spesso prodotte proprio dai capi progetto stessi, che pensano di ingraziarsi i favori degli sponsor con stime aggressive: intuendo quelle che sono le aspettative dei committenti sui tempi di sviluppo, le stime compiacenti vengono prodotte per dimostrare che i progetti sono affidati a buone mani. Spesso si tratta di stime molto lontane dalla realtà e, se pure molto gradite allo sponsor, finiscono poi inevitabilmente per mettere nei guai capo progetto e team di sviluppo.

51

ET


Altri importanti elementi che possono portare alla generazione di prodotti software di scarsa qualità sono l’insufficiente attenzione all’efficienza e all’usabilità. Efficienza significa prevalentemente velocità di esecuzione, ossia tempi di risposta accettabili. Non c’è situazione peggiore di quella dell’utente che aspetta davanti allo schermo del computer, mentre questo svolge operazioni misteriose senza dare segni di vita a parte l’ansiogeno circolino rotante o clessidra che dir si voglia. La situazione diventa poi tragica se davanti all’utente c’è una fila di clienti impazienti e rumoreggianti che aspettano una risposta. Usabilità significa facilità d’uso o, come spesso si usa dire, sistemi “a prova di idiota”, cioè sistemi che qualsiasi persona dotata di normale intelligenza è capace di usare. Gli analisti di sistemi spesso hanno una mentalità piuttosto particolare: sequenze di operazioni che per loro sono logiche per un utente invece non lo sono. Penso che tutti noi abbiamo avuto esperienze frustranti quando siamo stati costretti a spendere del tempo a utilizzare siti internet per prenotazioni, commercio elettronico, ricerca di informazioni, pagamenti o altro, lottando con logiche ermetiche o addirittura perverse. Nella progettazione di un sistema gli sviluppatori dovrebbero il più possibile calarsi nei panni della gente comune e verificare se il sistema che stanno progettando è semplice, intuitivo e facile da usare.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Construct

Quando sono stati finalizzati i requisiti funzionali del sistema (più o meno) dovrà iniziare la fase di scrittura dei programmi, ossia la codifica delle istruzioni che i programmi dovranno svolgere. Non possiamo qui affrontare il tema dei linguaggi e delle tecniche di programmazione, ma ancora una volta cerchiamo di mettere in guardia coloro che devono affrontare progetti IT da qualche pericolo abbastanza ricorrente. Come abbiamo già detto il processo di sviluppo del software è ancora molto artigianale e poco industrializzato e, quindi, come in ogni costruzione artigianale, è fortemente dipendente dalle capacità di chi a esso lavora. Il primo pericolo cui si può andare incontro è quello creato dagli analisti innamorati della soluzione tecnica brillante che, anche se a volte ricercata, crea poi dei problemi. Si tratta di quella categoria di professionisti che di solito vengono chiamati “computer nerds”, amanti irriducibili degli aspetti più intimi dei computer. Spesso amano lavorare in isolamento, a volte anche in un ambiente buio rischiarato solamente dalla luminosità dello schermo del loro computer. Qual è il problema? Il problema è legato alla parola “manutenibilità”. Bisognerebbe pensare che il software ha un suo ciclo di vita, e in particolare è soggetto a evoluzione attraverso sue modifiche. Quindi è necessario che sia strutturato il più linearmente possibile, in modo che sia poi agevole l’inserimento in

52

ET


Per acquistare METHODO scrivi a: redazione@ottolobi.it

esso di modifiche. Il software deve essere scritto in modo standardizzato (per esempio utilizzando la programmazione strutturata), anche se sappiamo che gli standard in generale tarpano le ali alla creatività e quindi non sono sempre graditi agli spiriti fantasiosi. Qualsiasi analista deve essere in grado di capire e modificare il software scritto da altri. Ricordiamo ancora quando ci capitò di mettere le mani su un intricatissimo programma di gestione ordini clienti, scritto da un analista che chiameremo qui col nome fittizio di “Brambilla”. Costui aveva lasciato con un certo astio l’azienda e, prima di dare a essa un addio, inserì nel suo programma un messaggio che appariva sullo schermo del computer dell’utente in alcuni casi particolari. Tale messaggio diceva con scritta lampeggiante: “Brambilla non c’è più, arrangiatevi!”. L’obiettivo fondamentale che Brambilla si era posto nello scrivere quel programma era di creare qualcosa dove solo lui avrebbe potuto mettere le mani. Il secondo pericolo è quello di prestare scarsa attenzione alla robustezza e affidabilità, accontentandosi di un prodotto “che funzioni” nei casi più comuni. Con robustezza e affidabilità intendiamo la garanzia di funzionamento di un software in qualsiasi circostanza, anche nel caso di input imprevedibili immessi dagli utilizzatori. Non sempre il software viene costruito in modo da non “piantarsi” per combinazioni assolutamente impreviste di dati elaborati.

53

ET


Test Si tratta di una delle fasi più delicate e complesse nello sviluppo di un sistema. I test dovrebbero individuare tutti i possibili errori di un programma, e quindi i test dovrebbero percorrere tutte le sequenze di istruzioni possibili nel codice di un software elaborando tutti i dati possibili. Nel caso di un codice complesso questo tipo di test diventa in pratica inattuabile, per cui è necessario un approccio diverso da quello che in crittografia viene chiamato “della forza bruta” (cioè decifrare un’informazione crittografata testando tutte le possibili combinazioni di una chiave).

Quando parliamo di test del software, ricordiamoci che dobbiamo considerare tre tipi principali di test: 1. Lo “unit test”, ossia i test fatti sui singoli moduli software di cui è composto il sistema; 2. Il “system test”, ossa i test fatti sul sistema nel suo complesso; 3. L’”integration test”, quando il sistema viene testato assieme a tutti gli altri sistemi che interagiscono con esso, in particolare scambiando dati mediante le cosiddette “interfacce”.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Spesso i test sono “manuali”: l’analista testa il sistema con alcuni casi da lui inventati, e se il sistema risponde in maniera corretta, ritiene che i test siano completati, salvo poi dover constatare problemi non appena il sistema viene utilizzato realmente (legge di Murphy). Un approccio più qualificato è quello dei test automatici. Esistono in commercio sistemi per la generazione automatica di “test cases” e per il collaudo del software, e l’adozione di tali sistemi fornisce maggiori garanzie di qualità del software sviluppato.

54

Esiste in realtà anche l’esigenza del “regression test”, il cui obiettivo è di verificare, ogni volta che viene modificato un programma, se le modifiche apportate hanno alterato il funzionamento degli altri programmi che operavano correttamente prima delle modifiche. Infine accenniamo anche all’esistenza dello “stress test” il cui obiettivo è di sperimentare il comportamento del sistema quando viene usato contemporaneamente da moltissimi utenti e quando il sistema opera contemporaneamente ad altri sistemi in una situazione di conflitto di risorse.

ET


Deploy Quando un nuovo sistema viene rilasciato agli utenti è indispensabile che sussistano due condizioni: a) che gli utilizzatori accettino il cambiamento; b) che sia stato effettuato un buon trainings ull’utilizzo del sistema. Per quanto riguarda il primo punto ricordiamo che quasi sempre l’adozione di un nuovo sistema comporta dei cambiamenti nel modo di lavorare, nell’esecuzione dei processi aziendali, nell’organizzazione. Un buon progetto IT deve prevedere un’attività, più o meno importante a seconda dell’entità dei cambiamenti da esso apportati, di preparazione al cambiamento. Sappiamo che le persone spesso tendono a reagire negativamente ai cambiamenti, per paura del nuovo, dell’ignoto, della perdita delle competenze acquisite, per la mancanza di fiducia in se stessi (“sarò capace di lavorare nel nuovo modo?”). Senza arrivare all’estremo di un progetto nel quale alcuni operai, messi di fronte alla necessità di utilizzare dei computer nel loro processo di produzione fino ad allora eseguito manualmente, presero a martellate i computer, riteniamo che senza un’adeguata preparazione la fase di dispiegamento di un nuovo sistema corra dei rischi anche notevoli. Alla base della gestione del cambiamento c’è la necessità di dare una risposta valida al legittimo interrogativo che ognuno di noi si pone di fronte a un cambiamento deciso da altri: “cosa me ne viene a me?”.

Per acquistare METHODO scrivi a: redazione@ottolobi.it Nella fase di rilascio di un sistema si deve dunque considerare fondamentale un’attenta gestione del cambiamento.

55

ET


Support Abbiamo assistito allo svolgimento di molti progetti IT in cui si riteneva che una volta rilasciato agli utenti il sistema, le cose finivano lì, e non si dava più di tanto attenzione a quello che il nuovo sistema avrebbe implicato in termini di sua manutenzione e supporto. Quando s’introduce un nuovo sistema, o esso si aggiunge al patrimonio informatico già esistente e quindi aumenta la domanda di risorse a supporto (help desk, analisti per lo svolgimento delle varie attività di manutenzione etc.) oppure se sostituisce un sistema già esistente, apporta comunque delle modifiche alle necessità di supporto esistenti sue modifiche. Quindi è necessario che sia strutturato il più linearmente possibile, in modo che sia poi agevole l’inserimento in esso di modifiche. Il software deve essere scritto in modo standardizzato (per esempio utilizzando la programmazione strutturata), anche se sappiamo che gli standard in generale tarpano le ali alla creatività e quindi non sono sempre graditi agli spiriti fantasiosi. Qualsiasi analista deve essere in grado di capire e modificare il software scritto da altri.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

Un sistema IT è paragonabile a una creatura vivente, perché ha anche esso un ciclo di vita. Esso richiede durante la sua vita tre tipi di manutenzione: 1. correttiva, per intervenire su eventuali malfunzionamenti riscontrati durante il suo utilizzo; 2. adattativa, per adeguare il sistema a variazioni dell’ambiente al contorno in cui esso opera, come nel caso in cui si installi un nuovo release del sistema operativo (per esempio Windows 10); 3. evolutiva, per apportare quelle modifiche funzionali che sono richieste in seguito all’evoluzione dei processi di business. Non è possibile dunque pianificare un progetto IT senza considerare quali saranno le implicazioni in termine di supporto una volta che tutte le sue fasi d’implementazione saranno terminate. Secondo Barry Boehm la manutenzione incide sui costi totali di un sistema per il 67%.

56

ET


In conclusione Abbiamo dunque fatto una carrellata di alcuni degli aspetti tipici dei progetti IT, che non sempre si riscontrano nell’esecuzione di progetti in altri ambiti. I progetti IT meritano molta attenzione perché costano, ma nello stesso tempo possono rappresentare una grossa opportunità: se condotti in modo efficiente ed efficace possono addirittura creare un vantaggio competitivo alle aziende che li intraprendono. Quindi, preso atto delle difficoltà insite nei progetti IT, stiamo attenti a non credere ad alcuni falsi miti dell’ingegneria del software, tra i quali i più comuni sono: • • • •

per cominciare a scrivere un programma, basta un’idea generica dei suoi obiettivi – ai dettagli si pensa dopo; se il progetto ritarda, basta aggiungere programmatori e così si rispetta la consegna; se i requisiti di un progetto cambiano, non è un problema tenerne conto perché il software è flessibile; se il software “funziona”, la manutenzione è minima e può essere gestita errore per errore, quando capita di trovarli.

Per acquistare METHODO scrivi a: redazione@ottolobi.it

E allora, sgombrato il campo dai “falsi miti”, riassumiamo il decalogo di un buon progetto IT: 1. definire bene il progetto: obiettivi, cosa si vuole ottenere, come sarà organizzato il progetto, quali risorse saranno disponibili; 2. assegnare al progetto la giusta priorità in base alle strategie aziendali; 3. descrivere dettagliatamente le funzionalità del sistema prima di iniziarne la progettazione; 4. pianificare accuratamente le attività di progetto con stime realistiche di sforzi e tempi necessari; 5. assicurare che gli analisti di sistemi preposti al progetto abbiano un’approfondita conoscenza dei processi di business e delle esigenze dei futuri utenti; 6. progettare il sistema tenendo in debito conto le esigenze di manutenibilità e usabilità; 7. testare in maniera completa il software prodotto nelle varie fasi di costruzione: unit test,system test, integration test; 8. preparare l’ambiente in cui dovrà essere utilizzato il nuovo sistema (change management); 9. addestrare gli utilizzatori mediante un valido programma di training; 10. valutare l’impatto del nuovo sistema sulle risorse addette alla manutenzione e supporto. E, infine, avere molta fiducia nella buona sorte!

57

ET


gli autori di

METHODO

GIUSEPPE ALITO

Dopo la laurea in Disegno Industriale e un Master in Design Management, nel 1998 entra in Baleri Italia, azienda di prodotti di arredamento alta gamma, come Direttore tecnico del centro ricerche e dello sviluppo prodotti. Un anno dopo è in Ferrari come “design techniter” dove si occupa dello sviluppo delle postazioni di rilevamento telemetrico (muretto) utilizzate poi per i campionati del mondo F1 dal 2002 al 2004. Nel 2001 entra in Grand Soleil, azienda di prodotti di arredamento per esterni e di giocattoli mass market come engineering manager e con la responsabilità dello sviluppo prodotti per diventarne, due anni dopo, Responsabile R&S. All’attività professionale affianca la docenza di Design Management ai Master di Car Design e Industrial Design della Scuola Politecnica di Design SPD di Milano. Nel 2005 entra in Gio’Style Lifestyle come Responsabile Ricerca & Sviluppo. NICOLA LIPPI

Ingegnere, consulente di direzione, dopo diversi anni trascorsi in aziende multinazionali di primaria importanza nelle aree di Ricerca e Sviluppo, collabora con importanti società di consulenza italiana, occupandosi con passione e professionalità dei temi dello Sviluppo di Nuovi prodotti. Nell’ambito della professione ha contribuito con numerosi interventi in azienda a organizzare e migliorare la capacità di sviluppare prodotti, aumentandone i contenuti in termini di innovazione, di rapporto tra costi e prestazioni nel rigido rispetto dei tempi. Metodo, visione sistemica, spirito imprenditoriale e capacità di sintesi sono i suoi principali fattori distintivi. Esprime con ironia e leggerezza il suo libero pensiero sui temi dello sviluppo prodotto nel blog personale www.sviluppoprodotto.com MASSIMO GRANCHI

Massimo Granchi ha conseguito la laurea in Ingegneria presso il Politecnico di Milano nel 1993 e nel 2003 il titolo di Master in Business Administration presso la SDA Bocconi di Milano (Chartered Master in Direzione Aziendale ex lege 4/2013). Dopo una brillante esperienza presso una multinazionale nel settore metalmeccanico nell’anno 2000 ha fondato la società mtm consulting s.r.l. che offre servizi di consulenza organizzati su quattro linee di prodotto che coprono tutti gli aspetti di sicurezza e ambiente: dai servizi per la marcatura CE agli studi del ciclo di vita (LCA). Nell’anno 2013 ha ideata, creato e avviato GreenNess, divisione di mtm consulting s.r.l., che propone servizi per lo sviluppo sostenibile non più solamente al settore industriale/ metalmeccanico, ma anche al settore del commercio attraverso lo sviluppo di una piattaforma proprietaria che, utilizzando le tecnologie di ultima generazione, consente a ogni tipologia di impresa commerciale di offrire ai propri clienti non più solo prodotti, servizi o sconti, ma una vera e propria esperienza di acquisto sostenibile come leva di fidelizzazione.

58

ET


ALBERTO VIOLA

Management consultant & lean specialist. Direttore della Divisione Industria, ha maturato in questi ultimi 15 anni numerose esperienze in Italia e all’estero in aziende industriali di diversi settori e dimensioni. Esperto di “lean organization” e di miglioramento continuo (kaizen) ha utilizzato in queste aziende le tecniche, gli strumenti e gli approcci specifici del Lean Production System. Relatore di numerosi seminari aziendali e interaziendali sulla “lean organization” nel 2005 e 2006 è stato docente del MIP Politecnico di Milano su queste tematiche. Nel 2012 ha pubblicato il libro “A Gemba! Guida operativa per la produzione snella”. È stato partner della Galgano & Associati Consulting srl, società di consulenza italiana fino a dicembre 2014.

ALBERTO FISCHETTI

Laureato in Ingegneria, nel corso di una carriera di oltre trent’anni in grandi industrie multinazionali dei settori della metalmeccanica, ingegneria, cosmesi e farmaceutica, ha maturato significative esperienze manageriali fino a far parte dell’alta direzione aziendale. Fra le varie responsabilità ricoperte è stato Project Manager in importanti progetti a livello di affiliata italiana e di gruppo europeo. Dal 2005 collabora nei settori della formazione, consulenza e coaching professionale con la Change Project. E’ autore di libri su project management, creatività e problem solving, coaching e gestione delle risorse umane.

ELVIRA BANDINI

Elvira Bandini si laurea in Architettura nel marzo 2014 con una tesi sul Palazzo di Teoderico a Ravenna. Appassionata di fotografia e viaggi, studentessa del master di II livello in Architettura del Paesaggio, ama leggere, scrivere e mappare gli spazi abbandonati dei luoghi in cui vive o viaggia. Sognatrice indomabile, vuole credere in un’architettura verde e giusta.

59

ET


Philippe Starck,

architetto e designer francese.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.