ISSN 2532-1218
23
n. 23, ottobre-novembre-dicembre, 2018
Innovazione
Cristalli di Rolando Ghirardi Alcuni cristalli di ghiaccio al di sopra di una superficie artificiale. L’intento dello scatto è mostrare le perfette forme naturali che l’uomo, attraverso l’innovazione tecnologica e sociale, mira a riprodurre.
Stefania Mangini
Cibo 4.0 Nel 2013 la NASA stanziò un finanziamento per lo sviluppo di una stampante 3D in grado di riprodurre, nello spazio, cibi di varia natura miscelando proteine, grassi e carboidrati in polvere. Ad aggiudicarsi il finanziamento è stata la Systems&Materials Research Corporation, società Texana che negli ultimi anni ha sviluppato la prima stampante 3D in grado di produrre la pizza, nello spazio ma non solo, partendo da una miscela di componenti elementari in polvere a lunga conservazione. Il modello di riferimento per la stampante alimentare è stato il celebre “replicatore di materia a matrice molecolare” di Star Trek, la serie che nel 1966 spalanca le porte della fantascienza in TV, dove partendo da materia inerte ed energia era possibile riprodurre qualunque materiale terrestre, cibo compreso. Sebbene nel telefilm compaiano diverse pietanze tra cui del gelato e cocktails, la produzione standard del replicatore sono dei cubetti colorati che hanno il sapore di vari cibi e che costruiscono la razione base dell’equipaggio della USS Enterprise. Nonostante l’innovazione tecnologica immaginata nel telefilm la riproduzione di oggetti complessi avrebbe richiesto un’energia maggiore e, per i pasti quotidiani, gli ideatori della serie pensarono che un piatto di grosse pillole dalla forma cubica potesse essere più che sufficiente. La continua crescita delle popolazione globale e la crescente difficoltà a produrre cibo in quantità sufficiente per soddisfare l’intero fabbisogno mondiale stanno però spingendo la scienza moderna verso la ricerca di soluzioni alternative all’alimentazione tradizionale. E non si tratta solo di stampare in 3D cibi o pietanze, ma anche di produrre dei “sostituti” capaci di fornire un’alternativa al buon vecchio piatto di pasta. Inutile nascondere che tali alternative sono pillole, pastiglie e compresse che in un prossimo futuro potrebbero sostituire i tradizionali alimenti, come già in parte avviene con integratori e barrette che costituiscono i pasti sostitutivi proposti a chi si sottopone a diete serrate: una visone piuttosto radicale eppure non così lontana dal possibile come può sembrare. Nel 2014 il Nestlé Institute of Health Sciences di Losanna ha infatti avviato il programma Iron Man, volto a realizzare uno strumento simile a un microonde in grado di produrre pasticche contenenti la corretta quantità di proteine, grassi, carboidrati e vitamine necessari al fabbisogno giornaliero di un utente specifico. Un’innovazione, a detta dell’azienda, volta da un lato a ridurre sprechi e abusi alimentari, dall’altro a migliorare la qualità dell’alimentazione umana e quindi la salute delle persone mediante il coretto dosaggio di nutrienti, ma che al tempo stesso ci toglie ogni piacere connesso all’assaporare i cibi per quello che sono. Emilio Antoniol
OFFICINA* Direttore editoriale Emilio Antoniol Direttore artistico Margherita Ferrari Comitato scientifico Fabio Cian (direttore), Stefanos Antoniadis, Sebastiano Baggio, Matteo Basso, MariaAntonia Barucco, Viola Bertini, Piero Campalani, Federico Dallo, Doriana Dal Palù, Francesco Ferrari, Michele Gaspari, Silvia Gasparotto, Giovanni Graziani, Francesca Guidolin, Elena Longhin, Michele Marchi, Patrizio Martinelli, Cristiana Mattioli, Corinna Nicosia, Damiana Patenò, Laura Pujia, Fabio Ratto Trabucco, Chiara Scarpitti, Giulia Setti, Barbara Villa, Carlo Zanchetta, Paola Zanotto Redazione Valentina Manfè (esplorare), Margherita Ferrari (portfolio), Paolo Borin, Arianna Mion (al microfono), Libreria Marco Polo (cellulosa) Copy editor Emilio Antoniol, Margherita Ferrari Impaginazione Margherita Ferrari Grafica Stefania Mangini Photo editor Letizia Goretti Testi inglesi Silvia Micali Web Emilio Antoniol, Margherita Ferrari Progetto grafico Margherita Ferrari
“Officina mi piace molto, consideratemi pure dei vostri” Italo Calvino, lettera a Francesco Leonetti, 1953
Trimestrale di architettura, tecnologia e ambiente N.23 ott-dic 2018
Innovazione
Proprietario Associazione Culturale OFFICINA* e-mail info@officina-artec.com Editore anteferma edizioni S.r.l. Sede legale via Asolo 12, Conegliano, Treviso e-mail edizioni@anteferma.it Stampa Press Up, Roma Tiratura 200 copie Chiuso in redazione il 16 novembre 2018 con il primo vento fresco Copyright opera distribuita con Licenza Creative Commons Attribuzione - Non commerciale Condividi allo stesso modo 4.0 Internazionale L’editore si solleva da ogni responsabilità in merito a violazioni da parte degli autori dei diritti di proprietà intelletuale relativi a testi e immagini pubblicati.
Direttore responsabile Emilio Antoniol Registrazione Tribunale di Treviso n. 245 del 16 marzo 2017 Pubblicazione a stampa ISSN 2532-1218 Pubblicazione online ISSN 2384-9029 Accessibilità dei contenuti online www.officina-artec.com Prezzo di copertina 10,00 € Prezzo abbonamento 2018 25,00 € | 3 numeri Per informarmazioni e curiosità www.anteferma.it edizioni@anteferma.it
OFFICINA* è un progetto editoriale che racconta la ricerca. Gli articoli di ricercatori, selezionati e valutati dal comitato scientifico, si affiancano a esperienze professionali, per costruire un dialogo sui temi dell’architettura, tra il territorio e l’università. Ogni numero racconta un tema, ogni numero è una ricerca. Hanno collaborato a OFFICINA* 23: Dario Altinier, Salvatore Maria Anzalone, Elisa Baldo, Daniele Brigolin, Andrea Brunelli, Lucilla Calogero, Lorella Camellina, Elio Cannarsa, Giulia Ciliberto, Giada Clima, Valentina Coraglia, Andrea Alberto Forchino, Vincenza Ferrara, Valentina Frighi, Giorgio Gaino, Gian Andrea Giacobone, Rolando Ghirardi, Elisa Ieie, Renata Lopez, Roberto Mancin, Fabio Merotto, Corrado Minervini, Open Resources, Ingrid Paoletti, Marco Redolfi, Filippo Ronchini, Chiara Silvestri, Donatella Spanu, Michele Tomasella, Caterina Trevisan, Barbara Villa
Innovazione ISSN 2532-1218
n. 23, ottobre-novembre-dicembre, 2018
Innovazione
n•23•ott•dic•2018
IN COPERTINA
Cristalli
23
Rolando Ghirardi
6
20
Design, data visualization e contesto data-driven
Introduzione
Margherita Ferrari
8
26 32
Salvatore Maria Anzalone
Nanotecnologie: opportunità e sfide
ESPLORARE
L'ARCHITETTO
Intelligenze
52 56 56
PORTFOLIO
Filippo Ronchini
Monterusciello: la città fondata due volte
60 64
Elisa Ieie
Renata Lopez
IN PRODUZIONE
La classificazione sismica degli edifici
Michele Tomasella, Marco Redolfi, Dario Altinier
68
L'IMMERSIONE
Auto indipendente
Gian Andrea Giacobone
72
Creatività e nuove tecnologie nella smart-city
Elisa Baldo, Giada Clima, Roberto Mancin, Donatella Spanu
76
Edificio tettonico
Smart windows
78
Codecheck: introduzione al coding in età prescolare
I CORTI
Robot Therapy in ospedale
Valentina Frighi
InFondo
a cura di Emilio Antoniol e Stefania Mangini
Andrea Brunelli
Tecnologie per la riqualificazione energetica del patrimonio edilizio di scarsa qualità
Industry 4.0: Robotica e Automazione industriale
44
Ingrid Paoletti
14
46
Andrea Alberto Forchino, Elio Cannarsa, Daniele Brigolin
AEC 2040 what’s coming next
Valentina Coraglia
04
Produzioni integrate, economia circolare e simbiosi industriale: l’acquaponica
Lucilla Calogero, Giulia Ciliberto
Monster factories o sistemi di produzione visionari?
a cura di Valentina Manfè
38
Chiara Silvestri, Giorgio Gaino
Corrado Minervini
Lorella Camellina
80 84 86 87
Innovare il racconto e rinnovare lo sguardo
Vincenza Ferrara, Barbara Villa AL MICROFONO
Open Resources a cura di Ariana Mion CELLULOSA
Pura invenzione?
a cura dei Librai della Marco Polo (S)COMPOSIZIONE
Paracetamolo Emilio Antoniol
Massimiliano e Manet. Un incontro multimediale. 12 maggio - 30 dicembre 2018 Castello di Miramare, Trieste www.castello-miramare.it Nella splendida cornice delle scuderie del Castello di Miramare ha sede, fino al 30.12.18, una mostra multimediale che indaga il rapporto tra due personaggi storici apparentemente distanti. Il termine multimediale va inteso nella sua valenza più ampia, vengono utilizzati molti mezzi di comunicazione assieme: arte, musica, teatro e tecnologia video danno vita ad un interessante percorso storico. La narrazione è ideata dallo sceneggiatore Alessandro Sisti e recitata da Lorenzo Acquaviva nei panni di Massimiliano d’Asburgo. Una mostra innovativa, dunque, dal punto di vista sia dell’esposizione vera e propria che dei temi trattati. Non aspettatevi, infatti, tele e sculture o guide che vi espongono i quadri. Il percorso multimediale si snoda attraverso varie sale ben separate l’una dall’altra. Vi verrà consegnata un audio guida gratuita, indispensabile per comprendere i video, attraverso la quale la voce narrante di Massimiliano, vi guiderà in un curioso viaggio che da Trieste vi porterà in Messico e poi a Parigi. Avrete modo di conoscere così la storia dello sfortunato imperatore del Messico, Massimiliano d’Asburgo e di come il noto pittore impressionista Manet ne prese le difese e, con le sue opere, ne perorò la causa. Sono in realtà numerose le opere d’arte dell’epoca, alcune delle quali mostrate al visitatore attraverso curiose ricostruzioni multimediali, che narrano questa vicenda. Tuttavia, la più toccante appare proprio quella di Manet, intitolata L’esecuzione di Massimiliano e datata 1867. Il dipinto mostra il momento della fucilazione dell’imperatore da parte dei ribelli messicani. L’allora sovrano di Francia, visto l’aggravarsi della situazione in una terra così lontana, decise di voltare le spalle al povero Massimiliano che dovette soccombere ai ribelli. La vicenda provocò grande scalpore in Francia e l’opera di Manet risulta essere una denuncia alla censura che la politica francese impose sulla vicenda. Un percorso piacevolmente interessante che vi lascerà, forse, un leggero amaro in bocca per la sorte toccata al giovane Massimiliano d’Asburgo. Caterina Trevisan
Gauguin e gli Impressionisti. Capolavori dalla Collezione Ordrupgaard. 29 settembre 2018 - 27 gennaio 2019 Palazzo Zabarella, Padova www.zabarella.it Questa esposizione è l’unica occasione in Italia di ammirare, all’interno delle sale di Palazzo Zabarella, alcuni grandi capolavori della pittura francese dell’Ottocento provenienti dalla collezione danese Ordrupgaard, una delle più belle e di spessore di arte impressionista in Europa. Voluta dalla famiglia Hansen questa raccolta comprende un gran numero di opere che hanno stravolto i canoni della pittura fino a quel momento in essere ed è la possibilità di ammirare una sequenza di quadri che ci permettono di approfondire il lavoro di generazioni di artisti che hanno collaborato insieme, un susseguirsi di maestri e allievi e altri protagonisti di scontri e alleanze, confronti e influenze. Si parte dalla pittura ancora impostata di Ingres e Delacroix, e attraverso le opere di Corot e al Realismo di Courbet si inaugura una nuova stagione artistica con i paesaggi e le marine di Boudin e Daubigny. Gli anni successivi sono quelli impareggiabili dell’Impressionismo di Pissarro, Monet, Sisley, Renoir, Degas, in cui i soggetti cambiano e questi grandi maestri lotteranno per la ricerca di libertà pittorica, lontana dalle esposizioni ufficiali. In questi capolavori sta il profondo lavoro fatto di innovazione e ricerca che ha modificato il corso della storia. Una innovazione nei temi e nei soggetti, nella forma e nella sostanza a partire dal distacco dagli stilemi tradizionali. In queste decadi nasce la fotografia, si dipinge en plain air e la pittura conquista un profumo di modernità. Tuttavia non mancano gli scontri con i Salon parigini per l’eccesso di innovazione e coraggio, e i pittori esclusi dalle esposizioni ufficiali trovano spazio nel Salon des Refusés e nel Salon des Indépendants. Nel frattempo prosegue il percorso di cambiamento. Altri protagonisti, tra cui Cezanne, trovano ispirazione fuori Parigi alla ricerca di nuove forme e nuove luci, Gauguin lascia la Francia per approdare a una forma di innovazione legata al primitivismo e all’esotico, e Matisse attribuisce al colore una nuova espressività.
4
Le pennellate acquistano una nuova forma, si fanno più naturali, fluide, increspate, più libere e luminose fino a giungere al Post-Impressionismo, scorgere i bagliori della pittura del ‘900 e spalancare le porte alle Avanguardie. Fabio Merotto
Mario Sironi. Dal Futurismo al Classicismo 1913-1924. 16 settembre - 9 dicembre 2018 Galleria Harry Bertoia, Pordenone www.comune.pordenone.it
Generosa e sorprendente è la mostra ospitata dalla Galleria Harry Bertoia dedicata a Mario Sironi. L’artista, che definisce Boccioni il suo migliore e ultimo amico, si avvicina nuovamente al Futurismo nel 1913. Nelle sue opere forte è la presenza della città, delle periferie geometriche, desolate, come si può ammirare in Sintesi di paesaggio urbano del 1919. Non manca l’ambiente urbano architettonicamente più complesso. All’interno della mostra si possono ammirare delle illustrazioni che Sironi ha realizzato per Le industrie italiane illustrate e la sua consistente produzione di vignettista nel giornale politico del fascismo Il popolo d’Italia. Sono presenti inoltre, degli originali disegni di bozzetti che realizzò per i costumi di scena di uno spettacolo e, un inaspettato studio per illustrazione mai realizzata del libro Storia di un micio bigio, di una gallina nera, e di una marmorina prigioniera. Sironi percorre il classicissimo come ritorno all’ordine, un vero richiamo all’architettura. E, proprio in questa mostra, si può apprezzare L’architetto, opera del 1922, con capitello corinzio sullo sfondo, che i critici affermano possa essere una sorta di autoritratto dell’artista, dove si legge un Sironi in qualità di tecnico e progettista dell’innovazione. Valentina Manfè
Arte e magia. Il fascino dell’esoterismo in Europa. 29 settembre 2018 - 27 gennaio 2019 Palazzo Roverella, Rovigo www.palazzoroverella.com Questa mostra è la testimonianza del forte legame tra arte e letteratura, tra mito e filosofia, tra magia e occulto che ha tenuto assieme alcuni tra i principali interpreti della pittura europea tra Ottocento e Novecento, dal Simbolismo alle Avanguardie. Fabio Merotto
ESPLORARE
OFFICINA* N.23
5
Mario Sironi, L’architetto -1922, coll privata. S. Amici
The saleswoman of an electrical appliance shop explained to me how an application on the phone, connected to my electric toothbrush, could tell me the need to brush my teeth, how many times a day, when cleaning the heads and so on. I didn’t listen the second part of the speech, because in my mind the thought of my mother began to make room, years ago, telling me the importance of washing teeth and, implicitly, I learned to recognize how to answer to human needs. Even recognizing a need is a capacity: being able to respond appropriately is the challenge of innovation. Looking for new processing strategies, reducing danger and fatigue, improving quality and increasing well-being, have always been the objectives to which man has tended. Throughout history, innovations, therefore processes intended as bearers of novelty, have transformed human life, globalizing places, information and goods. This transformation is not necessarily positive, especially if considered in global terms: in fact, the availability of resources for some, corresponds to poverty for others. This truth is even more critical when considering the speed with which these transformations are taking place today, redefining the boundaries where the human intellect operates: the tools available today allow us to construct a new dimension of data and information, to expand intelligence to the point of being able to artificially reproduce it and make it capable of learning. The material is redefined at the nanometric scale and becomes itself intelligent and able to adapt, while the management processes interface today with an extensive amount of data. Human competence takes on a new value, radically transforming the role of work itself. An innovation as an end in itself is an anomaly, because it has no future vision, it is like a solution without a problem (Carpo, The alphabet and the algorithm, The MIT Press, 2011). OFFICINA* 23 doesn’t talk about techniques, but about possible technologies, doesn’t offer solutions, but possible scenarios, and reports the valuable decision to man, redefining the meaning of production and its actual necessity. In fact, if innovation must first of all look for collective well-being, it is necessary to reappropriate its human dimension and make sure that this transformation doesn’t remain instrumental but becomes cultural.
Tempo fa, la commessa di un negozio di elettrodomestici mi spiegava come un’applicazione sul telefono, collegata al mio possibile spazzolino elettrico, potesse segnalarmi la necessità di lavarmi i denti, quante volte al giorno, quando pulire le testine e cose simili. La seconda parte del discorso non la ricordo perché nella mia testa iniziava a farsi spazio il pensiero di mia madre che, anni prima, mi raccontava quanto i denti fossero preziosi, l’importanza di lavarli e, implicitamente, imparavo a riconoscere la necessità di rispondere a dei bisogni umani. Anche riconoscere un bisogno, è una capacità: saper rispondere in maniera appropriata è la sfida dell’innovazione. Cercare nuove strategie di lavorazione, ridurre il pericolo e la fatica, migliorare la qualità e incrementare il benessere, sono da sempre gli obiettivi a cui l’uomo tende. Nel corso della storia le innovazioni, quindi processi intesi come portatori di novità, hanno trasformato la vita umana, globalizzando luoghi, informazioni e beni. Questa trasformazione non è necessariamente positiva, soprattutto se considerata in termini globali: infatti la disponibilità di risorse per alcuni, corrisponde a povertà per altri. Questa verità è ancora più critica nel momento in cui si considera la velocità con cui tali trasformazioni stanno oggi avvenendo, ridefinendo i confini entro il quale l’intelletto umano opera: gli strumenti a disposizione oggi permettono di costruire una nuova dimensione di dati e informazioni, di espandere l’intelligenza al punto di poterla riprodurre artificialmente e di renderla capace di apprendere. La materia viene ridefinita alla scala nanometrica e diventa essa stessa intelligente e capace di adattarsi, mentre i processi organizzativi e gestionali si interfacciano oggi con una estesa mole di dati e la competenza umana assume un nuovo valore, trasformando in maniera radicale il ruolo stesso del lavoro. Un’innovazione fine a se stessa è un’anomalia, perché non ha una visione futura, è come una soluzione senza un problema (Carpo, The alphabet and the algorithm, The MIT Press, 2011). OFFICINA* 23 non parla di tecniche, ma di possibili tecnologie, non offre soluzioni, ma possibili scenari, e riporta il valore decisionale all’uomo, ridefinendo il significato stesso di produzione e della sua effettiva necessità. Se infatti l’innovazione deve prima di tutto ricercare il benessere collettivo, occorre riappropriarsi della propria dimensione umana e far si che questa trasformazione non resti strumentale ma divenga culturale. Margherita Ferrari
Valentina Coraglia Dottoranda in Gestione, Produzione e Design - Politecnico di Torino, DAD – Dipartimento di Architettura e Design. valentina.coraglia@polito.it
Monster factories o sistemi di produzione visionari?
01. Lokal, il salad bar allestito da Space10 per la London Design Week 2017, Londra. Rory Gardiner
8
INNOVAZIONE
i ruoli del design tra biologia sintetica e tecnologie viventi ur current food-production system has reached its limits and needs to be reinvented” dice Charny-Brunet, direttore di strategie per l’innovazione di Space10, il centro di ricerca esterno dell’Ikea, nell’intervista rilasciata per FRAME (Ingram, 2018). A Copenaghen, nei sotterranei del loro quartier generale è stato allestito un impianto idroponico per micro-vegetali che possono crescere, senza il suolo né la luce del sole, tre volte più velocemente del normale, e consumare il 90% in meno di acqua rispetto alle colture tradizionali. In questa hydroponic farm sotterranea, che non conosce terreno o sole, è sempre primavera. Nelle condizioni ideali artificialmente ricreate si è in grado di produrre 100 kg di vegetali al mese senza la necessità di prodotti chimici. Space10 in occasione della London Design Week 2017 allestisce un salad bar (img. 01), in cui gli utenti possono osservare la crescita idroponica di piccoli vegetali, tra cui micro-alghe che poco dopo possono essere gustate. L’utente ha anche la possibilità, attraverso sensori, sistemi di intelligenza artificiale e Google Home, di interagire con il sistema idroponico parlando alle piante in crescita che a loro volta inviano risposte (img. 02). Una conversazione di fondamentale importanza, secondo gli ideatori, per comprendere le esigenze delle piante prima che le piante possano manifestarle concretamente, magari in maniera irreversibile. Lo scenario anticipato dal salad bar londinese, secondo Charny-Brunet, è un’alternativa sostenibile per l’approvvigionamento dell’umanità in crescita, garantendo cibo sano e un corposo risparmio di risorse. Questa proposta può considerarsi parte delle disruptive technologies1, le tecnologie dirompenti come la stampa 3D, l’ internet of things, l’automazione e le nanotecnologie, che secondo il McKinsey Global Institute sarebbero in grado di ridisegnare il nostro Pianeta. I buoni propositi per il futuro dell’umanità sono stati anche teoricamente avanzati, nel settembre 2015, dai governi dei 193 Paesi membri dell’ONU che hanno presentato i 17 Sustainable Development Goals (SDGs), come programma di azione dell’Agenda ONU 2030.
Tessuti che crescono dalle radici dei vegetali, robot alimentati con organismi viventi, cappotti “coltivati” a partire da materiale biologico umano, ma anche animali utilizzati come incubatori di organi umani, carne da laboratorio e batteri in grado di eliminare le particelle inquinanti. Artisti e designer si trasformano in scienziati e le biotecnologie danno forma al futuro. La natura è, ora, ingegnerizzata e ri-programmata. Qual è diventato il ruolo del design in merito allo sviluppo delle living factories? Senso critico e innovazione per garantire la sopravvivenza del Pianeta.* Laces growing from tomatoes and strawberries roots. Energy obtained from carnivorous robots fed with insects. Leather bags and jackets cultivated from extracted human biological materials. Lab-grown meat for a future in which traditional livestock and farming has disappeared and eaters-pollution bacteria. Artists and designers become scientists and bio-technology becomes the tool to shape possible futures. Nature has been used as model and co-worker. Now is time to analyze the value of bio-engineered and re-conceptualized nature as possible future production system. Which is the role of design in the development of these living factories?*
OFFICINA* N.23
9
02. Lokal, intelligenza artificiale e interazione. Rory Gardiner
Sconfiggere la fame, sicurezza alimentare, salute e benessere, istruzione di qualità, parità di genere, accesso libero ad acqua pulita e servizi igienico-sanitari, fonti di energia sostenibili, dignità e sicurezza lavorativa, innovazione sostenibile, riduzione delle disuguaglianze, città sostenibili, consumo e produzione responsabile, gestione del cambiamento climatico, salvaguardia degli eco-sistemi marini, salvaguardia del suolo e della biodiversità, no alla violenza, sforzo comunitario. Osservando la risonanza dell’Agenda 2030, si presume che questi valorosi obiettivi debbano essere le linee guida basilari per ogni progetto che riguardi il nostro futuro. Tuttavia, qual è la direzione che i progettisti, ipotizzando alternative per il futuro, stanno pensando di seguire? La synthetic biology2 e le tecnologie viventi proposte dai bio-hackers3 si vanno velocemente ad aggiungere alla lista delle disruptive technologies che potranno mutare radicalmente la nostra permanenza sul pianeta Terra. Tessuti che crescono dalle radici dei vegetali, robot alimentati con organismi viventi, cappotti “coltivati” a partire da materiale bio-
Sfamare 7 miliardi di persone con coltivazioni interattive sotterranee, combattere la malnutrizione con i superfood (img. 03), annientare l’inquinamento e purificare le acque con batteri geneticamente programmati, garantire la sanità schiavizzando organismi esterni non umani, preservare la biodiversità grazie a robot multifunzione. Sembra che queste proposte progettuali siano visionarie e coerenti con il programma d’azione dell’Agenda 2030. Ma si sta assistendo ad una vera e propria nascita dell’“industria degli organismi” in cui gli organismi diventano componenti attive del processo di produzione per la realizzazione di artefatti e materiali su misura. Sono queste le strade che vogliamo intraprendere? Qual è il ruolo del design nell’ipotizzare progetti così estremi? Sarà sempre possibile escogitare soluzioni tecnologiche per ogni cosa oppure saremo in grado di stabilire dei limiti all’altezza? Carol Collet, designer francese direttrice del Design and Living Systems Lab londinese, nell’articolo BioLace: An Exploration of the Potential of Synthetic biology and Living Tecnology for future textiles, evidenzia differenti ruoli del design che si spinge verso tecnologie viventi e la biologia sintetica. Collet, con il suo progetto BioLace (img. 04), immagina che nel 2050, all’interno di serre idroponiche si coltiveranno piante che produrranno frutta o verdura e dalle radici, tessuti. Queste piante, dispositivi viventi opportunamente ingegnerizzati, avranno solo bisogno di acqua e sole per essere operative. Un progetto utopico per investigare il potenziale della biologia sintetica nella programmazione e nel controllo della morfologia delle piante. Collet propone un progetto che anticipa e illustra l’ipotetico potenziale scenario in cui i tessuti verranno prodotti tramite organismi vegetali bioingegnerizzati. Al momento si tratta solo di un’ipotesi ma in una decina di anni BioLace potrebbe diventare una realtà se si continua ad investire sulla biologia sintetica per l’ingegnerizzazione delle specie vegetali e animali.
possediamo gli strumenti per controllare le implicazioni etiche che potrebbero emergere? logico umano, ma anche animali utilizzati come incubatori di organi umani, carne da laboratorio e batteri in grado di eliminare le particelle inquinanti. Soluzioni progettuali estreme, non lontane dal divenire realtà a tutti gli effetti, che si propongono, tra i loro obiettivi principali, di essere strumenti efficaci per affrontare le criticità che attendono il Pianeta in quanto consentiranno di fronteggiare la fame, la povertà, i cambiamenti climatici e la scarsità delle risorse. Nella teoria sembra che le disruptive technologies saranno in grado di condizionare e mutare sostanzialmente le modalità con cui utilizziamo le risorse naturali del nostro Pianeta.
10
INNOVAZIONE
03. The Farm, laboratorio idroponico nei sotterranei della sede di Space10, Copenaghen. Nicklas Ingemann
BioLace è un progetto che può aiutare l’audience a comprendere complessi principi scientifici teorici e tradurli in applicazioni pratiche. Il design può diventare anche strumento per sviluppare ipotetici e utopici scenari futuri derivati dalla collaborazione di diverse tecnologie, in cui la biologia, la meccanica, l’intelligenza artificiale interagiscono tra loro. Con questo proposito James Auger e Jimmy Loizeau nel 2009 propongono i Carnivorous Domestic Entertainment Robots (img. 06), una serie di provocanti robot camuffati da elettrodomestici da cucina. Orologi digitali, lampade, ingegnose trappole per topi sono in verità robot autonomi alimentati grazie alla cattura e alla conversione di materia organica vivente (come gli insetti) in energia. Il potenziale della proposta è sicuramente elevato, ma possediamo gli strumenti per controllare le implicazioni etiche che potrebbero emergere? Infine il design viene utilizzato come strumento per comunicare il potenziale rischio derivato dall’utilizzo di tecnologie viventi, stimolando la riflessione a proposito delle implicazioni 04. BioLace, tessuti ricavati dalle radici delle piante ingegnerizzate. Carol Collet
OFFICINA* N.23
11
05. Victimless Leather- A Prototype of Stitch-less Jacket grown in a Technoscientific “Body”, 2004. Catt & Zurr
etiche che emergono dalla manipolazione degli esseri viventi. Esemplare è il caso di Oron Catts e Ionat Zurr, fondatori di Symbiotica, il laboratorio di ricerca presso dipartimento di biologia dell’University of Western Australia. Già nel 2008 in occasione della mostra Design and the Elastic Mind Exhibition al MoMA di New York, Catts e Zurr presentano Victimless Leather: A Prototype of a Stitch-less Jacket Grown in a Technoscientific “Body” (img. 05), un capo di
to a formare uno strato di tessuto dalle forme complesse. Si è dovuto prorogare la chiusura della mostra perché l’agglomerato di cellule semi-viventi a forma di cappotto, ad un certo punto, ha incominciato a crescere fuori controllo. L’organismo semi-vivente (img. 07), su decisione della curatrice Paola Antonelli, è stato poco dopo soppresso, sollevando innumerevoli perplessità a proposito dell’eticità del progetto. Catts e Zurr, con i loro progetti eticamente discutibili lavorano provocando, sin dai primi anni ’90, per sollecitare la consapevolezza dell’audience. Living technologies e synthetic biology propongono materiali e tecnologie che hanno proprietà viventi, che possono autoreplicarsi e propagarsi. Come Greenfield sostiene: “An even bigger change in the technology of the future, compared to that of the past, is that a nuclear bomb though hideous in its potential, cannot self-replicate; but something that might - nanorobots - could soon be taking over
potranno le disruptive technologies garantire un futuro al Pianeta, in sintonia con i 17 sustainable goals? abbigliamento “semi-vivente”, cresciuto in laboratorio a partire da una coltura di cellule provenienti dal tessuto osseo che supportate da un polimero biodegradabile, hanno incomincia-
12
INNOVAZIONE
06. Flypaper Robotic Clock per la serie dei Carnivorous Domestic Entertainment Robots, 2008. James Auger
07. Dettaglio vivente di Victimless Leather- A Prototype of Stitch-less Jacket grown in a Technoscientific “Body”, 2004. Catt & Zurr
the Planet” (Greenfields, 2003). Lo scorso 19 giugno, a Milano, si è tenuto il public symposium, Broken nature: design takes on human survive curato da Paola Antonelli per la presentazione della XXII Triennale (2019). In questa occasione di dibattito, Alexandra Daisy Ginsberg, designer inglese pioniere per le sperimentazioni con la synthetic biology, ha espresso il suo punto di vista a proposito del ruolo del design oggi, utilizzando le parole di Herbert Simon: “To design is to devise courses of action aimed at changing existing situation into preferred ones” (1988). Secondo questo punto di vista, le tecnologie emergenti sarebbero esclusivamente un mezzo per poter raggiungere situazioni migliori. Tuttavia è corretto ridurre la natura ad un processo di pura strumentalizzazione e meccanizzazione che è possibile dominare e manipolare? In che misura le disruptive technologies operano a favore di un benessere collettivo piuttosto che per accrescere il dominio della tecnologia sulla natura e la creazione di beni e dispositivi finalizzati al profitto economico? È reale il pericolo che queste tecnologie finiscano nelle mani sbagliate? In che misura possiamo condannare il progresso delle tecnologie viventi? “While we are more than ever aware of both the promise and the threat of technological advance, we still lack the intellectual means and the political tools for managing the progress” (Feenberg, 2002). Parole che risalgono già a qualche anno fa, ma che continuano a far riflettere, soprattutto osservando come alcune disruptive technologies eticamente discutibili, a breve diventeranno sempre più incontrollabili in quanto accessibili da parte delle masse. Essendo il design uno degli attuali strumenti di comunicazione più influenti, al design probabilmente spetta mostrare lo stato attuale dei fatti e le relative conseguenze future, aprendo dibattiti e risvegliando la consapevolezza generale. Il design ha quindi, tra le altre missioni, un ruolo sociale, essendo in grado di visualizzare, anche attraverso progetti estremi e provocatori, diversi scenari futuri possibili. All’audience viene concesso libero arbitrio nell’interpretazione dei progetti, che in ogni caso vogliono innescare lo spirito critico, al giorno d’oggi sempre più annullato dall’overloading di informazioni.*
OFFICINA* N.23
NOTE 1 - Secondo Dal Fabbro (Dal Fabbro, 2017), il primo a parlare di “disruptive technologies” e poi di “disruptive innovations” è stato nel 1995, Clayton Christensen, in un articolo pubblicato sull’Harvard Business Review, riferendosi ad alcune tecnologie in grado di ridisegnare il mondo. 2 - Con il termine biologia sintetica (o synthetic biology, syn-bio) si indica una nuova area di ricerca che combina scienza, ingegneria e design per la progettazione di nuovi sistemi o funzioni biologiche o per l’investigazione dei sistemi viventi esistenti attraverso un’azione di re-design. Grazie alla conoscenza del codice che compone la struttura del DNA, gli scienziati sono ora in grado di codificare e programmare gli organismi viventi, proprio come è possibile programmare un computer. Nel 2010 The Craig Venter Institute annuncia la creazione della prima cellula batterica sinteticamente replicata, non solo comprendo la sequenza del DNA, ma controllandola (Collet, 2012). 3 - I bio-hackers sono designer, artisti e scienziati che operano nel campo della bioingegneria. Come suggerisce il nome, i sistemi naturali vengono “hackerati”, attraverso la programmazione del DNA e l’autoriproduzione, affinché svolgano funzioni pre-stabilite. BIBLIOGRAFIA - Berry W., “La strada dell’ignoranza”, Edizioni Lindau, Torino, 2015. - Bevilacqua P., “La terra è finita. Breve storia dell’ambiente”, Editori Laterza, Bari, 2006. - Collet C., “BioLace: An Exploration of the Potential of Synthetic Biology and Living Technology for Future Textiles”, in “Where art, Technology and Design Meet”, vol.7, in “Studies in Material Thinking”, 2013. - Dal Fabbro L., “L’economia del girotondo”, Tecniche Nuove, Milano, 2017. - Dunne A., Raby F., “Speculative Everything. Design, Fiction and Social Dreaming”, MIT Press, Cambridge, 2013. - Feenberg A., “Transforming technology. A critical theory revisited”, Oxford University Press, Oxford, 2002. - Greenfield S., “Tomorrow’s People, How the 21st Century Technology is changing the way we think and feel”, Penguin Group, London, 2003. - Ingram T., “Space 10’s pop up salad bar offers a solution for future food production”, in “FRAME”, Gen-Feb 2018, n. 120, pp. 86-87. - Van J., Atelier Van Lieshout, “Slave city”, DuMont Buchverlag, Koln, 2008.
13
Salvatore Maria Anzalone Maîtres de conférences – Laboratoire de Cognition Humaine et Artificielle (CHArt – EA4004) – Université Paris 8, Saint Denis, France. sanzalone@univ-paris8.fr
Intelligenze
01. Partita della categoria Humanoid kids size a RoboCup 2013, Eindhoven (NL). RoboCup13 on Flickr
14
INNOVAZIONE
l’intelligenza artificiale: storia, miti, promesse e sfide di una tecnologia rivoluzionaria Cosa è l’intelligenza artificiale? Cosa lega applicazioni apparentemente così differenti come una automobile autonoma, un assistente virtuale o un robot? Quali sono i limiti e quali le sfide poste da questa tecnologia? Quali cambiamenti porterà al nostro modo di lavorare? Cerchiamo di rispondere a questi interrogativi.* What is artificial intelligence? What bind together different applications as an autonomous car, a virtual assistant or a robot? Which are the limits and the challenges set by this technology? Which changes will it bring to our jobs? Let us try to reply to such complex questions.*
OFFICINA* N.23
obot, vetture autonome, assistenti virtuali… In questo inizio di secolo, si parla sempre di più di intelligenza artificiale, di come questa cambierà il nostro modo di vivere e di lavorare. Si parla molto anche dei suoi rischi: dalle conseguenze di una eccessiva automatizzazione del lavoro, alle reali capacità delle macchine di prendere decisioni con conseguenze “etiche”, fino alle implicazioni scientifiche e filosofiche della “coscienza artificiale”. Per via del largo spettro delle attività umane da essa coinvolte e per la sua intrinseca natura multidisciplinare, il dibattito sull’intelligenza artificiale risulta spesso confuso e contraddittorio, permeato, a volte, da pregiudizi e paure provenienti più dalla letteratura fantascientifica che dai lavori e dai risultati ottenuti nei laboratori pubblici e privati che si occupano di questa disciplina. Conviene, forse, mettere un po’ di ordine e cominciare dall’inizio: cosa è l’intelligenza artificiale? E in che modo essa lega entità apparentemente distanti come un telefono, un robot o un’auto? L’intelligenza artificiale è una disciplina che tratta di teorie, metodi, modelli, tecniche e algoritmi mirati allo sviluppo di macchine capaci di svolgere autonomamente attività e operazioni che sono solitamente viste come tipiche della mente umana (Russell e Norvig, 2016). Prendere una decisione ragionando su di un problema dato, pianificare una serie di operazioni per raggiungere un determinato obiettivo, dedurre o indurre nuova conoscenza a partire da conoscenze pregresse, elaborare percezioni, astrarre, apprendere, comprendere come interagire con il mondo e con i propri simili. Le questioni sollevate dall’intelligenza artificiale sono molto legate alla comprensione del funzionamento del cervello umano e rivelano uno sforzo comune tra diverse discipline come le scienze cognitive la psicologia, la psichiatria, la neuropsichiatria, la fisiologia, ecc. (Ishiguro, 2016). Queste attività non sono tutte per forza legate a una incarnazione fisica (Shapiro, 2010): il luogo comune del robot antropomorfo associato all’intelligenza artificiale corrisponde soltanto a una sua visione parziale.
15
02. iCub, il robot sviluppato dall’IIT di Genova. The RobotCub Consortium
L’intelligenza artificiale è implementata, per esempio, da Google, per suggerire un itinerario all’interno di una città (Geisberger et al., 2008); da Amazon, per proporre un nuovo libro da leggere in linea con le preferenze dell’utente (Sarwar et al., 2001); da Apple, con il suo assistente vocale, Siri, per comprendere, per esempio, il linguaggio umano (Yu e Deng, 2016). L’applicazione più evocativa rimane, comunque, il robot: Efesto, dio greco del fuoco, nella sua grande fucina all’interno dell’Etna, era circondato da tripodi semoventi e da ancelle dorate “entro il cui seno avea messo il gran fabbro e voce e vita” (Iliade, libro XVIII); Dedalo e i suoi “agalmata” (Pugliara, 2002); il Golem nella tradizione ebraica (Idel, 1990); Leonardo da Vinci e il suo automa cavaliere (Moon, 2007); i karakuri ningyō giapponesi (Paré, 2015); gli automi di Al-Jazari (Romdhane, 2009). Gli esempi sono molti e attraversano diverse culture: sin dalla notte dei tempi l’uomo ha provato a creare macchine autonome, capaci di interagire con noi e con l’ambiente che ci circonda al fine di estendere la nostra produttività e le nostre capacità.
suoi più straordinari esempi applicativi (Waldrop, 2015). Ma si può chiedere di più: l’intelligenza artificiale diventa lo strumento per creare macchine sociali (Breazeal, 2004), amichevoli (Poggi et al., 2015), persino empatiche (Vinciarelli et al., 2012), capaci di interagire e agire con le persone in modo naturale in contesti collaborativi, come un robot maggiordomo in casa o un robot operaio in officina, o anche competitivi. Esempio notevole di questo secondo contesto è la Robocup una competizione che mira alla realizzazione, entro il 2050, di una squadra di robot calciatori capaci di competere e vincere contro la nazionale campione del mondo FIFA (Kitano et al., 1997). E cosa dire del Geminoid (Nisho, 2007) e degli altri robot androidi del prof. Ishiguro? (Glas et al., 2016) L’Italia è artefice e parte attiva della rivoluzione tecnologica dell’intelligenza artificiale. Sono decine i centri di ricerca nel nostro paese, riuniti dal 1988 nell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA), a rappresentare lo stato dell’arte di questa disciplina. Tra questi: l’Università La Sapienza di Roma1, socio fondatore della Robocup; l’IIT di Genova, che ha inventato e sviluppato iCub2, piattaforma standard mondiale per la robotica umanoide; l’Università di Padova, con il suo sforzo continuo per il trasferimento di queste tecnologie nel tessuto industriale italiano3; l’Università di Palermo, con i suoi contributi sulla coscienza artificiale4. Questi e gli altri membri di AIxIA si ritroveranno a Trento a Novembre per fare il punto sull’evoluzione dei diversi ambiti dell’intelligenza artificiale nell’ambito della loro conferenza annuale. Nasce evidente in molti l’effettiva preoccupazione che un grado troppo elevato di automatizzazione possa ridurre gli spazi di attività umana: l’intelligenza artificiale so-
l’intelligenza artificiale è una disciplina che tratta di teorie, metodi, modelli, tecniche e algoritmi mirati allo sviluppo di macchine capaci di svolgere autonomamente attività solitamente viste come tipiche della mente umana La robotica “cognitiva”, che mira appunto a creare macchine dotate di una certa autonomia decisionale, capaci di interagire col mondo (Levesque e Lakemeyer, 2008), rappresenta uno degli anelli più recenti e più evoluti di questa sfida e l’automobile autonoma di Google è solo uno dei
16
INNOVAZIONE
03. Erica con il prof. Ishiguro. Hiroshi Ishiguro Laboratory, ATR
OFFICINA* N.23
17
04. L’iCub robot sviluppato dall’IIT di Genova. The RobotCub Consortium
stituirà l’uomo? Come cambierà l’industria con l’introduzione di robot capaci di eseguire attività che erano viste fino a oggi prerogative dell’intelligenza umana? Avremo ancora bisogno dei medici, se l’intelligenza artificiale riesce già adesso a produrre diagnosi più precise? Cosa farà chi come mestiere conduce veicoli, all’avvento delle automobili autonome? La risposta è complessa, ma parte da un punto fermo: l’intelligenza artificiale nasce col fine di estendere le capacità umane, non di sostituire l’uomo. L’impiego di robot capaci di affiancare nelle fabbriche l’operaio umano, rappresenta la possibilità concreta di riportare in Europa intere filiere di produzione, aumentandone la produttività, mantenendo i costi competitivi senza intaccare i diritti dei lavoratori (Brooks, 2013). L’intelligenza artificiale a sostegno della medicina può tradursi in strumenti più precisi ed efficaci sia per il medico che deve effettuare diagnosi, sia nella terapia e nella riabilitazione: l’abitante di un piccolo villaggio in campa-
gna potrà avere accesso agli stessi strumenti di diagnosi e terapia di chi vive nelle grandi città tramite servizi di telemedicina come diagnosi a distanza e la chirurgia robotica (Senapati, 2015); il bambino con deficit dello sviluppo cognitivo potrà ricevere una terapia più intensa e personalizzata tramite, per esempio, un robot capace di estendere le attività di riabilitazione cognitiva che adesso si fanno in centri specifici, a scuola o a casa (Anzalone et al., 2014). L’introduzione di strumenti basati su algoritmi di intelligenza artificiale sempre più sofisticati dovrà, ovviamente, essere accompagnata da una legislazione che stabilisca un quadro certo di regole atte a comprendere i limiti del loro uso, ed eventuali responsabilità giuridiche: nel caso in cui una automobile autonoma venga coinvolta o, addirittura, causi un incidente (Duffy e Hopkins, 2013), la colpa sarà di chi ha prodotto gli algoritmi di guida automatizzata? Della persona al volante perché non abbastanza attenta? O si potrà ipotizzare per la macchina una
18
INNOVAZIONE
sorta di colpa giuridica, imputabile alla complessità intrinseca degli algoritmi usati? Queste sono domande che ancora attendono una risposta. A fronte di tutto ciò, nonostante i dubbi e le questioni irrisolte, risulta chiaro che mentre le attività che richiedono capacità astratte, tipiche della mente umana, rimarranno e saranno, in quanto uniche, sempre più valorizzate, il lavoro si trasformerà: forse avere un conducente di automobili diverrà un servizio di lusso, per una nicchia; forse nessuno guiderà più i tir. Ma dietro ogni robot, ogni programma di intelligenza artificiale, dietro ognuna di queste macchine stupefacenti ci saranno sempre persone che le inventeranno, le svilupperanno, le costruiranno, le programmeranno e le miglioreranno. La storia racconta che ogni innovazione è stata un moltiplicatore di crescita e di forza lavoro. Bisogna avere fiducia: negli anni ’80 era difficile immaginare che un bambino di quell’epoca potesse divenire, nel 2010, un “programmatore di applicazioni per smartphone”. Allo stesso tempo, però, è compito delle politiche nazionali (Helbing et al., 2019) riuscire a creare le condizioni per le quali l’introduzione di queste tecnologie sia dolce, morbida, per tutti e non lasci indietro nessuno.*
NOTE 1 – www.labrococo.dis.uniroma1.it 2 – www.icub.org 3 – www.robotics.dei.unipd.it 4 – www.diid.unipa.it/roboticslab/ Per approfondire si vedano anche i siti: - Hiroshi Ishiguro Laboratory, ATR, www.geminoid.jp/en - RobotCub Consortium, www.robotcub.org - ARIA ALICE, un agente virtuale interattivo, www.aria-agent.eu
OFFICINA* N.23
05. ARIA ALICE, un agente virtuale interattivo con comprensione linguistica, abilità sociali. Aria-Agent.eu BIBLIOGRAFIA - Anzalone S.M., Tilmont E., Boucenna S., Xavier J., Jouen A.L., Bodeau N., Maharatna K., Chetouani M., Cohen D. and MICHELANGELO Study Group, “How children with autism spectrum disorder behave and explore the 4-dimensional (spatial 3D+ time) environment during a joint attention induction task with a robot”, Research in Autism Spectrum Disorders, 8(7), pp.814-826, 2014. - Breazeal C.L., “Designing sociable robots”, MIT press, 2004. - Brooks R., “Robots at work: Toward a smarter factory”, The Futurist, 47(3), p.24, 2013. - Duffy S.H. and Hopkins J.P., “Sit, stay, drive: The future of autonomous car liability”, SMU Sci. & Tech. L. Rev., 16, p.453, 2013. - Glas D.F., Minato T., Ishi C.T., Kawahara T. and Ishiguro H., “Erica: The erato intelligent conversational android”, in Robot and Human Interactive Communication (RO-MAN), 2016 25th IEEE International Symposium on, pp. 22-29, IEEE, August 2016. - Helbing D., Frey B.S., Gigerenzer G., Hafen E., Hagner M., Hofstetter Y., Van Den Hoven J., Zicari R.V. and Zwitter A., “Will democracy survive big data and artificial intelligence?”, in Towards Digital Enlightenment, pp. 73-98, Springer, Cham, 2019. - Idel M., “Golem: Jewish magical and mystical traditions on the artificial anthropoid”, 1990. - Kitano H., Asada M., Kuniyoshi Y., Noda I. and Osawa E., “Robocup: The robot world cup initiative”, in Proceedings of the first international conference on Autonomous agents, pp. 340-347, ACM, February 1997. - Levesque H. and Lakemeyer G., “Cognitive robotics” in Foundations of artificial intelligence, 3, pp.869-886, 2008. - Moon F.C., “The Machines of Leonardo Da Vinci and Franz Reuleaux: kinematics of machines from the Renaissance to the 20th Century” (Vol. 2), Springer Science & Business Media, 2007. - Nishio S., Ishiguro H. and Hagita N., “Geminoid: Teleoperated android of an existing person”, in Humanoid robots: New developments, InTech, 2007. - Paré Z., “The art of being together with robots: A conversation with Professor Hiroshi Ishiguro”, International Journal of Social Robotics, 7(1), pp.129-136, 2015. - Poggi I., Pelachaud C., de Rosis F., Carofiglio V. and De Carolis B., “Greta. a believable embodied conversational agent”, in Multimodal intelligent information presentation, pp. 3-25, Springer, Dordrecht, 2005. - Pugliara M., “Il mirabile e l’artificio: creature animate e semoventi nel mito e nella tecnica degli antichi”, L’Erma di Bretschneider, 2002. - Romdhane L. and Zeghloul S., “Al-Jazari (1136–1206). In Distinguished Figures in Mechanism and Machine Science”, pp. 1-21, Springer, Dordrecht, 2009. - Russell S.J., Norvig P., “Artificial intelligence: a modern approach”, Malaysia Pearson Education Limited, 2016. - Ishiguro H., “Android science”, In “Cognitive Neuroscience Robotics A”, pp. 193-234, Springer, Tokyo, 2016. - Sarwar B., Karypis G., Konstan J. and Riedl J., “Item-based collaborative filtering recommendation algorithms”, in “Proceedings of the 10th international conference on World Wide Web”, pp. 285-295, ACM, April 2001. - Senapati S. and Advincula A.P.,”Telemedicine and robotics: paving the way to the globalization of surgery”, International Journal of Gynecology & Obstetrics, 91(3), pp.210-216, 2005. - Shapiro L., “Embodied cognition”, Routledge, London, 2010. - Geisberger R., Sanders P., Schultes D. and Delling D., “Contraction hierarchies: Faster and simpler hierarchical routing in road networks”, in “International Workshop on Experimental and Efficient Algorithms”, pp. 319-333, Springer, Berlin, Heidelberg, May 2008. - Vinciarelli A., Pantic M., Heylen D., Pelachaud C., Poggi I., D’Errico F. and Schroeder M., “Bridging the gap between social animal and unsocial machine: A survey of social signal processing”, IEEE Transactions on Affective Computing, 3(1), pp.69-87, 2012. - Waldrop M.M., “No drivers required” in Nature, 518(7537), p.20, 2015. - Yu D. and Deng L., “Automatic Speech Recognition”, Springer London Limited, 2016.
19
Lucilla Calogero PhD in Scienze del design; assegnista di ricerca presso Università Iuav di Venezia. lcalogero@iuav.it
Giulia Ciliberto PhD in Scienze del design; docente di Metodologia progettuale della comunicazione visiva presso l’Accademia di Belle Arti di Verona. giulia.ciliberto@iuav.it
Design, data visualization e contesto data-driven
01. Progetto di identità visiva e comunicazione per ENI. The Visual Agency
20
INNOVAZIONE
una prima mappatura L’avvento di uno scenario industriale fondato su principi di automazione e interconnessione sta modificando i tradizionali paradigmi della produzione materiale e immateriale, assecondando un modello che interpreta la raccolta, la gestione e la diffusione di dati come una delle sue principali risorse operative. Il presente contributo approfondisce la dimensione della cosiddetta “Industria 4.0” dal punto di vista del design della comunicazione, argomentando come i sistemi funzionali alla visualizzazione e alla condivisione di dati possano configurarsi come un sostanziale orizzonte di contaminazione della disciplina con le emergenti realtà produttive nel contesto di uno scenario data-driven.* The advent of an industrial scenario based on the principles of automation and interconnection is changing the traditional paradigms of material and immaterial production, supporting a model that exploits the collection, management and dissemination of data as one of its main operational resources. The present contribution deepens the dimension of the so-called “Industry 4.0” from the perspective of communication design, arguing how functional systems for visualizing and sharing data can be considered as a substantial horizon of contamination of the discipline with the emerging productive realities in the context of a datadriven scenario.*
OFFICINA* N.23
egli anni recenti, di pari passo con la progressiva digitalizzazione dei processi industriali che appare riscontrabile a livello globale, si assiste con sempre maggiore pervasività all’affermazione di un paradigma tecnologico coerente con quello prefigurato nel quadro della cosiddetta “Industria 4.0”1, che asseconda l’avvento di una produzione del tutto automatizzata e interconnessa. L’aumento esponenziale della dimensione dei dati (Floridi, 2017) che si lega a tale trasformazione genera ripercussioni che non si limitano unicamente al sistema produttivo, ma che investono anche l’intera organizzazione sociale, le forme della cultura, i sistemi di pensiero. Quella che può essere definita come l’era della datificazione (MayerSchönberger, 2013) – vale a dire la quantificazione, e la conseguente trasposizione della realtà fisica in forma di dati informatici – segna infatti la transizione verso un paradigma della conoscenza che vede nel dato, e nelle attività relative alla sua raccolta, elaborazione e restituzione, una delle sue fondamentali risorse operative. Al tempo stesso, affinché tale transizione possa effettivamente esprimere la sua portata senza rimanere appannaggio di una ristretta cerchia di operatori di estrazione tecnica e specialistica, è necessario attuare opportune azioni interpretative orientate alla traduzione dei dati secondo forme che risultino comunicabili e intelligibili anche nei riguardi di un pubblico di non esperti. In questo senso la disciplina della data visualization, nella sua valenza basilare volta a trasporre graficamente concetti astratti attraverso metafore quali segni, simboli e diagrammi, si pone come uno scenario privilegiato per la progettualità di approcci orientati a familiarizzare la collettività nei confronti della smisurata mole di dati generata delle attuali tecnologie di produzione e comunicazione: ed è a partire da simili considerazioni che il presente contributo evidenzia alcune possibili direttive progettuali, portando a esempio l’esperienza di tre realtà italiane che pongono la
21
02. Interfaccia grafica del software open source RAWGraphs. DensityDesign Lab
data visualization al centro della propria attività operativa. Una prima possibile direttiva si rifà a una considerazione della data visualization che richiama l’attitudine espressa da Otto Neurath negli anni trenta del XX secolo con l’esperimento di ISOTYPE, linguaggio composto unicamente di pittogrammi da egli progettato con l’utopico intento di “trasformare la conoscenza in immagini” (Neurath, 1934, p. 8).
In tal senso è paradigmatico il caso di DensityDesign Lab, laboratorio di ricerca specializzato nella visualizzazione di fenomeni complessi con sede presso il Politecnico di Milano, istituito nel 2010 in stretta relazione con l’attività didattica e di ricerca del Dipartimento di Design. Il laboratorio, da cui nel corso degli anni sono scaturiti numerosi filoni di approfondimento fra diplomi di laurea, tesi di dottorato e altri progetti di ricerca, nasce su iniziativa di un gruppo di docenti del dipartimento concentrati già da anni sul tema della data visualization come fondamento di una nuova epistemologia visiva, volta a “facilitare la connessione fra domini della conoscenza apparentemente distanti e separati” (Valsecchi, Ciuccarelli, Ricci, Caviglia, 2010, p. 180). L’attività del laboratorio – che si divide fra indagine teorica, verifica sul campo e sviluppo di strumenti software – svolge essenzialmente progetti di ricerca che assecondando una filoso-
data visualization quale veicolo cognitivo, alfabetizzazione estetica e semantica Questo orientamento, dal quale traspare l’intenzione di attribuire al progetto di comunicazione visiva una missione di carattere inerentemente scientifico e pedagogico, si volge a un processo collettivo di alfabetizzazione estetica e semantica finalizzato, in ultima istanza, all’istituzione del dato nel ruolo di vera e propria “lingua comune”.
22
INNOVAZIONE
03. Infografica realizzata per Corriere della Sera - La Lettura. DensityDesign Lab
fia open source2, aprendosi talvolta a collaborazioni esterne nei confronti di committenti attivi specialmente nel campo dell’industria creativa e dell’economia culturale per lo svolgimento di incarichi professionali quali progetti editoriali, campagne di sensibilizzazione, comunicazione di eventi. Una seconda possibile direttiva progettuale, che valorizza il principio secondo cui, per dirla con Edward Tufte, “i grafici ben progettati sono spesso di gran lunga più efficaci delle parole” (Tufte, 1983, p. 87), risiede nell’elaborazione di strategie visuali volte a rendere il dato non solo accessibile e comprensibile, ma anche utilizzabile nella sua più essenziale natura di informazione. Nel porre l’enfasi sulla valenza operativa della data visualization nel ruolo di veicolo strumentale a individuare correlazioni, prendere decisioni e comunicarle, questo orizzonte si fonda sulla considerazione del dato come materia prima a par-
tire da cui strutturare l’intero progetto di comunicazione. Da questo punto di vista è particolarmente significativo il caso di The Visual Agency, studio professionale milanese con un approccio funzionalista
il dato come materia prima da cui partire per strutturare l’intero progetto di comunicazione
OFFICINA* N.23
alla data visualization, che parte dal presupposto secondo cui, nelle parole del manager Paolo Guadagni, “le persone, i consumatori, i cittadini o i dipendenti richiedono contenuti sempre più sofisticati, aggiornati, interattivi che permettano loro di capire, imparare, scegliere i prodotti e i servizi con tutte le informazioni di cui hanno bisogno” (Guadagni, 2012). L’attività dello studio si rivolge principalmente alla pro-
23
04. Data Humanism Manifesto. Giorgia Lupi
05. Infografica estratta dal progetto “Dear Data” www.dear-data.com . Giorgia Lupi e Stefanie Posavec
gettazione di supporti analogici e digitali di reportistica avanzata rivolti ad aziende, istituzioni e altri organismi per i quali l’analisi e l’esplorazione visuale dei dati risulta strumentale a supporto dei processi gestionali e decisionali. Emblematica in tal senso è la collaborazione fra The Visual Agency ed ENI, che ormai da anni vede coinvolte le competenze dell’agenzia in operazioni quali il design di articoli multimediali, lo sviluppo di piattaforme digitali e la produzione di motion graphics, oltre che la realizzazione di supporti visuali per la comunicazione aziendale interna ed esterna. Una terza possibile direttiva progettuale si concentra attorno alla componente narrativa che connota intrinsecamente i dati, attraverso i quali, nelle parole di Nathan Yau, “è possibile raccontare storie che la maggior parte delle persone non ha ancora nemmeno idea che esistano, ma che sono in realtà già bramose di conoscere” (Yau, 2014, p. 539). In accordo con una simile premessa, che implica la considerazione degli aspetti qualitativi che caratterizzano il dato al di là di quelli essenzialmente statistici, la data visualization è proiettata in una prospettiva di stampo più prettamente umanistico, in cui l’intervento di traduzione visiva risulta strumentale alla comunicazione di valori di natura non unicamente numerica, ma anche e soprattutto intellettuale, emozionale e spirituale. Rappresentativo, a questo proposito, risulta il caso di Accurat, contesto ibrido a metà fra studio professionale e laboratorio di ricerca con doppia sede fra Milano e New York. L’azienda opera principalmente nel settore culturale e sociale, situandosi all’intersezione fra il mondo dei dati, del design e della tecnologia. Con l’intento, come afferma la fondatrice Giorgia Lupi, di “conferire vita – vita umana – ai dati” (Lupi, 2017), l’approccio di Accurat si concentra programmaticamente sulla messa a fuoco di strategie in grado di andare oltre i codici tradizionali della data visualization e che, combinandosi con gli studi cognitivi sulla percezione, favoriscano l’apertura del progetto nei
24
INNOVAZIONE
dalla traduzione visiva strumentale alla comunicazione di valori di natura intellettuale, emozionale e spirituale
06. Il progetto #AChartADay pubblicato sulla pagina Instagram dell’agenzia The Visual Agency è orientato a sperimentare con la data visualization per realizzare ogni giorno un grafico da condividere sul social network. The Visual Agency
confronti di un’utenza anche non specializzata e il più possibile allargata. Muovendo da queste premesse, l’agenzia affianca a un ventaglio di relazioni di committenza che coinvolge imprese e istituzioni di calibro internazionale – quali, ad esempio, Google, IBM, World Health Organization e Museum of Modern Art – una spiccata attitudine alla ricerca indipendente, che si esprime nella frequente realizzazione di progetti di impronta marcatamente sperimentale. Nel suo insieme questo contributo ha inteso restituire una mappatura che, per quanto intenzionalmente non esaustiva, mette a fuoco un campionario di possibili approcci progettuali alla data visualization alla luce dello scenario data-driven dettato dell’attuale ecosistema tecnologico, portando a esempio l’operatività di alcune realtà emergenti attive in questo settore nel panorama nazionale contemporaneo. Da un punto di vista professionale, la casistica delle realtà qui considerate evidenzia come lo slittamento verso modelli ibridi di impresa e di competenze, a cavallo fra accademia, impresa e ricerca indipendente, possa favorire coloro che operano in questa branca del design della comunicazione visiva nel porsi come potenziali interlocutori nello scenario di un cambiamento. Da un punto di vista disciplinare, simili considerazioni incoraggiano una revisione dei metodi e degli strumenti alla base della data visualization stessa, che valorizzi il ruolo cognitivo della disciplina nel rendere comunicabile la complessità del reale e dei suoi fenomeni cimentandosi concretamente con le molteplici occasioni progettuali che si aprono nella contemporaneità. Assumendo un punto di vista che – in accordo con la data visualization stessa – aspira a travalicare i confini disciplinari e professionali, è necessario prendere coscienza di come, oggi più che mai, la visualizzazione delle informazioni possa agire come vettore qualitativo in grado di integrare virtuosamente il ciclo di produzione del dato, senza limitarsi semplicemente a esplicitarne in forma figurata gli aspetti quantitativi.*
OFFICINA* N.23
NOTE 1 – Industria 4.0 è il termine che – su modello economico tedesco – si riferisce a un complesso processo di revisione e trasformazione del sistema industria promotore di innovazione attraverso l’interconnessione della filiera produttiva e facilitata dall’integrazione delle cosiddette tecnologie abilitanti: Internet delle cose, intelligenza artificiale, robotica collaborativa, realtà aumentata e virtuale, big data analytics. Per approfondire si guardi Bianchi, P., “4.0 La nuova rivoluzione industriale”, Il Mulino, Bologna, 2018. 2 – “RAWGraphs is an open source web application for the creation of static data visualizations that are designed to be further modified. Originally conceived for graphic designers to provide a series of tasks not available with other tools, it evolved into a platform that provides simple ways to map data dimensions onto visual variables” in Mauri M., Elli T., Caviglia G., Uboldi G., Azzi M., RAWGraphs: A Visualisation Platform to Create Open Outputs, Proceedings of the 12th Biannual Conference on Italian SIGCHI Chapter, New York, NY, USA, 2017, pp.28:1-28:5. BIBLIOGRAFIA - Floridi L., “La quarta rivoluzione. Come L’infosfera sta cambiando il mondo”, Raffaello Cortina, Milano, 2017. - Guadagni P., “The Visual Agency”, in “The Visual Agency Book 2012. Una panoramica storica sulla visualizzazione dei dati e delle informazioni”, The Visual Agency, Milano, 2012. - Lupi G., “Data Humanism. The Revolution will be Visualized”, in “Medium”, 2017, cfr. www. medium.com/@giorgialupi - Mayer-Schönberger V., & Cukier K., “Big data: a revolution that will transform how we live, work and think”, John Murray, London, 2013. - Mauri M., Elli T., Azzi M., Caviglia G., Uboldi G., “RAWGraphs: A Visualisation Platform to Create Open Outputs”, in “Proceedings of the 12th Biannual Conference on Italian SIGCHI”, ACM, New York NY, USA, 2017, pp. 28:1–28:5. - Neurath O., “International picture language; the first rules of Isotype”,K. Paul, Trench, Trubner & Co., London, 1936. - Tufte E. R., “The Visual Display of Quantitative Information”, Graphics Press, Cheshire, CT, 1983. - Yau N., “Data Points: Visualization That Means Something”, John Wiley & Sons, Indianapolis, IN, 2013. - Valsecchi F., Ciuccarelli P., Ricci D., Caviglia G., “The DensityDesign Lab communication design experiments among complexity and sustainability”, in “Proceedings Cumulus Conference”, Tongji University, Shanghai, China, 2010, pp. 180-186.
25
Ingrid Paoletti Professore Associato, Politecnico di Milano, dipartimento ABC. ingrid.paoletti@polimi.it
AEC 2040 what’s coming next
01. Prime simulazioni del “pesce di Barcellona’ in ambiente parametrico dallo studio Gehry insieme a Permasteelisa. Permasteelisa
26
INNOVAZIONE
come portare l’innovazione delle sperimentazioni di frontiera alla diffusione del costruire? IIl saggio vuole analizzare lo scenario delle costruzioni a una generazione da oggi cercando di capire quali saranno gli orizzonti di innovazione e produzione edilizia. In diversi centri di ricerca in Europa e nel mondo si è aperta una linea di sperimentazione molto forte su sistemi performativi, robotica per le costruzioni, materiali avanzati. Molto interesse è concentrato inoltre sul tema della fabbrica 4.0 come nuovo modello di sviluppo industriale, dove questo tipo di evoluzione produttiva fa riferimento a una forte digitalizzazione del processo, alla riduzione di mansioni ripetitive e alla connettività del processo che sono tipiche dell’off site. Tuttavia il progetto di architettura presenta una parte di realizzazione on site che ha vincoli di tipo urbano, ambientale, tecnologico, materico, contrattuale e non ultimo normativo. Quali sono le reali possibilità di introdurre innovazione nel settore delle costruzioni? Quali le modalità produttive adatte a normative, regolamenti e processi sedimentati e collaudati nel tempo? Dal prototipo sperimentale come si passa alla diffusione del costruire? In conclusione si vuole tentare di fare una ipotetica fotografia del settore a una generazione da oggi, cercando di tratteggiare alcune delle questioni del prossimo futuro.* The essay wants to analyze the construction scenario at a generation from today trying to understand which will be the horizons of innovation and building production. In several research centers in Europe and worldwide, a very strong experimentation has been opened on performative systems, robotics for construction and advanced materials. A lot of interest is also concentrated on the theme of the 4.0 factory as a new model of industrial development, where this type of productive evolution refers to a strong digitalization of the process, the reduction of repetitive tasks and the process connectivity typical of off-site. However, the architectural project has an on-site realization that presents urban, environmental, technological, material, contractual and not the last regulatory constraints. Which are the real possibilities of introducing innovation in the construction sector? Which production methods are suitable for standards, regulations and processes that have been settled and tested over time? From the experimental prototype, how do we scale up to the diffusion in AEC? In conclusion this essay wants to try to make a hypothetical scenario of the sector at a generation from today, trying to outline some of the issues of the near future.*
OFFICINA* N.23
n un mondo dominato dalla tecnologia, l’architettura, le costruzioni sembrano faticare a trovare un’identità e giocare la partita su questo terreno. La tecnologia del digitale, cosi presente nella vita quotidiana, a livelli di sofisticazione altissimi, nel settore AEC (Architecture, Engineering and Construction) fatica a fare il suo ingresso, sia sul livello del processo, sia nelle modalità di produzione che di tecniche e materiali innovativi. Il Building Information Modeling rappresenta un primo passo di grande interesse e impatto che tuttavia riguarda più che altro la gestione delle informazioni, prima dell’innovazione vera e propria del comparto. Sembra inoltre esserci uno scollamento tra un settore che lentamente accetta processi e modelli organizzativi digitalizzati e le avanzate sperimentazioni di università, centri di ricerca e alcuni manifatturieri che sviluppano materiali e sistemi di elevatissima sofisticazione. Inebriate dai nuovi strumenti parametrici e dalla possibilità di studiare la materia sino alle sue componenti chimiche, le università più all’avanguardia stanno sviluppando innovazioni molto interessanti da un punto di vista della sperimentazione che apre tuttavia il quesito sulla possibile reale diffusione di queste innovazioni. La domanda posta all’inizio di questo breve saggio riguarda quindi come portare l’innovazione delle sperimentazioni di frontiera alla diffusione del costruire? Quale lo scenario a una generazione da oggi? Come immaginarsi il comparto? Come fare una previsione Per poter fare una previsione di come poter introdurre innovazione in un contesto variabile, dai tempi molto lunghi, come le costruzioni, è importante capire quali sono gli elementi che si possono utilizzare come supporto alla valutazione. Le previsioni nelle scienze economiche, lavorano su almeno due aspetti: - Previsioni basate su trend di mercato; - Idee dirompenti.
27
02. Progettazione computazionale di una struttura leggera temporanea ottimizzata strutturalmente. ACTLAB Dip. ABC Politecnico di Milano
Il tema dei trend in AEC è molto delicato. Spesso il settore viene associato a cicli economici, più o meno lunghi, legati ai volumi di costruzione, al valore delle compravendite e all’incremento di fatturato dei produttori. Il Cresme ogni anno individua le tecnologie che si stanno diffondendo con diversi gradi di pervasività dando un affresco puntuale della situazione e dei possibili sviluppi. Ciò dice tuttavia poco sul reale tasso di innovazione del settore. Il tema delle idee dirompenti o breakthrough ideas è di forte attualità in altri ambiti, perché sovente sovverte completamente le logiche di mercato e permette così di creare nuove applicazioni. Se già è difficile prevederle in settori con forti investimenti e con oggetti di uso dalla rapida obsolescenza ancora più difficile è farlo nelle costruzioni, pensando che qualche innovazione possa rivoluzionare il mercato. Come si misura quindi il tasso di innovazione in generale? Normalmente in statistica vengono impiegati algoritmi che permetto di tracciare la velocità di sostituzione dei prodotti, l’obsolescenza materica o tecnica o l’apertura di nuovi mercati.
Il trasferimento dell’innovazione: da sperimentazione elitaria a cultura diffusa La cultura del costruire è una cultura diffusa che si basa sull’archetipo della costruzione come luogo massivo e sicuro, sulle conoscenze della filiera di produzione e sui materiali già testati. Guido Nardi, in un saggio del 1998 suggeriva una distinzione tra “architettura monumentale” e “architettura diffusa”, ipotizzando che l’architettura monumentale fosse il frutto di metodi e tecniche elaborate in contesto culturale fecondo di cui poi l’architettura monumentale era l’espressione apicale. Oggi non sembra più essere così, la sperimentazione si sviluppa di norma in contesti privilegiati di opere con grandi fondi, emblematiche o con una propensione all’innovazione come le università, i centri di ricerca o i produttori di sistemi costruttivi industrializzati. Queste sperimentazioni, nate in contesti privilegiati, sembrano però faticare nel cosiddetto scale up, ossia nella fase di diffusione vera e propria, che richiede – come in altri settori – investimenti molto alti in termini di test, certificazioni, adeguamenti produttivi. Facciamo un esempio pratico molto attuale. La manifattura additiva (stampa 3D) ha espanso i suoi confini per diventare una tecnologia di possibile impiego non solo in settori avanzati come aeronautica e automotive ma anche nelle costruzioni con gradi di semplificazione abbastanza significativi. La possibilità di disegnare componenti e sistemi costruttivi on-demand gestendo la filiera dall’idea, alla verifica strutturale alla produzione attira molti progettisti, suggerendo che il controllo della parte produttiva possa in modo qualche modo informare il progetto. Tuttavia questa possibilità funziona bene in contesti scevri da vincoli delle responsabilità contrattuali e dalla cogenza normativa, che se da un lato sono un vincolo, sono anche la garanzia di possibile reale impiego.
l’innovazione nel settore AEC non passa né da trend né da breaktrough ideas ma piuttosto da un fecondo rapporto tra utenti, progettisti e manifattura avanzata Nel settore delle costruzioni il tasso di innovazione può riguardare: - la velocità di costruzione in modo da minimizzare il rischio in cantiere e massimizzare il ritorno dell’investimento; - l’efficienza delle capacità lavorative messe in cantiere; - tecnologie costruttive innovative e materiali performanti in termini di sistema complessivo e nel tempo. Tutti questi aspetti sembrano solo in parte affrontati oggi nel settore, vediamo di seguito perché.
28
INNOVAZIONE
03. Macchina a controllo numerico per la personalizzazione della produzione. Dip. Design Politecnico di Milano
04. Taglio di sistemi costruttivi in legno con CNC. ACTLAB Dip. ABC Politecnico di Milano
Pensando sempre alla stampa 3D i componenti da produrre hanno bisogno prima di tutto di essere simulati con norme strutturali che ne garantiscano la corretta simulazione. Spesso tuttavia i software di simulazione non possiedono materiali o distribuzione di materiale come ipotizzato dalla manifattura additiva, rendendo approssimativo, se non aleatorio, il risultato. Stesso problema per la messa in opera. Quale tipo di figura produce e vende sistemi costruttivi realizzati in questo modo e se ne assume quindi la responsabilità? Il main contractor che notoriamente minimizza i rischi, il facciatista o direttamente il cliente se “illuminato”? Questo piccolo esempio apre il dibattito alla importante contaminazione che deve esserci tra il territorio produttivo, normativo e manufatturiero e le sperimentazioni che oggi sono possibili grazie a strumenti di altissimi sofisticazione. Una proficua contaminazione che, a patto di qualche reciproco compromesso, può portare innovazioni di elevatissima sofisticazione alla diffusione nel settore. Sarebbe un peccato pensare che la possibilità di innovare abbia due estremi molto distanti (grandi sperimentazioni avulse dal territorio e sistemi produttivi poco innovativi) e un terreno in mezzo molto paludoso. Non mi pare interessante e fruttifero che l’innovazione passi attraverso prototipi molto sperimentali, sviluppati in università o centri di ricerca dove alcuni aspetti non vengono neanche presi in considerazione oppure passi attraverso il produttore di componenti o semilavorati, che però ha chiaramente vincoli produttivi e commerciali molto stringenti e innova in relazione al quadro della sua attività produttiva. Senza contare che rimane cruciale il tema dell’adeguamento normativo, che ha tempi decisamente dilatati rispetto alle esigenze di frontiera ma che spesso si è dimostrato un buon volano per far sedimentare sperimentazioni. Una previsione: una matericità digitale Ipotizziamo tuttavia uno scenario prossimo futuro a una generazione, ossia al 2040. In un contesto dove le tecnologie digitali pervadono e ci rendono paradossalmente più
05. Manifattura additiva di componenti innovativi. Laboratorio SAPERLab
OFFICINA* N.23
29
06. Sistema di involucro ottimizzato per il padiglione UAE a Expo2015. Foster&Partners
07. Pieghe realizzate con la stampa 3D. ACTLAB Dip. ABC Politecnico di Milano
con in contesto nel quale abitiamo. Si può definire una “matericità digitale” che consentirà una gestione del proprio ambiente “informata”, dove il tradizionale costruito fatto di materiali inerti potrà “comunicare” con l’utente dando informazioni su uso dello spazio, prestazioni tecniche e ambientali, cosi come manutenzione e ciclo di vita. Senza la mediazione dei tanti operatori che ruotano intorno al settore oggi e che spesso traggono un vantaggio economico dalla gestione dei dati l’utente potrà conoscere lo stato di vita del luogo dove lavora, abita o risiede in un dato momento. Una rivoluzione che lascerà molti scontenti, e che deve sovvertire logiche di grandi profitti basati sulla mancanza di conoscenze e comunicazione. Questa matericità digitale permetterà di introdurre anche materiali e sistemi costruttivi innovativi, che possono essere conosciuti e testati in luoghi diversi ma che vengono
una tecnologia collettiva permetterà di conoscere in senso materico i luoghi dove abitiamo statici (si compra online, si vedono i film a casa, si ordina cibo da asporto) il luogo dove abitiamo e passiamo del tempo diventerà sempre più importante. È possibile immaginare dunque, in un ipotetico futuro, che sia possibile sapere del luogo dove lavoriamo tutte le informazioni costruttive: dai materiali “etichettati” di cui conosciamo la provenienza, al modello digitale del proprio ambiente che permette di sapere come e quando sono state fatte e si faranno le manutenzioni, sino alla parte di architettura digitale. Viene spesso definita una prossima ventura capacità di smart living che permetta agli utenti di dialogare
30
INNOVAZIONE
installati con un track record che può fare riferimento a una conoscenza internazionale sviluppata anche in contesti diversi rispetto a quello applicativo. Sapere se il proprio serramento viene dal proprio territorio o è importato dalla Cina e anche con che materiale è fatto, dove è stato testato, quale eventuale prestazione innovativa ha incorporata, porterà a una collettivizzazione della tecnologia. Una tecnologia collettiva “informata” che potrà inoltre reagire in modo veloce alle necessità dell’utente, per esempio con superfici che si adattano alle condizioni ambientali, cosi come alle esigenze specifiche. L’idea è che avvenga un processo di smaterializzazione. Così come molte tecnologie sperimentali diffondendosi in maniera pervasiva, diventano poi “trasparenti’ - pensiamo all’elettricità e al digitale ora – le tecnologie costruttive, non ostentate in nome di un virtuosismo, possono diventare parte del settore senza doverle riferire allo smart construction. In questo prossimo futuro, il ruolo dell’architetto riveste dunque un ruolo cruciale nell’interpretare nel progetto dello spazio le nuove istanze degli utenti insieme all’enorme portata del digitale materico. Un ruolo di “connessione” che permette di interpretare le esigenze incrementando la trasparenza e accessibilità delle informazioni così come la qualità del costruito. Difficile infine pensare anche alla formazione universitaria per un contesto del genere: oggi i neolaureati non hanno più role model di riferimento. Se un tempo alcuni “maestri” rappresentavano l’incarnazione di un sapere legato a creatività ed esperienza, da tramandare in parte copiando in parte interpretando, oggi non ci sono figure sufficientemente vicine al contesto contemporaneo da fungere da riferimento per i ragazzi in procinto di entrare nel mercato del lavoro. Per questo motivo il costante aggiornamento che il digitale porta con sé insieme all’interpretazione rispetto alle mutevoli esigenze percettive dell’utenza, potranno essere la leva per una nuova cultura materica, tecnologica e industriale che permetta quel salto di qualità in termini di innovazioni nel settore, che sembra spesso ancora troppo lontana.*
OFFICINA* N.23
08. Sistema di schermature del Louvres Abu Dhabi. Atelier Jean Nouvel BIBLIOGRAFIA - Caffo L., Muzzonigro A., “Costruire Futuri”, Bompiani, 2018. - Giedon S., “Breviario di Architettura”, traduzione a cura di Carlo Olmo, Bollati Boringhieri, 2008. - Naboni R., Paoletti I., “Advanced Customization in Architectural Design and Construction”, Springer, 2015. - Nardi G., “Il Contesto del Progetto”, Franco Angeli, 1998. - Preston C.J, “The Synthetic Age”, Mit Press, 2018. - World Economic Forum, “Shaping the Future of Construction. A Breakthroughin Mindset and Technology”, 2016.
31
Andrea Brunelli Ricercatore post-dottorato presso l’Università di Vienna, Austria. andreabrunelli9@gmail.com
Nanotecnologie: opportunità e sfide
01. Dettaglio dei polpastrelli del geco che aderiscono ad una superficie totalmente liscia. CCO
32
INNOVAZIONE
ormai parte del quotidiano, sono ancora incerti i potenziali rischi per la salute umana e per l’ambiente Le nanotecnologie (NT) comprendono gli oggetti su scala nanometrica (10-9 - 10-7 m) che presentano nuove proprietà rispetto agli stessi materiali di dimensioni maggiori o migliorano l’efficacia dei materiali che li incorporano. I materiali nanodimensionali sono utilizzati in numerose applicazioni (ad es. apparati elettronici, dispositivi medici, cosmetici), ma la conoscenza dei loro potenziali rischi è ancora parziale. In questo lavoro vengono presentate alcune opportunità e sfide legate alle NT.* Nanotechnologies (NT) deal with objects at the nanoscale (10−9 - 10−7 m), which exhibit new properties compared to the corresponding bulk materials or improve the effectiveness of the materials that incorporate them. Nano-dimensional materials are used in many applications (e.g. electronic and medical devices, cosmetics), but with poor knowledge of their potential risks. Based on these considerations, opportunities along with challenges exploiting NT are here presented and discussed.*
OFFICINA* N.23
a manipolazione di materiali su scala nanometrica (10-9 - 10-7 metri), denominata nanotecnologia (NT), è considerata tra le più interessanti innovazioni della seconda metà del XX secolo. Assieme a micro-elettronica, biotecnologia industriale, materiali avanzati (che introducono nuove funzionalità e/o migliorano proprietà aggiungendo valore ai prodotti e ai processi esistenti), fotonica e tecnologie di produzione avanzate (e.g. automazione, robotica), la NT appartiene alle cosiddette Key Enabling Technologies (KET), identificate dalla UE come fondamentali per lo sviluppo industriale ed economico attuale e futuro. È consuetudine considerare la nascita della NT in concomitanza con l’invenzione del microscopio a forza atomica (1986), che ha permesso l’osservazione e modificazione dei materiali a livello nanodimensionale. Si è così osservato che i polpastrelli del geco (img. 01), ad esempio, sono ricoperti da milioni di peli nanodimensionali, necessari ad aderire su qualsiasi superficie. Indipendentemente dalla loro sorgente, naturale (e.g. aerosol marino, attività vulcanica) o antropica (e.g. traffico veicolare o industrie), i nanomateriali sono stati definiti dalla Commissione Europea come “qualsiasi materiale naturale, derivato o fabbricato contenente particelle allo stato libero, aggregato o agglomerato, e in cui, per almeno il 50% delle particelle nella distribuzione dimensionale numerica, una o più dimensioni esterne siano comprese fra 1 e 100 nm [...]” (Commission Recommendation, 2011). Tra le NT, i nanomateriali prodotti intenzionalmente dall’uomo sono definiti ingegnerizzati (ENM), con almeno una dimensione in scala nanometrica. Per farsi un’idea della diffusione degli ENM si può far riferimento al Nanotechnology Consumer Products Inventory, istituito nel 2005, che annovera più di 1600 prodotti commerciali contenenti ENM. Tali materiali rivestono quindi un notevole ruolo economico: una ricerca della Research and Markets society nel 2018 ha stimato che il mercato globale delle NT raggiungerà ca. 75 miliardi di Euro entro il 2021. I principali campi di applicazione includono l’information technology (IT), la medicina, i trasporti e l’energia, l’agricoltura e l’alimentazione, oltre che i cosmetici.
33
02. Immunoterapia basata su un vaccino grazie a nuovi sistemi nanoparticellari. Questa immagine al microscopio elettronico a scansione mostra cellule dendritiche, in verde, che interagiscono con i linfociti T, in rosa. Le cellule dendritiche interiorizzano le particelle, processano gli antigeni e presentano i peptidi ai linfociti T per dirigere le risposte immunitarie. Victor Segura Ibarra e Rita Serda, National Cancer Institute, USA
Per quanto riguarda il settore IT, gli ENM hanno apportato numerosi vantaggi: migliori prestazioni (monitor ad alta definizione), sistemi più veloci (la Magnetic Random Access Memory nei computer), più piccoli (trasformatori dei PC o memoria flash dei telefoni cellulari) e portatili, in grado di archiviare quantità sempre maggiori di informazioni occupando il minor spazio possibile. L’introduzione degli ENM in campo medico ha consentito di sviluppare materiali e/o applicazioni per la prevenzione, diagnosi e trattamento di diverse malattie. Alcune delle maggiori innovazioni in nanomedicina riguardano l’utilizzo di ENM come: I) sonde per l’individuazione di sequenze target di acidi nucleici; II) strumenti per diagnosi preliminare per aumentare il tasso di successo terapeutico di una cura; III) drug delivery (img. 02 e 03) per determinate cellule cancerogene, riducendo il rischio di danneggiare il tessuto sano; IV) tessuto rigenerativo del corpo umano. Per quanto riguarda il campo dei trasporti e dell’energia, tra gli ENM più sfruttati fanno parte i nanotubi di carbonio (CNT) (img. 04), una delle forme allotropiche del carbonio scoperte a partire dal 19521. Essi risultano simili alla grafite ma con struttura ordinata cilindrica, che li
aumentare il tasso di conversione da luce solare ad elettricità dei pannelli solari. Infine, gli ENM hanno trovato spazio anche nel settore agricolo e alimentare, come additivi a prodotti quali fertilizzanti, pesticidi, biocidi, medicinali veterinari, sensori per l’etichettatura alimentare, utilizzati nelle membrane di filtrazione per il trattamento delle acque, in mangimi animali, nel monitoraggio di nutrienti del suolo, per il trasporto di DNA nelle cellule delle piante (Rodrigues et al., 2017). Estrema diffusione ma elevata incertezza nella valutazione del rischio Ma come mai assistiamo ad una così estesa e capillare diffusione delle NT? La ragione principale risiede nella variazione delle proprietà chimico-fisiche che si osservano passando da un materiale bulk, cioè un insieme di particelle solide non nanodimensionali, al corrispondente materiale nano (Roduner, 2006). Ad esempio, le nanoparticelle d’oro risultano di colore rosso e non più giallo, una variazione evidente della comune proprietà fisica dell’oro che è dovuta alla maggiore capacità di assorbire la luce dell’ENM rispetto al bulk. Se da un lato gli ENM rappresentano un elemento di novità grazie alle nuove proprietà o alla loro capacità di migliorare quelle già esistenti del bulk o del materiale che li incorporano, dall’altro destano preoccupazioni in merito ai loro potenziali rischi per la salute umana e per l’ambiente. Alla luce delle differenze intrinseche degli ENM rispetto ai corrispettivi materiali bulk è comunemente accettato il fatto che i paradigmi utilizzati per la caratterizzazione del rischio dei composti convenzionali non siano completamente mutuabili agli ENM. Ad esempio, la solubilità o degradazione di un composto bulk sono sostituiti da processi quali la dissoluzione, l’agglomerazione o la trasformazione della superficie degli ENM, in parte studiati dalla chimica colloidale, ma da approfondire caso per caso a causa delle peculiarità e varietà degli ENM. Da qui deriva un’elevata complessità per valuta-
la nanotecnologia si basa sulla conoscenza delle proprietà della materia su scala nanometrica rende di almeno un ordine di grandezza più resistenti alla tensione di rottura rispetto a qualsiasi altra fibra industriale, favorendone l’utilizzo ad esempio nell’industria automobilistica. Inoltre, i CNT presentano eccellenti capacità sia termiche che elettriche (img. 05), rendendoli adatti allo stoccaggio di energia (nelle batterie al litio di computer e telefoni cellulari), oppure come materiali di rivestimento, limitando la proliferazione di organismi sulla superficie delle imbarcazioni, ed ancora nel campo delle biotecnologie come biosensori2. A livello energetico, oltre ai CNT, ENM a base di silicio vengono utilizzati per
34
INNOVAZIONE
03. Prototipo per un vaccino contro l’influenza universale. La nanoparticella è stata progettata da Jeffrey Boyington del Centro di Ricerca sui Vaccini (VRC), dimostrando di essere un immunogeno efficace nei topi e nei furetti. La struttura tridimensionale della particella è stata determinata dalla microscopia crio-elettronica di John Gallagher e Audray Harris (Laboratorio delle malattie infettive). National Institute of Allergy and Infectious Diseases, USA
OFFICINA* N.23
35
04. Formazione di nanotubi di carbonio in ragnatele macroscopiche tramite microscopio elettronico a scansione. La larghezza della struttura ad albero sulla destra è di circa 700 nm e i più piccoli fasci visibili sono larghi circa 25 nm. Christian Hoecker, CCO
re il rischio degli ENM, solo parzialmente risolta da approcci modellistici, i quali si basano sia sulla quantità che qualità dei dati sperimentali, che spesso non soddisfano appieno i requisiti dei modelli stessi. Oggigiorno, quindi, a dispetto dei numerosi sforzi per fare chiarezza sul grado di sicurezza lungo l’intero ciclo di vita (i.e. dalla produzione allo smaltimento) di un ENM o di un materiale che ne contiene, regna ancora incertezza. Dalla letteratura in merito si traggono giudizi contrastanti. Da un lato alcuni studi attestano un aumento della probabilità da parte degli ENM rispetto ai corrispettivi materiali bulk di indurre effetti avversi per l’uomo e l’ambiente, poiché in grado di penetrare la membrana cellulare degli organismi viventi grazie alla loro nanodimensione e/o superficie altamente reattiva; dall’altro lato non è ancora stato dimostrato che tutti gli ENM siano più tossici dei corrispettivi bulk oppure che la dimensione o l’area superficiale degli ENM siano gli indici critici che influenzano la loro tossicità (Warheit, 2010).
In risposta all’incertezza nella valutazione dei rischi degli ENM, l’UE si avvale di diversi strumenti per garantire lo sviluppo e l’uso sicuro delle sostanze chimiche, con specifiche sezioni ad hoc per gli ENM incluse di recente (Rauscher et al., 2017). Tra questi strumenti spiccano il regolamento sulla registrazione, valutazione, autorizzazione e restrizione delle sostanze chimiche (REACH), con il quale è stata istituita l’agenzia europea per le sostanze chimiche (ECHA) nel 2007, nonché il regolamento n° 1272/2008 sulla classificazione, etichettatura e imballaggio di sostanze e miscele (CLP), quello sui cosmetici n° 1223/2009, quello sui biocidi n° 528/2012 o il n° 2283/2015 relativo ai nuovi alimenti autorizzati. Oltre ai suddetti regolamenti, si segnala il Comitato Scientifico sui Rischi Sanitari Emergenti e Recentemente Identificati (SCENIHR), cioè una commissione scientifica indipendente che fornisce consulenza scientifica sui potenziali rischi relativi ai prodotti di largo consumo. Inoltre, dal punto di vista politico-finanziario, a partire dal VI° programma quadro di
36
INNOVAZIONE
la sfida è la valutazione del loro potenziale rischio per la salute umana e per l’ambiente
05. Nanotubi di carbonio rivestiti con polimero conduttivo di polipirrolo utilizzati come elettrodi per dispositivi energetici. Pacific Northwest National Laboratory
ricerca e sviluppo (2002-2006) fino all’attuale Horizon 2020, l’UE ha sovvenzionato numerosi progetti di ricerca e sviluppo per incrementare la conoscenza riguardo all’uso sicuro degli ENM e dei prodotti che li contengono. A causa del crescente utilizzo di ENM in prodotti commerciali di largo consumo, qui di seguito si riporta un breve approfondimento sulla sicurezza delle creme solari a base nano. Sicurezza delle creme solari contenenti nanomateriali L’utilizzo del biossido di titanio (TiO2) o ossido di zinco (ZnO) nelle creme solari come filtri inorganici delle radiazioni UVA (320-400 nm) e UVB (290-320 nm) è ormai diffuso da decenni. Tuttavia, il fatto che queste particelle risultassero visibili sulla pelle formando un layer opaco ha spinto alla diffusione delle corrispettive nanoparticelle ingegnerizzate (ENP)3. La Therapeutic Goods Administration, ente normativo per i prodotti terapeutici in Australia, in una review del 2017 sottolinea che la stragrande maggioranza degli studi scientifici per valutare il rischio delle ENP per la salute umana ha evidenziato una penetrazione delle ENP attraverso la pelle solo superficiale, non in grado di raggiungere le cellule del derma. Tale ente conclude suggerendo che un assorbimento sistematico sia improbabile. Sebbene gli autori dichiarino che da un lato questi risultati evidenzino la scarsa o nulla probabilità che le ENP causino un pericolo quando usate come ingredienti nelle creme solari, tuttavia essi non escludono un potenziale rischio del loro uso a lungo termine, data la scarsità delle informazioni a riguardo. Oltre all’esposizione diretta delle ENP, andrebbero considerate, tra le altre, anche l’esposizione indiretta, a causa del rilascio delle ENP in ambiente durante e dopo l’utilizzo e l’esposizione di altri composti che rivestono le ENP (e.g. idrossido di alluminio, Al(OH)3 attorno alle ENP di TiO2). Questo esempio evidenzia che la conoscenza sistematica delle NT è ancora troppo poco consolidata per poter fornire una valutazione conclusiva assoluta dei rischi delle NT e delle loro applicazioni, suggerendo quindi di adottare una politica cautelativa, secondo il principio di precauzione.*
OFFICINA* N.23
NOTE 1 –Allotropia è la proprietà di alcuni elementi chimici di possedere una diversa disposizione spaziale dei medesimi atomi nel solido, formando una differente struttura cristallina. Un esempio comune è rappresentato dal carbonio, principalmente presente in natura come grafite o diamante. La struttura della grafite è costituita da un atomo di carbonio legato ad altri tre mentre nel diamante un atomo di carbonio è legato ad altri quattro medesimi atomi disposti ai vertici di un tetraedro. Da questa diversa struttura derivano poi le diverse proprietà: la grafite è nera, opaca, tenera, meno dura del talco, e conduce la corrente; al contrario il diamante risulta trasparente, limpido, duro ed è un isolante elettrico. 2 – Un biosensore è un dispositivo comprendente un elemento sensibile di origine biologica, collegato (se non direttamente integrato) a un elemento trasduttore, che è un sistema di rivelazione. Lo scopo è di utilizzare l’alta selettività dei mediatori biologici per propositi analitici per diverse applicazioni al fine di ridurre le tempistiche delle tecniche analitiche tradizionali o di eseguire analisi in loco e in tempo reale. 3 – Per nanoparticelle si intendono particelle con tutte le 3 dimensioni nel range nanodimensionale. BIBLIOGRAFIA - Commission Recommendation of 18 October 2011 on the definition of nanomaterial, Official Journal of the European Union, 2011/696/EU, pp. 38-40. - Rauscher H., Rasmussen K., Sokull-Klüttgen B., “Regulatory aspects of nanomaterials in the EU” in “Chemie Ingenieur Technik”, WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim, 2017, 89, n° 3, pp. 224-231. - Rodrigues et al., “Nanotechnology for sustainable food production: promising opportunities and scientific challenges”, Environmental Science: Nano, 2017, 4, p. 767. - Roduner E., “Size matters: why nanomaterials are different” in Chemical Society Reviews”, 2006, n. 35, pp. 583-592. - Warheit D., “Debunking Some Misconceptions about Nanotoxicology “, Nano Letter, 2010, n. 10, pp. 4777-4782.
37
Andrea Alberto Forchino Assegnista di ricerca, Università Ca’ Foscari Venezia, Dipartimento di Scienze Ambientali, Informatica e Statistica. andrea.forchino@unive.it
Elio Cannarsa Assegnista di ricerca, Università Ca’ Foscari Venezia, Dipartimento di Scienze Ambientali, Informatica e Statistica. elio.cannarsa@live.it
Daniele Brigolin Assegnista di ricerca, Università Ca’ Foscari Venezia, Dipartimento di Scienze Ambientali, Informatica e Statistica. brigo@unive.it
Produzioni integrate, economia circolare e simbiosi industriale: l’acquaponica
01. Colture idroponiche. CC0
38
INNOVAZIONE
la tecnica di produzione che integra acquacoltura e idroponica: quali opportunità e sfide tecnologiche per il suo futuro sviluppo? L’acquaponica può essere definita come l’integrazione tra la coltivazione di ortaggi in idroponica e l’acquacoltura a ricircolo. Recentemente, questa pratica ha ricevuto considerevole attenzione in quanto forma di acquacoltura sostenibile per produrre alimenti destinati al consumo in aree urbane e peri-urbane, minimizzando il consumo d’acqua. Presentiamo in questo saggio una sintetica introduzione a questa tecnologia, per poi discutere alcune linee di ricerca attualmente in corso in questo campo.* Aquaponics can be defined as the integration of hydroponic vegetable cultivation into a recirculating fish aquaculture system. Recently, this practice has received considerable attention as a form of aquaculture suitable to produce marketable crops in urban or peri-urban context, minimizing the water consumption. Here we present a synthetic introduction on this technology and discuss lines of ongoing research in the field. *
OFFICINA* N.23
acquaponica può essere definita come l’unione tra l’acquacoltura1 e la coltivazione idroponica2, pratica nella quale le piante vengono coltivate in assenza di terreno e con il solo impiego di acqua arricchita di tutte le sostanze nutritive di cui i vegetali necessitano (Rakocy et al., 1989). Nel caso dell’acquaponica, i nutrienti fondamentali per la crescita delle piante vengono forniti dall’allevamento del pesce di cui queste sostanze costituiscono i principali prodotti di scarto. In questo sistema, elementi come l’azoto e il fosforo, derivanti sia dall’escrezione e dalle deiezioni dei pesci che dalla decomposizione del mangime non ingerito, possono venire assorbiti dalle radici delle piante in coltura che si trovano direttamente immerse nell’acqua. I flussi di materia che caratterizzano un sistema acquaponico sono schematizzati nell’immagine 02 (Goddek et al., 2015 modificato). In accordo con Lehman et al. (1993), l’acquaponica può essere intesa come un’attività produttiva agricola sostenibile, nella quale i cicli dei principali macronutrienti vengono chiusi grazie all’integrazione di due sistemi produttivi, l’acquacoltura e la coltivazione idroponica. Per questo motivo ci si riferisce all’acquaponica anche come sistema simbiotico (Francis et al., 2003). Rispetto alle tecniche di agricoltura tradizionali, l’acquaponica presenta diversi vantaggi, tra cui: - risparmio idrico: si utilizza circa il 90% di acqua in meno rispetto a quella utilizzata nell’agricoltura tradizionale; - limitato uso del suolo: in poco spazio si riescono ad avere coltivazioni di piante a densità molto elevate; - nessun fertilizzante: i nutrienti per le piante vengono forniti dall’allevamento del pesce, mentre solo piccole quantità di microelementi (come ad esempio calcio, potassio e ferro) vengono aggiunte al sistema quando queste non sono direttamente compensate dalla composizione stessa dei mangimi; - nessun utilizzo di pesticidi e fitofarmaci: l’acquaponica non ne prevede l’utilizzo, in quanto l’inserimento in circolo di fitofarmaci potrebbe compromettere la salu-
39
b io m as s a
m a n gi
m
p es ci
pia nt e
m ila
zi o
ne
ep
rod
uz
io n
ed
ib
io m
as
e
sa
assi
fe c
ti
b a t t e ri
a zo
to am
ni
tra
i
m o n i a c al e
e azion nitrific
02. Schema dei flussi di materia caratteristici di un sistema di acquaponica (Goddek et al., 2015). Rielaborazione Stefania Mangini
te e di conseguenza la qualità del pesce allevato, mentre l’introduzione di antibiotici per la cura degli stock di pesce andrebbe a compromettere la componente batterica del ciclo; - possibilità di sfruttare spazi non convenzionalmente vocati alla pratica agricolturale: luoghi dove sarebbe impensabile operare con le tecniche agricole tradizionali (per esempio per mancanza di acqua) possono essere invece sfruttati per l’installazione di sistemi di acquaponica. I numerosi vantaggi elencati devono essere presi in considerazione in relazione ai cambiamenti climatici, demografici e ambientali che caratterizzeranno il pianeta nei
ban et al., 2012; Klinger et al., 2012). In questo scenario appare quindi evidente l’interesse per tecnologie produttive integrate, come quella acquaponica. In questi ultimi anni, Stati Uniti, Inghilterra, Olanda, Australia, Nuova Zelanda e molti paesi del sudest asiatico, hanno sviluppato importanti impianti produttivi e le pratiche acquaponiche stanno attirando l’interesse di università e aziende di tutto il mondo. Per contro, in Italia sono stati finora realizzati solamente alcuni piccoli impianti sperimentali, anche se è ragionevole pensare che nel prossimo futuro, importanti investimenti verranno fatti in questo campo. Tipologie di sistemi acquaponici Seppur a livello ingegneristico le soluzioni adottabili siano molteplici, si possono distinguere tre principali metodi di coltura: 1) Media Filled Beds: questa tecnica prevede l’utilizzo di letti di coltura colmati interamente con materiale inerte (argilla espansa, ghiaia, perlite, ecc.) che forniscono sostegno per le radici delle piante coltivate. Questi substrati, oltre a dare supporto alle piante, costituiscono anche un importante superficie sulla quale si sviluppano le colonie di batteri nitrificatori, necessari per la conversione dell’ammoniaca in nitrati, permettendo allo stesso tempo di fornire un ricircolo dell’aria necessario a un adeguato livello di ossigeno negli apparati radicali delle piante (img. 03). 2) Deep Water Colture: non viene utilizzato alcun materiale inerte, se non piccole quantità in vasetti usati come sostegno per le piante e inseriti su di una superficie flottante, spesso costituita da lamine di polistirolo. Le piante galleggiano sulla superficie dell’acqua dal letto di coltura e le radici sono immerse direttamente nell’acqua (img. 04). Risulta essere il metodo più utilizzato su larga scala ed è conosciuto anche come raft method o floating system.
l’acquaponica è una combinazione tra acquacoltura e tecniche di coltivazione idroponiche, diverse tecniche con un unico denominatore comune: la sostenibilità prossimi decenni. La popolazione mondiale, ora superiore a 7,2 miliardi, continuerà a crescere rapidamente nei prossimi anni ed è previsto raggiungerà i 9,6 miliardi entro il 2050 (Rapporto sullo Sviluppo Umano delle Nazioni Unite, 2013). L’aumento della popolazione comporterà un aumento della richiesta di cibo, soprattutto di proteine animali (Alexandratos et al., 2012). Per venire incontro a questa esigenza, l’agricoltura convenzionale, così come l’allevamento, dovrà affrontare diverse difficoltà che vanno dalle fluttuazioni dei costi energetici e del petrolio, ai cambiamenti climatici e all’inquinamento (Goddek et al., 2015). Le limitate risorse, la diminuzione delle terre coltivabili, la limitata disponibilità di acqua dolce, l’impoverimento in nutrienti del suolo, costituiscono ulteriori problematiche da affrontare (Bindra-
40
INNOVAZIONE
03. Esempio di Media Filled Bed. Elio Cannarsa
3) Nutrient Film Technique: le piante vengono coltivate in canalette, grondaie e strutture affini a volte costruite in PVC. Piccoli vasetti contenenti perlite o argilla espansa vengono utilizzati come supporto per le piante, le cui radici sono a diretto contatto con un flebile ma continuo flusso d’acqua che permette l’approvvigionamento di nutrienti e ossigeno (img. 05). Modelli a supporto di sviluppo e gestione dei sistemi di acquaponica Uno degli aspetti tecnologici che può agevolare il lavoro di design e successiva gestione di un impianto è la sua rappresentazione attraverso modelli, sia concettuali che matematici. Tali strumenti vengono utilizzati per valutare la sostenibilità delle diverse scelte a livello progettuale, utilizzando indicatori di sostenibilità sia ambientale che economica, attraverso l’analisi del ciclo di vita (LCA). I modelli, mediante la rappresentazione dei bilanci di massa e delle trasformazioni biogeochimiche che avvengono all’interno del sistema, rappresentano inoltre un utile strumento di supporto alla gestione operativa (controllo, monitoraggio, early warning). Qui di seguito sono riassunte le due esperienze più importanti nelle quali gli autori di questo breve saggio sono al momento coinvolti, relativamente agli aspetti di ricerca appena citati.
04. Esempio di Deep Water Culture. Andrea Alberto Forchino
Caso studio 1: Acquaponica per l’allevamento di specie di interesse conservazionistico nell’Oasi WWF di Valle Averto (Campagna Lupia, Venezia) L’impianto di acquaponica realizzato dall’Università Ca’ Foscari di Venezia all’interno dell’Oasi WWF di Valle Averto è stato concepito per essere un sistema pilota di piccole dimensioni, punto di partenza per un successivo potenziamento. Il sistema ha come finalità principale la produzione di pesci e piante da utilizzare a fini di ripopolamento (img. 07 e 08). Le principali tappe di questo progetto sono state fino ad ora: 05. Esempio di Nutrient Film Technque. CC0
OFFICINA* N.23
41
06. Policoltura in sistema del tipo Media Filled Bed. Elio Cannarsa
due progetti sperimentali made in Ca’ Foscari per promuovere e sviluppare l’acquaponica in Italia
07. L’impianto di acquaponica dell’oasi WWF di Valle Averto (VE). Daniele Brigolin
- progettazione, attraverso uno studio di LCA, e realizzazione di un impianto pilota di acquaponica; - valutazione del funzionamento del sistema in relazione all’allevamento di giovanili Tinca tinca nel periodo compreso tra aprile e agosto 2017, e successivamente a partire dallo scorso maggio 2018 (sperimentazione in corso); - valutazione e confronto di due diverse tecniche di coltura: Media Filled Bed vs Deep Water Colture; - monitoraggio dei principali parametri biologici, fisici e chimici, caratterizzazione dei bilanci di massa del sistema e conseguente ottimizzazione delle pratiche di gestione dell’impianto; - valutazione della produttività del sistema in relazione alla stagionalità. Poiché all’interno dell’Oasi WWF di Valle Averto vengono svolte attività di educazione ambientale, l’impianto è concepito in modo da garantire la sua fruizione anche dal punto di vista didattico. Caso studio 2: Bluegrass - promuovere lo sviluppo di un agroalimentare verde mediante l’introduzione dell’acquaponica Bluegrass mira a promuovere, mediante l’introduzione dell’acquaponica, lo sviluppo nell’area del programma di cooperazione transfrontaliera Interreg V-A, tra Italia e Slovenia, di tecnologie di produzione
42
INNOVAZIONE
08. Fragola in sistema del tipo Deep Water Culture, particolare. Elio Cannarsa
verdi ed innovative, basate su principi di economia circolare e simbiosi industriale. Il progetto ha i seguenti obbiettivi specifici: 1) valutare interesse e bisogni territoriali di prodotti da acquaponica attraverso un’analisi di mercato; 2) testare il funzionamento di due impianti pilota; 3) coinvolgere agricoltori, allevatori e ricercatori; 4) aumentare la consapevolezza del consumatore realizzando attività didattiche e dimostrative. Il progetto, iniziato nell’ottobre 2017 ha una durata prevista di 30 mesi. Nel primo semestre di lavoro il team di Bluegrass ha realizzato un’analisi di mercato sui prodotti da acquaponica, consultando circa 300 consumatori e produttori in Italia e Slovenia. In parallelo, è stata avviata, ed è in fase conclusiva, la costruzione dei due gruppi di lavoro in acquaponica, che si incontreranno per discutere i risultati dell’analisi di mercato e fornire raccomandazioni per l’implementazione dei due sistemi pilota, in fase di realizzazione presso le aziende Agroittica Friulana (Pordenone) e KZ-Agraria (Koper). Una volta realizzati i sistemi, questi saranno utilizzati per realizzare dei trials di allevamento mirati a parametrizzare e validare un modello dinamico di funzionamento dell’impianto. Parallelamente, uno studio di Life Cycle Assessment e Life Cycle Costing verrà condotto per confrontare realizzazione e funzionamento degli impianti nelle due aree di studio.*
OFFICINA* N.23
NOTE 1 – Acquacoltura. L’acquacoltura consiste nella produzione controllata di pesci, crostacei e molluschi in vasche, stagni, porzioni di laghi o fiumi, tratti di mare etc., ai fini di consumo, ripopolamento e ornamento. Nell’acquacoltura intensiva, la densità di allevamento delle diverse specie ittiche viene incrementata oltre la naturale produttività del bacino, integrando artificialmente la nutrizione mediante somministrazione di alimenti naturali (pesce o cereali) o di mangimi formulati. 2 – Idroponica. Con il termine idroponica, o idrocoltura, ci si riferisce a una pratica agricolturale in cui il terreno è sostituito da un substrato inerte (per es. lana di roccia, argilla espansa, perlite, fibra di cocco, vermiculite zeolite). La pianta viene irrigata con una soluzione nutritiva composta da acqua e da composti (per lo più inorganici) necessari ad apportare tutti gli elementi (macro e micro) indispensabili alla normale nutrizione minerale. BIBLIOGRAFIA - Alexandratos N., Bruinsma J., “World Agriculture Towards 2030/2050: The 2012 Revision”, FAO, Agricultural Development Economics Division, Rome, Italy, 2012. - Bindraban P.S., Van Der Velde M., Ye L., Van Den Berg M., Materechera S., Kiba D.I., Tamene L., Ragnarsdottir K.V., Jongschaap R., Hoogmoed M., “Assessing the impact of soil degradation on food production”, Curr. Opin. Environ. Sustain. 4, 2012, pp. 478-488. - Francis C., Lieblein G., Gliessman S., Breland T.A., Creamer N., Harwood R., Salomonsson L., Helenius J., Rickerl D., Salvador R., “Agroecology: The ecology of food systems”, J. Sustain. Agric. 22, 2003, pp. 99-118. - Goddek S., Delaide B., Mankasingh U., Ragnarsdottir K. V., Jijakli H., Thorarinsdottir R., “Challenges of sustainable and commercial aquaponics”, Sustainability 7, 2015, pp. 4199-4224. - Klinger D., Naylor R., “Searching for Solutions in Aquaculture: Charting a Sustainable” Course. Annu. Rev. Environ. Resour. 37, 2012, pp. 247–276. - Lehman H., Clark L. A., Weise S. F, “Clarifying the definition of sustainable agriculture”, J. Agric. Environ. Ethics 6, 1993, pp. 127-143. - Rakocy J.E.,”Island Perspectives”, Virgin Islands agricultural Experiment Station, Saint Croix, VI, USA, 1989, pp. 5-10.
43
95,0%
7,1 GB
Reti
mln 4,7
2,4 GB
7
mln
85%
67,0%
15
50,7
n ml
a cura di Emilio Antoniol e Stefania Mangini fonte: www.wearesocial.com
3 2 9 ,3
Da sempre l’umanità costruisce reti. Siano esse commerciali o culturali l’interazione tra i popoli è un’esigenza di fondamentale importanza per lo sviluppo umano. Nell’era dell’innovazione tecnologica la rete per eccellenza è Internet, un sistema ad accesso pubblico in cui è possibile connettersi per scambiare informazioni. Oggi Internet è la seconda rete più estesa a livello mondiale, superata (ancora per poco) solo dalla rete telefonica. Ma la sua storia è recente e il suo sviluppo è ancora in divenire. Nata nel 1969 col nome di ARPANET, la prima rete collegava solo quattro Università americane, ma in pochi anni varca i confini oceanici stabilendo connessioni con l’Inghilterra, la Norvegia e l’Italia, terzo stato europeo che nel 1986 si unisce a Internet grazie ad un gruppo di ricerca dell’Università di Pisa. Nel 1991 presso il CERN di Ginevra, Tim Berners-Lee definisce il protocollo http, aprendo il primo sito web e dando così avvio all’era delle reti digitali. Da allora i passi avanti sono stati enormi. Oggi parliamo già di Internet delle cose (Internet of things) in cui Internet viene esteso agli oggetti rendendo a tutti gli effetti il mondo interconnesso in ogni sua parte, ma sono già in fase di prototipazione sistemi di interfacce per la realtà virtuale volti a trasformare internet in un’esperienza immersiva in cui noi “saremo la rete”.
POSSESSORI DI UN DISPOSITIVO
39,
mln 21 66%
UTENTI CON ACCESSO AD INTERNET
31 m
ln
51%
UTENTI ATTIVI SUI SOCIAL NETWORK
fonte: Digital in 2017 Italy, 2017
CINA
USA
GIAPPONE
206
124
36
INGHILTERRA
22
ITALIA
44
INFONDO
1 46
85,2%
4,7
316 mln
m ln
2,9 GB
3,95 GB
48,1%
35,2%
68,2%
222 ml
n 2,0 GB
n ml
2,7 GB
113, 3 NUMERO DI SMARTPHONE PER CONTINENTE fonte: Newzoo Global Mobile Market Report 2017
PENETRAZIONE DI INTERNET NEL CONTINENTE IN RAPPORTO ALLA POPOLAZIONE RESIDENTE fonte: Digital in 2018 Global Overview, 2018
GERMANIA
FRANCIA
OLANDA
21
18
8
COREA DEL SUD
7
IRLANDA
7
MEDIA MENSILE DEI GB DATI USATI CON UN DISPOSITIVO MOBILE fonte: Internet World Stats, 2017
CANADA
6
ITALIA
5 NUMERO DI SUPERCOMPUTER PER STATO fonte: www.top500.org
OFFICINA* N.23
45
Industry 4.0: Robotica e Automazione industriale
Filippo Ronchini CEO Ronchini Massimo info@ronchinimassimo.com
n un mercato sempre più orientato all’automazione e ai nuovi standard della rivoluzione industriale 4.0, la Ronchini Massimo ha deciso di portare i propri prodotti a un livello superiore, implementando soluzioni robotizzate all’avanguardia. Adattando la conoscenza ventennale nel campo delle macchine utensili alla robotica industriale, l’azienda ha integrato ai propri macchinari soluzioni di fresatura robotizzate altamente performanti; è inoltre in grado di fornire a ogni cliente integrazioni robotizzate customizzate in base all’esigenza produttiva richiesta sul momento. Grazie a questo grande passo evolutivo, la Ronchini Massimo Srl entra a far parte quindi degli integratori ufficiali della casa madre tedesca Kuka, diventando System Partner Integrator. Questa collaborazione ormai pluriennale con Kuka Robotics permette di garantire al Cliente finale soluzioni robotizzate all’ avanguardia, pronte per tutte le nuove sfide dell’industria 4.0. La sezione robotica dell’azienda, RM-Robotics integra e adatta robot antropomorfi di diverse forme e prestazioni, fornendo soluzioni industriali avanzate e personalizzate e creando un perfetto equilibrio tra la riduzione di manodopera e aumento di produzione. Le molteplici installazioni su braccio meccanico permettono di adattare il robot allo svolgimento di attività complesse come lavorazioni meccaniche, manipolazione, montaggio, assemblaggio e tanto altro. Comandare i movimenti del robot risulterà semplice e intuitivo grazie al Pad di controllo touchscreen KUKA e al software XMC 4.0 Robot, progettato dalla Ronchini Massimo su misura per gli impianti robotizzati. Il Pad di controllo è fornito inoltre di un’interfaccia context-sensitive che permetterà la visualizzazione del-
le opzioni più importanti al momento dell’operazione; con la guida operatore intuitiva, anche gli utenti meno esperti potranno lavorare in modo rapido ed efficiente. Qualità ed efficienza Grazie agli alti livelli di ripetitività offerti dal robot, le operazioni verranno eseguite con precisione e in modo continuo, senza interruzioni e rendendo la produzione più snella. Questo permetterà di ottenere un rapido ritorno sull’investimento (ROI) per l’utilizzatore: - Cicli di lavorazione più brevi; - Riduzione dei costi di produzione; Soluzioni personalizzate per ogni esigenza Le soluzioni possono coprire tutte le fasi del ciclo produttivo, dall’assemblaggio alle lavorazioni di processo. La fresatura robotizzata per esempio, permette di lavorare forme complesse, conferendo al pezzo la forma ultima desiderata: - Robotica educativa; grazie alle celle robotizzate RM-Educational, è possibile insegnare in modo pratico e veloce i principi della robotica anche agli utenti meno esperti soprattutto in ambito scolastico e universitario; - Robot collaborativi; permettono di creare soluzioni robotiche di nuova generazione pensate per lavorare a stretto contatto con l’operatore senza alcuna protezione ma in completa sicurezza.* The Ronchini Massimo company has over twenty years’ experience in the field of machine tools and industrial robotics. RM-Robotics integrates and adapts anthropomorphic robots of different shapes and performances, providing advanced and customized industrial solutions. The multiple installations on mechanical arm allow the robot to be adapted to the avoidance of complex activities such as machining, manipulation, assembly, assembly and much more. The solutions can therefore cover all the phases of the production cycle: the robotized milling, for example, allows to work complex shapes, giving the piece the desired and designed last shape.*
In senso orario: Lavorazione Adamo con RM-RoboCut3D; Showroom Ronchini Massimo Srl; Showroom Ronchini Massimo Srl RM-RoboCut3D e Smart Pad Kuka.
In senso orario: Fresatrice su Robot Kuka; Rendering RMRoboCut3D; Scultura realizzata dalla Ronchini Massimo Srl per il Museum of the Future di Dubai.
Michele Tomasella Consulente tecnico dell’associazione Opera – imprese per l’edilizia. info@micheletomasella.it
Marco Redolfi Ingegnere e consulente tecnico dell’associazione Opera – imprese per l’edilizia. m.redolfi@redolfiingegneria.it
Dario Altinier 4emme, consulente tecnico dell’associazione Opera – imprese per l’edilizia. treviso@4emme.it
La classificazione sismica degli edifici
Uno strumento previsto dalla normativa per valutare la sicurezza degli edifici esistenti uanto sicuro è il mio edificio in caso di terremoto? Questa è una delle domande più ricorrenti che vengono rivolte ai tecnici quando si affronta una valutazione sulle caratteristiche di un immobile esistente, del quale spesso non si conosce molto della sua realizzazione strutturale. Per rispondere alla domanda è possibile fare riferimento alla normativa tecnica e in particolare alla procedura di valutazione strutturale, riportata nelle linee guida per la classificazione del rischio sismico delle costruzioni. Come è facilmente immaginabile la procedura non è di semplice esecuzione e richiede competenze specialistiche dei tecnici incaricati a svolgerla, inoltre, le informazioni riportate nel documento di valutazione sono di fondamentale importanza sia per gli aspetti di sicurezza fornite ai proprietari degli immobili, sia per la determinazione della qualità del parco immobiliare esistente sul territorio per lo sviluppo delle politiche di tutela da parte delle amministrazioni pubbliche. La normativa attuale prevede inoltre che in funzione della classe di rischio emersa dall’analisi di vulnerabi-
Associazione Opera - imprese per l’edilizia Via Meucci 28, 31029, Vittorio Veneto,TV e-mail: info@impreseinopera.it www.impreseinopera.it 01. Prove con martinetto piatto. 4 emme
52
IN PRODUZIONE
02. Indagini sulle murature in laterizio. 4 emme
lità, i proprietari possano accedere a diversi scaglioni di detrazioni fiscali nominate “sisma bonus” nel caso eseguano degli interventi di miglioramento strutturale del proprio immobile che variano dal 70% fino anche all’85% in funzione della tipologia di intervento eseguito. L’associazione Opera-imprese per l’edilizia, attraverso il confronto con i propri associati, consapevole dell’importanza di questa procedura, ha predisposto un servizio per supportare i proprietari degli immobili nella valutazione di vulnerabilità sismica degli edifici e per la definizione degli eventuali interventi di miglioramento o adeguamento sismico degli stessi e per l’accesso ai benefici fiscali. La misura fiscale a cui si legano le Linee guida rappresenta una novità per l’Italia: per la prima volta si può attuare, su larga scala e senza graduatorie di accesso ai benefici, un’azione volontaria con forti incentivi statali di prevenzione sismica sugli edifici esistenti privati. Le Linee Guida consentono di attribuire ad un edificio una specifica Classe di Rischio sismico, da A+ a G, mediante un unico parametro che tenga conto sia della sicurezza sia degli aspetti economici, e forniscono indirizzi di massima sulla progettazione, associando ai livelli di sicurezza un costo convenzionale in base ai dati del monitoraggio della ricostru-
OFFICINA* N.23
zione a seguito del terremoto del 2009 in Abruzzo. Il Rischio sismico è la misura matematica/ingegneristica per valutare il danno (perdita) atteso a seguito di un possibile evento sismico. Sono previsti due metodi per la determinazione della classe di rischio sismico: il metodo convenzionale basato sull’applicazione dei normali metodi di analisi dell’ingegneria che consente il miglioramento di una o più classi di rischio e il metodo semplificato indicato per una valutazione speditiva che consente, con interventi minimali, al massimo il miglioramento di una sola classe di rischio. Dal punto di vista dei contenuti tecnici, le Linee guida costituiscono uno strumento efficace e di facile comprensione: non richiedendo strumenti e/o la definizione di concetti diversi rispetto a quelli già utilizzati dai professionisti nell’applicazione delle vigenti norme tecniche per le costruzioni. Riguardano gli immobili adibiti a abitazioni, seconde case e ad attività produttive, prevedono una detrazione in 5 anni (anziché 10) e detrazioni premianti maggiore è l’efficacia dell’intervento effettuato nonché la cessione del credito ai fornitori per chi non possa sostenere la spesa. Operativamente, per accedere al beneficio fiscale, i passaggi per realizzare un intervento con detrazioni sono:
53
03. Saggio di pull out. 4 emme
per la prima volta si può attuare, su larga scala e senza graduatorie di accesso ai benefici, un’azione volontaria con forti incentivi statali di prevenzione sismica sugli edifici esistenti privati
•
•
•
•
il proprietario che intende accedere al beneficio, incarica un professionista della valutazione della classe di rischio e della predisposizione del progetto di intervento; il professionista, architetto o ingegnere, individua la classe di rischio della costruzione nello stato di fatto prima dell’intervento “stato di salute”; il professionista progetta l’intervento di riduzione del rischio sismico e determina la classe di rischio della costruzione a seguito del completamento dell’intervento; il professionista assevera i valori
•
•
delle classi di rischio e l’efficacia dell’intervento; il proprietario può procedere ai primi pagamenti delle fatture ricevute; il direttore dei lavori e il Collaudatore statico attestano al termine dell’intervento la conformità come da progetto.
Condizione necessaria per una corretta valutazione dello “stato di salute” e della sicurezza degli edifici esistenti è la conoscenza il più possibile approfondita del manufatto da esaminare. La prima fase conoscitiva è rappresentata dalla raccolta e analisi di tutta la documentazione disponibile, pro-
getti, relazione di calcolo, collaudo, ecc. anche se, soprattutto per gli edifici più datati, tale documentazione risulta spesso incompleta, difforme dal realizzato o del tutto assente. La diagnostica strutturale, attraverso una campagna di indagini strumentali dettagliate, consente al tecnico di sopperire alle carenze documentali e di dotarsi delle informazioni e dei dati di input necessari per una valutazione del rischio sismico e della vulnerabilità dell’edificio, offrendo un valido supporto anche nella fase di progettazione dell’intervento di adeguamento. Le indagini/prove, distruttive e non distruttive, sono legate alla tipologia costruttiva (strutture a telaio in c.a.,
04. Indagini sulle murature in calcestruzzo. 4 emme
54
IN PRODUZIONE
l’associazione Opera imprese per l’edilizia ha predisposto un servizio per supportare i proprietari degli immobili nella valutazione di vulnerabilità sismica degli edifici
in muratura o struttura mista) e mirano a definire la geometria e i dettagli strutturali, le caratteristiche meccaniche dei materiali e il loro eventuale stato di degrado. Le quantità di indagini da eseguire sono invece legate al livello conoscitivo (Lc1, Lc2, Lc3 ) che si intende raggiungere. Si procede in genere a step, con indagini preliminari meno invasive (saggi, termografie, georadar, ecc.) per approfondire successivamente il livello di indagine con rilievi pacometrici, saggi di pull-out e prove combinate SonReb per caratterizzare il calcestruzzo, prelievo di campioni di materiali da sottoporre a prove di laboratorio. Per le strutture in muratura si procede invece con la verifica della tessitura e degli ammorsamenti con saggi d’angolo e rimozioni di intonaco, endoscopie, prove soniche per trasparenza, prove con sclerometro a pendolo o analisi petrografiche per la caratterizzazione della malta. Le informazioni fondamentali per caratterizzare la muratura si ottengono infine dalle prove con martinetto piatto (tensione di esercizio, carico di rottura e modulo elastico) e dalle prove a scorrimento tipo shave test (resistenza a taglio). La gamma di indagini è molto ampia e prevede l’utilizzo di strumentazioni idonee e personale tecnico qualificato.*
OFFICINA* N.23
05. Prelievo di campioni sulle murature in calcestruzzo. 4 emme
06. Campioni di struttura in calcestruzzo prelevati. 4 emme
55
Robot Therapy in ospedale Innovative tecniche non farmacologiche per la gestione di stress ed ansia
Elisa Baldo Educatrice professionale, Padova. Autrice della tesi di laurea “L’educatore professionale e la robot therapy”, Università di Padova. eli.baldo94@gmail.com
Giada Clima Laureanda magistrale in “Clinica dello sviluppo”, Psicologia, Università di Padova. giada.clima@studenti.unipd.it,
Roberto Mancin Responsabile sviluppo di sistemi e tecnologie informatiche innovative presso il Dipartimento di Salute della Donna e del Bambino di Padova. roberto.mancin@unipd.it
Donatella Spanu Docente di lettere, insegnante presso l’Istituto Comprensivo di Casalserugo, responsabile del progetto teatro “Pinocchio 4.0”, donatella.spanu@gmail.com
Pepper a Padova, fra Palazzo del Bo, Caffe Pedrocchi e Palazzo Moroni. Massimo Pistore
I CORTI
57
L’ambiente ospedaliero è un luogo che comporta numerosi eventi stressanti soprattutto per un bambino. Durante il ricovero i piccoli pazienti sono quotidianamente valutati dai medici e soggetti a pratiche invasive anche dolorose che li mettono costantemente alla prova. Per supportare il bambino durante l’ospedalizzazione e la gestione della sua patologia, il contesto pediatrico spesso fornisce attività psico-educative per cercare di migliorare e alleggerire la degenza, alleviare l’ansia, lo stress e/o la sensazione dolorifica di una procedura. È stato possibile raggiungere questi obiettivi attraverso l’aumento dell’utilizzo di terapie non farmacologiche, ovvero trattamenti che vengono attuati nella fase antecedente l’azione della terapia farmacologica (Lazzarin et al. 2014; Min. della Sanità, 2010). Alcuni esempi di terapie non farmacologiche che possono essere utilizzate sono: la terapia assistita con gli animali (Pet Therapy), l’attività di musico-terapia, yoga come tecnica di respirazione e rilassamento, ma anche tecniche innovative come la Robot Therapy con cui si riesce a risolvere i limiti igienici, logistici ed etici della Pet Therapy. L’impiego di strumenti tecnologici e sofisticati come i robot in ambito sanitario, nell’ultimo decennio, ha subito una notevole evoluzione; i robot chirurgici o per la riabilitazione motoria sono presenti nelle principali sale operatorie e unità per la riabilitazione per adulti. Se inizialmente l’utilizzo di questi riguardava esclusivamente l’ambito riabilitativo e chirurgico, negli ultimi anni si è sviluppato l’uso di robot umanoidi o animaloidi anche come terapia non farmacologica e quindi non utilizzata solo come supporto medico-chirurgico. L’evoluzione robotica a cui si fa riferimento è quindi quella che evidenzia il passaggio da un tipo di “robotica classica”, ossia una strumentazione tipicamente utilizzata nel campo della riabilitazione, a “robotica educativa e sociale”, dove i robot sono utilizzati con pazienti in età evolutiva come strumenti di supporto dei professionisti sanitari per svolgere attività legate al benessere o alla formazione dei pazienti riguardo la propria patologia e come gestire le proprie necessità in un contesto scolastico. Per questo i robot usati abitualmente in pediatria con giovani pazienti sono stati usati presso realtà educative extra ospedaliere, quali il nido comunale “Il Bruco” di Padova e la Scuola media “C.Sibiliato” di Bovolenta, Padova. In questa seconda realtà sia Pepper (alto 121 cm) che Sanbot Elf (90 cm) sono stati usati durante una rappresentazione teatrale, appunto per promuovere la conoscenza e la familiarizzazione degli
BIBLIOGRAFIA - Baldo E., “L’Educatore Professionale e la robot therapy proposta di intervento in ambito pediatrico”, Tesi di laurea triennale, 2017. - Lazzarin P., Coccato F., Giglio M. C., Ghiraldo G., Amoruso P., & Benini F., “La terapia analgesica non farmacologica: alcune tecniche alla portata di tutti”, AreaPediatrica - Vol.15 - n.4, 2014. - Ministero della Sanità, “il dolore nel bambino - Strumenti pratici di valutazione e terapia”, 2010. - Saldien J., “Development of the huggable social robot Probo: on the conceptual design and software architecture”, Doctoral dissertation, Vrije Universiteit Brussel. Faculty of Engineering, 2009.
alunni e dei genitori con i robot. Numerose sono anche le sperimentazioni in strutture di lungodegenza per persone non auto-sufficienti (centri diurni, strutture per anziani). I fattori che più di tutti distinguono la robotica sociale (educativa, assistenziale ed empatica) da quella classici (industriale, militare e chirurgica) sono: la cura nella progettazione da un punto di vista estetico ed ergonomico, la capacità di suscitare importanti reazioni emotive empatiche e soprattutto l’interattività (Saldien, 2009). Ergonomia cognitiva, usabilità del software, interazione uomo macchina (HMI), User Experience (UX) sono le parole chiave più curate da chi progetta, vende e utilizza robot sociali. Grazie alla letteratura scientifica, alla disponibilità dello staff medico e infermieristico coordinato dalla dott.ssa Franca Benini, supportato da studenti e tecnici informatici ma soprattutto grazie alla disponibilità di strumentazioni robotiche all’interno della Pediatria di Padova, acquisiti dalla Fondazione Salus Pueri, la Robot Therapy è risultata essere un’efficace terapia non farmacologica da poter inserire durante il ricovero dei pazienti pediatrici. Il robot, infatti, si presenta come un supporto innovativo, in grado di ampliare le modalità d’intervento dell’educatore in quanto strumento piacevole e ideale per catturare l’attenzione di un bambino. È stato dimostrato, inoltre, che l’anticipazione di ciò che il bambino dovrà affrontare durante un intervento chirurgico o una procedura medica invasiva, proposta dall’educatore accompagnato dal robot, riduce notevolmente l’ansia e lo stress del piccolo paziente. L’interazione e relazione che si crea tra bambino, robot ed educatore risulta essere quindi positiva per promuovere un’ospedalizzazione più serena, una guarigione più rapida del bambino e per motivare il paziente nella gestione della sua patologia. Sicuramente questo tipo di terapia porta ad un grande vantaggio per il paziente e per l’equipe sanitaria, il bambino potrà apparire più rilassato, cooperativo e compliante durante i trattamenti; anche i genitori potranno sperimentare un effetto positivo con riduzione del livello di stress. *
Smart windows Intelligent adaptive components towards responsive net-zero architectures
Valentina Frighi Dottoranda e Cultore della materia ICAR/12, Dipartimento di Architettura, Università di Ferrara. frgvnt@unife.it
Installazione di vetri elettrocromici in edificio ad uso ufficio. CC0
I CORTI
59
Le innovazioni tecnologiche che oramai pervadono la pressoché totalità degli ambiti di vita quotidiana hanno avuto un impatto notevole anche in architettura, dirigendo l’interesse collettivo verso la produzione di architetture non soltanto sostenibili ma anche “intelligenti”, adattive nei confronti dei cambiamenti circostanti. In virtù del ruolo significativo che l’involucro edilizio riveste nella realizzazione di tali organismi, l’applicazione ai suoi componenti di tecnologie innovative per la la loro implementazione, monitoraggio e gestione apre nuove ed interessanti possibilità, specialmente in relazione agli infissi, “punto debole” del sistema. Nonostante, infatti, la crescente consapevolezza in merito a tali tematiche, si registrano ancora difficoltà nella corretta gestione delle complessità legate all’interfaccia “parete-finestra”; lo sviluppo di infissi dotati di caratteristiche prestazionali elevate e, soprattutto, variabili in funzione del contesto di applicazione (oltre che a costi contenuti) costituisce ancora una questione centrale. Per tale ragione, la possibilità di intervenire su tali componenti rappresenta, oggi più che mai, un’opportunità senza precedenti per il controllo dei consumi e delle prestazioni di involucro, verso una riduzione significativa dei fabbisogni energetici degli edifici. Sebbene siano stati compiuti passi significativi in tale direzione, i sistemi attualmente in commercio presentano ancora diversi limiti, dovuti, da un lato, all’integrazione di componenti provenienti da cicli produttivi separati, e dall’altro, a tecnologie promettenti anche se a fronte di costi di installazione e gestione elevati, oltre a criticità in fase di progettazione, esecuzione e gestione nel tempo. In quest’ultima categoria rientrano le cosiddette Smart Windows, sistemi le cui proprietà di trasmissione luminosa variano in funzione di stimoli esterni. Dispositivi di questo tipo consentono di ottenere involucri adattivi in funzione dei mutamenti delle condizioni al contorno (siano esse di tipo ambientale o determinate dal comportamento degli utenti), dunque in grado di ottenere risparmi sui costi di riscaldamento, climatizzazione e illuminazione, evitando di ricorrere all’installazione di dispositivi di schermatura aggiuntiva. Tuttavia, le soluzioni presenti sul mer-
BIBLIOGRAFIA - Lilis G., Conus G., Asadi N., Kayal M., “Towards the next generation of intelligent building: An assessment study of current automation and future IoT based systems with a proposal for transitional design”, Sustainable Cities and Society, n. 28, 2017, pp. 473-481. - Moreno M.V., Ubeda B., Skarmeta A. F. and Zamora M.A., “How can We Tackle Energy Efficiency in IoT Based Smart Buildings?”, Sensors, n. 14 (6), 2014, pp. 9582-9614. - Petter B. et al., “Fenestration of Today and Tomorrow: State-of-theArt Review and Future Opportunities”. Solar Energy Materials and Solar Cells, n.96, 2012, pp. 1-28. - Talon C. and Strother N., “White Paper – 10 Trends for Intelligent Buildings in 2017 and Beyond. Digital Transformation and Market Evolution”, Boulder (CO), Usa, Navigant Research, 1Q, 2017.
cato presentano limitazioni tecniche significative, oltre a non sembrare del tutto capaci di soddisfare le esigenze dei loro fruitori; non esistono infatti dispositivi che coniughino le esigenze di riduzione dei consumi con quelle di privacy degli occupanti (in quanto gran parte di tali sistemi conserva di fatto la trasparenza iniziale); inoltre, la pressoché totalità di essi manca di funzionalità d’uso (riguardo le possibilità di regolazione e la velocità di controllo) e necessita di hardware aggiuntivi per il controllo e la regolazione. La possibilità dunque, di integrare in un componente finestrato di base, già dotato di prestazioni statiche elevate, sensori o dispositivi capaci di introdurre in esso nuove funzionalità (come ad esempio la rilevazione di dati in tempo reale su parametri ambientali, consumi, comportamenti dell’utente, ecc.) consentirebbe di ottenere un componente intelligente anche a fronte dell’impiego di risorse apparentemente tradizionali, capace di una gestione autonoma ed efficiente, variabile in funzione delle specifiche esigenze, ottenendo così componenti dotati di prestazioni ottimizzate, in grado di instaurare relazioni interattive con i loro fruitori grazie alla presenza di dispositivi di controllo on-demand per la raccolta di dati ed informazioni in tempo reale utili anche per implementazioni future.*
Elisa Ieie Ingegnere edile-architetto libero professionista elisaieie85@gmail.com
l percorso di cambiamento relativo all’efficientamento energetico, per il caso specifico italiano, si colloca in una posizione di stretta relazione con l’ambito della riqualificazione del patrimonio architettonico esistente e passa attraverso l’elaborazione di strategie di riconfigurazione spazio-tipologica e di adeguamento del sistema involucro-impianto nell’ottica di una sostanziale riduzione dei consumi rispetto allo stato iniziale. Infatti lo scenario che troppo spesso si presenta nei centri storici delle nostre città è quello di fabbricati con deficit originari che nascono sostanzialmente inadeguati nell’epoca di un’edilizia poco controllata e quasi del tutto inconsapevole dei requisiti da tenere sotto controllo (Battisti et al., 2013). Per scardinare la tendenza, oramai acclarata, all’omologazione delle tecniche costruttive senza tenere in considerazione il contesto è oltremodo necessario prendere in considerazione le diversità culturali e ambientali e occorre proporre un’iniziativa progettuale, poco manualistica e più sensibile, definita dall’ odierna letteratura scientifica come un case to case approach(Lewis et al., 2013). In questo ambito si inserisce il caso
di studio della clinica universitaria della città dell’Aquila: l’edificio è situato vicino allo storico ospedale al limitare del centro cittadino, pertanto si trova a occupare un posto di rilievo nel contesto urbano pur presentando lo scarso valore architettonico riconducibile all’edilizia in cemento armato degli anni Settanta (img. 02). Partendo dal modello in esame si esplicano le problematiche, i metodi di approccio e le strategie di intervento che possono essere standardizzate e perfettamente ripetibili cambiando le condizioni al contorno, definendo così una metodologia che consenta di individuare le idonee strategie di intervento mirate all’upgrade dell’edificio in funzione dei nuovi modelli normativi, dei vincoli economici, delle destinazioni d’uso, delle prestazioni energeticoambientali e, non ultimo, dei nuovi quadri esigenziali. È universalmente riconosciuto, d’altronde, che il recupero sostenibile vada di pari passo con la riqualificazione sociale con il fine di migliorare la qualità di vita delle comunità eliminando il fenomeno di marginalizzazione che affligge interi quartieri. Si tende, dunque, ad una nuova forma di architettura che integri la società con la natura e, l’idea che si fa strada porta alla formulazione di un nuovo linguaggio architettonico che miri all’integrazione dell’edificio esistente con sistemi per il risparmio
01. Incidenza dei venti freddi invernali e dei venti estivi. Elisa Ieie
Tecnologie per la riqualificazione energetica del patrimonio edilizio di scarsa qualità Il caso di studio della città dell’Aquila
60
L'ARCHITETTO
02. Inquadramento territoriale e pianta tipo dell’edificio oggetto di studio: la clinica universitaria. Elisa Ieie
energetico, di conseguenza la mera trasformazione figurativa e morfologica del territorio appare un criterio obsoleto e inadeguato. L’approfondimento delle condizioni climatiche del luogo in cui insiste il fabbricato costituisce il punto di partenza per una progettazione responsabile ed efficiente che tenda a minimizzare il consumo di energia e a elevare le condizioni di comfort degli utenti. La fonte primaria di energia sulla terra è la radiazione solare che determina le condizioni climatiche in qualsiasi luogo e, nello specifico, nella zona climatica italiana si rende indispensabile il controllo dell’incidenza delle radiazioni sia in regime
OFFICINA* N.23
invernale sia in regime estivo, durante il quale sfruttare i venti freschi estivi diventa un importante ausilio per il raffrescamento passivo contrastando l’impatto della radiazione solare sui fronti esposti. Prevedere, invece, una copertura arborea sempreverde può ovviare parzialmente all’impatto dei venti freddi invernali che favoriscono svariati fenomeni di degrado sull’involucro edilizio. Si stabilisce, in questo modo, una connessione dialettica e reciprocamente interrelata tra i caratteri dell’oggetto, dell’intervento progettuale e i tre ambiti macroambientali: esterno, microclimatico locale ed esigenziale interno all’utenza (Pallasmaa, 2010) (img. 01).
61
stabilire un’interfaccia con le condizioni al contorno per conoscerle, controllarle e indirizzarle nel progetto
Serra a guadagno diretto Serra a scambio radiante
03. I sistemi captanti passivi quali le serre solari come addizioni sul costruito. Elisa Ieie
per valorizzare il patrimonio in modo non distruttivo, il retrofit energetico si accompagna alla riconfigurazione dell’estetica dell’abitato
L’intervento per addizione ben si presta alla logica di un processo di riqualificazione che ricerca l’implementazione delle prestazioni energetiche di un manufatto edilizio. La serra, infatti, definisce uno spazio privilegiato poiché grazie alla flessibilità del sistema di chiusura e all’utilizzo di sistemi di schermatura solare, garantisce l’utilizzo sia in regime estivo che invernale, ridefinendo non solo il comportamento termico dell’alloggio, ma anche quello funzionale poiché offre la possibilità di riprogettarne la distribuzione interna (img. 03) (Fiorito el al. 2016). Ci troviamo, quindi, in un momento di cambiamento epocale: dal consumo esagerato e privo di regole delle fonti
62
esauribili, si sta affermando l’impiego delle fonti rinnovabili come strumento basilare del mondo delle costruzioni (img. 04); inoltre, grazie all’integrazione con l’elettronica, si possono mettere in sintonia condizionamento artificiale e fattori atmosferici in una visione olistica dell’ edificio–impianto, mirata al raggiungimento della nuova frontiera del risparmio energetico: la positive energy. In quest’ottica l’edificio non rappresenta più solo un soggetto consumatore ma diventa anche produttore di energia, dando origine al concetto di prosumer: il manufatto è allo stesso tempo producer e consumer. Infatti la tradizionale distribuzione dell’energia, con estensione senza
L'ARCHITETTO
Pensilina fotovoltaica con moduli semitrasparenti
04. Render e grafici del nuovo assetto dell’edificio a valle dell’adeguamento energetico con l’inserimento di una pensilina fotovoltaica. Elisa Ieie
soluzione di continuità, sta lasciando il posto a sistemi di rete in grado di integrare intelligentemente tutti gli utenti connessi, sia produttori che consumatori, al fine di distribuire energia in maniera efficiente (Loonen et al., 2013) L’edificio diventa un unicum poiché si colloca in una determinata area geografica che presenta proprie caratteristiche climatiche e specifiche tradizioni culturali costruttive che determinano l’adozione di particolari sistemi e materiali costruttivi a sempre più alto valore ecologico e a sempre più bassa energia grigia (Petzet et al., 2012). Il compromesso da raggiungere, dunque, è quello di ottenere il massi-
OFFICINA* N.23
mo rendimento dall’impianto e una soluzione esteticamente valida valorizzando l’aspetto formale del manufatto in prospettiva del suo reinserimento nel contesto urbano. In ogni caso, la qualità del progetto e le caratteristiche climatiche del luogo restano i presupposti fondamentali di un intervento di rigenerazione che possa essere considerato sostenibile e che garantisca la durabilità dell’edificio e la sua adattabilità al contesto.*
63
BIBLIOGRAFIA - Battisti A., Tucci F., “Qualità ambientale ed efficienza ecologica, energetica e bioclimatica in architettura”, in Techne. Journal of Technology for Architecture and Environment, n. 6, pp. 166-167, 2013. - Fiorito F., Sauchelli M., Arroyo D., Pesenti M., Imperadori M., Masera G. and Ranzi G., “Shape morphing solar shadings: A review”, Renewable and Sustainable Energy Reviews, Vol. 55, pp. 863-884, 2016. - Lewis O., Sadhbh N., Borghi A., “Building energy efficiency in European cities”, Urbact, 2013. - Loonen R.C.G.M, Trčka M., Cóstola D. and Hensen G., “Climate adaptive building shells: State of the art and future challenges”, Renewable and Sustainable Energy Reviews, n. 25, pp. 483-493, 2013. - Pallasmaa J., “The Thinking Hand. Existential and Embodied Wisdom in Architecture”, John Wiley & Sons London, 2010. - Petzet M., Heilmeyer F., “Reduce Reuse Recycle, Architecture as Resource”, Hatje Cantz Verlag, Berlin, 2012.
Renata Lopez Junior Project Manager, progetto UIA/MAC renata.lopez@comune.pozzuoli.na.it
onterusciello è un quartiere di 30.000 abitanti sgombrati dal centro storico di Pozzuoli, comune della Città Metropolitana di Napoli, progettato da Agostino Renna in seguito alla crisi bradisismica che nel 1983 ha colpito l’area flegrea (img. 01). Renna lo definisce come “una parte definita di città” mostrando in queste parole l’intenzione di voler riconoscere all’area una sua identità autonoma attraverso una progettazione lontana dalle logiche dell’edilizia economica e popolare e decisa a voler fare di Monterusciello il punto di riferimento per l’area ovest della provincia di Napoli (img. 03). Monterusciello viene quindi concepita come una New-Town, eppure oggi viene vissuta come una periferia. Nonostante l’obiettivo di Renna durante la progettazione sia stato quello di “accogliere e rassicurare”, i residenti di Monterusciello non hanno mai completamente accettato la loro nuova condizione, guardando al quartiere come un luogo di passaggio e non come una sistemazione definitiva. Lo spazio urbano di Pozzuoli è portatore di una realtà socio-economica complessa e differenziata, forse ci si aspettava di ricreare nel nuovo in-
sediamento lo stesso tessuto sociale eterogeneo, classi sociali varie che avrebbero dovuto trapiantare quelle dinamiche sociali ed economiche che rendevano vivace il centro storico di Pozzuoli. Oggi, dopo 30 anni, la quota di alloggi in affitto arriva a circa il 70% sul totale degli alloggi disponibili. La quasi totale mancanza di quote di alloggi in proprietà ha accentuato il senso del transitorio, è venuto a mancare l’interesse personale, nei residenti non si è mai generato un senso di appartenenza a quel territorio. È aumentato negli anni il gap tra la parte di città ricca, dominante, la Pozzuoli
Monterusciello viene concepita come una New-Town, eppure oggi viene vissuta come una periferia
01. Il centro storico di Pozzuoli e il quartiere di Monterusciello. Renata Lopez
Monterusciello: la città fondata due volte MAC - Monterusciello Agro City come innovazione urbana
64
L'ARCHITETTO
02. I luoghi del progetto MAC- Monterusciello Agro-City. Renata Lopez
del centro storico, capace di incidere sulle scelte economiche, politiche e sociali messe in atto sul territorio, e la parte di città subalterna, il quartiere di Monterusciello, che le scelte invece le ha subite e pagate in termini di qualità della vita quotidiana. Le famiglie che hanno potuto, superata l’emergenza, sono tornate a vivere in altri quartieri della città mentre le famiglie con minori possibilità economiche continuano oggi a popolare il quartiere. Condizioni sociali difficili si sono unite a situazioni di degrado urbano e ambientale. Mancano relazioni di qualità e di fiducia tra cittadini e istituzioni, il basso potere d’acquisto posseduto dai residenti ha inciso sul fallimento delle poche attività
OFFICINA* N.23
commerciali presenti, oltre al degrado fisico degli edifici, 56 ettari di aree aperte di proprietà pubblica lasciate all’incuria dominano lo spazio urbano. È su queste aree che il Comune di Pozzuoli ha ottenuto un finanziamento di 4 milioni di euro partecipando alla prima call del programma Urban Innovative Action, promossa nella primavera del 2016 (img. 02). L’obiettivo dell’iniziativa UIA è di finanziare progetti innovativi, concepiti e realizzati con il coinvolgimento di soggetti locali pubblici e privati, della durata massima di tre anni e incentrati su temi in linea con gli obiettivi definiti dall’Agenda 2030 per lo sviluppo sostenibile.
65
03. Concept di progetto di Agostino Renna. L. Pagano, Rimontaggio di un pensiero sulla conoscenza dell’architettura, CLEAN edizioni, Napoli, 2012.
È stato presentato il progetto MAC - Monterusciello Agro City per sviluppare una strategia di rigenerazione urbana che, partendo dall’agricoltura, generi un processo di trasformazione socio-economica del quartiere. Il progetto è stato avviato nell’agosto 2017 e terminerà nel luglio 2020. L’agricoltura del MAC diventa forza trainante per avviare un processo virtuoso di crescita urbana basato sulla nascita di imprenditorialità giovanile nel settore agricolo, la valorizzazione dell’economia locale, il riuso di aree abbandonate e il miglioramento dell’ambiente fisico (img. 04). Il progetto è innovativo perché convoglia tutte le azioni previste in un processo sinergico, un ciclo continuo capace di garantire la sostenibilità del progetto oltre la vita dello stesso. Per rafforzare questo aspetto, il MAC sta provvedendo all’istituzione di alcune funzioni cardine all’interno del quartiere:
due laboratori urbani, uno dedicato alla permacultura e l’altro all’ethical production e al rural marketing, che colleghino l’agricoltura a un circuito di produzione e commercializzazione basato sul riutilizzo e sulla trasformazione dei rifiuti agricoli; un Business incubator center, scuola di formazione continua per favorire la nascita di start-up innovative; un Agro-Urban center, punto di ascolto per il diretto contatto tra i residenti del quartiere e l’Amministrazione. Il Comune di Pozzuoli ha deciso di concentrare tutte queste funzioni in alcuni locali di Piazza de Curtis, costruita con la fondazione del quartiere e mai entrata in funzione, spazio che è diventato il luogo-simbolo del processo di rigenerazione in atto (img. 06). L’obiettivo è quello di ricostruire nei residenti quella coscienza civica necessaria per combattere il degrado e promuovere la collaborazione e la condivisione delle risorse.
05. Incontro di ascolto attivo a Piazza de Curtis.
04. Un’area di progetto. www.macpozzuoli.eu
66
L'ARCHITETTO
06. Piazza de Curtis. www.macpozzuoli.eu
l’agricoltura del MAC diventa forza trainante per avviare un processo virtuoso di crescita urbana
OFFICINA* N.23
A tal proposito, nel giugno 2018, è stato avviato un interessante dibattito con i residenti del quartiere avente come tema le funzioni e le politiche di gestione per l’Agro-Urban center che si sta istituendo (img. 05). Secondo quanto emerso durante gli incontri di ascolto attivo, l’Agro-Urban center dovrà essere un laboratorio aperto, il luogo della comunità, uno strumento utile per la crescita del territorio e per la formazione di una nuova identità locale. Questo spazio dovrà farsi carico di tutte quelle azioni di progetto trasversali necessarie per creare una rete di relazioni tra istituzioni, organizzazioni, associazioni locali e residenti, punto di fondamentale importanza per la vitalità del progetto anche dopo la fine del finanziamento UIA. La comunità di Monterusciello, grazie al progetto MAC, ha l’opportunità di coprogettare, insieme alle istituzioni, il futuro del quartiere. È una sfida difficile, ma dopo circa 30 anni, per una serie di circostanze storiche e politiche, oggi si intravede una direzione nuova e possibile, una prospettiva da costruire e un ruolo da svolgere nel più ampio scenario territoriale regionale. Una città che può essere rifondata grazie ad un progetto innovativo che ha come obiettivo quello di fare comunità.*
67
BIBLIOGRAFIA - AA. VV., “Città pubbliche Linee guida per la riqualificazione urbana”, Mondadori, Milano, 2008. - Elisei P., “The MAC Poject Journal N°1”, www.uia-initiative.eu, Dicembre 2017. - Elisei P., “The MAC Poject Journal N°2”, www.uia-initiative.eu, Maggio 2018. - Escalona F., Francese D., “Monteruscello. L’impianto urbano e gli edifici pubblici”, con introduzione di Uberto Siola e scritti di Agostino Renna, Progetto Pozzuoli, Quaderni di documentazione, n. 3, Giannini, Napoli, 1987. - Fucella R., “L’abitare come problema della città. Metodologie di analisi e procedure sperimentali”, Alinea, Firenze, 1995. - Gallucci P., “La composizione di Monterusciello”, tratto da www.esempidiarchitettura.it, 2012. - Gasparrini C. (a cura di), “Il progetto urbano una frontiera ambigua tra Urbanistica e Architettura”, Liguori Editore, Napoli, 1999. - Gerundo R., Di Maggio F., “Monteruscello: Periferia di Stato?”, PLANUM. Vol. on line , 2007, pp. 1-14. - Giamminelli R., “Il centro antico di Pozzuoli. Rione Terra e Borgo”, Sergio Civita Editore, Napoli, 1987. - Giglia A., “Crisi e ricostruzione di uno spazio urbano dopo il bradisismo a Pozzuoli: una ricerca antropologica su Monterusciello”, Guerini Studio, Milano, 1997. - Jacobs J., “Vita e morte delle grandi città. Saggio sulle metropoli americane”, Piccola biblioteca Einaudi, 2009. - Koolhaas R., “Delirious New York”, Electa, Milano, 2000. - Lopez R., “Monterusciello: Ritorno al futuro. Una struttura critico/tematica per leggere le periferie” in AA.VV., “Progetti per l’Europa - architetture e ricerche in ambito internazionale di giovani ricercatori”, a cura di Mariateresa Giammetti, Napoli, D’Arco Edizioni, 2016. - Lopez R., con Elisei P., Leopa S., Di Lorenzo A., Gerundo R., “Agro-Cities as a Way to Counteract Urban Poverty”, REAL CORP, Vienna, 2018. - Pagano L., “Rimontaggio di un pensiero sulla conoscenza dell’architettura”, CLEAN edizioni, Napoli, 2012. - Rossi A., “L’architettura della città”, Il Saggiatore, Milano, 1985. - Signorelli A., “Antropologia urbana. Introduzione alla ricerca in Italia”, Guerini Studio, Milano, 1996. - Secchi B., “Progetto di suolo”, in Casabella, n.520-521, pp.19-2, 1986. - Secchi B., “Architettura come modificazione” in Casabella, n.498/9, Electa Periodici, gennaio-febbraio 1984.
Gian Andrea Giacobone Dottorando presso il dipartimento di Architettura dell’Università di Ferrara. gcbgnd@unife.it
ebbene negli ultimi decenni il controllo del veicolo sia stato svolto totalmente dall’uomo, oggi la tecnologia permette di dotare le automobili con sistemi di sicurezza attiva (definiti ADAS - Advanced Driver-Assistance Systems), che consentono di riconsiderare i compiti e le responsabilità di guida del conducente. Il cruise control adattivo, il lane keeping assistant per il mantenimento di corsia o il collision avoidance per l’assistenza alla frenata, sono alcuni degli attuali supporti di telerilevamento in grado d’intervenire direttamente sulle sue azioni del pilota per prevenire l’errore umano, il cui risultato è spesso legato al fenomeno degli incidenti stradali (Lu et al., 2005). La principale causa è la distrazione del guidatore, dovuta al forte carico cognitivo richiesto per monitorare costantemente l’ambiente (Hills, 1980) e gestire efficacemente le diverse operazioni di percezione, decisione e attuazione richieste durante il processo di guida (Green, 2000). Date le limitate capacità cognitive dell’uomo nel mantenere lunghi periodi di concentrazione (Driver, 2001), l’attenzione alla guida è diventata da tempo un fattore di ricerca, che attualmente ha trovato nei siste-
mi ADAS un favorevole supporto per la sicurezza stradale, ma anche per il raggiungimento della guida autonoma, attraverso la loro combinazione. Il delicato sviluppo di tali strumenti ha spinto l’ente di normazione SAE - Society of Automobile Engineers a categorizzare il grado d’intervento e responsabilità degli ADAS tramite diversi livelli di automazione, divisi da “zero”, guida manuale, a “cinque”, completamente svolta da una intelligenza artificiale di bordo in tutte le condizioni dinamiche di guida (SAE, 2014). Il punto di passaggio tra una guida a prevalenza umana e quella interamente gestita dall’intelligenza artificiale
avviene nell’attuale livello “tre”, di cui possiamo citare alcuni sistemi in via di sviluppo, come l’Autopilot di Tesla, il Super Cruise di Cadillac o il Traffic Jam Pilot di Audi1. In questi casi il veicolo è condotto senza il coinvolgimento diretto dell’uomo, ma non esclude ancora la sua attenzione ed eventuale intervento in caso di situazioni di percorrenza critiche o sconosciute al sistema. Tale operazione può avvenire tramite un TOR - Take-Over Request, cioè una notifica da parte dell’AI per l’assunzione del controllo manuale e risulta molto importante in fase di progettazione, in quanto è possibile creare situazioni pericolose, se la richiesta
01. Interfaccia di controllo al volante per il monitoraggio attivo del sistema a guida automatizzata e segnalazione di eventuali take-over-request. Cadillac Super Cruise. Cadillac
Auto indipendente L’interazione applicata al veicolo urbano
68
L’IMMERSIONE
02. Prototipo di autovettura a guida autonoma “quattro” con interni configurabili in base alla tipologia di guida assunta. Mercedes-Benz F 015 Luxury. Christie Hemm Klok, Wired USA
i sistemi ADAS sono alla base della costruzione di autoveicoli a guida autonoma OFFICINA* N.23
di supporto non è chiara al conducente o non concede a quest’ultimo adeguati tempi di reazione per subentrare e correggere il sistema. In questa situazione, l’agente umano, essendo in uno stato di controllo passivo, è portato ad affidare le proprie responsabilità interamente all’AI e di conseguenza, a ridurre i propri livelli d’attenzione e di sicurezza (Endsley, 1995), sebbene l’alto livello di automazione richieda un intenso lavoro mentale rispetto al passato, necessario a supervisionare, non soltanto l’ambiente esterno, ma anche la collezione di dati elaborati dai sensori elettronici di bordo (Billings, 1997). Per evitare queste problematiche, lo sviluppo dei sistemi ADAS sta cercando dunque di provvedere al rag-
69
giungimento dell’ultimo livello di automazione, al fine di sviluppare sistemi altamente indipendenti, in cui il conducente è totalmente reso out-of-theloop, cioè escluso da ogni compito di guida. In questa futura visione si nota come la relazione di responsabilità tra agente e veicolo passi interamente nelle mani della tecnologia, in quanto s’immagina che il guidatore, incline a errori e distrazioni, diventi un semplice passeggero trasportato da un’affidabile autovettura driverless (Terken et al., 2016; img. 01). Tuttavia, le rapide capacità percettive e decisionali dei software ad alta automazione, rendono lo stato reale del sistema poco trasparente. Questo agli occhi del guidatore può risultare
per migliorare l’accettabilità dell’automazione è utile rendere visibile le intenzioni del sistema imprevedibile e di conseguenza inaffidabile, causando tensioni e timori durante il tragitto, in quanto esso stesso è allontanato dal processo di guida (Lipson & Kurman, 2016). Per tale motivo, è importante ridurre le interferenze che possono crearsi nel flusso d’informazioni tra i due agenti, perché da un lato aiutino il guidatore a prendere consapevolezza dell’automazione e avere maggior controllo, dall’altro rendano il sistema maggiormente efficiente e accettabile. Un modello intuitivo che può facilitare la naturale comprensione del sistema autonomo è sicuramente la metafora del cavallo o H-metaphor, che prende spunto dal consolidato binomio cavaliere e quadrupede, in cui i compiti di guida sono condivisi e affrontati simultaneamente in uno stato di totale cooperazione e complementarietà. Inoltre, il canale di comunicazione avviene grazie alla costante trasmissione di segnali aptici – inviati dalle interfacce fisiche di sella e redini – che permettono ad entrambi di percepire le reciproche intenzioni e instaurare così un maggior rapporto di fiducia (Flemish et al., 2003). Chi rispecchia a pieno le considerazioni sopracitate è sicuramente il concept Stewart di Felix Ros (img. 03), un modello d’interazione costituito da un’interfaccia di comando tattile, con cui è possibile instaurare un processo di negoziazione tra sistema
03. Concept di un modello d’interazione che utilizza un’interfaccia fisico-tattile per negoziare i compiti di guida tra agente umano e veicolo intelligente. Felix Ros
04. Concept vehicle a guida autonoma senza strumentazioni di comando per il conducente. Google
05. Richiesta di take-over-request per la guida manuale. La riproduzione grafica del veicolo è un ottimo modello rappresentativo di ciò che l’auto percepisce nell’ambiente. Tesla Autopilot. David Paul Morris, GettyImages
70
INNOVAZIONE
autonomo ed essere umano, al fine di cooperare sulla guida del veicolo (Terken et al., 2016). I bracci meccanici del joystick oscillano costantemente per trasmettere alla persona i movimenti intenzionali del veicolo e invitandolo ad approvare tali manovre. Viceversa, il guidatore può decidere o meno se influenzare ed intervenire sulle decisioni del sistema, segnalando le proprie intenzioni (esempio accelerare, cambiare direzione, sorpassare, ecc.) direttamente opponendo resistenza al sistema di comando. Le modalità con cui lo stato intenzionale del sistema è costantemente visibile (tramite lo stretto “dialogo” aptico col sistema), fa si che il passeggero rimanga parte attiva nel loop di guida e abbia una sensazione di controllo. Ciò è utile a maturare un’adeguata fiducia da porre nel sistema per migliorare, di conseguenza, le condizioni di comfort durante la guida. In conclusione, nonostante l’evoluzione tecnologica abbia sviluppato elevati gradi di automazione, è lo stesso utile mantenere la relazione con l’uomo nei processi decisionali di guida. Ciò è possibile grazie a opportune forme d’interazione che possano supportare sinergicamente il dialogo tra persona e sistemi di guida altamente avanzati, attraverso l’uso della collaborazione, colmando nello stesso tempo i limiti percettivi e decisionali di entrambe le parti.*
NOTE 1 - Il Traffic Jam di Audi è stato dichiarato il primo sistema di guida automatizzata di livello “tre”, mentre i modelli Autopilot di Tesla e il Super Cruise di Cadillac, seppur altamente avanzati, sono attualmente ancora a cavallo tra il livello “due” e “tre”, e dunque richiedono una maggior supporto da parte del guidatore. Tutti quanti i modelli citati si basano essenzialmente su un modello di cruise control avanzato, comandato da un’intelligenza artificiale che è in grado di adattare il comportamento della vettura, in base al telerilevamento (elaborato dai diversi sensori e camere posti attorno al veicolo) dell’ambiente dinamico circostante. BIBLIOGRAFIA - Billings C. E., “Aviation Automation: The Search for a Human-Centered Approach”, Lawrence Erlbaum Associates, 1997, Mahwah, New Jersey, 1997. - Driver J., “A selective review of selective attention research from the past century”, in “British Journal of Psychology”, 2001, vol. 92, pp. 53–78. - Donald A. N., “The Design of Everyday Things: Revised and Expanded Edition”, Basic Book, New York, 2017. - Endsley M. R., “Toward a theory of situation awareness in dynamic systems”, in “Human Factors The Journal of the Human Factors and Ergonomics Society”, 1995, vol. 37, n. 1, pp. 32-64. -Flemisch F. O., Adams C. A., Conway S. R., Goodrich K. H., Palmer M. T., Schutte P. C., “The H-Metaphor as a guideline for vehicle automation and interaction”, Technical Report, Nasa, 2003. - Green M., “How long does it take to stop?”, in “Methodological analysis of driver perception-brake times. Transportation Human Factors”, 2000, vol. 2, pp. 195–216. - Hills B. L., “Vision, visibility, and perception in driving”, in “Perception”, 1980, vol. 9, pp. 183–216. - Lipson H., Kurman, M., “Driverless: Intelligent Cars and the Road Ahead”, MIT Press Cambridge, Massachusetts, 2016. - Lu M., Wevers K., Van Der Heijden R., “Technical Feasibility of Advanced Driver Assistance Systems (ADAS) for Road Traffic Safety”, in “ Transportation Planning and Technology”, 2005, vol. 28, pp. 167-187. - Ritchie H., Roser M., “Causes of Death” online in OurWorldInData.org, www.ourworldindata.org/causes-of-death, 2018, [ultimo accesso 17-06-18]. - SAE International, “SAE J3016_201806: Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles”, 2014. - Terken J., Levy P., Wang C., Karjanto J., “ Gesture-Based and Haptic Interfaces for Connected and Autonomous Driving “, in “Advances in Human Factors and System Interactions”, 2016, vol. 497, pp. 107-115. - Ho C., Spence C., “The Multisensory Driver: Implications for Ergonomic Car Interface Design”, Ashgate Publishing, Hampshire, UK, 2008.
06. Raffigurazione di come un’autovettura autonoma percepisce l’ambiente ed elabora a sua volta le decisioni di guida. Google
OFFICINA* N.23
71
opportune forme d’interazione basate sulla cooperazione migliorano i comfort di guida
Chiara Silvestri Designer, lavora in Synthesis design dal 2008, collabora con l’Università Iuav di Venezia dal 2010. chi.silvestri@gmail.com Giorgio Gaino Architetto, socio dello studio Synthesis design, docente a contratto all’Università Iuav di Venezia giorgio.gaino@synthesisdesign.it
e smart-cities sono definite come “places where information technology is combined with infrastructure, architecture, everyday objects, and even our bodies to address social, economic, and environmental problems” (Townsend, 2014). Dall’analisi critica dell’impatto che le smart-cities potrebbero avere sulla qualità della vita, nel presente prossimo e futuro remoto delle nostre città si sviluppa il corso Future vision: mobilità, energia e sostenibilità, del designer e professore Carlo Gaino, che si occupa da 18 anni della formazione degli studenti del corso di laurea magistrale in Design del prodotto e della Comunicazione visiva, all’Università Iuav di Venezia. Il cuore della smart-city è strettamente connesso alla capacità delle intelligenze artificiali di sfruttare l’ormai immensa mole di dati raccolti ed utilizzati negli algoritmi, e farne la struttura portante ed il sistema “linfatico” della città: gli spostamenti e le infrastrutture interagiscono in maniera dinamica, la rete energetica diventa un sistema fluido che riorganizza ed
ottimizza i flussi, la domotica gestisce in remoto le nostre abitazioni relazionandole con le situazioni ambientali, i dati personali vengono utilizzati per una personalizzazione di esperienze, acquisti, incontri. Il rischio di questa corsa all’innovazione tecnologica a tutti i costi, è che si perda di vista l’obiettivo principale dello sviluppo tecnologico: trascinati dall’entusiasmo verso le nuove possibilità è difficile discernere ciò che è finalmente realizzabile da ciò che è veramente utile. Nicholas Carr (Carr, 2015) mette in discussione l’attrazione contemporanea verso ciò che è legato all’automazione, sostenendo che non sia necessariamente foriera di benes-
la smart-city, potenzialità e rischi della corsa all’innovazione
01. Exilo, vettura sperimentale a basso impatto ambientale. Carlo Gaino
Creatività e nuove tecnologie nella smart-city Progetti sperimentali per visioni e scenari futuri
72
L’IMMERSIONE
sere, né per il lavoratore, né per chi ne fruisce, ma probabilmente conviene solo a chi, dall’automazione, ci guadagna: “Può darsi che sia necessario cambiare la nostra visione del progresso, ponendo l’accento sulla crescita sociale e personale più che sull’avanzamento tecnologico”. Uno dei settori in cui la discussione etica, sociologica ed economica sull’automazione si fa più stringente è quello della mobilità: le possibilità che questa tecnologia offre possono avere un ruolo determinante nel miglioramento del nostro futuro, ma devono essere correttamente indirizzate per avere davvero dei vantaggi per la qualità della vita delle persone.
Se utilizzata con consapevolezza e criticità, la connessione e l’utilizzo delle reti di condivisione possono portare allo sviluppo di prodotti e servizi strettamente collegati tra loro, portando l’innovazione nella mobilità sostenibile a un livello superiore. Si potrebbero risolvere, ad esempio, le principali difficoltà nella diffusione dei veicoli elettrici, sfruttando un mezzo autonomo di ricarica del pacco batterie, che permetta ai veicoli (pubblici o privati) di rimanere sempre in circolazione, eliminando i tempi di stazionamento. La visione del mezzo Exilo, progettato insieme agli studenti dal docente Carlo Gaino, è quella di una vettura elettrica che viene ridefinita estetica-
02. Mantis, veicolo elettrico con trazione a zampe, per una mobilità in assenza di infrastrutture. Tommaso Andolfatto
OFFICINA* N.23
73
mente per esaltare i sensori e le tecnologie della guida autonoma, perdendo i connotati di una vettura classica e stravolgendo l’utilizzo e la gestione della ricarica delle batterie, ottimizzandone la durata durante il tragitto grazie ad infrastrutture alimentate da energie alternative (img. 01). Il progetto Spire, di Linda Cattarin, è una vettura elettrica a guida autonoma, che non vuole definitivamente sostituirsi all’uomo nel momento della guida, ma si concentra invece sul recupero dello spazio urbano dedicato ai parcheggi, utilizzando la guida autonoma per lo stoccaggio del mezzo in zone extraurbane appositamente progettate, variando l’assetto in modo
03. Spire, veicolo elettrico a guida autonoma di dimensioni variabili, per ottimizzare lo spazio per il trasporto e il parcheggio. Linda Cattarin
04. Bug, veicolo con funzione di guida in entrambe le marce, per il trasporto pacchi in centri urbani. Giada Michiante
da diminuire l’ingombro del veicolo una volta parcheggiato. Utilizza inoltre tecniche produttive e materiali che alleggeriscono e semplificano la struttura portante, diminuendo l’impatto ambientale sia nella produzione che nell’utilizzo (img. 03) Nel campo del trasporti merci invece sono subentrate nuove dinamiche che stanno stravolgendo il mercato e la logistica: con l’aumento degli acquisti on-line i corrieri iniziano a ricoprire un ruolo dominante per la diffusione delle merci al dettaglio, le nostre città si stanno saturando di mezzi per le consegne, non più adatti alle esigenze per cui i classici furgoni sono stati riprogettati (img. 06). In quest’ottica si è sviluppato il progetto Bug di Giada Michiante, che ha strutturato il mezzo in base alle dinamiche e alle interazioni dell’utilizzatore con il veicolo e la merce trasportata, ridefinendone le dimensioni e la fun-
zionalità in base all’area di intervento, al basso chilometraggio di spostamento, all’agilità di movimento in centri storici medio/piccoli (img. 04). Uno dei compiti principali del corso è quello di dare la possibilità agli studenti non di immaginare il futuro che verrà, ma di progettare quello che vorrebbero diventasse. Questa differenza sostanziale ha portato anche alla rea-
la tecnologia della guida autonoma nei veicoli, progetti sperimentali che coniugano prodotti e servizi 74
lizzazione di concepts che si collocano in scenari visionari, ma non del tutto utopistici, alla luce della nuova urbanistica estrema che ha la potenzialità di far nascere interi conglomerati urbani in pochi anni (img. 05). Visioni che mettono di nuovo al centro l’essere umano in una sorta di nuovo umanesimo in cui, come nel racconto di Marion Zimmer Bradley (1990), il rapporto con la natura e il lavoro manuale assumono un ruolo centrale per restituire all’uomo la corretta prospettiva di vita. Nello scenario provocatorio proposto nell’immagine 05, livelli diversi individuano aree di mobilità distinte, in cui le merci non interferiscono con gli spostamenti delle persone, e la zona ad altezza suolo mantiene inalterate le caratteristiche naturali. Se la pianificazione urbana viene pensata con un’attenta distribuzione di servizi, residen-
INNOVAZIONE
05. Future vision, interazione uomo e ambiente in una pianificazione territoriale alternativa a livelli: A - Sistema di trasporto merci, B - Rete pubblica, per collegamenti extraurbani e distanze mediolunghe, C - Mobilità sostenibile, per spostamenti medio-brevi. Chiara Silvestri, progetti inseriti nello scenario di: Gioia Borsatto, Carlo Gaino, Stefano Paglia, Denny Roncolato, Riccardo Visentin.
visioni future per un nuovo umanesimo nello sviluppo urbano
BIBLIOGRAFIA - Carr N., “La gabbia di vetro. Prigionieri dell’automazione”, Raffaello Cortina Editore, Milano, 2015. - Townsend A.M., “Smart cities, Big data, civic hackers, and the quest for a new utopia”, W.W. Norton & Company, London/New York, 2014. - Zimmer Bradley m., “L’onda ascendente”, in M. Zimmer Bradley, “Le più belle storie”, Longanesi & C. ed., Milano, 1990.
06. Bracket, veicolo commerciale autonomo a telaio esterno portante. Filippo Rossetti
OFFICINA* N.23
ze e poli socio-economici, si elimina a monte la necessità di spostamenti ormai ecologicamente insostenibili. Nei progetti proposti l’innovazione tecnologica fornisce sempre la spinta per ridefinire architetture e utilizzi inediti dei mezzi, cercando di mettere in evidenza l’applicazione che apre nuove frontiere, da quella - nel migliore dei casi - fine a se stessa.*
75
Corrado Minervini Architetto e urbanista nei paesi in via di sviluppo. corr.minervini@gmail.com
iù di trent’anni fa un gruppo di ricercatori del Politecnico di Torino guidati da Giorgio Ceragioli rifletteva sulla qualità globale dell’abitare nei paesi in via di sviluppo. Quelle riflessioni e le immagini di “edifici-panino” e “colline artificiali” (img. 02) incontrandosi accidentalmente con disegni d’architettura oscurantisti messi in mostra a Milano alla fine degli anni 80 (img. 01) hanno preso forma e nome di “tettoniche”. I concetti chiave di quelle ricerche sono stati riportati in “Minervini C., La collina artificiale. Un’idea per edifici multipiano nei paesi in via di sviluppo. Consiglio Nazionale delle Ricerche, PFEd (Progetto Finalizzato Edilizia), 1995” e “Minervini C. et al, The Artificial Hill: a matrix project, a low-cost and high quality habitat for a metropolitan area, in Proceedings of the Construction in Developing Economies, Santiago, Cile, 2006”. L’innovazione tipologica del “panino” e “collina artificiale”, condivisa dall’edificio tettonico, consiste essenzialmente nella coabitazione, all’interno dello stesso corpo costruito, di funzioni diverse distinguendo tra quelle con assoluto bisogno di luce diretta e naturale – come per le attività residenziali - e quelle che della luce potrebbero farne
a meno, come per certe attività del terziario e alcuni servizi alla residenza. In tal modo sulla parte esterna dell’edificio (la pelle) le abitazioni, ben illuminate potrebbero addirittura godere di giardini o orti residenziali, mentre nella parte interna dell’edificio (la pancia) potrebbero essere ubicati i servizi per la residenza (lavanderie, associazioni e spazi comuni in genere) e servizi per il quartiere o per la città come banche, biblioteche, ambulatori medici e servizi ospedalieri, centri commerciali, cinema, garage, ipermarket ecc. Dall’integrazione di residenza, servizi e attività produttive (ovviamente compatibili con la residenza), nello stesso edificio, risultano evidenti van-
è un contenitore di innovazioni tecnologiche finalizzate al basso costo taggi economici soprattutto in termini di efficienza energetica. Infatti, a seguito dell’affastellamento di funzioni diverse nel medesimo manufatto, la mobilità, con mezzi pubblici o privati, per il raggiungimento dei luoghi di produzione e/o dei servizi alla residenza, si riduce in modo consistente con ricadute positive sul traffico ur-
01. Studi di “Tettoniche” (1984). C. Minervini
Edificio tettonico
Un prototipo edilizio per le città del XXI secolo
76
L’IMMERSIONE
02. Illustrazione del tipo edilizio a “panino”. Le funzioni che non necessitano di illuminazione diretta sono ubicate all’interno. C. Minervini
bano e conseguente abbattimento di emissioni d’ossido di carbonio. Inoltre il multipiano tettonico, in quanto isolato compatto (compact high-rise urban block), ha un basso consumo di energia per il riscaldamento e raffrescamento (low heat energy demand). A ciò si aggiunge che la soluzione tipologica appaga pienamente il desiderio, difficilmente realizzabile per i meno abbienti, di avere il proprio giardino - semmai coltivabile – proprio in centro città. La pelle La copertura dell’edificio tettonico, la sua pelle, consiste in un foglio di ferrocemento a maglia alleggerita che è fatta scivolare addosso alla struttura portante in acciaio. La pelle veste la struttura con un manto sottile, leggero e organicamente modellato. L’immagine che ne risulta è tettonica. La maglia del ferrocemento, si cala e si “impiglia” allo scheletro della struttura. Alla malta di cemento si sovrappongono coltri di isolanti, impermeabilizzanti e materassini vegetali (img. 03) che ospitano opportune essenze a bassa o auto-manutenzione contribuendo all’abbassamento della trasmittanza termica
della copertura/pelle. La posa in opera è dall’alto e fa uso di elicotteri/droni. “Uomini ragno” dotati di prese magnetiche all’estremità degli arti (img. 04) curano i dettagli di finitura e la messa in opera di moduli fotovoltaici a film sottile. La struttura tecnologica L’architettura tettonica è caratterizzata da una alta densità costruttiva e soprattutto tecnologica. Tecnologie verdi, ibride e composite si combinano alla gabbia strutturale. La ricerca su queste tecnologie fu parte integrate di un momento creativo, che gravitava intorno alla Scuola di Specializzazione in “Tecnologia architettura e città per i paesi in via di sviluppo” del Politecnico di Torino che, negli anni ’90, lanciò la sfida per la coesistenza del basso costo e la buona qualità prestazionale. Nello specifico, e nel corso delle ricerche promosse sulla “collina artificiale”, fu ribadito che il corpo strutturale della collina non fosse tanto la gabbia in acciaio quanto la tecnologia in sé, che ricerca, articola e combina materiali nobili, come le leghe al titanio, con materiali semplici e ordinari come per esempio la terra stabilizzata, trucioli di legno e fibra di riso. L’abaco tecnologi-
co proprio della collina e della cultura tettonica è perciò costituito da materiali tecnologicamente ricchi perché opportunamente ed a lungo testati in laboratorio in modo da indurre bassi costi di produzione e energetici e non richiedere manodopera specializzata. Le coperture verdi completano l’abaco e assicurano che le strutture subiscano minimi stress termici e meccanici, che gli interni siano isolati e le acque piovane siano in parte assorbite e regimentate pur permettendo interventi in self-help sia durante il processo costruttivo che manutentivo. Non ultima è stata considerata la questione del monitoraggio telematico e intelligente dell’intero organismo tettonico - degli stress e delle deformazioni della struttura, delle ossidazioni, temperature e misure antincendio, ventilazione, bilancio energetico, smaltimento rifiuti e sicurezza interna - che completa con guizzo altamente tecnologico l’immagine tettonica archetipica. Alla fine l’edificio multipiano tettonico, attraverso le sue tecnologie costruttive e quelle per l’efficienza energetica, riesce in un abbattimento dei costi dell’abitazione a circa la metà. Comunque un buon risultato sulla strada del soddisfacimento del mercato abitativo delle megalopoli dei paesi emergenti e soprattutto dell’auspicio di “Una casa per tutti”. E poi, lo scenario urbano innovativo e primordiale dell’edificio tettonico, facendo tabula rasa dell’immediato passato finisce per restituire originaria dignità all’architettura e all’architetto: ἀρχή (árche) e τέκτων (técton).*
Processo Costruttivo di un edificio tettonico col supporto di materassino vegetale *1 celle solari al carbonio su supporto flessibile *2 rivestimento esterno a base di elastomeri ferrocemento rivestimento interno
elicotteri per vestire la struttura
spidermen per completare la struttura dall’esterno
isolante termico e barriera al vapore malta di finitura interna *1= solo sulle superfici esterne facilmente accessibili dai terrazzi, piante di Tillandsia, invece, sulle superfici non accessibili *2= celle solari al carbonio sulle facciate esposte al sole
03. Dettaglio schematico della copertura. C. Minervini
OFFICINA* N.23
77
04. Illustrazioni del processo costruttivo che fa uso di elicotteri o droni per calare la maglia in ferro e spruzzare malta cementizia. Uomini ragno completano la copertura esterna con materassini vegetali e moduli fotovoltaici. C. Minervini
Lorella Camellina Interaction designer. lorella.came@gmail.com
l pensiero computazionale, inteso come risoluzione di un problema attraverso un procedimento sufficientemente rigoroso e astratto da poter esser applicato a tutti i problemi simili, a prescindere dalle loro dimensioni e caratteristiche peculiari, sta entrando di diritto nel mondo scolastico come vera e propria materia di studio, assecondando la richiesta diretta di importanti figure professionali e politiche. La consapevolezza che nell’economia che ci attende la programmazione non sarà più una competenza opzionale ma un’abilità di base prospetta uno scenario piuttosto chiaro, quello di una società di respiro digitale. Risulta quindi urgente sopperire alla mancanza di professionalità in questo campo, dove si stima che oltre la metà delle opportunità lavorative siano attualmente ancora disponibili e molti paesi, fra cui l’Italia stessa a partire dal 2014, stanno già investendo nell’insegnamento del coding (cfr. Programma il Futuro). L’avviamento scolastico ai principi informatici insegna a pensare con creatività, a ragionare sistemicamente e a lavorare collaborando con gli altri – abilità essenziali nella vita del ventunesimo secolo. Codecheck è un sistema didattico interattivo che vuole creare un primo modello concettuale di coding in età
01. Codecheck: i blocchi necessari alla “scrittura” della storia.
prescolare attraverso l’esperienza tangibile del pensiero computazionale e che può rappresentare uno strumento propedeutico all’insegnamento della programmazione digitale. Il riferimento che ne guida la formalizzazione è il Metodo Montessori e le motivazioni di tale scelta, apparentemente anacronistica, vanno ricercate nella volontà di riportare la centralità della questione sull’utilizzatore finale, cioè il bambino, nonché nella necessità di un apporto scientifico-pedagogico al processo di design. Riconsiderare oggi le teorie della pedagogista marchigiana, anche alla luce delle nuove tecnologie, ha abilitato una progettualità innovativa e ad elevata valenza sociale.
modalità di interazione fisica e cognitiva del bambino con il sistema che consente l’apprendimento
Codecheck: introduzione al coding in età prescolare Il Metodo Montessori negli scenari educativi contemporanei
78
L’IMMERSIONE
la programmazione non sarà più una competenza opzionale ma un’abilità di base
02. Codecheck: una delle possibili storie da raccontare.
I capisaldi sui quali si sviluppa il Metodo Montessori sono i concetti di educazione alla libertà e la cosiddetta autoeducazione. Il primo consiste in una rivoluzione dello spazio educativo e non solo, il cui obiettivo è consentire ai bambini di muoversi ed esprimersi in libertà. Incredibilmente per l’epoca, la pedagogista marchigiana riprogetta l’ambiente educativo facendo a meno del banco, che analizza e valuta come limite fisico e mentale per ogni alunno (Montessori, 1950). Il secondo assioma sull’autoeducazione diverge dalla convinzione, spesso difficile da inibire negli adulti, che sostituendosi al bambino nei momenti di scoperta lo si possa aiutare. Non a caso, l’espressione “Aiutami a farlo da solo!” è ancora oggi la frase simbolo del Metodo. Maria Montessori attua il suo Metodo scientifico-pedagogico attraverso strumentazioni da essa stessa progettate, coprodotte, sperimentate e affinate, attuando quelle che riconosciamo oggi come tipiche tecniche dello User-Centered Design e cioè un tipo di
progettazione centrata sull’utente, partecipata e iterativa. Tutto ciò, agli inizi del ‘900, dà vita al materiale didattico, all’ambiente educativo e alla figura dell’insegnante-guida utilizzati tutt’ora nelle scuole montessoriane (Montessori, 2012). Proprio riferendosi ai materiali didattici Giovanni Anceschi (2009) sottolinea come l’esperienza diretta che se ne fa produca un forte impatto, soprattutto nelle figure professionali classicamente coinvolte nel progetto. Avvicinarsi agli arredi, guardare e maneggiare i materiali significa confrontarsi con veri e propri esempi di design anonimo (Bassi, 2007) che, nella specificità del caso, proprio così anonimi poi non sono. Il principale aspetto che Codecheck mutua dal Metodo risiede nella modalità di interazione fisica e cognitiva del bambino con il sistema che consente l’apprendimento delle basi del pensiero computazionale attraverso il ciclo “esercizio, errore, autocorrezione, ripetizione”, esattamente come avviene negli esercizi sensoriali montessoriani. Partendo dal concetto di codice come vero e proprio linguaggio orientato all’esecuzione di azioni e scomponibile in una grammatica di elementi primi, Codecheck insegna a “scrivere” storie attraverso appositi blocchi tangibili. Gli elementi che compongono il sistema interattivo sono tre: il cubo sample, che definisce in maniera casuale la storia da replicare, ossia l’obiettivo da raggiungere; la lavagnetta di input, dove si cerca
03. Codecheck: posizionamento dei blocchi nella lavagnetta di input.
OFFICINA* N.23
79
di ricomporre la storia ascoltata in precedenza attraverso il posizionamento di appositi blocchi; il cubo di output, strumento per verificare la correttezza del lavoro svolto in input. L’eventuale errore viene rilevato direttamente dal bambino che ha la possibilità di correggerlo autonomamente e imparare dalle proprie esperienze, fino al raggiungimento dell’obiettivo. Codecheck prende il via da una tesi di ricerca elaborata nel 2016 per il corso di laurea magistrale in Product Interaction Design dell’Università degli Studi della Repubblica di San Marino. Quanto riportato fin qui rappresenta solo uno step all’interno di un percorso progettuale e di ricerca in itinere che ha già visto il coinvolgimento di un piccolo gruppo di utenti per dei test preliminari a vari livelli di prototipazione. La direzione risulta consona al target individuato (4-6 anni) e si adatta pienamente all’insegnamento del coding in contesti sia scolastici che ludici.*
BIBLIOGRAFIA - Anceschi G., “Le due pedagogie” in “Maria Montessori. Un design per la pedagogia”, (pp. 13-17), Grimaldi, P., Manzotti, R., (a cura di), Chiaravalle, 2009. - Bassi A., “Design anonimo in Italia. Oggetti Comuni E Progetto Incognito”, Electa, Milano, 2007. - Montessori M., “The Montessori Method. Scientific pedagogy as applied to child education in the children’s houses’”, Frederick A. Stokes Company Publishers, 2012. - Montessori M., Il segreto dell’infanzia, Garzanti, Milano, 1950. - Umaschi Bers M., Horn M. S., “Tangible programming in early childhood: revisiting developmental assumptions through new technologies”, Tufts University, Medford, 2009.
Vincenza Ferrara Laboratorio Arte e Medical Humanities, Facoltà Farmacia e Medicina, Università “La Sapienza” di Roma. vincenza.ferrara@uniroma1.it Barbara Villa Ricercatrice indipendente – Facilitatore VTS. barbara.villa99@gmail.com
nnovare, dare nuova forma e nuova prospettiva a vecchi ingranaggi, metodi e strategie: che si parli di musei, scuole, accademie tutto ciò è possibile grazie a un differente approccio all’immagine - opera d’arte o strumento – oggetto del metodo delle Visual Thinking Strategies (VTS)1, strategie di pensiero visuale. Viviamo in una società di immagini senza averne la percezione né tantomeno la padronanza, al contrario siamo spesso fruitori totalmente inconsapevoli e maldestri. Il dibattito contemporaneo affronta la questione promuovendo delle riflessioni sull’essere dell’immagine? Un modo di rispondere alla domanda “Che cos’è l’immagine?”, precisamente una categoria. La risposta affrettata della storia della filosofia “occidentale”, o affrettatamente letta nella sua vulgata, fa dell’essere dell’immagine un essere minore, un calco, una copia, una seconda cosa capace di minore realtà2. Rudolf Arnheim già nel secolo scorso dimostrò quanto questa apologia della parola avesse creato un’analfabetizzazione
sensoriale generale e attraverso la psicologia della Gestalt aprì la riflessione sul tema percezione-concetto: il senso della vista opera attraverso la formazione di concetti visuali, cioè attraverso pattern figurativi che sono adattati all’apparizione di oggetti nell’ambiente3. La lunga premessa vuole solo essere la corretta cornice a una riflessione sul tema dell’immagine e sull’importanza del suo uso “consapevole” che la rende uno strumento tale, grazie ad alcune strategie, da permettere all’osservatore di sviluppare competenze cognitive, intellettive e relazionali e promuovere approcci innovativi di educazione al patrimonio.
le Visual Thinking Strategies come strumento che hanno l’obiettivo di stimolare il processo critico attraverso il pensiero visuale
Dal museo che racconta al museo che ascolta Dal 2007 l’ICOM (International Council of Museums) ha definito il Museo come luogo di apprendimento ma anche di diletto mettendo il visitatore al “centro” dei percorsi di visita favorendone l’esperienza. La Convenzione di Faro (2005)4 qualifica il visitatore come persona riconoscendo che il diritto al patrimonio culturale è inerente al diritto al partecipare alla vita culturale così come definito dalla Dichiarazione universale dei diritti dell’uomo e sottolinea che la conservazione del patrimonio cultura-
Innovare il racconto e rinnovare lo sguardo Il nuovo approccio delle Visual Thinking Strategies
80
L’IMMERSIONE
01. Pratica del metodo VTS alla Galleria Nazionale con adulti. Vincenza Ferrara
le e il suo uso sostenibile hanno come obiettivo lo sviluppo umano e la qualità della vita; è pertanto necessario rendere il patrimonio culturale accessibile a tutti. Il metodo delle VTS sembra rispondere alle esigenze manifestate, rovesciando completamente il punto di vista del processo, ripreso dal modello costruttivista e applicato alla visita al museo: al centro è posto il visitatore che racconta la propria storia sull’oggetto museale. Il museo acquisisce quindi nuove “storie” raccontate direttamente dai visitatori costruite ponendo tre domande aperte collegate alle immagini proposte: - Cosa sta succedendo in questa immagine, oggetto? - Quali sono gli elementi visivi che supportano la tua ipotesi? - Che altro possiamo trovare? Il facilitatore introduce le regole di partecipazione: guardare attentamente l’immagine o l’opera d’arte, parlare uno per volta, chiedere di partecipare alla discussione alzando
OFFICINA* N.23
la mano, descrivere che cosa si è osservato, sostenere le proprie idee con elementi di prova, ascoltare e considerare i punti di vista degli altri, discutere delle molte e possibili interpretazioni. Il facilitatore dovrà inoltre veicolare l’importante messaggio che non vi è nulla di giusto o sbagliato né vi è una valutazione delle opinioni. I partecipanti non conoscono l’opera d’arte oggetto delle VTS e non viene data loro alcuna informazione su di essa (autore, titolo, soggetto, ecc.) al fine di stimolare la capacità di concentrazione/osservazione. Quando un partecipante propone una definizione qualitativa, il facilitatore interviene chiedendo ulteriori informazioni tangibili che permettano di avallare tale definizione “Quali sono gli elementi visivi che provano ciò che hai detto?”. I partecipanti vengono pertanto sollecitati a dare una motivazione logica di ciò che hanno descritto in seguito a una prima osservazione dell’opera. L’osservatore viene guidato a comprendere i dettagli e la
81
relazione tra essi per riorganizzarli e trovare la chiave di lettura dell’immagine proposta. Con l’ultima domanda “Cos’altro vedi nell’immagine?” il facilitatore induce i partecipanti ad affinare la visione dell’immagine, permettendogli di ricercare quei dettagli sfuggiti a una prima analisi. Tale processo esperienziale produce delle storie che i partecipanti raccontano collegando gli elementi visuali con le proprie conoscenze ed esperienze culturali e sociali. Alla fine dell’attività il facilitatore svela il soggetto e l’autore dell’opera. Tale pratica può essere realizzata al museo e nelle scuole: in piccoli gruppi in modo da stimolare una discussione articolata da parte dei partecipanti che dovranno supportare le loro opinioni indicando le evidenze visive (img. 01). In ambito educativo questo approccio supporta l’istruzione aperta, incentrata sullo studente che è parte integrante delle migliori pratiche nella pedagogia corrente per incoraggiare il pensiero critico.
02. Pratica del metodo VTS nella scuola a partire dall’infanzia. Vincenza Ferrara
le Visual Thinking Strategies promuovono la cooperazione, il rispetto e la tolleranza dei vari punti di vista
VTS è anche un potente strumento che promuove la cooperazione, il rispetto e la tolleranza dei vari punti di vista e quindi può essere utile per l’inclusione sociale e l’integrazione (img. 02); può essere quindi realizzata in altri luoghi sociali per attivare processi di tipo collaborativo che permettono la partecipazione di chi ha bisogni educativi speciali o disturbi specifici dell’apprendimento e agevolando il dialogo tra culture. Tale metodo viene utilizzato in corsi di team building o con minori in detenzione con risultati sorprendenti legati al potere delle immagini e in particolare quelle collegate all’arte che permettono agli individui di rilassarsi e di sviluppare l’empatia. D’altronde la letteratura scientifica, in particolare quella collegata alle neuroscienze, ci indica che una particolare classe di cellule nervose, i neuroni specchio, sono in grado di attivarsi per imitazione quando osserviamo qualcuno compiere un gesto, riflettendo, come uno specchio appunto, ciò che “vedono” nel
82
cervello altrui5. Tale esperienza conferma quanto la produzione artistica e l’esposizione all’arte possa migliorare le competenze e sviluppare l’empatia. Seguendo l’esperienza dell’Harvard University, l’uso di questo metodo è stato introdotto come sperimentazione in corsi di laurea in Medicina: l’arte, mediante le attività di osservazione, analisi, confronto e discussione date dalla VTS, consente allo studente di medicina di acquisire un metodo da applicare anche nell’attività clinica, migliorando le competenze nell’esame obiettivo del paziente, implementando le capacità di problem solving e pensiero critico, abituandosi al lavoro di gruppo, coltivando l’empatia verso il paziente e il rispetto dell’altro6 (img. 03). Altri studi sono in corso per utilizzare la pratica delle VTS per limitare lo stress e il burnout degli studenti e del personale dell’ambiente medico e sanitario. Negli USA il metodo è talmente diffuso che il New York Times ha una
L’IMMERSIONE
03. Pratica del metodo VTS in laboratorio con gli studenti di medicina. Vincenza Ferrara
sezione specifica dedicata alla VTS, What’s going on this picture (WGOITP): un esperimento iniziato nel 2012 sul blog della testata giornalistica in collaborazione con il gruppo VTS, inutile dire che è stato un successo e il servizio è tuttora attivo sul portale del NYT. In questo caso vengono utilizzate immagini fotografiche collegate a fatti quotidiani sollecitando così attraverso l’utilizzo delle VTS una discussione e un confronto tra i partecipanti. Tale approccio potrebbe costituire una suggestione per la creazione di un tool digitale per poter permettere ai visitatori di un museo, ad esempio, di potersi cimentare nella ricerca di senso di un’opera secondo le proprie conoscenze potendo leggere i commenti di altri visitatori.*
OFFICINA* N.23
NOTE 1 – Visual Thinking Strategies: metodo didattico che nasce negli USA a metà degli anni Settanta grazie al lavoro di una psicologa cognitivista, Abigail Housen con l’obiettivo di stimolare il processo critico attraverso il pensiero visuale. Cfr. Ferrara V. Arte e apprendimento- Strategie di pensiero visuale, Digilab Sapienza, Roma, 2016; 2 – Marin L., “L’essere dell’immagine e la sua efficacia”, in Pinotti A., Somaini A. (a cura di), “Teorie dell’immagine. Il dibattito contemporaneo”, Raffaello Cortina Editore, Milano 2009, p. 273. 3 – Arnheim R., “Pensiero visuale”, Mimesis, 2013, Milano (I edizione 1969), p. 17; Cfr. anche Arnheim R., “L’immagine e le parole”, a cura di Pizzo Russo L. e Calì C. , Mimesis, Milano, 2007. 4 – Convenzione di Faro (STCE n°199). Convenzione quadro del Consiglio d’Europa sul valore del patrimonio culturale per la società. 5 – Rizzolatti G., Gnoli A., “In te mi specchio, per una scienza dell’empatia”, BUR, Milano, 2018. 6 – Ferrara V., De Santis S., Giuliani C., et al., “L’Arte dell’osservazione, dall’opera artistica alla diagnosi. Le prime esperienze” in Sapienza Università di Roma a Medicina e Chirurgia, Medicina e Chirurgia, 72: 3269-3273, 2016. DOI: 10.4487/medchir2016-72-2. BIBLIOGRAFIA - Arnheim R., “Pensiero visuale”, Mimesis, Milano, 2013 (I edizione 1969). - Arnheim R., “L’immagine e le parole”, a cura di L. Pizzo Russo e C. Calì, Mimesis, Milano, 2007. - Balnding M., “Museum Studies Art unleashes emotions and discussion among new doctors”, www.magazine.hms. harvard.edu/art-medicine/museum-studies - Ferrara V., “Arte e apprendimento - Strategie di pensiero visuale”, Digilab Sapienza, Roma, 2016. - Ferrara V., De Santis S., Giuliani C. et al., “L’Arte dell’osservazione, dall’opera artistica alla diagnosi. Le prime
83
esperienze” in Sapienza Università di Roma a Medicina e Chirurgia”, Medicina e Chirurgia, 72: 3269-3273, 2016. DOI: 10.4487/medchir2016-72-2 - Pinotti A., Somaini A., (a cura di), “Teorie dell’immagine. Il dibattito contemporaneo”, Raffaello Cortina Editore, Milano, 2009. - Rizzolatti G., Gnoli A., “In te mi specchio, per una scienza dell’empatia”, BUR, Milano, 2018.
Open Resources
Modello di innovazione sociale Arianna Mion Laurea Magistrale in “World Politics and International Relations” presso l’Università degli Studi di Pavia. ariannamion0@gmail.com
Secondo la Commissione Europea: “Social innovations are new ideas that meet social needs, create social relationships and form new collaborations. These innovations can be products, services or models addressing unmet needs more effectively. The European Commission’s objective is to encourage market uptake of innovative solutions and stimulate employment”1. Un esempio virtuoso di innovazione sociale che caratterizza il territorio trevigiano è Open Resources, che ha ideato un piano di inclusione sociale e rigenerazione urbana, dove giovani disoccupati e rifugiati si incontrano in una realtà di coworking e cohousing. Associazione di promozione sociale, nata solamente due anni fa, è essa stessa composta da giovani e ha all’attivo varie collaborazioni. Nel 2016 l’Università Ca’ Foscari di Venezia organizzò la seconda edizione del The Urban Innovation Bootcamp, esperienza di didattica formativa da cui prese avvio Open Resources con il suo progetto pilota. Quest’ultimo si è posizionato tra i 30 semifinalisti del European Social Innovation Competition edizione 2018 a tema Re:Think Local2. Cosa vi ha spinto all’ideazione e alla creazione di Open Resources? La situazione dell’accoglienza nel settore della migrazione nel 2015 ci ha portati a creare Open Resources. Abbiamo visto come sono nate alcune realtà, nella nostra città e nel Paese, che accoglievano richiedenti asilo, le quali erano evidentemente spinte dalla redditività di questo settore. Abbiamo infatti notato come alcune tra esse non erano nemmeno interessate a costruire percorsi di inclusione nei confronti di chi veniva accolto. C’era e c’è tuttora un problema in merito agli spazi abbandonati e degradati delle nostre città, sulle quali non si riesce a intervenire perché i costi di ristrutturazione non sono accessibili a tutti. Oltre a ciò vige ormai un dato strutturale sulla disoccupazione giovanile in Italia che riguarda soprattutto le persone che hanno abbandonato gli studi e non cercano neanche lavoro: i famosi neet. Quest’ultimi si sommano ai richiedenti asilo che soggiorneranno in futuro nel nostro territorio. Abbiamo perciò pensato in che modo si poteva riuscire a dare un’opportunità a tutti. Quali sono i principali progetti di Open Resources e che impatto hanno sul territorio locale?
OPEN RESOURCES www.openresources.it info@openresources.it
Ad oggi abbiamo in piedi una ciclofficina sociale che vorrebbe diventare un luogo di incontro utilizzando la bicicletta come “veicolo” delle relazioni. La bici viene
84
ALMICROFONO
usata tantissimo nel nostro territorio ed è il mezzo principale con cui si muovono i richiedenti asilo. Unendo questi due aspetti vorremmo, da una parte far condividere una cultura sulla mobilità diversa e meno impattante da quella esistente e dall’altra parte far incontrare le persone attraverso la bici. Oltre a questo progetto, stiamo continuando a relazionarci con molte realtà per sviluppare nel concreto il nostro piano di riqualificazione urbana. Dalla nascita di Open Resources, quali sono le principali difficoltà che avete dovuto affrontare? Il più grande ostacolo sono state le amministrazioni e le 01. Consiglio direttivo di Open Resources (Loggia dei Cavalieri, Treviso). istituzioni. Purtroppo nonostante decine di incontri, di report, di interviste su giornali nazionali, locali e riviste specializzate, il Paese non comprende che un’accoglienza come la proponiamo noi è generativa (riqualificazione urbana, occupazione qualificata e seria, autonomia abitativa, autoimprenditorialità) mentre quella dei decreti Maroni e Minniti purtroppo è solo una gestione emergenziale che brucia miliardi di risorse e crea falsi miti come quello dei 35 euro destinato ad ogni richiedente asilo. Dopo la vostra partecipazione all’European Social Innovation Competition, come pensiate si collochi l’innovazione sociale in Italia rispetto agli altri Paesi europei? In Italia l’innovazione sociale è ancora poco praticata rispetto allo standard europeo. I paesi nordici, come in altri settori, hanno fatto scuola e oggi rispondono a problemi di welfare accostando l’azione privata in campo di innovazione sociale a quella pubblica. Nonostante ciò, anche in Italia c’è una crescente attenzione a questo tema e negli ultimi cinque anni sono nate importanti iniziative anche a livello territoriale. Se consideriamo la forte segregazione, sociale ed urbana, subita da parte di chi vive in condizioni di marginalità, ritenete che il vostro progetto pilota potrebbe diventare un modello di inclusione applicabile anche in altre realtà geografiche? Assolutamente si. Il modello nasce per essere scalabile e replicabile; soprattutto anche considerando che di immobili inutilizzati che servirebbero per rispondere al problema della ricerca della casa il nostro Paese ne ha davvero tanti. Inclusione sociale ed innovazione sociale: in seguito alla vostra esperienza, qual è secondo voi la relazione che le contraddistingue? La relazione tra innovazione sociale e inclusione è data dal fatto che in Italia, come in altri contesti, le azioni più significative puntano a risolvere problematiche legate alla marginalità sociale o economica. Questo è uno dei principali temi oggi in tutta Europa visti gli effetti della crisi economica, i mutamenti delle configurazioni sociali conseguenti e la crisi dei rifugiati. Strumenti di innovazione sociale possono essere decisivi per creare società più inclusive e meno problematiche.* NOTE 1 – Sul sito della Commissione Europea è dedicata una sezione all’innovazione sociale www.ec.europa.eu/growth/industry/innovation/policy/social_it (29/10/2018). 2 – “The European Social Innovation Competition is a challenge prize run by the European Commission across all Horizon 2020 associated countries. Organised in memory of Diogo Vasconcelos, the Competition calls all Europeans to come up with solutions to the problems affecting our society. ” Sul sito della Commissione Europea è possibile trovare ulteriori dettagli a riguardo www.ec.europa.eu/growth/industry/innovation/policy/social/competition_it (29/10/2018).
OFFICINA* N.23
85
strumenti di innovazione sociale possono essere decisivi per creare società più inclusive e meno problematiche
Pura invenzione?
morta. Assemblando resti organici di cadaveri, ha dunque fatto esistere una creatura orrenda. Un Mostro: evento/ cataclisma, dagli esiti immediatamente disastrosi. Una volta compreso che da quel suo ‘padre’ troppo ambizioso non solo mai sarà amato, ma neppure otterrà ciò di cui più avrebbe desiderio (una compagna, un amore), il Mostro viene preso da una brama ossessiva di vendetta, la più funesta, nei confronti di Frankenstein. Incomincia a vagare, spostandosi nell’oscurità delle notti, prigioniero della sua solitudine, invelenito dal suo straziante anonimato. E miete vittime, il Mostro, uccide: prima il piccolo William, fratellino di Victor, poi Henry Clerval, amico fraterno di Frankenstein, e infine Elisabeth, bambina
e poi giovane donna sempre vicina a Victor, sua sposa promessa. Si aggiungono alla lista altri martiri indiretti: la giovane Justine, giustiziata perché ritenuta l’assassina del piccolo William, e il padre di Frankenstein, il quale muore di dolore alla notizia della perdita della ‘figlioccia’ Elisabeth. Il romanzo è epistolare, scorre al ritmo delle lettere via via più addolorate spedite da Frankenstein all’amica Elisabeth, cadenzato dall’angoscioso pulsare con cui avvengono i delitti perpetrati dal Mostro. Tra incontri e disincontri, appostamenti e nascondimenti, nella magnifica natura svizzera, ecco per molte settimane Frankenstein e la sua Creatura inseguirsi. Braccarsi, ma anche fuggirsi. Sino al tragico finale, sulla nave di Walton, tra i ghiacci polari, quando sia il Mostro che Frankenstein trovano la morte, al contempo, con il cessare delle loro esistenze, entrambi liberandosi dei propri tormenti. Per uno il tormento di aver creato; per l’altro, la terribile pena di essere stato creato.” Vale la pena di leggere e rileggere Frankenstein periodicamente, riflettere insieme e partecipare a Passaparola, questo estesissimo gruppo di lettura.*
Nikola Tesla Sergio Rossi, Giovanni Scarduelli BeccoGiallo, 2018
Why Materials Matter Seetal Solanki Prestel , 2018
Pura invenzione. Dodici variazioni su Frankenstein Lisa Ginzburg Marsilio 2018 design Alice Beniero
el corso del suo viaggio di perlustrazione dei territori antartici verso il Polo Nord, il capitano ed esploratore Robert Walton avvista un uomo in mare, rannicchiato in una slitta che a sua volta galleggia su un lastrone di ghiaccio. L’uomo viene fatto salire sulla nave: appare molto provato, nel corpo e nello spirito, e tormentato da una forsennata urgenza di raccontare la sua storia. Si tratta di Victor Frankestein, membro di un’importante famiglia di Ginevra, la città dove è nato e cresciuto. Dopo gli studi di medicina, filosofia naturale e anatomia in Germania, per ambizione, e per superbia, Frankenstein ha tentato di realizzare il più spropositato dei propositi: infondere vita nella materia
a cura di
sullo scaffale
Le visionarie AA. VV. Produzioni Nero, 2018
86
CELLULOSA
Paracetamolo “Well strip the bark right off a tree and just hand it this way Don’t even need a drink of water to make that headache go away” The White Stripes, Girl, You Have No Faith In Medicine, Elephant, 2003 Immagine di Emilio Antoniol
(S)COMPOSIZIONE