Come può il design affrontare la s�ida della diversità, della caratterizzazione e dell’ottimizzazione? Come si può oggi progettare per creare non un solo prodotto, ma un sistema di prodotti?
Queste sono le domande (ipotesi) a cui il metodo generativo (tesi) dà una delle possibili risposte.
Un approccio affascinante, avanzato prima dalle arti �igurative, poi dal design di ricerca non disgiunto da queste, quello delle sperimentazioni intuitive di Enzo Mari e Gaetano Pesce, oggi dalle star dell’architettura come Libeskind e Arup, e ancora dalla gra�ica svizzera contemporanea �ino a Celestino Soddu, che al Politecnico di Milano sviluppa la potenzialità dei software generativi. Il progetto non si chiama più così, ma idea-processo, di cui il designer non è più il solo demiurgo.
E’ un designer, quello generativo, che manipola l’idea attraverso l’algoritmo, ossia un procedimento che permette, per ogni input, di avere un output diverso.
In altre parole, come in natura, una regola creativa che si auto-genera in in�inite eccezioni. Per il designer, potrebbe anche cessare la paura del foglio bianco, che c’è anche quando, metodologicamente parlando, tutto è pronto per prendere la matita in mano: analisi compiute, scenario, target, e concept de�initi. Ma, siamo solo agli inizi.
Politecnico di Torino I FacoltĂ di Architettura
Tesi di Laurea
Un approccio alla complessitĂ delle arti.
Relatore Prof. Claudio Germak
Candidato Mauro Melis
Politecnico di Torino I FacoltĂ di Architettura
Tesi di Laurea in Disegno Industriale
Relatore Prof. Claudio Germak
Candidato Mauro Melis
Anno Accademico 2009/2010
Sommario PARTE 1. ANALISI STORICA
1
1. Introduzione
3
Il Nome
6
Le Origini Storiche
7
2. Il nuovo modello di pensiero
8
Il Determinismo
8
La scoperta del caos
9
La Complessità
12
Il Postmoderno
15
3. Il computer
24
L’algoritmo
25
Un esempio: i frattali
27
4. Dall’informale all’arte generativa
30
La Regola
30
L’Arte Generativa
39
Conditional Design
44
5. Galleria d’arte generativa
46
Prima del computer
46
Nel mezzo
54
Con il computer
60
PARTE 2. GLI STRUMENTI TEORICI 6. I sistemi complessi
91 93
Classificazione della Complessità
95
L’adattamento
98
L’emergenza
99
7. La casualità Casualità e processo creativo
8. Sistemi Generativi
101 102
109
Progettazione Parametrica
110
Funzioni Iterative
111
Lindenmayer Systems
111
Self-Organization E Self-Assembly Systems
112
Cellular Automata
113
Flocking of Birds
115
Sistemi Evolutivi
115
Generative Grammars
118
Morphing
119
PARTE 3. GLI STRUMENTI OPERATIVI 9. Il Software
121 123
Storia
124
Software di Programmazione
125
Il nuovo CAD
126
Plugin e Script
127
Un esempio: Grasshopper
128
10. Tassonomia
129
Geometria di base
130
Figure geometriche primitive
131
Creazione di superfici
132
Analisi
133
Trasformazioni
134
Operatori logici
135
Parametrizzazione e controllo
136
Gestione del colore
137
11. Identità
138
PARTE 4. LE APPLICAZIONI ATTUALI
141
12. Ottimizzazione
143
13. L’Architettura
146
Architettura Computazionale
146
Architettura Generativa
148
Esempi
149
14. Grafica e interactive design
161
15. Product design
167
Esperimenti
167
Produzioni
174
16. Casi studio
185
ToDo
185
Argenia
189
17. Eccessi ed utopie
PARTE 5. VERSO IL GENERATIVO 18. Il design: le strade aperte
197
201 203
Le serie diversificate
203
Caos organizzato
206
L’infografica
208
19. La diffusione del generativo
PARTE 6. L’APPROCCIO GENERATIVO NEL DESIGN 20. Le applicazioni del generativo al design
211
213 215
Varietà
216
Adattamento ai vincoli
218
Complessità effettiva
220
ComplessitĂ apparente
222
Auto-organizzazione
223
Dipendenza dallo stato iniziale
225
21. Un nuovo percorso progettuale
226
22. Product design: i nuovi equilibri
229
Il designer e il computer
229
La produzione
233
Il consumatore
237
23. Conclusioni
239
I pro
239
I contro
241
24. Bibliografia
244
Parte 1. Analisi storica
1. Introduzione L’idea che da un sistema di moduli semplici possa nascere un qualcosa di complesso, o comunque formalmente riconducibile ad esso si aggirava da qualche anno nella mia testa. Il fascino delle poetiche generative mi condusse a scoprirne i segreti, i sistemi non lineari, le regole emergenti. Da allora sono sempre più convinto delle mie ipotesi. Questa tesi si occuperà del design generativo, ovvero quel tipo di design sviluppato tramite l’evoluzione di un algoritmo, un codice computato al computer. In questo modo si ottengono eventi, immagini, forme, suoni, modelli 3D che crescono e si modificano nel tempo seguendo una certa regola, definita appunto nell’algoritmo. Il ruolo del designer quindi si sposta dal progettare l’oggetto finito al progettare la regola generativa, a programmare l’evoluzione di un sistema senza poterne prevedere in partenza tutti gli esiti. Ma questo atteggiamento non è nuovo, è precedente all’uso del computer, si può collegare alle sperimentazioni di Pesce sulla serie diversificata, agli oggetti di Mari e Munari, nasce dall’arte cinetica e passa per l’arte processuale. Non a caso anche il design generativo è nato dall’arte generativa. Allora allargheremo l’analisi a tutto questo atteggiamento progettuale che potremmo definire “programmato”, approfondendo quei metodi che utilizzano il computer, ma toccando anche i procedimenti idealmente vicini. Ma se allora questo modo di progettare non è nuovo, che potenzialità in più dà il computer rispetto ad esempio all’oggetto a composizione autocondotta di Mari?
Una di queste è il fatto di poter simulare la complessità, il computer ci permette di gestire e relazionare contemporaneamente innumerevoli elementi tanto che perdiamo la capacit{ di “capire” il sistema, ed esso ci appare come qualcosa di superiore, quasi creato da altro, un po’ come le creazioni naturali. E’ qui che secondo me sta la forza e il fascino di queste operazioni. Allora ho concentrato le mie analisi sul concetto di complessità: sistemi non lineari, teoria del caos, teoria dei sistemi, frattali, cercando di capire come ottenere la complessità. Naturalmente si può raggiungere la complessità semplicemente programmando un algoritmo che la simuli, e qui si chiude il mio cerchio logico. Inoltre il computer ci permette la simulazione, ovvero la sperimentazione virtuale di qualcosa che ancora non c’è materialmente, ecco perché il design generativo si è sviluppato soprattutto nell’ambito della grafica virtuale, pur toccando temi come l’ingegneria, il product design, l’architettura. In realt{ il legame forte con il mondo del prodotto nasce con l’avvento delle macchine a controllo numerico, che reificano la flessibilità del codice. Ma facciamo un passo indietro, Jer Thorp, sotto il nickname Blprnt_van, è stato il primo nome incontrato durante la mia ricerca,
ma
è
una
personalità
molto
interessante, perché ci permette di collegare alcuni concetti che esploreremo in queste pagine. E’ un programmatore. E’ un artista, piuttosto critico per altro. E’ un comunicatore. Insomma, abbiamo a che fare con un artista generativo che utilizza gli algoritmi per creare opere infografiche ad alto contenuto estetico. L’infografica è una tecnica che permette di visualizzare
graficamente
informazioni
complicate in modo semplice ed intuitivo. Ma ciò che stupisce di più è quanto possono apparire complesse le sue opere.
E’ vera complessit{? Molto probabilmente no, ma è innegabile che queste opere abbiano un fascino magnetico. Saremmo mai capaci di creare complessità reale nel mondo del design? Probabilmente no, almeno con le tecnologie attuali, ma ricreare quel fascino, questo si. Eppure non manca qualcuno che ci ha provato realmente, allora questa tesi vuole essere una spinta a provarci, facendo il punto sulle innovazioni e sulle possibilità applicative portate da chi ci sta già provando.
Il Nome Per capire innanzitutto di cosa stiamo parlando bisogna definire i vari termini con i quali è indicato l’argomento del nostro studio; esistono infatti diversi aggettivi che seguono il nome design o arte o architettura, spesso usati erroneamente come sinonimi:
Computazionale: indica qualcosa che viene programmato al computer, e fa espressivo riferimento al mondo del software. E’ il termine più generale ed è utilizzato in informatica. In quest’ambito rientra quindi tutta la programmazione, sia essa software, videogames, animazione virtuale, grafica, interactive che si basa su un qualcosa di programmato. Il design computazionale si interessa di tutto questo ma con un’ottica essenzialmente progettuale.
Generativo: indica quei sistemi che vengono generati a partire da un algoritmo o comunque da delle regole date.
Procedurale: si riferisce a qualcosa che procede e si evolve, mettendo l’accento sull’aspetto processuale dell’algoritmo.
Le diverse sfumature di significato stanno a sottolineare la ricchezza semantica e l’origine multidisciplinare del design generativo, ma i tre termini vengono usati in maniera praticamente interscambiabile. Il termine evolutivo, è invece una sottocategoria di quello che stiamo studiando e si basa espressamente su un algoritmo evolutivo, ovvero su un processo simile a quello dell’evoluzione naturale, dove gli oggetti più rispondenti alle caratteristiche volute vengono ibridati tra loro a formare nuove generazioni di oggetti fino a selezionarne il migliore. In questo scritto indicheremo l’ambito di cui ci occupiamo design generativo, dove design riflette la finalit{ progettuale del maggior benessere per l’uomo e la poliedricità di una professionalità in continua evoluzione. D’altra parte il termine generativo è il migliore per definire il fatto che un qualcosa nasce da altro, ma è solo a questo secondo livello che può operare il progettista.
Le varie categorie di design generativo prendono il loro nome dal tipo di algoritmo che esse utilizzano, e quindi abbiamo una grande varietà di approcci e metodi all’interno di questo mondo.
Le Origini Storiche Il design generativo deve la sua nascita principalmente a 3 fattori:
La crisi del modello positivista-deterministico e il cambiamento culturale verso il modello complesso-sistemico.
La nascita dei computer e l’informatica.
La New media art.
2. Il nuovo modello di pensiero Il Determinismo Il rinascimento rappresentò la riscoperta della ragione e il sorpasso dagli anni bui del medioevo: la scienza, le arti, la filosofia , ritrovatesi insieme, procedevano congiuntamente in una nuova armonia. Una delle concezioni più radicali del rinascimento, riscoperta tramite lo studio dei classici greci, centrale nell’intera filosofia occidentale, è quella di determinismo. Questa teoria afferma che tutte le cose sono sottoposte a relazioni di causa-effetto. Poiché noi siamo in grado di conoscere cause ed effetti, siamo in grado di prevedere gli effetti, ovvero il comportamento di un qualcosa ad un dato tempo, a partire dalle cause. Determinismo significa quindi che il futuro è determinato dal presente e prevedibile a partire da questo. Inoltre secondo il determinismo, tutti i fenomeni che reputiamo casuali sono semplicemente dovuti all’insufficienza di informazioni riguardo alle condizioni iniziali di questi sistemi. Sebbene nato in campo fisico con lo studio delle leggi sul moto, questo atteggiamento non fu relegato in ambito scientifico, ma venne applicato a tutte le discipline, arrivando a creare un vero e proprio sistema culturale. Esso premiava il primato della ragione sulla natura, aveva già posto le basi delle leggi matematiche, ed iniziava ad essere verificato scientificamente da personaggi del calibro di Leonardo Da Vinci, Francesco Bacone, Galileo Galilei, che ponevano le basi operative del metodo scientifico. Poco dopo Renè Descart, italianizzato Cartesio (1596-1650), gettava le basi della scienza moderna e sanciva per tutte le volte la differenza tra mente e corpo. Cartesio reputa la conoscenza umana finita, in stretto rapporto alla conoscenza divina, che è infinita e rappresenta la direzione del progresso della scienza umana. Ciò vuol dire che l’uomo tende alla conoscenza totale e perfetta, e quindi può raggiungerla.
In questi termini l’uomo utilizza al meglio il suo intelletto formulando leggi universali e atemporali, mentre tutto ciò che c’è di storico, unico e secondario non deve essere preso in considerazione. Due secoli dopo Pierre Simone de Laplace (1749 - 1827), ispirato dalle recenti scoperte Newtoniane, ipotizzo che se ognuno potesse calcolare condizioni iniziale e forze agenti su tutte le particelle presenti nell’universo sarebbe in grado di conoscere il futuro di questo.
La scoperta del caos Ma già da fine 800 si misero in dubbio queste affermazioni: alcuni sistemi, sebbene regolati dalle leggi meccaniche deterministiche, in particolari condizioni si comportavano in modo casuale: si parlò di caos deterministico. Un sistema caotico si caratterizza per il fatto che la sua evoluzione non è prevedibile, come il lancio di un dado o di una moneta. L’evoluzione di un sistema dinamico è regolata da leggi matematiche, a partire dallo stato iniziale, e quindi a rigore non può essere casuale; ma, se un qualunque errore nella valutazione dello stato iniziale, per quanto piccolo, diviene rapidamente molto grande, risulta in realtà impossibile fare una qualunque previsione sull’evoluzione a lungo termine del sistema, e il suo comportamento risulterà, di fatto, indistinguibile da uno del tutto casuale. Inoltre il comportamento di un sistema caotico è generalmente non lineare, ovvero non è valido il principio di sovrapposizione degli effetti. Questo principio afferma che, se alla sollecitazione S1 il sistema dà la risposta R1 e alla sollecitazione S2 risponde con R2, allora alla sollecitazione S1+S2 la risposta sarà R1+R2. In un sistema caotico questo non avviene, a causa delle innumerevoli relazioni e retroazioni del sistema.
Praticamente tutti i sistemi naturali e non hanno un comportamento di questo tipo, la non-linearità è naturale, noi riusciamo a studiare analiticamente i sistemi in quanto ipotizziamo un intervallo di linearità dove il sistema si comporta secondo il principio di sovrapposizione degli effetti e di conseguenza può essere studiato scomponendolo in sottosistemi più semplici. Ma la stretta dipendenza di un sistema caotico nei confronti dell’ambiente rende difficile il suo isolamento o la creazione di un modello per scopi sperimentali. Qualora sarà possibile creare un modello di un sistema, allora esso sarà testato relativamente ad ambienti diversi, le cui proprietà saranno definite in modo casuale. E’ proprio in questo processo che sono riuscite ad inserirsi le arti generative. Lo studio del calore fu il primo fallimento della scienza positivista; gli scienziati si scontrarono con i sistemi dinamici caotici: era impossibile studiare il moto di ogni singola molecola di un gas e dovettero ricorrere a metodi statistici, anziché esatti e puntuali, e concetti sistemici, come l’entropia e la temperatura. Già Maxwell aveva previsto queste situazioni, ma fu Henri Poincare che nel 1889, con il problema dei 3 corpi, fu il primo a verificare con mano un sistema caotico deterministico, fondando la teoria del caos. Noto come problema dei 3 corpi, si tratta del calcolo del moto di 3 corpi sottoposti ad attrazione gravitazionale reciproca mediante le equazioni di Newton; Poincare scoprì che non si poteva calcolare in modo determinato le posizioni del sistema se non per piccoli periodi di tempo, dopo i quali il sistema divergeva in modo caotico. Ma solo con l’avvento del computer si poté effettivamente simulare il comportamento di un sistema caotico. Il primo esempio fu l’attrattore di Edward Lorenz, che subito dopo aver scoperto il fenomeno indicò che un battito d’ali di gabbiano potrebbe cambiare il clima per sempre. Ma il fenomeno si diffuse poi sotto il nome di effetto farfalla, nominato così da Philip Merilees, collega di Lorenz, che ispirato dalla forma dell’attrattore, corresse così la frase: Il battito d’ali di una farfalla in Brasile potrebbe causare un tornado in Texas.
L’interazione tra gli elementi di un sistema può essere talmente grande e complessa da risultare incalcolabile senza l’ausilio del computer. Ad esempio consideriamo uno schema 10x10, un totale 100 caselle ognuna delle quali può essere colorata di bianco o di nero: come un pixel, le immagini che potrebbero essere visualizzate sono circa 1030, una cifra a 30 zeri. Questo significa che se qualcuno si mettesse in testa di vederle tutte, ad esempio, al ritmo di 3 secondi per volta, impiegherebbe 1023 anni, molto di più dell’et{ dell’universo, stimata in 14 X 109 anni (1).
La Complessità Prima di tutto urge chiarire la differenza tra complesso e complicato. Un sistema complicato è un qualcosa che, pur avendo una struttura estremamente contorta, può essere spiegato (cum + plicatus, piegato assieme) in diversi sottosistemi che possono essere analizzati dalla scienza classica. Un sistema complesso è invece un insieme di singoli elementi connessi assieme in una rete di azioni e retroazioni locali non lineari in cui ogni piccolo cambiamento ad una singola componente può modificare consistentemente il comportamento di tutto il sistema. Pertanto la scienza classica non è capace di studiare un sistema complesso. Tutta la storia della scienza moderna rappresenta un decentramento del punto di vista del punto di vista del soggetto conoscente, che esplora scale spaziali e temporali non direttamente traducibili nel nucleo della sua esperienza originaria. Ma d’altro lato il senso di queste decontrazioni è continuamente disciplinato e orientato dall’ideale regolativo del punto di vista assoluto (2). Ciò significa che tutta la scienza fino all’inizio del novecento resta sostanzialmente deterministica. L’uomo della Belle Epoque era felice e prosperava, credeva con fede nella bont{ della ragione e confidava nella conoscenza totale, nella macchina e nel progresso tecnologico. Ma prima la filosofia di Henri Louis Bergson, subito confermata dalla teoria della relatività di Einstein, poi le scoperte scientifiche sulla complessità, sulla fisica quantistica, affondarono pian piano l’idea del sapere assoluto e del determinismo, l’uomo dovette arrendersi ad un sapere più grande di lui; fu la fine dello specialismo. Fu la fine della pretesa dell’uomo occidentale di tirarsi fuori dalla natura ad analizzarla come qualcosa di altro, qualcosa di separato e a se stante. Dall’altra parte del mondo, ed è proprio il caso di dirlo, si era sviluppata invece una visione diversa, l’uomo orientale sa di essere parte della natura, riconosce le reciproche influenze e relazioni tra le parti, sente un’armonia costitutiva del tutto, ha insomma una visione olistica. Dovremmo quindi abbandonare il nostro modello occidentale e passare alla visione olistica?
Edgar Morin ci ricorda che non basta passare dal riduzionismo, che privilegia le parti, all’olismo, che privilegia il tutto: è necessario anche tenere conto del rapporto tra le parti e il tutto. (3) Ed è proprio quello che sta facendo la scienza moderna: la soluzione sta nel mezzo, nella fusione delle due visioni. A partire dal mondo scientifico si è sviluppato quindi un tipo di pensiero che chiameremo complesso. Di che si tratta? Nel saggio le vie della complessità Edgar Morin ne ha delineato i principali effetti: 1. L’irriducibilit{ del caso o del disordine: questi elementi sono presenti nell’universo e svolgono un ruolo attivo nella sua evoluzione 2. Il superamento nelle scienze naturali dei limiti di astrazione universalista che eliminava la singolarità, la località e la temporalità 3. La complicazione e il rifiuto di visioni semplificatrici: i fenomeni biologici e sociali presentano un numero incalcolabile di interazioni e inter-retroazioni che non possono essere computati neanche coi computer più potenti. 4. La compresenza di complementarietà e antagonismo tra ordine, disordine e organizzazione: ovvero la possibilità che si origini il disordine a partire da sistemi ordinati, ma anche, viceversa, che una forma di ordine nasca da sistemi disordinati. 5. L’organizzazione: non si può dissolvere il molteplice nell’uno né l’uno nel molteplice, bisogna trattare la realtà come unitas multiplex. 6. Il principio ologrammatico: ogni elemento di un sistema contiene in sé quasi tutta l’informazione dell’intero insieme. 7. La crisi dei concetti chiusi e chiari, cioè la crisi della chiarezza e della separazione nella spiegazione. Chiarezza e distinzione delle idee non sono più indice della loro verità, e quindi non possiamo avere una verità che si possa esprimere in maniera chiara e distinta. 8. Il ritorno dell’osservatore: non si può eliminare l’osservatore poiché se il sociologo è nella società anche la società è in lui. (4)
La visione complessa ci consegna quindi un mondo costituito da elementi interconnessi in costante evoluzione e dinamismo, una rete sistemica immensa che trasforma tutto in soggetto, una conoscenza relativa e sempre confutabile. Non solo, il grado di complessità cui siamo arrivati è tale per cui ogni scienza specialistica ha al suo interno altre specializzazioni, ed ogni nuova scoperta porta ad altri problemi da risolvere, tanto che, ormai è chiaro, la conoscenza assoluta è impossibile per un solo uomo. Norbert Wiener trova in Gottfried Leibniz l’ultima persona a dominare l’intera attività intellettuale della propria epoca, mentre già dopo Enrico Fermi, scomparso nel 1954, è stato impossibile per un solo uomo conoscere anche soltanto la fisica (5). La complessità non è nata in un campo singolo, anzi a dire la verità non esiste neanche una teoria unitaria, è stata scoperta più o meno contemporaneamente da diverse branche di conoscenza: biologia, chimica, fisica, meteorologia, ecologia, economia, sociologia, pedagogia, filosofia, informatica, interazione uomo-macchine, robotica, aeronautica. Il denominatore comune fu la scoperta di meccanismi interattivi capaci di portare ordine a diversi livelli di organizzazione. La complessità spesso non ha portato difficoltà, ma, come in natura, può aiutare l’identificazione e il controllo di problemi e nuovi bisogni. Per anni è stata utilizzata con due approcci principali: per la risoluzione di complessi problemi tecnologici o per la costruzione di modelli scientifici semplificati che potessero rispondere a domande riguardo la natura. La complessità è stata anche foriera di importanti collegamenti tra diverse discipline: ad esempio chi avrebbe mai detto che il codice binario e la biologia molecolare avessero in comune una stretta analogia con i frattali? A fianco alla complessità si sviluppa quindi anche un sapere complesso, più branche studiano uno stesso fenomeno da diversi punti di vista, nascono settori espressamente interdisciplinari (come la cibernetica), appaiono figure professionali ibride, equipe formate da specialisti eterogenei. Ad esempio John von Neumann e Oscar Mongenstern, introducendo nelle scienze sociali la teoria dei giochi, furono capaci di spiegare tramite questa dei fenomeni complessi riguardanti l’economia, la politica e la vita sociale. Uno degli assunti più importanti di questa teoria è la depersonalizzazione del processo di decisione (6). Chi meglio del designer osserva e si rende conto di questi mutamenti?
Quale altro mezzo più di internet, una piattaforma in cui idee, talenti e capacità emergono e si perfezionano tramite un gioco di collaborazione e competizione (7), incarna l’idea di rete sistemica complessa? Ma forse la cosa più sorprendente e affascinante di questo nuovo modello di pensiero è che si lega in qualche modo alla natura; se fino ad oggi l’uomo o l’ha imitata o l’ha negata con l’astrazione, la complessit{ ci d{ la prova di un contatto più profondo e intimo, più armonioso e maturo. Il punto da sottolineare è che con le nuove
tecnologie
la
ricerca
artistica
si
sta
finalmente
muovendo
dalla
rappresentazione del reale al funzionamento del reale (8). L’applicazione dei sistemi complessi permette la definizione di regole di trasformazione che possono essere variate dal feedback dell’utente, in modo tale che ogni interazione con un sistema produca differenti risultati per ogni utente (9).
Il Postmoderno Per capire la poetica generativa bisogna trattare un fenomeno che ha infiammato il dibattito filosofico e artistico durante l’ultimo secolo: il postmoderno. La sua trattazione è obbligatoria, in quanto ha portato novità tali da stravolgere numerose discipline, e viene spesso riconosciuto come un pilastro delle arti generative. Il termine postmoderno è stato utilizzato fin dagli anni Trenta, ma la sua completa sistematizzazione è opera del filosofo francese Jean Froncois Lyotard nel saggio La condizione post moderna (1979). Altro teorico fondamentale è Jean Baudrillard. Per capire il fenomeno del postmoderno bisogna partire da lontano, precisamente dall’ideale illuministico settecentesco. L’illuminismo si era posto un progetto, la creazione di una scienza obiettiva, di una morale e un diritto universali ed autonomi, in vista dell’emancipazione umana e dell’arricchimento della vita tramite la conoscenza e la trasformazione della realtà. Concetto base era quella di ragione, che risultava avere due funzioni: la critica di tradizioni, dogmi e culture, religioni del passato, di cui dovevano essere verificate l’autenticit{ e l’utilit{, e la creazione di nuovi principi e regole in base ai quali definire e migliorare la vita dell’uomo. La ragione infatti doveva essere liberata da tutte quelle forze che l’avevano fino ad allora relegata.
Gi{ qui si possono intuire le differenze con l’ideale cartesiano, la ragione illuministica è parte attiva e concreta di un processo che, tramite la continua osservazione e verifica, giunge sempre ad un sapere unitario ed assoluto, ma non di tipo deduttivo. Le idee rinascimentali vengono riconsiderate dall’illuminismo in modo più profondo. Da una parte la ragione viene liberata da Dio e trova perciò in se stessa i principi e la forza di agire. Infatti, sebbene Dio non viene dichiarato inesistente, l’interpretazione del mondo non è più finalizzata alla celebrazione religiosa, ma trova scopi più utilitaristici e concreti, come la civilizzazione dell’uomo. D’altra parte l’illuminismo si richiama ai concetti della Rivoluzione Scientifica: se infatti il pensiero moderno, con Bacone, Cartesio, Spinoza, Leibniz, Newton, si è appropriato dei metodi della scienza e anzi li ha dichiarati come fondamenti per il procedere del pensiero, è solo l’illuminismo che ha riconosciuto pienamente il metodo scientifico come modello del sapere, di tutto il sapere, contrapposto alle metafisiche tradizionali (10). Anche la storia viene riformata, in quanto se né un dio né la provvidenza ne assicurano il corretto svolgimento, è la forza formatrice dell’uomo che la crea e la indirizza: nasce qui il concetto di storia come progresso, processo graduale di incivilimento e libertà guidati dalla ragione umana. Contribuivano a ciò le trasformazioni settecentesche: dopo le epidemie del ‘600, i segnali di una crescita sociale, sia dal punto di vista economico che culturale, davano piena fiducia all’ideale illuminista, anche se all’interno dello stesso illuminismo si iniziava a notare una crisi. Gi{ Rousseau diceva infatti che l’illuminismo avrebbe portato ad un'altra visione del mondo dogmatica, che avrebbe rinchiuso nuovamente la libertà della ragione. L’illuminismo aveva ereditato dal determinismo la convinzione che il mondo potesse essere organizzato e capito, e controllato. Ciò poteva avvenire solo tramite rappresentazioni corrette del mondo, quali quelle che fornivano la matematica e la scienza. Ma dopo il 1948 l’idea che vi fosse una sola modalit{ di rappresentazione del mondo entrò in crisi. La crisi dell’economia, partita dalla Gran Bretagna nel 1846, aveva interessato tutto il mondo industriale e fece focalizzare l’attenzione sul mondo delle fabbriche, sulle pessime condizioni degli operai, sulla rivalutazione delle teorie anti-capitaliste, tra cui il Manifesto del partito comunista di Marx ed Engels. L’idea illuministica che, se si fossero spezzati i dogmi del feudalesimo, la cooperazione fra gli uomini a formare
un capitalismo benevolo avrebbe portato sicuramente dei vantaggi a tutti veniva effettivamente negata dalla realtà. Anzi il capitalismo, con la sua continua crescita, cambiamento ed evoluzione rivoluzionava perennemente il sistema tecnologico e organizzativo, impedendo la possibilit{ di riferirsi a quell’unit{ e assolutezza della ragione che veniva dichiarata dagli illuministi. Se quindi l’intero sistema capitalista entrava in crisi, entrava in crisi da un lato la fiducia nel progresso, dall’altro la fede nelle verità assolute e stabili. In realt{ l’illuminismo includeva già alcune contraddizioni: non venne mai stabilito come la ragione dovesse operare e verso quali fini, i progetti illuministi erano spesso utopici e non vennero mai a scontrarsi con il mondo reale. Rousseau sosteneva che l’umanit{ doveva essere obbligata alla realt{. Max Weber parlò infatti di gabbia d’acciaio: l’ideale illuministico sarebbe diventata una nuova schiavitù nella quale gli strumenti per operare nel mondo, e non lo scopo, diventavano centrali, relegando gli scopi originari sullo sfondo, come il miglioramento della vita umana. Nietzsche (1844-1900) parlava di bugie necessarie, ovvero in un mondo che si presenta disarmonico, mutevole e imprevedibile, l’uomo ha dovuto costruire e credere in un mondo razionale, armonico e provvidenziale. Perciò era necessario distruggere queste credenze per dare un senso, sebbene transitorio agli elementi del mondo. L’unica via per l’affermazione di sé consisteva nell’azione, nella manifestazione di volont{ all’interno del continuo cambiamento delle cose. Veniva quindi a focalizzarsi un mondo fuggevole, frammentario e caotico; come poteva l’uomo affermare qualcosa che non perdesse, appena espresso, la sua forza? Seguendo i dettami di Nietzsche l’uomo doveva distruggere creativamente, ovvero negare l’assolutezza di ogni principio e verit{, accettando il continuo divenire di tutte le cose e creare distruttivamente, assumendosi il compito creativo di definire soggettivamente l’umanit{. Il movimento si costituiva quindi di un processo nel quale la distruzione dei valori diventava creazione, poiché comunque l’atto creativo costringeva a lasciare un’impronta sul caotico, l’effimero e il frammentario. La realtà della modernità in crisi si costituiva allora di due metà: il transitorio, il fuggitivo, il contingente, la met{ dell’arte; di cui l’altra met{ è l’eterno e l’immutabile. (11) Se da un lato infatti il continuo divenire distrugge ogni realtà assoluta e immutevole; l’eternit{ del mutamento, della trasformazione, il flusso in cui sono immerse tutte le cose si caratterizza come eterno e immutabile. Il riconoscimento
del divenire di ogni cosa rappresentava allora l’altra met{ del mondo. Pertanto gli artisti di fine ‘800 cercarono di rappresentare tutto questo tramite nuovi linguaggi e codici, cercando di rappresentare l’eterno con un effetto transitorio, minando i concetti unitari e ancora assoluti di tempo e spazio. Infatti, se da un lato la crisi della modernit{ aveva rivelato l’impossibilit{ di descrivere e capire il mondo con un unico linguaggio, ricorrendo ad una molteplicità di prospettive, dall’altro lato pensava ancora ad una realt{ unitaria a cui potersi riferire, pur nella sua intrinseca complessità. (10) La crisi di certezze portò allora ad una continua ricerca di miti che salvassero l’uomo dal senso di mutevolezza e caducità che era stato rivelato e dessero nuovo impulso all’azione umana, anche qui si giustifica la forza con la quale attecchirono le nuove idee nazionalistiche tra la fine del 1800 e la seconda guerra mondiale. Una parte della societ{ indicò di nuovo la macchina, la forza della tecnologia, la fabbrica e l’idea di velocit{ e cambiamento come l’incarnazione di questo flusso di cambiamento continuo. Pertanto il rifiuto della modernità dava vita ad un sistema positivistico, tecnocentrico e razionalistico, riproponendo in qualche modo gli stessi elementi del progetto illuministico (10). Ma prima l’ordine della societ{ era molto diverso, il sistema e le visioni positivistiche si sposarono invece con un sistema economico pienamente capitalista, tanto che il rifiuto della modernità si convertì, consapevolmente o no, nella rappresentazione più adeguata dei valori della nuova società capitalistica. Fu come se le pretese universalistiche della modernità, unite con il nuovo volto assunto dalla società capitalistica, che avevano dato origine a quella crisi della modernità e al suo rifiuto del progetto moderno, avessero ora creato lo spazio per il sorgere di un movimento cosmopolita e transnazionale che si opponeva alle nuove forme assunte dalla cultura modernista. (10) Momento chiave del passaggio al postmoderno può essere individuato, secondo Elena Maggio nel 1968. La profonda differenza del postmoderno rispetto alla visione ottocentesca è che la realt{ sottostante di eterno mutamento, la met{ che costituiva l’eternit{ del flusso del divenire viene rifiutata in nome delle differenze e delle singolarità, spostando l’accento sulle singolarit{, sulle differenze e sulla coesistenza e collisione di realtà radicalmente diverse e multiformi. Non si vuole più ricercare un fondamento unificatore, ma si pone l’accento sulle differenze e sulle pluralità, negando tutte le forze astratte e universali che
perseguissero l’emancipazione umana tramite le uniche forze di tecnologia e scienza. Tutto ciò era considerato nemico dei tentativi di riconoscimento e affermazione dell’altro (altri mondi, altre persone). Fondamentale è considerare il postmoderno legato alle lotte delle minoranze: donne, neri, omosessuali, operai, popoli colonizzati. Centrale nella poetica del postmoderno è l’assunto che la stretta relazione tra significato e significante non esista più, implicando che il cosa si dice e il come lo si dice si compongano e si disgiungono di continuo in differenti intrecci. Nell’interpretare un testo, testo inteso come qualsiasi comunicazione verbale o non che si riferisca ad un contesto definito, non riusciremo a estrarre gli stessi significati che chi l’ha scritto voleva darci poiché l’intreccio di significati sfugge al nostro controllo. Allora anche il testo stesso sembra diventare soggetto autonomo di comunicazione. Se quindi l’interpretazione non è univoca, non lo può essere neanche l’affermazione, le idee e i concetti espressi non hanno più diritto di autonomia, ma sono continuamente reinterpretati e confusi dagli altri. A tal proposito Lyotard, che definisce il postmoderno come incredulità nel confronto delle metanarrazioni, afferma che non è possibile creare delle combinazioni linguistiche stabili e sicuramente comunicabili, mettendo in crisi anche la stessa idea di soggetto umano, che si dissolve nel continuo riproporsi di codici e significati. Anche la coscienza umana, vista nell’ottica postmoderna, è un continuo flusso di tempi e luoghi puri, ovvero costantemente presenti senza rimandi al passato o al futuro. Crolla ogni possibilità di unificazione e non è possibile né definire una vita biografica né una centralità psichica che fa riferimento all’io. Si parler{ allora di personalità schizofrenica e soggetto frammentato. Ugualmente il concetto di storia viene messo in crisi, non è più possibile un riferimento al progresso o alla memoria storica e pertanto la storia può essere percorsa in ogni sua direzione, assorbendone qualsiasi aspetto e riportandolo al presente. Centrale nel postmoderno è il concetto di decostruzionismo, ovvero il principio che ogni testo sia costituito dall’intreccio di altri testi, e quindi non sia mai completo in sé, ma rimandi sempre ad altri riferimenti e altre opere. Allora nel leggere un testo dobbiamo de-costruirlo, ovvero andare a ricercare in esso altri testi, altri riferimenti cercando di ricostruirlo secondo la nostra personale interpretazione.
L’opera d’arte postmoderna non fa riferimenti a valori, a un senso di continuit{, ma diventa riproduzione, accostamento di stili ed elementi riportati ad una sostanziale equivalenza. Non è più possibile un giudizio estetico o critico, ma l’opera può essere giudicata solo in base alla sua spettacolarità. Di qui la fortuna del collage, sia nell’arte visiva, come nelle opere di Rauschemberg, dove elementi della tradizione si sposano con il logo della Coca Cola, o nell’architettura, dove l’edificio viene decostruito in ogni suo elemento e ricomposto assieme ad elementi tradizionali o a richiami esotici. Allora, se non esiste una rappresentazione unitaria del mondo, se viene negata l’esistenza di schemi assoluti e stabili, se il linguaggio e la comunicazione si dissolvono in significanti senza un preciso significato, come possiamo agire coerentemente nei confronti del mondo? La risposta sta nell’agire in spazi ristretti e determinati, dove le varie interpretazioni e visioni, seppur distanti sembrano più vicine, senza nessuna aspirazione globale. Se bisogna distruggere le illusioni dei sistemi fissi, assoluti e definitivi, allora sarà data precedenza alla giustapposizione, alla disgiunzione, alla discontinuità, a ciò che è multiplo e non definito rispetto all’unità. Ma il negare ogni elemento fisso e assoluto ha portato spesso ad un vero e proprio nichilismo, ad un blocco del soggetto di fronte al pluralismo e al relativismo, senza possibilità di valutare ogni espressione culturale. Questo tipo di postmodernismo estremo, o Boomeritis, viene riassunto efficacemente da Lyotard così: tutto quello che possiamo fare è guardare con stupore alla diversità delle specie senzienti allo stesso modo un cui guardiamo la diversità delle specie vegetali ed animali (12). D’altra parte si ritrova invece il postmodernismo costruttivo, che partendo dalla tolleranza del pluralismo e del relativismo, cerca di trovare qualche modello nascosto che connetta i vari punti di vista. La data simbolica di passaggio dal moderno al postmoderno in architettura può essere fissata nel 1972, quando il complesso di Pruitt-Igoe di Saint Louis, costruito da Minoru Yamasaki, venne distrutto poiché ritenuto inabitabile. Era il fallimento della macchina per abitare, dei bisogni standard, della semplicità come forma di un’ordinata complessit{.
Il progetto postmoderno considera invece un uomo concreto, i suoi effettivi bisogni ma anche i suoi capricci, l’opera diventa sensibile alle tradizioni, alle storie locali, ma ha la licenza di richiamarsi contemporaneamente a più elementi, anche discordanti,creando un progetto praticamente su misura e personalizzato. Il postmoderno infatti portò a discutere l’idea dei consumatori che cercano prodotti simpatici, gioiosi, allegri, comici e personali. Il progetto postmoderno faceva attenzione a tutte quelle caratteristiche soft del prodotto: il colore, l’utilizzo di più sensi contemporaneamente, come il tatto e l’udito che erano stati sacrificati in nome del monopolio della vista nel rapporto forma-funzione, la riconoscibilità, un messaggio concettuale che spesso si trasformava in ironia o finzione. Il postmoderno in sostanza presentava varie possibilità, in aperto contrasto con l’unico modello fisso tipico del moderno. Qui sta la forza dirompente del postmoderno: il riconoscimento della diversità, della coesistenza di culture, tradizioni, luoghi, persone, abitudini differenti e la voglia di riconoscere tutti quei mondi che appaiono diversi. L’attenzione per ogni singolarit{, la negazione dell’assoluto rappresentano legami palesi con le arti generative. D’altra parte spesso gli artisti generativi si riconoscono nell’ideale postmoderno, soprattutto per quanto riguarda la critica dell’artista eroico e solitario tipico del moderno e poi accentuato dall’ideale romantico. Due testi sono infatti fondamentali per capire la poetica dell’arte generativa: L’opera d’arte nell’epoca della sua riproducibilità tecnica di Walter Benjamin e il saggio di Roland Barthes La morte dell’autore in Immagine-musica-testo. Secondo Barthes l’autore è morto ed ogni significato è creato dall’autore (13). Il concetto di postmoderno è ancora non ben definibile, in quanto secondo alcuni si caratterizza come il periodo attuale, periodo che arriva dopo il moderno (post), rappresentandone in qualche modo il superamento. Altri critici lo indicano semplicemente come una fase più matura di moderno, ma non in aperto contrasto con questo e quindi non come una fase separata. Ad esempio Mirja Kalviainen afferma che le idee postmoderne non sono completamente nuove, infatti nella teoria dell’artigianato è possibile trovarle abbastanza presto all’interno della storia del movimento dell’Arts and Crafts. Il postmoderno, malgrado questo, non è mai visto come nostalgico, infatti nasce da nuove convinzioni e si connette alla nuova tecnologia (14).
Altri ancora ne indicano un ulteriore superamento da parte dell’ottica complessa, tra cui Philip Galanter, che ipotizza la nascita del complessismo dal confronto dialettico di moderno e postmoderno. Secondo Galanter, è ormai giunta l’epoca di una fusione tra moderno e postmoderno, capace di far nascere un era complessa. Il complessismo è ciò che viene dopo il postmoderno; in un senso è la proiezione della visione del mondo e dell’atteggiamento suggerita dalla scienza complessa sullo spazio dei problemi delle arti e delle humanities. Ciò è raggiunto tramite una più alta sintesi che riassume i concetti, gli atteggiamenti e le attivit{ di moderno e postmoderno. E’ il giusto contesto culturale nel cui collocare la scienza e la matematica del XX secolo (15).
Alcuni lo vedono come una moda, un atteggiamento transitorio che ha avuto il suo apice ed è praticamente sparito; così è capitato ad esempio nell’architettura e nel design. Sebbene in questi campi le opere esplicitamente dichiarate postmoderne (e nel design neomoderne) subirono effettivamente una rapida ascesa ed un’altrettanto rapida discesa, l’atteggiamento culturale prevalente si basa ancora su concetti abbastanza postmoderni. Anche il fenomeno dello styling è ampiamente relazionabile a quest’atteggiamento culturale. Su questo punto di vista ha pesato probabilmente il legame diretto che si è venuto a creare tra postmoderno e consumismo, dove il primo sembra giustificare il continuo consumo di merci e di mode, l’importanza per l’illusione e la spettacolarit{ della moderna societ{ capitalistica.
3. Il computer Tutte queste scoperte non sarebbero state possibili senza l’ausilio del computer, versatile e potentissimo strumento diffusosi intorno agli anni sessanta. Uno dei principali vantaggi dato dai nuovi calcolatori era la simulazione virtuale di un qualcosa, ed una delle loro prime applicazioni fu appunto la simulazione del comportamento dei sistemi caotici. Come già detto infatti è impossibile prevedere in anticipo l’evoluzione di questo tipo di strutture, poiché ogni minimo errore di valutazione potrebbe vanificare l’intera previsione: la soluzione allora sta nel simulare il comportamento del sistema a partire da una situazione iniziale data. Solitamente un sistema dinamico può essere descritto tramite una funzione matematica a più variabili, detta funzione di stato; simulare il comportamento del sistema significa quasi sempre visualizzare il grafico di questa funzione. L’andamento caotico, che non può essere previsto in anticipo, sarà allora calcolato momento per momento: l’evoluzione del sistema ad un tempo x sar{ dato dalle variazioni dei valori di tutte le variabili lungo l’intervallo t0->tx. Generalmente sia i calcoli eseguiti sia le rappresentazioni ottenute sono molto complicati. Perché questo excursus sulla simulazione? Perché praticamente la generazione di un qualcosa a partire da un algoritmo segue la stessa logica. Un’immagine di arte generativa è la rappresentazione grafica matematica (cioè la vera e propria rappresentazione su un sistema di assi di riferimento) di una o più funzioni matematiche che descrivono un sistema dinamico. Tutti gli oggetti (curve, superfici, solidi) e tutte le variazioni che impostiamo nella generazione di un qualcosa a partire da un algoritmo vengono trasformate in funzioni logiche e matematiche all’interno di questo.
L’algoritmo Il computer è un mero esecutore di ordini, compiti o istruzioni impartite dall'esterno per risolvere determinati problemi d'interesse attraverso un algoritmo di risoluzione del problema stesso, in modo tale che, a partire da determinati input, produca determinati output. Esso dunque nasce per eseguire programmi o applicazioni: un computer senza un programma da eseguire è inutile. (16) E’ necessario porre qui l’accento sul termine programmazione. Sebbene non utilizzando ancora il termine programmazione, è stato il matematico John Von Neumann che sviluppò l’idea di programmazione di software, come è stato implementato nella maggior parte dei computer di oggi. Von Neumann introdusse nel 1947 un sistema in cui sia i programmi sia i dati erano memorizzati nella stessa memoria accessibile. Il principale scopo era quello di fare in modo che una volta trasferite le istruzioni al dispositivo, questo fosse in grado di portarle avanti completamente senza bisogno dell’intervento dell’intelligenza umana. Alla fine delle operazioni necessarie il dispositivo doveva registrare i risultati in una forma che potesse rielaborare una seconda volta, come il codice binario. Da qui nasceva l’esigenza di definire in anticipo, e con gran dettaglio, l’esatta serie di passi richiesti per il processo. Infatti una descrizione troppo restrittiva poteva impedire il corretto svolgimento delle azioni, limitando il sistema in un certo intervallo di progettazione, mentre una programmazione troppo vaga non dava al computer lo specifico grado di conoscenza per l’esecuzione del ciclo operativo. In questo modo Von Neumann riuscì a separare concettualmente il costrutto dalla sua stessa descrizione, formalizzando le operazioni
di
concettualizzazione,
simbolizzazione, che
caratterizzano
astrazione la
cultura
moderna. La prova estrema di ciò si ebbe nel 1948, quando propose una macchina virtuale autoreplicante, capace, tramite apposite istruzioni, di costruire se stessa. Le istruzioni della macchina erano un primo esempio di algoritmo.
e
Ma allora che cosa si intende precisamente con questo termine antichissimo, nato nell’ambito matematico e poi recentemente sposato dall’informatica? Un algoritmo è un procedimento che permette, in un numero finito di passaggi univocamente interpretabili, di ottenere un output per ogni input dato. Conseguentemente per ogni input abbiamo un output diverso, e ciò vuol dire ancora che per ogni algoritmo, cioè ogni sistema di regole date, possiamo ottenere infinite variazioni di un output. Esistono innumerevoli tipi di algoritmi ed innumerevoli tipi di output. Gli algoritmi si classificano in base a ciò che riescono a fare, abbiamo già avuto modo di conoscerne alcuni in precedenza, qui basti dire che la famiglia degli algoritmi è veramente immensa. Parallelamente, dall’elaborazione di un qualcosa da parte di un algoritmo potrebbe potenzialmente derivare qualsiasi cosa: audio, video, immagini, forme, oggetti; ad esempio per la compressione di un file audio o video si utilizzano gli algoritmi mpeg. Algoritmo è insieme di regole, se voglio trasformare una canzone da un file .wav a .mp3, l’algoritmo definisce anche il fatto di prendere il file .wav, analizzarlo, codificarlo, comprimerlo e riscriverlo in .mp3, non solamente la fase di codifica. Nell’ambito del design generativo l’algoritmo è quindi quell’insieme di regole che definiscono la creazione di grafica, forme, oggetti, la loro variazione e la loro rappresentazione. Molto spesso gli eventi generati da un algoritmo generativo rappresentano dei veri e propri sistemi, ovvero una qualsiasi identità che è possibile analizzare e quindi scomporre (16). La possibilità di creare un sistema e beneficiare delle sue proprietà è la vera chiave di volta di tutte le arti generative, e verrà analizzata approfonditamente più avanti. Inoltre l’utilizzo degli algoritmi per rappresentare una nostra idea ci concede due importanti vantaggi: l’utilizzo del linguaggio proprio delle trasformazione e la compilazione dell’idea in una forma eseguibile, direttamente operabile (17). Nel campo generativo vengono principalmente usati 6 tipi di algoritmi: parametrici, iterativi, self-assembly e self-organization, evolutivi, generative grammars e morphing.
Un esempio: i frattali Lo studio dei frattali rappresentò uno dei primi campi in cui si incontrarono i sistemi dinamici, la programmazione computerizzata e la complessità. I frattali sono delle raffigurazioni visive estremamente complesse di funzioni matematiche molto semplici. Molti frattali sono infatti a tutti gli effetti sistemi dinamici caotici nella regione di comportamento caotico. (18) In realtà possono essere a buon ragione tracciate interessanti analogie con il design generativo, se si pensa la funzione matematica e il metodo per rappresentarli come un algoritmo. I presupposti teorici dei frattali sono vecchi di un paio di secoli, ma solo a metà 900 Benoit Mandelbrot, a cui si deve anche il termine frattale, li scoprì e ne visualizzò uno con l’aiuto del computer. La
ricerca
partì
da
una
domanda
ingannevolmente semplice: quanto è lunga la costa della Gran Bretagna?
Si scoprì che questa, come molte delle cose presenti in natura, era un frattale. Dal punto di vista matematico i frattali sono delle figure geometriche con dimensioni matematiche intermedie, ovvero una curva frattale è a metà tra una linea (che ha una sola dimensione) e una superficie (che ne ha 2) e un solido frattale è a metà tra il 2D e il 3D. Questo concetto ha portato alla crisi della geometria semplificatrice, e in qualche modo, del minimalismo formale. Abbiamo bisogno di un approccio Barocco alla nostra epoca, della complessità, il minimalismo non può essere più accettato se associato alla semplificazione, al non progetto, alla ripetizione (19).
La geometria e la complessità della natura è molto diversa da quella processabile dai comuni programmi informatici, le nuvole non sono sfere, le montagne non sono coni e le linee di costa non sono cerchi. La natura infatti si contraddistingue per essere complicata e dettagliata, ovvero non si può approssimare mediante cerchi perfetti o utilizzando la geometria Euclidea, ma allo stesso tempo presenta una struttura, un pattern spesso molto semplice, come i rami di un albero. Perciò il fascino di queste rappresentazioni si basa ancora una volta sulla loro estetica complessità formale e sulla similitudine tra naturale e riprodotto per simulazione.
Al di lĂ di questo, che utilitĂ pratica hanno i frattali? Il White Group indica i principali ambiti futuri di applicazione: educazione matematica, compressione di dati computerizzati, renderizzazioni computerizzate e studi sui sistemi dinamici caotici. (18) Va comunque precisato che i frattali sono uno strumento limitato, ovvero si possono esplorare, ingrandire, traslare e cambiarne il colore, ma non si possono progettare o modificarne la forma o i dettagli.
4. Dall’informale all’arte generativa Il cambiamento del modello di pensiero e l’utilizzo del computer sono andati sin da subito sulla stessa strada, rafforzandosi a vicenda: se il computer era un mezzo fondamentale per lo studio scientifico e la scoperta della complessità, questo modello si rifletteva sugli strumenti informatici tanto che furono proprio loro a materializzare il più accessibile e mediatico sistema complesso artificiale: il web. Ma subito si inserì un terzo elemento: alcuni artisti , consci della novità culturale del modello complesso e convinti delle capacità espressive dei computer, provarono a fondere questi due elementi: ne nacque la New media art, di cui fa parte l’arte generativa. Quest’ultima rappresenta l’ultimo passo prima della nascita del design generativo. Ma per comprendere innovazione ed obbiettivi della generative art, bisognerà puntualizzare in cosa era cambiata quell’arte che solo un secolo prima dipingeva allegorie con il più puro stile rinascimentale.
La Regola Se il concetto di algoritmo si riferisce ormai alla programmazione computerizzata, tuttavia l’atteggiamento di progettare non l’oggetto finito, ma la regola che permette di ottenerlo è un concetto molto antico. Agire in questo modo porta la progettazione ad un diverso livello, ma questa definizione è talmente ampia da essere fuorviante: in questo senso algoritmo può essere una ricetta, un esercizio, un gioco. Occorre quindi porre dei paletti: ci occuperemo qui di progetti artistici che sottolineano l’obbiettivo progettuale e procedurale della regola generativa. Naturalmente si è cercato di dare una lettura sistematica della recente storia dell’arte, ed è bene tenere sempre presente differenze e somiglianze tra poetiche artistiche, condivisione o meno di obbiettivi e finalità, che qui sono stati tralasciati ma che sono fondamentali nel costruire l’identit{ di ogni singola poetica artistica.
Il metodo della progettazione generativa è stato per la prima volta tracciato da Ramon Llull, un filosofo Catalano del 13° secolo, esperto nell’insegnamento dell’ars magna. Per i suoi studi progetto un apparato meccanico per la produzione di sentenze vere. Si trattava di una serie di 14 dischi circoncentrici sui cui bordi Llull aveva indicato i termini fondamentali e i principi di tutta la conoscenza cosmologica. Tramite la semplice rotazione dei dischi nuove posizioni e combinazioni venivano prodotte in automatico, generando nuove verità riguardanti i fondamenti logici delle arti, così come delle scienze. In ambito architettonico, i primi approcci algoritmici vanno fatti risalire a Leonardo Da Vinci, che li utilizzò nello studio delle chiese a pianta centrale. Studiando i fenomeni naturali, Leonardo cercò di trasferire in architettura i principi matematici che governavano ogni forma fisica. Si diffusero più tardi i codici d’armonia rinascimentale, sorta di regole parametriche che permettevano di raggiungere l’estetica della bellezza. Più avanti gli studi di Leonardo interessarono l’architetto Jean Nicolas Louis Durand, che li riprese nel suo Nouveau précis des leçons d'architecture per dimostrare una metodologia di progettare corretta e vera che utilizzava una serie di regole per gestire l’intera struttura dell’edificio (20).
La prima applicazione tecnica delle regole fu merito di un grande fisico italiano del 19° secolo, Leopoldo Nobili, che effettuando alcuni esperimenti sull’induzione elettromagnetica appena scoperta da Faraday scoprì la possibilità di elettrocolorare lastre metalliche modulando la corrente indotta. Nobili ipotizzò anche un utilizzo artistico di tali tecniche. Questi esperimenti sono stati sviluppati da Pietro Pedeferri, che attualmente utilizza il titanio in modo altamente espressivo (21).
Ma la prima applicazione industriale di regole costruttive risale al 1801, quando Joseph Marie Jacquard inventò il telaio che poi prese il suo nome. In pratica si trattava di un normale telaio meccanico, gi{ abbastanza diffusi all’epoca, ma Jacquard inserì un meccanismo sotto forma di schede perforate che permetteva al telaio di compiere operazioni automatiche di grande complessità. Non a caso Charles Babbage e Charles Hollerith utilizzarono le schede perforate nei loro tentativi di inventare il computer.
Nell’ambito artistico uno dei primi progetti generativi può essere considerato il Musikalisches Würfelspiel di Mozart: si tratta di una composizione musicale sempre diversa grazie alla variazione di alcuni parametri: i valori di questi ultimi venivano affidati al lancio di alcuni dadi. I giochi musicali coi dadi erano una pratica molto diffusa nell’Europa del 18 secolo. Un’altro
esempio
musicale
molto
importante è John Cage, massimo esponente di Fluxus, che mise a punto la teoria della casualità. Le ricerche di Cage miravano ad eliminare dell’artista
l’intervento
personale
all’interno
delle
composizioni musicali, in modo da “controllare” in un qualche modo il caso, presupposti direttamente opposti a quelli del modello complesso. Ma ciò che interessa è l’analogia operativa con i metodi generativi: note, durata e altezza erano decise da un sistema di combinazioni numeriche. I precedenti più importanti del progettare la regola possono essere già trovati all’interno delle avanguardie storiche. Figura-perno dell’arte rule-based è sicuramente Marcel Duchamp, che rivoluzionò il sistema dell’arte separando il concetto, ovvero la descrizione dell’opera d’arte, dall’opera stessa. Duchamp rinnegò l’arte retinale in quanto illusoria e dichiaro che il concetto, l’idea la descrizione doveva essere messo il primo piano. Dimostrando il meccanismo dell’arte per l’arte, attuò l’analoga separazione del costrutto e della sua descrizione di Von Neumann. Con le sue opere e con la strategia del ready-made, Duchamp radicalizzò tale concetto tramite la sostituzione dell’artefatto con la pura dichiarazione di un opera artistica. Questi concetti vennero ripresi da alcune importanti correnti artistiche successive alla seconda guerra mondiale.
Si possono trovare tracce dell’approccio algoritmico nell’informale: già Burri diceva di non modellare la forma, ma il processo per arrivare alla forma, in aperto contrasto con l’opera finita e assoluta rinascimentale. Questo spirito si ritrova anche in Jackson Pollock, caso, movimenti e gestualità si fondono in un opera che non deve rappresentare più nulla, ma diventa quasi metodologia, anticipando l’happening. Una curiosit{ su Pollock, durante alcuni studi si è scoperto che le sue opere rappresentano frattali di notevole complessità.
Jean Tinguely costruì durante la sua carriera delle Metàmatics, ovvero delle macchine che dipingevano quadri attraverso movimenti casuali automatici. Innumerevoli quadri, sempre diversi, venivano prodotti seconda un procedimento meccanico ed involontario. Yoko Ono produsse alcune opere-istruzioni per auto-crearsi un quadro, completamente lasciato al caso e alla sensibilità di ognuno; riportiamo Smoke Painting: Light canvas or any finished painting with a cigarette at any time for any length of time. See the smoke movement. The painting ends when the whole canvas or painting is gone. 1961 summer Ma è con l’arte cinetica che l’opera in movimento, continua e sempre diversa fa il suo ingresso sulla scena artistica. Nota anche come arte programmata, è chiamata così in quanto l’artista non fa un opera finita in se e per sé, ma progetta (poiché questa è la vera parola) uno spazio di interazione, dei vincoli di
movimento
coi
quali
l’utente
può
interagire. L’opera d’arte diventa così capace di essere proseguita dall’utente.
Non a caso i designers “storici” che più di tutti hanno esplorato i concetti di serie diversificata sono stati tutti fedeli alla poetica cinetica: si parla di Bruno Munari, Enzo Mari e Gaetano Pesce. Con questi presupposti, ai quali si aggiunge la riproducibilit{ seriale dell’opera, è comprensibile che questi artisti siano passati presto al campo del progetto.
L’interazione dell’utente fu prima prerogativa anche del gruppo GRAV, fondato nel 1960, di cui fece parte Francois Morellet, che ebbe a dire:l’arte per me esibisce una funzione sociale solamente quando viene demistificata, quando dona la possibilità al fruitore di partecipare attivamente, di indagare il meccanismo, di scoprire le regole e finalmente di interagire (22). Il Groupe de recherche d’art visuel anticipò parecchi procedimenti dell’arte generativa. Ad esempio Vera Molnar sperimentò dei processi euristici in cui l’opera veniva guidata da un procedimento algoritmico. L’opera veniva fatta evolvere
analogicamente variando di volta in volta un parametro. Si formava così un opera in costante evoluzione, che in un certo senso si adattava al contesto.
Il ruolo di definire effettivamente la regola, e la comunicazione di questa, come organizzatrice e unico argomento dell’opera d’arte spetta al minimal. Arte profonda e interessantissima, è suo il merito di aver dato fiato alla regola generatrice in modo spesso innovativo. Una dei meriti del minimal è avere visualizzato la variazione, le opere di Sol Le Witt, di Donald Judd hanno spesso messo in mostra la trasformazione di uno stesso oggetto in più varianti, seguendo un procedimento iterativo praticamente algoritmico. Esemplare in questo senso è l’opera di Sol Le Witt Incomplete open cubes del 1974.
Direttamente opposta alla rigidità minimalista negli stessi anni nasce l’arte processuale; qui è il processo che diviene protagonista dell’opera, come nelle opere di Morris o Serra. L’utilizzo di materiali flessibili o chimici come le plastiche rappresentavano un modo per trasferire una porzione di controllo dell’opera al materiale, che era portato a rivelare dinamicamente se stesso.
Anche se viene sottolineato soprattutto la
materialit{
dell’opera
d’arte,
troviamo teli di juta, tavole di legno, sicuramente riconducibili alla nuova sensibilità per i materiali umili tipica dell’italianissima arte povera. Si
può
ipotizzare
che
l’approccio
generativo è stato capace di mediare questi due opposti poli, recuperando la forza della regola minimalista e fondendola con la sensibilità al processo tipica dell’antiform.
L’Arte Generativa Attualmente l’arte generativa viene fatta rientrare all’interno delle tecniche della New media art, ovvero quelle opere che utilizzano i nuovi media digitali in contrapposizione ai vecchi media come pittura e scultura. Fanno parte quindi dell’ambito della New media art l’arte digitale, l’animazione, l’internet art, l’interattività, la net.art. Gli artisti New media pretendono di raggiungere un più alto livello di coscienza tramite l’utilizzo del computer, ovvero sostengono di fondere la coscienza umana alla coscienza del computer in modo da raggiungere un livello mentale più elevato. Ma per arte generativa si intende ogni pratica artistica in cui l'artista usi un sistema, come le regole del linguaggio naturale, un programma informatico, una macchina o qualsiasi altra invenzione procedurale, attivato secondo un certo grado di autonomia che contribuisce a, o produce, un'opera d'arte finita (23).
Questa definizione è stata fornita da Philip Galanter nel 2003, ed è stata ampiamente accettata dalla critica generativa. L’arte è presentata sostanzialmente come un processo ed un evento, un processo essenzialmente interattivo che implica l’artista, il sistema e il pubblico, di cui richiede un partecipazione totale. Ma non ha bisogno del computer. Ciò significa che l’arte generativa non è figlia della arte digitale ma la trascende sostanzialmente, l’arte generativa è vecchia quanto l’arte stessa (24). A darne atto è la scoperta della pittura rupestre più antica al mondo nel 1999: vecchia di 70000 anni, questa consiste in una serie di triangoli inscritti in una figura di ocra rossa, più simile alle pitture di Escher e all’arte islamica, piuttosto che ai comuni reperti rupestri.
Includendo nelle arti generative sistemi come le simmetrie, i pattern e gli schemi, allora si può facilmente affermare che i più antichi oggetti artistici rappresentano arte generativa. Gli schemi devono essere considerati generativi in quanto il posizionamento di un qualsiasi cosa non è una decisione lasciata all’artigiano, ma è dettata da un algoritmo di simmetrie eseguito manualmente. Questa visione include anche gli artisti del XX secolo che hanno utilizzato procedure basate sul caso (25). Ancora una volta viene ribadito il concetto che l’arte generativa non è figlia dei software, ma ha trovato in essi soltanto un valido strumento. L’utilizzo dei software, infatti, sebbene con procedimenti analoghi, non è necessariamente arte generativa, ma si caratterizza più per una fase estetica comune, un unità di operare che Costa indica come Aesthetics of Software (26).
L’arte
generativa
fa
riferimento
ad
un'altra
estetica:
l’estetica
della
programmazione. Quest’ultima diventa il principio dell’atto artistico, potendo successivamente diventare indipendente ed espandersi all’infinito. Tale principio cambia radicalmente il lavoro degli artisti, i cui strumenti tendono per la prima volta a trascendere gli artisti stessi, trasformandoli in spettatori di un processo incontrollabile. L’opera d’arte diventa allora una coproduzione di artista e sistema operativo, le regole di base e gli algoritmi marcano il limite tra l’operato dell’artista e un processo generativo autonomo che porterà a un’opera d’arte in qualche modo imprevedibile. La principale differenza tra l’estetica dei Software e quella della programmazione è l’importanza data alle immagini, se nella prima è l’immagine, la superficie ad essere importante, nell’arte generativa il focus principale cambia. Questo non significa che l’arte generativa non abbia una propria estetica; la preferenza per lo spazio compresso, le superfici intricate, l’horror vacui includono i più antichi esempi di utilizzo di algoritmi: tanto i reliquari Celtici quanto l’art brut, passando per l’arte visionaria e l’ultra-barocco messicano (27), ma la poetica dell’opera resta l’idea, il concetto. In ciò l’arte generativa si inserisce nel solco dell’arte concettuale, che ha liberato l’idea come sola protagonista dell’opera. Come dice Sol Le Witt nell'arte concettuale, l'idea o il concetto è l'aspetto più importante del lavoro. Tutte le pianificazioni e decisioni di realizzazione sono fatte in anticipo. L'esecuzione diventa un affare puramente meccanico. L'idea diventa una regola che genera l'arte. Quindi l’arte generativa deve essere intesa come un metodo, un tipo di pensiero e un modo di operare e non, come spesso accade, come puro stile. Ciò vuol dire che non è prerogativa di artisti, ma può essere fatta propria da designers, architetti, programmatori. Anzi gli artisti generativi sono spesso tutte e 3 le cose contemporaneamente, anche se vi è una grande differenza tra l’operare artisticamente e il progettare un qualcosa. Anche le opere sembrano beneficiare di entrambi gli approcci e spesso vi si legge una sintesi tra arte, design e scienza. In merito a ciò l’artista Sheridan afferma: la questione è ovvia, adoperando abbastanza tempo e le giuste energie, ogni processo e prodotto può evolvere e diventare arte (28).
Ad ogni modo l’arte generativa viene utilizzata in più campi contemporaneamente:
La computer graphics
Il design generativo
La produzione artistica
L’accompagnamento visivo alla musica, come nel lavoro dei VJ
Videogiochi
L’approccio generativo implica che l’opera d’arte non è più soltanto quello che si ottiene dall’attivazione del sistema, ma può essere il sistema stesso, o un particolare output premiato per il risultato estetico e riprodotto in più copie. E’ solamente l’artista a decidere cos’è opera e cosa non lo è, poiché il metodo si può adattare alle più varie finalità. Lo stesso discorso può essere trasposto sul design. L’arte generativa ridefinisce la figura dell’autore, in quanto questo scrive delle istruzioni, ma è qualcos’altro che le esegue con un certo grado di libertà, in pratica l’autore attiva un sistema e lo guarda crescere, ma non sa definire inizialmente che cosa avverrà sotto i propri occhi. Grado di libertà vuol anche dire che, una volta definite le regole, il sistema può evolvere in modi casuali e molto vari tra loro, in pratica l’opera non sar{ mai uguale a se stessa, e inoltre potrà cambiare contemporaneamente all’evolvere del sistema.
Una delle questioni che animano la critica della generative art è il fatto che la figura dell’artista verrebbe ridimensionata, ma in realtà l’atto artistico rimane, sulla scia della preminenza dell’idea artistica sull’esecuzione manuale. Anzi, come scrive Edmond Couchot nel suo Images, questo approccio obbliga l’artista a distanziarsi, non dall’opera, ma dall’atto creativo in sé, e a pensare quest’atto, a trattarlo come un oggetto, ovvero a formalizzare il suo pensiero (29). Scrivere un algoritmo implica il pensare precisamente sia alla forma dell’opera, sia al processo di creazione di questa, ma prevedere al contempo l’errore e le implicazioni non previste, le regole emergenti. Per questo Soddu afferma che il design generativo è fondato sulla possibilità di separare lucidamente i momenti creativi ed evolutivi dell’idea (30). Ancora Couchot scrive che il linguaggio programmatico s’interpone tra l’oggetto e la sua immagine potenziale, descrive l’oggetto in una maniera olistica, all’interno di tutte le sue dimensioni spaziali e cromatiche. Non si ha più una rappresentazione, ma una simulazione capace di generare una quasi-infinità di immagini. (29) Ciò ci riconduce all’aspetto per così dire potenziale dell’arte generativa; non più un oggetto definito, ma una potenzialità di eventi imprevedibili. Sulle origini e sui perché dell’arte generativa vale la pena di riportare ciò che dice Philip Galantier: per me la combinazione di teoria della complessità e generative art è una correzione e un parziale antidoto agli eccessi del postmoderno (31). In antitesi a quest’ultimo l’arte generativa riprende le redini a creare una nuova armonia, e ribadisce la sostanziale presenza di una regola, sebbene relativa, capace di produrre arte.
Conditional Design Un punto di contatto giovane e nuovo tra la regola e il design si può trovare nel gruppo Conditional Design. Si tratta di 4 giovani designers che, giocando sul confine tra arte, grafica e comunicazione visiva, creano delle opere con regole semplici e definite. Tutta la complessità e la variabilità di questi esperimenti è già insita nelle regole iniziali, e la soggettività di ognuno agisce e trova stimoli all’interno di un vero e proprio sistema dinamico. Ma di cosa si tratta realmente? Il gioco, perché è molto più sensato chiamarlo così, consiste nel delineare alcune regole di composizione geometrica e alcuni vincoli. I 4 designers, spesso provvisti di pennarelli colorati,
seguono
queste
regole
determinando di volta in volta pattern e composizioni geometriche diverse. La regola non è limitante: la soggettività di ognuno viene anzi esaltata in quanto qualsiasi scelta (dove iniziare a disegnare, che colore usare, che forma fare) determina la successiva evoluzione del disegno. E’ una shape grammar umana, forse ancora concettualmente computerizzata,
più è
sottile
qualcosa
di di
quella diverso
rispetto a quello che afferma Sol Le Witt: qui anche il processo di creazione dell’opera è soggetto alla soggettività di ognuno, e si vede. Si va oltre l’arte concettuale, si ripresenta il segno dell’informale, ma con un’aurea di complessità mistica dietro. Ed è un gioco soggettivo e riproducibile.
5. Galleria d’arte generativa Prima del computer
Nel mezzo Di seguito troviamo tre esempi particolari di artisti generativi: Maurizio Bolognini, Philip Galanter e Roman Verostko. Essi si differenziano per il fatto di creare opere generative indipendentemente con o senza l’ausilio del computer. E quando utilizzano il computer lo fanno in modo diverso, più concettuale e meno espressivo rispetto agli esempi che vedremo in seguito.
Maurizio Bolognini La poetica di quest’artista è molto particolare nell’ambito dell’arte generativa. Una delle sue creazioni più stravaganti sono i Computer sigillati, un’opera aperta che Bolognini porta avanti dal 1992. Si tratta di macchine programmate per produrre sequenze illimitate di immagini tramite algoritmi e sono lasciate lavorare indefinitamente senza monitor.
Li considerò come una pura installazione quantitativa, assoluta e vuota e lontana da tutto il resto: centinaia di macchine programmate per generare chilometri di immagini, indefinitamente, indipendentemente e in assenza di pubblico. Voglio che i disegni originati dalle mie macchine coprano infinite superfici, voglio tracciare piÚ linee di qualunque altro, le loro caratteristiche e qualità sono di poco interesse. Non ho mai pensato ai codici o ai dispositivi in termine di stile, ma piÚ esattamente come una specie di DNA (8).
Philip Galanter Teorico dell’arte generativa, Philip Galanter opera sia con l’ausilio del computer che senza. Si contraddistingue per l’utilizzo di un proprio programma sviluppato autonomamente chiamato GA, che utilizza nella creazione di grandi stampati o animazioni.
Chaotic Conductor è una reinterpretazione del pendolo, i visitatori sono invitati a spingere ognuno dei quattro pendoli: a questo punto partirà un ritmo che a sua volta genererà suoni, immagini ed eventi generativi.
The traveling Salesman è invece una parafrasi soggettiva dell’antico problema del marinaio, in cui vengono esaltate le proprietà geometriche e cromatiche delle forme generate (32).
Roman Verostko Una categoria affascinante di artisti generativi viene indicata sotto il nome di algoristi. Tra i più famosi vi è Roman Verostko, la cui attività si estende dal 1947 ad oggi. Verostko ha operato parallelamente a tutta l’epoca dello sviluppo dei computer, divenendo figura fondamentale nel passaggio dall’analogico al digitale. Se la sua arte prima del computer, che lui definisce pre-algoritmica si basava su pattern che utilizzavano solo linee dritte eseguite a mano, si è poi evoluta fino
ad
utilizzare
plotter
guidati a mano, la sua arte si è attualmente evoluta fino a diventare vera
e
propria
generativa (33).
arte
Con il computer La poetica dell’arte generativa dopo l’avvento del computer si può considerare omogenea. Sia per il fatto che l’arte generativa andava costituendosi come fenomeno emergente sempre più codificato, sia perché il computer permette un’estetica, sebbene diversa da artista in artista, generalmente simile. Pertanto qui si è scelto di limitarsi solamente a quell’arte generativa definita propriamente arte, ovvero non miscelata ad altri elementi, ma espressiva degli intenti dell’artista e capace di un rapporto emozionale con il fruitore. Si è selezionata inoltre una particolare categoria artistica, data l’impossibilit{ di esprimere sulla carta tutta la poeticità delle animazioni o dei suoni, si è scelto di rappresentare quelle opere nate da un algoritmo e premiate dall’artista per il loro contenuto espressivo, innovativo e comunicativo. Dalle opere astratte di Watz ai riferimenti fotografici di Natzke, dalle immagini organiche di McCabe agli schemi di Maeda vedremo le opere dei più importanti artisti generativi a livello mondiale, saggiandone il fascino espressivo.
Neil Banas
Eno Henze
John Maeda
Johnatan McCabe
Erik Natzke
Casey Reas
Jim Soliven
Adrian Ward
Marius Watz
Parte 2. Gli strumenti teorici
6.
I sistemi complessi
Abbiamo già visto che la proprietà fondamentale data dagli algoritmi è quella di originare sistemi con comportamenti complessi. La teoria della complessità sposta la descrizione di un sistema da un approccio quantitativo o qualitativo ad una descrizione che mira al comportamento del sistema stesso. Un sistema complesso, infatti, evolve nel tempo, sia sotto forze interne ad esso, che in relazione all’ambiente esterno. Possiamo notare 3 modi di evoluzione di un sistema: l’ordine, in cui il sistema trova un punto di equilibrio in cui si stabilizza, il caos, in cui il sistema ha un comportamento caotico e casuale, totalmente imprevedibile, e l’equilibrio instabile, in cui il sistema tende a stabilizzarsi di volta in volta in diversi stati. Bisogna notare che un sistema ordinato non evolve, si cristallizza in una configurazione e pertanto non gode di buona salute, lo stesso si può dire, per motivi inversi, di un sistema caotico. La terza via, che è quella in cui si trovano i sistemi complessi, è quella dell’equilibrio dinamico al margine del caos: il sistema è vitale, creativo, e soprattutto, oltre a trovare un equilibrio, è capace di resilienza, ovvero di poter resistere ai cambiamenti esterni trovando un nuovo punto di equilibrio, generalmente molto diverso dai precedenti, in cui il sistema riesce a sopravvivere. Questo è lo stato dei sistemi naturali, biologici e sociali. Direttamente conseguente a ciò è quindi la proprietà di questi sistemi di auto-organizzazione: esempi si possono trovare nella specializzazione morfogenetica delle cellule embrionali o nelle organizzazioni sociali senza leader (formicaio). Ma per raggiungere un certo grado di strutturazione, un sistema complesso deve essere capace di dimenticare, selezionando solo le informazioni più importanti al proprio sostentamento. Questo processo è definito evaporazione morfogenetica (34). L’utilizzo dei sistemi complessi nella progettazione fu per la prima volta teorizzato nel 1966: sottolineando la maggiore aderenza del modello complesso alle leggi e al comportamento naturale rispetto alla scienza classica, Venturi ne
trovava la forza per un modello di progettazione che potesse lavorare nelle situazioni di vita reale piuttosto che in scenari idealizzati (35). Fino ad allora l’architettura aveva lavorato su schemi rigidi che non tenevano conto delle influenze dell’ambiente esterno e le ricerche di Venturi si focalizzavano sulla ricerca di alternative rispetto alle prescrizioni moderniste. Inoltre spesso il moderno si era scontrato con l’eccessiva generalizzazione dei problemi e standardizzazione dei bisogni. Dopo un secolo di linearità e determinismo nelle scienze e nella tecnologia, il cambio di prospettiva rispetto ai fenomeni complessi permise agli architetti di considerare il fenomeno di evoluzione e crescita anche in architettura. Nasceva allora il bisogno di utilizzare strumenti che potessero gestire relazioni e forme complesse: gli algoritmi generativi risposero a queste richieste. Secondo alcuni teorici esiste un conflitto interno tra progettazione e complessità, questo dipende dalla natura di entrambe le discipline: la teoria scientifica è uno strumento intersoggettivo per osservare e spiegare, mentre la progettazione è l’esatto opposto poiché impiega non solo pensieri razionali, ma ipotesi, emozioni e sentimenti per creare risposte personali a dati problemi. La teoria della complessità è limitata su predizioni probabilistiche generali piuttosto che casi specifici (36). Se questo è vero in maniera molto superficiale, in realtà il progettista lavora sempre in condizioni di incertezza e spesso contraddizione, e se ha bisogno sia delle scienze, sia dell’intuito umano per arrivare ad una soluzione soddisfacente, spesso le condizioni di contraddizione rappresentano il primo motore del progetto. Attualmente, secondo Soddu, la simulazione delle logiche sistemiche viene utilizzata nel design per raggiungere il miglior controllo progettuale operativo sulla complessità (30). Più le richieste del cliente sono complicate, più queste richieste sono contraddittorie, più limiti vengono posti al progetto, più il processo di costruzione della riconoscibilit{ dell’idea evolver{ aumentando la qualit{ degli output. Le proprietà dei sistemi generativi vengono indicate in:
La possibilità di generare la complessità
La complessa ed interconnessa relazione tra organismo e ambiente
L’abilit{ di auto-mantenersi e auto-ripararsi
L’abilit{ di generare nuove strutture, comportamenti, outcomes e relazioni. (37) Nel 2003 Knight ha presentato una dettagliata descrizione dei fenomeni emergenti e delle modalità con cui operare con essi (38).
Classificazione della Complessità Le basi per la classificazione della complessità si devono a Claude Shannon, che nell’ambito della teoria dell’informazione e dello studio dei messaggi, cercò di chiarire meglio le proprietà dei sistemi comunicativi. Ma fondamentale fu il fatto che verso la metà del XX secolo la complessità computazionale fu agganciata al concetto di entropia, ovvero a un concetto di ordine dell’algoritmo. Bisogna innanzitutto precisare che non obbligatoriamente i messaggi devono avere un senso, ma devono solamente essere capaci di trasportare dei simboli. Inviare un messaggio come I LIKE GENERATIVE ART ha lo stesso grado di informazione della frase PAPER BIG WORK I CATS. Inoltre Shannon dimostrò immediatamente questo fatto: i messaggi altamente ordinati come AAAAAAAAAAAAAAAA non possiedono un alto grado di informazione, poiché sono facilmente comprimibili, ad esempio dicendo “12 volte A”, mentre quelli altamente disordinati come una sequenza casuale di lettere JHDIJIEUHUBNUAF hanno un alto grado di informazione. Una delle prime misure di complessità dei sistemi, sviluppate indipendentemente da Kolmogorov, Solonomoff e Chaitin, si basava sulla complessità algoritmica (AC) o Algorithmic information Content (AIC), ed analizzava gli algoritmi che generano sistemi sulla base delle indicazioni fornite da Shannon. Pertanto si delineava una scala di questo tipo:
Il problema di questa classificazione era il fatto che un algoritmo puramente casuale risultava incompressibile: ad esempio per stampare una serie di lettere random era necessario un algoritmo di questo tipo: print (“biiuadgyefnmkanoiufnoianoifenaionqw”) Ovvero l’algoritmo doveva essere lungo quanto la descrizione dell’intero sistema; questo rendeva molto alto il valore di AC, ma in aperto contrasto con l’idea intuitiva di complessità. La complessità reale è infatti definita come la tensione dinamica tra ordine e disordine, sorpresa e ridondanza, schema e caos. Pertanto si sentiva il bisogno di una misura della complessità effettiva (EC), che assumesse bassi valori in situazioni di alto ordine ed alto disordine, ovvero semplici, e assumesse alti valori nel mezzo, indicando i sistemi complessi. Gell-Mann propose quindi di calcolare l’effettiva complessit{ separando l’algoritmo in due funzioni, una che definisse la struttura del sistema, ed una che definisse le variazioni casuali, anche se questo modello fu spesso criticato per la non oggettività. In sostanza gli aspetti random, o che causano rumore vengono dimenticati, mentre gli aspetti che esibiscono una struttura sono compressi. Nel 2003 Philip Galanter, utilizzando il modello di Gell-Mann è riuscito a classificare i principali tipi di algoritmi generativi legandoli alla teoria della complessità:
Infatti se noi accettiamo il fatto che l’arte generativa è definita dall’uso dei sistemi e che questi sistemi possono essere capiti meglio nell’ambito della teoria della complessit{, possiamo trovare un modo inusuale e inclusivo di capire che cos’è realmente l’arte generativa (39).
Bisogna notare che la crescita della complessit{ non è lineare, e inoltre l’apice della curva non è infinito. Ciò vuol dire che i componenti strutturali di un sistema non possono essere infiniti e pertanto esiste un massimo di complessità che può essere raggiunto. Pertanto possiamo affermare che esistono diversi tipi di complessità, se finora abbiamo trattato la complessità in termini di non-linearità e non-determinismo, in termini di competizione tra caos e ordine (stocastico), in termini di complessità computazionale e complessità effettiva, esistono in realtà tanti altri modi di definirla. Una classificazione ci è fornita da Rescher (40): 1. Complessità della formula
Descrittiva: lunghezza della quantità necessaria di descrizione del sistema
Generativa: lunghezza della procedura necessaria per generare il sistema
Computazionale: il tempo e lo sforzo impiegato per risolvere un problema
2. Complessità composizionale
Costituzionale: numero di elementi di un sistema
Tassonomica: numero delle tipologie di elementi di un sistema
3. Complessità strutturale
Organizzativa: differenti modalità di interazione tramite gli elementi
Gerarchica: complessità delle relazioni gerarchiche
4. Complessità funzionale
Operativa: varietà dei modi di operare
Nomica: complessità delle leggi che governano il sistema
Inoltre vi è un particolare tipo di complessità definita apparente, basata su dati soggettivi e qualitativi. Non si tratta di reale complessità, ma semplicemente di complessità visiva, estetica complessa, forse una moda, e verrà analizzata nei paragrafi successivi. Capire realmente cosa significa complessità apparente implica un analisi di tipo percettivo e cognitivo che esula dall’argomento di questa tesi. Ad ogni modo questo tipo è quella più sfruttata attualmente da parte dei designers, probabilmente perché mancano la cultura e gli strumenti giusti per gestire la vera complessità.
L’adattamento Karl Popper ha definito una distinzione tra due principali livelli di adattamento (41): quello genetico e quello comportamentale: la grande differenza sta nel fatto che le mutazioni a livello genetico non solo solamente aleatorie, ma anche completamente cieche, senza uno scopo preciso. Inoltre una mutazione precedente può non influenzare le successive mutazioni. L’adattamento comportamentale ha invece uno scopo preciso e soprattutto può essere originato dalla conduzione di varie prove ed esperimenti precedenti. Se gli esperimenti dinamici dello sviluppo sono necessari per raggiungere la complessità, questi non sono abbastanza per raggiungerla effettivamente e non creare solamente complicazione. Infatti uno strumento generativo che gestisce l’aumento di complessit{ può operare due tipi di crescita: l’accumulo di eventi, e la realizzazione della chiarezza, causata dalla continua proprietà di auto-adattamento del sistema in relazione ai continui cambiamenti. Non solo, la complessità si manifesta anche nell’abilit{ di reagire a questi eventi, soddisfacendo bisogni ancora imprevedibili poco prima (42). Spesso l’adattamento dei sistemi complessi segue la co-evoluzione, presupponendo una sostanziale assenza di scambio di informazione tra due soggetti. La coevoluzione può avvenire tra sistema e ambiente o tra due sistemi che condividono uno stesso ambiente e spesso il comportamento totale dei sistemi-ambiente si differenzia di molto dal singolo comportamento di ogni soggetto. Quando il comportamento di un singolo sistema induce un cambiamento nell’ambiente che a sua volta modifica il comportamento di un altro sistema si parla di sematectonic communication (34). Inoltre altri due termini originati nelle scienze psicologiche possono essere riferiti all’ambiente: un ambiente si dice autoplastico quando, in virtù di un contesto altamente determinato, costringe il sistema ospitato ad auto-adattarsi all’ambiente; viene definito alloplastico quando invece c’è una co-evoluzione di ambiente e sistema (43).
L’emergenza Il fenomeno dell’emergenza è la proprietà dei sistemi caotici dinamici di raggiungere organizzazioni coerenti che sembrano non dipendere dalle proprietà delle singole componenti del sistema. Infatti a vari livelli di complessità possono nascere regole e leggi che, pur non entrando in conflitto né con le leggi del livello inferiore, né con le leggi di quello superiore, danno caratteristiche nuove al sistema, che non potevano essere previste a partire dalle qualità di ogni singolo elemento. In pratica si materializza qui il principio che il tutto è più della somma delle parti. Queste ultime interagiscono infatti in modi eccentrici, creando delle strutture nuove e persistenti con una complessità aumentata (44). Sebbene il concetto di emergenza sia stato connesso alla teoria della complessità solo negli anni ’80, il concetto stesso viene utilizzato sin dagli anni venti (45). Il fenomeno di emergenza è un aspetto onnipresente della nostra realtà, pensiamo ad esempio al tempo meteorologico: la formazione di cicloni, correnti, fronti d’aria calda e fredda, tornado sono fenomeni impossibili da prevedere sulla base delle leggi che governano le singole molecole di gas. O ancora è impossibile spiegare il comportamento di un formicaio sulla base delle proprietà di ogni singola formica. Generalmente questo approccio è detto bottom up, ovvero dal basso, rispetto all’approccio deduttivo generale che viene definito top down.
Uno dei modi per spiegare l’emergenza è stato fornito dagli studi di Ilya Prigogine: alcuni sistemi lontani dall’equilibrio dinamico, pur continuando a mostrare oscillazioni caotiche, possono tendere a uno stato di maggiore entropia, ovvero di maggior ordine. I sistemi che incontriamo sulla Terra sono, non fosse altro che per la presenza del continuo apporto energetico da parte del Sole, di fatto tutti non isolati e fuori dall’equilibrio, sicché non dobbiamo stupirci della creazione di ordine qua e là (46). L’emergenza è infatti un indice della buona salute dei sistemi: un sistema “creativo” utilizza l’emergenza per risolvere i problemi imposti dall’ambiente e per poter riutilizzare soluzioni già sperimentate, sebbene spesso lo faccia in modo cieco, ovvero senza un preciso scopo. Nell’ambito del design generativo si è molto parlato di emergenza della forma, ovvero della nascita di configurazioni originali e soluzioni imprevedibili legate all’utilizzo dei sistemi complessi. Recentemente Philip Galanter ha cercato di mettere in crisi il concetto di emergenza tramite un semplice esperimento ed un complicato rompicapo: the traveling salesman problem (32).
7.
La casualità
La casualità non esiste. Nel mondo naturale si può parlare di caos deterministico, ma non di casualità. Nel crossingover dei cromosomi, il processo secondo cui casualmente vengono mischiati i nostri geni quando stiamo per nascere, non c’è mai un momento di casualità. Anche li infatti tutte i vari elementi sono sempre sottoposti a regole deterministiche e definite; e semmai la casualità è meglio definibile come indeterminatezza. Nelle scienze matematiche e probabilistiche la casualità è definita come un insieme all’interno del quale ogni evento ha la stessa probabilità di accadere rispetto a tutti gli altri. La casualità quindi viene definita come un qualcosa che ha la stessa probabilità di accadere di un qualcosa di casuale; attualmente siamo in grado di ricostruire un sistema di questo tipo. tramite gli algoritmi. In questo senso la casualità viene interpretata come la mancanza di un piano definito, uno scopo, uno schema: questa è un tipo di casualità percepita, nel senso che non si potrà prevedere gli output di un sistema strutturato in tal modo. Pertanto si possono definire due approcci alla casualità, una riferita al risultato, ed una riferita all’atteggiamento. Spesso si sente parlare, e soprattutto nell’ambito del design generativo, di variazione casuale (o random) di qualcosa. E’ d’obbligo precisare che anche qui nulla è casuale, ma ogni qualvolta ci si riferisce alla randomizzazione di un parametro, significa che gli viene applicato un algoritmo pseudo-random. Spessissimo gli algoritmi pseudorandom vengono usati per generare sequenze “casuali” di numeri: ogni keygen, ogni casinò, ogni roulette online, ogni codice di sicurezza utilizza questa metodologia. Vediamo meglio: in una sequenza di numeri pseudo-casuali un algoritmo definisce una serie di cifre in cui ognuna ha la stessa probabilità di uscita rispetto a tutte le altre, il risultato è conforme ad un’accettabile distribuzione probabilistica, in poche parole potrebbe uscire qualsiasi numero.
In realt{ l’algoritmo ha sempre bisogno di un input iniziale. Negli algoritmi pseudorandom si tratta di un valore numerico detto seme; utilizzando lo stesso seme l’algoritmo produce esattamente la stessa sequenza di numeri. Nei processi biologici la natura utilizza il caso per promuovere la diversità e la novità, ad esempio intervenendo nelle alterazioni del DNA, che permettono alla vita di evolvere. Sebbene utilizzare il caso sembri una negazione del potere decisionale dell’autore, non è opposto alla razionalit{, come ci mostra l’idea di Serendipity nelle scienze, e quando bene utilizzato può produrre al tempo stesso diversità e identità (1). Uno dei metodi di casualità più antichi è rappresentato dai dadi, metodo che è rimasto nell’etimologie di alcune parole: aleatorio, che deriva dal latino alea, dado, i vocaboli francesi cheance, ancora riferito al gioco dei dadi, e randon, disordine. Spesso il termine casuale è utilizzato per indicare alta complessità, altre volte come sinonimo di struttura irriconoscibile, ma si può generalmente indicare che ci sono almeno due significati nel termine casuale, la nozione di disordine e quella di arbitrio, fortuna o fato. Gli algoritmi pseudo-random tendono a creare bassi valori di complessità, perciò potremmo inserirli, secondo lo schema di Philip Galanter, tra i sistemi semplici altamente disordinati.
Casualità e processo creativo In molte discipline creative, il caso è utilizzato per amplificare il processo creativo, uno degli esempi più noti sono le strategie oblique di Brian Eno e Peter Schmidt, un mazzo di carte con delle frasi criptiche che ognuno sceglie per ispirarsi. Nella musica l’utilizzo del caso può essere tracciato sin dal 18° secolo, con i Musikalisches Würfelspiel, giochi musicali coi dadi, uno dei quali è stato attribuito a Mozart. Nella danza moderna Merce Cunningham utilizza i dadi per stabilire l’ordine della coreografia, i costumi, le luci e la musica, mentre negli anni 50 si sviluppò un vero e proprio stile musicale definito chance music. Se all’inizio questo stile consisteva in un processo che utilizzava dei numeri casuali per selezionare delle combinazioni di
elementi predefiniti, le tecniche utilizzate da John Cage sono molto più complesse: ad esempio in un’opera l’autore cerca di interpretare il significato musicale di alcune linee su un foglio di carta, o lascia istruzioni su come manipolare diversi apparecchi radio. In generale la chance music ha utilizzato veri e propri algoritmi, e perciò viene considerata a tutti gli effetti arte generativa.
Anche nel mondo artistico non mancano gli esempi di utilizzo della casualità: nel 1951 John Cage eseguì una performance chiamata Imaginary Landscape N. 4 con 24 persone che manipolavano casualmente il volume e la sintonizzazione di 12 radio. Ancora Cage in Music of Chance cercò di incanalare la casualit{ all’interno di un limitato intervallo di possibilità, in modo da rafforzare le strutture predeterminate. Nel 1963 Nam June Paik collegò un segnale Tv a 13 schermi in cui l’immagine veniva distorta casualmente da diversi magneti piazzati su ogni strumento.
Alvin Lucier, nel 1967 compose un pezzo, Wistlers utilizzando dei suoni provenienti dalle onde radio della ionosfera; Jardin, di Nissim Merkado cercò di collegare le vibrazioni delle foglie trasformandole in suono e seguendo sonoricamente l’evolvere della pianta. Dalla fine degli anni 70 Érik Samak utilizzò manipolandoli elettronicamente i versi degli animali o i dati che arrivavano dall’ambiente fisico, come in Autonomous Acustic Forms, dove cercò di trasformare in suoni i dati di anemometri, termometri e igrometri. Un altro esempio proviene da un opera di Domenico Vicinanza che utilizzò come input le vibrazioni sismografiche dell’Etna. Anche il già citato pittore francese François Morellet, nel suo ripartizione aleatorie de 40000 carré, utilizzò il caso dipingendo una griglia di piccoli quadrati con due colori, in base ad una bizzarra fonte random: l’elenco telefonico del dipartimento di Maine-et-Loire; i colori erano determinati dal fatto che l’ultima cifra dei numeri telefonici fosse pari o dispari. L’interesse per il caso, la sua investigazione e la sua applicazione in senso estetico nasce con le avanguardie storiche: rimarcabile è l’opera Stoppages-Étalon di Duchamp che nel 1913 creò dei piatti basandosi sulla forma che un tessuto di cotone assumeva dopo essere stata lanciata dall’altezza di un metro. Ma anche l’arte concettuale utilizzò il caso: ad esempio le combinazioni di forme determinate da regole esterne di Sol Le Witt o le permutazioni di Alighiero Boetti, o ancora le estrazioni casuali di parole di Tzara. In questo caso, e anche nei numerosi altri che utilizzarono i dadaisti, c’è una casualità puramente meccanica, che non si ricollega né alla natura, né alla tecnologia. Il lavoro di Cage e Paik creò un cambiamento: qui la casualità è completamente all’interno della tecnologia, ma è solo nell’opera di Lucier che per la prima volta la casualità viene prodotta facendo lavorare assieme tecnologia e natura: Attualmente la casualit{ è prodotta da un lavoro costante all’interno delle nuove tecnologie: è il computer che simula semplicemente tutte le forme di casualità, nei processi evolutivi, nei calcoli stocastici o nei generatori di numeri. In particolare nell’arte generativa la casualit{ è raggiunta utilizzando come matrici e risorse gli stessi fenomeni aleatori della natura, che sono riprodotti o trasformati tecnologicamente (26).
La ricerca della casualità potrebbe essere prima di tutto un segno e un sintomo della deumanizzazione dell’arte che appare, nella prime decadi del 900, come un ineluttabile risultato dell’intera storia dell’arte. Bisogna precisare che l’approccio generativo tende a rifiutare gli approcci totalmente casuali, in quanto la casualità può essere utilizzata in due principali modi: random come possibilità di creare richieste imprevedibili, limiti, occasioni di aumentare la complessità del processo e aumentarne la riconoscibilit{ dell’idea dell’autore o random come generatore di forme casuali. Naturalmente i due approcci rappresentano due estremi di una continua serie di possibilità, ma spesso la seconda ipotesi viene rifiutata in quanto la sostituzione del processo progettuale con un atto casuale nega il processo progettuale stesso, l’idea. Se mi aspettassi che dalla semplice randomizzazione di una curva, nasca una caffettiera, allora dall’estrazione casuale di lettere potrei tirar fuori la Divina Commedia: possibile, ma altamente improbabile (47). Contrariamente all’utilizzo di forme casuali, le arti generative lavorano tramite la possibile randomizzazione delle interazioni, o meglio utilizzando il caso per rendere imprevedibile il contesto di evoluzione del sistema progettato. Infatti, più aumenta l’imprevedibilit{ dell’ambiente virtuale, più l’idea acquisisce identit{, riconoscibilit{ e forza, mentre se si applica la casualit{ all’oggetto, il risultato non potr{ essere un progetto, ma solamente inconscio formalismo. Infatti spesso la casualità può aiutare la creatività, ma il suo utilizzo negli algoritmi generativi può impedire il progresso verso una soluzione desiderata. Infatti senza parametrizzazione e guida della casualità, i risultati possono facilmente muovere l’analisi lontano dall’obbiettivo piuttosto che condurlo verso esso,questo poiché gli algoritmi pseudo-random riducono la previsione dei risultati, ma tale previsione è fondamentale per navigare lo spazio delle possibilità (48). Se non si è capaci di guidare il sistema verso l’obbiettivo ricercato, allora la scelta si sposter{ sui vari risultati del sistema, e la scelta non sarà più progetto, ma diventerà quella soggettiva di un consumatore. Naturalmente la casualità può essere applicata a diverse fasi del progetto e a diversi livelli di approfondimento, e può ancora variare a seconda delle intenzioni dell’autore o delle necessit{ progettuali. A volte il caso può diventare fonte di
democrazia sociale, come nelle opere di Christine McLoughlin, la cui poetica verrà analizzata più avanti (49). Bisogna inoltre precisare che spesso per raggiungere la complessità non è necessario ricorrere ad algoritmi random: su questo fatto sono stati condotti due interessanti esperimenti sulla variazione dei sistemi di Lyndenmayer (L-systems) da Kevin McGuire e Marie Pascale Corcuff. In pratica ad un L-system viene applicata una distribuzione stocastica, ovvero una serie di eventi la cui probabilità é predeterminata. Nell’esperimento di McGuire un semplice L-system viene fatto variare tramite algoritmi random applicati a 3 diverse regole di crescita dell’algoritmo. Nel primo caso si può notare che le piante sono più simili che diverse, questo dipende dal fatto che il L-system fornisce la topologia, mentre la randomizzazione la varietà. Nel secondo caso invece, le 3 regole vengono applicate ricorsivamente una dopo l’altra, utilizzando un metodo sequenziale e assolutamente non casuale. Come si può notare le piante appaiono molto più diversificate tra loro e niente fa pensare all’esistenza di 3 regole che vengono prese a turno. Pertanto si può affermare che è il sistema generativo stesso la prima fonte di complessità visiva (48), pertanto, se questo è abbastanza ricco, non è necessario utilizzare gli algoritmi random per generare la variabilità.
Corcuff definisce due modi di utilizzare la casualit{ all’interno di un processo: il primo si basa su una sorta di ibridazione, il secondo si basa sull’imprecisione. Per ibridare un processo, bisogna combinarlo almeno con un altro: questo è lo stesso approccio utilizzato da McGuire: ad esempio fondendo nuovamente un Lsystem con una distribuzione stocastica potremmo avere tale varietà:
Il secondo metodo invece si basa sull’introduzione di un errore, o meglio di un intervallo di imprecisione, definito nuovamente tramite distribuzione probabilistica, sull’angolo di attacco dei rami:
Come è evidente l’ibridazione e l’imprecisione producono diversità senza perdere l’identit{ del sistema,ma bisogna precisare che la complessit{ del sistema non aumenta, infatti ogni singolo schema non è più complesso di quelli da cui viene originato, così come nessun bambino è più complesso dei genitori, ma solo diverso.
8.
Sistemi Generativi
Come gi{ ricordato, tra le varie possibilit{ degli algoritmi generativi, c’è quella di originare un sistema. Al cambiare dell’algoritmo cambia anche il tipo di sistema che si può ottenere, i presupposti, le finalità, la filosofia che stanno alla base del progetto. La variabilità dei risultati dei processi computazionali è pressoché infinita, ma nell’ambito del design generativo vengono maggiormente utilizzati sei tipi di algoritmi (e quindi di sistemi): parametrici, iterativi, self-assembly e selforganization, evolutivi, generative grammars e morphing. (37) Talvolta i vari tipi di algoritmi possono essere applicati in successione, altre volte contemporaneamente: si ottengono in questo modo sistemi generativi ibridi. Come già ricordato spesso i sistemi generativi fanno utilizzo dei fattori random, anche se questo non è necessario, come dimostrato da Corcuff, utilizzando i metodi di ibridazione e imprecisione. Gli algoritmi generativi devono definire (50):
la struttura della progressione dinamica nelle dimensioni spaziali.
la struttura delle trasformazioni progressive delle relazioni topologiche.
le regole capaci di controllare gli scenari progressivi rappresentati tramite visioni prospettiche.
le sequenze dei ritmi e la progressiva scoperta dello spazio artificiale.
la contemporanea presenza di eventi strutturati in relazioni dinamiche tramite le diverse molteplicità dimensionali.
le coincidenze e le contraddizioni tra l’ambiente esistente e quello possibile.
le relazioni tra il tutto e le parti, attivando il controllo sulle dinamiche tipiche dei sistemi complessi.
A tal proposito è necessario fare una distinzione tra sistemi rule-based e sistemi generativi. I rule-based system si riferiscono in modo generico a tutti quei sistemi che utilizzano delle regole come elementi generatrici. Questo significa che non tutti i sistemi rule-based sono generativi, poiché, come gi{ ricordato, l’arte generativa implica il lasciare il controllo del progetto ad un sistema esterno. Spesso si fa molta confusione tra sistemi rule-based e quelli generativi, ma una netta distinzione si può trovare nel fatto che i primi non utilizzano sistemi complessi, né quindi ne sfruttano le relative proprietà.
Progettazione Parametrica In questo tipo di progettazione una forma geometrica è descritta tramite una serie di variabili dipendenti o relazioni. Durante il processo una nuova forma viene generata per ogni input diverso di variabili. Pertanto il processo continua finche non si arriva ad un risultato soddisfacente. Le varie geometrie ottenute possono essere giudicate in base alle proprietà accidentali che possono apparire, infatti la forma può cambiare notevolmente a seconda dello stato iniziale del sistema. Il processo parametrico investiga la produzione di infinte variabili all’interno di un sistema e i mezzi di produzione che ne permettono lo sviluppo. Il computer è esplorato come una macchina di generazione, piuttosto che un mezzo di produzione (51). Va comunque precisato che solo in alcuni casi la progettazione parametrica può essere considerata realmente design generativo, ovvero quando si delega il controllo del sistema a qualcosa di esterno, come il computer, o si verificano fenomeni emergenti. La progettazione parametrica standard non è considerata generativa.
Funzioni Iterative I sistemi di funzioni iterative non lineari (IFS) sono un metodo matematico molto potente relativo alla teoria dei frattali, che può essere utilizzato nella creazione di forme irregolari. Il procedimento operativo si basa sulla capacità di evolvere una popolazione di immagini frattali. Più precisamente le immagini frattali vengono codificate in una serie di funzioni matematiche definite sia in coordinate cartesiane che in coordinate polari. Ognuna di queste funzioni rappresenta una IFS cui viene associato un particolare attrattore. Un attrattore è una figura bidimensionale dettagliata e molto complicata verso cui tende la rappresentazione geometrica di una funzione, e nella teoria dei frattali classica, corrisponde a quello che noi comunemente chiamiamo frattale. In parole povere l’attrattore dell’equazione di Mandelhbrot è la rappresentazione grafica della funzione, ovvero il frattale stesso. L’attrattore di una funzione frattale può essere trovato utilizzando 2 metodi: quello deterministico, ovvero simulando la convergenza di una sequenza di equazioni a partire da un set iniziale, e il metodo stocastico, ovvero applicando la funzione a qualsiasi punto dello spazio, poiché è statisticamente assicurato che il risultato sarà un approssimazione dell’attrattore stesso (52). Pertanto l’utilizzo delle funzioni iterate si basa su una ibridazione tra più tipi di frattali per la creazione di forme molto complesse.
Lindenmayer Systems I sistemi di Lindenmayer, meglio noti come L-system sono una famiglia di metodi basati sulle funzioni iterative che possono essere utilizzati per simulare e generare un’estrema variet{ di strutture naturali ramificate, come alberi o arbusti. In genere funzionano su diversi livelli di complessità, selezionati anticipatamente dal progettista, e su ogni livello vengono innestati, tramite regole iterative, gli altri livelli. Se la procedura di costruzione è molto simile a quella frattale, i grafici ottenuti sono spesso simmetrici ed auto somiglianti, con un grado di complessità abbastanza basso.
Infatti gli L-system operano su un singolo genotipo, e non presentano nessuna operazione di ibridazione, evoluzione o interazione tra le varie unità (53). Spesso vengono utilizzati anche L-system parametrici, o vengono ibridati con sistemi più complessi, in modo da aumentare la varietà e la complessità. Difficilmente presentano comportamenti emergenti.
Self-Organization E Self-Assembly Systems I sistemi auto-organizzativi sono quei sistemi costituiti da piccole unità che hanno la proprietà di interagire tra loro e di generare ordine a partire da relazioni caotiche, ovvero danno vita a fenomeni emergenti. L’interazione implica la compresenza di un azione e di una risposta; tale fenomeno, fondamentale per garantire la stabilità del sistema, viene definito feedback.
Gli algoritmi self-organization e self-assembly descrivono le possibilità di interazione tra le varie componenti stabilendone le regole a livello locale e le eventuali modifiche, e lasciano poi evolvere autonomamente il sistema. La filosofia che sta dietro è quindi creare qualcosa di più grande e complesso a partire da semplici unità elementari, sfruttando, se possibile e voluto, le proprietà emergenti. Spesso il moto delle singole particelle non è casuale, ma utilizza modelli fisici caotici, ad esempio il moto Browniano, che consiste nel moto disordinato delle particelle sospese su un fluido, o sistemi di accrescimento come quello di diffusion-limited aggregation. Inoltre il moto e influenzato da diversi elementi come i campi di forze, che possono essere definiti sia dall’ambiente (si parla in questo caso di attrattori) che dalle particelle stesse: gli emitters, ovvero dei punti capaci di emettere particelle (54). Particelle, unità, componenti rappresentano potenzialmente qualsiasi cosa: travi di una architettura, atomi di una struttura molecolare, profilati metallici, componenti, ma per essere computati devono essere definiti in un linguaggio operabile dal computer. Attualmente i self-organization e i self-assembly systems vengono utilizzati in biologia per simulare il comportamento di una comunità cellulare, e in chimica per studiare le reazioni tra macromolecole. Rientrano all’interno di questo tipo di sistemi i swarm system, le metaform e le cellular automata.
Cellular Automata Le Cellular Automata vengono definite come sistemi dinamici discreti deterministici che riescono a creare la complessità da una serie di semplici regole e strutture. Alla base delle cellular automata non vi sono infatti equazioni, ma regole. Si basano sul concetto di ordine locale e sulla creazione di un ordine complesso in una serie di celle (o pixel di un’immagine) fondato su una semplice legge che definisce il colore di una cella rispetto a quelle circostanti. Infatti ogni singola cella applica un algoritmo esplorativo alle celle confinanti (55).
Il metodo operativo consiste nella definizione di uno stato iniziale e una serie di regole che determinano lo stato successivo sulla base del precedente. Pertanto l’evoluzione del sistema è caratterizzata principalmente dallo stato iniziale, che solitamente è a forma di piramide. Altre volte invece l’interazione avviene su una singola riga, ed è possibile simulare uno spazio bidimensionale spostando in basso, di volta in volta, ogni iterazione. L’iterazione quindi di una singola regola, o una serie di regole locali, definiscono un ordine generale. In genere il comportamento del sistema è complesso, ma alcuni sistemi possono convergere in uno stato di equilibrio. E’ possibile inoltre applicare della macrotrasformazioni ai pattern generati, come simmetrie, rotazioni, filtri, morphing. Il concetto di automazione cellulare emerge negli anni 40 grazie agli studi di John Von Neumann e Stanislas Marcin Ulam, ma non venne preso in considerazione fino ad un celebre articolo di Martin Gardner (56) sul Game of Life di John Horton Conway.
Flocking of Birds Si tratta di un modello matematico che esplora la possibilità di simulare il comportamento degli oggetti animati. In genere il sistema è definito da semplici regole che determinano il comportamento del sistema. Uno degli esempi più famosi è il software Boids, di Craig Reynolds, capace di simulare il volo degli uccelli in modo realistico utilizzando solamente 3 regole: una che definisce l’allineamento, una la separazione ed una la coesione dello stormo. L’utilizzo del flocking of birds si basa principalmente sulle proprietà emergenti del sistema e quindi sulla possibilità di generare effettiva complessità. Grazie alle sue proprietà è stato utilizzato negli ultimi tempi in architettura, ma la pioniera è certamente Zaha Hadid, che l’ha utilizzato nei suoi studi sin dal 1983.
Sistemi Evolutivi Questi sistemi sfruttano l’analogia biologica della vita e della selezione naturale. In pratica un qualcosa viene codificato tramite alcuni parametri variabili, che possono assumere dei valori all’interno di certi intervalli. Viene quindi originata una prima generazione di “individui”: valori pseudo-random sono dati ai parametri iniziali, in modo da ottenerne mix differenti, ovvero unità con caratteristiche leggermente diverse. Successivamente gli individui della prima generazione vengono imparentati tra loro a creare una seconda generazione, con tratti intermedi e così via, fino ad approssimare meglio le caratteristiche dell’individuo generato a quelle ricercate. Si gioca cioè sul concetto di ottimizzazione evolutiva, come accade normalmente in natura. Di fondamentale importanza è qui un criterio decisionale esterno di selezione, ad esempio il giudizio estetico del progettista, l’adesione funzionale a certe condizioni, l’aderenza a certi stili decodificati, che attua una sorta di selezione naturale. Un'altra analogia col mondo naturale è quella di fenotipo e genotipo: il primo rappresenta una concreta rappresentazione che un utente o un autore può aver fatto
evolvere, il secondo è invece il “Dna” del progetto, una rappresentazione codificata dei tratti che uno specifico oggetto possiede. Un genotipo è rappresentato da una serie di cromosomi, a loro volta i cromosomi sono formati da una serie di alleli, che rappresentano la codifica binaria di ogni fenotipo. Un algoritmo evolutivo opera 3 principali funzioni: modifica gli alleli all’interno dei cromosomi usando operatori genetici, decodifica il genotipo per produrre il fenotipo e valuta il fenotipo per identificare la soluzione più adatta (57). Mark Rudolph ci ricorda che sebbene il genotipo di un organismo è il fattore più importante nello sviluppo del suo fenotipo, non è quello esclusivo. Anche due organismi con lo stesso genotipo normalmente differiscono nei loro fenotipi, a seconda ad esempio del fattore ambientale (53). Sebbene non esista una definizione formale di algoritmo evolutivo, in genere è composto da 4 elementi: una popolazione di cromosomi che rappresentano le possibili soluzioni del problema, un processo di selezione basata su una funzione di fitness, che determina quanto “buona” è una soluzione, la mutazione, un evento casuale che altera un piccolo pezzo dei nuovi cromosomi ottenuti, permettendo di mantenere la diversità genetica, e il crossover, ovvero la combinazione o lo scambio di caratteristiche tra due membri di una generazione precedente a formare un’altra generazione. I tipi di crossover più utilizzati sono quello a punto singolo, in cui i cromosomi dei genitori vengono spezzati in un punto e invertiti (la testa di uno si combina con la coda dell’altro), o a due punti, in cui una parte del cromosoma di un genitore viene scambiato con la parte che giace nello stesso posto nel cromosoma dell’altro genitore. La quantità di crossover e mutazioni possono essere definite dal progettista dell’algoritmo. Spesso un sistema è definito evolutivo se è in grado di attuare le seguenti azioni: la trasmissione, la variazione e la selezione, in analogia con la teoria Darwiniana. Per trasmissione si intende la capacità di trasmettere o replicare le informazioni tipiche di una specie di generazione in generazione.
La variazione è rappresentata da tutti quegli errori fortuiti che si inseriscono nel processo di trasmissione permettendo al sistema di evolvere in modo incontrollato. La selezione è invece è realizzata dall’ambiente che permette di far sopravvivere determinate specie piuttosto che altre sulla base delle loro qualità particolari, aumentandone inoltre la frequenza nella popolazione considerata. Spesso però la selezione operante nell’ambito delle arti generative è una selezione artificiale, piuttosto che naturale, ovvero non avviene casualmente o senza scopi, pertanto alcuni teorici diffidano di una così stretta analogia tra l’evoluzionismo naturale e quello artificiale. Tra questi vi è Moraes Zarzar che afferma: s’è un’intenzione c’è, allora abbiamo capovolto uno dei principi base del Darwinismo (58). Durante gli anni sono stati definiti evolutivi anche il sistema culturale e lo stesso processo progettuale, sulla base del concetto di meme, utilizzato per la prima volta da Richard Dawkins (59) e ripreso poi da Derek Gatherer (60) nel contesto del design. Per meme, come Susan Blackmore ci ricorda si intende un’informazione memetica in varie forme, incluse idee, la struttura mentale che ha pensato tali idee, i comportamenti che tale struttura produce e le loro rappresentazioni nei libri, mappe, scritti, musica. La caratteristica principale del meme è che si comporta come un genotipo biologico, ovvero risponde alle 3 caratteristiche delineate precedentemente (61). Gli algoritmi evolutivi furono sviluppati nel 1960 da John Holland per il problemsolving e l’ottimizzazione. In questo caso viene definita una funzione obbiettivo, quindi una serie di variabili che modificano la funzione obbiettivo e un ambiente che limita l’evoluzione della funzione obbiettivo. I sistemi evolutivi sono la realtà più studiata dalla critica di settore, probabilmente per la loro analogia col mondo naturale e vengono ulteriormente distinti in strategie evolutive (62), programmazione evolutiva (63), algoritmi genetici (64) e programmazione genetica (65). Sono stati utilizzati da innumerevoli artisti, architetti e designers, soprattutto come spunto creativo o per farsi un’idea preliminare di quali saranno le possibili combinazioni di diversi fattori variabili. Nel 2009 Çobanli ha presentato una nomenclatura completa dei termini relativi al design generativo evolutivo riferiti alla progettazione di oggetti (66).
Generative Grammars Le grammatiche generative sono concettualmente simili ai sistemi evolutivi: anche qui l’algoritmo definisce delle corrispondenze tra alcuni parametri variabili e le caratteristiche dell’artefatto che dovr{ essere generato. A volte vengono descritte anche le regole costruttive di quest’ultimo, sebbene più spesso le forme iniziali vengano iterativamente trasformate. Operativamente una generative grammar consiste in un vocabolario di elementi formali, una serie di regole di trasformazione e una forma iniziale; tale set di caratteristiche date viene detto assioma. La regola costruttiva descrive quale parte delle caratteristiche dell’assioma dovranno essere modificate, che vengono successivamente rimpiazzate da nuove caratteristiche, e così via. Si procede per nuove generazioni che modificano secondo una certa direzione, sempre diversa ad ogni strutturazione del sistema, l’assioma iniziale. Anche qui è fondamentale la dipendenza del sistema dallo stato iniziale, sebbene sia molto difficile raggiungere l’effettiva complessit{. Questo perché le generative grammars tendono ad accumulare eventi piuttosto che creare nuove interazioni, e quindi la complessità effettiva del sistema non aumenta. Negli ultimi tempi si è cercato di eliminare questo problema ibridando le generative grammars con algoritmi evolutivi che fanno evolvere le regole di interazione stesse e prevedendo l’intervento diretto dell’autore sul sistema. Spesso questo tipo di algoritmi viene applicato alle forme geometriche, un ottimo esempio di ciò sono le Shape Grammars, di Stiny e Gips del 1976, ma sono state utilizzate anche dagli architetti Greg Lynn e Evan Douglis. Nel 1999 Knight ha definitivamente classificato le shape grammars in 6 tipologie: grammatiche di base, non deterministiche, deterministiche, sequenziali, additive, e illimitate (67).
Morphing Il morphing è la trasformazione di una forma sotto l’impulso di forze, che possono prendere spunto dalla natura, come la resistenza dell’aria, o essere puramente inventate. Il morphing è diventato celebre come effetto cinematografico, in cui le immagini sembrano passare automaticamente da una all’altra, ed è attualmente utilizzato nell’animazione 3D, dove le varie posture dei personaggi vengono interpolate a partire dalla posizione iniziale e da quella finale.
L’applicazione del morphing alla progettazione fa esattamente questo: la forma di un oggetto A viene trasformata in quello di un oggetto B, il computer calcola le geometrie intermedie, come una sequenza cinematografica, e si creano un infinità di nuovi oggetti intermedi. Il morphing si basa sull’algebra lineare nel senso che delle trasformazioni lineari dipendenti da un parametro sono utilizzate per produrre superfici di base, mentre delle regole logiche di manipolazione dei parametri sono utilizzate per la realizzazione del processo generativo (68). La sequenza di morphing si può dividere in due momenti, il preprocesso, che determina la corrispondenza tra le geometrie primarie, e l’interpolazione, ovvero il vero e proprio processo. Pertanto i principali problemi del morphing possono essere individuati nel decidere la corrispondenza dei punti della geometria iniziale e di quella finale, e nel decidere come debba avvenire la trasformazione.
Sebbene il processo in se sia simile a quello evolutivo, è facilmente intuibile che non si tratta in potenza di un metodo complesso, può però talvolta originare emergenza; precisamente maggiormente le tipologie scelte sono distanti, maggiore è probabile la possibilità di generare qualcosa di sorprendente (69). Questo metodo viene utilizzato prevalentemente per generare spunti creativi nelle prime fasi del processo progettuale.
Parte 3 – Gli strumenti operativi
9.
Il Software
Come già precisato, può esistere metodo generativo anche senza computer, tuttavia sia la critica in materia che i progetti più riusciti sono successivi alla nascita del calcolatore, pertanto andiamo a fare un riepilogo veloce sui più diffusi software generativi. Prima di tutto va detto che spesso le stesse opere di arte generativa possono essere considerati software, e infatti talvolta vengono distribuite in questo modo. Va anche fatta una distinzione tra software operativi, che creano gli algoritmi di generazione e software di rappresentazione, che visualizzano semplicemente le opere. In realtà non è scontato che il mezzo per visualizzare gli output di un sistema generativo debba essere uno schermo, ma questo è probabilmente il più diffuso e permette di controllare ed interagire con le opere in tempo reale. Un software generativo deve inoltre essere capace di far evolvere gli algoritmi, simulando il comportamento dei sistemi complessi e valorizzandone le relative proprietà. Per poter gestire la complessità un programma deve avere almeno i seguenti elementi:
Tecniche computazionali che gli permettano di creare ed approfondire alternative progettuali in una maniera diretta all’obbiettivo.
La creazione e l’esplorazione di forme complesse a partire da elementi base intelligenti che rappresentino e stimolino il processo di generazione di nuovi concept progettuali.
Algoritmi lineari e non-lineari per modificare forme astratte e ottenere forme complesse tramite trasformazioni spaziali o concettuali.
La visualizzazione e l’animazione delle forme generate in un formato compatibile con i più diffusi software.
Particolarmente importante risulta poi la gestione degli elementi spaziali come i campi di forza, le distribuzioni random e la gestione del rumore frattale. Nonché la conciliazione di metodi bottom up, tipici del mondo del progetto, e l’approccio top down, caratteristico del generativo. Questa è la sfida che si pongono i moderni software di progettazione: conciliare un controllo generale sul progetto lasciando liberi gli algoritmi di evolvere autonomamente.
Storia I primi software generativi vennero sviluppati all’interno delle universit{ o dei centri ricerca, ovvero in quelle realtà con maggiore sensibilità innovatrice e disponibilità economica. Tra i primi software va sicuramente ricordato il Game of Life di Conway, primo software che simulava la vita e l’evoluzione di un unit{ cellulare, e le Shape Grammars di Stiny, che permettevano infinte variazione geometriche di una forma. L’esempio più curioso è rappresentato dai software Auto-shop e Auto-illustrator, sviluppati dall’artista Adrian Ward. Vere e proprie net.opere, rappresentano la parodia dei famosi software di casa Adobe: si presentano con un interfaccia uguale a quella dei programmi madre, ma non appena schiacciamo qualsiasi tasto, sullo schermo appaiono configurazioni più o meno casuali di forme geometriche; generate da un algoritmo. Attualmente l’utilizzo di software con capacit{ generative è molto ristretto, ma si sta diffondendo rapidamente; spesso i software generativi sono versioni beta, e distribuiti secondo il protocollo open-source. Qui di seguito presenteremo i software più potenti e diffusi, ma una miriade di piccoli applicazioni, più piccole e semplici, esistono già da tempo sulla rete, come ad esempio quelle che generano imitazioni delle opere di Mondrian.
Software di Programmazione Esistono diversi software che permettono di scrivere algoritmi. Questa categoria utilizza un linguaggio specificatamente informatico, come il C++ o il Visual Basic, il java. Tra i più potenti ed utilizzati possiamo trovare Processing e VVVV, ma molti software si stanno affacciando sul mercato. Sono strutturati in modo da avere una finestra di programmazione, dove si computa l’algoritmo, ed un'altra di visualizzazione 2D-3D, che mostra l’evoluzione del sistema una volta “lanciato”. Tramite quest’interfaccia è anche possibile intervenire direttamente sul sistema, con la pressione di tasti o i movimenti del mouse, se precedentemente previsto. Un vantaggio di questo tipo di programmi è l’estrema libert{: con gli strumenti opportuni è possibile simulare vastissime tipologie di elementi. D’altra parte per utilizzare questi software serve una conoscenza avanzata dei linguaggi informatici ed un grande confidenza con la programmazione computerizzata. Va anche detto che il feedback tra quello che viene compilato e quello che avverrà sullo schermo non è direttissimo, e quindi il processo è più macchinoso, poiché risulta più difficile controllare gli output che vengono generati.
Il nuovo CAD Se i software di programmazione vengono usati da tecnici esperti, net.artisti e interactive designers, che hanno più confidenza con la computazione effettiva di applicazioni, prima il mondo dell’architettura, poi quello del design si è avvicinato al campo generativo solamente negli ultimi anni, grazie nuovi strumenti CAD. Software capaci di parametrizzare una forma o di controllare una architettura direttamente, quasi plasmandola, garantendo un feedback diretto su quello che si vuole ottenere, con la massima precisione e la possibilità di scambiare innumerevoli informazioni si stanno sempre più diffondendo nel mondo del progetto tradizionale. Un software molto interessante da questo punto di vista è Generative Components, prodotto dalla Bentley, che permette di creare una geometria modulare parametrica e adattarla a diversi bisogni funzionali o a varie forme e regole. Attualmente Generative Components è stato usato dai più rinomati studi di Architettura, tra i quali Norman Foster e Zaha Hadid, e sta prendendo sempre più spazio anche nel mondo del design. Ancora una volta infatti è l’architettura a farsi avanti in questi campi, anche se l’approccio “modulare” in architettura è stato tradizionalmente più consono al modo di operare del designer (ad esempio la facciata dell’Istituto del Mondo Arabo di Jean Nouvel a Parigi o il loggiato della Menil Collection di Renzo Piano sono costituiti da elementi, progettualmente parlando, più di design che di architettura).
Plugin e Script Gli script o i plugin delineano un modo di operare intermedio tra i software di programmazione e gli strumenti CAD. Gli script sono in genere parti programmabili dei programmi: in pratica permettono di programmare azioni del software in modo autonomo, mentre i plugin sono delle “aggiunte” al programma, delle nuove applicazioni che ne ampliano le possibilità. Praticamente tutti i programmi di modellazione 3D e rappresentazione CAD possiedono la possibilità di caricare script e plugin. Prendiamo come esempio Rhinoceros, la parte di script permette a tutti gli effetti di produrre degli algoritmi che possono generare forme generative direttamente all’interno del software.
Un esempio: Grasshopper Altro programma, estremamente interessante e forse il più intuitivo da usare per chi conoscesse Rhinoceros, è Grasshopper. Questo programma permette di scrivere degli algoritmi generativi anche a chi non si intende di programmazione. Viene caricato come plugin di Rhinoceros ed utilizza principalmente due finestre, una di programmazione ed una di controllo. Nella finestra di programmazione tutte le funzioni di Rhinoceros vengono trasposte all’interno di Grasshopper come caselline di Input e Output. Gli input e gli output corrispondono di volta in volta a parametri, punti, curve, numeri, variabili, che l’utente può controllare nella finestra di controllo Parallelamente ogni geometria generata viene visualizzata sulle viste di Rhinoceros e può essere modificata in tempo reale, renderizzata ed esportata.
10.
Tassonomia
Operare con gli algoritmi, come gi{ sottolineato, implica un distaccarsi dall’opera e pensarla
in
principio,
in
potenza.
Come
ci
ricorda
Joanna
Kabala
la
parametrizzazione delle forme che permettano un adattamento interattivo è uno dei momenti più difficili in ogni processo progettuale (9). Per utilizzare al meglio gli algoritmi è quindi fondamentale saper operare contemporaneamente sia con gli elementi geometrici che con gli elementi logici. Per operare logicamente si utilizzano principalmente due strumenti: la matematica booleana e la fuzzy logic. Se la prima permette di operare in modo binario, ovvero con proposizioni che possono essere vere o false (corrispondenti al valore 0 o 1), la seconda ne risulta un ampliamento in quanto permette di operare anche con i valori intermedi. Ad esempio se una bottiglia composta al 95% di acqua e al 5% di veleno è statisticamente o mortale o no, la fuzzy logic ci permette di affermare che la bottiglia è mortale con un grado di verità dello 0,05. La logica e la semiotica sono fondamentali nel programmare, in quanto bisogna descrivere esattamente ciò che si vuole che un programma faccia e con quali elementi compia le elaborazioni, evitando principalmente le contraddizioni le indeterminatezze. Ciò infatti potrebbe causare errori nel programma, o addirittura il danneggiamento o l’arresto. Ecco perché Adrian Ward, uno dei massimi artisti generativi afferma che il programmare è l’abilit{ di costruire giudizi e trasformarli in logica (70). Se nel programmare è fondamentale la logica, l’essenza dell’architettura e del design è operare con la forma. Già Le Corbusier affermava che l’architettura è il gioco sapiente, rigoroso e magnifico dei volumi assemblati nella luce (71). Ma se l’architettura è di per se assemblare i volumi bilanciando esterno ed interno, fino ad ora l’architettura generativa si è concentrata sugli spazi esterni: assemblare parti funzionali di edifici o progettarne la struttura tramite i componenti, è un approccio molto più simile a quello del design. Non a caso l’architettura generativa è spesso usata per grandi costruzioni, e raramente è stata usata all’interno, se non per specifici problemi tecnici.
Ancora una concetto va precisato: come ricorda Soddu, le arti generative non operano con le forme, non assemblano forme, ma applicano trasformazioni. Fondamentale sarà allora andare a vedere le principali trasformazioni, geometriche e non, utilizzate dai software. Ma la forma resta il punto di partenza, senza forma non c’è informazione. Il futuro sar{ l’epoca della forma, ma non la forma archetipica perfetta, sarà una forma trasformata morfogeneticamente (72). Pertanto risulta fondamentale dare una classificazione, seppur parziale e non esaustiva, dei principali comandi utilizzati nei software. Ci concentreremo da una parte sulle forme geometriche primitive e i modi per ottenere le forme geometriche principali, dall’altra sugli elementi geometrici e logici. La prima classificazione geometrica in ambito operativa è stata compilata dalla Kernel, si chiamava ACIS 3D Solid e continua ad essere utilizzata dai maggiori sistemi CAD, come Catia, ProEngineer e SolidWorks (73). Il sistema ACIS divide i solidi in 47 classi di oggetti. In questo paragrafo si è invece scelto di utilizzare ancora Grasshopper, per due motivi principali: fornisce già una completa classificazione interna basata sugli algoritmi ed indica per ogni elemento i principali parametri che possono essere controllati dall’algoritmo.
Geometria di base Rappresentano gli elementi base nella creazione di ogni singola forma geometrica, ognuno ha dei specifici parametri che possono essere controllati. Storicamente sono i primi elementi che l’uomo ha imparato a rappresentare tramite l’astrazione visiva (es. pittogrammi e ideogrammi). Successivamente sono stati utilizzati in pattern e decorazioni geometriche, che a detta di Philip Galanter rappresentano i primi esempi di arte generativa. Particolare importanza in questa categoria è rappresentata dalle curve, di cui se ne conoscono ben 52 tipologie, e soprattutto dalla linea a doppia curvatura, che si ritrova spessissimo in tutta la cultura umana (templi greci, riccioli barocchi, art nouveau, pitture Maya) e che sembra trovare la sua importanza nel riferimento alla curva della guancia femminile (74).
Rientrano in questa classificazione:
Punti, sono regolati da coordinate cartesiane.
Curve, si ottengono dall’unione di vari punti, vengono utilizzate nelle trasformazioni e nella creazione di superfici.
Superfici, Rappresentano gli input per creare i solidi, sono creati da trasformazioni che riguardano linee, vettori.
Vettori, viene definito come un segmento orientato, è molto utile nelle operazioni di tangenza, di creazione di superfici e di trasformazione.
Figure geometriche primitive Sono quelle figure definite regolari che vengono ottenute da luoghi geometrici o semplici trasformazioni. Rappresentano la base archetipa della geometria e sono un grande salto mentale e culturale in quanto raffigurano figure astratte. Sono le figure a cui intuitivamente guardiamo quando ci riferiamo alla geometria. Per la loro capacità di estrarre dalla natura sono state utilizzate lungo i secoli come forme geometriche fondamentali. A partire dall’et{ classica, nel Rinascimento, nel Neoclassico (pensiamo ad esempio alla figura di Boullé), nel Moderno, e recentemente nell’arte Minimal sono state utilizzate come sinonimo di semplicità e chiarezza. Rientrano in questa classificazione:
Archi e cerchi, definiti tramite 3 punti o a partire dal centro A volte a partire dalle tangenze.
Ellissi, definiti dal centro o dalle dimensioni degli assi.
Poligoni regolari, spesso definiti dal centro e iscritti o circoscritti ad un cerchio. Differiscono per il numero di lati.
Parallelepipedi, spesso definiti dalla distanza tra 2 vertici, o a partire dal centro.
Coni, risultanti dalla rotazione di una retta obliqua attorno ad un asse.
Cilindri, definiti dalla rotazione di una retta attorno ad un asse parallelo.
Sfere, definite dal centro e dalle dimensioni del raggio.
Creazione di superfici Vengono utilizzate per la creazione di superfici diverse dalle geometrie primitive. Si basano su trasformazioni semplici come la traslazione o la rotazione. Per simulare la presenza di una superficie effettiva viene spesso usata l’interpolazione. Hanno rappresentato un grosso sviluppo nel business del software, poiché permettono la creazione di forme complicate. Troviamo in questa categoria:
Estrusione, si tratta della traslazione di elementi lungo una direzione ed un verso stabiliti da un vettore. Possono essere estrusi punti, linee o curve chiuse. Nel primo caso otteniamo una linea, nei secondi delle superfici. Ne esistono diverse varianti.
Loft, è una sorta di interpolazione tra diverse curve. Le curve di partenza vengono utilizzate come sezioni di una superficie unica calcolandone distanze, orientamento e tangenza.
Rivoluzione, è la rotazione di un qualche elemento geometrico attorno ad un asse. Si ottengono quindi i cosiddetti solidi di rivoluzione.
Sweep, è una traslazione, simile per concetto all’estrusione, ma invece di basarsi su un vettore, utilizza una curva, aperta o chiusa, come percorso di estrusione. Ne esistono 2 varianti: a 1 binario e a 2 binari.
Analisi L’analisi delle geometrie è uno degli elementi fondamentali nell’utilizzo degli algoritmi in quanto permette ad un sistema di conoscere se stesso e l’ambiente circostante e quindi di auto-adattarsi. E’inoltre fondamentale per stabilire le relazioni del sistema e quindi dei legami tra gli elementi e gli intervalli d’azione. Esistono diversi tipi di analisi, bidimensionali, tridimensionali, statistici.
Curvatura e tangenza, sono i controlli fondamentali per definire la continuità di superficie e l’orientamento delle forme. Vengono utilizzati anche nelle intersezioni.
Lunghezza e distanza, rappresentano tutti quei controlli che permettono di misurare una qualche distanza, tra punti, curve, superfici, segmenti. Sono fondamentali nell’organizzazione spaziale delle geometrie e nella gestione dell’interazione, come i campi di forze.
Intersezione, è il comando che permette di individuare i punti in cui 2 geometrie si sovrappongono. E’ fondamentale nel definire l’interazione tra le geometrie, come ad esempio far variare una linea una volta che entra all’interno di una superficie.
Area e volume, sono quelle analisi che riguardano proprietà secondarie delle forme geometriche e sono fondamentali per definire l’interazione tra i vari elementi.
Trasformazioni Rappresentano il vero cuore degli algoritmi generativi. Sono in genere basate su analisi precedenti e definiscono le azioni da intraprendere in base alle situazioni createsi. Le trasformazioni rappresentano il fulcro sia della geometria euclidea che della geometria frattale e hanno permesso la creazione di tutti i solidi primitivi. Inoltre stabiliscono gli adattamenti del sistema e la sua tipologia. Ad esempio due algoritmi uguali possono differire tantissimo nei loro fenotipi a seconda che l’ambiente suggerisca una simmetria o una rotazione. Secondo Soddu rappresentano la vera via verso la complessità.
Ridimensionamento, si riferisce alla moltiplicazione di un elemento geometrico e un parametro scalare. Viene usata relativamente poco in ambito generativo, generalmente nelle funzioni iterative e autosomiglianti, come gli L-System e indirettamente nei frattali.
Traslazione, è l’applicazione di uno spostamento definito da un vettore, dimensione, direzione e verso ad una certa geometria. Oltre al vero e proprio spostamento il principio della traslazione è associato ai campi di forza.
Rotazione, si riferisce ad una traslazione in cui lo spostamento non è definito da un vettore, ma da una distanza, il raggio, e un punto o un asse che rappresentano il fulcro di rotazione. Viene spesso usata nell’interazione fra gli elementi.
Simmetria, è una delle trasformazioni più utilizzate nell’ambito degli algoritmi generativi. Geometricamente si definisce come un ribaltamento di una geometria rispetto ad una retta, un punto o una linea. Viene spesso utilizzata in senso estetico in quanto riesce a modificare fortemente gli output dei sistemi divenendone l’elemento caratterizzante.
Morfogenesi, in questa categoria possiamo far rientrare tutte quelle trasformazioni non affini che tendono a modificare le geometrie sulla base di inferenze fra due elementi. Ad esempio è possibile modificare una superficie in base all’influenza di un punto, o adattare una geometria sulla base di una linea. Sono le più utilizzate in quanto formano un estetica organica e complicata.
Operatori logici Si basano sulla logica boleana, sulla fuzzy logic e sul controllo statistico. Sono fondamentali nella compilazione di un algoritmo in quanto definiscono le relazioni tra i deversi comandi. Ad esempio definiscono le azioni da fare e da non fare, quando operare
una
certa
azione
piuttosto
che
un'altra,
quando
attuare
contemporaneamente due comandi. Rappresentano le congiunzioni tra le proposizioni di un algoritmo. Lo studio della logica è stato fondamentale per tutta la programmazione informatica, e spesso le due discipline si sono coevolute, in quanto solo l’informatica è stata capace di focalizzare problemi ancora irrisolti come i paradossi logici. Uno dei più celebri, che ha impegnato il pensiero occidentale per secoli, è il paradosso del mentitore (75). Una delle forme più accattivanti di tale paradosso è stata fornita nel 1913 dal matematico Philip Jourdain (76): La frase seguente è falsa La frase precedente è vera Tra i principali operatori logici possiamo trovare:
Not, che indica la negazione di una proposizione
And, equivalente alla congiunzione e. Indica due proposizioni non in contrasto tra loro.
Nor, che indica l’utilizzo di una proposizione oppure l’altra secondo il principio di esclusione.
Or, simile alla prima, ma senza principio di esclusione.
Xnor,
congiunzione
che
indica
l’identit{
tra
due
proposizioni.
Xor, congiunzione che indica la diversità tra due proposizioni.
Parametrizzazione e controllo Sono tutti quei controlli esterni alla geometria tradizionale utilizzati per dare un grado maggiore di complessità al sistema. Sono principalmente relativi ad un incertezza che può essere di due tipi: indefinita, utilizzando quindi un intervallo, un parametro o il caso, e definita, riferendosi ad esempio a delle serie numeriche. Sono gli indicatori più utilizzati nella creazione di algoritmi, vediamone alcuni:
Pattern, rappresenta degli elementi organizzati, come le griglie geometriche, o i campi di forze.
Serie, indica un insieme numerico organizzato che fa capo ad una certa regola.
Serie di Fibonacci, è una particolare serie numerica in cui ogni numero è dato dalla somma dei due precedenti. I numeri di Fibonacci godono di una gamma stupefacente di proprietà, si incontrano nei modelli matematici di svariati fenomeni e sono utilizzabili per molti procedimenti computazionali; essi inoltre posseggono varie generalizzazioni interessanti come l’individuazione della sezione aurea.
Algoritmi pseudo-random, possono introdurre il fattore casuale
all’interno
dell’evoluzione
di
un
algoritmo.
L’utilizzo di queste procedure è stato gi{ analizzato precedentemente. Per l’utilizzo di tali algoritmi è sempre necessario un elemento di partenza detto seme.
Intervalli e sliders, rappresentano un certo grado di incertezza tra due valori numerici o spaziali. Sono la prima fonte per le geometrie parametriche e vengono controllati esternamente tramite degli sliders.
Gestione del colore Grasshopper ha al suo interno la possibilità di gestire il colore e le ombra degli oggetti, in modo che vengano utilizzate nella renderizzazione in Rhinoceros. Sono utilizzati per ampliare la variabilità degli output e per collegare fattori tipicamente soft, con quelli hard degli oggetti. Vengono inoltra utilizzati spessissimo per definire proprietà intrinseche della geometria come le curvature o la massa, anche all’interno dei software di ottimizzazione CAM o nel calcolo FEM (agli elementi finiti). Vediamo velocemente alcune proprietà:
Gestione RGB, Grasshopper permette la gestione RGB (Red, Green, Blue) dei colori e possiede numerosi strumenti di analisi.
Sfumature e Addizioni, questi comandi permettono l’interazione delle varie propriet{ del colore.
Gestione delle ombre, permettono di creare un comando OpenGL riferito alla gestione dell’ombra degli oggetti.
11. Identità Il concetto di identità risulta essere centrale nella poetica generativa. Per identità si intendono quelle caratteristiche salienti e che meglio caratterizzano un oggetto e ne definiscono la riconoscibilità. Nel design generativo è necessario parlare di identità associata a variabilità. La variabilità rappresenta una misura su scala continua di quanto gli elementi di un qualcosa tendono a variare, ovvero a modificarsi nel tempo,. Se un estremo della scala è definito da caratteristiche sostanzialmente immutate nel tempo, dall’altra parte non esiste un vero e proprio estremo in quanto le caratteristiche possono modificarsi in modo praticamente incontrollato e indefinito. Identico e variabile sembrano escludersi a vicenda, ovvero una cosa di per se costante nel tempo annulla la variabilità in quanto è sempre uguale a se stessa, mentre, viceversa, un qualcosa di estremamente variabile, risulta essere in fin dei conti non definibile e quindi perde la propria identità. In realtà, come riguardo alla complessità anche qui è possibile trovare una terza via. La terza via si può ritrovare nel concetto di riconoscibilità. Tra i due estremi della scala, ci sarà un momento in cui, sebbene la variabilità di alcune caratteristiche è relativamente alta, ci saranno proprietà salienti che rimarranno abbastanza costanti da permetterci di ricondurre il tutto ad un identità e ad una riconoscibilità forte. Innumerevoli esempi possono essere ritrovati nel mondo naturale: seppur nell’estrema variabilit{ di un albero, sappiamo distinguere un albero da un gatto e addirittura riusciamo a distinguere varie specie all’interno della classe degli alberi e in quella dei gatti. Ma anche nel mondo artificiale possiamo trovare questo concetto: ad esempio sappiamo distinguere un tempio greco da una basilica romana, sebbene nessun tempio greco sia uguale all’altro. Probabilmente la soluzione consiste nel darsi delle regole costruttive, dei veri e propri algoritmi generativi, tra i quali possiamo far rientrare, sebbene le dovute distinzioni, i canoni greci.
Pertanto bisogna puntare, nel design generativo più che in altri campi, a spingere al massimo l’equilibrio tra il cambiamento e la stabilit{, andando ad ampliare la variabilità degli elementi ma garantendone la riconoscibilità complessiva e conseguentemente una forte identità. Celestino Soddu dice riguardo all’identit{ culturale di ogni citt{ che gli architetti, progettando architetture che identificano diverse visioni della stessa città ideale, possono dare ad ogni cittadino la possibilità di rispecchiarsi nella crescente complessit{ dell’ambiente, nella molteplicità delle possibili interpretazioni della propria città, nel loro patrimonio culturale rappresentato dalle variazioni della città (19).
Parte 4 – Le applicazioni attuali
12.
Ottimizzazione
Il primo campo che vide l’applicazione degli algoritmi generativi fu sicuramente quello dell’ottimizzazione. Infatti, come abbiamo già accennato prima, in base alla scienza complessa, è più semplice simulare l’effettivo comportamento di un sistema complesso piuttosto che prevederlo a partire dalle condizioni iniziali. Pertanto, nello studio tecnico dei settori avanzati si è sviluppata una logica di questo tipo: l’obbiettivo non è più quello di prevedere il comportamento di un sistema, ma cercare di costruirne il modello più preciso possibile, evitando però sia l’eccessiva complessificazione, sia il problema opposto, la banalizzazione. I campi in cui si diffusero inizialmente queste tecniche furono la fluidodinamica, la meccanica, la chimica molecolare e la biologia. Gli algoritmi generativi, assieme ad altre tecniche di ottimizzazione come la simulazione computerizzata e il calcolo agli elementi finiti divennero presto fondamentali in questi campi. Vediamo un rapido esempio: l’acqua è un fluido che si comporta come un sistema caotico dinamico, è impossibile conoscere esattamente la posizione di una certa molecola a un dato istante, ne tantomeno prevederne i successivi spostamenti. Se portiamo questo discorso ad una macroscala, ciò vuol dire che è inutile cercare di prevedere il comportamento di una massa d’acqua nel futuro, poiché ogni minima variazione iniziale, ogni marginale interazione porterà presto il sistema a svilupparsi in un modo effettivamente casuale. L’ottimizzazione, per esempio, di uno scafo sar{ allora impossibile da un punto di vista deterministico in quanto ogni infinitesima modifica nello scafo stesso potrebbe interagire con il sistema e farlo evolvere in modo del tutto imprevisto. La soluzione sta quindi nella simulazione stessa del sistema acqua-scafo, a partire da vari dati iniziali, in modo da simulare effettivamente il comportamento del sistema. Il computer, per la sua potenza di calcolo, è diventato presto il metodo più pratico e veloce per compiere questa analisi a posteriori. Ma ben presto ci si accorse che per
ottenere un’efficace ottimizzazione, ovvero un miglioramento delle caratteristiche di un oggetto, servivano più geometrie diverse, più scafi, per tornare al nostro esempio. Gli algoritmi evolutivi e le tecniche generative fornivano questo tipo di variabilità, nonché la possibilità di ibridare le caratteristiche degli scafi migliori, in modo da ottenere quello con le migliori performance. L’ottimizzazione tecnica fu quindi fondamentale per lo studio e la diffusione delle tecniche generative. Uno dei primi studi riguardo proprio agli scafi, si deve a John Frazer e Peter Graham, qui ne vediamo un’evoluzione del 1993:
Questo metodo fu prontamente applicato anche in architettura, inizialmente nello sviluppo di costruzioni modulari auto-adattanti. Anche qui Frazer fu un pioniere, con lo sviluppo nel 1966 del Reptile structural system, un sistema di copertura capace di adattarsi ad ogni perimetro, sia rettangolare che curvo. Funzionava tramite l’interazione di 2 componenti standard che potevano connettersi in vario modo a seconda dell’orientamento che assumevano nello spazio.
Una visione moderna del Reptile system si deve all’associazione culturale EmTech, che ha sviluppato una copertura leggera modellabile. Sebbene anche questa sfrutti gli algoritmi generativi, il suo funzionamento è più plastico e meno aggregativo rispetto al sistema di Frazer.
Tra i vari campi di ottimizzazione in architettura ve ne sono tre di fondamentale importanza:
Il miglioramento strutturale dell’edificio
La gestione della luce
L’isolamento termico e acustico
Per quanto riguarda l’isolamento acustico, Quinsan Ciao tratta l’esempio di due progetti nel suo saggio Hearing Architectural Design. Si tratta dell’ottimizzazione acustica di un teatro prossimo all’aeroporto National Reagan nel distretto di Washington, e nella riduzione dell’effetto eco in una cappella nel sud Virginia. Per entrambi i progetti Ciao ha utilizzato gli algoritmi generativi nello studio delle onde sonore (77).
13.L’Architettura Architettura Computazionale Il mondo dell’architettura ha beneficiato del computer in vari modi. I primi programmi CAD: Computer Aided Design (design inteso naturalmente come progettazione) rappresentarono uno strumento informatico che facilitava il lavoro, ma solamente nell’ultima fase di progetto, quella di definizione, di disegno, non in quella precedente di ideazione. La prerogativa dei programmi informatici tradizionali è infatti quella di dare strumenti di rappresentazione: disegni, tavole, modelli 3D, rendering oramai fotorealistici, animazioni, simulazioni. Ma il computer ha portato anche diverse innovazioni in fase di processo: pensiamo ad esempio al disegnare un logo in vettoriale e poterlo stampare grande quanto vogliamo, o al creare un modello 3D e poterlo stampare, ma questa volta volumetricamente, tramite la prototipazione rapida, il tutto praticamente senza step intermedi. Pian piano però si sono fatti avanti software che aggiungono a questi strumenti nuove funzioni di progettazione in tempo reale, direttamente durante la fase ideativa. Dagli anni 90 ad oggi il volto dell’architettura è profondamente cambiato, soprattutto in senso formale. Si è diffusa quella che viene chiamata architettura blob: gli edifici somigliano sempre più a forme organiche e sinuose, sono sistemi in aperto scambio con l’ambiente, architetture quasi vive. Molte spiegazioni possono essere date a questo cambiamento, ma il ruolo del computer in fase di simulazione in tempo reale è qui di fondamentale importanza. Attorno a questo nuovo mondo sono nate diverse direzioni di ricerca, ma soprattutto tanta confusione.
Il termine Architettura computazionale viene utilizzato come comune denominatore per quell’architettura che utilizza il computer, ma ha il grande difetto di non specificare né il come, né il perché: il risultato è che quest’espressione racchiude una miriade di concetti anche molto distanti tra loro. Vediamo i principali approcci della nuova architettura computazionale.
Architettura topologica. Opponendosi alla geometria euclidea, rifiuta la rappresentazione di volumi discreti nello spazio cartesiano, ma crea architetture fluide e interconnesse tramite l’ampio utilizzo di superfici curvilinee NURBS.
Architettura isomorfica. Utilizza oggetti virtuali amorfi detti metaballs che hanno la propriet{ di interagire tra loro tramite campi di forze. L’architettura nasce dalla modifica di superfici a campo uniforme (da cui il prefisso iso) tramite i metaballs.
Architettura animata. Utilizza i software di animazione come strumento di generazione di forme, per un architettura più armonica, che riunisce movimento e forza direttamente nell’atto costitutivo.
Architettura metamorfica. Utilizza deformazioni e animazioni di forme chiave o oggetti: praticamente l’edificio viene modellato e adattato al sito di interesse.
Architettura parametrica. La forma dell’architettura non è definita, ma si origina da parametri variabili, oggetti. Assegnando diversi valori ai parametri, si possono creare facilmente diversi oggetti o configurazioni.
Architettura evolutiva. Il modello evolutivo della natura viene indicato come processo generativo per le forme architettoniche tramite l’utilizzo di un algoritmo.
Architettura Generativa L’eterogeneit{ delle aree di ricerca dell’architettura computazionale rende difficile distinguere dove vengano usati effettivamente metodi generativi, collegati alla teoria della complessità, e dove invece il computer è un semplice strumento di generazione formale. Il fatto poi che il 95% di architettura contemporanea che dice di fare riferimento alla scienza della complessità recita solo retorica ad uso marketing non aiuta. (78) Nell’ambito architettonico i metodi generativi sono stati introdotti prima rispetto ai tempi del design, vengono usate soprattutto per problemi statici e di utilizzo di componenti standard. Dei sistemi complessi ottenuti, vengono sfruttate soprattutto le proprietà emergenti ed auto-organizzative. Una parte degli architetti che usano i software generativi nel loro lavoro insistono sull’analogia della costruzione architettonica come una macchina viva, che si evolve e si adatta alle varie condizioni dell’ambiente in cui è costruita. Altri trovano nei metodi generativi un corrispondente dei canoni costruttivi, ovvero un qualcosa di associabile alle proporzioni architettoniche universalmente utilizzate in ogni epoca storica. Celestino Soddu, docente di architettura generativa al Politecnico di Milano afferma che tutta l’architettura infatti ha conservato delle regole che unificassero la variet{ del tutto in una riconoscibilità armonica singolare, ma attualmente questo sistema è andato perso. Infatti tutta l’architettura moderna si basa sulla randomizzazione, ovvero la variazione pseudo-casuale di unità fino a raggiungere un risultato esteticamente soddisfacente. L’approccio
generativo
garantisce
complessità di progetto. (79)
l’unit{
dell’insieme
all’aumentare
della
Esempi Toyo Ito Architetto di fama mondiale, ormai una vera Archistar, gi{ da un po’ di anni si interessa all’architettura morfogenetica e parametrica, e alle nuove frontiere di simulazione computerizzata. Le sue architetture rappresentano qualcosa di nuovo sulla scena mondiale per quanto riguarda complessità e metodo. Il primo progetto importante dal nostro punto di vista, espressamente basato su un algoritmo generativo è il Serpentine Gallery Pavilion 2002, costruito assieme all’ingegnere Cecil Balmond e Arup a Londra.
La struttura viene basata sulla trasformazione di un quadrato che ad ogni passaggio viene ruotato di un certo angolo, traslato di un certo vettore, e ridotto di dimensioni; i lati di ogni quadrato vengono poi prolungati e adattati alla forma del padiglione. A ben vedere si tratta di una shape grammar iterativa che permette di ottenere un open space di 18x18 metri che si regge solamente sui lati esterni. Se la struttura della copertura fosse basata su una maglia ortogonale, richiederebbe travi di enorme spessore e costo. Per ridurre la lunghezza delle campate, si applica il principio per cui, in progressione verso l’interno a partire dallo schema del quadrato perimetrale esterno, gli elementi strutturali della copertura vengono collocati in senso diagonale rispetto ai precedenti, in modo da intercettarli alla metà e a un terzo della lunghezza del lato libero. Queste distanze rappresentano le misure ottimali affinché lo sforzo strutturale che si propaga attraverso gli elementi della copertura sia minimo. La medesima operazione viene compiuta fino a coprire tutto lo spazio del padiglione. Un solo grado di libertà è concesso: la direzione di rotazione del modulo interno rispetto a quello esterno – o verso destra o verso sinistra. Prolungando le linee così ottenute si ottiene il disegno dell’intera struttura, sia della copertura che delle chiusure verticali. (78) Dal punto di vista formale il padiglione si presenta fortemente complesso e caotico, eppure si legge un ordine, un qualcosa che governa la struttura.
Greg Lynn Assieme a Ito, è considerato il solo architetto ad essersi occupato effettivamente di teoria complessa nelle sue opere. Originario dell’Ohio, attualmente insegna a Vienna e a Los Angeles, oltre a guidare lo studio Greg Lynn FORM. Nel 1989 lavorava all’interno dello studio di Frank Owen Gehry, dove si occupava di modellazione virtuale avanzata. Infatti, proprio in quel periodo, Gehry aveva iniziato una forte collaborazione con la Dassault Systemes per l’utilizzo del software Catia, che iniziava a supportare la modellazione parametrica. Teorico
dell’architettura,
si
è
sempre
interessato
delle
nuove
tecniche
computerizzate applicate al progetto, tanto che ha coniato il termine Blobtecture, per designare l’estetica della nuova architettura: curva, organica, continua. Queste idee vennero poi riprese nel 1999 quando pubblicò il libro Animate Form. Dal punto di vista generativo vedremo due progetti molto importanti di Greg Lynn, la Presbyterian Church di New York e l’Embryological house.
Korean Presbyterian Church Costruita a New York, nel quartiere del Queens nel 1999, questo progetto è stato il primo ad utilizzare gli algoritmi generativi: la forma della chiesa è stata ottenuta secondo morphing progressivi di semplici figure geometriche, un cilindro e 2 parallelepipedi. Questi sono stati modificati da forze esterne ed interne fino ad ottenere una struttura organica continua. E’ proprio riferendosi a questo progetto che Lynn parlò per la prima volta di architettura Blob.
Embryological House L’embryological house è un esperimento, un opera aperta che Lynn porta avanti dal 1997 al 2001.
Si tratta di una modificazione iterativa di un embrione virtuale di casa; modificato morfogeneticamente, questo di volta in volta assume connotati e funzioni diverse. La modifica avviene tramite la gestione di curve Nurbs, che prendono spunto dalle figure naturali. Recentemente, con l’aiuto delle macchine a prototipazione rapida, Lynn è riuscito a produrre alcuni modelli di Embryological house. L’esperimento si contraddistingue più per le sue implicazioni operative che per la sua effettiva realizzabilità.
Norman Foster Sage Gateshead Costruito tra il 1997 e il 2004, l’edifico è un complesso centro culturale della musica di livello internazionale. Pertanto ospita tre ampi auditorium, il più grande dei quali ha circa 1700 posti a sedere, e numerosi servizi. La sfida progettuale stava nel costruire e nel collegare queste tre strutture, ottimizzando da una parte le necessit{ tecniche di ascolto, e dall’altra i flussi di spostamento di visitatori e musicisti. Pertanto sin dal 1998, con l’aiuto dello studio parigino Decoi, si è scelto di utilizzare degli algoritmi generativi per la gestione delle forme e della struttura. I metodi utilizzati si riferivano sia alla morfogenesi, sia all’auto-adattamento, le persone diventavano forze che modificavano gli spazi. Non abbiamo definito la forma come una figura nello spazio, ma come un movimento libero che si formava nello spazio (43). Il risultato finale ci consegna tre moduli chiusi, ricoperti da una copertura organica che si affaccia sullo specchio d’acqua circostante.
London City Hall La London City Hall è un edificio costruito nel 2002 in riva al Tamigi da Sir Norman Fosters and Partners. L’edificio
sorge
come
sede
dell’autorit{
governativa di Londra, e si presenta come una immensa rampa spiraliforme che sale per 10 piani ricoperta da un bulbo in vetro. L’idea di Foster è quella gi{ brillantemente sperimentata nel Reichstag di Berlino, dove i cittadini “controllano” le decisioni dei propri governatori dall’alto della rampa, un discorso che richiama ad una politica trasparente e democratica. La forma dell’edificio, una sfera modificata, è stata ottenuta proceduralmente in modo da aumentare l’efficienza energetica e l’esposizione solare. Un algoritmo generativo ha infatti permesso di ridurre al minimo le dimensioni della superficie esterna tenendo i valori di illuminazione entro una soglia definita e garantendo la tenuta strutturale.
Chesa Futura Si tratta di un edificio condominiale sulle montagne di St. Moritz, in Svizzera. Rivestito esternamente da pezzi di larice, elemento naturale molto resistente tipico del luogo, offre 3 piani di appartamenti sullo splendido lago svizzero, più uno per parcheggi. L’edificio è un esempio di fusione tra tradizione e architettura: la scelta dei materiali, il fatto che sia sopraelevato da terra, il metodo di costruzione non fanno che ricordare quanto la tecnologia possa far rivivere le vecchie tradizioni. La forma, veramente bizzarra, è stata studiata tramite un algoritmo che ne ha definito la conformazione, il rapporto tra pieni e vuoti e l’orientamento delle finestre, in modo da sposare le esigenze di sostenibilità ambientale e permettere di apprezzare al meglio l’ambiente circostante. Gli edifici di Foster hanno beneficiato in questi anni di un nuovo metodo di personalizzazione, inventato da Francis Aish, punta di diamante dello studio Foster and partners (80).
Daniel Libeskind Libeskind, di origine polacca ma stabilitosi ormai in America, è una delle archistar più famose. Diventato celebre per la sua architettura decostruttivista, formata da solidi spezzati, aperture improbabili, forme disgiunte, si è occupato negli ultimi tempi anche di algoritmi generativi. I progetti più importanti sotto questo punto di vista sono rappresentati dall’ampliamento del Victoria and Albert Museum e dalla scultura Futuropolis.
Victoria and Albert Museum: The Spiral Il concorso per l’ampliamento del Victoria and Albert Museum a Londra viene indetto nel 1996: a vincerlo è una prodigiosa architettura progettata da Daniel Libeskind nel più puro stile decostruttivista. La spirale è un'unica struttura formata da una serie di volumi che ruotano attorno a se stessi, ospitando cafè, ristoranti, luoghi di incontro e soprattutto arte. Non una semplice spirale con un singolo asse, ma una spirale contemporanea che apre una pluralità di direzioni lungo differenti traiettorie. Il rivestimento esterno è in ceramica, ed è stata ricavata da un geometria frattale basata sulla sezione aurea. Nella creazione dell’edificio, la cui struttura è opera dell’ingegnere Cecil Balmond, è stato utilizzata anche una particolare shape grammar che ha modulato i volumi secondo una precisa scala e proporzione.
Futuropolis Si tratta di una grande struttura in legno progettata per un workshop all’universit{ di St. Gallen, per rappresentare la città del futuro. Una griglia triangolare ne definisce la struttura, mentre 98 torri creano un volume ascendente che raggiunge 3,8 metri d’altezza. Per la progettazione è stato utilizzato un algoritmo generativo ibrido tra una shape grammar e una cellular automata. In questo modo la geometria non è stata effettivamente progettata, ma si è originata a partire dalle regole date. La sfida più grande è stata la produzione: in collaborazione con lo studio designtoproduction sono state studiate 2164 componenti, che sono state prototipate con l’utilizzo di macchine a controllo numerico. Per l’assemblaggio si sono utilizzati connettori standard d’alluminio. Lo studio designtoproduction è divenuto in breve leader mondiale nella prototipazione
di
geometrie
complesse,
spesso
collegate
a
procedure
computazionali, come lo Swissbau Pavilion di Basel nel 2005 e la Traveling Exhibition Platform per la mostra Inventioneering Architecture 2005 (81).
ARUP Lo studio di progettazione Arup è una multinazionale leader mondiale nel campo dell’assistenza ingegneristica in ambito edilizio. Negli ultimi anni ha deciso di spostare la sua attenzione sui nuovi metodi di progettazione computerizzata, fondando un gruppo di lavoro denominato Advanced Geometry Unit. Il gruppo, guidato dall’architetto Charles Walker, da tre ingegneri, un fisico ed un matematico, si pone l’obbiettivo di studiare soluzioni per progetti dove sono richiesti elementi dalle geometrie particolarmente complesse oppure si cerca un approccio più specifico relativo all’utilizzo degli algoritmi in architettura. Lo studio ha collaborato nella progettazione di importanti progetti, tra cui gli stadi per l’olimpiade di Pechino 2008 e la nuova torre per l’olimpiade di Londra 2012, assieme all’artista Anish Kapoor.
Beijing national aquatics centre e Beijing national stadium Soprannominati il nido degli uccelli e il cubo d’acqua, i due impianti sportivi costruiti per le olimpiadi di Pechino del 2008, devono al processo generativo molta della loro fama. La struttura apparentemente caotica e disordinata dello stadio è stata generata per ridurre al minimo lo sforzo meccanico delle travi e gli appoggi sul terreno. La variazione di una maglia esagonale sulla base di un algoritmo ha invece permesso di generare la volta dell’impianto acquatico, che ricopre totalmente piscina e tribune.
In entrambi i casi sono state definiti dei componenti standard che sono stati fatti evolvere in un sistema dinamico secondo alcune regole compositive, utilizzando il software Generative Components. La generazione di strutture ottenute è poi stata esaminata per scegliere quelle che rispettavano meglio i canoni di costruzione. Questa metodologia è stata fondamentale nello sviluppo delle adeguate forme e delle oltre 25000 sezioni di ogni singola componente d’acciaio (45).
ArcelorMittal Orbit (con Anish Kapoor) Non nuovo all’utilizzo di tecniche computazionali, gi{ utilizzate per l’installazione Marsyays nel 2002 per la Tate Modern (sempre in collaborazione con lo studio Arup) Anish Kapoor è uno degli artisti contemporanei più apprezzati a livello mondiale. I suoi lavori si caratterizzano per grandi figure plastiche, connettori di ambienti e portatori di significati indecifrabili.
Per Londra 2012 Kapoor immagina una grande scultura, un grande tubo che si avvolge su se stesso formando il simbolo dell’infinito, che ospiterà al suo interno luoghi d’incontro e una grande terrazza panoramica. L’ArcelorMittal Orbit sarà la scultura più alta al mondo e per la sua realizzazione sono stati utilizzati alcuni algoritmi generativi. La forma è infatti stata adattata alle componenti strutturali: acciaio tubolare fornito in gran quantità dal magnate Lakshmi Mittal.
14.
Grafica e interactive design
Boris Muller E’ uno dei piÚ affermati artisti generativi a livello mondiale; tra le sue creazioni possiamo trovare grafica, applicazioni interattive, software che trasformano parole in rappresentazioni. La sua ricerca si fonda infatti sulla sperimentazione visiva delle parole, pertanto presentiamo alcune sue sperimentazioni sul codice applicato ai caratteri tipografici. Qui il testo si modifica e si distorce, diventa pittura e forma, a creare pattern predisposti o lasciato libero di comunicare la propria espressività .
Una delle attività più riuscite di Boris Muller, capace di fondere arte,
design
e
partecipazione,
è
il
festival Poetry On The Road, che sin dal 2002 si ripete a cadenza annuale
nella
cittadina di Brema, in Germania. Oltre
a
ribadire
l’importanza per la cultura e la poesia, il festival si caratterizza per un concorso, i cui poemi
vengono
interpretati digitale
in
chiave
tramite
un
algoritmo. Ogni anno vi è un tema diverso d’interpretazione grafica.
Richard Marxer Piňòn, Caligraft Altra sperimentazione grafica sul testo, si tratta di un’applicazione generativa che, prendendo i contorni dei font, ne esplora le linee di forza, caratterizzandolo di volta in volta visivamente. Il testo si trasforma quindi in luci al neon, forme organiche, segno grafico o composizione visiva. Sul sito internet www.caligraft.com è possibile testare caligraft personalmente, direttamente scegliendo il termine da scrivere e ammirandone l’evoluzione.
Typeface Altro progetto che gioca sui caratteri tipografici è Typeface, nato al CIID (Copenaghen Institute of Interaction Design) dalle brillante menti di alcuni studenti. Si tratta di un’applicazione che costruisce tipi di font sempre diversi sulla base di alcuni parametri come i lineamenti, la distanza degli occhi, la forma del viso. Il programma legge queste informazioni da una foto o da una webcam e trasforma tramite un algoritmo la variabilità dei tratti somatici in variabilità di un modello parametrico del font. Così, ognuno di noi potrà avere il proprio carattere personale sulla base di qualcosa di veramente originale ed infalsificabile.
Genotyp Genotyp è un software interattivo online programmato da Michael Schmitz, assieme agli studenti di Digital Media Design. L’obbiettivo di Genotyp è di rendere palpabile un processo evolutivo definito da un algoritmo genetico tramite la sperimentazione sui font tipografici. Il programma infatti permette di esplorare l’ibridazione tra i caratteri più famosi (Univers, Garamond, Bodoni, Lucida e Adelphi) per creare nuove generazioni di font sempre diverse. Il programma ha una vera e propria sezione chiamata Gene Laboratory dove è possibile gestire i parametri del font da modificare, i geni dominanti, i valori di mutazione e crossover e originare quindi un nuovo cromosoma. Talvolta i font generati presentano proprietà per così dire emergenti, con caratteristiche autonome ed inaspettate (82).
15.
Product design
Esperimenti
Zhang Kun e Wang Bo Wei, Ming Chair Questo primo esperimento di parametrizzazione generativa applicata al prodotto risale al 2000, nel laboratorio dell’universit{ di Shanghai, in Cina. Il progetto partiva dalla rilettura della tradizionale sedia Ming, di cui venivano parametrizzati 5 elementi: lo schienale, la spalla, le gambe, i braccioli e i supporti. Successivamente diverse sedie venivano generate e poi ibridate tramite algoritmi evolutivi. Venivano ulteriormente applicate delle trasformazioni geometriche. Il risultato non è tanto importante per la qualità o per la riproducibilità, ma per aver innescato un grande dibattito sul concetto di emergenza, in una delle sedie infatti era spontaneamente apparsa, senza essere stato programmata, una caratteristica già decodificata dalla tradizione col nome di Bu Bu Gao (83).
John Hamilton Frazer, Wine Glass Generation Nel 2001, John Hamilton Frazer e alcuni collaboratori alla scuola di Hong Kong, cercarono di simulare una serie diversificata di oggetti sulla base dei metodi generativi (55).
La scelta cadde sui bicchieri da vino: si potevano infatti parametrizzare velocemente le loro sezioni ed era facile ottenere modelli tridimensionali grazie alla semplice rivoluzione di tali sezioni. I bicchieri ottenuti venivano poi fatti ibridare seguendo regole evolutive all’interno di un programma sviluppato dallo stesso Frazer. L’esperimento, sebbene molto semplice, ebbe un grande successo.
Ole Werner, Breeding Coffee and teapots Questo interessante esempio risalente al 2003, utilizza un mix di tecniche generative e morphing per ottenere strutture formalmente ibride tra teiere e caffettiere. Naturalmente il morphing può essere applicato solamente al contorno esterno dell’oggetto, perciò si devono leggere tali esperimenti solamente in senso estetico. Ibridare le due componenti funzionali poterebbe inficiare le caratteristiche di entrambe, generando oggetti inutilizzabili. Tuttavia la varietà formata è molto buona, e in alcuni casi si possono notare fenomeni emergenti.
Onur Müştak Çobanli, Design DNA Questa suggestiva serie di sedute si basa sull’utilizzo di un algoritmo generativo basato su dei moodboard virtuali. Il programma per generare gli oggetti è di invenzione dell’autore.
L’esperimento aveva lo scopo di creare oggetti d’arredamento naturali ispirati alla forma delle foglie e rigorosamente in plastica, sebbene la modellazione restasse totalmente virtuale (84). L’utilizzo degli algoritmi genetici e la morfogenesi ha condotto a risultati veramente strabilianti.
Markus Schein, Feltworm Il
feltworm,
il
probabilmente
verme una
di
feltro,
delle
è
prime
sperimentazioni a fondere metodi generativi con
le
moderne
tecniche
di
rapid
manufacturing. Si tratta di una serie di sedute ottenute dal taglio di tessuti di feltro tramite l’utilizzo di macchine a controllo numerico. Ma l’elemento caratterizzante le sedute è sicuramente
la
progettazione.
Ogni
feltworm infatti viene generato da due
curve Bezier opportunamente parametrizzate, ad ogni modifica dei parametri si ottengono sedute diverse: più alte, più basse, a più posti. In un primo periodo la variazione era del tutto casuale, successivamente Schein ha cercato di simulare un ambiente virtuale in cui le sedute potessero evolversi autonomamente.
Dopo un accurata selezione, alcuni modelli sono stati prototipati. Ogni modello 3D veniva sviluppato bidimensionalmente in modo da poter essere prodotto dalle macchine CNC; sono stati necessari però alcuni interventi manuali nella gestione delle connessioni tra le varie superfici.
Theverymany, Aperiodic Vertebrae 2.0 Theverymany è il blog fondato da Marc Fornes, giovane designer inglese, con lo scopo di ricercare ed innovare sul campo del design generativo.
Esperto di script e abile user di Rhinocers, Marc ha progettato un sistema modulare di forme che possono essere usate a vari scopi. Il sistema si basa su due moduli, una forma organica triangolare con 4 incisioni,e un piccolo disco. Proprio in questo elemento sta tutta la forza di Aperiodic Vertebrae: sfruttando un algoritmo generativo, tutti i dischetti, precedentemente uguali, vengono incisi a seconda di angoli geometrici, decisi per formare innumerevoli composizioni 3D. La flessibilità teorica e la possibilità pratica hanno trovato un punto di contatto nelle macchine a controllo numerico. A partire da lastre di materiale polimerico, tutti i vari pezzi sono stati tagliati, e così si è potuta sperimentare la flessibilità di questo sistema e la sua carica formale.
Karim Rashid, Mutablobs I mutablobs testimoniano l’interesse che Rashid ha dimostrato in questi anni per gli algoritmi generativi. Si tratta di sperimentazioni formali sull’estetica computazionale, alcune forme vengono fatte evolvere in un ambiente di volta in volta diverso, sviluppando diverse geometrie.
Alcune di queste sono state poi selezionate ed organizzate visivamente a creare una vera e propria opera artistica, con un alto contenuto espressivo. Ma in occasione della mostra per la Galleria Memphis a Roma nel 2002, Rashid ha trasformato i suoi mutablobs fondendoli con delle esigenze funzionali, creando dei veri e propri oggetti in edizione limitata. La produzione è stata eseguita a mano utilizzando materiali molto espressivi, e per questo motivo tali sperimentazioni vanno interpretate in un ottica altamente scultorea e poco pratica.
Produzioni Newsknitter Magliette
standard
vengono
personalizzate definitivamente dalle notizie dei blog online, un progetto che
riunisce
informatica
2.0,
prototipazione rapida e algoritmi generativi. Un
algoritmo
automaticamente
organizza le
frasi
provenienti dal web e le invia direttamente ad una stampante 3D. Il
tutto
può
essere
ordinato
facilmente online ed inviato a casa.
1of1 Operativamente uguale al progetto precedente, 1of1, si carica di significati piÚ profondi, l’estetica generativa, l’evoluzione sempre diversa, diventa base di sperimentazione sul fashion design. I decori sono scelti, posizionati e ricollegati ad un tipo di abito, che diventa un unicum di stile.
Clemens Weisshaar e Reed Kram, Breeding Tables Perché un tavolo deve sempre essere uguale a se stesso? Breeding Tables è uno dei primi progetti generativi che ha avuto grande successo mediatico e commerciale. Viene presentato al salone del mobile di Milano nel 2005 all’interno dello spazio Krizia. Breeding Tables è un tavolo ed è una serie infinita di tavoli. Un algoritmo generativo infatti ne definisce la forma e la struttura delle gambe e, cosa assai innovativa, ne imposta già la lavorazione. Il software di Breeding Tables riesce infatti a comunicare direttamente con la macchina CNC che lavora la lamiera per definire esattamente dove tagliarla e piegarla, in modo da ottenere pezzi sempre diversi. I due progettisti Clemens Weisshaar e Reed Kram dicono di interessarsi di processi, non progettano insomma solo l’oggetto, ma anche la sua produzione, la sua distribuzione, l’intero ciclo di vita. I
parametri
utilizzati
nell’algoritmo
sottostanno
ad
una
posizionamento di una piattaforma ad una determinata altezza, ma l’intervento dei progettisti sul sistema è sempre possibile in tempo reale. Il marchio Moroso, scommettendo sull’innovazione che porterà questo primo progetto, ha deciso di inserire nelle sue collezioni due esemplari: Countach 525 e 996.
sola
regola:
Marcel Wanders, Airborne Snotty Vases La collezione di vasi Airborne Snotty, per Cappellini, è stata creata con un procedimento a dir poco particolare. Uno scanner 3D è stato posizionato di fronte al naso di alcuni collaboratori: appena questi starnutivano lo scanner registrava la geometria delle particelle di muco ed inviava i dati ad un computer. Successivamente i dati venivano analizzati e trasformati tramite un algoritmo generativo in forme funzionali ad ospitare i fiori. Tra i vari vasi ottenuti Wanders ne ha scelto 5, che erano pronti ad essere prodotti tramite prototipazione rapida. Nel 2001 la Cappellini ha quindi deciso di avviare la produzione utilizzando la poliammide come materiale costruttivo. La collezione ha avuto grande successo, e attualmente i vasi Coryza, Influenza, Ozaena, Pollinosis e Sinusitis, come sono stati chiamati i vasi in onore delle malattie virali, sono ospitati in diversi musei di arte contemporanea.
Front Design Il gruppo front design è composto da tre ragazze svedesi: Sofia Lagerkvist, Charlotte von der Lancken and Anna Lindgren e ha la sua sede in Stoccolma. I loro progetti sono caratterizzati dal filo conduttore di essere generati da forze esterne,
sistemi
autonomi
non
controllabili e in questo applicano un approccio assolutamente generativo. Durante gli anni front design ha assegnato parte del processo progettuale a animali, computer e macchine (85). Vediamo alcuni tra i progetti più interessanti:
Design from motion. Questo progetto trova nel movimento la sua forza costitutiva. E’ la cristallizzazione della caduta di un vaso, che si riunisce in un’unica figura plastica. Per ottenerla è bastato un modello 3d, un software di simulazione e un algoritmo generativo.
Design by morph Questo
progetto
utilizza
un
algoritmo
generativo per far coevolvere due sedie in uno stesso ambiente, questo esempio è stato ottenuto tramite l’ibridazione di un modello di Panton Chair e un modello Tom Vac Chair, di Ron Arad.
Blow away vase Questo vaso è stato ottenuto a partire da un modello virtuale di un tradizionale vaso cinese che è stato deformato da una forza esterna. La forza era un
grande
mentre
il
folata vaso
di
vento,
aveva
le
caratteristiche di comportarsi come un oggetto molto più plastico
e
leggero
della
ceramica. Il risultato è un vaso che sfugge, si rompe,le cui decorazioni sfumano fino a confondersi con l’aria stessa.
Ammar Eloueini, CoReFab#71 CoReFab riunisce le parole Concepts + Representation + Fabrication, si tratta infatti di un metodo/filosofia secondo cui il progetto nasce interamente al computer e viene stampato tramite stampanti 3D. Il termine viene inizialmente coniato per una mostra in cui Ammar Eloueini ragiona su analogie e differenze tra vari progetti, raduna alcuni progetti simili ma nati con diversi obbiettivi e per diverse utenze. Nel 2007 nasce CoReFab#71, una serie, praticamente infinta, di sedie concepita tramite metodologie generative. La struttura della sedia si basa su una griglia esagonale, precedentemente disegnata e virtualizzata al computer, che si adatta ad una forma e viene spinta verso il basso ad intervalli casuali.
Così, come un film, ogni sedia è collegata all’altra in una traslazione continua ed è sempre diversa, poiché la forma modulare si adatta modificandosi diversamente di volta in volta. Tre di queste sedie sono state prodotte tramite prototipazione rapida in Nylon ed esposte a vari saloni di design in giro per il mondo. La novità della sedia sta nel fatto che la differenza non è più di tipo evolutivo, ovvero non si crea una generazione da incrociare, ma si origina, frame by frame (86), come gli attimi di un film. Successivamente una ventina di sedie sono state stampate ed esposte al MOMA di New York, dove fanno parte della collezione permanente,
con
CoReFab#11625.
il
nome
MOS (Michael Meredith), Ivy Si tratta di un appendiabiti per persone che odiano gli appendiabiti (87), è un modulo a Y, che può essere combinato in modi infinitamente diversi grazie a 4 tipi di connettori. Ivy si comporta come un sistema complesso, che può evolvere e può essere personalizzato a seconda della morfologia dei muri di casa. Viene presentato alla mostra Cstem08 a Torino.
Susanne Stauch, Isopt Isopt è una serie di porcellane che unisce le funzioni di cuocere e mangiare in un solo prodotto. Grazie infatti ad una doppia cavità studiata appositamente nei volumi e nelle forme, e all’utilizzo di una ceramica magnetica, Isopt offre una grossa sensibilità al calore nella parte interna, quella a contatto col cibo, ma tiene il guscio esterno a basse temperature, per poter essere maneggiata con cura. Inoltre può essere completata con un coperchio o un piano bucherellato per cucinare a vapore. Sarebbe già un ottimo progetto così, ma a Susanne Stauch, diplomata alla scuola di design di Berlino, non bastava. Così, definito l’algoritmo generativo che garantisce le miglior performance ai contenitori di ceramica, da la possibilità a tutti di crearsi la propria Isopt tramite un’applicazione web. Qui l’utente decide le dimensioni, la forma, l’aggiunta di eventuali piatti (perché due o più concavità possono essere fuse in un solo contenitore) mentre si osserva direttamente cosa accade nella sezione dell’Isopt, rappresentata virtualmente. Conclusa la progettazione consapevole dell’utente (88), il modello virtuale dell’oggetto viene inviato ad una stampante 3D ed inviato prontamente a domicilio.
Nervous Systems Jewels Nervous System viene fondato nel 2007 da Jessica Rosenkrantz and Jesse LouisRosenberg, entrambe laureate al MIT ed esperte di tecniche generative. Il loro design è fortemente ispirato alle forme naturali e ai processi che ci circondano. L’opera di Nervous systems sono soprattutto gioielli ispirati alle forme naturali, generati da diversi algoritmi e poi stampati tramite prototipazione rapida in vari materiali. Gli algoritmi usati sono principalmente 3: uno di diffusion limited aggregation (DLA), che definisce l’aggregazione di piccole celle a formare geometrie simili ai coralli; un secondo distorce una maglia esagonale sulla base di forze definite, e un terzo applica gli stessi principi ma in 3 dimensioni. Altra particolarità è che direttamente dal sito internet è possibile utilizzare gli algoritmi generativi e auto-costruirsi il proprio gioiello.
Fluid Forms Lo stesso sistema, quello di interagire online tramite applicazioni e auto-costruirsi la propria creazione, viene sviluppato al meglio dal sito Fluid Forms. A meta tra studio di design e shop online, Fluid Forms permette di scegliere l’oggetto che si vuole acquistare, crearlo online e riceverlo a domicilio. Chiaramente tutte queste forme di commercio si fondano sulla piccola serie, sulla personalizzazione e sull’evoluzione della special edition, ma non coinvolgono l’innovazione di industria vera e propria.
16.
Casi studio
ToDo Nel 2007 quattro computational designers: Giorgio Olivero, Fabio Cionini, Fabio Franchino e Andrea Clemente fondano ToDo, studio torinese che si occupa di interaction design, grafica e comunicazione. Si definiscono uno studio di design di nuova generazione per una popolazione che respira in digitale: persone che ogni giorno parlano, ascoltano, amano e vivono in un mondo ridefinito dall'emergere del mobile web, dei social network, del physical e pervasive computing. (89) In collaborazione con Nada ToDo ha anche organizzato la serie di eventi Cstem a Torino, mostra-conferenza per far conoscere al vasto pubblico il mondo del design generativo. Illustreremo ora quattro progetti generativi sviluppati da ToDo, particolarmente riusciti.
Logo NADA, Immagine non-coordinata Nada è un associazione di Torino attiva nel mondo dei sistemi generativi, per la quale ToDo ha studiato l’immagine coordinata.
In realt{ il progetto contrasta con l’idea intuitiva di brand image per mezzo di un logo in continuo divenire: il logotipo infatti rimane invariato, mentre il logo viene di volta in volta generato da un algoritmo generativo. Una
shape
grammar
regola
le
dimensioni di 8 cerchi, 4 sullo sfondo, di colore verde, e quattro di colore bianco, variandone
le
casualmente
le
dimensioni. Il risultato è semplice ed efficace, ma mantiene una forte identità e una grande riconoscibilità.
QOOB Masks, grafica generativa Per la festa di lancio del nuovo sito dell’emittente televisiva QOOB, ToDo ha creato una serie di maschere che ne materializzassero il carattere tra gli ospiti del party. E’ stato creato quindi un algoritmo evolutivo che prendesse alcuni tratti distintivi della nuova veste grafica di QOOB e li mixasse a creare diverse generazioni grafiche da applicare su alcuni layout di maschere. Tra tutte le maschere ottenute, ne sono state selezionate 12, poi stampate in grande serie.
DecoCode, generative digifab E’ una tenda parasole progettata in occasione del workshop\conferenza Generator X, Beyond the Screens, che esplorava le possibilità generative allineate alla potenza delle macchine a prototipazione rapida. L’obbiettivo era quello di creare un sistema dinamico che si evolva e possa crescere adattandosi ai vari contesti; a questo scopo una mappa di campi di forza (89) di una determinata area viene creata a partire da elementi spaziali come i contrasti, i volumi e le qualità fisiche di un certo spazio. La tenda nasce da un algoritmo che regola alcuni parametri di una modulo a forma di seme. Le varie sagome generate sono poi state ritagliate con l’ausilio di una macchina a laser e sono state assemblate a mano a formare una tenda in cui il livello di trasparenza aumentasse verso il basso.
Spam-ghetto carta da parati spam-based Si tratta di una carta da parati che sfrutta il fenomeno dello spam, ovvero delle mail di pubblicità che intasano quotidianamente le nostre caselle di posta. Il concetto è semplice, invece di nascondere lo sporco sotto il tappeto lo spam viene sfacciatamente messo in primo piano nell’intimo del luogo domestico.
A parte le motivazioni che spingono questo progetto, è interessante notare la caratteristica adattativa delle varie porzioni della carta da parati. Infatti, lo schema di distribuzione delle frasi, questo ramo arrotondato, viene di volta in volta adattato alla lunghezza delle pubblicità, fornendo qualcosa di unico e mai ripetitivo.
Argenia Argenia è un software sviluppato da Celestino Soddu ed Enrica Colabella, entrambi professori del Politecnico di Milano, che permette di creare delle architetture, oggetti o altro utilizzando un algoritmo come guida. Il progetto di Argenia può associarsi alla critica dell’uniformit{ dei prodotti realizzati industrialmente. Nello specifico Soddu prende di mira 3 aspetti della produzione industriale classica, ritenuti non più validi: 1. Gli oggetti prodotti in serie tutti uguali costano meno di oggetti tutti diversi ed unici. 2. L'ottimizzazione delle prestazioni porta necessariamente alla identificazione di un "unico" risultato progettuale. 3. La qualità di un progettista, il progetto stesso è il risultato finale, lo scenario cristallizzato dell'ultimo atto. Questo è l'unico risultato possibile rispetto all'idea progettuale, è la sua unica possibile realizzazione. (90) Per smentire la prima credenza Soddu cita l’esempio delle stampanti, una stampante infatti costa lo stesso, sia che stampi 10 pagine identiche, sia che stampi 10 pagine diverse.
Per quanto riguarda il secondo punto Soddu dice che il risultato del progetto non può essere univoco, in quanto la progettazione non è un processo totalmente deduttivo.
Infatti, ora più di allora, ci rendiamo conto di quanto la soggettività del progettista, le sue scelte culturali, le informazioni di partenza e gli obiettivi da raggiungere facciano variare di molto un progetto. In un qualche modo il design generativo permette di fermarci un passo indietro, non a definire un solo progetto, ma una possibilità di progetti riconoscibili, e quindi liberare il progettista da questo peso. Per quanto riguarda l’ultimo punto Soddu fa un discorso in questi termini: innanzitutto divide ciò che è possibile emulare dal computer, e ciò che non è possibile, come ad esempio l’idea, frutto di processi adduttivi e fortemente soggettivi. Una volta concepita, l'idea può essere espressa e comunicata in due modi: con una serie di progetti o con un metaprogetto soggettivo. Ma una serie di progetti non e' esaustiva dell'idea, ne realizza solo alcuni possibili scenari. Ed il processo di costruzione di scenari (oggi ancora spesso identificati con il progetto, a sua volta identificato con l'idea) e' un processo che può essere emulato da un calcolatore in quanto utilizza processi di sintesi inferenziale, realizzabili attraverso le procedure consolidate dell'Intelligenza Artificiale. Se invece di esplicitare l'idea attraverso alcuni progetti, che comunque sono solo alcuni dei possibili scenari, realizziamo un metaprogetto soggettivo di tipo operativo, cioè un programma di Intelligenza Artificiale che esplicita l'idea e quindi e' capace di emulare al calcolatore i processi di costruzione di scenari, noi abbiamo realizzato una comunicazione totale dell'idea stessa. (90) In pratica il computer permette di simulare tutta la complessità della nostra idea progettuale in una visione per così dire olistica, non un solo progetto, non più progetti, ma la possibilit{ in potenza infinita di tutti i progetti e quindi dell’intera idea. Infatti uno dei motori della ricerca di Soddu è stato quello di negare questo principio: ogni passo in avanti all’interno di un percorso progettuale forza il progettista a fare una scelta tra diverse possibilità o biforcazioni. Ma poiché la valutazione della validità di una strada può essere fatta solo alla fine, questo faceva nascere dei problemi. Cosa significa tutto questo in termini pratici?
Il design argenico si pone come innovazione concettuale ed operativa per la realizzazione dei prodotti del terzo millennio. Prodotti unici ed irripetibili, così come lo sono stati sempre gli oggetti dell'uomo, ma realizzati industrialmente. Oggetti fatti a misura d'uomo perché adatti ad un forte rapporto soggettivo. Prodotti anche meno inquinanti, non solo perché sono riciclabili, ma perche hanno una lenta obsolescenza. (90) Questo è uno dei possibili sbocchi del design generativo. Prima di dedicarsi al progetto Argenia, Soddu si occupava di progettare software per lo studio della rappresentazione architettonica e nel campo della prospettiva inversa, ovvero il passaggio da immagini bidimensionali a realtà tridimensionali o multidimensionali.
Il primo software Argenia nasce ufficialmente nel 1987 e da allora è stato utilizzato nella generazione sia di architetture che di prodotti. Nel 1989 viene pubblicato il relativo libro Città aleatorie, che si occupava dell’applicazione dei metodi generativi alle torri medievali italiane. Argenia nasce come software capace di sviluppare eventi generativi e di rappresentarli virtualmente. La sua progettazione ruota attorno al numero 27, cifra cara al Rinascimento e identificata da Borromini come la più importante per i sistemi architettonici (91).
Il modo di operare di Argenia si basa sulla trasformazione di forme piuttosto che la vera e propria conformazione, pertanto il punto di partenza delle trasformazioni non è nient’altro che un focus, un aiuto per entrare nel campo di progettazione applicando la prima regola di trasformazione. Alla fine del processo il punto iniziale sar{ solo un evento marginale progressivamente cancellato dall’aumentare della complessità del sistema (92). Successivamente nacque il progetto Basilica, che utilizzava algoritmi geometrici parametrici assieme a metodi generativi come le cellular automata e il flocking of birds. Del 1995 è la fondazione del Generative Design Lab del Politecnico di Milano, che ben presto divenne polo di riferimento mondiale per il design generativo, e che ogni anno a partire dal 1998 organizza la conferenza Generative Art. Pian piano si è venuto a creare un network che comprende le università di Eindgoven, Kassel, Shanghai e Hong Kong. Argenia è stato utilizzato per lo sviluppo di innumerevoli progetti, sia di architettura, che di design, ma anche di matrice artistica.
Nel campo del prodotto è stato utilizzato per progettare serie infinite di teiere e di sedie, nell’ambito dell’architettura sono stati sviluppati progetti di città ideali e di basiliche. Ma ben presto l’attenzione di Soddu si è concentrata sull’identit{ delle città, progettando di volta in volta Architetture che aderissero e si confrontassero con la cultura di una metropoli. Ecco allora nascere edifici per Hong Kong, New York, Shangai, Pechino, Delhi. Uno dei progetti più interessanti sotto questo punto di vista è il progetto Identity Borders per Milano. Si tratta della costruzioni di immaginari edifici che incarnano l’identit{ Milanese e fanno dialogare tra loro diverse parti della citt{, tramite una generazione contemporanea guidata da 9 algoritmi. Ad esempio la torre IASC ridefinisce la sua relazione col duomo tramite un’immagine contemporanea di complessità (50). Questo progetto ci permette di citare uno dei concetti più cari a Soddu, ovvero quello di identità e di riconoscibilità, talmente importanti nello sviluppo del design generativo, che hanno già meritato una trattazione approfondita nei paragrafi precedenti. Il processo argenico si basa su due elementi: l’imprevedibilit{ dei fattori esterni legati a ogni occasione progettuale, come il contesto ambientale e le richieste del cliente, e la soggettivit{ del designer nell’interpretare tali fattori (93).
Il segreto della riconoscibilit{ sta, secondo Soddu, nell’unicit{ del codice, nella soggettivit{ dell’autore. Ogni codice infatti è soggettivo, in quanto si riferisce ad un’interpretazione personale dell’autore. Soddu parla spesso di paradigma per indicare ciò. Un paradigma è un costrutto di interpretazioni, in termini di ruoli e relazioni, dei bisogni funzionali espressi o impliciti di un consumatore. Ogni designer ha il suo personale paradigma per approcciarsi agli oggetti che lo circondano, e questo rappresenta la maggior parte del codice generativo. Per costruire un progetto generativo è necessario, quindi, fondere un paradigma con delle leggi di trasformazione, in modo da ottenere, in un progressivo aumento di complessità, un codice di regole meta-progettuali che identifichino il carattere, la riconoscibilità e la chiarezza comunicativa di ogni possibile evento. Per questo motivo Soddu ha scelto di non commercializzare il software Argenia, ma l’ha anzi potenziato in modo che il software fosse capace di imparare dagli architetti, artisti e designers. I principali riferimenti della poetica di Argenia si possono ritrovare nel riferimento culturale patrimonio culturale italiano, dal Rinascimento al Futurismo, citando in particolare Leonardo, Borromini, Palladio, Piranesi e Depero. Soddu stesso afferma che nell’imitazione della natura mi riferisco al Barocco per le trasformazioni e la geometria frattale, a Piranesi per la stratificazione dei significati e il significato dei punti di vista prospettici e a Gaudi per gli eventi complessi come sequenze di trasformazioni dinamiche (19). Ma è il Rinascimento l’epoca più cara a Soddu, dei quali rimpiange l’attenzione per le proporzioni, i codici dell’armonia, il legame tra arte e scienza nel lavoro dei grandi maestri. Nel 2009 Soddu ha fondato un centro per la ricerca sul design generativo in Sardegna, precisamente a Serramanna, nel sud dell’isola. Domus Argenia è un centro aperto a tutti gli artisti, gli architetti e i designers, per lavorare all’interno di differenti creatività e discipline in un approccio culturale focalizzato sulle identità, la soggettività creativa e il patrimonio culturale.
17.
Eccessi ed utopie
All’interno della letteratura relativa alle arti generative è facile imbattersi in opere utopiche e attualmente irrealizzabili. Ma che il grande contributo delle utopie sia importantissimo per lo sviluppo delle teorie applicate è fatto ampiamente dimostrato. Effettivamente, prima dell’invenzione delle macchine CNC e di quelle per la prototipazione rapida anche la stessa applicazione degli algoritmi generativi alla produzione in serie pareva abbastanza difficile, almeno con modalità talmente automatizzate, in tempi così brevi e a costi cosi bassi. Talvolta un’utopia ci colpisce più per la sua carica emotiva, bizzarra, che per la sua effettiva valenza; questo paragrafo vuole essere una raccolta di quei progetti che mi hanno personalmente colpito durante la ricerca che ha portato a questa tesi. Va comunque detto che, sebbene spesso facciano sorridere, le utopie vanno considerate con grande attenzione e serietà, e ne vanno denunciati sin da subito i tratti che potrebbero risultare negativi o pericolosi. Poiché il mondo del generativo è ancora abbastanza settoriale, spesso si ritrova una tendenza che tende a rispecchiare il linguaggio e gli atteggiamenti propri delle arti generative in tutto il resto. Questa trasposizione, se funziona in un verso, si ritrova anche ribaltata, ovvero talvolta elementi estranei vengono interpretati su basi generative. Se ad esempio la cibernetica è stata di grande aiuto alla psicologia del novecento, tanto che i termini come sistema operativo, input, decodifica, ne sono entrati a far parte, costituendo il tramite per un aiuto reciproco tra le due discipline, per quanto riguarda l’arte generativa tutto ciò assume un carattere più radicale e sconsigliabile. Uno degli esempi più impressionanti è una proposta teorica di Jeffrey Krause che immagina una forte analogia tra il rapporto di insegnamento designer/computer e quello insegnante/studente: la creatività nel processo progettuale è un gioco complesso di conversazioni, variazioni di forme e nozioni ideologiche all’interno di alcuni limiti. Nell’educazione del design, un professore lavora con gli studenti sotto simili circostanze occupando metodologie e processi lavorativi comuni (94).
Un altro filone di critici sembra ipotizzare un eventuale approccio in cui l’elemento umano risulta escluso dal processo creativo, totalmente affidato alle macchine. E’ il caso di Matteo Lo Prete che indica: oggi la creatività sta lentamente passando dall’uomo al computer, perché quest’ultimo è in grado di fornire delle soluzioni più complesse, corrette rispetto ai punti fissi e scevre da condizionamenti culturali e storici (95).
Ancora Michael Hensel afferma che la tecnologia digitale è progredita così velocemente che quello che si costruisce è più limitato dall’immaginazione che dalla tecnologia stessa (96). Lee a Tang contribuiscono a questa “distruzione” negando l’uomo in uno dei momenti più critici del design generativo, ovvero quello della selezione esteticaculturale degli individui virtuali prodotti da una generazione. I due critici ipotizzano una futura selezione automatica totalmente affidata al computer.
Questi concetti sono molto pericolosi, in quanto voler escludere l’uomo dal processo progettuale, oltre ad essere totalmente in rotta di collisione rispetto alla poetica generativa che invece tende ad valorizzare le caratteristiche umane, trasformerebbe la progettazione in un elemento fine a se stesso, senza più legami, né culturali né fisici con l’umanit{ stessa. Dove invece l’utopia assume una valenza positiva è in una proposta di John Frazer e GU Yan di un sistema nervoso generativo mondiale contro i cambiamenti climatici. Il progetto si fonda sulla creazione zone di controllo climatiche e di ponti di comunicazione ad alta velocità tra le varie città del mondo in modo da creare un network mondiale che possa interagire direttamente con i sistemi naturali e controllarne lo stato effettivo. Poiché agire a livello locale significa non prendere in considerazione i potenziali effetti che le migliorie potrebbero portare in altre zone del pianeta, la soluzione sta nel connettere tutto il pianeta trasformandolo in un unico organismo che si confronti con l’ecosistema mondiale. Aumentando le interazioni, il potere autoregolativo del pianeta dovrebbe teoricamente trasferirsi dall’ecosistema naturale a quello artificiale permettendo all’intero sistema di organizzarsi ed eventualmente di mostrare comportamenti emergenti. Le città diventerebbero parte integrante del sistema naturale, sistemi ecologici produttivi con impatti positivi nei confronti dell’ambiente, nell’ottica di una simbiosi sostenibile tra l’uomo e la natura (97).
Parte 5 – Verso il generativo
18.
Il design: le strade aperte
Questo paragrafo vuole essere una raccolta di quegli atteggiamenti e fenomeni, già ampliamente trattati dalla letteratura di settore, che in qualche modo si associano alle arti generative per piccoli spunti e legami. Verranno brevemente trattate le serie diversificate, il caos organizzato, e l’infografica, evidenziando le principali analogie con i temi trattati. E’ curioso notare che in tutti questi approcci si possono leggere due principali elementi: la propensione per una complessità apparente, oggetti difficili, ricercati, complicati e dettagliati ma retti da una regola quasi nascosta che emerge a tratti; e una visione sistemica, oggetti composti da parti che si relazionano tra loro, unite quasi a ricercare una fusione superiore, collegati con l’esterno sia dal punto di vista fisico da quello culturale. Si legge tra le righe un passaggio ad una visione del mondo diversa, ad un network collegato in cui tutti diventano soggetti e fruitori, siamo gi{ nell’epoca complessa?
Le serie diversificate Obiettivo principale della serie diversificata è quello di
ottenere
prodotti
simili
ma
non
identici,
differenziati appunto, a costi accessibili. Ciò è ottenuto attraverso variabili libere che intervengono durante il processo di produzione in modo casuale e non calcolato, rendendo distinti, al termine del processo, il contenuto e l’aspetto del prodotto finale. Il concetto di serie diversificata è molto antico, basti pensare alla gamma cromatica, ma viene per la prima volta teorizzato da Gaetano Pesce nell’ambito poetica del difetto. Pesce ipotizzava per il futuro una manodopera imperfetta, incapace di competere con le
maestrie artigiane della cultura classica, pertanto il progetto doveva tenere in considerazione questo principio. Noi abbiamo il dovere di fare dei progetti che, anche se sono eseguiti male, risultano formidabili. Quindi mi sono industriato a capire come si poteva fare delle opere malfatte che risultassero altamente espressive della nostra epoca, che è un'epoca malfatta. La soluzione stava nell’interagire direttamente con il processo produttivo, in modo che la variabile umana si rispecchiasse di volta in volta nel singolo oggetto. La ricerca innovativa dei materiali si sposò da li in avanti con l’idea di prodotto diverso, unico.
Gaetano Pesce ha lasciato molti esempi di ciò che intendeva per serie diversificata: la serie Nobody’s Perfect e le sedute Broadway, Dalila, Golgotha sono tutti esempi di variabilità di un unico progetto, un approccio in qualche modo molto vicino a quello delle arti generative. Sebbene molto innovativo, il concetto di serie diversificata non è stato recepito adeguatamente né dal mercato, né dalle aziende, principalmente per motivi di produzione e costi, e per difficoltà legate alla riconoscibilità del prodotto.
Si è diffusa quindi una serie diversificata che si basa su interpretazioni di progetti gi{ esistenti. L’oggetto è fisso, ma viene interpretato in termini differenti da ogni progettista, che ne modifica proprietà marginali, come la decorazione.
Questa è la modalità della serie 100% make up di Alessandro Mendini per Alessi del 1992, che si proponeva la creazione di una serie limitata di 10000 vasi, tutti uguali formalmente, ma con diversa decorazione. Quest’ultima era infatti delegata a 100 autori diversi fra artisti, designers e architetti: ogni esemplare veniva poi riprodotto in 100 copie. Mendini fece un vaso totalmente dorato, n° 58 della collezione, che è stato attualmente riproposto da Alessi in miniatura. Ancora prima lo stesso Mendini aveva applicato lo stesso concetto all’orologio Swatch. Fino al 1983 questo veniva prodotto in sole 2 versioni, quella maschile, nera, e quella femminile, bianca, entrambe con le lancette dorate. Da li in avanti, non solo ogni orologio Swatch si caricava di significanti diversi, ma veniva introdotto anche il concetto di collezione: ogni 6 mesi, infatti, tutta la produzione veniva riconvertita. Molto più spesso la serie diversificata si è trasformata in personalizzazione estrema. Se la difficoltà di fare un oggetto differente mal si sposava con la capability aziendale, allora la soluzione si è trovata nel progettare componenti diverse, spesso solo per colore o decorazione, in modo da incrementare il numero delle combinazioni disponibili.
Caos organizzato Si sta diffondendo nel mondo del design una predilezione per gli oggetti in un qualche modo complessi complicati e dettagliati, piccole parti che si uniscono tra loro: una modularità estrema spesso accompagnata da un ordine implicito e sfuocato. Spesso tutto questo si fonde con suggerimenti organici, dati dai materiali o dalle forme e con un approccio ecosostenibile mirato al recupero di componenti che diversamente andrebbero scartate. La struttura di questi oggetti ha una visione complessa, gli elementi si scambiano, interagiscono, gli oggetti sembrano essersi originati dal nulla secondo una qualche regola interattiva, senza apparentemente nessuna logica. Così la sedia Favela dei fratelli Campana sembra più un insieme di pezzetti di legno, piuttosto che l’immagine scultorea di seduta a cui ci ha abituato il design moderno e comunica qualcosa di simile al concetto di emergenza. Eppure molti di questi progetti un anima ce l’hanno, a fronte di un unione quasi casuale c’è dietro il lavoro attento e l’abilit{ dell’uomo. Si può dire che ci sia un doppio paradosso: per creare un immagine naturale, quasi casuale, c’è un grande sforzo intellettuale, e tuttavia questi progetti hanno un immagine di apparente complessità.
Siamo
veramente
di
fronte
ad
un
paradosso, o abbiamo aperto una nuova strada verso la complessità che non richiede l’utilizzo il computer? Uno degli esempi più forti è rappresentato dalla serie Selvatico del designer Marco Rasero e lo studio torinese De Ferrari Architetti in collaborazione con gli artigiani della valle di Lanzo. Il progetto vuole ricreare un immagine selvatica, naturale, riutilizzando il legname il più possibile al naturale.
Il singolo pezzo di legno viene esaminato, lavorato ed inserito dove suggerisce meglio la sua forma, con grande attenzione alle connessioni e alle caratteristiche soft della seduta. Possiamo quindi leggere un approccio manuale che gli artigiani hanno sempre applicato e che il design, abituato alla materia perfetta e scientifica, ha forse dimenticato. Allora questo progetto tenta di riprendere il vecchio legame esplorando un modo di progettare complementare a quello industriale, un modo di progettare variabile e in qualche modo generativo. In questa categoria possiamo ritrovare altri progetti, come il divano Bump, la seduta RD legs o il lampadario Ash pendent.
L’infografica Si tratta di una branca della comunicazione che si occupa di tradurre in elementi grafici le informazioni i dati e le notizie di un qualsiasi argomento. Se la nascita dell’infografica si può far risalire a met{ 800, e rientrano in questa specialità elementi base come grafici, mappe, tabelle e diagrammi, ultimamente si è visto un grande sviluppo in senso estetico e complesso. L’infografica moderna viene fatta rientrare ormai nell’ambito dell’information design, principalmente perché la trasmissione di un informazione in modo semplice e immediato va progettata, e si ha perciò bisogno di un progettista.
La diffusione capillare dei PC ha influenzato moltissimo l’infografica sotto due aspetti: il primo si riferisce allo scenario tecnico.
L’utilizzo dei programmi grafici professionali, degli strumenti della programmazione (tanto che alcune opere possono utilizzare addirittura un algoritmo), delle animazioni, l’ha trasformata da immagine statica stampata su un foglio ad evento animato, che cambia colore, si fonde coi suoni, diventa spazio interattivo e navigabile. D’altra parte è necessaria una considerazione relativa all’estetica dell’infografica: visualizzare informazioni complesse implica l’utilizzo di linee, colori, reti che si sovrappongono e si congiungono andando spesso a formare reti, percorsi, influenze. Informazioni, mappe della metropolitana, musica, arte si uniscono in una armonia visiva comune, che si riassume in una rete, in un caos di collegamenti innumerevoli.
19.
La diffusione del generativo
Le idee generative stanno avendo molto successo, soprattutto nel campo dell’interactive design e della grafica digitale, ovvero in quei campi nei quali tradizionalmente la programmazione ha avuto sin da subito un ruolo centrale. Attualmente si sta spostando da questi ambiti sull’architettura e sul design. Il legame forte con il mondo del prodotto è molto recente, grazie all’avvento delle macchine a controllo numerico e delle macchine a prototipazione rapida. Se il generativo si è diffuso con il computer, è anche facile capire il perché le notizie, la critica e gli artisti si raccolgano soprattutto sul web, che viene utilizzato di volta in volta come atelier, luogo di discussione, fonte di ispirazione. La community online è molto attiva, e si contano decine di blog che si occupano dell’argomento, tra cui Code&Form, Dataisnature, Digicult, Design Computing, Generator X, Information Aestetichs.
Parallelamente spesso gli stessi blog organizzano conferenze internazionali di buon livello, per aggiornarsi e far conoscere questo mondo anche alla gente comune: le più importanti sono Generative Art, GeneratorX, Design Computing and Cognition e la serie Iteraction. Anche a Torino, sotto la guida del gruppo ToDo e di Nada c’è stata una serie di interessanti conferenze: CStem, che si è ripetuta dal 2006 al 2008. Nel 1995 John Frazer ha proposto una prima mostra interattiva sul design generativo in cui i visitatori reali potevano interagire con visitatori virtuali collegati alla mostra tramite il web (98).
Proprio quest’anno anche il Victoria and Albert Museum di Londra ha deciso di dare al codice la giusta visibilità con la mostra Decode, digital design sensations, organizzata in 3 sezioni: code, interactive e network. Molti laboratori hanno inoltre sviluppato propri software, ad esempio Jess, scritto in Java, sviluppato nei laboratori Sandia National da Ernest Friedman-Hill (53). Anche le università iniziano ad essere sensibili a questo nuovo mondo: ricordiamo il Generative Lab di Celestino Soddu al Politecnico di Milano, ormai attivo da una decina d’anni. Ma è soprattutto all’estero, nei corsi di informatica o interactive design di prestigiose universit{, come il MIT, l’universit{ di Sydney, il CIID di Copenaghen, che viene studiato e si sperimenta il design generativo. Secondo Soddu proprio l’estremo grado di coscienza che si deve necessariamente avere quando si progetta in modo generativo è il punto di forza per poter insegnare questo approccio. Perciò ci si auspica che in futuro anche il mondo delle facoltà classiche di design rivolga la propria attenzione al campo generativo, come brillantemente ipotizzato da Philip Galanter (99).
Parte 6 – L’approccio generativo nel design
20.
Le applicazioni del generativo al design
Gli algoritmi generativi aprono una serie di prospettive interessanti, grazie alle loro proprietà intrinseche nel campo della progettazione. Questo paragrafo vuole essere un riassunto, non certo esaustivo, di come gli algoritmi generativi potrebbero essere applicati al campo del progetto, da una parte migliorando l’esistente, dall’altro dando nuove possibilità. Questa analisi non tratta solo del design di prodotto, ma si è cercato di vedere come tutto il mondo generativo potrebbe incontrare un altro mondo altrettanto complesso, quello del design appunto, con le varie specializzazioni e i vari bisogni di ogni tipologia di progettista. Tra le numerose proprietà degli algoritmi generativi, ne considereremo solamente 6, quelle più attinenti al campo del design:
Varietà
Adattamento ai vincoli
Complessità effettiva
Complessità apparente
Organizzazione
Dipendenza dallo stato iniziale
Varietà La varietà è qui intesa come la possibilità che un sistema dia più output in relazione alla stessa regola, ma soprattutto che questi output siano imprevedibili, inattesi, e si connettano in qualche modo alle variazioni dell’ambiente circostante. Ad esempio una generative grammar o l’utilizzo di una funzione iterata come gli L-system possono darci un tipo di varietà ampia, ma che si basa sulla ripetizione delle stesse forme. Tale aspetto è una proprietà meglio identificabile come complessità apparente, pertanto possiamo affermare che i tipi di algoritmi che ci permettono una massima varietà, per così dire effettiva, sono quelli parametrici e quelli evolutivi. Come abbiamo già visto, una grande varietà è fondamentale in tutte quelle applicazioni dove serva ottimizzare le prestazioni di un oggetto o di un componente. Grande varietà significa poter simulare i comportamenti di più geometrie diverse, e aiutare il progettista a capire verso quale direzione spingere la propria ricerca.
Sebbene i campi applicativi di tale metodologia siano in genere altamente tecnici (abbiamo visto applicazioni in fluidodinamica, in chimica), l’ottimizzazione può essere applicata anche ad un semplice complemento d’arredo per ridurne ad esempio il materiale o studiarne la resistenza, ma può essere utile anche a un designer grafico per testare l’efficacia di una comunicazione, o ancora per ottimizzare la resa di un servizio. L’altra propriet{ che offre la variet{ è la caratterizzazione; ovvero la proprietà di differenziare un output in più sensi. Una delle applicazioni più logiche e immediate della caratterizzazione si può ritrovare nella serie diversificata, ovvero nella produzione effettiva di più oggetti rispetto ad un input, ad un idea data. Naturalmente la serie diversificata non è prerogativa del design di prodotto, ma può essere applicata pressoché a qualsiasi campo di design: la grafica, il fashion, l’interactive. Una grande varietà si sposa ai bisogni del consumatore, trovare più prodotti nel mercato significa rispondere contemporaneamente a più bisogni e a più gusti estetici, e inoltre potrebbe aprire interessanti campi per quanto riguarda il collezionismo. Inoltre si stanno aprendo nuove prospettive dal punto di vista dell’interazione del consumatore all’interno del processo progettuale: attraverso strumenti come Fluid Forms è il consumatore stesso che crea l’oggetto in base alle sue esigenze, diventando effettivamente un co-attore ed aprendo una strada effettiva ad oggetti su misura. Tutto ciò significa in breve maggiore efficacia, maggiore efficienza del prodotto progettuale e minore obsolescenza.
Adattamento ai vincoli Abbiamo già parlato della proprietà di alcuni sistemi generativi di adattarsi all’ambiente in cui vengono fatti evolvere, e assumere varie proprietà in relazione ai limiti imposti e ai vincoli appunto dall’ambiente. L’adattamento in sé non è una propriet{ esclusiva degli algoritmi generativi, ma il rispondere in modo immediato a tutti gli elementi capaci di modificare l’evoluzione di un sistema favorisce indirettamente una grande proprietà: uno stesso sistema può crescere in vari modi in diversi spazi e relativamente a diverse esigenze; qui sta la forza innovatrice degli algoritmi generativi. Le migliori metodologie che ci permettono questo comportamento sono i selforganization system, gli algoritmi evolutivi e il morphing.
Per comprendere meglio questo tipo di proprietà, è utile suddividere gli elementi che possono influire l’evoluzione di un sistema generativo, che generalmente sono: forze o campi di forze, flussi, forme e geometrie, conformazione degli spazi. La rispondenza alle forze è molto interessante dal punto di vista progettuale, poiché le forze possono trasformarsi praticamente in qualsiasi cosa. Non solo forze meccaniche, ma forze reali o virtuali, vere o inventate. La luce, il calore, la massa possono essere indicate come campi di forza. In questo senso la rispondenza all’ambiente può essere vista come una forma di ottimizzazione di sistemi in relazione a condizioni specifiche. La rispondenza ai flussi è stata utilizzata spesso nel design generativo odierno. Se vengono interpretate come flusso di persone, si possono studiare le conformazioni spaziali di una fiera, di una mostra, di una piazza, di un edificio, di un sistema di trasporti. Questo tipo di approccio può essere utile tanto agli architetti, quanto ai designer di sistemi, tanto al design dei sistemi che all’exhibition. Ma esistono anche flussi di materiali, utili a studiare il funzionamento di un oggetto o di un intera filiera produttiva, e flussi di informazioni, fondamentali per la comunicazione, i servizi e la progettazione stessa. L’adattamento alle forme è un altro dei campi molto interessanti al campo del progetto. Per forme possiamo intendere forme funzionali o espressive. L’adattamento alle forme funzionali significa poter ad esempio studiare meglio l’ergonomia di un oggetto, le dimensioni effettive, i limiti dimensionali. In tal senso una seduta potrebbe adattarsi ai vari utenti, modificando la sua sagoma tramite un algoritmo generativo. Ma potrebbe significare anche poter gestire la geometria di prodotto in maniera quasi plastica, adattandola ai bisogni o alla disposizione spaziale dei componenti. Entrambi gli strumenti sono fondamentali per il design di prodotto e potrebbero rivoluzionare l’automotive design. L’adattamento alle forme espressive deriva dalla particolare proprietà dei sistemi generativi di rispondere alle regole degli algoritmi. Se noi riuscissimo a trasformare gli elementi caratteristici di alcuni stili, come ad esempio l’art nouveau, o l’organicismo, o il postmodern, o il minimalismo, in elementi operabili dal computer, allora questo sarebbe in grado di restituire output riferibili a quegli stilemi culturali e fortemente riconoscibili.
Infine esiste un adattamento di tipo spaziale. Qui non si ragiona per forme, flussi o forze, almeno indirettamente, ma per localizzazioni spaziali. Ad esempio utilizzando un attrattore, che tecnicamente è comunque un campo di forze, è possibile influenzare la crescita di un sistema in un dato punto dello spazio rispetto che un altro. Questo approccio può essere utile in tutte quelle professioni progettuali che si relazionano con gli spazi, come l’interior design o nuovamente l’exhibit. In termini pratici significa organizzare meglio gli spazi, l’orientamento degli arredi, la spettacolarità di un ambiente. Ma lo spazio può essere anche virtuale, e tale approccio potrebbe essere un valido strumento per organizzare tavole bidimensionali e tridimensionali nell’interactive o nel web design, e nella grafica.
Complessità effettiva Gli algoritmi generativi ci permettono di costruire sistemi realmente complessi, come le cellular automata e i flocking of birds, e generalmente tutti quelli definiti self-organization.
Questi sistemi hanno in comune alcune proprietà molto interessanti dal punto di vista progettuale: l’auto-organizzazione, la resilienza e l’emergenza. La prima proprietà verrà definita nei paragrafi successivi, qui verrà impiegata in maniera indiretta, ovvero nella gestione di dati e informazioni complessi. Un alto grado di complessità infatti, ci permette di gestire sistemi non lineari di informazioni e dati, ovvero tutti quei sistemi in cui la modifica di un elemento influenza tutti gli altri e questi elementi sono spesso discordanti e antitetici. Se riflettiamo un attimo, ci accorgiamo che il design si scontra quotidianamente con sistemi di questo tipo: nella definizione dei sistemi esigenziali, nella sintesi di scienze multidisciplinari, nella progettazione del prodotto e del servizio e nella loro gestione. Pertanto riuscire a gestire, ad organizzare a modellare questi sistemi può essere importante nell’evoluzione di tutto il settore in generale. Un’altra propriet{ fondamentale è la resilienza, ovvero la proprietà dei sistemi complessi di rispondere ad una sollecitazione esterna. In questi casi il sistema è in grado di auto-ripararsi o di trovare un nuovo equilibrio, senza danneggiarsi. Questa proprietà può essere molto utile per tutti quei tipi di progettazione che si occupano di sistemi dinamici e servizi. Dell’emergenza ci siamo già occupati nei paragrafi precedenti: questa è una proprietà molto importante per il design, in quanto permette la nascita di nuove relazioni e conformazioni a partire da semplici regole locali. Questa proprietà può essere utile soprattutto nelle prime fasi progettuali e nello studio del concept, in quanto può servire da spunto per il progettista, da musa ispiratrice. In questo caso il computer è utile in quanto non è condizionato da costrizioni culturali o blocchi cognitivi, ma d’altra parte non può dare giudizi di valore. Pertanto è il progettista che di fronte all’eventuale comportamento emergente, ne intuisce la validità, le potenzialit{ e i campi d’applicazione.
Complessità apparente I sistemi generativi, primi fra tutti i self-organization, le funzioni iterate e le generative grammars danno origine a sistemi visivamente e percettivamente complessi, ma spesso non hanno un vero e proprio legame con la teoria della complessità. Ovvero non raggiungono un alto grado di complessità effettiva, ma sono capaci di dare un estetica e una morfologia complessa. Talvolta i richiami espressivi si riferiscono organicamente al mondo naturale, spesso rimandano ad elementi high-tech, come reti o circuiti. In realtà questo approccio è diffuso anche al di fuori del design generativo: progetti concettualmente diversi trovano una già citata estetica comune. Ebbene, gli algoritmi generativi possono dare questo tipo di impressione, possono ribadire questo senso espressivo. Sebbene la complessità apparente stia attualmente diventando un trend di mercato, spesso la simulazione della complessità può essere utilizzata in modo più pratico: uno dei campi di applicazione è la simulazione di ambienti naturali e organici. Soprattutto nell’interactive, nell’animazione, nei videogiochi gli algoritmi generativi permettono di simulare un ambiente naturale con un utilizzo minimo di programmazione e con un’infinita varietà, ma in futuro tali tecniche potranno spaziare in altri campi di progetto, qualora sia richiesto questo tipo di simulazione.
Auto-organizzazione Abbiamo già parlato delle proprietà dei sistemi complessi di auto-organizzarsi, ovvero di creare organizzazioni coerenti ad alti livelli sulla base di sole interazioni locali. I self-organization system e le generative grammars riescono a sfruttare i fenomeni emergenti per disporre gli elementi di un sistema in relazione a regole definite, siano esse componenti, spazi o oggetti modulari. Una delle applicazione più intriganti di questo tipo di sistemi può essere la ricerca dei punti di connessioni tra le componenti di un oggetto: una volta definite le componenti, il sistema le auto-organizza in modo da soddisfare di volta in volta le caratteristiche volute, ad esempio la resistenza, o l’elasticit{. Concretamente parlando, tale approccio risulta temporalmente distante, poiché i sistemi odierni non riescono effettivamente a gestire tale complessità e serve sempre una verifica cognitiva e fisica da parte del progettista.
Ad ogni modo questo sistema può essere applicato in vari campi: ad esempio nell’organizzazione degli spazi o degli elementi da inserire in un contesto spaziale, nell’exhibit o nell’interior design, per accelerare la ricerca delle migliori soluzioni spaziali in relazione ai bisogni funzionali. O ancora nel product design, dove può essere un valido metodo per organizzare le componenti interne di un prodotto, nonché le connessioni e i movimenti reciproci. Inoltre può essere un valido metodo per studiare i fenomeni di interazione tra oggetti o componenti modulari, in modo da migliorarne l’impilabilit{, la ripiegabilità e in generale il risparmio di spazio. Ad esempio un’applicazione valida potrebbe essere il modo di disporre le componenti all’interno di un packaging. Ma lo stesso approccio può essere utilizzato per simulare virtualmente innumerevoli combinazioni di elementi modulari, in modo da testarne l’efficacia espressiva, la forma, il numero di componenti e le proprietà generali non più del singolo componente ma dell’intero sistema.
Dipendenza dallo stato iniziale Questa proprietà si riferisce alla dipendenza che il sistema generativo possiede nei confronti della configurazione di partenza. Ad esempio nell’evoluzione di un frattale non conta da quale punto inizia l’analisi matematica in quanto la configurazione finale è fissa e verrà comunque raggiunta. In sistemi come quelli parametrici o nelle generative grammars, poiché si parte da elementi gi{ definiti, l’evoluzione del sistema sar{ sempre caratterizzata dalle prime trasformazioni eseguite. Questa proprietà è molto utile in quanto permette di volta in volta di cambiare le proprietà del sistema, di evidenziarle, o all’opposto di confonderle, quasi a farle scomparire. Questo approccio è stato sfruttato durante questi anni per trasformare delle proprietà intrinseche di un sistema in altre proprietà. Ciò avviene collegando le variazioni di una proprietà con un'altra, o meglio utilizzando la variabilità di una prima proprietà come guida per le variazioni della seconda. Uno degli esempi più interessanti sotto questo punto di vista è rappresentato dalla Tesi di Diploma in Disegno Industriale di Gianni De Simone, che ipotizzava un legame tra le variazioni di verniciatura della carrozzeria di un auto in base ad una proprietà intrinseca della superficie stessa: ovvero la sua curvatura (100). Questo approccio, sebbene si leghi spesso a motivi estetici, è concettualmente molto interessante, perché permette un dialogo maturo e più aderente al progetto che può essere applicato in innumerevoli campi e con diverse modalità, come ad esempio quello della decorazione.
21.Un nuovo percorso progettuale Oltre ad un cambiamento nelle applicazioni, il design generativo inserisce molte nuove occasioni all’interno del intero percorso progettuale, semplificando alcune fasi, ma inserendo anche importanti novità. Vediamo brevemente i momenti in cui gli algoritmi generativi possono dare una mano al lavoro di noi designer: All’interno dello sviluppo del metaprogetto, soprattutto nello sviluppo dello scenario e del sistema esigenziale, gli algoritmi generativi possono aiutare a gestire ed elaborare la complessità di dati e informazioni tramite lo sviluppo di sistemi realmente complessi. Se riuscissimo a trasferire la ricchezza delle informazioni e dei limiti in un modello virtuale di sistema, e facessimo evolvere tale sistema in modo che si auto-organizzasse, desse dei comportamenti emergenti, razionalizzasse le relazioni, si potrebbe capire in anticipo su quali elementi sviluppare le proposte. Questo approccio potrebbe operare anche in maniera inversa, ovvero individuando le invarianti di un sistema complesso, le caratteristiche essenziali. Questo approccio potrebbe essere utile nel benchmarking, aiutando da un lato a determinare le caratteristiche e le proprietà essenziali della categoria esaminata, dall’altro ad amplificare le differenze rispetto a questo standard e definire le specifiche di ogni modello. Sebbene questi 2 approcci appaiano abbastanza futuristici, l’applicazione dei sistemi generativi nello studio dei dati complessi, può risultare utile nell’analisi degli stessi dati. Infatti il design generativo aiuta a comprendere il sistema stesso: parametrizzare qualcosa significa comprenderne le componenti, simulare significa capirne il comportamento, gestire i sistemi complessi sotto questo approccio significa categorizzare meglio il sistema. I sistemi generativi potrebbero aiutare il progettista nella fase di sviluppo formale del concept. Utilizzando le tecniche evolutive o parametriche è facile ottenere un alta variabilità, che potrebbe servire da spunto per lo sviluppo di alcune proposte, attuando una sorta di benchmarking virtuale. D’altra parte l’utilizzo dei metodi morfogenetici potrebbe risultare un valido strumento per studiare l’ergonomia, le dimensioni, le componenti di un oggetto.
Un altra importante novità potrebbe consistere in una sorta di velocizzazione della modellazione di un oggetto, applicando in sostanza due strade: Poiché il tutto viene svolto in digitale, tramite le nuove macchine CNC e a prototipazione rapida, la fase di modellazione sarebbe più rapida, e gli eventuali cambiamenti potrebbero essere apportati subito, direttamente sull’algoritmo. Inoltre la modellazione potrebbe essere anticipata rispetto alle tempistiche attuali e potrebbero essere fatti più modelli diversi, in modo da testarne immediatamente l’efficacia e orientare lo sviluppo del progetto. Ma l’applicazione degli algoritmi potrebbe agire anche in modo inverso, ovvero se abbiamo a disposizione dei materiali, dei semilavorati, il computer potrebbe adattare tali materiali al modello virtuale, organizzandoli nella migliore disposizione spaziale, dando in pratica un set di istruzioni per costruire il modello dell’oggetto. Questo approccio potrebbe essere trasportato dalla modellazione alla produzione vera e propria, per ottimizzare ad esempio l’utilizzo di semilavorati. Un approccio utile può essere inoltre proprio quello dell’ottimizzazione, l’utilizzo ibrido di sistemi evolutivi e progettazione parametrica in fase di ingegnerizzazione rappresenta il metodo migliore per adattare il sistema oggetto ad un ambiente reale. Per fare ciò servirebbe però sia un modello dell’oggetto, sia uno dell’ambiente reale, che attualmente è il più difficile da ottenere. Infine una grande rivoluzione si aprirebbe nel campo della rappresentazione dell’oggetto. Nella rappresentazione tecnica si potrebbe pensare ad un sistema che automatizzasse la messa in tavola, come permettono gli ultimi strumenti CAD, ma gestendo anche la varietà di una serie diversificata. Anche se va detto che i moderni metodi di comunicazione diretta tra computer e rapid prototyping stanno rendendo di fatto inutili le rappresentazioni esecutive del prodotto. L’altro campo di applicazione potrebbe essere quello della comunicazione grafica, che beneficerebbe sia delle proprietà organizzative degli algoritmi generativi, sia della già citata estetica complessa. Inoltre un diverso rapporto si creerebbe proprio con le esigenze del cliente, con la vendita e con la produzione; queste novità saranno trattate nel paragrafo successivo.
22. Product design: i nuovi equilibri Se il sistema dell’arte generativa si compone di artisti, spettatori e computer, l’applicazione di tali tecniche al design di prodotto costruisce un sistema altrettanto complesso: quello tra designer, computer, consumatori, e produzione. Qui il ruolo lineare, tra consumatori, designer e produzione viene a ribaltarsi, nasce un sistema dinamico, fatto di feedback e interferenze e di nuovi equilibri. Inizialmente il designer non progetta più un prodotto, ma un algoritmo, una potenziale possibilit{. L’idea viene quindi trasformata immediatamente in regole e rapporti reciproci. Il focus principale del progetto diventa quindi l’algoritmo, che viene fatto evolvere all’interno di uno o più ambienti. Ciò crea diversi output, tra i quali il designer seleziona i più adatti, che verranno successivamente ingegnerizzati e prodotti. La produzione di questo tipo di output è affidata a nuove tecnologie, come le macchine a controllo numerico e quelle di prototipazione rapida, in quanto solo queste riescono a produrre tali diversi elementi nei tempi e nei costi richiesti. Il risultato dell’intero percorso progettuale è quindi non più un solo singolo oggetto, ma più oggetti diversi, una serie infinita di oggetti. Ma il consumatore non si limita più a ricevere tali oggetti nel mercato: se una varietà maggiore permette al consumatore di scegliere a posteriori l’oggetto a lui più adatto, con le nuove tecnologie, ovvero attraverso il computer e la produzione, può in un certo senso entrare in più momenti nel percorso progettuale. Possiamo già intravedere alcune differenze rispetto al percorso progettuale tradizionale, vediamo in dettaglio il ruolo di ogni soggetto all’interno di tale sistema.
Il designer e il computer Operare con i metodi generativi obbliga la riconsiderazione della professione di designer o architetto, in quanto implica cambiamenti di tale portata da plasmare il progetto su nuove aspettative e metodologie spesso tipiche di altri campi, come l’artigianato e l’informatica.
Il primo cambiamento che riguarda il designer deve essere sicuramente di tipo mentale. Progettare generativamente significa riconsiderare in parte il concetto di meta-progetto. Se spesso si parte dall’analisi di esigenze e requisiti che un oggetto deve soddisfare e si cerca di mediare le prestazioni in modo da arrivare ad un unico, migliore, progetto, il meta-progetto cerca invece di declinare un idea progettuale, di definire una serie di oggetti che fanno capo a uno stesso concept. L’approccio generativo amplifica tutto questo, poiché non solo il progetto non ha più il vincolo di essere unico, ma è proprio nella molteplicità e nella variabilità che trova la sua forza. Nel processo convenzionale esiste un’unica relazione diretta tra le intenzioni del designer e l’artefatto, progettare con i metodi generativi significa interagire con la creazione e la modificazione di regole o con un vero e proprio sistema che crea un infinità di opere. L’approccio generativo al progetto, realizzando l’algoritmo realizza un prodotto autonomo rispetto alle possibili future applicazioni, evoluzioni o contingenze. Il codice generativo, come idea-prodotto, è l’essenza della creativit{ di ogni architetto, designer o artista. E’ l’idea il concept, realizzato tramite un metaprogetto operativo i cui risultati sono prevedibili in termini di qualità chiarezza e riconoscibilità, ma sono imprevedibili dal punto di vista formale (17). L’algoritmo rappresenta la prima vera strada verso un meta-progetto completo. Infatti, come afferma nuovamente Soddu, ogni formalizzazione rappresenta solamente una delle possibili rappresentazioni di un idea, ma non è l’idea. L’idea è tutte le possibili infinite formalizzazioni, tutte insieme, anche quelle che non sono state ancora tracciate (101). Abbiamo visto che sin dall’inizio lo sviluppo dell’idea si svolge all’interno del computer, o meglio con il computer in quanto questo strumento è trasversale a tutto il percorso progettuale, e opera in ogni momento in diverso modo. Questo approccio determina però un altro cambiamento: spesso infatti la creatività del designer sembra nelle arti generative, dissolversi. Si dissolve nel computer, in quanto sembra che la creatività sia opera del computer, mentre il progettista si limiti ad impostare i parametri e guardare che succede, si dissolve nel consumatore, che a questo punto sembra “progettare” egli stesso. Va comunque precisato che il computer non può sostituire l’uomo, poiché, anche nel migliore dei casi, è capace solamente di creare nuove forme, ma non di progettare effettivamente (45).
E’ comunque chiaro che per definire cosa può essere svolto dal computer e cosa può essere svolto dal designer, deve essere prima di tutto definito e chiarito il significato dell’intero processo progettuale; bisogna aver chiaro cosa rientra nel percorso progettuale, per evidenziare le differenze tra il progetto “umano” e quello automatico. Poiché non è questa la finalità della tesi, ed è un argomento talmente vasto e complicato che una trattazione veloce potrebbe solamente ridurre e banalizzare il problema, ciò non sarà qui preso in considerazione. Sta di fatto che già il fatto di dover fare questa distinzione significa molto. E’ comunque accertato che il contributo umano, in termini di cultura, sensibilità, implicazioni sociali e creatività, sebbene Philip Galanter pensi che ogni sistema adattativo complesso è creativo (102), non potrà essere sostituito dai computer. Una cosa resta chiara, l’approccio generativo ha bisogno del designer, in due principali momenti: nella scelta estetica e nella prima fase del percorso progettuale. Infatti spesso, soprattutto gli algoritmi evolutivi sono usati come uno sketch, per focalizzare le direzioni di progetto e dare ispirazioni progettuali. Il computer permette al creativo di visualizzare innumerevoli relazioni possibili prima che si arrivi ad una prematura soluzione definitiva. Un problema relativo alla fase di sketching è che il computer tende a dare rappresentazioni molto più avanzate rispetto a quanto effettivamente sono, dando l’illusione di avere progetti finiti che in realtà sono incompleti. Molte applicazioni del design generativo si concentrano maggiormente nell’analisi e nell’ottimizzazione di dettagli tecnici, nelle ultime fasi del processo progettuale. C’è parallelamente meno ricerca negli stadi concettuali. Ciò è relativo alla difficoltà nel definire problemi più astratti nelle prime fasi del progetto rispetto alle ultime. Applicare gli algoritmi generativi come strumenti di ottimizzazione potrebbe comunque portare a conseguenze negative, in quanto il progettista potrebbe compiere dei sacrifici relativi alla generalizzazione e al riduzionismo di alcuni problemi progettuali. Ad ogni modo un esperimento ha appurato che la prototipazione evolutiva funziona meglio per lo sviluppo creativo, mentre la manipolazione diretta tramite i software generativi è più utile quando si ha un obbiettivo chiaramente definito (103). Un ruolo importante dell’autore nel processo generativo è quello di far finire il processo. Come abbiamo visto, le possibilità offerteci dagli algoritmi sono infinite, nel numero, ma spesso anche nel tempo, perciò l’arresto di questo processo è più un fatto soggettivo che oggettivo e perciò prerogativa del soggetto umano coinvolto.
Il processo generativo, infatti, inserisce nel progetto anche la variabile temporale, in un modo che il progetto non aveva ancora considerato. Se infatti l’oggetto o l’architettura è ampiamente analizzata come intero ciclo di vita del prodotto, l’arte generativa pone invece l’accento sull’evoluzione nel tempo del prodotto, un prodotto che è visto come un elemento dinamico all’interno di un ambiente dinamico. Attualmente ciò è prerogativa dei modelli virtuali, ma potrebbe essere applicata, non tanto ai prodotti finiti, ma ad una serie che ad esempio evolve col tempo rispetto ai bisogni del mercato.
La produzione Finora
l’approccio
generativo
nell’ambito
del
design
è
stato
utilizzato
principalmente nel campo della grafica e dell’interactive, principalmente per due motivi: uno di costi e uno di fattibilità pratica. Due principali canali sono stati esplorati, all’interno dei quali il rapporto tra grafica e metodi di stampa è forte tanto quanto quello tra interactive design e linguaggi di programmazione. Solo con l’avvento della prototipazione rapida e delle macchine CNC è stato possibile
considerare
concretamente,
e
non
solo
simulare
virtualmente,
l’accostamento tra codice e prodotto. Cos’è cambiato? Le grammatiche generative si caratterizzano per il fatto che un qualcosa, sia essa una forma, un segno grafico o un parametro, ha la possibilità di essere variata, i nuovi macchinari permettono precisamente questo. Ma a ben vedere non si tratta soltanto della variabilità di un qualcosa, ma di concedere un campo di possibilit{ “casuali” alla produzione, qui abbiamo deciso di chiamare questo modo di operare con il termine aleatorietà. Allora il nostro compito sarà capire come trasportare questa aleatorietà sulla produzione concreta, specificarne i modi e le opportunità, e se sarà mai una vera alternativa alla grande serie.
Aleatorietà Delle Macchine Uno dei primi metodi di introduzione della aleatorietà sul processo produttivo è la sua applicazione diretta alle macchine e agli strumenti. Se Gaetano Pesce miscelava casualmente i composti da inserire in uno stampo ad iniezione, questo approccio può essere utilizzato in differenti modi, ad esempio dando un certo grado di libertà a degli organi meccanici che tagliano, piegano o modificano la lamiera, o ancora utilizzando un qualche macchinario che compone casualmente porzioni di stampi per creare oggetti sempre diversi. In tutto questo non c’è molto di diverso dall’approccio generativo fatto al computer, semplicemente l’aleatoriet{, il grado di libert{ del sistema viene spostato dall’ambiente virtuale all’ambito fisico delle macchine, non è più un input precedente alle macchine, ma una modificazione dello stesso input durante il processo di creazione. Una visione esplicativa e tangibile di questo metodo sono le già citate Metamathics di Jean Tinguely.
Aleatorietà Del Programma Questo approccio differisce dal precedente poiché il grado di libertà è virtuale, e posto temporalmente prima del processo produttivo. In pratica è il metodo più usato all’interno del design generativo odierno, la serie diversificata viene interamente virtualizzata al computer, e solo dopo vengono prodotti i modelli, talvolta in numero limitato e scelti in base alle caratteristiche estetiche. Ma la produzione resta un passaggio successivo alla generazione, i modelli da produrre vengono inviati già finiti al macchinario di produzione. Questo metodo ha molti più punti in contatto con la produzione seriale che con la serie “infinita” generativa. Come si dovrebbe allora fare per sfruttare la vera aleatorietà del programma?
La macchina che produce ha un estremo grado di libertà, ma questo viene in un certo modo guidato e limitato dall’input di produzione. Spieghiamoci meglio: una stampante a getto d’inchiostro è capace di stampare ogni colore su ogni punto di una superficie, anzi, se pensiamo alle macchine professionali anche il tipo di supporto, le sue dimensioni e l’inchiostro possono essere cambiati. Abbiamo quindi uno strumento con una libertà praticamente illimitata, abbiamo l’essenza del pitturare una superficie, e potenzialmente tutto ciò che possiamo fare nel pitturare una superficie. Abbiamo ancora una volta la possibilità di creare un qualcosa, di materializzare l’idea e non un qualcosa di finito. Lo stesso discorso può essere applicato allo schermo, capace di visualizzare tutto quello che vogliamo. Solo quando tutto questo sarà possibile anche materialmente avremo la possibilità di generare una estrema possibilità di oggetti 3D. Se un primo passo in questa direzione è rappresentato dalla nascita delle macchine a prototipazione rapida, questa tecnica presenta problemi che sulla stampa cartacea (ormai vecchia di migliaia di anni) e sul video sono già stati risolti. Un discorso può essere fatto sulla qualit{ di ciò che andiamo a “materializzare”: stampare con una stampante di casa a 150dpi o stampare con una stampante industriale a 1000dpi garantisce una resa diversa, guardare un immagine sullo schermo di un gameboy è molto diverso che osservarla proiettata su uno schermo LED HD di ultima generazione, o ancora con i nuovi occhiali 3D. Inoltre esiste un limite oltre il quale possiamo dire di poter avere una buona percentuale di possibilità rispetto alla totalità di quello che si può fare. La stampante, lo schermo danno un ampio range di possibilità a un livello qualitativo
medio-alto,
possiamo
dire
che
offrono
un
buon
rapporto
qualità/possibilità. La produzione a controllo numerico offre un alto grado di qualità, ma le possibilità offerte sono collegate al tipo di macchinario che viene gestito: una fresa CNC ha applicazioni molto diverse da una macchina CNC per il taglio laser.
E’ impensabile riunire tutti gli strumenti in un unico maxi-macchinario CNC, si potrebbe fare ma quanti sarebbero disposti ad acquistarlo? Che dimensioni avrebbe? Quanti ricambi servirebbero? In realtà un macchinario di questo genere esiste già, non fa scarti e si chiama stampante a prototipazione rapida. Ma il rapporto qualità/possibilità delle stampanti 3D è ancora molto basso, e a ciò si aggiunge l’alto costo di gestione e la bassa diffusione. Non siamo ancora in grado di creare tutte le forme 3D che vogliamo: abbiamo problemi di sottosquadro, di peso, di stabilità, di resistenza. Non siamo in grado di utilizzare tutti i materiali che esistono: attualmente vengono usati pochi composti polimerici o ceramici, ma mai resistentissimi. Non siamo in grado di ottenere una qualità superficiale ottima, in pratica la superficie resta pixellata, per usare un’analogia figurativa, ovvero si notano ancora i segni di costruzione. Solo quando questi problemi saranno risolti, e potremmo avere un alto rapporto qualità/possibilità anche nella produzione 3D potremmo applicare al meglio l’aleatoriet{ delle macchine.
Aleatorietà Della Modifica Un altro metodo di introdurre l’aleatoriet{ all’interno del processo produttivo potrebbe essere quello di modificare dei prodotti standard finiti secondo un algoritmo casuale, ad esempio distorcendo in vari modi alcuni profilati metallici. Con questo metodo può essere interessante andare a modificare un modulo standard, utilizzando un sistema generativo non di prodotto completo, ma di componenti (come fa il software Generative Components), senza andare a minare la loro componibilità.
Il consumatore Come abbiamo notato, il ruolo del consumatore sembra spostarsi da una funzione quasi passiva nel percorso progettuale tradizionale fino a diventare personalità attiva, che si inserisce all’interno dello stesso percorso progettuale. In realtà la figura del consumatore non è mai passiva nella progettazione tradizionale, ma anzi, è il primo motore dell’azione di design. Il design nasce per il consumatore, per portare dei benefici alle persone, ma finora le esigenze sono state spesso ipotizzate dal progettista, ricercate, in qualche modo mediate. Non è mai esistito un rapporto diretto tra designer e consumatori, dove l’utilizzo del plurale indica il fatto che ogni consumatore ha esigenze, gusti estetici, cultura diversa. Ebbene il design generativo permette proprio la nascita di tale rapporto. La soluzione sta nel portare il consumatore all’interno del percorso progettuale, concedendogli una personalizzazione elevatissima, infinita. Il consumatore entra nel percorso progettuale in più maniere: prima di tutto usufruisce di una varietà a posteriori. Ad esempio Breeding Tables crea una serie infinita di tavoli semplicemente variandone la forma. E’ chiaro che fra tutti i tavoli Breeding Tables, ognuno sceglierà quello che risponde meglio alle proprie aspettative, ma il consumatore in questo caso sceglie dopo, ad oggetto finito. Una nuova tecnica potrebbe essere inserire il consumatore subito dopo la fase di output. l’algoritmo produce infiniti output virtuali, generalmente la fase di selezione è svolta dal designer, ma se questa selezione fosse direttamente collegata ad ogni consumatore, ovvero se ogni consumatore selezionasse l’output migliore per se stesso, si avrebbe una sorta di approccio just in time. Una volta selezionato l’oggetto, scatterebbe una produzione rapida, evitando la produzione di oggetti che potrebbero essere mal recepiti dal mercato. Questo approccio ha però un limite, lo spazio in cui l’algoritmo, l’oggetto si evolve è uno spazio virtuale, ipotetico. Per rispondere in maniera efficace ai bisogni ogni progetto generativo dovrebbe partire da un modello di ambiente reale nel quale l’oggetto va posizionato. Questo ambiente può essere tanto il salotto di casa per un divano, quanto le misure del corpo per un vestito. Perciò attualmente ci si sta spingendo sulle fasi precedenti: la produzione è virtualmente affidata al consumatore, poiché ha già chiari i propri bisogni e può creare autonomamente il
proprio oggetto. Così l’algoritmo risponde in maniera autonoma ad ogni richiesta indirettamente postagli dal consumatore e in qualche modo “funziona meglio” preservando, e anzi, secondo i dettami di Soddu, amplificando l’identit{ di ogni oggetto. Tutto questo è possibile attraverso due strumenti: il computer e l’algoritmo: ciò vuol dire non solo che il computer è ormai un mezzo fondamentale anche per il consumatore, ma permette di interagire in modo nuovo con il progetto, modificandolo in maniera plastica, adattandolo ad ogni singola esigenza, e soprattutto visualizzando i cambiamenti in tempo reale. Probabilmente il futuro si baserà su un altro elemento in mano al consumatore: la produzione. Come ipotizza Bruce Sterling nel suo libro La Forma del Futuro (104), tra non molto la disponibilità delle tecnologie di prototipazione rapida sarà talmente ampia che ogni consumatore potrà possederne una. I progetti saranno venduti via internet, scaricabili a pagamento, si svilupperebbe allora una produzione non solo su misura, ma a domicilio.
23. Conclusioni Ripercorriamo brevemente la trattazione di questa tesi: innanzitutto è stato descritto il fenomeno generativo, le origini storiche e gli strumenti teorico-pratici, fondamentali per trasformare l’idea astratta di un progettista in entità concreta. Quindi sono stati trattati alcuni esempi di applicazioni attuali, focalizzando l’attenzione sulla diffusione delle idee generative all’interno della cultura ufficiale del design. In seguito un esame critico ha permesso di identificare i possibili vantaggi pratici che le idee generative potrebbero offrire al design, al processo progettuale, e al design di prodotto. Adesso è giunta l’ora di tirare le somme dell’analisi effettuata.
I pro Una parte della critica di settore vede l’approccio generativo come necessario, poiché la complessità dei problemi e le quantità di informazioni introdotte in un progetto non possono essere risolto dai convenzionali metodi progettuali, poiché il problema sorpassa le abilità del designer di comprendere e predire il comportamento di un sistema. Un grande vantaggio dato da questo approccio è quindi quello di mimare il comportamento dei sistemi naturali. Dal punto di vista concettuale questo significa sfruttare le ordinarie proprietà di selezione naturale, emergenza e autoorganizzazione in modo da gestire effettivamente sistemi che sono complessi. Da un altro punto di vista la mimesi dei sistemi naturali ci permette di rappresentare l’identit{ degli eventi naturali, la nostra identit{. La riscoperta
dell’unicit{ negli oggetti industriali, la vitalità che pervade gli edifici, l’interazione diretta con l’ambiente circostante liberano la grandezza, la calma e la bellezza della natura, per riscoprire tutto questo anche in noi stessi. Direttamente collegato alla natura è il fatto che il progetto generativo diventa organismo vivo, un progetto adattabile alle varie esigenze e situazioni. Se questo è fondamentale nel lavoro del designer, e permette di gestire un progetto in modo plastico, anche l’ottica del fruitore viene cambiata, in quanto il codice diventa il principale centro dell’opera. Di conseguenza è il fruitore che teoricamente diventa capace di immaginare autonomamente tutte le variazioni evocate, ma non ancora realizzate, dell’algoritmo. Pertanto le arti generative diventano una forma di partecipazione attiva del fruitore. Secondo Umberto Roncoroni le arti generative sono composte da un sistema complesso ed interattivo, i cui componenti sono gli artisti, gli spettatori, il knowhow, il software ed il computer. Pertanto il software non può essere concepito come strumento, ma diventa linguaggio, testo, processo di comunicazione con un’identit{ sconosciuta (105). D’altra parte la visione complessa ha ancor di più sottolineato, rispetto al postmoderno, il fatto che il sistema sociale, con le sue innumerevoli relazioni, influisce in maniera forte sulla creativit{ dell’artista, permettendo ai fruitori di amplificare e modificare ogni singola idea. Un altro indubbio vantaggio dato dagli algoritmi generativi è il fatto che permettono di sfruttare ampliamente sia le nuove tecnologie informatiche, sia i nuovi metodi di produzione. Ovvero rappresentano una metodologia moderna, in linea con le tendenze attuali di produzione e fortemente orientata verso il futuro. Inoltre chiudono in un certo senso il cerchio aperto dalle macchine a controllo numerico: se il computer è capace di dialogare direttamente con i mezzi di produzione, allora le tecniche generative rappresentano per i designer il mezzo per rapportarsi concretamente sia con il primo che con il secondo termine. Questo rapporto non distrugge la figura del designer, ma anzi la esalta e la evidenzia. Abbiamo gi{ visto che l’algoritmo espande all’infinito l’idea del progettista e ne esalta l’identit{. Identità che viene riversata in toto negli output, siano essi reali o virtuali, oggetti o città.
I contro Se il problema della realizzazione è parzialmente risolto dai nuovi mezzi di produzione, non si può dire lo stesso per quanto riguarda la fase progettuale. Infatti, attualmente mancano software e strumenti operativi che gestiscono la complessità in modo operabile dai designer. Sebbene ci si stia muovendo su questo campo, anche i software più moderni come Generative Components non danno la possibilità di sperimentare con la vera complessità, e con i metodi virtualmente più innovativi che questa porta. Si sente la mancanza però anche di strumenti teorici di analisi: su fattori come l’emergenza, sullo studio degli algoritmi, su strumenti di misura effettivi, che diventano fondamentali per la nascita del design generativo. Nonostante la ricerca in questi campi sia fervida, la scienza complessa e gli algoritmi generativi sono una scoperta relativamente giovane, che avrà ancora bisogno di tempo per svilupparsi al meglio. Questi due fattori hanno portato in pratica ad un utilizzo superficiale della complessità e soprattutto a tanta confusione. Gli algoritmi generativi sono diventati più un trend che una vera e propria metodologia, e il rischio di una tendenza è quella che stufi e venga abbandonata prima ancora di capirne la validità effettiva. Un esempio si può vedere nel dibattito aperto sulla figura di autore, dove contraddizioni e confusione sono all’ordine del giorno. Secondo parte della critica di settore gli artisti dovrebbero avere il controllo macroscopico della creazione, lasciando risolvere al computer i dettagli microscopici, in altre parole gestire la complessit{. In questo senso l’opera sarebbe una co-produzione dell’artista e del computer. Questo fatto, secondo gli artisti generativi porta ad un grado di coscienza maggiore, in quanto la coscienza umana e quella artificiale si fondono a raggiungere un più alto livello mentale, assoluto nel tempo e nello spazio.
Parlando di estetica generativa è necessaria una precisazione sul creatore dell’opera. Se, come abbiamo visto, l’approccio generativo è solamente una metodologia, applicabile da tutti e a qualsiasi elemento, allora non ha più senso fare riferimento all’artista, all’architetto, al designer, poiché le diverse figure dal punto di vista generativo sono tutte creatori di algoritmi, soggetti unici. A ciò va aggiunto il fatto che talvolta gli autori generativi non sanno facilmente dire se sono artisti, o designer o scienziati. In questo senso l’arte generativa appare coerentemente in linea con la discussione su tecniche, capacità e bisogni interdisciplinari (9). Pertanto il modo più corretto per definire questa figura sarebbe quello di autore. Un’interessante teoria è quella fornitaci da Christine McLoughlin in relazione alla creazione di opere che sono separate dalle intenzioni creative dell’autore, in particolare quelle che utilizzano il caso. Secondo l’artista inglese l’utilizzo del caso crea un’alienazione che pone tutte le persone nella stessa posizione di separatezza dall’opera, eliminando l’autore e dando origine ad un’esperienza democratica (49). Perciò bisogna pure interrogarsi, riprendendo da un lato la critica postmoderna, se il ruolo di autore ha ancora senso ed esiste ancora, ricordandoci che molta parte degli artisti generativi partono da condizioni poststrutturaliste nel definire la loro poetica. Senza smarrirsi in idee talmente radicali, si è spesso parlato di progetto semplice: esiste il rischio che il progetto generativo, soprattutto se sposato, come sta sempre più avvenendo, con il discorso dell’open-source, perda la sua forza come entità. Se ad esempio fare musica nel ‘600 era considerato una delle migliori arti, attualmente gli mp3 si scaricano da internet, programmi come FL Studio o Cubase permettono a tutti di creare musica potenzialmente di alto livello, canali come Youtube consentono una grande circolazione e autopromozione delle idee. Digitalizzare il progetto, trasformare l’intero processo nella creazione di un algoritmo, potrebbe portare il design allo stesso stato della musica. Più democratico e facile, ma sicuramente più confuso, senza strumenti valutativi né spessore concettuale. Bisognerà evitare questa situazione, ricordandoci che il nostro obbiettivo resterà sempre lo stesso: Il limite delle persone è chiedere per un mondo impossibile, la sfida del designer è quella di trasformarlo in uno possibile.
24. Bibliografia 1. Chance e generativity. Corcuff, Marie-Pascale. Rennes : s.n., 2008. 2. Ceruti, Mauro. La hybris dell'onniscienza e la sfida della complessità. [aut. libro] Gianluca Bocchi e Mauro, a cura di Ceruti. La sfida della complessità. Milano : Feltrinelli Editore, 1985. 3. Manzini, Ezio. La Materia dell'invenzione. Milano : Arcadia, 1986. 4. Morin, Edgar. Le vie della complessità. [aut. libro] Gianluca Bocchi e Mauro, a cura di Ceruti. La sfida della complessità. Milano : Feltrinelli Editore, 1985. 5. Sfruttare il caos. Magrassi, Paolo. 2008, Nòva 24 Review. 6. Generation of a Teory of Generative Design. Serbest, Asli e Mahall, Mona. Stuttgart : s.n., 2006. 7. Creative multi media: The commodity of the 21st century. Rafi, Ahmad. Cyberjaya : s.n., 2002. 8. Programmed Machines: Infinity and Identity. Bolognini, Maurizio. 2004. 9. The Side Effect of a generative experiment. Kabala, Joanna. 2002. 10. Maggio, Elena. Moderno-Postmoderno. [Online] 11. Baudeleaire. Il pittore della vita moderna. 1863. 12. Lyotard, Jean Francois. La condizione post moderna. 1979. 13. Barthes, Roland. La morte dell'autore. Immagine-Musica-Testo. 14. The ideological basis of generative expression in design. Kalviainen, Mirja. Kuopio : s.n., 1998. 15. Galanter, Philip. Complexism and the Role of Evolutionary Art. [aut. libro] Juan Romero e Penousal (Eds) Machado. The Art of Artificial Evolution. s.l. : Springer, 2008. 16. Wikipedia. [Online]
17. From Forming to Transforming. Soddu, Celestino. Milano : s.n., 2000. 18. Wegner, Tim, et al. Frattali per Windows. Milano : Tecniche Nuove, 1994. 19. Alive Codeness. Soddu, Celestino. Milano : s.n., 2008. 20. Mitchell, W. The Logic of Architecture - Design, Computation and Cognition. Cambridge : MIT Press, 1990. 21. Nobili's Art an example of generative Art of 1826. Pedeferri, Pietro. Milano : s.n., 1999. 22. Vom Auftauchen des Computers in der Kunst. Buscher, Barbara. Berlino : s.n., 2004. 23. Galanter, Philip. What is Generative Art? New York : s.n., 2003. 24. —. Generative Art is as old as art. s.l. : Net.works, 6 Settembre 2004. 25. —. What is Complexism? Generative Art and the Cultures of Science and the Humanities. Texas : s.n., 2005. 26. Nature as source of Generative Art. Costa, Mario. Salerno : s.n., 2005. 27. Generative Texture Maps for Animations. Chupa, Anna e Chupa, Michael. 1999. 28. The evolving Role of the Artist. Sheridan, J. Baltimora : s.n., 2002. 29. Couchot, Edmond. Images, de l'optique au numérique. Parigi : Hermès, 1988. 30. Recognizability of designer imprinting in Generative artwork. Soddu, Celestino. Milano : s.n., 1999. 31. Galantier, Philip. Generative art is as old as art. s.l. : Artificial.dk, 6 Settembre 2004. 32. What is Emergence? Generative murals as experiment in the philosophy of complexity. Galanter, Philip. 2004. 33. Minimial generative principles for large scale drawings. Dehlinger, H.E. Kassel : s.n., 1999.
34. The use of Swarm Intelligence to generate architectural form. Carranza, Pablo Miranda e Coates, Paul. Londra : s.n., 2000. 35. Venturi, R. Complexity e Contradiction in Architecture. New York : The Museum of Modern Art, 1966. 36. Generative Architectural Design and Complexity Theory. Herr, Christiane M. Hong Kong : s.n., 2002. 37. McCormack, Jon, Dorin, Alan e Innocent, Troy. Generative design: a paradigm for design research. [aut. libro] J. et el. Redmond. Proceedings of Futureground. Melbourne : Design Research Society, 2004. 38. Knight, Terry. Computing With Emergence. 2003. 39. Galanter, Philip. What is Generative Art? New York : s.n., 2003. 40. Rescher, N. Complexity - A Philosophical Overview. New Brunswick : Transaction Publisher, 1998. 41. Popper, Karl. The myth of the framework. In defence of science and rationality. Londra : Routledge, 1994. 42. "La cittĂ ideale", Generative Codes Design Identity. Soddu, Celestino. Milano : s.n., 2002. 43. Hyposurface: from Autoplastic to Alloplastic Space. Goulthorpe, Mark. Parigi : s.n., 1999. 44. Designign the Undesigned: Emergence as a tool for design. Pontecorvo, Michael Steven. San Francisco : s.n., 1998. 45. Genetic algorithms in Architecture. Fasoulaki, Eleftheria. 46. Pietronero, Luciano. ComplessitĂ e altre storie. s.l. : Di Renzo, 2007. 47. Generative Natural Flux. Soddu, Celestino. 48. Theory of Complexity. McGuire, Kevin. Ottawa : s.n., 2007. 49. The Un-Authored Object. McLoughlin, Christine. 50. Meta-Code, Identity's Borders. Soddu, Celestino. Milano : s.n., 2004.
51. Towards a Material Architecture: The aestetics of Generative Materiality. Krunic, Dina. Los Angeles : s.n., 2009. 52. ArtiE-Frat: Interactive Evolution of Fractals. Chapuis, Jonatan e Lutton, Eveline. Cedex : s.n. 53. Metaforms Methodology for specifying and growing structures of form for Aesthetic and programming Content. Rudolph, Mark. Copenhagen : s.n., 2005. 54. Controlling Chaos: a Simple Deterministic Program for Drawing Complex Organic Shapes. Kevin, McGuire. 2000. 55. Interactive Evolutionary Design in a Hierarchical Way. Hung, Chan Kwai, Frazer, John Hamilton e Xi, Tang Ming. 56. The fantastic combination of John Conway's new solitaire game "life". Gradner, Martin. 1970, Scientific Americain. 57. Evolutionary Shape Grammars for Product Design. Lee, H. C. e Tang, M. X. Hong Kong : s.n., 2004. 58. Braking the Type. Zarzas, Moraes. Delft : s.n., 2003. 59. Dawkins, Richard. The Selfish Gene. Okford : Oxford University Press, 1976. 60. Gatherer, Derek. The Memetics of Design. [aut. libro] P. J. Bentley. Evolutionary Design by Computers. 1999. 61. Blackmore, Susan. The Meme Machine. Oxford : Oxford University Press, 1999. 62. Rechenberg, I. Evolutionstrategie. Stuttgart : FrommannHolzboog Verlag, 1973. 63. Fogel, L. J. Biotechnology: Concepts and Application. s.l. : Englewood Cliffs, 1963. 64. Holland, J.H. Adaptation in Natural and Artifical Systems. s.l. : The University of Michigan Press, 1975. 65. Koza, J. Genetic Programming: On the programming of Computers by Means of Natural Selection. s.l. : MIT Press, 1992. 66. Çobanli, O. M. Generative Design Using the Design DNA. Como : s.n., 1999. 67. Knight, T. W. Shape Grammars: Six Types. 1999.
68. Linear algebra and creative process. Calio, F. Marchetti, E. Milano : s.n., 1999. 69. Breeding new designs. The use of morphing algorithms in design computation. Werner, Ole. Kassel : s.n., 2003. 70. How I Drew One of My Pictures. Ward, Adrian. Milano : s.n., 1999. 71. Le Corbusier, Charles-Edouard Jeanneret-Gris. Verso un'architettura. 1923. 72. Cities of the inhabitants or Megalopolis of the nets. System Design between Sensitive and Intellective. Marinelli De Marco, Giuseppe e Palatucci, Mauro. Roma : s.n. 73. Generative and Evolutionary Techniques for Building Envelope Design. Frazer, John, Frazer, Julia e Liu, Xiyu, Tang, Mingxi, Jannsen, Patrick. Hong Kong : s.n., 2002. 74. The beauty of mother's smile. Stebbing, P. D. Gmund : s.n., 1999. 75. Odifreddi, Piergiorgio. C'era una volta un paradosso. Torino : Giulio Einaudi Editore, 2001. 76. Jourdain, P. A correction and some remarks. s.l. : Monist, 1913. 77. Hearing Architectural Design. Ciao, Quinsan. Blacksburg : s.n., 2000. 78. Poncellini, Luca. Sistemi generativi. Abitare. [Online] 79. Soddu, Celestino. [intervistato] Simona Brusa. Digimag. 80. Integration: Master (Planner, Programmer, Builder). Ceccato, Cristiano. Santa Monica : s.n. 81. From design to production: three complex structures materialized in wood. Scheurer, Fabian, Shindler, Christoph e Braach, Markus. Zurigo : s.n., 2005. 82. genoTyp, an experiment about genetic typography. Schmitz, Michael. Berlino : s.n., 2004. 83. Computer Aided Design of Ming Chair. Kun, Zhang e Wei, Wang Bo. Shangai : s.n., 2003.
84. Generative Design Using the Design DNA. Çobanli, Onur Müştak. Como : s.n., 2009. 85. Design, Front. Front > Contact. Front Design. [Online] http://www.designfront.org/contact.php. 86. AEDS_Chair#71. [Online] http://www.digit-all.net/corefab/html/05.htm. 87. Ivy. [Online] http://www.ivy.mos-office.net/. 88. Stauch, Susanne. 89. ToDo - interaction & media design. [Online] http://www.todo.to.it. 90. Contextual Design/Design in Context. Soddu, Celestino e Colabella, Enrica. Stoccolma : s.n., 1997. 91. 20 Years Argenia Evolution. Soddu, Celestino. Milano : s.n., 2009. 92. Endless interpretations, infinite in the mirror. Soddu, Clestino. Milano : s.n., 2006. 93. Generative Design. A Swimmer in a natural sea frame. Soddu, Celestino. Milano : s.n., 2006. 94. The creative process of Generative Design in Architecture. Krause, Jeffrey. Milano : s.n., 2003. 95. Lo Prete, Matteo. Algoritmi Generativi. 96. Hensel, Michael. Emergence, morphogenetic design strategies. Londra : Charles Walker, 2004. 97. A Generative Nervous System for the Planet. Frazer, John e Yan, Gu. 2008. 98. Frazer, John. Ellipsis. [Online] http://www.ellipsis.com/evolutionary/evolutionary.html#s0.1. 99. Foundations of Generative Art Systems - a Hybrd survey and studio class for graduate studio. Galanter, Philip. New York : s.n., 2003. 100. Simone, Gianni De e rel. Germak, Claudio. Tesi di diploma in Disegno Industriale. Torino : Politecnico di Torino, 2000.
101. Generative Natural Flux. Soddu, Celestino. 102. Galanter, Philip. Toughts on Computational Creativity. 103. Evolving the Shape of Things to Come. Lund, Andreas. 2000. 104. Sterling, Bruce. La Forma Del Futuro. s.l. : Apogeo, 2006. 105. Generative Art: a question of aesthetic, knowledge and interfaces. Roncoroni, Umberto. Lima : s.n., 2004. 106. Generative Art and Ruled-based Art. Galanter, Philip. 2003.