Politecnico di Torino – Facoltà di Architettura I DIPRADI - Corso di Dottorato in Architettura e Progettazione Edilizia
TESI DI DOTTORATO
Caterina Tiazzoldi Automatismi in Architettura o Strumenti Non Lineari di Progettazione
coordinatore: Giancarlo Motta tutor: Pierre Alain Croset
Scuola di Dottorato - Ciclo XVIII A.A. 2006/2007
Premesse dell’autrice Questa ricerca è da intendersi come il lavoro compiuto da una progettista, nel fine di rispondere ad alcune domande insorte nel corso della sua carriera universitaria e nello svolgimento della sua attività professionale. La ricerca è evoluta parallelamente sul piano teorico e su quello sperimentale. Le due parti sono da considerarsi come inseparabili in quanto è solo dalla sperimentazione diretta, che è stato possibile chiarire potenzialità e limiti delle teorie analizzate. A livello personale il maggior successo di questo lavoro è di aver permesso da un lato, di creare una distanza critica al riguardo dei temi sviluppati, dall’altro di aver definito un nuovo filone di ricerca che si concretizza nella Non-Linear Solutions Unit della Columbia University. Come spesso avviene una ricerca può considerarsi conclusa solo quando è in grado di rivelare una nuova dimensione, fino ad allora insospettabile, della propria ignoranza sull’argomento trattato. C. Tiazzoldi
A i Tiazzoldi, Giorgio e gli Animali di casa mia
Ringrazio Pierre Alain Croset, Marta Caldeira, Mario Rasetti, Francesca Rossotti, Laura Solero, Chris Whitelaw per avermi supportato nel corso della ricerca contribuendo attivamente alle sue evoluzioni;
Simona Boccolini, Andrea Hertel, Carla Leitao, Edoardo Mauri, Rachele Michinelli, Luca Poncellini, Gabriele Rimoldi, Alexandra Robasto, Manfredo di Robilant, Giorgio Rolle, Agustin Perez Rubio, Yehuda Safran, Valerie Viscardi, tutti gli amici del CSSS05, tutti i miei studenti e la casa nella foresta. per avermi sopportato nel corso della ricerca prevenendone le involuzioni; Liliana Bazzanella, Daniel Bosia, Marco Brizzi, Filippo Broggini, Bernard Cache, Karl Chu, Peter Eisenman, Igor Falcone, John Frazer, John Holland, Ed Keller, Greg Lynn, Mary McLeod, GianCarlo Motta, Giovanni Rissone, Lamberto Rondoni, Yehuda Safran, Antonino Saggio, Bernard Tschumi, Alessandro Tiazzoldi, Marco Trisciuoglio, Nicolas Tixier, Marco Visconti, William Wang, Mark Wigley e Guido Zuliani, per avermi aiutato nel raccogliere il materiale necessario e per il tempo che mi hanno dedicato; Politecnico di Torino, Columbia University GSAPP, Advanced Geometry Arup, DIPRADI, Fondazione ISI, Le Cresson, Maire Engineering, Mero Italiana s.a.s, NLSU, Regione Piemonte Progetto Sinapsi, Santa Fe Institute e Scuola di Dottorato del Politecnico di Torino per avermi fornito le strutture nelle quali lavorare; e Giuseppe Barbieri, Giovanni Corbellino e Giuseppe Dematteis per aver avuto la pazienza di leggere il lavoro finale.
INDICE
INDICE DEFINIZIONE DI AUTOMATISMO INTRODUZIONE
1
I II
IL PARADIGMA NON LINEARE........................................................................ 0
1.1 DAL LINEARE AL NON LINEARE 1.1.1 LA NECESSITA DI NUOVI STRUMENTI ........................................................................ 1.1.2 IL PARADIGMA DELLE SCIENZE DELLA COMPLESSITA ...................................................... 1.1.3 SCIENZE DURE E SCIENZE MORBIDE EFFETTO SULL’ARCHITETTURA. ...................................
1 3 4 6
1.2 IL NON LINEARE 8 1.3 COMPLESSITA O NON LINEARITA? 9 1.4 PROPRIETA DEI SISTEMI COMPLESSI 10 1.5 IL PROBLEMA DELLA COMPLESSITA IN ARCHITETTURA 13 1.6 COMPUTER SCIENCE E ARCHITETTURA DIGITALE DUE UTOPIE 14 1.6.1 COMPUTER SCIENCE? ....................................................................................... 15 1.6.2 ARCHITETTURA DIGITALE? .................................................................................. 18 1.7
2
STRUMENTI NON LINEARI COME SISTEMI EURISTICI
25
STRUMENTI NON LINEARI DI PROGETTAZIONE: CASI APPLICATIVI ........... 28
2.1 RICERCA DI FORMA 30 2.1.1 MORPHODYNAMICS .......................................................................................... 32 2.1.1.1
Definizione
32
2.1.1.2
Lynn, Spuybroek: Blobs e Forme Animate
32
2.1.1.3
Eisenman: From Index to Codex
36
2.1.1.4 Conclusione rapportata ad esperimenti personali 37 2.1.2 MORPHOGENETIC ............................................................................................ 39 2.1.2.1
Definizione
39
2.1.2.2
Karl Chu: Tecniche di Riscrittura ed Automi Cellulari
42
2.1.2.3 Philippe Morel: Algoritmi Genetici 46 2.1.3 CONCLUSIONE RAPPORTATA AD ESPERIMENTI PERSONALI ............................................... 51 2.2 ANALISI DI RELAZIONE 56 2.2.1 MVRDV: RELAZIONI PARAMETRICHE ...................................................................... 56 2.2.2 KELLER: DINAMICHE TEMPORALI .......................................................................... 59 2.2.3 CONCLUSIONE RAPPORTATA AD ESPERIMENTI PERSONALI ............................................... 60 2.3 TECNOLOGICO-STRUTTURALE 69 2.3.1 REALIZZAZIONE DI FORME COMPLESSE ................................................................... 70 2.3.1.1
Gehry, Piano, Nio: Il CNC - Dal modello Digitale alla Linea di Montaggio
70
2.3.1.2
Lynn: Invarianze Seriali
73
2.3.1.3 Cache Objectile: Associatività 77 2.3.2 GESTIONE SISTEMI COSTRUTTIVI COMPLESSI ........................................................... 80 2.3.2.1 Frazer Gehry Technologies: Parametrizzazione 84 2.3.3 FORMA E STRUTTURA ....................................................................................... 86 2.3.3.1
Politecnico di Torino: Reti Neurali - Analizzare
86
2.3.3.2
Politecnico di Losanna: Calibrazione dei Modelli - Dimostrare
87
2.3.3.3
Cecil Balmond - Esplorare
89
3
PER UNA CLASSIFICAZIONE DEGLI STRUMENTI DEL NON LINEARE ............ 94
3.1 MODELLI SCIENTIFICI-MODELLI ARCHITETTONICI 95 3.1.1 DEFINIZIONE E PROPRIETA DEI MODELLI .................................................................. 97 3.1.1.1
Verosimiglianza
98
3.1.1.2
RiproducibilitÃ
101
3.1.1.3
Specializzazione
102
3.1.1.4 Robustezza 104 3.1.2 APPLICAZIONI .............................................................................................. 107 3.1.2.1
Analizzare
107
3.1.2.2
Dimostrare
108
3.1.2.3
Esplorare
109
3.2 DALLA REALTA AL MODELLO 111 3.2.1 PREMESSE SULLA METODOLOGIA STABILITA ............................................................ 111 3.2.2 IPOTESI ED INTUIZIONI ................................................................................... 111 3.2.3 LIVELLO DI PREDICIBILITA - ENTROPIA .................................................................. 114 3.3 PROGETTARE EQUIVALE A PROGRAMMARE 119 3.3.1 ELEMENTI BASE ............................................................................................ 122 3.3.1.1 Attributi e Building Blocks 122 3.3.2 RELAZIONI BASE .......................................................................................... 124 3.3.2.1
Trova
124
3.3.2.2
Sostituisci
125
3.3.2.3 Relazioni Parametriche 125 3.3.3 ORGANIZZAZIONE DELLE REGOLE........................................................................ 127 3.3.3.1
Tecniche di Riscrittura
127
3.3.3.2
Regole if/then if/or
131
3.3.3.3
Automi Cellulari
132
3.3.3.4
Do Whyle Loop
137
3.3.3.5
Reti Neurali
138
3.3.3.6
Soft Control
140
3.3.3.7 Problemi di Ottimizzazione 144 3.3.4 EVOLUZIONE REGOLE ..................................................................................... 149 3.3.4.1
Complex Adaptive Systems
149
3.3.4.2
Algoritmi Genetici
153
3.4
4
DAL MODELLO ALLA REALTA
160
CONCLUSIONI E LINEE GUIDA PER LA RICERCA ........................................ 163
BIBLIOGRAFIA
"L'Architettura c'è quando interviene un'emozione poetica" Le Corbusier, Urbanistica, p 175 "L'architettura è invenzione plastica, è speculazione intellettuale, è matematica superiore". Le Corbusier, Urbanistica, poche pagine prima…
DEFINIZIONE DI AUTOMATISMO
Automatism Main Entry: au·tom·a·tism Pronunciation: o-'tä-m&-"ti-z&m Function: noun Etymology: French automatisme, from automate automaton, from Latin automaton 1 a : the quality or state of being automatic b : an automatic action 2 : the power or fact of moving or functioning without conscious control either independently of external stimuli (as in the beating of the heart) or under the influence of external stimuli (as in pupil dilation) 3 : a theory that views the body as a machine and consciousness as a noncontrolling adjunct of the body 4 : suspension of the conscious mind to release subconscious images <automatism --the surrealist trend toward spontaneity and intuition -- Elle> - au·tom·a·tist /-'tä-m&-tist/ noun or adjective Main Entry: au·tom·a·tism Pronunciation: o-'tä-m&-"ti-z&m Function: noun Etymology: French automatisme, from automate automaton, from Latin automaton 1 a : the quality or state of being automatic b : an automatic action 2 : the power or fact of moving or functioning without conscious control either independently of external stimuli (as in the beating of the heart) or under the influence of external stimuli (as in pupil dilation) 3 : a theory that views the body as a machine and consciousness as a noncontrolling adjunct of the body 4 : suspension of the conscious mind to release subconscious images <automatism --the surrealist trend toward spontaneity and intuition -- Elle> - au·tom·a·tist /-'tä-m&-tist/ noun or
I
Introduzione/
INTRODUZIONE 1
Nell’articolo “The Ghost of Architecture: the project codification” , Antoine Picon afferma che non esiste nessun tipo di disciplina artistica senza un sistema di regole che ne codifichi la pratica. Il testo, che si inserisce in una monografia dedicata ai 2
codici di architettura , riapre una domanda storicamente radicata nel dibattito progettuale: Qual è la relazione esistente fra regola e progetto? Fino a che punto e in che misura il progetto di architettura è gestibile grazie ad un sistema di regole e di codici? 3
4
Peter Eisenman afferma che l’architettura è sempre stata regolamentata da codici.
Il fatto che numerosi degli aspetti della pratica professionale contemporanea siano gestiti tramite una serie di codici, norme e regole (che siano essi di natura formale, estetica, sociale, legale, etica, deontologica, tecnologica e strutturale), dimostra l’importanza che tali apparati esercitano nella professione di architetto. In Understanding the "Code" of Codes, Jerold S. Kayden afferma che il codice architettonico è un insieme di regole capace di operare sull’ambiente costruito. Esso può agire in maniera prescrittiva come nel caso dei regolamenti edilizi e dei piani regolatori, oppure può essere considerato come un sitema normativo estetico (basti 5
pensare agli ordini classici).
1
Picon A., The Ghost of Architecture. The Project and Its Codification, in: The Yale Architectural Journal, Perspecta 35 Buildings codes, MIT Press, Cambridge, 2004, pp.8-19. Picon è professore di storia dell’architettura e della tecnologia ad Harvard, dove è anche direttore del programma di dottorato. Il suo interesse si incentra sulla storia dell’architettura e della tecnologia dal diciottesimo secolo a oggi. 2 The Yale Architectural Journal, Perspecta 35 - Buildings codes, MIT Press, Cambridge 3 Peter Eisenmann è architetto ed insegnante. E’autore di un grande numero di progetti innovativi che spaziano dalla progettazione architettonica alla pianificazione urbana, includendo l’architettura scolastica e domestica. E’ fondatore dell’Istituto per l’Architettura e gli Studi Urbani ed è stato nominato S.Chanin Distinguished Professor alla Cooper Union of Science and Art e Louis Kahn Professor alla Yale University. 4 “In one sense, architecture has always been about codes, whether literally, in building codes, or metaphorically, in classical codes – the rules of proportion and ordination in building systems”. Eisenman P., Coded mutations, October 2003. 5 “For the sake of establishing a generai context, design codes may be defined as systems of rules meant io influence the physical appearance of the built environment. From this basic premise, design codes distin guish themselves along five major axes: law versus non-law, public versus private law, depth of coercive effect, extent of aesthetic intentionality, and rule versus discretion Significantly, to be a design code does not mean the same sa being a law. Although the word "code" la often used as a synonym for "law," as in zoning code (also known as zoning by-law, zoning ordinance, and zoning resolution), code may be used to describe non-legai systems. Legai design codes are a far different story. Dividing themselves into publicly and privately enacted categories, they gained traction in the twentieth century.The current register of public codes, adopted by local, state, and occasionally the federai government, includes design review and guidelines, zoning, subdivision controls, historic preservation ordinances, sign and biliboard controls, satellite dish and celi tower regulations, view protection and open space laws, building codes, and handicapped access laws. Such codes generally give individuale no choice but to follow them. Although some may dispute the coercive characterization, on the basis that affected individuale are responsible for choosing their own elected legislative and executive branch Design codes also vary according to aesthetic intentionality. Some, like design review laws, are expressly concerned with regulating the exterior "look" of a proposed building. Others, like zoning, have a less singular objective and advance a varied menu of physical planning concerne that includes health, safety, efficiency, sa well as exterior appearance. Building and handicapped access codes profess no explicit interest in aesthetics, even as they II
Introduzione/
Che siano essi di natura funzionale o estetica, la caratteristica che accomuna codici, regole ed altri apparati astratti di progettazione, consiste nel regolamentare ed organizzare il progetto di architettura tramite una serie di prescrizioni capaci di eseguirsi autonomamente. Essi sono in grado di compiersi senza l’intervento di nessun soggetto esterno6 e possono pertanto essere assimilati a veri e propri 7
automatismi di progettazione. Riferendosi al ruolo svolto da regole e codici nella progettazione Picon, afferma che il loro utilizzo non si limita a rispondere ad una serie di imposizioni di natura formale, funzionale e tecnologica, ma si espande alla possibilità di influire attivamente e positivamente sul processo creativo. Questo stato di fatto appare evidente nell’utilizzo che veniva fatto dei procedimenti creativi automatici nel periodo surrealista o; come nel caso di Georges Perec in cui, l’adozione di una serie di regole ha permesso di spingere alcuni concetti compositivi oltre gli stessi limiti stabiliti dall’autore, diventando in questo modo, uno strumento di esplorazione e di innovazione artistica. Il problema della relazione esistente fra regola e progetto può essere studiato sotto due punti di vista: all’interno del lavoro dei singoli progettisti, o come il riflesso di una condizione derivante da un determinato periodo storico. Nel primo caso appare evidente che essa dipenda esclusivamente dalle strategie progettuali adottate da ogni architetto. Per esempio nel caso di Le Corbusier, essa si presenta sotto una duplice dimensione: da un lato Le Corbusier sembra ambire una condizione di pura oggettività espressa attraverso una serie di regole inconfutabili: (“Gli oggetti della natura, le opere del calcolo sono rigorosamente formati, e organizzati senza ambiguità”
8
"L'architettura è invenzione plastica, è speculazione intellettuale, è matematica 9
superiore”. ) dall’altro sembra invocare la dimensione poetica ed emotiva del progetto. “l'Architettura c'è quando interviene un'emozione poetica”.
10
may have significant effects upon it.Most important in this area, aesthetically oriented codes must provide standards that reassure the reviewing judge that the code, and decisions taken pursuant to it, are neither arbitrary and capricious nor too vague. Rule-based codes are least vulnerable to constitutional attack, since they state their standards in black and white (or red). Discretion-based codes run a higher risk. Subjective, beauty-in-the-eye-of-the-beholder decision-making is out; objective, straightforward criteria are in: Kayden J. S., Understanding the "Code" of Codes, in: "The Yale Architectural Journal", Perspecta 35 - Buildings codes, MIT Press, Cambridge, 2004, pagine non numerate. 6 Questa caratteristica è sovente stata all’origine di un ambiguità fra la componente oggettiva e quella soggettiva dei codici. 7 Vedi definizione Automatismo 8 Idem, p. 175. 9 Idem, p. 115. 10 Le Corbusier, Urbanistica, Il Saggiatore, Milano 1967, p. 175. III
Introduzione/
Quando la natura della relazione che viene a stabilirsi fra regola e progetto, dipende da una specifica condizione storica, si può affermare che essa abbia una valenza paradigmatica.
In
effetti,
attraverso
l’analisi
di
tale
relazione,
è
possibile
comprendere non solo la posizione nei riguardi dell’architettura ma anche della struttura del pensiero filosofico, scientifico ed artistico che caratterizzano un determinato periodo. Lo scopo di questa ricerca è di utilizzare l’analisi della transizione fra il paradigma Determinista e quello del Non Lineare, per ridefinire la relazione esistente fra regola e progetto. A questa riflessione di ordine teorico si affianca la volontà di ripensare al problema di una metodologia progettuale finalizzata a far fronte alla crescente complessità della professione di architetto. In effetti, in una città dalla struttura complessa nella quale le interazioni fra le parti si intensificano, nella quale il numero dei decisori e degli scenari culturali si sovrappongono, si interconnettono, e talvolta si scontrano, nella quale le dimensioni temporali degli abitanti sono molto diverse, nella quale dimensioni locali e globali, fisiche e virtuali coesistono, e’ necessario rispondere con nuove tipologie, nuovi organismi urbani e nuovi sistemi di gestione del progetto. L’incapacità degli strumenti derivanti dal paradigma determinista di fronteggiare un tale livello di complessità, ha richiesto di compiere un profondo ripensamento sulla relazione esistente fra regola e progetto. L’analisi non solo degli strumenti ma anche dell’impostazione metodologica derivante dalle Scienze della Complessità ( e dal paradigma del Non Lineare), può fornire un supporto concettuale nella definizione di una metodologia che permetta di rispondere alla complessità del progetto contemporaneo. La ricerca si articola in tre parti: nella prima verrà definito il quadro concettuale nel quale è avvenuta la transizione fra il paradigma Deterministico e quello del Non Lineare. Nella seconda parte verrà compiuta una ricognizione sul lavoro di quegli architetti, che si sviluppa a partire dall’utilizzo di regole e algoritmi derivanti dalle Scienze della Complessità. A tale fine verranno isolati tre tipi di applicazioni degli strumenti Non Lineari in architettura: ricerca di forma, analisi funzionale e soluzione di problemi di ordine tecnologico e costruttivo. L’obbiettivo è di valutare le potenzialità e limiti derivanti dall’adozione di tali strumenti. La terza ed ultima parte si incentrerà sull’approfondimento dello studio di alcuni degli strumenti derivanti dalle Scienze della Complessità e della maniera secondo la quale essi operano nel loro contesto originario.
IV
Introduzione/
Lavorando su fonti di prima mano e sulla base di sperimentazioni progettuali dirette11, sarà possibile verificare alcune delle formulazioni teoriche riguardanti l’applicazione in architettura degli apparati derivanti dalle Scienze della Complessità. La finalità di questo lavoro non è di redigere una lista di strumenti da “trapiantare“ dalle Scienze della Complessità all’architettura, ma è bensì di capire i presupposti concettuali e metodologici che ne stanno all’origine. Il fine è di ridefinire la relazione esistente fra regola e progetto spostando l’accento dall’idea di automatismo12 a quello di rete di soluzioni da intendersi, non come uno strumento derministico ma, come apparato di supporto al pensiero progettuale.
11
Vedi volume apparati Automatismo come un apparato progettuale che è in grado di compiersi da solo senza la necessità di far intervenire un soggetto esterno.
12
V
1 IL PARADIGMA NON LINEARE
Il Paradigma Non Lineare/
1.1 Per
quanto
solitamente
sia
sconsigliabile
DAL LINEARE AL NON LINEARE di
ricorrere
a
qualsiasi
tipo
di
generalizzazione, per motivi di brevità espositiva sarà necessario operare alcune radicali semplificazioni concettuali finalizzate ad inquadrare il contesto nel quale è avvenuta la transizione dal paradigma Determinista a quello Non Lineare. E’ possibile affermare che l’approccio concettuale che ha caratterizzato il Movimento Moderno fosse di tipo funzionalista basato su di una visione meccanicistica dei problemi e in cui il progetto poteva essere tradotto in una serie di relazioni lineari di tipo causa effetto traducibili in espressioni quali espressioni Forma = Funzione (Le Corbusier)1, Forma = Struttura (Auguste Peret, Luigi Nervi), Architettura = Tecnica (Wacksman), o come appare nelle metafore dell’epoca come la Machine à Habiter (Le Corbusier) in cui viene esaltata la componente meccanica dell’atto di abitare. 2
In Automation Based Creative Design Tzonis e White, affermano che la logica lineare di tipo problem solving di derivazione determinista con la quale venivano affrontati i problemi nel corso del periodo Moderno, è stata all’origine di numerose critiche. Ne sono la prova le accuse di Alexander e di Chermayeff nei confronti della tendenza moderna di concepire ogni problema economico sociale o architettonico con una mentalità utilitarista e funzionalista e in cui la progettazione degli edifici e delle città poneva le stesse problematiche di qualsiasi altra attività del dopo guerra. I problemi venivano “ridotti” o semplificati in gruppi trattabili con regole indipendenti le une dalle altre. Lo zooning serviva a scomporre i problemi urbanistici in grandi famiglie (suddivisione della città in aree funzionali: residenziali, produttive, amministrative); i problemi edilizi ed urbani erano affrontati con una trattazione per indici lineari: costruito/superficie urbana, servizi pubblici/superficie costruita, superfici/costi. ecc… La traduzione del progetto in una serie di regole lineari ha portato alla mancanza di uno strumento progettuale globale che permettesse di dare una risposta olistica ai problemi architettonici ed urbani. Gli effetti di questo tipo di approccio sono a oggi evidenti in qualsiasi porzione urbana sviluppata sulla base dei precetti moderni ogni area di frontiera fra due tipi di regole lineari (zone) costituisce un punto critico del sistema.
1
Come è stato visto nell’introduzione la posizione stessa di Le Corbusier presenta una duplice dimensione relativamente alla possibilità di tradurre il progetto in una serie di regole. 2 Tzonis A., White I., Automation Based Creative Design. Research and Perspectives, Elsevier Science, Amsterdam, 1994. 1
Il Paradigma Non Lineare/
“Wherever there is a sharp separation between residential and non residential 3
parts of the town, the non residential will quickly turn to slums” .
Secondo Alexander nel progetto contemporaneo, a causa dell’aumento dei dati, dei parametri in gioco e della crescente complessita’ dei problemi analizzati, la semplicità dei metodi tradizionali non può essere considerata sufficiente. Per questo motivo già a partire dai primi anni ’60 è stata sollevata la necessità di sviluppare nuovi strumenti e metodologie di progettazione. Fra gli anni ‘60 e la fine degli anni ’90 si è assistito allo slittamento dal paradigma Determinista a quello della Complessità. Il concetto di complessità veniva utilizzato sistematicamente per giustificare un approccio alla progettazione edilizia ed urbana di tipo post-moderno -in quanto contestava il determinismo della modernità senza saper offrire una via alternativa (di cui è un esempio manifesto Complexity and Contradiction4
di
Robert
Venturi).
L’approccio
concettuale
post-moderno
era
caratterizzato dal rifiuto della possibilità di costruire una qualsiasi metodologia progettuale in quanto la complessità dei problemi non permetteva di sistematizzare alcun tipo di approccio. Durante il periodo decostruttivista, l’idea di complessità è stata utilizzata per definire la molteplicità, spesso conflittuale, degli elementi in gioco in un sistema. L’idea di complessità e le retoriche del caos, alla fine degli anni ’90, diventano una delle manifestazioni più ricorrenti di una visione segnata dalla forte sfiducia nella possibilità di gestire con un metodo rigoroso5 le problematiche dell’architettura. Il discorso introduttivo per la Biennale di Venezia del 2000 scritto da Massimiliano Fuksas è una chiara testimonianza di questo stato di fatto. “La complessità delle condizioni oggettive sono testimonianza dell’accelerazione dei processi e sarebbe un grave errore cercare di “fissarne” i termini: nel momento in cui crediamo di aver colto il principio generale dell’ordine, immediatamente scompare come un miraggio. Il “CAOS” non è disordine ma un ordine “sublime” che nell’evoluzione della fisica trova maggiori spiegazioni di una 6
semplice geometria.”
3
Alexander C., A Pattern of Language cit., p. 257. Venturi R., Complexity and Contradiction in Architecture, Museum of Modern Art, New York, 1966. 5 Alludendo al concetto di rigore non si fa appello alla volontà di applicare ad ogni costo un approccio scientifico/scientistico. 6 Biennale di Venezia (a cura di), Less aesthetics, more ethics. 7 Mostra Internazionale di Architettura, Marsilio, Venezia, 2000, p. 12. 2 4
Il Paradigma Non Lineare/
1.1.1 La necessità di nuovi strumenti Nel paragrafo precedente è stato osservato come gli strumenti derivanti dal paradigma Determinista non siano stati in grado di fronteggiare il crescente livello di complessità del progetto di architettura. E’ evidente che in una città dalla struttura complessa nella quale le interazioni fra le parti si intensificano, nella quale il numero dei decisori e degli scenari culturali si sovrappongono, si interconnettono, e talvolta si scontrano, nella quale le dimensioni temporali degli abitanti sono molto diverse, nella quale dimensioni locali e globali, fisiche e virtuali coesistono, e’ necessario rispondere con nuove tipologie, nuovi organismi urbani e nuovi sistemi di gestione del progetto. Questa necessità è riscontrabile nelle dichiarazioni di numerosi numerosi architetti contemporanei. Secondo MVRDV la sovrapposizione delle varie funzioni e l’utilizzo multiplo dello spazio, richiedono un cambio di paradigma che permetta di affrontare un tipo di problematiche più articolate e complesse. Il gruppo olandese denuncia l’inefficacia delle
soluzioni
urbanistiche
adottate
nella
citta’
contemporanea
in
quanto
monofunzionali, semplici e statiche dal punto di vista spaziale e pertanto, incapaci di soddisfare le esigenze de la società contemporanea. Per MVRDV per far fronte all’inadeguatezza degli strumenti urbanistici esistenti, è necessario svilupparne di nuovi, che siano in grado di agire su di un contesto denso e multi funzionale e che possano adattarsi alla mutevolezza delle condizioni del sistema.7 Nel fine di stabilire strumenti e metodologie capaci di far fronte al superamento del paradigma determinista, le Scienze della Complessità sembrano poter offrire una valida alternativa. In effetti alcune delle problematiche riscontrate in ambito architettonico, sono apparse già da numerosi anni nel mondo della ricerca imponendo alla comunità scientifica di compiere una profonda riflessione metodologica.
7
“La mezcla de funciones y el uso múltiple del espacio requieren un cambio de paradigma con el que poder tratar de resolver la escasez de espacio y la abundancia de uniformidad de los Países Bajos. Las soluciones urbanísticas relativamente monofuncionales -simples y espacialmente estàticas- no satisfacen las exigencias de la voluble sociedad actual. Qué modelo servirà para crear entornos vivos t? Que diversas funciones y densidades puedan coexistir simbióticamente unas junto a otras, estar integramente conectadas y adaptarse a tiempo a los cambios? Qué modelo seria necesario para ofrecer soluciones adecuadas a las complejas exigencias de la mezcla de fauciones, unas exigencias que demandan un aumento de densidad, intensidad y diversidad en relación con políticas y normativas ambientales, económicas y sociológicas, tanto fijas corno variables?". (MVRDV 1997-2002 cit., p. 26). 3
Il Paradigma Non Lineare/
1.1.2 Il paradigma delle Scienze della Complessità La crisi del modello determinista a cui si è fatto riferimento nel paragrafo precedente, non è da considerarsi come un fenomeno limitato all’architettura ma va intesa come il riflesso di una crisi epistemologica che ha caratterizzato tutto il panorama scientifico contemporaneo. Nel saggio A’ la rencontre du complexe8, il premio Nobel lya Prigogine9 sostiene che nel
corso degli
ultimi cinquant’anni
la nostra
visione della natura
è stata
completamente rivoluzionata. In ogni disciplina scientifica dalla cosmologia, alla chimica o alla biologia, dove un tempo si parlava di equilibrio e di stabilità, oggi si parla di fluttuazioni di instabilità e di processi evolutivi. Secondo Prigogine, in un primo tempo il programma delle scienze classiche, (che si manifesta per esempio nella fisica newtoniana), sembrava non rilevare particolari lacune: il livello fondamentale offerto dalle leggi deterministe sembrava corretto. All’inizio del secolo tutti i fisici erano unanimi nel dichiarare che le leggi dell’universo fossero deterministe e reversibili. Eppure ogni volta apparivano errori o problemi che falsificavano il buon funzionamento di tali regole. I processi che non erano descrivibili con le leggi deterministe entravano nella famiglia delle eccezioni. Per poter essere utilizzate, le regole e gli schemi dovevano essere sottoposti a grandi approssimazioni e variazioni senza riuscire tuttavia ad essere in grado di cogliere le leggi fondamentali che spiegano alcuni fenomeni della natura. Alla fine del secolo alcuni fisici hanno iniziato a questionare le leggi che stavano alla base della fisica classica, le loro interazioni elementari e la loro impotenza nel rispondere ai problemi. Oggi sono molti gli
scienziati
che mettono in
questione le
leggi
deterministiche
che hanno
caratterizzato le scienze classiche: la materia non è più assimilabile ad un’entità statica e passiva ma va concepita come qualcosa di dinamico ed evolutivo. Il cambiamento epistemologico avvenuto in ambito scientifico, porta con se una nuova visione dei fenomeni che regolano la natura e con essa la necessità do mettere a punto di una nuova metodologia di lavoro.
8
"Depuis un demi siècle, notre vision de la nature a radicalement changé. Là où la science classique parlait d'équilibre et d stabilité, nous voyons désormais des fluctuations, des instabilités, des processus évolutifs et ce à tous les niveaux, de la cosmologie à la biologie en passant par la chimie.». Prigogine I, Kondepudi D.K., Pahaut S., Thermodynamique : des moteurs thermiques aux structures dissipatives, Editions Odile Jacob , Paris, 1999, p. 9. 9 9 Ilya Prigogine (Mosca, 25 gennaio 1917 - Bruxelles 28 maggio 2003) è un chimico e fisico belga molto noto per le sue teorie sulle strutture dissipative, i sistemi complessi e l'irreversibilità. Nel 1959 divenne direttore dell'International Institute Solvay di Bruxelles. È stato inoltre direttore del centro di meccanica statistica all'Università del Texas ad Austin. Nel 1977 grazie alle sue teorie riguardanti la termodinamica applicata ai sistemi complessi, riceve il premio Nobel. Nel 1945 viene discussa la tesi di dottorato di Prigogine e il titolo di studio è La termodinamica dei processi irreversibili. Questo argomento è stato molto discusso e importante nella ricerca scientifica. Inoltre Prigogine ha una fama mondiale e recentemente si è occupato di altri campi: quelli dell'epistemologia e filosofia rispondendo ai problemi di questi due campi. Disponibile all’indirizzo: http://it.wikipedia.org/wiki/Ilya_Prigogine 4
Il Paradigma Non Lineare/
Per quanto tutti gli scienziati operanti nell’ambito delle Scienze della Complessità concordino sul fatto che non sia ancora possibile parlare di una vera e propria scienza - in quanto non è stato messo a punto un sistema di regole ed assiomi capaci di dare origine ad una disciplina autosufficiente -; è innegabile che in numerosi ambiti scientifici sia avvenuto uno spostamento epistemologico che si riflette sella maniera con cui vengono formulati i problemi, nel fine di superare i limiti derivanti dall’approccio determinista.
Immagine 1 - Cristalli Liquidi. I cristalli liquidi sono la chiara dimostrazione delle conseguenze derivanti dal superamento delle scienze classiche. I cristalli liquidi sono da considerarsi come il quarto stato della materia. Il comportamento degli elementi interni presentano alcune caratteristiche (molto ben definite) del comportamento dei cristalli allo stato solido per quanto presentino anche alcune caratteristiche degli stessi allo stato liquido. Il fatto di aver riconosciuto un quarto stato della materia caratterizzato da un sistema di regole ben determinate (per quanto non riconducibili a nessuno degli stati riconosciuti dalle scienze classiche) ha permesso di sviluppare un nuovo tipo di tecnologia (ora comunemente diffusa in televisori video ecc…) Immagini tratte da: AA:VV., Anywhere, Rizzoli, New York, 1992, p. 171.
5
Il Paradigma Non Lineare/
1.1.3 Scienze Dure e Scienze Morbide effetto sull’Architettura. “Un compagnero suele decir a los jovenes que las funciones de una sola variable unicamente esiste en los libros de matematicas. En la vida umana todas las funciones tienen incontables variables, y una de las causas de la angustia de nuestra juventud estriba en su incosciente mania de simplification”.
10
Prima di addentrarsi nell’analisi delle metodologie dalle Scienze della Complessità e delle loro potenzialità in architettura, è necessario porsi una domanda fondamentale: fino a che punto è pertinente creare un’analogia fra le metodologie scientifiche e quelle progettuali? Fino a che punto il cambio di paradigma che è avvenuto in ambito scientifico è significativo anche in architettura? Secondo Picon11 non è possibile fare un’analogia fra la maniera in cui operano scienze ed architettura. In altre parole non è possibile pensare all’architettura come ad una scienza. Questa visione, già riscontrabile nella posizione di Coderch, si basa sull’idea secondo la quale l’architettura non sia traducibile in una serie di regole e di funzioni matematiche ed il fallimento derivante da una trasposizione troppo diretta delle metodologie positiviste lineari all’architettura sembra confermare questa posizione. Secondo Prigogine il passaggio dal paradigma Determinista a quello delle Scienze della Complessità implica anche una radicale attenuazione della distinzione esistente fra scienze dure (matematica, fisica) e scienze morbide (biologia, scienze sociali ed architettura). Si può affermare che le prime perdono in rigidezza e precisione -in quanto le condizioni di equilibrio sulle quali si basavano la maggior parte degli assiomi sono oramai ascrivibili nell’ambito delle eccezioni anziché delle regole; mentre le seconde acquisiscono maggior rigore in quanto gli stati di non equilibrio e di transizione, considerati fino ad oggi come condizioni non inseribili nella trattatistica scientifica, diventano parte essenziale della ricerca. A queste considerazione va aggiunto il fatto che, lo spostamento dal paradigma Determinista a quello del Non Lineare ha messo in questione l’esistenza stessa di regole assolute che non dipendano da uno specifico osservatore. Questo spostamento concettuale ha attenuato il maniera radicale la distinzione esistente fra la presunta oggettività delle scienze dure e la soggettività delle scienze morbide. La trasformazione epistemologica avvenuto in ambito scientifico porta a ripensare la possibilità di utilizzare apparati concettuali derivanti dalle scienze in architettura. La finalità di questo saggio è quindi di valutare fino a che punto il trasferimento metodologico sia attualizzabile. Quali sono gli strumenti e le metodologie delle
10 11
J.A Coderch, 1967 Publicado en Nueva Forma, novembre 1974 Picon A., The Ghost of Architecture cit., p. 8.
6
Il Paradigma Non Lineare/
Scienze
della
Complessità
che
possono
modificare
l’approccio
al
progetto
architettonico? In che modo tali strumenti operano in architettura? Per poter rispondere alle domande in questione è necessario in primo luogo fare una panoramica su alcuni degli aspetti fondamentali dei sistemi complessi. Nel paragrafo a venire verranno fatti numerosi riferimenti al lavoro di ricerca svolto presso il Santa Fe Institute12, (in quanto può essere considerato come un punto di riferimento in scala internazionale per quel che riguarda le ricerca sulle Scienze della Complessità), ed al corso tenuto dal professor Livi13 e Rondoni14 presso il Politecnico di Torino intitolato Aspetti elementari della complessità15, (in quanto è stato specificatamente studiato per essere un corso introduttivo per architetti sul tema della complessità).
12
Si veda: www.santafe.edu Roberto Livi laureato in Fisica a Firenze, Insegna Meccanica Statistica, è membro dell’ Istituto Nazionale di Fisica Nucleare e dell’Istituto Nazionale di Fisica della Materia, per il quale è rappresentate nazionale dell’area di Meccanica Statistica e di Sistemi Complessi. 14 Lamberto Rondoni,laureato in Ingegneria Nucleare, Università`a di Bologna, 1986. E’ professore associato presso il Politecnico di Torino collabora con numerosi centri quali Rockefeller University di New York, Niels Bohr Institute di Copenhagen. Il suo ambito di interesse e ricerca si accentrano alle problematiche della meccanica probabilistica ed all’analisi dei sistemi complessi. 15 Livi R., Rondoni L., Aspetti elementari della complessità, Dipartimento di Fisica, Università degli studi di Firenze, Firenze 2004, disponibile all'indirizzo: calvino.polito.it/~rondoni/note_complex-1.pdf (17/01/06). 7 13
Il Paradigma Non Lineare/
1.2
IL NON LINEARE
Nel fine di inquadrare storicamente i principi sulla base dei quali si sono sviluppate le Scienze della Complessità è necessario far riferimento ad alcune figure dell’inizio del XX secolo quali il matematico H. Poincarré16 e ed il fisico L.Boltzmann17, i quali per primi hanno introdotto i concetti di caos deterministico ed di meccanica statistica18. Come è stato visto precedentemente lo sviluppo di un nuovo paradigma scientifico ha avuto profonde conseguenze epistemologiche poiché ha messo in discussione l’esistenza di un sistema di regole assolute che potessero considerarsi come indipendenti dall’interpretazione di un osservatore.
19
Tali considerazioni hanno
prodotto lo spostamento dalla concezione di un sistema scientifico basato su presupposti
positivisti
assoluti,
all’idea
di
una
serie
di
realtà
scientifiche
completamente vincolate al loro osservatore. L’impossibilità di agire applicando una serie di regole universali, mette in discussione le basi concettuali su cui si erano basate le scienze classiche. Come sottolineano numerosi scienziati il cambio è stato così profondo da modificare la maniera stessa con la quale l’uomo si rapporta alla 20
natura.
16
Henri Poincaré, nato il 29 aprile 1854 a Nancy e morto a Parigi il 17 luglio 1912, fu un matematico, fisico, astronomo e filosofo della scienza francese. Uomo di genio, fu un precursore della relatività generale. In relazione con un fisico sperimentale, Ludwig Lorenz, mise in equazioni la teoria della relatività ristretta, basandosi sulle osservazioni del suo collega. Disponibile all’indirizzo: http://it.wikipedia.org/wiki/Jules_Henri_Poincar%C3%A9 17 Ludwig Eduard Boltzmann (Vienna, 20 febbraio 1844 - Duino, Trieste, 5 settembre 1906) è stato uno dei più grandi fisici teorici di tutti i tempi. La sua fama è dovuta alle ricerche in termodinamica e meccanica statistica (l'equazione fondamentale della teoria cinetica dei gas e il secondo principio della termodinamica). Diede anche importanti contributi anche in meccanica, elettromagnetismo, matematica e filosofia. Disponibile all’indirizzo: http://it.wikipedia.org/wiki/Ludwig_Boltzmann 18 “La meccanica statistica di L. Boltzmann rappresenta uno dei passi fondamentali nello sviluppo dello studio dei sistemi complessi. Il programma di dare un fondamento, al tempo stesso meccanico e statitistico, alla trattazione dei sistemi, che obbediscono alle leggi della termodinamica, ha condotto ai primi progressi concettuali nella trattazione di sistemi, composti da un gran numero di unita' elementari in interazione tra loro (nel caso specifico, le molecole che formano un gas). L'altro progresso cruciale e' senza dubbio dovuto all' introduzione del concetto di caos deterministico, da parte del matematico francese Henri Poincaré. L' idea che un sistema, descritto dalle leggi deterministiche della meccanica classica, possa esibire genericamente un comportamento,di fatto, impredicibile é sicuramente uno dei punti di svolta più importanti nell' evoluzione del pensiero scientifico”. (Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 5). 19 “La visione meccanicistica, nella prospettiva di un universo Laplaciano, aveva per lungo tempo ristretto gli orizzonti della conoscenza, facendo riferimento a un insieme molto specifico e particolare di fenomeni. Nell'’universo di Newton e di Laplace l'elemento antropologico non é in alcun modo centrale: l'uomo é solo spettatore della mirabile armonia delle leggi che lo regolano e non é ritenuto in grado di corromperne la divina perfezione. Con Poincaré, tutto questo viene rimesso in discussione e sostanzialmente ridimensionato. Bisogna anche sottolineare il profondo legame concettuale esistente tra il punto di vista di Poincaré e quello di Boltzmann. Quest'ultimo, infatti, cerca di risolvere il problema della impossibilità di avere un controllo deterministico sulle traiettorie delle molecole di un gas, assumendo che il livello di conoscenza del sistema, che ci é accessibile e, quindi, che ci può interessare conoscere, é limitato ad una inferenza probabilistica sulle possibili configurazioni dinamiche, che il sistema può assumere. Occorre ricordare, a tale proposito, che già Maxwell aveva fatto ricorso all'introduzione, nelle sue argomentazioni scientifiche sui legami tra meccanica e termodinamica. di un demone Con questa "diavoleria” egli voleva sottolineare che la pretesa di conoscere ad ogni istante di tempo lo stato di moto di una mole di gas (all'incirca 1024 particelle) poteva essere solo prerogativa non umana, ma di un essere superiore, il cui accesso alla conoscenza potesse prescindere dalla necessità, tipicamente umana, di dover effettuare, per conoscere, una misura inevitabilmente affetta da errore”. (Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 6). 20 "Un tel changement est si profound que nous croyons en verité qu’il est maintenat possible de parler du’un nouveau dialogue de l’homme avec la nature". (Nicolis G., Prigogine I., A la rencontre du complexe, Presse Universitaire de France, Vendome, 1992, p. 3). 8
Il Paradigma Non Lineare/Proprietà dei sistemi complessi
1.3
COMPLESSITÀ O NON LINEARITÀ?
Occorre fare una distinzione terminologica che è stata adottata per lo svolgimento di questo trattato e che distingue (ma non contrappone) il concetto di Complessità a quello di Non Linearità. Con il termine complessità verrà fatto riferimento a quella serie di fenomeni scientifici non gestibili con gli apparati concettuali e metodologici derivanti dalle scienze classiche. In altri termini con l’idea di complessità si intende descrivere una situazione scientifica ed epistemologica che deriva dalla crisi del paradigma deterministico, e che è riconducibile al concetto di caos, di intrattabilità dei problemi, ed inconciliabilità fra i vari sistemi. Con il termine Non Linearità si fa riferimento ad un approccio scientifico, basato su di una logica Non Lineare, non reversibile e non riconducibile ad una serie di relazioni di tipo causa-effetto, il cui obbiettivo è di mettere a punto strumenti ed apparati concettuali capaci, forse, di far fronte ai problemi non risolvibili con le metodologie relative al paradigma deterministico. Per questo motivo in questo saggio verrà spostato l’accento dall’idea di Complessità a quella di Non Linearità.
9
Il Paradigma Non Lineare/Proprietà dei sistemi complessi
1.4
PROPRIETÀ DEI SISTEMI COMPLESSI
Nel fine di poter apprezzare l’impatto e le potenzialità di un approccio Non Lineare in architettura è necessario soffermarsi sull’analisi delle caratteristiche dei sistemi non lineari. Nel saggio Aspetti Elementari della complessità21 Livi e Rondoni, riassumono alcune proprietà fondamentali dei sistemi complessi, la prima delle quali, come evoca il termine stesso Non Lineare, indica l’impossibilità per un sistema di essere gestito con semplici
relazioni
superamento
di tipo causa effetto.22 Questa
della
logica
lineare
che
aveva
condizione, che implica il caratterizzato
il
paradigma
deterministico23, permette di sviluppare molteplici soluzioni a partire da un problema dato. Allo stesso modo una specifica soluzione può derivare da numerose origini. Questa proprietà che può potrebbe essere all’origine di una perdita di controllo sul sistema, se gestita in maniera efficiente, può dare origine ad una maggior ricchezza e flessibilità nella soluzione dei problemi. Livi e Rondoni affermano che è possibile descrivere un sistema complesso come: “un insieme di infinità in interazione attraverso leggi elementari, ma il cui comportamento collettivo può risultare enormemente più ricco di quanto ci si potrebbe attendere, a partire dalla conoscenza di tali leggi”
21
24
Livi R., Rondoni L., Aspetti elementari della complessità cit. “D’altronde il termine risulta abbastanza efficace nell’evocare gran parte degli aspetti che caratterizzano la sostanziale intrattabilità di tali sistemi, sulla base di semplici relazioni di causa-effetto.” (Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 2). 23 Livi R., Rondoni L., Aspetti elementari della complessità cit. 24 “Se fossi costretto a dare una definizione di sistema complesso, mi limiterei a dire che si tratta di un insieme di infinità in interazione attraverso leggi elementari, ma il cui comportamento collettivo può risultare enormemente più ricco di quanto ci si potrebbe attendere, a partire dalla conoscenza di tali leggi. L'esempio più illuminante di sistema complesso lo trasportiamo con noi tutti i giorni, dentro un contenitore osseo appoggiato sopra le spalle. Il cervello umano è, infatti, una collezione di cellule, dette neuroni (le unità di cui sopra), collegate attraverso connessioni sinaptiche ad altri neuroni, ai quali inviano segnali sotto forma di successioni di picchi di ampiezza, separati da brevi intervalli di silenzio. I picchi di ampiezza, che ciascun neurone trasmette attraverso le sinapsi agli altri neuroni, determinano la capacità di questi ultimi di inviare a loro volta i loro picchi di ampiezza ad altri neuroni e così via. Si potrebbe dire che ogni neurone e' un telegrafista, che invia segnali alle stazioni a cui e' connesso in uscita, secondo modalità stabilite dai segnali che gli pervengono dalle stazioni, con cui è connesso in ingresso: una sorta di grande gioco del passa-parola. Se pensiamo, però, che a partire da questi semplici meccanismi emergono capacità, come quella di distinguere immagini, ricordare, regolare i movimenti e così via, fino alla produzione del pensiero astratto, non possiamo evitare di concludere che il tutto mostri una ricchezza assolutamente strabiliante e inattesa, rispetto all’immagine di una miriade di telegrafisti impegnati a scambiarsi punti e linee. Analoghi scenari, anche se meno spettacolari, sono individuabili nei processi di auto-organizzazione, che caratterizzano la dinamica delle popolazioni, in cui alcuni soggetti competono tra loro, o con soggetti di altre specie, per adattarsi ad un paesaggio di risorse da condividere. In sostanza le specie evolvono alla ricerca di un qualche equilibrio, che, in sostanza, risulti vantaggioso per la riproduzione della specie. Come vedremo in seguito, modelli matematici molto semplificati di tali dinamiche già mostrano meccanismi di evoluzione estremamente complessi. Se ai soggetti di una popolazione sostituiamo gli agenti di cambio del mercato azionario e alle leggi di competizione tra animali quelle che determinano in un broker la propensione all’acquisto o alla vendita di un titolo azionario, ci ritroviamo un modello di evoluzione del mercato finanziario non meno ricco di aspetti sorprendenti. Senza compiere un grande sforzo di fantasia, ci può apparire altrettanto plausibile l’idea che una simile modellizzazione si possa trasporre ad altre situazioni, come ad esempio quella della evoluzione urbanistica di una moderna metropoli, o della dinamica di insediamenti umani in epoca protostorica, o di villaggi e città stato nell'antichità. Per evitare di cadere nell’equivoco di associare il concetto di complessità solo a sistemi di natura biologica o socio-economica, è opportuno 10 22
Il Paradigma Non Lineare/Proprietà dei sistemi complessi
Un sistema complesso si distingue pertanto dalla sua capacità di descrivere con un numero limitato di leggi dei fenomeni non analizzabili con un processo deterministico. Ne sono l’esempio alcuni strumenti quali le tecniche di riscrittura, gli automi cellulari o gli algoritmi genetici, che grazie alla ripetizione di un limitato numero di regole per migliaia di iterazione, permettono di
raggiungere risultati inapprocciabili
con
metodologie di tipo tradizionale. Un’altra caratteristica delle metodologie non lineari, si manifesta nell’approcciare in maniera olistica i problemi osservando simultaneamente le regole agenti in scala globale che su quelle operanti in scala locale, unendo quindi un approccio di tipo topdown ad un approccio botton up. La necessità di approcciare i problemi in maniera olistica dipende dall’elevato livello di interdipendenza fra le componenti del sistema, le quali sono caratterizzate da una serie di dinamiche di gruppo, capaci di innestare fenomeni evolutivi. (come verrà visto nel caso dei Complex Adaptive Systems). Questo tipo di proprietà permette di dare origine a fenomeni di tipo autoorganizzativo e di ricondurre a forme di ordine sistemi che, secondo un’analisi tradizionale, potrebbero apparire caotici. I sistemi complessi vanno pensati come in perenne trasformazione, pertanto la loro analisi favorisce la ricerca di una serie di proprietà dinamiche che ne rappresentino il comportamento a scapito della descrizione delle configurazioni statiche assunte nelle condizioni di equilibrio. L’impredicibilità diventa una parte costituente dei sistemi analizzati dove ordine e disordine coesistono nello stesso insieme. 25 (Questa idea si ricollega al concetto di entropia che verrà analizzato nel paragrafo Errore. L'origine riferimento non è stata trovata..) Dovendo individuare le proprietà dei sistemi complessi con una serie di parole chiave: - Non Linearità - Interdipendenza fra le parti - Poche regole applicate per produrre risultati complessi
ricordare un esempio paradigmatico nell’ambito delle scienze fisiche. L’atmosfera terrestre è formata da un numero enorme di molecole allo stato gassoso, che interagiscono tra loro a livello microscopico attraverso collisioni. In prima approssimazione possiamo considerare queste collisioni elastiche. Vista anche la semplicità di tali interazioni le leggi della meccanica newtoniana dovrebbero fornirci, in linea di principio, una completa conoscenza dell’evoluzione atmosferica, cosa che invece sappiamo essere ben lungi dall’essere facilmente accessibile. L’origine dell’enorme variabilità dei fenomeni atmosferici e della loro impredicibilità su scale di tempo arbitrariamente lunghe sta proprio nel fatto che il comportamento collettivo delle tante molecole presenti nell' atmosfera non è banalmente riconducibile alle leggi microscopiche elementari. Queste caratteristiche emergono, piuttosto, dalla coerenza imposta da leggi di conservazione e da vincoli esterni, che determinano il comportamento su larga scala (idrodinamico) dell’atmosfera”. (Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 3). 25 “L'impredicibilità è un elemento costitutivo di un' evoluzione complessa, ma non sufficiente a fornirne una definizione. Infatti, un sistema appare tanto più complesso, quanto più evolve in modo difficilmente riconducibile ad una descrizione semplice, manifestando una varietà e una ricchezza di comportamenti, in cui ordine e disordine coesistono.” (Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 5). 11
Il Paradigma Non Lineare/ProprietĂ dei sistemi complessi
- Approccio olistico - ProprietĂ emergenti - Fenomeni auto-organizzativi - Non equilibrio
12
Il Paradigma Non Lineare/Il problema della complessità in architettura
1.5
IL PROBLEMA DELLA COMPLESSITÀ IN ARCHITETTURA
“First, these observations originated at a moment when the whole architectural world was dealing with complexity, with the idea of endlessness. There were architects on the American East Coast, drawing on the work of French philosophers, who wanted to address architecture in a more "philosophical" way by literally mirroring chaos in their buildings. There were deconstructivists who would simply put bits of rubbish on top of each other and say, that’s 26
complexity”.
La transizione fra il paradigma Determinista e quello Non Lineare ha avuto un forte impatto sul piano architettonico. Come appare dalla lettura di trattati come Complexity and Contradiction27 di Venturi e Choral Works28 di Derrida, Eisenman e Kipnis29, l’interesse degli architetti dei primi anni novanta si rivolge principalmente al concetto di complessità in termini di caos, di intrattabilità dei problemi e di conflittualità fra sistemi. Il ripensamento metodologico, avviene principalmente attraverso la lettura in chiave architettonica del lavoro dei filosofi Deleuze e Derrida. A questo proposito l’architetto olandese Winy Maas30 descrive con ironia il fenomeno in questione, affermando che gli architetti americani della costa Est, disegnavano sul lavoro dei filosofi francesi volendo proiettare letteralmente il caos nei loro progetti. L’introduzione di alcune delle metodologie derivanti dalle Scienze della complessità ha permesso di cambiare questo stato di fatto introducendo una serie di nuovi strumenti grazie ai quali fosse possibile controllare procedimenti basati su di una logica non lineare.
26
Maas W., Interview, The Yale Architectural Journal (a cura di), Perspecta 35 - Buildings codes, MIT Press, Cambridge, 2004, p. 51. Venturi R., Complexity and Contradiction cit. 28 Derrida J., Eisenman P., Kipnis J., Choral Works, AA Publications, London, 1988. 29 Jeffrey Kipnis è curatore della sezione architettura e design al Wexner Center per le Arti e Professore di Architettura all’Università dell’Ohio. E’ autore di In the Manor of Nietzsche (1990), Philip Johnson: The Glass House (1993), Choral Works: the Eisenman/Derrida Collaboration (1997) e Perfect acts of Architecture (2001). 30 Winy Maas è fondatore e partner di MRVDV. Lo studio è conosciuto per i suoi progetti provocativi come Metacity e Datatown e Pig City che combinano tecnologia e sostenibilità. Ha ricevuto numerosi premi per il design e tiene conferenze negli istituti di tutto il mondo. Ha insegnato alla Yale University, al Berlage Institute, all’Architectural Associations di Londra e al Politecnico di Vienna. 13 27
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
1.6
COMPUTER SCIENCE E ARCHITETTURA DIGITALE DUE UTOPIE
“Et je fais une distinction entre l’”esprit” et l’”intelligence (…) L’intelligence est un instrument donné par la nature. Il y a l’esprit et l’instrument. L’esprit c’est l’âme, l’intelligence, c’est l’instrument. Les machines que nous faisons aujourd’hui, pour calculer, pour enregistrer, ce
qu’on appelle
computer, ont
une
certaine
intelligence, mais jamais un esprit, un esprit les créer, mais ces machines ne vous donneront jamais quelque chose qu’un cerveau ne puisse faire.”
31
In Silence et Lumière, sottolineando la differenza fra spirito e intelligenza, Louis Kahn tocca nel vivo uno degli aspetti fondamentali della relazione esistente fra Scienze della Complessità
e
Computer
Science,
fra
Progettazione
Digitalmente
Assistita
e
Architettura Digitale. In effetti Kahn denota una chiara distinzione fra gli strumenti e la mente che li concepisce. Il potenziamento della capacità di calcolo dei computer e la messa a punto di programmi capaci di implementare tramite una serie di algoritmi le teorie scientifiche e progettuali, ha trasformato i calcolatori in veri e propri strumenti di ricerca e di verifica. Questo stato di fatto ha portato a creare una forte ambiguità sul ruolo effettivamente svolto dai calcolatori nella formulazione di teorie scientifiche e nella progettazione architettonica. E’ quindi di fondamentale interesse fare una distinzione fra gli apparati teorici e concettuali che stanno alla base di una ricerca e la loro verifica attraverso l’uso dei computer.
31
Kahn L., Silence et lumière 1969, Cahier de théorie, Presse Polytechnique et Universitaires Romandes, p. 46.
14
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
1.6.1 Computer Science? “E’ opportuno sgombrare il campo anche dall'equivoco che i sistemi complessi siano, come qualcuno sembra credere, rappresentativi di ciò che è possibile studiare solo attraverso il calcolatore. Sarebbe come credere che saper fare il 32
pane dipenda dall'esistenza delle impastatrici meccaniche. 33
La Computer Science
è una disciplina accademica che basa sull’analisi hardware,
software dei sistemi che derivano dalla computation theory. E’ una disciplina che si focalizza
sulla
gestione
della
complessità,
nella
costruzione
di
linguaggi
di
programmazione ottenuta mediante modellazioni matematiche ed astrazioni della realtà. Un computer system è un automa, o sistema automatizzato, capace di compiere attraverso una sistema di algoritmi, una serie di operazioni di calcolo. L’utilizzo di un linguaggio matematico applicato su computer dall’elevatissima capacità di calcolo permette di verificare -e talvolta di mettere a punto- le teorie scientifiche. In particolare la capacità di verificare molto rapidamente gli effetti derivanti dall’applicazione di una serie di regole per un elevatissimo numero di iterazioni, ha portato alcuni scienziati a pensare che fosse possibile approcciare la scienza in una maniera completamente diversa da quella tradizionalmente adottata. Steven Wolfram,
3435
Per esempio
36
in a New Kind of Science , afferma che sia possibile, attraverso i
computer, operare una vera e propria ricerca scientifica a partire dalla quale sia possibile oltre che, di analizzare e verificare ipotesi derivanti da altri ambiti disciplinari, mettere a punto nuovi modelli scientifici capaci di spiegare e comprendere fenomeni non gestibili con procedimenti di tipo tradizionale. La possibilità di verificare
32
Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 5. “Computer Science, an academic discipline, is a body of knowledge generally about computer hardware, software, computation and its theory. The discipline focuses on the management of the complexity in the construction and analysis of computer system. The computer's operating system controls the hardware by its software with algorithms. Software involves a study of computer languages and programming paradigm, which further involves mathematical practices and abstraction. Hardware involves the study of computer architecture and its peripheral. A computer system is a means to automate tasks and to execute computational systems. Hardware and program construction are the engineerial aspects, related to computer engineering and information. Computer scientists, on the other hand, go deeper into computability and are distinguishable by their higher-level of innovative or theoretical expertise in technology. Computer Science is arguably more like mathematics, which does not follow with the scientific method, so many often challenge CS as not being a science. Some, in popular language, have leniently tried to use Computer Science as to denominate anything related to computer, while others have tried to use Computer Science to denote specifics related to computational science. These facts are not unanimously accepted, so there are diverse technical definition of Computer Science.” 34 “Stephen Wolfram is a scientist, author, and business leader. He is the creator of Mathematica, the author of A New Kind of Science, and the founder and CEO of Wolfram Research. His career has been characterized by a sequence of original and significant achievements”. Disponibile all’indirizzo http://www.stephenwolfram.com/about-sw/ 35 “Stephen Wolfram (born August 29, 1959 in London) is a scientist known for his work in cellular automata and computer algebra, and is the creator of the computer program Mathematica.” 36 From 1992 to 2002, Wolfram worked on his controversial book A New Kind of Science (NKS), which introduced and justified the systematic, empirical study of very simple computational systems. Additionally, it argued that for fundamental reasons these types of systems, rather than traditional mathematics, are needed to model and understand complexity in nature. Ulteriori informazioni sono disponibili all’indirizzo: http://en.wikipedia.org/wiki/Stephen_Wolfram#Mathematica_and_later_work 15 33
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
in tempo reale l’effetto derivante dall’applicazione di poche regole elementari caratterizzate da un elevato livello di interdipendenza, ha permesso di lavorare su 37
problemi scientifici fino ad oggi inavvicinabili . Questo dato di fatto ha portato all’assunzione di alcune posizioni estreme, come per esempio quella di Wolfram, secondo il quale grazie alla Computer Science sarebbe addirittura possibile spiegare 38
l’origine stessa della vita sulla terra . Sulla base di questo presupposto negli anni ’80 egli ha sviluppato il software Mathematica
39
da utilizzare come un vero e proprio
strumento di ricerca. Secondo Wolfram è solo in questo modo che è possibile mettere a punto una vera legge fisica fondamentale capace di spiegare i fenomeni che regolano la natura che ci circonda. Tuttavia come sottolineano Livi e Rondoni è importante far luce sull’equivoco secondo il
quale
la
computer
science
possa
essere
considerata
come
una
scienza
autosufficiente. “La macchina ci aiuta sicuramente a raggiungere lo scopo, ma non é detto che non si possa o non si debba fare di meglio. Lo studio dei sistemi complessi non ha come obiettivo quello di descrivere certi fenomeni, attraverso la simulazione numerica, ma quello di comprendere le leggi che li regolano, nella speranza di poter effettuare delle predizioni e quindi poter esercitare un controllo su di essi. E’ necessario però sapersi accontentare, abbandonando la pretesa che questa classe di fenomeni siano comprensibili sulla base del determinismo meccanicistico”.40
In conclusione per quanto la portata ideologica di Wolfram non sia perfettamente condivisibile, appare evidente che la computation theory (e quindi la Computer Science che da essa deriva) è una metodologia capace di essere estremamente rigorosa in quanto si appoggia su di una struttura matematica molto chiara
41
e che
pertanto, contribuisce in maniera sostanziale alla ricerca scientifica contemporanea (basti pensare per esempio ai recenti progressi della ricerca genetica, alla biomatematica ecc). La Computer Science va quindi intesa come una metodologia grazie alla quale è possibile provare a sperimentare modelli la cui logica e la relazione
37
Come afferma John Holland del Santa Fe Institute una delle componenti essenziali degli algoritmi genetici, da considerarsi una delle versioni più sophisticate di algoritmo a oggi esistente, si basa sulla ripetizione per migliaia di iterazioni di una delle operazioni di calcolo più elementari alle quali si possa far riferimento e che consiste nel comando trova (search) una specifica sequenza. Le potenzialità di tale algoritmo sono fortemente connesse alla capacità di calcolo dei computer. 38 “Starting from a collection of simple computer experiments--illustrated in the book by striking computer graphics-Stephen Wolfram shows how their unexpected results force a whole new way of looking at the operation of our universe” (…)Wolfram uses his approach to tackle a remarkable array of fundamental problems in science, from the origins of apparent randomness in physical systems, to the development of complexity in biology, the ultimate scope and limitations of mathematics, the possibility of a truly fundamental theory of physics, the interplay between free will and determinism, and the character of intelligence in the universe. 39 “Mathematica is a widely-used computer algebra system originally conceived by Stephen Wolfram, developed by a team of mathematicians and programmers that he assembled and led, and sold by his company Wolfram Research. Mathematica is also a powerful programming language emulating multiple paradigms on top of term-rewriting.” Disponibile all’indirizzo: http://en.wikipedia.org/wiki/Mathematica 40 Livi R., Rondoni L., Aspetti elementari della complessità cit. 41 Feldman D., Automata and Computation Theory, in Atti di CSSS 2005, Complex Systems Summer School, The Santa Fe Institute, Pechino, 2005. 16
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
con la realtà non può prescindere dal sapere relativo alle discipline su cui essa 42
opera .
Immagine 2 – Alcune immagini appartenenti alla preistoria dei computers Immagini disponibili all’indirizzo: http://www.repubblica.it/2005/j/gallerie/scuola/storiainformatica/storiainformatica.html
42
E’ interessante notare che se gran parte degli strumenti matematici sui quali si basa l’attuale Computer Science fossero già stati sviluppati nel corso degli anni ’60 e ’70 è solo nell’ulimo ventennio che, grazie alla possibilità di utilizzare processori molto veloci e grazie ad un cambio di atteggiamento degli scienziati in relazione ai computer, che è stato possibile ottenere risultati rilevanti dall’intreazione uomo-processore.In effetti la difficoltà di verifica e calibrazione dei modelli, causata dalla lentezza dei calcolatori, non permetteva di utilizzarli come strumenti di lavoro da perfezionare poco a poco. Nella letteratura dell’epoca si scorge pertanto una forte ironia nel descrivere questi modellatori come degli oracoli che dopo mesi di calcoli fornivano risposte errate al punto da sembrare grottesche. Questo tipo di problema dipendeva non tanto dall’inefficienza nella concettualizzazione dei problemi quanto da un limite tecnico che impediva di calibrare la loro traduzione in linguaggio matematico e da un limite concettuale di impronta deterministica che aveva con il computer un approccio di tipo problem solver (in cui si pensa che la macchina sia in grado di risolvere autonomamente una serie di problemi). 17
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
1.6.2 Architettura digitale? “L'architettura è invenzione plastica, è speculazione intellettuale, è matematica 43
superiore”.
“Complexity theory and all terminology that came with it was a way of coming to grips with the fact that, because of the computer, calculus had taken over our 44
design tools”.
Secondo Greg Lynn
45
la teoria della complessità e tutte le terminologie che essa
comportava, erano un modo per arrivare ad affrontare il concetto secondo il quale grazie ai computer, il calcolo abbia rimpiazzato i nostri strumenti di progettazione tradizionali. Nelle affermazioni di Greg Lynn appare chiaramente il problema relativo all’ambiguità che è andata manifestandosi fra lo sviluppo di nuovi strumenti e lo spirito con cui rapportarsi ad una specifica disciplina, e che in campo progettuale ha contribuito alla creazione di una certa
confusione fra Progettazione Digitalmente
Assista e Architettura Digitale. Questa distinzione che a oggi può sembrare banale, negli anni novanta, quando le metodologie progettuali sono state fortemente influenzate dall’introduzione massiccia di software importati da altre discipline, non era da considerarsi scontata. 46
In Automation Based Creative Design
Tzonis e White, descrivono la l’evoluzione della
relazione fra programmi e strumenti di progettazione avvenuta fra gli anni sessanta ed ottanta. Il dibattito sulla progettazione digitalmente assistita opponeva al concetto di efficacia quello di efficienza. Nel primo caso che si manifestava per esempio nelle ricerche sulle “Space Space Allocation Techniques”, l’obbiettivo era di fare del computer un vero e proprio apparato progettuale di impronta determinista, capace di compiere in maniera semi autonoma una serie di scelte ed operazioni progettuali. Nel secondo caso invece, che si concretizza nella messa a punto di software come CAD (Computer-Aided Drafting), la finalità era di aumentare l’efficienza produttiva. L’idea sulla quale si basava questo tipo di approccio, era di sfruttare l’enorme potenzialità di calcolo dei computer per svolgere in tempi brevi un elevatissimo numero di operazioni. La finalità era di alleggerire il progettista dalla necessità di
43
Le Corbusier, Urbanistica cit., p. 175. Lynn G., Index Architecture, MIT Press, Cambridge, 2003, p. 28. 45 Greg Lynn è il direttore del Greg Lynn Form di Los Angeles, studio specialiozzato nell’adattare le tecnologie provenienti dall’industria aeronautica, automobilistica, e cinematografica per creare forme innovative per l’Architettura. Tra i suoi lavori si annoverano la realizzazione di un progetto di pianificazione sociale per l’edilizia abitativa intensiva in Amsterdam, il design di un set tè e caffè per Alessi e la partecipazione al concorso di idee per la realizzazione del nuovo World Trade Center. E’ insegnante alla Università della California in Los Angeles, alla Columbia e alla Yale University e ancora alla Università per le Arti Applicate di Vienna. 46 Tzonis A., White I., Automation Based Creative Designn cit. 18 44
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
compiere una serie di operazioni manuali ripetitive ed intellettualmente poco impegnative. Nel caso delle Space Allocation Techniques, il computer veniva concepito come un vero e proprio automa progettuale. Questo tipo di approccio era
di forte impronta
positivista in quanto si basava sulla convinzione di poter sopperire, grazie all’uso di un sistema logico rigoroso, al bagaglio culturale del progettista. In altri termini grazie allo sviluppo di software progettuali, sarebbe stato possibile raggiungere gli stessi (se non migliori) risultati che avrebbe ottenuto un professionista di grande esperienza. E’ possibile affermare che la modalità e le ambizioni con le quali venivano progettati i software riflettevano pienamente i presupposti -e quindi i limiti- del paradigma deterministico. La struttura logica del pensiero avrebbe dovuto soppiantare qualsiasi forma di accumulazione di sapere o di memoria. I limiti dimostrati dalle Space Allocation Techniques all’atto pratico hanno messo in crisi, non solo gli strumenti ma anche i presupposti metodologici sui quali essi si basavano.
In effetti la grande
difficoltà, se non addirittura l’impossibilità, di arrivare a risultati ai quali un qualsiasi progettista sarebbe potuto giungere in un tempo brevissimo (come nel caso della distribuzione degli arredi in una stanza), ha messo fortemente in questione la possibilità di utilizzare i software come apparati progettuali autosufficienti o come automatismi progettuali. Il declino delle Space Allocation Techniques è evoluto parallelamente al successo dei software di Computer-Aided Drafting. Liberato da compiti tediosi e ripetitivi, il progettista, poteva investire il suo tempo in operazioni progettuali di maggior portata 47
intellettuale.
“The computer was approached more as a number-crunching machine than as an aid to thinking”.
48
E’ interessante notare come la crisi del paradigma deterministico che si è manifestata in ambito scientifico ed architettonico, si sia riflessa sullo sviluppo di programmi e supporti digitali per la progettazione.
47
“However, it is interesting to observe that the very success of CAD was a factor of resistance to change. Once more, as in the case of Space Allocation Techniques, the eventual problem was the contrast between the initial over-inflated expectations, and the later unjustifiable disappointments. The initial success played a negative róle in the long run. It confined the users of the techniques within the tacit presuppositions of the paradigm. When, by the mid 1980's, efforts began to be made to link CAD with design knowledge, they ran into the dilemma, familiar from Space Allocation Techniques, between the effectiveness and the efficiency of the system. Locked up in its paradigm, CAD found it impossible to resolve this dilemma, and so impossible to advance further. The more CAD was accepted into architecture, on the grounds of its undeniable capabilities for carrying out drafting feats, the more frustration grew from the realisation that these were all low-level services and that they could not be significantly upgraded. What we said about Space Allocation Techniques can be repeated about CAD. Automation-based drafting techniques were capable of executing feats of drawing so tedious that no human being could endure them, but they could not carry out the most simple design act, such as adapting a simple load-bearing structure to a plain piping network. This was because CAD techniques, like these of Space Allocation, performed well numerically and parametrically, but had no architectural competence beyond that of a kind of large-scale calculator. Was there life for the computer beyond this? Was there an altemative.” (Tzonis A., White I., Automation Based Creative Design cit., p. 6). 48 Ivi. 19
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
Secondo Tzsonis a partire dalla metà degli anni ’80 oltre che per compiere operazioni tediose e ripetitive, il computer è stato visto come uno strumento di supporto del pensiero (reasoning support machine) e non più come uno automa finalizzato a trovare soluzioni. Conseguentemente si sono modificate le proprietà ed attributi da ricercarsi in un software di progettazione. L’interesse è andato spostandosi dalla messa a punto di programmi capaci di risolvere problemi, a quelli incentrati rappresentazione degli stessi. Probabilmente è proprio a partire dalla variazione dei presupposti metodologici relativi all’utilizzo dei computer nella progettazione che, negli anni ’90, si è manifestato un forte interesse per i
software derivanti
dall’industria del
cinema, capaci
di
rappresentare più che di risolvere. L’interesse per programmi come Maya basati sulla produzione di animazioni è andato crescendo nel corso di tutti gli anni ’90. L’uso di tali strumenti ha permesso di visualizzare quelle relazioni astratte che sono componenti effettive del processo progettuale ma che difficilmente possono essere rappresentate con sistemi tradizionali. La realizzazione di software che permettessero di lavorare con elementi del progetto che fino ad allora non erano rappresentabili (basti pensare alla componente dinamica dell’utilizzo dello spazio in funzione del tempo), ha permesso di sistematizzare quei problemi che fino ad allora erano rimasti nell’indeterminatezza.
49
Anche secondo Manuel Delanda attraverso la mutazione della maniera secondo la quale operano alcuni software è possibile leggere l’evoluzione del pensiero scientifico di una determinata epoca. Dall’utilizzo di software rigidi operanti con geometrie euclidee (quali le prime versioni di autocad), si è passati a software di modellazione avanzata come 3dMax in cui le geometrie non erano più di derivazione euclidea ma 50
topologica , per finire con l’introduzione di softwares come Maya Wave Front grazie ai quali è possibile lavorare direttamente con strumenti derivanti dalle Scienze della Complessità come per esempio avviene nel caso dell’utilizzo di algoritmi generativi, tecniche di riscrittura automi cellulari.
49
Per esempio l’agenzia GP descirve che una delle loro priorità è quella di eesere in grado di rappresentare chiaramente i concetti con i quali stanno lavorando. La possibilità di analizzare nel corso delle varie iterazioni. (The first object of intensive research for Agency GP was the spatial model we would use to represent the concepts we are manipulating. We went through several iterations, finally settling on a fairly simple but powerful representation: freeform plane curves, allowed to intersect, union, and subtract from one another, then extruded into space. The model is capable of describing a vast array of conditions with very different implications for architectural design). Disponibile all’indirizzo: http://www.ai.mit.edu/projects/emergentDesign/agency-gp/acsa-prez/simonàcsa_files/frame.htm (15/01/06). 50 La topologia o studio dei luoghi (dal greco τοπος, luogo, e λογος) è una delle più importanti branche della matematica moderna. Si caratterizza come lo studio delle proprietà delle figure e delle forme che non cambiano quando viene effettuata una deformazione senza "strappi", "sovrapposizioni" o "incollature". Concetti fondamentali come convergenza, limite, continuità, connessione o compattezza trovano nella topologia la loro migliore formalizzazione. La topologia si basa essenzialmente sui concetti di spazio topologico e omeomorfismo. Col termine topologia si indica anche la collezione di aperti che definisce uno spazio topologico. Disponibile all’indirizzo: http://it.wikipedia.org/wiki/Topologia (13/03/06). 20
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
Immagine 3 - Una schermata del software Maya, in cui si vede un applicativo di L-System. Il progetto è trascritto in una serie di regole traducibili in linguaggio simbolico e gestito tramite la calibrazione di una serie di parametri. Immagine realizzata da Caterina Tiazzoldi.51
Negli anni ’90 le potenzialità derivanti dai nuovi software, che si manifestavano sia nel 52
tipo di forme producibili sia nella metodologia grazie alla quale esse erano ottenute , ha dato il via ad una nuova stagione della ricerca in architettura. Secondo Greg Lynn in quel decennio è iniziata una fase di esplorazione delle potenzialità racchiuse nelle nuove tecniche, talvolta anche sovrastimandole. L’utilizzo dilettantistico dei nuovi strumenti disponibili ha provocato dei fortunati incidenti che permettevano di scoprire forme fino ad allora inimmaginabili. E’ possibile sostenere che l’utilizzo di tali apparati progettuali presentasse delle analogie con la maniera con la quale gli artisti si rapportavano agli automatismi nel periodo surrealista.
53
In effetti grazie alla capacità del software di svolgere semi-
autonomanente alcune delle operazioni, era possibile di giungere a risultati
51
Si veda: Si veda: Tiazzoldi C., Ricerca di forma: Karl Chu Studio, Apparato 1 del presente lavoro. Si veda: paragrafo 0 53 Automatism is a surrealist technique involving spontaneous writing, drawing, or the like practiced without conscious aesthetic or moral self-censorship. Automatism in Surrealism has taken a many forms, from the automatic writing and drawing initially practiced by surrealists, to similar, or perhaps parallel phenomena, such and the non-idiomatic improvisation of free jazz .Disponibile all’indirizzo: http://en.wikipedia.org/wiki/Surrealist_automatism. 21 52
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
estremamente innovativi
54
ai quali il solo progettista, senza il supporto dei nuovi
strumenti, sarebbe difficilmente arrivato. Lynn afferma che la reazione alla difficoltà di controllo di tali apparati, ha portato a considerare il mezzo stesso come un "decisore" autosufficiente e di conseguenza a 55
cercare in esso una giustificazione delle scelte progettuali . Secondo l’architetto americano, queste sperimentazioni di tipo amatoriale erano da considerarsi molto limitate in quanto negavano uno degli aspetti fondamentali dei modelli progettuali e 56
che consiste nella capacità di essere riproducibili in diverse applicazioni ; in effetti per poter riprodurre un modello è necessario capirne a fondo il funzionamento.
57
Per fronteggiare l’assenza di controllo derivata dall’introduzione di nuovi software ed il formalismo espressionista che ne è conseguito, Lynn afferma di aver cercato di prendere decisioni in maniera non aleatoria operando con un atteggiamento, che egli stesso oggi definisce come pseudoscietifico e che si concretizzava nella volontà di controllare sia concettualmente che formalmente il processo progettuale. Lynn afferma di aver utilizzato gli strumenti in questione con l’approccio quasi determinista e positivista che aveva distinto la prima parte degli anni ottanta e che dopo dieci anni dall’adozione di tale metodologie, questa forma di processo automatico pseudoscientifico, appare come
estremamente ingenua: l’idea di concepire un processo
progettuale come puramente oggettivo per il semplice fatto che esso derivi da un procedimento computerizzato, è un concetto degli anni Novanta al quale egli non si 58
sentirebbe più di aderire.
A supportare questa visione si trova Mary McLeod
59
la quale, nel corso del convegno
The State of Architecture at the Beginning of the XXI
54
Century, critica fortemente
Come si vedrà nel paragrafo Errore. L'origine riferimento non è stata trovata., l’utilizzo di uno strumento automatico come apparato esplorativo si manifesta anche in alcune applicazioni dei modelli scientifici. “As to the question, please don't say that I said that "Is it really true that the design process it is so objective and self sufficient that it doesn't requires any more a designer? […] I couldn't disagree more. I would say that: The introduction of the computer, as does any new medium, make everyone an amateur. The response to this lack of facility with a new tool is to look for justifications for design. These take two forms: expressionism (this makes me feel good but I can't explain it) or pseudo-scientific objectivism (it is that way because of context, program, analysis, etc...). Now, ten years later, we can develop an aesthetic argument so that we can judge design without reverting to expressionism or automatic or quasi-objective justifications.” (Greg Lynn, corrispondenza con Caterina Tiazzoldi, giugno 2004) 56 "Une fois découverte - souvent à I'occasion de processus automatiques ou d'heureux accidents - la capacité que possède une technique de produire certains effets dans une discipline donnée, I'étape suivante consiste à les reproduire de manière rigoureuse en les accompagnant d'un discours esthétique, social, culturel et technique. L'exposition Architectures non standard annonce la fin de la première étape et le début de la seconde travailler éternellement en misant sur quelques heureux accidents ne fonctionne pas; car après avoir produit quelque chose par hasard, il faut pouvoir, la fois suivante, le reproduire Intentionnellement. Si I'on diffère toujours le moment d'afficher ses intentions en se dissimulant derrière une méthode s'appuyant sur la répétition de découvertes accidentelles, on aboutit à une impasse." (Migayrou F. (a cura di), Architectures non standard, Catalogo della mostra, Centre Pompidou, Paris, 2003, p. 93). 57 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata.. 58 “This also requires designers and design intelligence immediately. The idea that design on a computer is objective is a very 90's formulation and I would not subscribe to such a position at this moment”. (Greg Lynn, corrispondenza con Caterina Tiazzoldi, giugno 2004) 59 Mary McLeod è laureata in architettura a Princeton e attualmente è professore di Storia alla Graduate School of Architecture, Planning and Preservation della Columbia University a New York. Mary McLeod è laureata in architettura a Princeton e attualmente è Professore Associato di Storia alla Graduate School of Architecture, Planning and Preservation della Columbia University a New York. La sua attività di ricerca si concentra sulla storia del movimento moderno e contemporaneo, in particolare sulle connessioni tra architettura e ideologie. E’ 22 55
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
l’utilizzo del computer come strumento di progettazione in quanto esso rievoca tutti i limiti del funzionalismo del movimento moderno e dall’approccio al progetto influenzato dalle teorie sistemiche di Alexander degli anni ‘60. Non importa quanto siano sofisticati i software o quanto sia elevato il numero delle variabili che si riescono ad immettere in fase di progettazione, il risultato rimane troppo distante dai bisogni effettivi, dai desideri che siano essi materiali o simbolici.
60
E’ opportuno sottolineare che a partire dall’inizio del nuovo decennio è avvenuto uno spostamento di presupposti metodologici. Se negli anni ’90 l’impatto di nuove tecniche e metodologie è stato talmente forte da indurre -come è avvenuto nel caso dell’ambiguità esistente fra Computer Science e ricerca scientifica- alcuni progettisti a pensare di riuscire a gestire attraverso il computer l’intero processo progettuale in maniera talmente oggettiva dall’essere completamente automatizzabile, nel decennio successivo la portata ideologica del nuovo approccio è stata completamente ridimensionata. E’ importante notare che, per quanto oggi sarebbero pochi i progettisti pronti a sostenere la tesi di controllare l’intero processo progettuale a partire da un serie di modalità automatiche eseguibili con l’utilizzo del computer, sono numerosissime le situazioni in cui il computer opera come un vero e proprio strumento di supporto alla progettazione. Alcuni software, grazie alla loro capacità di gestire attraverso una serie di relazioni parametriche, dinamiche, e di regole generative, permettono di manipolare un livello di complessità che non sarebbe ottenibile con l’utilizzo di metodologie tradizionali. La
possibilità
di
inserire
-tramite quello
che
viene
solitamente chiamato scripting- le regole (espresse tramite linguaggio simbolico61) che permettono di controllare alcune parti del processo progettuale, giustifica l’enorme successo di software che, come Catia, Maya e successivamente Max e Rhino, sono in grado di ricevere e di trasferire sui modelli tridimensionali una serie di regole formali definite dal progettista. Il potenziale derivante dalla traduzione di alcuni
coeditrice di Architecture, Criticism e Ideology (1985) e Architectureproduction (1988) ed ha recentemente terminato un testo sulla designer francesce Charlotte Perriand. 60 "Both approaches risk a certain hermeticism and solipsism. The biotechnical tendency, represented at its most extreme by Karl Chu's morphogenetic model but also more generally by the persistent cali for a computer-generated, objective design process, recalls the limitations of the functionalism advocated by the modern movement and of the design methodologies influenced by 1960s systems theory, notably Christopher Alexander's pattern language. No matter how sophisticated the computer program or how comprehensive the variabies to be accommodated, the resultant forms remain removed from actual needs and desires, whether materiai or symbolic. (…)Paradoxically, in this regard the new biotechnical determinism recalls intuitive neoexpressionist approaches, which overtly acknowledge their formai origins. There are also stylistic similarities between the two. Just as the idiosyncratic serial variations of biotechnical approaches have at times produced a relentless sameness-a homogeneity stemming from overwrought particularity without hierarchy-wilifully intuitive designs also often result in a certain sameness of style, reminding us how small the innovative dimension of form can ever be. Here, the more restrained models of autonomous form calling for a return to type and "sameness" might seem a welcome alternative, if only for their realism about the limits of formai variation and invention. However, in contrast to typological investigations in the 1960s and 1970s, which were linked to a desire for communication and public legibility, these more recent theoretical models conceive variation (for example, the notion of species) as occurring almost semiautomatically, without conscious intent. Again the rhetoric draws on biological metaphorsbreeding, proliferation, mutation, evolution-recalling the determinist strains of the first model. Both tendencies suggest another dimension of form: the formulaic”. (McLeod M., Form and function today, in: Tschumi B, Cheng I., The State of Architecture at the Beginning of the 21st Century, The Monicelli Press, New York, 2003., p. 50). 61 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata.. 23
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
problemi in regole capaci di influire come vincoli dinamici del modello, si manifesta sia sul piano formale che su quello tecnologico e strutturale. Ne sono la prova la gestione del processo concettuale e produttivo espresso tramite l’idea di associatività di Cache o nella gestione di sistemi costruttivi complessi come avviene nel caso degli applicativi sviluppati da Gehry Technologies. L’interesse del computer si manifesta quindi nella possibilità di formalizzare una serie di regole definite dal progettista in maniera tale da trasformarle in un sistema di vincoli operanti in fase di modellazione. Ritornando alla domanda iniziale di questo saggio: fino a che punto è possibile tradurre un progetto in una serie di regole automatiche al punto dall’essere eseguibili da un computer? In che misura questa ambizione rischia di riaprire le stesse problematiche
derivanti da un approccio
positivista a cui alludevano Tzomis e McLeod? Fino a che punto l’utilizzo di regole ed apparati concettuali di impronta non determinista derivanti dalle Scienze della Complessità può permettere di ovviare questo tipo di problemi?
24
Il Paradigma Non Lineare/Computer science e architettura digitale:due utopie
1.7
STRUMENTI NON LINEARI COME SISTEMI EURISTICI
“Nel caso della descrizione di un sistema urbanistico, o economico, le regole di interazione non sono deducibili da misure sperimentali, ma in genere vengono stabilite sulla base di inferenze, assunte come rilevanti dal ricercatore, o da una comunità di ricercatori. Non vi è niente di illegittimo in tutto questo, purché si tenga presente che le ipotesi costitutive di un modello, costruito, vanno validate a posteriori
ed
eventualmente
modificate,
qualora
risultino
in
evidente
contraddizione con le osservazioni. In altre parole, gli aspetti soggettivi, introdotti nella scelta di ciò che riteniamo essere rilevante nella definizione di un modello matematico, devono sempre essere esplicitamente dichiarati e sottoposti ad un 62
controllo critico.”
Nel paragrafo precedente è stato osservato come negli anni ’90 l’introduzione massiccia del computer nel processo progettuale abbia avuto due tipi di conseguenze, da un lato un approccio di tipo espressionista derivante dall’assenza di controllo sugli strumenti e finalizzato sostanzialmente alla ricerca di forma; dall’altro una visione del computer come uno strumento pseudo-scientifico capace di produrre degli apparati progettuali completamente automatizzati a partire dal quale il progetto sarebbe stato dedotto in maniera oggettiva ed inconfutabile. E’ stato visto come queste due posizioni estreme sono state superate a favore di una visione in cui l’utilizzo di modelli progettuali è finalizzato alla comprensione ed all’esplorazione di un tema preciso relazionato alle domande formulate dal progettista. Tali strumenti sono sostanzialmente da intendersi come interfacce grazie alla quale un architetto può verificare ed esplorare le sue ipotesi nei confronti di un problema dato. Questa idea è confermata dalla posizione di
Peter Eisenman secondo il quale 63
progettare non significa schiacciare un bottone e vedere cosa succede , quando si utilizza uno strumento dotato di una certa indipendenza
è necessario vedere che
informazioni esso è in grado di fornire e che risultati si ottengono con la sua applicazione. Se questi ultimi non portano nessuna informazione utile relativamente al problema che si sta analizzando allora è necessario cambiare strumento. “So we don’t press button and see what happen. If you read the diagram in this way you can produce the space in this way and then we correct and say well this doesn’t work, this doesn’t have any kind of displacement of expected behaviour
62
Livi R., Rondoni L., Aspetti elementari della complessità cit. Si veda: Tiazzoldi C., Peter Eisenman – Guangdong Museum, Automatismi operanti sul progetto del Guangdong Museum, intervista a Peter Eisenman, Apparato A5 del presente lavoro. 25 63
Strumenti Non Lineari di Progettazione: Casi Applicativi/
lets say. And we keep working back and forward with people working in different 64
things.”
Immagine 4 – Processo progettuale Guangdong Museum, diversi passaggi, dal diagramma, al modello digitale al modello fisico e quindi di nuovo al modello digitale.65 Immagini per gentile concessione di Eisenman Architects.
Appare evidente che l’utilizzo, e quindi il tipo di risultati ottenibili da apparati progettuali semi automatici, dipende completamente dal tipo di domande formulate dal progettista e può essere pertanto interpretato solamente come un elemento di supporto alla progettazione. Come afferma Tzomis, lo sviluppo di strumenti implementati tramite computer è finalizzato a supportare il pensiero dell’uomo, anziché simularlo. “In the debate between the proponents of strong and of weak Artificial Intelligence, some see it as the function of computers, as of formal logic, to support human thinking not to simulate it, and to assist us in the justification 66
rather than the discovery of answers”.
Anche secondo Winy Maas del gruppo olandese MVRDV i nuovi strumenti di progettazione vanno intesi come dei sistemi euristici. L’utilità dei modelli progettuali si basa sulla possibilità di elaborare velocemente un grande numero di soluzioni relative all’introduzione di una serie di dati, permettendo in questa maniera al progettista di visualizzare rapidamente vari tipi di soluzioni e contribuendo quindi alla messa a punto di una soluzione ottimale. Descrivendo l’utilizzo fatto dello strumento Function Mixer, sviluppato da MVRDV, Maas afferma che esso debba essere considerato come un modello euristico in quanto
64
Ivi. Si veda: Tiazzoldi C., Peter Eisenman – Guangdong Museum, Documenti di lavoro, Apparato A2 del presente lavoro. 66 Tzonis A., White I., Automation Based Creative Design cit., p. 9. 26 65
Strumenti Non Lineari di Progettazione: Casi Applicativi/
consente di trovare la soluzione ottimale sulla base di una serie di parametri stabiliti dal progettista.
67
Appare evidente che l’utilizzo di un modello è intimamente legato al tipo di problemi che si vogliono analizzare ed alla maniera in cui essi vengono formulati. Come verrà visto nel capitolo Errore. L'origine riferimento non è stata trovata., la scelta dei modelli dipende dal tipo dalla natura (analitica, dimostrativa o esplorativa) che si intende compiere. A costo di essere ripetitivi è fondamentale insistere sul fatto che i modelli vadano concepiti come strumenti euristici di supporto e non di sostituzione del pensiero. Non esiste modello oggettivo al punto dall’essere indipendente dalle formulazioni ed interrogazioni del suo utilizzatore. L’idea
di
concepire
i
modelli
progettuali
come
sistemi
euristici,
riflette
la
trasformazione epistemologica avvenuta con il passaggio dal paradigma Determinista a quello del Non Lineare e secondo la quale non esistono verità assolute ed oggettive indipendenti dal loro osservatore, ma esistono solo sistemi capaci di operare in funzione di una specifica lettura. Anziché fornire un’unica risposta di tipo deterministico, gli strumenti Non Lineari, sono in grado di sviluppare un intero sistema di soluzioni e per tanto essi vanno intesi non come degli automatismi progettuali indipendenti dal volere del progettista, ma come reti di soluzioni capaci di sviluppare tutta la potenzialità creativa intrinseca ad uno specifico problema formale, funzionale o tecnologico che esso sia.
67
“El mezclador de funciones es un modelo heurístico que nos permite encontrar el óptimo entre un mar de posibles diseños”. MVRDV 1997-2002 cit., p.29. 27
Strumenti Non Lineari di Progettazione: Casi Applicativi/
2 STRUMENTI NON LINEARI DI PROGETTAZIONE: CASI APPLICATIVI
28
Strumenti Non Lineari di Progettazione: Casi Applicativi/
Nel fine di poter procedere con un’analisi critica delle potenzialità e limiti derivanti dall’applicazione
in
architettura
degli
strumenti
derivanti
dalle
Scienze
della
Complessità, è necessario fare una ricognizione sullo stato dell’arte delle loro applicazioni nei diversi ambiti della progettazione: dalla ricerca di forma, all’analisi funzionale, ed allo sviluppo di soluzioni strutturali e tecnologiche. Come apparirà evidente questa classificazione –il cui fine è di semplificare la lettura - presenterà numerosi problemi di sovrapposizione, poiché molti degli esempi appartengono a più di una categoria. La necessità di ricorrere a questo tipo di distinzione deriva anche dalla necessità di ricordare che, non potendo mettere a punto uno strumento totalizzante capace di risolvere tutte le problematiche relative ad uno specifico progetto, è fondamentale essere in grado di sapere che tipo di problema si vuole risolvere con l’utilizzo di un determinato apparato. La scelta dei casi studio ed applicazioni si focalizza sulla scena accademica e professionale americana in quanto è da considerarsi come il luogo dove, già a partire dai primi anni ’60, si è manifestato - per esempio nel lavoro di Peter Eisenmanl’interesse di sviluppare una serie di apparati progettuali semi automatici; ed è dove a partire da metà anni ottanta e per tutti gli anni novanta sono stati studiati, attraverso il computer, alcuni degli strumenti di progettazione relativi al problema del Non Lineare. In particolar modo è possibile individuare nella Columbia University, un polo che ha contribuito in maniera sostanziale al ripensamento della relazione esistente fra regola e progetto causata dell’introduzione massiccia dei computer. Numerosi degli esempi selezionati fanno riferimento ad una casistica famigliare alla maggior parte dei lettori. A partire da questi casi studio noti, si intende isolare i presupposti concettuali dei progettisti, le metodologie adottate e la corrispondenza fra metodologia e risultato architettonico.
29
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
2.1
RICERCA DI FORMA
“Previous system based on complexity and contradiction took the representational form of conflicting geometric systems”.68
In Fold, Bodies, Blobs Greg Lynn afferma che in architettura il concetto di complessità è
stato
frequentemente
associato
all’idea
di
intrattabilità
dei
problemi
ed
all’impossibilità di gestire e di conciliare le diversità delle forze in gioco nel progetto. Questa condizione in fase progettuale, si è manifestata con un formalismo caratterizzato dalla presenza da sistemi geometrici conflittuali. Nei primi anni novanta, la traduzione formale del concetto di complessità riprendeva, nell’approccio
compositivo,
la
tecnica
del
collage
che
si
distingue
per
la
sovrapposizione di elementi volutamente discontinui e disomogenei. E’ possibile riconoscere questo tipo di condizione in numerosi progetti realizzati nel corso del periodo Decostruttivista in cui appare evidente il legame esistente fra una presa di coscienza di tipo filosofico -riconducibile principalmente al lavoro di Derrida - e la risposta formale dei progettisti. Nelle affermazioni intenzionalmente polemiche dell’architetto olandese Winy Maas secondo il quale il concetto di complessità ha avuto il sopravvento sul lavoro degli architetti della costa est americana i quali, disegnavano sul lavoro dei filosofi francesi, 69
proiettando letteralmente il caos nei loro edifici , appare chiara la rilevanza del fenomeno in questione. Dopo questa prima fase in cui gli architetti si concentravano sulla rappresentazione stessa dalla crisi del paradigma deterministico, è possibile isolare un secondo periodo che si manifesta nella ricerca di un sistema di regole alternativo a quello definito dalle scienze classiche. L’interesse degli architetti si focalizza sullo studio delle proprietà emergenti dei sistemi (fatte in particolar modo attraverso le mappature o mapping), la ricerca ed analisi di fenomeni autoorganizzativi caratterizzati da una logica di tipo 70
botton up . In Fold Bodies and Blob, analizzando il parallelismo esistente fra l’idea di proprietà emergenti e le retoriche della complessità, Lynn afferma che in architettura sia andato consolidandosi un approccio di tipo Botton Up, di forte demarcazione
68
Lynn G., Fold, bodies & blob, La lettre voléé, Paris, 1998, p. 172. “There were architects on the american coast, drawing on the work of French Philosophers, who wanted to address the architecture in a more phylosofical way by literally mirroring the caos in their buildings.” Maas W., Interview, The Yale Architectural Journal (a cura di), Perspecta 35 - Buildings codes, MIT Press, Cambridge, 2004, p. 51. 70 E’ un approccio metodologico che ambisce di capire il comportamento complessivo di un sistema a partire della somma delle azioni delle singole unità e fatta sulla base di regole locali. 30 69
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
darwiniana e che non riconosce alcun altro processo organizzativo se non quello delle spinte locali dei singoli soggetti. Lynn critica questo approccio in quanto sostiene che non sia possibile ridurre la comprensione di un intero sistema alla somma dei comportamenti delle singole unità. L’interesse dell’architetto americano si focalizza su una delle principali problematiche dei sistemi complessi: l’equilibrio esistente fra regole agenti su scala locale e quelle operanti su scala globale con tutte le problematiche di conflittualità interna che da esse derivano71. Secondo Lynn la risposta al problema della complessità in architettura deve essere cercata in una forma di organizzazione articolata di cui le regole non possono essere riconducibili ne a sistemi esclusivamente locali, o tanto meno a sistemi globali. Negli anni successivi, la ricerca formale legata al concetto di complessità, ha dato origine a due tendenze concettuali opposte che possono essere sintetizzate con i termini di morfodinamica e di morfogenetica.72 Con morfodinamica si fa riferimento ad un processo compositivo di tipo scultoreo, in cui un sistema di forze e di dati agisce su di un volume preesistente e ne cambia l’aspetto. Con morfogenetica, si allude ad un approccio in cui la forma stessa deriva da un vero e proprio codice (un DNA) architettonico capace di generare la forma sulla base di una serie di principi interni. Come viene provato nell’ambito dell’articolo Inside-out. Ouside-in di Marta Caldeira73 e Caterina Tiazzoldi edito su Spazio Architettura, la differenziazione fra questi due tipi di approcci si manifesta in numerose altre relazioni dicotmiche quali, locale/globale, regionalismo/modernità, exteriority/interiority e si rifanno tutte ad un un’unica domanda: Qual è l’origine del progetto? E’ possibile intendere il progetto di architettura come la trascrizione d una serie di input provenienti dall’esterno oppure esso va inteso come un sistema di regole interne che ne determina ogni componente?74
71
Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. I termini in questione sono stati utilizzati sistematicamente da Karl Chu per distinguere i due tipi di tendenze. Karl Chu insegna alla Columbia University ed è codirettore del Programma di Architettura Genetica all’Università Internazionale della Catalonia, in Barcellona. Le sue ricerche attuali si concentrano sullo sviluppo di una nuova teoria sulla architettura genetica derivata dalla convergenza tra computation e biogenetica. 73 Marta Caldeira Si laurea in architettura di Lisbona, frequenta il master alla Columbia University ha lavorato come progettista presso lo studio Eisenman Architects e dal 2006 frequenta dottorato alla Columbia University. 74 “Through a historical reading intentionally superficial, dichotomous relations such as local/global, modern/regionalist, open-system/closed-system, interiority/exteriority or morphodynamic/morphogenetic seem to elaborate on the controversy of the origin of the design project. In other words, each of these expressions appear to be formulating the question – is the design process to be understood as an inside-out or outside-in phenomenon?” Si veda: Caldeira M., Tiazzoldi C., Outside-in or Inside-out: 5 paradigmatic relations at the origin of the design project, in "Spazio e Architettura", disponibile all'indirizzo http//:www.spazioarchitettura.net/articoli/teorie/54 (25/02/06). 31 72
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
2.1.1 Morphodynamics 2.1.1.1 Definizione Secondo Karl Chu la morfodinamica è un processo compositivo in cui la forma deriva dalla deformazione di una superficie in funzione di una serie di input esterni all’oggetto architettonico. “Morphodynamics: use interactive morphing models linked with external forces derived from the context”
75
.
La modalità con cui ha luogo questo tipo di modellazione, è vincolata alla deformazione di un volume preesistente fatta a partire da una serie di agenti esterni quali campi di forza, vettori, dinamiche o condizioni legate all’utilizzo funzionale dello spazio e controllate tramite una serie di algoritmi capaci di agire sulla forma in funzione di una serie di regole.
2.1.1.2 Lynn, Spuybroek: Blobs e Forme Animate Una manifestazione di morfodinamica si è sviluppata all’inizio degli anni ’90 e si concretizza in quelli che sono stati soprannominati Blobs in quanto la loro forma deriva da una superficie iniziale sulla quale vengono apportate una serie di modifiche secondo gli input o sollecitazioni provenienti dalle condizioni esterne. Secondo Greg Lynn, essi sono la risposta alla domanda su quale tipo di dispositivo geometrico sia di in grado di far coesistere senza conflittualità diversi ordini organizzativi ed in particolare sia in grado di unire un sistema organizzativo globale ad uno locale. “What spatial model can represent a complex relationship irreducible either to the contradiction of the many or the holistic unity of the one?”
76
Secondo Lynn la caratteristica delle superfici che nell’industria del cinema vengono chiamate meta-clay, meta ball o Blob è di essere definite sulla base di una serie di relazioni topologiche dove gli elementi non si identificano in funzione della loro forma ma grazie al sistema di relazioni che ne determina l’organizzazione interna. Un Blob è in grado di cambiare la sua forma in funzione del sistema di forze che agiscono in scala locale senza tuttavia modificare la propria struttura topologica complessiva (per esempio un meta-blob è una superficie la cui forma varia in funzione della prossimità con altri elementi ma la regola topologica che ne definisce la struttura rimane
75
Chu K., Skinless Architecture, in: Tschumi B, Cheng I., The State of Architecture at the Beginning of the 21st Century, The Monacelli Press, Columbia Books of Architecture, 2003, p. 62. 76 Lynn G., Fold, bodies & blob cit., p.173. 32
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
immutata.) Proprio per questo motivo secondo Lynn i Blobs sono in grado di assorbire le conflittualità derivanti dalla compresenza di elementi agenti su scala locale e su scala globale.
Immagine 5 – Blobs .Il comportamento di un meta blob che cambia la sua configurazione in funzione della relazione di prossimità o distanza scambiata con altri elementi della stessa scena. Immagini tratte da: Lynn G., Fold, bodies & blob, La lettre voléé, 1998, pp. 157 e 167.
Immagine 6 - Blobs.Vari tipi di configurazioni dello stesso blob. Immagine tratta da :Tschumi B., Berman M., Index architecture, MIT Press, Cambridge, 2003, p.10.
Animated form: Design becomes virtual when it begins to model form in association with force. As well as being defined by digital information, animation techniques model form within a virtual space of force and motion.
77
Un’altra manifestazione di approccio morfodinamico, si manifesta in quelle che Greg Lynn chiama Animated Forms (forme animate). Il concetto di forma animata è una
77
33
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
superficie che viene animata e pertanto deformata in seguito dell’applicazione di un sistema di forze (massa, velocità, pressioni esterne)78. E’ importante notare che, come già avveniva nel caso dei Blobs analizzato precedentemente, dal punto di vista topologico l’oggetto in questione rimane sempre lo stesso (e deriva dalle serie di relazioni interne che lo caratterizzano), quello che cambia è la sua espressione formale. 79
Un esempio di forma animata è il progetto per il concorso Eyebean di cui Lynn
descrive il processo progettuale. Egli afferma di avere adottato una strategia che si basa sull’estrazione di una serie di dati e vettori fatta a partire dalla mappatura del sistema di forze relative alle velocità dei flussi dei veicoli osservati sul sito del concorso. Assegnando (su Maya) ad una serie sfere una componente dinamica il cui vettore derivava dalle forze precedentemente isolate, esse si trasformavano in vere e proprie matite animate che tracciavano delle traiettorie nello spazio. Avendo in seguito calcolato la differenza di traffico fra le strade limitrofe del sito ed avendo inserito questi nuovi dati come vettori di velocità e direzione nello stesso tipo di sfere animate, egli ha ottenuto un nuovo sistema di traiettorie, tracciati e quindi di forme. Il campo di forze ottenuto dall’analisi del sito si trasforma nello strumento che permette di modellare lo spazio architettonico e che si riflette quindi nelle dinamiche fluttuanti che stanno alla base della concezione del progetto. Lynn descrive il processo come un esperimento progettuale, come un puro esercizio di apprendimento capace tuttavia di esplicitare tutte le problematiche concettuali e metodologiche apparse che gli si sono riproposte negli anni successivi. E’ da notare come le forme animate sono una chiara manifestazione dell’interazione esistente fra software ed progettista. La possibilità offerta da un software che come Maya derivante dall’industria del cinema, di lavorare direttamente con una serie di campi di forze capaci di trasformare un solido in funzione del tempo, ha dato il via a tutta una stagione della ricerca di forma in architettura incentrata principalmente sulla componente dinamica del progetto. Una delle domande relativa a questo tipo di modellazione è in che modo il sistema di forze e di pressioni rilevate nel sito si concretizza in una serie di proprietà dello spazio? I blobs sono in grado di rappresentare relazioni topologiche, forze dinamiche e i flussi che stanno alla base di un progetto. Il limite di questo modello progettuale è che spesso le superfici ottenute si limitano a rappresentare o a contenere la complessità concettuale che sta all’origine di alcuni processi anziché questionare quali relazioni e
78
La capacità di particelle, o agenti semi-autonomi, di interagire, sia pur con limitato feedback, l'una con l'altra è stata studiata mediante l'uso di un software di modellazione basato sulle particelle. In un ambiente basato sulle particelle spazio e forma non sono definiti da punti, linee, piani e volumi ma piuttosto dalle diverse densità e dalle relazioni fra particelle con densità e forme tali che possono essere definite soltanto mediante le relazioni fra una molteplicità di particelle differenti". (Lynn G., The Topological Organization of Free Particles, cit.). 79 Migayrou F. (a cura di), Architectures non standard cit., p. 93. 34
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
quali proprietà dello spazio possono contribuire alla soluzione di un problema complesso. Anche i lavori di Lars Spuybroek80 di Nox sono principalmente riconducibili all’approccio morfodinamico è. Per quanto la procedura consista sempre nella deformazione di una superficie preesistente sulla base si una serie di input provenienti dall’esterno, le trasformazioni sono finalizzate a alloggiare una serie di funzioni o a rispondere ad una specifica condizione/conformazione del sito.
Nelle immagini
sottostanti che sono tratte da alcuni dei progetti di Spuybroek è possibile vedere il modo secondo quale una superficie originale viene elaborata nel fine di poter alloggiare alcune specifiche funzioni.
Immagine 7 – H2Oexpo, water-experience pavillon and interactive installation for „WaterLand“. Neeltje Jans, the Netherlands, 1993-97. The first set of operations: elliptical tube, scaling of tube according to programme, twisting according to exterior forces, insertion of ground level, deformation of ground surface. Immagine tratta da: Spuybroek L., Nox, Thames & Hudson, New York, 2004, p. 19.
Immagine 8 - Una manifestazione di un processo di morfodinamica secondo la quale la forma deriva dalla deformazione di una superficie iniziale in funzione di una serie di pressione derivanti da stimoli esterni. In questo caso è possibile vedere come la forma risponde al sito assumendone lo stesso tipo di configurazione. Immagini tratte da: Spuybroek L., Nox, Thames & Hudson, New York, 2004, pp. 310-311.
80
Lars Spuybroek è il fondatore di Nox, a Rotterdam. Il suo lavoro si concentra sui rapporti tra l’architettura, i media e i computer. I suoi progetti recenti includono progetti video ed elettronici tra cui la interactive tower per la città olandese di Doetinchem, SON-O-House “una casa dove il suono vive”, e il complesso culturale di Lille, Francia. E’ professore alla Università di Kassel. 35
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
Immagine 9 – Una manifestazione di un processo di morfodinamica secondo la quale la forma deriva dalla deformazione di una superficie iniziale in funzione di una serie di pressione derivanti da stimoli esterni in questo caso la forma si adatta alle deformazioni derivanti dai vincoli funzionali interni. Immagini tratte da: Spuybroek L., Nox, Thames & Hudson, New York, 2004, pp. 306-307.
2.1.1.3 Eisenman: From Index to Codex81 “In the context the index is the trace of a former presence”.
82
Il caso del recente progetto per Città della Cultura a Santiago di Compostela di Peter Eisenman può essere considerati come un progetto in cui avviene il passaggio (nel lavoro
dell’architetto
americano)
da
un
approccio
di
impronta
puramente
morfodinamica ad una metodologia riconducibile in parte all’idea di morfogenetica. In effetti la pianta della superficie complessiva a partire dalla quale è stato ottenuto l’edificio è stata ottenuta dalla sovrapposizione delle antiche mappe della città di Santiago, per tanto si può affermare che essa sia stata modellata su di una serie di input provenienti dall’esterno. Nella logica dell’architetto americano i dati deducibili dal sito
possono essere assimilati ad una serie di indici che si manifestano sul
risultato formale come l’espressione metafisica della presenza del sito stesso. Per questo motivo è possibile leggere la forma finale come il registro dei segni della preesistenza e delle operazioni che sono state alla base del processo formale. Il tipo di superficie ottenuta è descrivibile come una superficie indessicale in quanto è la rappresentazione delle informazioni che sono state capaci di agire su di essa, modificando la sua forma preesistente. Per quanto il progetto in questione possa essere sostanzialmente classificato come di tipo morfodinamico, esso presenta alcune caratteristiche “morgenetiche” in quanto le informazioni che stanno alla base della terza dimensione dello spazio derivano da una serie di input interni ottenuti a partire da una matrice il cui principio d gestione dei dati potrebbe essere assimilato ad un codice generativo.
Eisenman pone l’accento
sulla componente dinamica derivante dall’elevatissima interdipendenza esistente fra i
81
Eisenman P., Digital Scrambler. From Index to Codex, in: The Yale Architectural Journal, Perspecta 35 - Buildings codes, MIT Press, Cambridge, 2004, p. 40. 82 Ivi. 36
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
vari vettori operanti su tale matrice. Per questo motivo egli descrive afferma che il progetto di Santiago è assimilabile ad un sistema non lineare in quanto non è possibile invertire il processo che ha generato la forma tornando alla superficie originaria. “Because it cannot be traced back to some origin. There is no longer a linear narrative or legibility in is presence”.83
Immagine 10 – Eisenman P., City of culture of Galitia, Santiago de Compostela, Spain, 1999. Diagrammi di deformazione mostrano come i vettori interni (il codice) operano sul volume complessivo. Immagini per gentile concessione di Eisenman Architects.
83
Ivi.
37
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
2.1.1.4 Conclusione rapportata ad esperimenti personali Numerose delle geometrie derivanti dall’approccio morfodinamico possono essere lette come superfici indessicali in quanto sono il registro delle informazioni che sono state alla base dell’assestamento della loro forma. Pertanto possono essere considerate come superfici capaci di contenere e di rappresentare una serie di dati o di funzioni complesse. Alcune di esse sono state ottenute sulla base di vincoli funzionali
o
derivanti
dal
sito,
talvolta
invece
dall’elaborazione puramente speculativa dei dati,
semplicemente
a
partire
scelti in maniera più o meno
casuale (come afferma Lynn nel caso del progetto di Eyebean). Una critica che è possibile indirizzare a questo tipo di approccio, è che esso si focalizza più sulla rappresentazione delle dinamiche complesse che sono state all’origine della forma, che sulla soluzione dei problemi complessi operanti sullo spazio costruito. La manifestazione di tale limiti appare chiaramente nel fatto che quasi nessuno dei progetti analizzati, sembra spingersi oltre al fatto di essere un involucro sagomato, nessuna di esse sembra questionare o rivedere l’articolazione o la fruizione dello spazio o della matericità dello stesso. Numerosi di questi progetti che sono stati sviluppati all’inizio degli anni ’90 quando il computer ha preso il sopravvento nella progettazione architettonica e possono essere letti come involucri informati in cui appaiono tutti i limiti di quelli che Tzomis definisce come process progect84, e in cui la proposta architettonica finale è da leggersi sostanzialmente come la concretizzazione del processo che le ha dato origine. La ricerca Responsive Devices che sto sviluppando in collaborazione con Whitelaw85 nel contesto della Non Linear Solutions Unit della Columbia University 86, si focalizza sulla volontà di sviluppare una serie di modelli progettuali che siano in grado di cambiare la loro forma sulla base della risposta a vincoli operanti sullo spazio costruito. Come verrà visto alla fine di questo capitolo, la ricerca si incentra sulla volontà di identificare quella serie di dati provenienti dal sito che sono in grado di operare un cambiamento sia nell’aspetto che sul tipo di funzioni esplicitate da una determinata configurazione spaziale.
84
Si veda: paragrafo Errore. L'origine riferimento non è stata trovata.. Christopher Whitelaw, Co-direttore e co-fondatore della Non Linear Solution Unit presso la facoltà di architettura della Columbia University. Dal 2003 insegna, Digital Fabrication e Fundamentals of Digital Design presso le facoltà di architettura della Columbia University, Pratt 86 Si veda: Tiazzoldi C., Applied Responsive Devices 2: Formal Modulation for Acoustic Performance of a Bridge, Apparato 12 del presente lavoro. 38 85
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
2.1.2 Morphogenetic 2.1.2.1 Definizione “The morphogenetic approach is based on the logic of an internal principle or code 87
that generates morphology, seeks to establish the autonomy of architecture.”
Secondo Chu mettendo a punto un progetto a partire da un sistema di regole interne, si può arrivare alla definizione di un architettura intesa come interiorità pura.88 “In Skinless Architecture
89
Beatrix Colomina ha evidenziato quanto l’attenzione
degli architetti del Rinascimentali per il cervello, nel ventunesimo secolo si è spostata verso il feto. Il lavoro di Karl Chu incentrato su genetica e biotecnica, la 90
ricerca di Zaera Polo
su speci e tipi architettonici, la metafora dell’ibridazione di
91
Van Berkel , il recente spostamento concettuale di Peter Eisenman dall’idea di 92
indice a quella di codice , il titolo Bio-mimetic agenda del corso tenuto a Yale da Zaha Hadid testimoniano la rilevanza del fenomeno. Secondo Beatrix Colomina, questa evoluzione dipende dal fatto che architettura e medicina sono sovente evolute parallelamente: la medicina come scienza del scoperta del corpo dell'uomo, l'architettura come rappresentazione dell'universo 93
delle idee e dell'organizzazione del pensiero”.
Come afferma Karl Chu, l’interesse per il concetto di codice genetico non deriva solo dal parallelismo fra medicina ed architettura. L’attrazione degli architetti per la morfogenetica deriva dalla possibilità di definire un principio generativo (o codice) intrinseco al progetto che sia capace di stabilire l’autonomia dell'architettura riguardo alle altre discipline. La forza del concetto di codice genetico risiede nell’idea di un sistema dotato di una forte coerenza interna (o interiorità), che gli permetta di rispondere a diverse
87
Chu K., Skinless Architecture cit., p. 62. Theses fractals (geometrical entities) operate within generative systems based on simple set of rules. It must be noted that this is not an exercise in fractal geometry as it is commonly understood, but, an endeavor predicated on the mapping and virtualization of a certain interiority of architecture 89 Colomina B., Skinless Architecture, in The State of Architecture cit., p. 68. Beatrix Colomina è una storica dell’architettura e una studiosa che ha scritto diffusamente di architettura e di nuove forme di rappresentazione, quali media, fotografia, pubblicità, film e televisione. E’ professoressa di architettura all’Università di Princetown, direttrice e fondatore del programma di ricerca su Media e Modernità. Le sue pubblicazioni comprendono Architecture-production (1988), sexuality and space (1992) e Privacy and publicity: Modern Architecture as Mass Media (1994). 90 Alejndro Zaera-Polo è cofondatore, con Farshid Moussavi, del Foreign Office Architecture. Tra i suoi progetti ricordiamo lo Yokohama International Port Terminal in Giappone e una collaborazione per il concorso di idee per il nuovo World Trade Center. Zaera-Polo ha scritto per El Croquis, A+U, Quaderns e A.D. E’ attualmente preside del Berlage Institute nei Paesi Bassi. 91 Van Berkel B., Bos C., Move, Un studio & Goose Press, Amsterdam, 1999. 92 Ne è la prova il saggio recentemente pubblicato per la rivista Perspecta intitolato Digital Scrambler. From Index to Codex. (Eisenman P., Digital Scrambler cit., pp. 40-53). 93 Caldeira M., Tiazzoldi C., Eisenman. Architettura codificata: Guangdong Museum, in "Progetto", anno IX, n. 23, marzo 2005, Mancuso, Roma. 39 88
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
situazioni. In altre parole si tratta di in progetto dotato di una regola generativa interiore capace di rispondere alle contingenze della realtà esteriore.94 Secondo Peter Eisenman, l’architettura è sempre legata al concetto di codice, sia dal punto di vista letterario, nei codici di costruzione, che metaforicamente come avviene per i codici classici che regolano le proporzioni fra e parti costituenti dell’edificio. Negli ordini classici i codici erano insiemi di regole per la trasmissione ed organizzazione di alcuni elementi che potevano essere ripetuti in diversi contesti. Secondo Eisenman 95 molte volte relazioni quali A-B-A oppure A-B-B-A, venivano usate per definire proporzioni in pianta e sezione. However classical code were not generative material, they were proscriptive and 96
still metaphysical.
Eisenman evidenzia il fatto che i codici classici erano più di tipo organizzativo che non di tipo generativo in quanto si limitavano ad ordinare una serie di elementi preesistenti. Per capire più a fondo l’idea di codice generativo è possibile rifarsi al concetto di morfogenetica che si riferisce alla messa a punto di un codice architettonico la cui traduzione in linguaggio simbolico, contenga tutte le informazioni necessarie per la generazione dell’edificio. L’esplicitazione del codice in uno script di modellazione permette di trasformare le informazioni astratte in modelli tridimensionali virtuali. Come avviene nel caso del codici genetici, i codici architettonici gestiscono le informazioni che precedono la stessa “genesi” della forma. Come verrà ripreso nel capitolo Errore. L'origine riferimento non è stata trovata. è possibile articolare il progetto architettonico in una serie di elementi e regole che possono essere stabilite a priori come avviene nel caso della messa a punto di un linguaggio digitale o nel caso della messa a punto di un software. Per questo motivo la possibilità di tradurre il progetto di architettura in uno script o in una stringa di informazioni ha dato il via all’analogia esistente fra codice genetico e progetto architettonico. Nel saggio An evolutionnary Architecture Frazer97 afferma che i concetti architettonici possono essere espressi attraverso una serie di regole generative. I modelli digitali
94
Caldeira M., Tiazzoldi C., Eisenman. Architettura codificata cit. Eisenman P., Digital Scrambler cit., p. 40 96 Ivi. 97 John Hamilton Frazer, architetto professore alla Royal Accademy of Science e alla Chatered Society of designers, professore ad honorem all’Università di Pechino, Dalian, Fudan e Shandong. E’ il co-coordinatore alla Gehry Technologies - Digital Project Ecosystem. E’ stato uno dei pionieri dello sviluppo di apparati progettuali intelligenti e di sistemi interattivi capaci di operare sulle varie strategie costruttive. Frazer sviluppa algoritmi parametrici capaci di gestire l’elevato livello di interdipendenza esistente fra i vari vincoli di progetto (gestione delle componenti sagomate tridimensionalmente, vincoli strutturali, gestione costi ecc) “The book investigates the fundamental form-generating processes in architecture, considering architecture as a form of artificial life, and proposing a genetic representation in a form of DNA-like code-script, which can then be subject to developmental and evolutionary processes in response to the user and the environment. The aim of an evolutionary architecture is to achieve in the built environment the symbiotic behaviour and metabolic balance found in the natural 40 95
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
permettono di simulare il processo e permettono di valutare il livello di efficacia di un codice in un determinato contesto. Grazie ai computer è possibile valutare l’impatto di un codice su varie iterazioni, permettendo in questo modo di ottenere in tempi brevissimi forme e configurazioni non immaginabili con il solo supporto del pensiero. Per questo motivo l’uso dei codici come strumenti di progettazione, manifesta una componente esplorativa che si può riscontrare in alcuni tipi di modello.98 La progettazione tramite codici o script è stata limitata per molto tempo dalla ridotta capacità di calcolo dei computer e dalla completa assenza di interfacce grafiche che permettessero di verificare rapidamente un codice e che permettessero pertanto di utilizzare tali strumenti come veri e propri strumenti euristici. Secondo Frazer la messa a punto di algoritmi genetici per l’architettura e la loro verifica a computer, è finalizzata a capire
in che modo risolvere problemi di
conflittualità all’interno di un sistema, come classificare i vari elementi in gioco e come un modello progettuale possa essere in grado di adattarsi in funzione dell’ambiente nel quale deve essere inserito. Una volta chiariti tutti questi aspetti è possibile utilizzare la simulazione a computer, non come uno strumento euristico ma, come un acceleratore temporale in quanto permette di svolgere in un tempo molto breve un elevatissimo numero di iterazioni.
environment. To do so, it operates like an organism, in a direct analogy with the underlying design process of nature.” Frazer J.H., An Evolutionary Architecture, Architectural Association, London, 1995 ( out of print ), diposnibile all'indirizzo http://www.aaschool.ac.uk/publications/ea/intro.html (17/02/06). 98 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata.. 41
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
2.1.2.2 Karl Chu: Tecniche di Riscrittura ed Automi Cellulari
Immagine 11 - Sang Hee Han, Karl Chu Advanced Architecture Studio Spring 2004. Immagine tratta da:url: http://www.arch.columbia.edu/gsap/40105
Come è stato visto precedentemente secondo Karl Chu l’approccio morfogenetico si basa sulla logica di un principio interno o di un codice che sia in grado do generare morfologia e che ha come finalità di stabilire l’autonomia dell’architettura nei confronti delle altre discipline. L’approccio di Karl Chu si caratterizza dalla ricerca di un codice, da intendersi come un vero e proprio DNA architettonico, capace di racchiudere tutte le informazioni che stanno alla base di un progetto. La ricerca di Karl Chu può essere intesa come una delle più radicali nella concezione di un sistema progettuale autosufficiente al punto da non necessitare nessun tipo di informazione proveniente dall’esterno in quanto capace di modificarsi ed innovarsi da solo. Nel fine di approfondire questo soggetto per tutti gli anni ’90 Chu ha esplorato il potenziale derivante dall’utilizzo in architettura di alcune tecniche di riscrittura99 ed in particolare del software L-System100 (chiamato anche Lindenmayer systems o sistema di riscrittura in parallelo “parallel string-rewrite systems”), che viene solitamente utilizzato in botanica per simulare la crescita delle piante o per sviluppare geometrie frattali, si basa su di un procedimento di riscrittura per sostituzione grazie al quale è possibile ottenere a partire da un numero limitato di elementi, un numero infinito di configurazioni. Sviluppato nel 1968 dal biologo, Aristid Lindenmayer, L-System si basa su un sistema di riscrittura operante tramite la sostituzione di scritti pre-esistenti da cui è possibile attivare una serie di feed-back loop101. Per esempio immaginando un
99
Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. Dickau R.M., Mathematical Figures Using Matematica. Two-dimensional L-systems, disponibile all’indirizzo: http://mathforum.org/advanced/robertd/lsys2d.html (17/02/06). 101 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. 42 100
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
numero limitato di assiomi (definizioni di un elemento) A, B e due regole la prima secondo la quale ogni A verrà sostituito con B e la seconda stabilisce che l’assioma B verrà sostituito da A. A → AB ; B → A L’attivazione di questa regola porterebbe il risultato seguente capace di crescere all’infinito grazie alla ripetizione della sequenza:
A→AB AB→ABA→ABAAB→ABAABABA
Immagine 12 – Una serie di superfici sviluppate con L-system. A sinistra è possibile vedere l’evoluzione nel tempo delle regole e assiomi che generano la superficie stessa Immagine per gentile concessione di Natale Prudente, sviluppata nel contesto del Karl Chu Studio GSAPP Columbia University.
Il problema dell’utilizzo in architettura di L-System consiste nella difficoltà di riuscire a cogliere quelle componenti del progetto che ripetute in maniera ricorsiva con una logica frattale, possano sviluppare una reale proposta architettonica (modulazione, spazi, strutture uso). Per questo motivo l’utilizzo di L-system nella progettazione rimane sovente su di un livello di espressionismo formale in cui raramente i risultati ottenuti possono essere riconducibili a veri e propri spazi architettonici. I limiti di questo tipo di approccio toccano nel vivo la domanda iniziale di questo saggio, fino a che punto il progetto di architettura può essere espresso a partire da una serie di regole? Queste considerazioni non vanno intese come una critica al lavoro di Karl Chu, in quanto egli per primo afferma che l’interesse di tali strumenti risiede più nella loro portata concettuale e metafisica derivante dalla possibilità di ottenere attraverso l’espressione di poche assiomi un sistema infinito capace di autorigenerarsi. E’ con lo stesso tipo di predisposizione concettuale che Chu esplora le potenzialità intrinseche degli automi cellulari in quanto essi possono essere considerati come un caso applicativo della Macchina Universale di Turing (o macchina universale di calcolo) dalla quale è possibile ottenere, a partire da un numero definito di elementi iniziali, infinite soluzioni capaci di variare la stessa struttura interna dell’apparato. Chu definisce come Superficie universale di Turing la manifestazione in architettura del sistema di calcolo e di elaborazione dei dati derivanti dalla macchina universale di Turino operante tramite gli automi cellulari 43
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
the emergence of the Universal Turing Surface that lays out a virtual cartography of a possible world among an infinite number of possible worlds.”
102
Questa superficie porta iscritti in se tutti i dati relativi ad uno speficico oggetto architettonico ed a tutte le possibili configurazioni che esso potrebbe assumere nelle sue implementazioni concrete. “It is saturated with the stuff of information out of which unheard of dreams and dramas emanate to form a part of the living texture of the evolving universe”.
103
Come evidenzia chiaramente Karl Chu l’utilizzo di questi strumenti è finalizzato a creare un registro o un indice. La superficie tridimensionale derivata dall’utilizzo di tale apparato, non va intesa come una soluzione progettuale ma per l’appunto come una superficie capace di registrare ogni dato, che sta alla base del progetto. In questo senso la superficie universale di Turing potrebbe essere interpretata come un oggetto cartografico tridimensionale animato. “The Universal Turing Surface is the new plane of immanence that is, above all else, a cosmopolitical orchestration, an onto-organology constituted by an autopoeisis: a self-generated organ of a self-synthesized information system (John Wheeler) within demiurgic space.” Come visto nell’ambito del paragrafo 1.6.2 nel corso del convegno The State of Architecture at the Beginning of the XXI Century, tenutosi alla Columbia University nella primavera 2003, Mary McLeod critica la metodologia di Chu e degli altri professionisti operanti con software ed algoritmi, sollevando una forte polemica sul fatto che i risultati prodotti con questo tipo di approccio non sono in grado permettere di lavorare su criteri di funzionalità efficienza o semplicemente di piacevolezza. The resultant form remains removed form the actual need and desires, wheter .104
material or symbolic. ”
Mary McLeod critica apertamente l’utilizzo della metafora biologica e pertanto l’approccio morfogenetico in quanto secondo la storica sembrano fare semplicemente appello ad una nuova dimensione dell’architettura che sembra essere definita tramite l’uso di formule che agiscono secondo numeri e parametri caratterizzati da
un
altissimo livello di arbitrarietà. “What has not been acknowledged fully are the limitations of the computer software, the arbitrariness of the criteria established, the subjectivity of the process of editing form, and the There are also stylistic similarities between the 105
two”.
102
Disponibile all’indirizzo: http://www.archilab.org/public/2000/catalog/xkavya/xkavyaen.htm (12/02/06) Ivi. 104 McLeod M., Form and function today, in: Tschumi B, Cheng I., The State of Architecture cit., p. 50. 105 Ivi. 103
44
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
Secondo McLeod, il risultato che ne deriva è che il processo progettuale sembra essere racchiuso allo stesso tempo in un determinismo mentale e un misticismo intuitivo che tuttavia non riesce a creare nessun collegamento con la reale dimensione sociale del progetto. "Design seems caught between an instrumental determinism and intuitive mysticism. That which is purportedly most objective becomes most subjective and detached from collective social life".
106
Immagine 13 – Chu K., Proto-Buildings, 2004. Immagini tratte da: Leach N., Wei-Guo X. (a cura di), Fast Forward Hot Spot Brain Cells, Birkhauser, Berlino, 2004, p. 24.
In risposta alle critiche sollevate da Mary McLeod nei confronti del lavoro di Chu è fondamentale sottolineare alcuni aspetti fondamentali per il dibattito in questione. In primo luogo Chu è da considerarsi come uno dei pionieri nella concezione del progetto di architettura come un problema di genetica. Si può anche sottolineare che Chu non intende in nessun modo negare il distacco esistente fra il suo lavoro ed un prodotto architettonico vero e proprio e definisce in maniera estremamente precisa l’ambito nel quale avviene la sua ricerca ed i risultati ai quali intende arrivare. L’interesse che egli manifesta per le teorie di Wolfram (con tutti i limiti che esse presentano 107) e sui possibili effetti di una loro trasposizione in architettura è da intendersi principalmente come un’investigazione epistemologica, quasi metafisica, in cui lo spazio non acquisisce significato in funzione dell’esplicitazione di una serie di proprietà fisiche ma a partire dalla sua capacità di descrivere e contenere le informazioni che lo hanno generato. Per questo motivo Chu insiste sulle dimensione concettuale delle Universal Turing Surface che può essere assimilabile ad uno strumento auto-poietico capace di sintetizzare e modificare le informazioni che l’hanno generato.
106 107
Idem, p. 51. Si veda: paragrafo 1.6.1.
45
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
Immagine 14 – L-System. Topology and generative architecture Columbia University. Immagine tratta da: Tiazzoldi C., Ricerca di Forma: Karl Chu Studio, Apparato 1 del presente lavoro.
2.1.2.3 Philippe Morel: Algoritmi Genetici Il lavoro di Philippe Morel, Hatem Hamda e Marc Schoenauer potrebbe essere considerato come un caso in cui un algoritmo genetico è stato applicato sia nella ricerca di forma che nell’analisi strutturale. Il motivo per il quale è stato classificato nella prima categoria dipende dal fatto che, come affermano gli autori stessi, la risposta strutturale è da considerarsi come ancora incompleta.
Immagine 15 - Morel P./EZCT Architecture & Design Research (with Hatem and Marc Schoenauer), Studies on Optimization: Computational Chair Design using Genetic Algorithms, 2004. Immagini per gentile concessione di EZCT Architecture & Design Research.
46
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
Il progetto Computational Chair Design Using Genetic108, è un esempio di ricerca di forma realizzata sulla base di un procedimento di ottimizzazione operato mediante un caso di algoritmo genetico. I suoi autori descrivono che la concezione del progetto si basa sulla stessa logica adottata da Darwin per descrivere l’evoluzione delle speci e che è riassumibile con due criteri: un principio evolutivo casuale che avviene nella trasmissione dei dati da una generazione all’altra; e un principio di selezione naturale che tende a privilegiare gli individui le cui caratteristiche fondamentali si adattano meglio al sistema nel quale sono inserite109. La metodologia secondo la quale è stata ottenuta la forma della sedia in questione si
basa
sull’ottimizzazione della
distribuzione di unità elementari di materia fatta in funzione della risposta ai carichi statici della sedia stessa. Per ottenere il risultato in questione è stata sviluppata una popolazione di sedie che inizialmente
ibridate
(incrociando
alcune
delle
loro
componenti)
secondo
un
procedimento casuale, e a partire dalle quali sono state successivamente selezionate quelle che rispondevano meglio ad uno specifico tipo di sollecitazione.
Immagine 16 - Morel P./ EZCT Architecture & Design Research (with Hatem Hamda and Marc Schoenauer), Studies on Optimization cit. Immagini per gentile concessione di EZCT Architecture & Design Research.
Gli autori affermano che per sviluppare il modello in questione è stato necessario rispondere a due domande: Qual è il criterio selettivo di una struttura che permette di migliorare le sedie di generazione in generazione? Qual'è l’unità minima (un attributo110) le cui variazioni permettano di rappresentare significativamente il comportamento dell’insieme. Per quel che riguarda la prima problematica oltre che alla capacità di rispondere ai carichi statici è stato applicato un criterio di selezione basato sulla leggerezza delle
108
EZCT Architecture & Design Research, disponibile all'indirizzo: http://www.ezct.net (15/01/06). Si veda la voce algoritmi genetici. 110 Si veda: voce Errore. L'origine riferimento non è stata trovata.. 109
47
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
proposte. In altre parole la selezione avveniva in funzione della resistenza statica
111
ed
in funzione del peso delle possibili sedie. Per quanto riguarda le unità minime utilizzate: grazie ad un diagramma di Voronoi, è stato possibile individuare la curva comportamentale della resistenza strutturale del materiale a partire dalla quale è stato possibile scomporre la struttura in una serie di poligoni convessi da considerarsi come le unità elementari del sistema. Il diagramma di Voronoi ha permesso quindi di identificare una serie di poligoni o di siti degli stessi da considerarsi come il genoma di ogni singola. Ogni cellula di Voronoi può essere occupata o non occupata (con o senza materia). Il principio darwiniano funziona nella maniera seguente: i genitori si incrociano scambiando la distribuzione dei siti di Voronoi, l’idea selettiva è di ricombinare le parti di successo di ognuna delle strutture dei genitori, per esempio lo schienale di uno con le gambe dell’altro. L’idea base è quindi quella di ottenere una sedia figlio le cui caratteristiche siano migliori di quelle dei genitori. Alla base di questo principio selettivo sono emerse alcuni casi di sedia completamente diversi gli uni dagli altri e dalle idee prefigurate di sedia.
Immagine 17 – Morel P./ EZCT Architecture & Design Research (with Hatem Hamda and Marc Schoenauer), Studies on Optimization cit. Immagini per gentile concessione di EZCT Architecture & Design Research.
111
Come afferma Marc Schoenauer, il limite del progetto consiste nel fatto che la popolazione di sedie ha un sistema selettivo che si basa sulla resistenza ai carichi statici e non ai carichi dinamici. In altre parole il calcolo non contempla l’ipotesi di qualcuno che si siede violentemente sulla sedia. La limitazione in questione dipende dal fatto che la capacità di calcolo in questo caso avrebbe dovuto essere talmente alta che per fare lo stesso esperimento sarebbe stato necessario una quantità di tempo troppo elevata per rendere l’esperimento significativo. 48
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
Immagine 18 – Morel P./ EZCT Architecture & Design Research (with Hatem Hamda and Marc Schoenauer), Studies on Optimization cit. Immagini per gentile concessione di EZCT Architecture & Design Research.
Il lavoro ha richiesto un calcolo a computer che analizzava l’evoluzione di 100 strutture di sedie diverse per un periodo complessivo di un mese di calcolo su di un PC da 3GH. Il che ha permesso di valutare l’evoluzione della popolazione di 100 sedie su alcune centinaia di migliaia di generazioni. Marc Schoenauer afferma che sarebbe stato possibile programmare il sistema per rispondere a dei carichi provenienti da diverse direzioni o come visto prima rispondenti a sollecitazioni dinamiche, le differenze si sarebbero manifestate in termini di durata dei calcoli ma non in termini concettuale. Immaginando un caso di una sedia, se non addirittura di edificio, che si disegna secondo un algoritmo genetico completamente automatico e che sembra non necessitare più nessun tipo di intervento del progettista potrebbe insorgere la seguente domanda: che cosa rimane della funzione dell’architetto? E’ possibile pensare agli algoritmi genetici come a veri e propri automatismi progettuali? 112
“Mais ou est passé l’architecte”
A questa domanda provocatoria lo stesso Schoenauer risponde nella seguente maniera affermando che in primo luogo che lo strumento in questione non è da considerarsi come capace di sostituire completamente il calcolo strutturale ma esso vada inteso come uno strumento esploratorio che permetta di visualizzare soluzioni che non sarebbero state concepite con un procedimento di tipo tradizionale. Per questo motivo l’utilizzo progettuale di un tale apparato manifesta una forte valenza
112
Schoenauer M., EZCT Architecture & Design Research, disponibile all'indirizzo: http://www.ezct.net (15/01/06).
49
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
esplorativa (supportata dalla casualità con la quale vengono impostati alcuni dei parametri iniziali) e che si ricollega quindi all’utilizzo che veniva fatto degli automatismi nel periodo surrealista. “La methode proposée ne se veut pas (encore?) une alternative à la chaine de conception complète des structures, mais plutôt un outil à visée exploratoire permettre au concepteur de mettre au point des idée set des conceptions 113
nouvelles qu’il n’aurait sans doutes pas imaginées”
E’ tuttavia di fondamentale importanza notare che, come avviene nel caso dei modelli scientifici114, il ruolo dei progettisti o scienziati risiede nell’esplicitazione della serie di regole e criteri che stanno alla base di un problema e che verranno implementati tramite un algoritmo finalizzato ad elaborare una risposta. Il ruolo dell’architetto risiede nella concezione e scelta dell’algoritmo (automatismo o modello matematico) capace di rappresentare in maniera significativa il fenomeno in questione rispondendo in maniera efficiente alle seguenti domande: cosa si vuole ottenere da un modello specifico? Che tipo di realtà si vuole rappresentare? Che tipo di metodo e strumento si adotta per essere in grado di valutare il comportamento di una specifica realtà? Quali sono le unità che servono ad apprezzare in maniera significativa il comportamento di un sistema? “Mais au final, le résultat dépendra uniquement des savoir faire de l’ingénieur informaticien et de l’architecte, dans leur choix de conception de l’algorithme, depuis les représentation des opérateur de variation jusqu’à la définition de ce qui sera l’adaptation de structures, via des simulations appropriées du domaine, des 115
parties fixes sur lesquelles seront appliqués les forces”
Il progetto, Computational Chair Design Using Genetic solleva alcune domande relative all’adozione in architettura di strumenti derivanti dalle Scienze della Complessità e sulla correttezza di tale pratica. L’esempio di Morel è da confederarsi come un lavoro rigoroso grazie al quale è stato possibile ottenere risultati irraggiungibili
con
un
procedimento
deterministico;
dall’altro
la
necessità
di
semplificare in maniera radicale un problema per poter avere un livello di controllo soddisfacente sul sistema rischia di sviluppare soluzioni ancora troppo lontane dalla realtà (come avviene nel caso di una sedia che risponde solo ai carichi statici unidirezionali). Questa critica non va intesa come un’accusa nello specifico del lavoro di Morel, le cui intenzioni erano chiaramente esplorative, ma va letta come un invito rivolto ad ogni progettista nell’avere un atteggiamento critico nei confronti dell’adozione o della
113
Ivi. Si veda: paragrafo Errore. L'origine riferimento non è stata trovata.. 115 Schoenauer M., EZCT Architecture & Design cit. 114
50
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
scelta di una specifica metodologia. E’ fondamentale stabilire l’efficacia con la quale un modello è in grado di esprimere gli aspetti salienti e rilevanti di un sistema o di un problema sul quale si vuole lavorare.
2.1.3 Conclusione rapportata ad esperimenti personali In questo capitolo sono stati analizzati due tipi di approcci compositivi: quello secondo il quale la forma deriva dalla deformazione di un volume preesistente sulla base di una serie di stimoli provenienti dal sito e dal contesto sociale e culturale; e quello secondo il quale il progetto viene generato da un codice interno che porta inscritte in se tutte le informazioni necessarie al suo compimento. Nell’articolo Outside-in or Inside-out,
scritto con Marta Caldeira, viene dimostrato,
come non sia possibile concepire un progetto come morfodinamica o morfogenetica pure ma esso vada inteso come un sistema in cui le due modalità operano sincronicamente, realizzando un sistema di regole interne (o un codice) finalizzate a rispondere in maniera efficiente ad una serie di input provenienti dall’esterno. In questo modo la forma deriva dalla risposta ad un input esterno regolamentata da un codice interno al progetto. Questo tipo di posizione è riscontrabile anche nelle affermazioni di Peter Eisenman secondo il quale è necessario introdurre una condizione esterna che sia in grado di trasformare un apparato astratto in un elemento che generativo. “An external condition is required in the process, something that will introduce a 116
generative or transformative agent as a final layer in the diagrammatic strata”.
Analizzando117 la modalità secondo la quale diventa possibile mettere a punto uno strumento progettuale capace di rispondere con un sistema di regole interne alla mutevolezza delle condizioni al contorno, Caldeira e Tiazzoldi, fanno riferimento al dibattito sviluppato in ambito scientifico già a partire dal XIX secolo ed al lavoro del biologo Gregory Bateson118
incentrato sulla volontà di comprendere la condizione
secondo la quale un organismo potesse rispondere alle svariate richieste dell’ambiente nel quale esso era inserito senza tuttavia mettere in causa la stabilità del suo sistema di regole interno. Secondo Bateson non è possibile pensare alla mutazione
116
Peter Eisenman, Diagram Diaries, Universe Publishing, 1999, p.35. “The problematic between a regulating interior device and its exterior condition is not exclusive to the architectural discourse; it is, in fact, a widely researched topic in the scientific world. Questions such as “What is the balance required for a system to be able to answer to the most varied demands without endangering the stability of its genetic patrimony?” or, “What is the relation between what is known as interiority and exteriority?” have been intensively analyzed in the history of sciences. In the 19th century, the biologist Gregory Bateson has demonstrated that not one system is able to change according to an external agent, but can only apply, from all its implicit solutions, the one that adapts the most, where the systems ”generate a large number of alternatives and that there is a selection among these determined by something like reinforcement.” Caldeira M., Tiazzoldi C., Outside-in or Inside-out: cit. 118 Bateson G., Mind and nature, E.P.Dutton, New York, 1979. 51 117
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
dell’informazione genetica di un organismo nel corso della sua esistenza. Ogni organismo presenta una certa flessibilità intrinseca derivante dall’esistenza di una ridondanza delle informazioni che permette ad un gruppo di informazioni di combinarsi in modo diverso in funzione delle richieste provenienti dall’ambiente esterno. In un certo senso questa visione si ricollega al concetto di modello o di invarianze progettuali
enunciate
da
Bernard
Cache119
(e
che
verranno
analizzate
più
approfonditamente nel capitolo seguente), secondo il quale: “Il disegno di un progetto per inserzione di componenti obbliga a concepire innanzitutto un "modello" di relazioni che deve essere possibile applicare in tutte le situazioni in cui bisognerà creare un componente dello stesso tipo. Il modello è in qualche modo un'invarianza che deve supportare tutte le variazioni alle quali 120
saranno sottoposti i termini entro cui avremo stabilito delle relazioni.
”
La mediazione fra condizioni esterne ed interne potrebbe avere luogo sulla base della definizione di un modello di regole e proprietà che esplicita una serie di possibilità latenti nel codice stesso e che si concretizzano in una configurazione specifica una volta che esse devono fornire una risposta agli stimoli provenienti dal contesto esterno. E’ sulla logica di questo tipo di approccio che ho iniziato -nell’ambito della Non Linear Solutions Unit121 della Columbia Unit della Columbia University, la ricerca intitolata Responsive Devices. Con
questo termine intendiamo definire un
sistema
dotato di
un
principio
organizzativo interno (un codice) che determina la modalità secondo la forma o altre qualità dello spazio debbano rispondere agli di input esterni (come avviene nel caso di Responsive Devices 2122 in cui alcuni panelli acustici, definiscono la loro dimensione, forma e rotazione sulla base di una serie di vincoli acustici derivanti dal sito, o in Responsive Devices 3123 in cui la distribuzione delle finestre della facciata di un edificio si aggiorna sulla base dell’illuminamento interno). La finalità dei Responsive Devices è di essere in grado di rispondere ad una sollecitazione proveniente dall’esterno sulla base di un codice
che stabilisce le
performance spaziali che deve produrre il sistema.
119
Bernard Cache, architetto e professore al Berlage Institute e fondatore dell’industria “Objectile”, esplora in modo estremamente innovativo le capacità della produzione a controllo numerico, ripensando le basi fondamentali della produzione industriale: non vengono più contrapposti i concetti di “unicità” e “serialità”, in quanto vengono utilizzate le possibilità concrete di realizzare un numero infinito di pezzi unici a partire dalle variazioni generate da un’unica matrice topologica. I suoi progetti si sviluppano ed articolano a partire da alcune “invarianti progettuali” che, grazie alla trasmissione diretta dal modello digitale alle apparecchiature, realizzano una specifica componente architettonica, si concretizzano in diversi oggetti di design. 120 Cache B., In difesa di Euclide cit. 121 Disponibile all'indirizzo: www.arch.columbia.edu/nlsu (17/03/06). 122 Si veda: Tiazzoldi C., Applied Responsive Devices 2: Formal Modulation for Acoustic Performance of a Bridge, Apparato 12 del presente lavoro. 123 Si veda: Tiazzoldi C., Applied Responsive Devices 3: Formal Modulation for Light Performance in Residential Design, Apparato 13 del presente lavoro. 52
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
L’obbiettivo della ricerca in questione va al di la della semplice ricerca teorica ed ha la finalità di permettere ai progettisti di manipolare un crescente livello di complessità incorporando direttamente in fase di modellazione la serie di vincoli ai quali deve adempire un progetto.
Immagine 19 - Come funziona un Responsive Device Immagine per gentile concessione di Christopher Whitelaw, presentata alla conferenza Applied Responsive Devices, Tiazzoldi/ Whitelaw Columbia University, New York, marzo 2006.124
124 Si veda: Tiazzoldi C., Applied Responsive Devices 1: Copertura per le nuove università di Torino, Apparato 11 del presente lavoro. 53
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
Immagine 20 – Come funziona si articolano le regole interne di un responsive device Immagine per gentile concessione di Christopher Whitelaw, presentata alla conferenza Applied Responsive Devices, Tiazzoldi/ Whitelaw Columbia University, New York, marzo 2006.125
Un esempio di questo tipo di approccio è il progetto sviluppato in collaborazione con Nicolas Tixier dell’Ecole d’Architecture de Grenoble.126 L’obbiettivo dell’esperimento era di riprendere il progetto di una serie di pannelli acustici da posizionare ai lati di un ponte. Il progetto originale, realizzato da BlueOffice Architecture e LeCresson era stato ottenuto a partire da serie di iterazioni fra le proposte formali degli architetti e la risposta alle verifiche acustiche delle stesse. Il processo progettuale ha quindi avuto luogo tramite un processo di approssimazione di tipo quasi artigianale. La proposta sviluppata nell’ambito del corso Responsive Device 2 aveva la finalità di invertire la metodologia di lavoro introducendo già in fase di modellazione la serie di relazioni ( che collegavano la distanza fra origine del suono ed elemento da isolare alla dimensione e posizione nello spazio dei panelli), grazie alle quali era possibile soddisfare costantemente una serie di requisiti fisici. L’introduzione di questo sistema di vincoli interni, i volumi del modello tridimensionale ha permesso di ottenere un
125
Si veda: Tiazzoldi C., Applied Responsive Devices, Apparato 10 del presente lavoro. Si veda: Tiazzoldi C., Applied Responsive Devices 2: Formal Modulation for Acoustic Performance of a Bridge, Apparato 12 del presente lavoro. 54
126
Strumenti Non Lineari di Progettazione: Casi Applicativi/Ricerca di forma
sistema in cui i pannelli si assestavano automaticamente al variare delle condizioni del sito.
Immagine 21 â&#x20AC;&#x201C; Assestamento di un sistema di pannelli in funzione di una serie di requisiti acustici derivanti dal sito. Immagine per gentile concessione di Christopher Whitelaw, presentata alla conferenza Applied Responsive Devices, Tiazzoldi/ Whitelaw, Columbia University, New York, ottobre 2005.127
Questo è solamente uno degli esempi secondo i quali la mediazione fra componente interna ed esterna del progetto può avvenire attraverso un codice che regola le variazioni formali e spaziali. Il limite di questo approccio deriva dalla necessità di contenere il numero delle variabili per ovviare la messa a punto di un modello poco maneggevole sia dal punto di vista concettuale che dal punto di vista informatico.
127
Si veda: Tiazzoldi C., Applied Responsive Devices 2: Formal Modulation for Acoustic Performance of a Bridge, Apparato 12 del presente lavoro. 55
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
2.2
ANALISI DI RELAZIONE
Nel capoverso precedente sono stati approfondite quelle applicazioni di strumenti derivanti dalle Scienze della Complessità che potessero influire sulla ricerca di forma. Nelle linee a venire verrà approfondito il modo secondo il quale tali strumenti possono contribuire alla soluzione di problemi funzionali complessi legati all’ottimizzazione dell’utilizzo dello spazio, alla gestione dei beni pubblici ed alla manipolazione di quelle componenti del progetto che, a causa dell’elevatissimo livello di interdipendenza fra le parti e del loro carattere dinamico, sono difficilmente controllabili con strumenti tradizionali.
2.2.1 MVRDV: relazioni parametriche Il primo esempio che verrà analizzato consiste nella proposta metodologica sviluppata dal gruppo olandese MVRDV e che consiste nella messa a punto del software Function Mixer, finalizzato a controllare il crescente livello della complessità del progetto nella sua dimensione programmatica e funzionale. Winy Maas afferma che, interrogandosi su quale modello progettuale fosse necessario sviluppare per offrire soluzioni adeguate alla complessità delle richieste, al sovrapporsi delle funzioni, all’aumento della densità, dell’intensità e la diversificazione dello spazio derivanti dall’evoluzione delle politiche economiche, ecologiche, fisse o mutevoli che esse fossero, sia stato necessario mettere a punto un sistema che permettesse di mescolare le funzioni in relazione alla mutazione dei parametri spaziali, qualitativi e quantitativi in cui può essere articolato un progetto. Il programma Function Mixer, è stato sviluppato operando una miscela e sovrapposizione funzionale che permettesse di lavorare con l’interdipendenza dei parametri che stanno alla base delle diverse relazioni.128 L’obbiettivo era di mettere a punto uno strumento operante sulla base di processi multidimensionali e che contribuisse alla creazione di un contesto che fosse allo stesso
128 “
La elaboración de este programa ha supuesto el desarrollo de procesos multidimensionales que pueden llevar a la creación de animados entornos funcionales que sean sostenibles, intrincados, variados y emocionantes. Llegamos a la conclusión de que no existía nigún paquete informático, entre los ya comercializados, que diera satisfacción a nuestras necesidades. Hay programas específicos de realismo. Sin embargo, lo que a nosotros nos interesaba era más bien un conjunto de campos. Para cumplir este objetivo, el Mezclador de Funciones se ha desarrollado como un producto dinámico, un proceso y no un resultado y estático; ofrece libertad de elección dentro de unos parámetros mutuamente determinados, y permite hacerse una idea física y espacial. El programa puede manejar datos en grandes cantidades y de gran complejidad, -incluidos algunos invisibles, como el ruido o las dimensiones económicas-. El uso de programas informáticos urbanos como instrumento de ayuda a los arquitectos y urbanistas con misiones pluridisciplinares plantea muchas cuestiones interesantes relativas al futuro del urbanismo y la arquitectura. ¿Se convertirá la programación informática en parte esencial de la disciplina?”. (MVRDV 1997-2002, "El Croquis", numero 111, Madrid, 2002). 56
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
tempo funzionale, vivace e emozionante. Per sviilppare un programma capace di agire su più dimensioni è stato realizzato un prodotto dinamico, da intendersi come un sistema in progress -o come uno strumento euristico- e non come una macchina che fornisse un unico risultato. Function Mixer, permette di manipolare grandi quantità di dati -anche quelli che si potrebbe definire come invisibili quali il rumore o la dimensione economica. Esso si basa principalmente su di un sistema parametrico in cui i vari elementi sono collegati da una serie di relazioni.
Immagine 22 – Raccolta ed analisi su scala territoriale di alcuni dati capaci di trasformarsi in elementi operativi del progetto attraverso il software Function Mixer. Immagini tratte da: MVRDV 1997-2002, "El Croquis", numero 111, Madrid, 2002.
La possibilità di creare un elevato numero di connessioni permette di gestire un elevato livello di complessità. Function Mixer è riconducibile a quelli che nell’ambito del paragrafo Errore. L'origine riferimento non è stata trovata. sono stati definiti come modelli analitici o data driven, poiché si basa sull’esplicitazione delle relazioni esistenti fra le varie componenti del sistema tramite una serie di regole parametriche che reagiscono sulla base di una serie di criteri if/then, if/or.129
Immagine 23 – Varie configurazioni di scenari sviluppati da Function Mixer Immagini tratte da: MVRDV 1997-2002, "El Croquis", numero 111, Madrid, 2002.
129
Si veda: paragrafo Errore. L'origine riferimento non è stata trovata..
57
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
Immagine 24 – Visualizzazione di una schermata di Function Mixer e dei parametri agenti su di esso Immagini tratte da: MVRDV 1997-2002, "El Croquis", numero 111, Madrid, 2002.
Il Function Mixer presenta l’enorme vantaggio di analizzare condizioni che sono raramente rappresentabili in architettura. Maas afferma che la scelta di sviluppare un proprio programma deriva dal fatto che il mercato non offriva nessun prodotto che rispondesse ai requisiti ricercati. I softwares disponibili si limitavano all’analisi di alcuni elementi molto specifici quali il calcolo acustico, illuminotecnico e strutturale ecc… A giustificare questo stato di fatto è possibile addurre tre ragioni. La prima deriva dalla mancanza di abitudine nell’inserire regolarmente nel progetto di architettura e quindi nei softwares la componente dinamica delle relazioni che operano sullo spazio costruito. La seconda dipende dalla difficoltà di tradurre in elementi quantificabili una serie di proprietà qualitative (per esempio il livello di pericolo, efficienza, confort) dello spazio. Questa operazione può essere svolta solo sula base di un’interpretazione fortemente
soggettiva
per
tanto
non
può
essere
inserita
in
un
software
commercializzabile. L’ultima considerazione da farsi è che, un sistema sviluppato su di una base olisitica in cui gli elementi manifestano un elevato livello di interdipendenza fra le parti, porta a delle incoerenze interne al sistema risolvibili solo grazie ad una serie di scelte personali. E’ da aggiungere che esiste un limite tecnico allo sviluppo di un simile applicativo, come verrà visto nel paragrafo Errore. L'origine riferimento non è stata trovata., anche nell’ambito delle Scienze della Complessità, i problemi di conflittualità sono facilmente gestibili solo se il numero degli elementi in gioco e delle regole che agiscono su di essi sono limitati, questo porta a considerare con un forte distacco critico la possibilità di lavorare su di un sistema caratterizzato da un elevatissimo numero di regole e componenti.
58
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
2.2.2 Keller: Dinamiche Temporali Secondo Bernard Tschumi130, per quanto i progettisti siano coscienti dell’esistenza di una serie di proprietà dinamiche intrinseche all’architettura, l’intangibilità che caratterizza alcune di esse, le trasforma in entità difficilmente integrabili nel processo progettuale. Per questo motivo un’intera dimensione del progetto è rimasta a lungo indeterminata, o si è limitata ad essere trattata in maniera completamente soggettiva.131 Per questo motivo secondo Tschumi, le ricerche di Ed Keller132 e dei suoi studenti si distinguono per il loro dichiarato interesse nell’esplorare, grazie all’utilizzo di dinamiche complesse, quegli aspetti dell’architettura che non sono rappresentabili con strumenti tradizionali ma che possono essere concepiti come parti essenziali del progetto di architettura. Keller ispirandosi alla visione di Foucault secondo il quale lo spazio architettonico va concepito come l’esercitazione di un potere politico, investiga sulla possibilità offerta dagli strumenti contemporanei di rappresentare e quindi di gestire, il sistema di relazioni politiche e sociali apparentemente impalpabili ma la cui capacità di azione sul costruito è determinante. Per questo motivo nel corso di 10 anni di laboratori di progettazione e di seminari, Keller, ha esplorato a fondo la capacità di apparati astratti quali diagrammi, animazioni e mappature nel fine di mettere a punto strumenti capaci di saper rappresentare l’aspetto dinamico delle relazioni che stanno alla base della società e quindi della città contemporanea. Questo tipo di approccio è entra nel vivo di una delle problematiche fondamentali dei sistemi complessi e che si basa sulla necessità di lavorare su sistemi dinamici, operanti in condizioni di non equilibrio e caratterizzati da un elevato livello di interdipendenza fra gli elementi in gioco. Lo visione dello spazio urbano esplorato da Keller si articola attorno ad una serie di attori urbani che operano sullo spazio modificandolo in funzione delle relazioni sociali. Grazie all’utilizzo di programmi che, come
Maya,
derivando
dall’industria
del
cinema,
permettono
di
lavorare
sistematicamente con la componente dinamica degli elementi, è possibile manipolare
130 Keller E., Chronomorphology: Active Time in Architecture, Columbia Books on Architecture, New York, 2004, pp. 132-135. 131 Bernard Tschumi sostiene che: "architectural historians and theorists have generally emphasized the spatial dimension of architecture in their assessments. Architects, while aware of the dynamic implication of their work have rarely theorized about what they have considered intangible. Consequently a whole dimension of architecture has remained indeterminate, based on subjective perceptions rather than on objective analysis.This is why the investigations by Ed Keller and his students are so important. They provide an exploration into a domain most likely to develop in the next decade in architectural thinking. How to define the presence of architecture when this presence has become increasingly transient, fluid, and ephemeral? Ed Keller, in his Chronomoroholigies proves again that the studio environment, in a major school of architecture, can be a fertile ground for invention and discoveries". (Keller E., Chronomorphology cit., p. 132). 132 Ed Keller è designer, scrittore, architetto, musicista ed artista multimediale e vive a New York. E’ Assistente Professore di Architettura alla Columbia University. Nel 1998 ha fondato Atelier Chronotype, studio per la ricerca sul design. I progetti più recenti dello studio includono giochi per il computer, screenplay ed installazioni sonore. Suoi saggi e ricerche sono stati pubblicati in Architecture, Precise, Wired e Metropolis. 59
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
fenomeni quali interazioni sociali, politiche, e culturali.
L’utilizzo di animazioni
permette di concepire lo spazio costruito come la risposta ad una rete fitta di interazioni fra le parti costituenti del sistema.
2.2.3 Conclusione rapportata ad esperimenti personali E’ mia opinione personale che l’utilizzo di sistemi non lineari per lo studio delle relazioni dinamiche che stanno alla base della concezione e dell’utilizzo dello spazio, presenti un forte interesse in quanto permette di lavorare con elementi che fino ad oggi non è stato possibile sistematizzare. Il fatto di poter inserire nel processo decisionale architettonico quella serie di elementi che possono influire in maniera concreta sul progetto quali relazioni politiche, sociali e culturali, rappresenta un enorme potenzialità nella progettazione. In effetti se è vero che, come afferma Rem Koolhas, oggi a causa del forte rallentamento causato dalla pluridecisionalismo che sta alla base di ogni processo decisionale, è possibile lavorare solamente in quei nei paesi in cui “grazie” ad una specifica condizione politica (vedi regimi totalitaristi), la gestione del progetto avviene in maniera unitaria, appare manifesta la necessità di sviluppare nuovi strumenti di gestione del progetto capaci di affrontare la crescente complessità dello stesso. Per questo motivo numerosi dei casi studio su cui ho lavorato in questi
anni, si
basano sul tentativo di definire una via progettuale che permetta di lavorare attivamente in un contesto caratterizzato da molti decisori. Il tipo di sperimentazioni sviluppate su questa linea guida presenta due tendenze principali. La prima è riconducibile in a quella che viene definita progettazione partecipata, e che si focalizza sulla creazione di una connessione diretta fra utenti e progetti, fra pressioni sociali e spazio costruito. La seconda si incentra sulla messa a punto di un sistema progettuale capace di sfruttare l’apparente dispersività dei procedimenti progettuali tradizionali utilizzando per l’appunto tecniche di impronta non lineari. Alla prima filiera appartenfìgono due progetti. Il primo, PS2006133, aveva la finalità di gestire la dispersività dei processi decisionali urbani attraverso un interfaccia gestionale che operasse come un video gioco (per questo motivo il progetto si chiama Play Station 2006). L’idea era di coinvolgere i cittadini nel processo decisionale ricollegandosi quindi alla proposta di intelligenza collettiva proposta da Pierre Levy. In questo tipo di proposta il software stesso era un sistema di controllo e di mediazione fra i vari attori ed utenti e gestito dagli stessi. Per questo motivo la proposta era di realizzare un interfaccia che facilitasse i processi
133
Si veda: Tiazzoldi C., PS 2006_a Video Game that Organize the City, Apparato 5 del presente lavoro.
60
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
auto-organzzativi e che permettesse di valutare in tempo reale il peso esercitato dalle proposte fatte dai singoli cittadini.
Immagine 25 – Una schermata del gioco Immagini tratte da: Tiazzoldi C., PS 2006_a Video Game that Organize the City, Apparato 5 del presente lavoro.
Il secondo progetto da considerarsi come un’installazione per i giochi Olimpici invernali presentato nell’ambito del seminario internazionale Arch’art e realizzato in collaborazione con Massimo Banzi dell’Interaction Design Institute, aveva l’obbiettivo di sensibilizzare il pubblico sull’effetto diretto creato da una condizione sociale sullo spazio costruito. Per questo motivo il progetto creava una connessione diretta fra un flusso emozionale e la possibilità di utilizzare uno specifico edificio. In effetti l’idea era di variare l’accessibilità di un padiglione in funzione del livello della neve circostante che era a sua volta controllato dagli innevatori artificiali, i quali dipendevano da un flusso di informazioni (in questo caso era il tifo prodotto negli stadi). Il concetto era di trasformare un’informazione astratta ed emotiva in un reale materiale da costruzione (la neve) operante sullo spazio e modificandone la fruizione. La regola che generava lo spazio non era di tipo deterministico ma era una dipendeva da un algoritmo che connetteva un flusso di dati con la materialità del costruito.
61
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
Immagine 26 – Il funzionamento del sistema. Immagini tratte da: Tiazzoldi C., Arch'Art 1: Torino 2006_Digital Snow Active Public, Apparato 6 del presente lavoro.
In questi due casi la gestione di procedimenti complessi in qualche modo legati a molti decisori veniva ovviata incentrando l’interesse sullo sviluppo di interfacce che facilitassero le manifestazioni di processi di auto-organizzazione. Nei paragrafi successivi verranno analizzati alcuni esempi di progetti la cui finalità era di capire e quindi di aumentare in controllo su sistemi non lineari (caratterizzati dalla molteplicità delle variabili, dall’alto livello di interdipendenza fra gli elementi in gioco e dal carattere dinamico delle relazioni e delle forze operanti sui sistemi ) Il primo lavoro in cui ho provato ad utilizzare strumenti che permettessero di aumentare il controllo sulla componente dinamica di un progetto su cui operavano vari decisori e diversi ambiti disciplinari (caratterizzati nella maggior parte delle volte da una forte conflittualità interna), è stato sviluppato nel 2001 nell’ambito del corso di progettazione tenuto da Ed Keller presso la Columbia University intitolato Negantropic Architecture. L’idea di negantropia consisteva nell’utilizzare tutti quegli elementi che solitamente sono la causa di dispersione e di indebolimento del processo progettuale (decisori multipli, conflittualità degli interessi ecc..), per attivare un sistema sinergetico dotato
62
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
di una certa robustezza.134 Per questo motivo è stato necessario sviluppare un modello che permettesse di lavorare con una moltitudine di elementi di diversa natura per valutare l’effetto che ognuno di essi produceva sul sistema complessivo. In una prima fase il lavoro è consistito nello sviluppare e successivamente nel verificare lo strumento con il quale realizzare il modello di studio. Quest’ultimo è stato fatto sulla base di un’animazione di Maya (Wave Front) che permettesse di lavorare direttamente con le forze operanti sul sistema (quali tensioni multiple, flussi politici, economici, culturali, amministrativi ecc…. ). Tale apparato doveva essere in grado di superare i limiti tipici dell’approccio riduzionista permettendo di fare un’analisi in cui venisse considerato l’elevato livello di interdipendenza presente fra gli elementi in gioco. L’obbiettivo era di rappresentare un sistema attraverso una serie di relazioni dinamiche (gestite tramite il software Maya) che permettessero di esplicitare la maniera secondo la quale le varie relazioni esistenti fra le parti del sistema fossero in grado di cambiarne il comportamento globale. Nel fine di verificare l’attendibilità dello strumento utilizzato, è stato necessario di lavorare su di un problema conosciuto in maniera tale da poter verificare la relazione, e quindi l’attendibilità, esistente fra dati in entrata (input) e quelli in uscita (output).
Immagine 27 –Simulazione fatta tramite un’animazione di Maya fatta sulla base di fatti storici noti grazie ai quali è possibile valutare la coerenza fra dati in entrata e dati in uscita. Immagini tratte da: Tiazzoldi C., Edward Keller Studio, Apparato 2 del presente lavoro.
134
Si veda: paragrafo Errore. L'origine riferimento non è stata trovata.
63
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
In un secondo tempo ho proceduto con lo studio su di uno specifico caso urbano (il quartiere di Harlem)
in cui le forze in gioco derivavano dalle relazioni esistenti fra
popolazione, patrimonio architettonico, culturale, amministrativo del quartiere di Harlem. La simulazione realizzata permetteva di comprendere in che maniera evolvesse il sistema in funzione della creazione o distruzione delle relazioni esistenti fra i vari attori; permettendo quindi di avere una visione globale delle variazioni del sistema al variare di alcune delle relazioni locali.
Immagine 28 – Applicazione dello stesso modello all’analisi del quartiere di Harlem. Immagini tratte da: Tiazzoldi C., Edward Keller Studio, Apparato 2 del presente lavoro.
Il limite del modello realizzato è che non forniva nessun tipo di informazione relativa alla traduzione in termini spaziali del sistema di relazioni definito. Questo problema, che verrà ripreso nell’ambito del paragrafo Errore. L'origine riferimento non è stata trovata. si ripropone in tutti quei casi in cui il modello messo a punto non è in grado di fornire nessuna informazione al riguardo della traduzione dei risultati individuati in relazioni capaci di operare sulla fisicità del progetto.
64
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
Per questo motivo nel caso del progetto Petite Machine à Decider135, svolto in occasione del seminario internazionale Arch’art ed in collaborazione con Ecole d'Architecture de Grenoble, Laboratoire Cresson, Falculté Polytechnique de Mons, Accademia Albertina di belle arti Torino, Politecnico di Torino, Blueoffice architecture, può essere considerato come un esperimento finalizzato a creare una relazione diretta fra un procedimento decisionale complesso e la messa a punto di una serie di scenari spaziali ad esso corrispondenti. La proposta fatta nell’ambito del progetto Petite Machine à decider, si focalizza non solo sulla gestione di processi decisionali caratterizzati da numerosi agenti, ma si articola sullo sviluppo di una serie di strategie progettuali operanti sulla realtà del costruito. Il progetto in questione era caratterizzato da una duplice componente da un lato una pluralità di decisori e dall’altro una molteplicità di progettisti che si manifestava nei vari gruppi che lavoravano sul progetto. L’apparente dispersività relativa al tema proposto e alla modalità di lavoro ha permesso di compiere una riflessione sugli strumenti da utilizzare in una situazione fortemente dispersiva. Il sito era ubicato in una situazione ai margini di vari ambiti di competenza: fra il tunnel del Frejus, la città di Bardonecchia, la società autostrade e la società che gestisce gli impianti sciistici. Ognuno dei decisori era disposto a partecipare al progetto proporzionalmente all’interesse derivante dal tipo di soluzione adottata. Ad ogni decisore corrispondeva un tipo di scenario ideale. La proposta finale aveva l’obbiettivo di riuscire ad essere sufficientemente robusta da non dipendere completamente da un unico decisore, ma efficiente al punto di non essere troppo dispersiva. L’idea sulla quale si basava la proposta era di scomporre i vari scenari in una serie di unità elementari136 , o di sub progetti, che grazie all’utilizzo di un processo combinatorio137, potessero dar origine ad una serie di scenari inediti. La possibilità di ricombinare gli elementi in gioco permetteva di dare una certa robustezza al sistema in quanto le varie configurazioni non erano legate linearmente alla volontà dei singoli decisori. Un dato evento poteva essere la conseguenza di diverse situazioni, allo stesso modo uno stesso scenario poteva derivare da origini distinte.
135
Si veda: Tiazzoldi C., Arch'Art 2: Petite Machine à Décider, Apparato 7 del presente lavoro. Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. 137 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. 136
65
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
Immagine 29 – Variazione dell’accessibilità dell’edificio causata dal livello della neve. Immagini tratte da: Tiazzoldi C., Arch'Art 2: Petite Machine à Décider, Apparato 7 del presente lavoro.
Il progetto è rimasto solo sotto forma di proposta è non è stato implementato tramite nessun tipo di verifica realizzata tramite la messa a punto di un algoritmo. 66
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
E’ possibile affermare che l’esperimento fatto presso il Santa Fe Institute138 in collaborazione con un gruppo di giovani ricercatori possa essere considerato come il proseguimento concettuale del progetto di Bardonecchia in quanto aveva la finalità di sviluppare un algoritmo che fosse in grado di rappresentare il tipo di soluzione individuata nel progetto Petite Machine à decider. Per quanto l’applicazione fosse basata su un caso studio completamente diverso (l’analisi della distribuzione della corrente elettrica in Cina), il concetto analizzato era molto simile139. In effetti consisteva nella messa a punto di un algoritmo capace di trovare le soluzioni più adatte (in termini di efficienza e di robustezza) in un network finalizzato a gestire le risorse di un sistema (comparabile quindi alla distribuzione degli investimenti per realizzare i vari sub progetti operanti nel caso di Bardonecchia). Per mettere a punto il modello in questione si è lavorato in parallelo con tre algoritmi sviluppati su Matlab. Il primo aveva come obbiettivo di strategizzare i percorsi, ossia di individuare la maniera più efficiente per ottenere un determinato risultato, il secondo aveva la finalità di individuare la modalità secondo la quale garantire la sopravvivenza di un nodo del sistema al cambiare delle condizioni al contorno ed infine l’ultimo aveva la finalità di capire quali fra tutti i nodi presentassero una maggior resistenza alle modifiche del sistema. In altre parole l’ultimo algoritmo era finalizzato ad individuare il nucleo più stabile del sistema che non cambiasse al variare delle condizioni al contorno del sistema e che, potrebbe essere comparato a quello che Cache definisce come invarianze progettuali140. E’ a partire dalla volontà di approfondire il concetto stesso di invarianze (inteso come quell’insieme di regole che sono indipendenti dalle condizioni al contorno), che sono stati sviluppati i due progetti Casa Designer141 e Parametrics of Desires142. L’obbiettivo era di mettere a punto
un modello progettuale che fosse capace di adattarsi al
variare degli input esterni (e quindi che fosse in grado i adattarsi ai vari requisiti degli utenti, del sito ecc..) senza cambiare il sistema di regole o il modello concettuale che lo aveva definito.143 Le due proposte avevano la finalità di tradurre alcune delle condizioni che stanno alla base di un’unità abitativa in una serie di regole e vincoli che fossero in grado di rispondere alle diverse richieste funzionali ed estetiche dei loro utenti. I progetti sono rimasti sotto forma di proposta teorica in quanto ho riscontrato immediatamente la
138
Studio disponibile all'indirizzo: http://www.santafe.edu/education/csss/csss05/papers/trancik_et_al._csssbj05.pdf Nel paragrafo Errore. L'origine riferimento non è stata trovata., verrà dimostrato come un modello o un codice non debba essere perfettamente simile alla realtà analizzata ma debba essere considerato come un’astrazione della stessa ed è da considerarsi come appropriato nella misura in cui esso sia capace di cogliere alcune delle proprietà essenziali del problema su cui si lavora. Per questo motivo uno stesso modello può essere applicato in casi studio molto distinti. 140 Si veda: paragrafo 2.3.1.3 141 Si veda: Tiazzoldi C., Parametrica, Casa Designer, Apparato 3 del presente lavoro. 142 Si veda: Tiazzoldi C., Parametrica, The House of Multiple Dimensions, Apparato 4 del presente lavoro. 143 Si veda: capitolo Errore. L'origine riferimento non è stata trovata. 67 139139
Strumenti Non Lineari di Progettazione: Casi Applicativi/Analisi di relazione
difficoltà di tradurre un progetto complesso come una casa in una serie di attributi e relazioni elementari la cui articolazione potesse portare ad un risultato significativo. E’ apparso evidente che fosse necessario iniziare a lavorare su di un sistema molto più semplice.
Immagine 30 – Parametrics of desires e Parametrics of surfaces - Shinkenchiku Residential Design. Immagini tratte da: Tiazzoldi C., Parametrica, The House of Multiple Dimensions, Apparato 4 del presente lavoro.
E’ sulla base di queste considerazioni metodologiche che è stata impostata la ricerca Responsive Devices alla quale ho accennato precedentemente. L’idea è di identificare un sistema di regole da considerarsi come delle invarianze le quali quando applicate in diverse condizioni, sono in grado di fornire una risposta adeguata. Per riuscire a rendere operativi questo tipo di modello, evitando quindi di creare troppe conflittualità interne è necessario lavorare con un numero estremamente limitato di variabili e di regole nel fine di essere in grado di avere una perfetta comprensione degli elementi operanti
sul
sistema
in
questione.
La
radicale
semplificazione
che
richiede
l’elaborazione di alcuni modelli può essere considerata come uno dei maggiori limiti dei casi applicativi in architettura di regole e apparati astratti come algoritmi o sistemi codificati.
68
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
2.3 In Non Standard Architecture,
144
TECNOLOGICO-STRUTTURALE
Frederique Mygariou afferma che l’applicazione in
architettura di algoritmi di calcolo è in grado di rivoluzionare l’approccio al progetto sia nella sua dimensione concettuale che in quella produttiva. L’impatto del paradigma Non Lineare sulla produzione del progetto può essere riconducibile a due principali categorie: la prima legata al suo aspetto tecnologico e la seconda incentrata sulla dimensione statica e strutturale. Dal punto di vista tecnologico si possono distinguere due tipologie applicative: la realizzazione di forme uniche e complesse (di cui sono l’esempio i lavori di Frank Gehry145, Greg Lynn e Renzo Piano) ottenibile grazie all’utilizzo di apparecchiature a controllo numerico e la gestione di sistemi produttivi complessi (di cui sono l’esempio in lavoro di Cache e Frazer). Dal punto di vista strutturale, l’utilizzo di apparati concettuali derivanti dalle Scienze della Complessità, è riconducibile a tre situazioni: la prima permette, grazie all’utilizzo di software molto elaborati, di controllare situazioni strutturalmente complesse (come avviene nell’esempio dell’utilizzo di reti neurali per la prevenzione dei danni causati dai sismi), nel secondo caso serve a verificare l’attendibilità di un ipotesi di calcolo (come avviene nel caso degli esperimenti sviluppati al Politecnico di Losanna), nel terzo ed ultimo esempio lo strumento di analisi strutturale diventa un vero e proprio apparato di progettazione che contribuisce attivamente alla ricerca di forma (come avviene nel caso del Cecil Balmond146 e dell’Advanced Geometry di Ove Arup).
144
"Derrière la généralisation d'un emploi de logiciels ce représentation qui a déjà redéfini la pratique et le projet architectural, l'appel à des outils mathématiques, aux algorithmes génétiques, s'est universellement étendu à tous les secteurs de l'information et de la production. Une architecture prise par des principes d'interrelations, de variabilité et de simultanéité à toutes les étapes de sa mise en oeuvre, doit donc organiser son cadre critique sur les bases mêmes imposées par une généralisation du code numérique. La notion d'une architecture non standard induit tout à la fois une réflexion sur les langages non standard, ainsi que sur les champs d'application qu'ils autorisent”. (Migayrou F. (a cura di), Architectures non standard cit., p. 13). 145 Frank Gehry ha fondato lo studio di architettura Frank Gehry and Partners nel 1962. Da quel momento ha lavorato alla progettazione di edifici pubblici e privati in America, Europa ed Asia. Tra i progetti recenti dello studio si annoverano il Fisher Performing Art Center del bard College di Annadale on Hudson, New York, la Walt Disney Concert Hall in Los Angeles, e l’Experience Music Project in Seattle. 146 Cecil Balmond è dal 2004 è chairman di Arup. E’ un ingegnere strutturale specializzato nello sviluppo di soluzioni innovative. Lavora con numerosi architetti di fama mondiale e il suo interesse si incentra ricerca di un ordine derivante dalle relazioni matematiche che stanno alla base di alcune condizioni strutturali. 69
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
2.3.1 Realizzazione di Forme Complesse
2.3.1.1 Gehry, Piano, Nio: Il CNC - Dal modello Digitale alla Linea di Montaggio In
Architectures
Non
Standard
Migayriou147
enfatizza
il
ruolo
svolto
dalle
apparecchiature a controllo numerico148 nel processo produttivo dell’architettura. Attraverso il concetto di Architettura Non Standard egli esplora la modalità di produzione in serie in cui progetto e produzione mutano con la stessa velocità, in cui processi produttivi come la modellazione assistita digitalmente e le tecniche di prototipazione rapida, materializzano ad ogni istante la forma definita dal modello tridimensionale e in cui la forma stessa è da considerarsi in perenne mutazione a causa delle fluttuazioni dell’algoritmo che le ha generato. Grazie a questo tipo di produzione sembra possibile cancellare lo scarto temporale che fino ora ha separato la concezione formale dalla realizzazione del prodotto architettonico.
Immagine 31 – Lavorazione a controllo numerico di componenti meccaniche.
147
"L'avènement d'un domaine computationnel généralisé s'impose en effet moins comme un cadre ce représentation. I'Idée d'un monde du virtuel, que par I'instauration d'un champ irrationnel continu et homogène, la conception production distribution de numérique ouvre la vola d'une traductibilité générale qui a déjà bouleversé tous les domaines de la production Industrielle". (Migayrou F. (a cura di), Architectures non standard cit., p.13). 148 “Il CNC (Computer Numeric Control), è un sistema di lavorazione dei materiali in cui gli utensili vengono controllati da macchine che operano una trasmissione di dati diretta dal modello digitale al prodotto finito. Fra gli usi più comuni citiamo l’impiego di macchine da taglio di fogli o lamiere di materiali come legno, metallo, mdf. In molti casi (come per esempio per il taglio dei materiali lapidei) questi procedimenti, per quanto estremamente precisi e talvolta più economici di quelli tradizionali, sostituiscono semplicemente lavorazioni realizzabili anche con strumenti meno sofisticati. Diverso è il caso delle lavorazioni tridimensionali in cui la realizzazione di pezzi speciali fatta con macchine CNC permette di ottenere elementi che non potrebbero essere realizzati altrimenti, se non con tempi e costi quasi incommensurabili.”Digitale in costruzione: computer numeric control, in “Il Giornale dell’Architettura”, n. 16, marzo 2004, Umberto Allemandi e C., Torino 2005, p. 28. 70
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Il Computer Numeric Control permette di creare una connessione continua fra il modelli bi e tridimensionali e il prodotto finito. E’ grazie a questo tipo di lavorazione che si apre in architettura una nuova stagione formale di cui Frank Gehry, Renzo Piano, Maurice Nio, Greg Lynn sono l’esempio.
Immagine 32 - Renzo Piano, Auditorium Parco della Musica, Roma, Italy. Un esempio è il soffitto della sala 2007 dell’auditorium di Roma di Renzo Piano, realizzato dall’impresa di costruzioni Bodino S.P.A. e inaugurato lo scorso inverno. Il soffitto è costituito da una serie di gusci le cui forme irregolari sono dettate dall’ottimizzazione dell’acustica. Questi gusci, a causa delle loro imponenti dimensioni (il più grande misura circa 12x8 metri) e della necessità di realizzarli con estrema precisione, per non comprometterne le prestazioni acustiche, sono stati realizzati quasi interamente con l’utilizzo di macchine a controllo numerico. La realizzazione di un modello digitale avanzato ha permesso di scomporre ogni guscio in diversi conci. Il modello digitale ha quindi consentito di verificare la perfetta coincidenza dei giunti dei conci al fine di ottenere un assemblato le cui caratteristiche fossero analoghe a quelle di un pezzo unico. Successivamente, il medesimo modello è servito a comandare le macchine che hanno fisicamente realizzato i vari conci. Le informazioni venivano trasmesse dal computer ai pantografi (macchinari che lavorano scavando il materiale) utilizzando la tecnologia Cnc per controllare gli utensili, quali frese e punte. Il modello è infine servito per realizzare la struttura metallica di sostegno dei gusci. Grazie alla perfetta adesione tra progetto ed elaborato finale è stato possibile realizzare queste parti contemporaneamente alle altre, riducendo i tempi di produzione e senza introdurre quei margini di tolleranza tra una parte e l’altra che spesso compromettono le prestazioni statiche, termiche e acustiche del prodotto finale.149 Immagini disponibili all’indrizzo: http://194.185.232.3/works/047/pictures.asp
La nuova logica di produzione, riporta l’attenzione sull’aspetto costruttivo e materico dell’architettura, in quanto permette di superare i problemi derivanti dalla difficoltà non solo di esecuzione di una specifica forma ma anche di comunicare e trasmettere agli artigiani le indicazioni appropriate per la realizzazione di forme tridimensionali complesse.
Immagine 33 - Nio Architecten, Bus Station, Haarlemmermeer, The Netherlands, 2002. Un esempio di forma complessa disegnata e realizzata grazie all’utilizzo di strumenti di modellazione e di produzione digitale e’ la stazione degli autobus realizzata per lo Hoofddorps Spaarne Hospital da Maurice Nio. La forma che lo stesso Nio definisce come il punto di intersezione fra modernismo e barocco e’ stata realizzata con un cassero a perdere in schiuma di polistirene e di poliestere spruzzato in cemento. Immagini disponibili all’indirizzo: http://www.nio.nl/
149
Ivi.
71
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Immagine 34 - Nio Architecten, Bus Station, Haarlemmermeer, The Netherlands, 2002. La tecnologia adottata ha permesso di realizzare completamente la forma a controllo numerico trasmettendo i dati dal modello digitale tridimensionale alla fresa che ha sagomato il cassero a perder in polistirolo sul quale è stato spruzzato del cemento. L’utilizzo di apparecchiature normalmente utilizzate nel contesto navale ha permesso di far fronte alle grandi dimensioni degli elementi da realizzare. Immagini disponibili all’indirizzo: http://www.ivarhagendoorn.com/photos/architecture/nio_busstation.html
Immagine 35 – Nio Architecten, Bus Station, Haarlemmermeer, The Netherlands, 2002. Immagini disponibili all’indirizzo: http://www.ivarhagendoorn.com/photos/architecture/nio_busstation.html
2.3.1.2 Lynn: Invarianze Seriali "Occorre creare lo spirito della produzione in serie, lo spirito di costruire case in serie, lo spirito di concepire case in serie. […] La serie è basata sull'analisi e sulla sperimentazione. La grande industria deve occuparsi della costruzione e produrre 150
in serie gli elementi della casa"
.
Nel paragrafo precedente sono stati analizzati alcuni casi secondo i quali grazie all’utilizzo di apparecchiature a controllo numerico è stato possibile realizzare una serie di forme estremamente complesse.
150
Le Corbusier, Verso una architettura, Longanesi & C., Milano, 1992, p. XLI.
72
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Nell’articolo Dialogo transtorico fra Le Corbusier e Greg Lynn 151, analizzo le implicazioni sulla concezione e produzione del progetto derivanti dalla transizione dal paradigma meccanicistico a quello non lineare. L’articolo si incentra sulle figure di Corbusier e Greg Lynn in quanto si possono considerare come architetti che hanno lavorato attivamente sulla problematica della relazione esistente fra potenzialità produttive di una specifica epoca e le conseguenze che ne decorrono sulla concezione del progetto. Nel Dialogo vengono analizzate le implicazioni derivanti dal passaggio da un sistema produttivo la cui sostenibilità dipendeva dalla produzione in massa di una specifica componente ad un sistema caratterizzato dalla possibilità di variare all’infinito la forma degli elementi realizzati. L’aspetto rivoluzionario di questo sistema di produzione risiede nel nuovo valore che acquisisce ogni oggetto in quanto può essere considerato allo stesso tempo unico e seriale. L’ Embryological House del 1998152 è da considerarsi come uno dei primi casi su cui Lynn ha esplorato massicciamente il concetto di varianza seriale nella produzione architettonica. La casa embrionica consiste nella messa a punto di un modello unico capace di attualizzarsi in numerosissime varianti. Descrivendo il progetto Lynn afferma che, in un’epoca
in cui la genetica ha preso il sopravvento sulle altre discipline, la casa
embrionica investiga sulla possibilità di realizzare una modello153 evolutivo capace di rispondere al variare delle condizioni dell’ambiente154. Il progetto della casa embrionica è reso possibile dalla sua scomposizione in un gruppo di elementi organizzati secondo un processo parametrico che tiene conto dei vincoli formali e tecnologici. Il guscio esterno della casa è costituito da 2048 pannelli: al variare della forma complessiva in funzione di un input esterno, tutti i panelli rispondono aggiornando automaticamente i dati da trasmettere alle apparecchiature a controllo numerico che li produrranno.155 Grazie a questa fluidità di trasmissione dei dati dal modello digitale tridimensionale al sistema produttivo, è possibile ottenere infinite variazioni formali delle parti costituenti del progetto.156 La casa Embrionica è la manifestazione della volontà di realizzare un modello tipico o prototipale, capace di unire le caratteristiche dell’unicità e della serialità e si ricollega al più ampio dibattito intellettuale relativo alla definizione dell’idea stessa di similitudine157 il cui potenziale architettonico, secondo Lynn, non è ancora stato esplorato fino in fondo.
151
Tiazzoldi C., Dialogo transtorico fra Le Corbusier e Greg Lynn. Una riflessione sul concetto di automatismo in architettura, Parte 2, disponibile all'indirizzo: http://architettura.supereva.com/extended/20040710/ 152 Migayrou F. (a cura di), Architectures non standard cit., p. 98. 153 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. 154 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. 155 Greg Lynn Advanced studio V, fall 1998, Index Architecture, MIT Press, Cambridge, 2003, p. 216. Citazione non testuale. 156 Ivi. 157 Gilles Deleuze’s Difference and Repetition (1968, translated 1994) introduces the importance of a philosophy of difference by describing how difference may be internal to the nature of every Idea and how every Idea may have 73
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Immagine 36 – Embryonic House Greg Lynn alcune configurazioni (variazioni seriali) dello stesso modello progettuale. Tschumi B., Berman M., Index architecture, MIT Press, Cambridge, 2003, p. 156.
Il progetto sviluppato da Greg Lynn per Alessi può essere considerato come la sperimentazione su piccola scala del concetto espresso nella casa embrionica. Il progetto è stato concepito in maniera tale che ogni pezzo fosse unico per quanto l’insieme dei pezzi fosse unito da una coerenza generale”.158 L’idea di poter avere una duplice dimensione (locale e globale), in cui le variazioni agenti in scala locale non mettessero in discussione la coerenza del
sistema operante in scala globale, si
ricollega all’idea evidenziata nel paragrafo 2.1.1.2, in cui per superare i problemi di conflittualità interna che si manifestavano nel paradigma deterministico, è stato necessario sviluppare apparati concettuali capaci di conciliare ed unire in un unico sistema coerente le spinte organizzative di tipo botton up e quelle di tipo top down. Nel progetto realizzato per Alessi ogni elemento deriva da un'unica matrice concettuale e geometrica per quanto la sua forma e posizione siano uniche.
multiple elements which may be differentiated. Deleuze explains that difference and repetition have a reality which is independent of the concepts of sameness, identity, resemblance, similarity, or equivalence. Pure difference is not a factor of negativity, or a negation of sameness, but affirms the actuality of an Idea 158 Migayrou F. (a cura di), Architectures non standard cit., p. 91. 74
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Immagine 37 - Alessi: Tea & Coffee Towers: LYNCAF progetto Greg Lynn. Nel caso del servizio da the realizzato per la Alessi, Lynn descrive di aver tracciato una famiglia di curve che, una volta assemblate, fossero compatibili e che sono state derivate da una matrice da cui era possibile generare 50.000 diverse variazioni. Descrive di aver quindi realizzato il prototipo con un robot a controllo numerico. I pezzi sono realizzati con laminati di titanio scaldati e compressi. La loro superficie sono modellate a controllo numerico con un procedimento che opera sotto vuoto e che permette quindi di ottenere una grande varietà formale a partire da un'unica metodologia produttiva. Immagini gentilmente concesse da Greg Lynn FORM.
La letteratura sul tema delle implicazioni concettuali e pratiche derivanti dal una produzione a controllo numerico di componenti per l’architettura, sembra enfatizzare una forte connessione che avviene fra modellazione tridimensionale e
sistema
produttivo. Nel fine di verificare questa ipotesi nel 2004 è stato avviato il progetto di ricerca Automazione in Architettura, realizzato in collaborazione con Politecnico di Torino, Regione Piemonte e Maire Engineering. L’obbiettivo del progetto era di valutare l’impatto effettivo
sulla realtà produttiva della metodologia suggerita da
159
Lynn.
.
Il progetto Automazione in Architettura aveva la finalità di valutare l’effettiva possibilità sfruttare il know-how meccanico e produttivo presente sul del territorio piemontese per mettere in pratica, in ambito edilizio, il concetto di unicità seriale. Nella ricerca sono state analizzate quattro modalità secondo le quali l’interfaccia CAD/CAM opera sul processo progettuale e produttivo: Una delle applicazioni analizzate era per l’appunto la produzione diretta (senza esecuzioni di stampi) di pezzi unici o componenti tridimensionali ottenuta a partire dalla lavorazione dei materiali lapidei, lignei o metallici. Come visto precedentemente le potenzialità di questo approccio dipendono dalla capacità di realizzare
forme
complesse la cui qualità di esecuzione permette di aumentare il livello di controllo sul progetto. Il limite di questo tipo di approccio dipende dal fatto che si tratta di
159 Tiazzoldi C., Grazie all'architetto, adesso facciamo da soli, in "Il Giornale dell'Architettura", numero 16, Marzo 2004, Umberto Allemandi e C., Torino 2005. 75
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
lavorazioni estremamente costose, e non possono essere applicate in maniera sistematica (ne è la prova il costo dei pezzi realizzati per Alessi). Tali lavorazioni possono risolvere solo alcuni dei problemi della produzione. In effetti se è possibile produrre pannelli dalle forme complesse lavorate tridimensionalmente rimane irrisolto il problema di tutte le altre componenti (giunti, strutture ecc) e della connessione di ognuna di esse al resto del sistema. La realtà dei fatti sembra suggerire che al di là degli esperimenti pionieristici molto pubblicizzati, la possibilità di produrre, grazie al controllo numerico infiniti pezzi unici tridimensionali a oggi è ancora molto limitata. Per questo motivo molte delle lavorazioni tridimensionali si limitano al settore del design nelle quali è possibile realizzare un elemento nella sua interezza a partire da una lavorazione unica tridimensionale.
76
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
2.3.1.3 Cache Objectile: Associatività
Immagine 38 –Una serie di elementi caratterizzati da un invarianza seriale. Immagini tratte da: Cache B, Speaks M., Earth Moves: The Furnishing of Territories, MIT Press Cambridge, 1995.
In In Difesa di Euclide160, Bernard Cache afferma che sarebbe sbagliato chiamare complessa un’architettura dalle forme sinuose disegnate e prodotta grazie ad un computer.161 Cache propone un approccio al progetto in cui concezione e produzione siano solidali nonché finalizzate ad un’economia162 concettuale e produttiva. L’idea consiste nella possibilità di mettere a punto un modello produttivo semplice, capace
di
concretizzarsi
in
diverse
configurazioni
e
che
si
manifesti
nella
razionalizzazione del progetto e nella sua articolazione in un sistema coerente. Per descrivere la maniera grazie alla quale viene messo a punto un processo progettuale di questo tipo Cache fa appello al concetto di associatività: “per associatività si intende il metodo che, tramite l'utilizzo di un software, permette di costituire il progetto architettonico attraverso una lunga catena di relazioni, dalle prime ipotesi concettuali fino alla guida delle macchine che prefabbricano i componenti da assemblare in cantiere.“
160
163
Cache B., In difesa di Euclide , in: Arch'it, rivista digitale di Architettura, disponibile all'indirizzo: http://architettura.supereva.com/index.html (10/01/06). 161 “A quali condizioni un'espressione come "architettura non-standard" può avere senso? Forse è più facile cominciare a rispondere per negazioni. Se in effetti un'architettura non-standard consistesse nel generare delle superfici più o meno morbide che definiremo in seguito come edifici trasferendoli su una batteria di software di produzione, per creare delle specie di sculture a prezzo molto elevato che non hanno più alcun rapporto con la sedimentazione storica e sociale che costituisce la città, allora non faremmo che perpetuare il mito romantico dell'architetto artista.” (Beaucé P., Cache B., Verso un modo di produzione non-standard, in Arch'it, rivista digitale di Architettura, disponibile all'indirizzo http://architettura.supereva.com/index.htm (10/01/06)). 162 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. 163 “Ciò che abbiamo appena descritto riguarda solamente le attività di concezione del progetto. Ora tutta la difficoltà dell'architettura non-standard sta nella grande quantità di informazioni che bisogna generare e manipolare per fabbricare industrialmente dei componenti diversi gli uni dagli altri, ad un prezzo che non sia necessariamente più elevato di quello che si otterrebbe con un procedimento standard. Per generare efficacemente questi flussi di 77
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Di conseguenza la fase produttiva finale non è che l’elemento conclusivo di un lungo processo che mira a ridurre al massimo l’entropia164 concettuale e produttiva che sta alla base del progetto.
Immagine 39 –Cache B., Beauncé P., Pannelli decorativi lavorazioni a controllo numerico su 2 o 3 dimensioni. Immagini tratte da: Migayrou F. (a cura di), Architectures non standard, Catalogo della mostra, Centre Pompidou, Paris, 2003. pp. 147-149.
“Affinché l'associatività non sia soltanto una prodezza tecnologica e affinché questa
si
inscriva
nella
realtà
economica,
bisogna
assicurare
una
forte
165
integrazione tra concezione e produzione”.
Immagine 40 – Sistema di pannelli e giunti associativi, la variazione della forma del pannello provoca un cambiamento sugli esecutivi dei giunti. Immagini per gentile concessione di Bernard Cache.
L’interesse di Cache per il concetto di economia (intesa come economia del pensiero e dei processi produttivi) si manifesta nell’utilizzo di tecnologie relativamente semplici per strutturare progetti concettualmente e formalmente complessi. In effetti da una prima fase in cui eseguiva sostanzialmente lavorazione tridimensionali di componenti
informazioni e assicurare un'associatività completa tra concezione e fabbricazione, è importante prima di tutto lavorare su uno stesso nucleo, che permetterà, tra l'altro, di assicurare il controllo dimensionale dei componenti dalla fase di concezione fino alla generazione dei programmi (codice ISO) che muoveranno le macchine digitali assicurando la produzione degli oggetti. In questo modo, il capitolato di un sistema di CAD-CAM associativo comprende almeno quattro elementi fondamentali. Il primo ha per causa la necessità di gestire dei grossi insiemi di elementi complessi e tutti diversi, elementi che non è più possibile disegnare uno per uno. Questo obbliga a ricorrere ad un processo che chiamiamo tecnicamente l'inserzione dei componenti. Il disegno di un progetto per inserzione di componenti obbliga a concepire innanzitutto un "modello" di relazioni che deve essere possibile applicare in tutte le situazioni in cui bisognerà creare un componente dello stesso tipo. Il modello è in qualche modo un'invarianza che deve supportare tutte le variazioni alle quali saranno sottoposti i termini entro cui avremo stabilito delle relazioni. Che il platonismo porti in germe tutti gli sviluppi tecnologici delle nostre società occidentali, questa è per noi un'affermazione che non è più oggetto di speculazione teorica, bensì il risultato di verifiche empiriche”. Beaucé P., Cache B., Verso un modo di produzione nonstandard cit. 164 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. 165 Ivi. 78
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
complesse, Cache passa ad un tipo di lavorazione che mira ad ottenere un assemblato di pezzi bidimensionali.
2.3.2 Gestione Sistemi Costruttivi Complessi Nel paragrafo precedente è stato dimostrato come, per motivi di economia produttiva e
concettuale,
l’idea
di
complessità
tecnologica
è
andata
spostandosi
dalla
realizzazione di forme complicate -resa possibile dall’utilizzo di apparecchiature a controllo numerico, alla gestione di processi costruttivi complessi attraverso un modello produttivo associativo. L’importanza derivante dalla messa a punto di un processo concettuale e produttivo finalizzato ad utilizzare le potenzialità del controllo numerico per lavorazioni semplici e per la gestione di un processo produttivo complesso, appare chiaramente nell’esempio trattato in A New Epoch: Automated Design Tools for the Mass Customization of Housing166 in cui, Larson, Tapia e Pinto Duarte, analizzano le cause del fallimento dell’esperimento fatto da Walter Gropius e da Konrad Wacksman nel corso degli anni ’40 e il cui obbiettivo era di produrre un sistema di case prefabbricate altamente personalizzabili. Gropius sosteneva che la validità del progetto risiedeva nella messa a punto di componenti di lineari, di facile lavorazione, che potessero andare incontro alle richieste di personalizzazione del pubblico senza compromettere tuttavia una forma di coerenza formale e tettonica. Il tentativo fu un clamoroso fallimento. La fabbrica era stata realizzata per produrre circa 10.000 case per anno e prima ancora di averne prodotte 200 dovette chiudere. All’origine di tale insuccesso stava la difficoltà di aggiornare velocemente i modelli tipologici alle soluzioni corrispondenti alle scelte personali dei clienti, trasformandosi quindi in un incubo dal punto di vista logistico. Aggiornare i disegni esecutivi di cantiere e mandarli in produzione richiedeva una gestione talmente complessa del processo progettuale da renderlo inaccettabile.
166
Larson K., Tapia M.A., Pinto Duarte J., A New Epoch: Automated Design Tools for the Mass Customization of Housing, in: A+U, n. 366, March, 2001, disponibile all’indirizzo: http://architecture.mit.edu/house_n/documents/AutomatedDesignTools.pdf (25/02/06). 79
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Immagine 41 –Personalizzazione seriale dei progetti sulla base di profili bidimensionali. Immagini tratte da: Larson K., Tapia M., Pinto Duarte J., A New Epoch: Automated Design Tools for the Mass Customization of Housing, disponibile all’indirizzo: http://architecture.mit.edu/house_n/documents/AutomatedDesignTools.pdf (01/12/05).
Appare evidente che questo tipo di problema risulta come completamente superato se è
possibile
creare
una
connessione
diretta
fra
modello
tridimensionale,
sistematizzazione degli elementi da produrre e linea di produzione. In questa maniera è realmente possibile pensare ad un concetto di produzione seriale di infiniti pezzi unici. Secondo Larson, Tapia e Pinto Duarte, oggi è possibile mettere realmente in opera il progetto di Gropius senza rischiare di cadere nello stesso tipo di problematiche grazie alla possibilità di gestire processi produttivi complessi tramite la messa a punto di un modello coerente che si basi su di una solida relazione fra modello concettuale e modello produttivo.
Immagine 42 – Whitelaw C., Digital Fabrication, 2004. Modello digitale/modello costruito. Creazione di una comunicazione continua fra software di modellazione e interfaccia cad/cam Immagini disponibili all'indirizzo: www.columbia.edu 80
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Per verificare l’attendibilità di tale ipotesi concettuale nell’ambito della ricerca Automazione in Architettura167, ho isolato il caso di una società che lavora con alcuni dei
presupposti
produttivi
proposti
da
Gropius
e
da
Waksman
e
quindi
successivamente da Larson, Tapia e Pinto Duarte. Il modello produttivo con cui lavora la società oggetto dello studio, Mero Italiana spa, si basa sulla scomposizione di forme complesse in componenti elementari come aste, profili o superfici piane (lavorabili con tecnologie elementari). Un esempio di questo approccio è la copertura realizzata per la nuova fiera di Milano progettata da Massimiliano Fuksas che è stato costruito principalmente a partire da componenti lavorate su una o due dimensioni.
Immagine 43 – Fuksas M., Fiera di Milano, Italy. Immagini disponibili all’indirizzo: http://www.fuksas.it/html/entrada.html
L’idea di economia in questo tipo di approccio non si limita solamente alla facilità con la quale vengono realizzate le singole lavorazioni, ma dipende anche dalla possibilità di mettere a punto un unico modello produttivo, flessibile al punto da essere altamente riproducibile168 ma allo stesso tempo sufficientemente preciso da poter gestire quasi tutto il processo automaticamente. In effetti il modello sviluppato da Mero permette di realizzare una grande varietà
di forme a partire da un unico
modello produttivo. Da un sopralluogo compiuto al dipartimento di progettazione di Mero Italiana, è stato possibile capire come avviene tale processo. In primo luogo una superficie tridimensionale progettata da un architetto viene ridotta nella sua parte strutturale in una serie di nodi, aste e superfici di tamponamento.
Immagine 44 – Mero Structures, Inc. Dettagli di giunti del sistema ad aste. Immagini disponibili all’indirizzo: http://www.mero.us/about/ref_loc.html.
167
Si rimanda a: http://www.giovaneinnovazione.it/news.asp 156.Tiazzoldi Caterina- protocollo n.SPTO-14229/10/2004/16.59 - ID di progetto n.111. 168 Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. 81
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Immagine 45 –La riduzione di una forma complessa in elementi lineari. Immagini disponibili all’indirizzo: http://www.mero.us/about/ref_loc.html.
Il software, prodotto dalla stessa Mero, permette di gestire tutte le informazioni relative al calcolo strutturale, al dimensionamento delle aste, dei nodi, delle superfici vetrate. Lo stesso programma permette di verificare i punti dove si sviluppano conflittualità (come nodi troppo grandi, o come la sovrapposizione di componenti ecc..). Dopo questa fase è possibile ottenere in pochi secondi l’intero abaco delle aste, dei nodi e delle superfici (divisi prima per tipologia e quindi per dimensioni). Le informazioni sono successivamente trasmesse dal centro di progettazione alla fabbrica dove tutte le componenti vengono realizzate su di una catena di montaggio che lavora a controllo numerico. Il caso di Mero dimostra chiaramente il potenziale dell’utilizzo del controllo numerico in architettura non deriva semplicemente
dalla possibilità di produrre pezzi
tridimensionali complessi, ma risiede nella possibilità di realizzare un sistema di gestione di sistemi produttivi apparentemente complessi, in quanto dotati di un numero elevatissimo di componenti e che non sarebbe
possibile gestire con un
processo di tipo tradizionale. La messa a punto di un modello produttivo che si basa sulla gestione della complessità relativa alla produzione di migliaia di pezzi unici dimostra l’enorme potenzialità racchiuso nel concetto stesso di modello e nella sua riproducibilità.169 Il limite dell’approccio in questione deriva dal fatto che lo strumento realizzato non può essere classificato come euristico in quanto non permette di creare un sistema in cui forma e struttura evolvono sincronicamente. In effetti tale metodo potrebbe essere descritto come un procedimento a cascata operante in una sola direzione: dalla forma originale, si passa alla scomposizione in elementi finiti e quindi alla produzione in officina.
169
Si veda: paragrafo Errore. L'origine riferimento non è stata trovata..
82
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
2.3.2.1 Frazer Gehry Technologies: Parametrizzazione Un altro esempio in cui il concetto di complessità produttiva si riflette nella messa a punto di software capaci di gestire problemi estremamente complessi, è il caso di Gehry Technologies. Gehry Technologies (GT)170 è stata creata nel 2002 da Frank Gehry, Jim Glymph and Dennis Shelden. Il suo obbiettivo è di sviluppare l’industria della costruzione attraverso la commercializzazione dei software prodotti ed alla loro applicazione attraverso servizi di consulenza. Nell’ambito del convegno, Arte e Complessità171 tenutosi a villa Gualino e del corso Non Linear Construction172 tenutosi al Politecnico di Torino John Frazer, in qualità di consulente del gruppo, riconferma l’idea isolata precedentemente secondo la quale il concetto di complessità produttiva si manifesta più nei processi gestionali che nella realizzazione di pezzi unici tridimensionali. Presso Gehry Technologies vengono sviluppati software (principalmente parametrici), che possono essere considerati come delle vere e proprie interfacce progettuali in quanto permettono di creare una finestra di dialogo fra la scelta di una specifica soluzione tecnologica (la tassellazione di una superficie in triangoli oppure quadrati, il numero di elementi secondo la quale è possibile scomporla, il numero di elementi sagomati tridimensionalmente da realizzare in funzione dei costi) ed il risultato formale da essa prodotto. Come afferma Frazer la possibilità di collegare tramite un software parametrico tutte le componenti in gioco in un progetto, permette di aumentarne il controllo (in termini di costi, tempi di produzione) ad un livello inimmaginabile fino a pochi anni fa. La possibilità di esplicitare tramite la programmazione l’insieme di vincoli, e delle regole che stanno alla base del processo produttivo si collega al concetto di Cache secondo il quale progettare equivale a programmare che verrà analizzato nel capitolo Errore. L'origine riferimento non è stata trovata.. A questo proposito Frazer solleva un’interessante questione: considerato l’enorme potenzialità derivante dallo sviluppo di un modello digitale tridimensionale capace di controllare (anche da l punto di vista legale ed amministrativo) simultaneamente tutti gli elementi in gioco del progetto (strutture, impianti, tamponamenti), e considerata l’enorme complessità
che sta alla base di questo tipo di modellazione,
la stessa
realizzazione e manutenzione del modello tridimensionale diventa un tipo di prestazione professionale ed un servizio che è possibile offrire sia agli architetti che ai committenti.
170
Si veda: http://www.gehrytechnologies.com/ Si veda: http://www.isi.it/conference-art.html 172 Si veda: http://didattica.polito.it/scudo/eccellenza/Architettura.doc 171
83
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Questo tipo di condizione porta con se il rischio, da parte degli architetti, di perdere il controllo del modello attraverso il quale si esprimono le relazioni e i vincoli e attraverso il quale si esplicitano le decisioni progettuali. Per questo motivo come verrà visto nella terza parte è fondamentale che gli architetti partecipino se non alla realizzazione diretta del software, alla formulazione delle regole e condizioni da tradurre in vincoli parametrici che sono alla base del processo di modellazione digitale e concettuale.
Immagine 46 - Visual Building - Permette di fare una simulazione di un edificio in ogni suo aspetto: struttura ventilazione, impianti eccâ&#x20AC;Ś Immagine disponibile all'indirizzo: http://www.gehrytechnologies.com/company-press-03-23-2006.html
84
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
2.3.3 Forma e Struttura In questo paragrafo verranno analizzati alcuni casi in cui grazie all’utilizzo di algoritmi non lineari è possibile approcciare dei problemi strutturali che non sono risolvibili con un procedimento deterministico di tipo tradizionale. Il criterio con cui sono stati scelti i casi studio in questione, si incentra sulla volontà di approcciare i tre possibili utilizzi di uno modello scientifico173 e che sono di tipo analitico, dimostrativo ed esplorativo.
2.3.3.1
Politecnico di Torino: Reti Neurali - Analizzare
Il caso dell’utilizzo di reti neurali sviluppato presso il Politecnico di Torino, per la previsione dei danni provocati dai sismi sulle strutture murarie, presenta tutte le valenze di un modello la cui potenzialità risiede nel poter manipolare ed analizzare una serie di dati con un procedimento non determinista. In Prediction of seismic damage in masonry buildings by means of probabilistic neural networks174 Alessandro de Stefano, Donato Sabia, Leonardo Sabia, propongono l’utilizzo delle reti neurali come strumento classificatore dei possibili danni che può avere un edificio conseguentemente alle azioni di un sisma. La classificazione avviene calibrando la relazione esistente fra la tipologia del sisma, nelle sue varie componenti, ed il tipo di risposta fornito dalla muratura in funzione delle sue caratteristiche, geometriche, tecnologiche e geologiche (relative al sito nel quale l’edificio è inserito). L’interesse dell’utilizzo di questa metodologia risiede nella possibilità di ottenere una classificazione accurata delle probabilità di danno, che sarebbe impossibile ottenere con metodologie tradizionali. In effetti gran parte del patrimonio architettonico italiano, è costruito principalmente in murature la cui, eterogeneità dei materiali, delle forme e delle tecniche costruttive, non permetterebbe di
calcolare con un
procedimento deterministico tradizionale la tipologia dei danni a cui sono soggetti i singoli edifici.
173
Si veda: paragrafo Errore. L'origine riferimento non è stata trovata. Bernardini A., Seismic Damage to Masonry Buildings, Proceedings of the international workshop on measures of seismic damage to masonry buildings, Monselice/Padova/Italy 25-26 June 1998, A. A. Balkema, Rotterdam/Brookfield, 1999. 85
174
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Immagine 47 - Reti neurali. Layout of a feedforward network. Lo schema secondo oil quale si struttura una rete neurale. Immagini tratte da: Ceravolo R., De Stefano A., Grosjacques M., Sabia D., Experimental identification of structural damage by neural network, in: The American Society of Mechanical Engineers", 1995, p. 1130.
L’utilizzo di una rete neurale permette di determinare la probabilità del danno grazie alla gestione di un processo basato sulla classificazione della probabilità con la quale si produrrà uno specifico evento, fatta in funzione della gestione di una serie di dati in entrata ed in uscita in ogni singolo neurone. E’ da notare che una delle caratteristiche delle reti neurali risiede nella relazione esistente fra l’allenamento di una rete (il numero di casi simili previamente trattati) e la correttezza delle previsioni.
Immagine 48 - Reti neurali. In questo caso si vede la differenza fra una rete a “inizio allenamento” ed una rete a “fine allenamento”. Il sistema è stato in grado di classificare le probabilità con le quali si realizza uno specifico evento e per tanto è stata in grado di calibrare i pesi delle connessioni esistenti fra i vari gruppi. Elementary damage mechanisms for the facade macro-elements. Immagini tratte da: Bernardini A., Seismic Damage to Masonry Buildings, in: Proceedings of the international workshop on measures of seismic damage to masonry buildings, Monselice/Padova/Italy 25-26 June 1998, A.A. Balkema, Rotterdam/Brookfield, 1999, p. 202.
86
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
2.3.3.2 Politecnico di Losanna: Calibrazione dei Modelli - Dimostrare Il progetto Coques Nervurées en bois Structures Spatiales en bois175 sviluppato dal professor Weinand176 del Politecnico di Losanna, può essere considerato come un esempio nel quale viene verificata o dimostrata l’effettiva attendibilità di un modello di simulazione strutturale. La finalità del caso studio era di lavorare in maniera sincrona su di un programma di modellazione ed un applicativo finalizzato alla verifica strutturale. Per questo motivo a partire da una superficie sono state estratte alcune delle linee geodetiche sulla base delle quali sarebbe stata definita la struttura principale del guscio.
Immagine 49 – Le fasi della realizzazione dei gusci in legno: iterazioni fra matlab, software di modellazione, immagini modello in scala 1/1 realizzato. Immagini disponibili all’indirizzo: http://www.weinand.be/etudes/daphnis-lalo.htm (24/02/06).
175 Yves Weinand, architetto ingegnere, professore ordinario al Politecnico di Losanna, incentra le sue ricerche sull’ottimizzazione delle sinergie fra algoritmo matematico e software di modellazione. Il suo obbiettivo è di ottenere, a partire dall’ottimizzazione delle proprietà statiche e tecnologiche di uno specifico materiale, una serie di forme e geometrie fin’ora inedite, derivanti per esempio dall’analisi delle linee geodiche di una struttura in legno. Ecole polytechnique fédérale de Lausanne, Atelier Weinand, disponibile all'indirizzo: http://www.weinand.be/etudes/daphnis-lalo.htm (24/02/06).
87
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Per soddisfare una condizione che riflettesse la realtà, le linee geodetiche ottenute sono state estrapolate dal software di modellazione e quindi ricalcolate nel software strutturale nel fine di verificare se esse soddisfacessero effettivamente le condizioni iniziali. Nel caso in cui i valori identificati avessero superato il valore limite fissato dalla norma sarebbe stato necessario iniziare un’ottimizzazione iterativa sia della superficie che del fascio di linee. La trattazione digitale di tale problema ha permesso di procedere con varie fasi di verifica e ricalibrazione del modello sia dal punto di vista del calcolo della forma che dal punto di vista di valutazione degli stati tensionali e del dimensionamento delle componenti strutturali. Weinand racconta come tale strumento sia utilizzabile anche nell’organizzazione del processo costruttivo in quanto è possibile utilizzare le informazione del modello digitale per la produzione a controllo numerico delle singole componenti. L’interesse di questo caso risiede nel fatto che si basa su di un processo iterativo finalizzato ad avere un miglior controllo non solo sulla forma, struttura e produzione, ma sullo stesso strumento sviluppato. Come ha affermato Weinand nel corso della lezione tenutasi nell’ambito del corso Non Linear Construction del Politecnico di Torino, una volta realizzato il guscio in questione, è stata fatta una verifica degli effettivi stati tensionali agenti. A partire da questa verifica è stato possibile stabilire e dimostrare il livello di attendibilità dello strumento di calcolo realizzato.
2.3.3.3 Cecil Balmond: Esplorare Il caso di Arup ed in particolare quello dell’Advanced Geometry Unit di Cecil Balmond si dimostra di particolare interesse per la componente esplorativa che può emergere dall’utilizzo di un modello di calcolo strutturale quando applicato come strumento progettuale. L’approccio di Balmond si caratterizza dalla volontà di creare attraverso l’esplicitazione di una serie di regole strutturali un strumento capace di sviluppare soluzioni progettuali inedite. Daniel Bosia177 dell’Advanced Geometry Unit di Ove Arup, afferma che il lavoro svolto da in gruppo di ingegneria può essere classificato in tre categorie: puro supporto ingegneristico, collaborazione attiva fra architetti ed ingegneri (come nel caso del progetto della Serpentine Gallery sviluppato con Toyo Ito), ricerca formale e strutturale svolta nell’ambito dell’Advanced Geometry Unit .
177
Daniel Bosia, architetto (formato come architetto al Politecnico di Torino) e ingegnere strutturale, descriverà il suo lavoro all’interno dell’Advanced Geometry Unit all’interno del gruppo Ove Arup, dove lavora come ingegnere strutturale e di specialista in computer programming. Tramite l’illustrazione di alcuni casi studio verrà evidenziato come avviene la ricerca di forma grazie ad algoritmi non lineari capaci di modellare le forme a partire da specifiche condizioni strutturali. 88
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
L’esempio dell’edificio per la nuova sede della China Central Television (CCTV), ideata da Rem Koolhaas e dal suo Office for Metropolitan Architecture (OMA), è da considerarsi come una situazione intermedia fra puro supporto ingegneristico e progettazione integrata. Per quanto non si possa dire che lo sviluppo della struttura abbia cambiato la natura del progetto, si può sostenere che esso abbia contribuito alla definizione della partitura di facciata. In effetti la membrana sviluppata sulla base di una serie di algoritmi di calcolo che avvolge la facciata, è da considerarsi come una griglia compressa che definisce la struttura sulla base di una conformazione tubolare. Lo schema di diagonali che disegna la griglia riflette la distribuzione delle forze agenti sulla superficie dell'edificio diventando quindi l’elemento di articolazione della facciata.178
Immagine 50 – CCTV site construction project. Le immagini rappresentano lo sviluppo della struttura che avvolge la facciata dell’edificio CCTV. Immagini disponibili all'indirizzo: http://www.cctv.com/newSiteProgram/en/project_info.htm (12/01/06).
178
Another challenge was the need to fulfill all of the seismic design requirements of Beijing. The key question is whether to design the roof with compact sections to behave plastically under seismic loads, or whether to use stiffened slender sections to behave elastically under the loads. To determine which system to use, a world first analysis in inelastic cross-section buckling was undertaken using key techniques developed by Arup. The final tender solution adopted compact sections, which allowed plastic ductility to be taken advantage of under level three seismic loading We are providing structural, geotechnical, security, mechanical, electrical and public health engineering services to architect Rem Koolhaas’ design for the 755ft (230m) high, 4 036 000ft² (375 000m²) CCTV headquarters. The total development is 5 813 000ft² (540 000m²) consisting of two main buildings: the CCTV building and the Television Cultural Centre (TVCC). The new centre combines administration with news, broadcasting, studios and programme production - the entire TV process - in a sequence of interconnected activities. This first building is not a traditional tower, but a continuous loop of horizontal and vertical sections that establish an urban site rather than point to the sky. The irregular grid on the building’s facades is an expression of the forces travelling throughout its structure. It would be a significant structural challenge anywhere in the world, but is especially so as Beijing is in a highly seismic zone. Arup carried out a huge amount of work to demonstrate structural stability in order to satisfy local planning needs. The second building, the TVCC, includes a hotel, a visitor's centre, a large public theatre, and exhibition spaces. CCTV site construction project disponibile all'indirizzo http://www.cctv.com/newSiteProgram/en/project_info.htm (12/01/06). 89
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Nel caso del progetto Marsyas, realizzato con Kapoor in occasione della mostra tenutasi alla Tate Modern nel 2003, è possibile affermare che il contributo strutturale sia stato fondamentale per l’esplorazione e la messa a punto di una nuova forma. In effetti il progetto è stato sviluppato sulla base del concetto artistico di Kapoor di creare uno spazio negativo (un buco); questa condizione, secondo l’artista, era ottenibile realizzando un elemento che non potesse mai essere visto nella sua interezza.
Immagine 51 – Kapoor, A., Marsyas, Tate Publishing, Londra, 2003.Kapoor A., Marsyas, Progetto per la Tate Modern Gallery, London, 2001. Schizzi iniziali Kapoor Immagini tratte da: Kapoor A., Marsyas, Tate Publishing, Londra, 2003. p. 22, 28, 80, 81.
Dopo aver isolato alcune figure che potessero soddisfare le condizioni iniziali di Kapoor ed averle tradotte in un concetto strutturale, è stato deciso di voler sviluppare uno spazio negativo utilizzando le possibilità espressive di una tensostruttura in cui forma la stessa derivasse dallo stato pensionale della membrana.
Immagine 52 – Kapoor, A., Marsyas, Tate Publishing, Londra, 2003. Kapoor A., Marsyas, Progetto per la Tate Modern Gallery, London, 2001. Proposte iniziali sviluppate in collaborazione fra Arup e Kapoor. Immagini disponibili all'indirizzo: http://www.arup.com/europe/feature.cfm?pageid=338 (17/01/06). 90
Strumenti Non Lineari di Progettazione: Casi Applicativi/Tecnologico
Per questo motivo è stato realizzato il software real-time che permettesse di controllare simultaneamente la struttura e la sua risposta spaziale.
Immagine 53 – Kapoor, A., Marsyas, Tate Publishing, Londra, 2003. Kapoor A., Marsyas, Progetto per la Tate Modern Gallery, London, 2001. Una serie di visualizzazioni realizzate con Arup’s Real Time che permettono di verificare la corrispondenza fra impatto sapziale della forma e risposta strutturale. Arup's Realtime simulation. Immagine disponibile all’indirizzo: http://www.arup.com/ard/feature.cfm?pageid=3299 (17/01/06).
91
Strumenti Non Lineari di Progettazione: Casi Applicativi/ Tecnologico-
Per questo motivo è stato realizzato il software real-time che permettesse di controllare simultaneamente la struttura e la sua risposta spaziale.
Immagine 50 – Kapoor, A., Marsyas, Tate Publishing, Londra, 2003. Kapoor A., Marsyas, Progetto per la Tate Modern Gallery, London, 2001. Una serie di visualizzazioni realizzate con Arup’s Real Time che permettono di verificare la corrispondenza fra impatto sapziale della forma e risposta strutturale. Arup's Realtime simulation. Immagine disponibile all’indirizzo: http://www.arup.com/ard/feature.cfm?pageid=3299 (17/01/06).
Immagine 51 – Kapoor, A., Marsyas, Tate Publishing, Londra, 2003.Kapoor A., Marsyas, Progetto per la Tate Modern Gallery, London, 2001. Alcune immagini del progetto realizzato Immagini tratte da: Kapoor A., Marsyas, Tate Publishing, Londra, 2003. p. 22, 28, 80, 81.
Il progetto della piscina Olimpica di Pechino187, realizzato in collaborazione con lo studio di architettura PTW, è un chiaro esempio in cui il prodotto finale deriva direttamente dal sistema di regole che ha dato origine alla struttura. In effetti il nel fine di
187
stabilire la distribuzione nello spazio tridimensionale degli
elementi
Proposta iniziale a cura di Arup, dello studio di architettura PTW, dello CSCEC (China State Construction and Engineering Corporation) e del CSCEC Shenzhen Design Institutes. - 91
Strumenti Non Lineari di Progettazione: Casi Applicativi/ Tecnologico-
strutturali, è stato applicato l’algoritmo di crescita secondo il quale si sviluppa e si auto-organizza una pellicola di sapone nel fine di raggiungere una superficie tensionale minima.
Immagine 52 – Ove Arup, The Water Cube, National Swimming Centre, Beijing, China, 2003. Immagini disponibili all’indirizzo: http://www.arup.com/eastasia/project.cfm?pageid=1250
Immagine 53 – Ove Arup, The Water Cube, National Swimming Centre, Beijing, China, 2003. How the Structure Developed Immagini disponibili all’indirizzo: http://www.arup.com/australasia/feature.cfm?pageid=3978
L’algoritmo che definisce la crescita della struttura è stato sviluppato da Arup in collaborazione con i professori di fisica Weaire and Phelan’s. Alle condizioni iniziali è stato inserito un altro criterio di ottimizzazione
188
che consisteva nel trovare quella
che, fra le varie proposte aggregative prodotte dall’algoritmo, permettesse di minimizzare il materiale utilizzato nel fine di non sovraccaricare eccessivamente la struttura della copertura definita da oltre 22.000 pezzi.
Immagine 54 – Ove Arup, The Water Cube, National Swimming Centre, Beijing, China, 2003. Sviluppo della struttura Immagini disponibili all’indirizzo: http://www.arup.com/australasia/feature.cfm?pageid=3460
188
Vedi paragrafo Errore. L'origine riferimento non è stata trovata.. - -
92
Per una classificazione degli strumenti del Non Linear
3
PER UNA CLASSIFICAZIONE DEGLI STRUMENTI DEL NON LINEARE
- -
93
Per una classificazione degli strumenti del Non Linear
3.1
MODELLI SCIENTIFICI-MODELLI ARCHITETTONICI
Nel capitolo precedente sono state studiate alcune applicazioni in architettura di strumenti derivanti dal paradigma del
Non Lineare quali algoritmi, sistemi
parametrici, tecniche di riscrittura, automi cellulari, reti neurali e algoritmi genetici. L’analisi in questione ha permesso di evidenziare alcune potenzialità e limiti derivanti dall’attuazione del trasferimento metodologico da una disciplina all’altra. La possibilità di lavorare con strumenti non lineari ha permesso di ottenere dei risultati irraggiungibili con un approccio di tipo determinista tradizionale (ne sono la prova la possibilità di lavorare con dinamiche temporali di Keller e Lynn, o su sistemi con variabili altamente interdipendenti come nel caso di MVRDV, Keller, Cache, e Frazer, di utilizzare un numero ridotto di regole per controllare l’evoluzione di sistemi complessi come appare nel lavoro di Chu, Morel, Balmond e Sabia e infine di operare simultaneamente sulla scala globale e locale del modello basti pensare a Lynn e a Cache). Nel corso dello sviluppo dei vari casi studio, è emerso che il trasferimento metodologico attuato fra Scienze della Complessità ed architettura rileva una serie di problemi quali: difficoltà nel tradurre in linguaggio matematico astratto una specifica realtà, nel definire il livello di precisione con la quale devono operare i vari strumenti, nel gestire e calibrare sistemi dall’elevato numero di variabili e nel riportare i risultati ottenuti attraverso modellazioni e simulazioni matematiche ad un contesto realistico e nel creare una connessione equilibrata fra modellazione astratta e prodotto architettonico. Gli esempi analizzati presentano una duplice dimensione: la prima di tipo esplorativo, quasi metafisico, deriva da una nuova maniera di rapportarsi alla realtà e nella quale non è richiesto nessun tipo di precisione; la seconda, nel fine di dare a tali strumenti un certo rigore, richiede un livello di semplificazione tale da rischiare di creare un eccessivo distacco dalla realtà analizzata. Volendo stabilire se problemi in questione siano risolvibili, è di fondamentale importanza capire se essi derivino dall’impossibilità pratica, già sollevata da Coderch e Picon, di “trapiantare” in architettura una disciplina scientifica oppure, se essi si manifestano già nel loro contesto originale (fisica, biologia, chimica e matematica). Saranno quindi richiamati alcuni concetti chiave che caratterizzano le metodologie operanti nell’ambito delle Scienze della Complessità con il fine di stabilire in che maniera esse siano effettivamente applicabili in ambito architettonico. E’ da precisare che lo scopo di quest’analisi non è di ottenere una serie di strumenti, quasi positivisti, operanti in ambito scientifico e da applicare successivamente in ambito architettonico; la finalità di questo lavoro è di capire in che modo sia - -
94
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
possibile sviluppare apparati astratti che permettano di controllare un maggior livello di complessità progettuale. Si procederà pertanto alla definizione, all’analisi delle proprietà ed applicazioni dei modelli scientifici e dei loro corrispondenti architettonici.
In
un
secondo
tempo
si
scorporeranno
alcuni
dei
modelli
maggiormente utilizzati nell’ambito delle Scienze della Complessità nel fine di migliorarne la comprensione e di verificare le condizioni secondo le quali essi possano essere utilizzati anche in architettura. L’articolazione di quest’ultima parte è stata fatta dalla raccolta di materiale recentemente prodotto dal Santa Fe Institute e dal Dipartimento di Matematica del Politecnico di Torino. Il Santa Fe Institute, che da oltre vent’anni incentra la sua ricerca sulle Scienze della Complessità, può essere considerato come uno dei maggiori riferimenti in tale campo.
- -
95
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
3.1.1 Definizione e proprietà dei Modelli “Nell'uso scientifico e tecnico, un modello è una rappresentazione di un oggetto o di un fenomeno, che corrisponde alla cosa modellata per il fatto di riprodurne (eventualmente alla luce di una certa interpretazione) alcune caratteristiche o comportamenti; in modo tale che questi aspetti possano essere mostrati, studiati, conosciuti laddove l'oggetto modellato non sia accessibile.”
189
Immagine 55 – A model Immagine per gentile concessione di John Holland, presentata alla conferenza Complex Adaptive Systems, The Santa Fe Institute, Pechino, luglio 2005.
Un modello è da intendersi come un’astrazione finalizzata a studiare alcuni aspetti della realtà. In questo paragrafo saranno analizzate alcune delle proprietà secondo le quali è possibile valutare un modello e la maniera con cui esso opera sulla realtà. Le proprietà in questione sono: verosimiglianza, riproducibilità e robustezza. A queste proprietà si affiancano i vari usi che si possono fare dei modelli. Come afferma John Holland190 del Santa Fe Institute, un modello ha principalmente tre tipi di applicazioni: la prima è finalizzata ad analizzare, la seconda a dimostrare e l’ultima, e forse più importante, serve ad esplorare. Una rapida analisi delle loro proprietà e delle applicazioni permetterà di esprimere un giudizio sulle affinità esistenti fra modelli scientifici e progettuali.
189
http://it.wikipedia.org/wiki/Modello Professore di psicologia, ingegneria elettronica ed informatica all’università del Michigan nell’area di percezione e scienze cognitive.I suoi studi si focalizzano sull’analisi dei processi cognitivi e complex adaptive systems, utilizzando modelli matematici e simulazioni a computer. - 96
190
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
3.1.1.1 Verosimiglianza Qual è la relazione esistente fra la realtà originale e quella descritta dal modello? In che maniera una rappresentazione astratta mantiene integre le relazioni della realtà originale? Da una rapida lettura di alcune delle definizioni dei modelli, appaiono due filoni interpretativi molto distinti: il primo è basato sulla verosimiglianza formale stabilita con la realtà, il secondo si incentra sull’individuazione di alcune proprietà che caratterizzano il sistema indipendentemente dall’aspetto fisico dello stesso.
191
Nella sua prima accezione, il termine di modello, indica la riproduzione fedele di una specifica realtà –come avviene nel caso delle riproduzioni in piccola scala di un edificio, un bastimento o di un vestito. La verosimiglianza formale diventa una caratteristica determinante per stabilire la qualità del modello. Nella sua seconda accezione, il modello, è quella serie di postulati finalizzata ad identificare un sistema di regole e principi interni al sistema che si vuole descrivere. In questo caso il modello sembra opporre all’idea di verosimiglianza formale e geometrica, la necessità di individuare quella serie di proprietà dinamiche e comportamentali che caratterizzano un sistema. Questa differenza riflette la trasformazione avvenuta in ambito scientifico che ha caratterizzato il passaggio dal paradigma Determinista a quello del Non Lineare, secondo la quale alla precisione delle descrizioni formali si preferisce la capacità di saper identificare le proprietà che determinano il comportamento di un sistema. Il modello non è più concepibile, come lo era nell’ambito delle scienze dure, come uno strumento di predizione esatto, ma diventa un apparato che si focalizza sulla descrizione di massima di una serie di principi interni capaci di descrivere il comportamento complessivo e l’evoluzione temporale del sistema.
191
MODEL (Etymology: middle french modelle, from old italian modello, from (assumed) vulgar latin modellus, from latin modulus small measure, from modus). 1: obsolete: a set of plans for a building; 2: dialect British Copy, Image; 3: structural design a home on the model of an old farmhouse; 4: a usually miniature representation of something; also: a pattern of something to be made; 5: an example for imitation or emulation; 6: a person or thing that serves as a pattern for an artist; especially : one who poses for an artist; 7: Archetype; 8: an organism whose appearance a mimic imitates; 9: one who is employed to display clothes or other merchandise : Mannequin; 10 : a type or design of clothing b : a type or design of product (as a car); 11: a description or analogy used to help visualize something (as an atom) that cannot be directly observed; 12: a system of postulates, data, and inferences presented as a mathematical description of an entity or state of affairs; 13: Version. Synonyms: Model, Example, Pattern, Exemplar, Ideal mean someone or something set before one for guidance or imitation. Model applies to something taken or proposed as worthy of imitation <a decor that is a model of good taste. Example applies to a person to be imitated or in some contexts on no account to be imitated but to be regarded as a warning <children tend to follow the example of their parents. Pattern suggests a clear and detailed archetype or prototype <American industry set a pattern for others to follow. Exemplar suggests either a faultless example to be emulated or a perfect typification cited Joan of Arc as the exemplar of courage. Ideal implies the best possible exemplification either in reality or in conception never found a job that matched his ideal. Disponibile all’indirizzo: http://www.m-w.com/dictionary/model - 97
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
L’idea secondo la quale il modello scientifico non è da intendersi come un elemento la cui qualità dipende dalla verosimiglianza con l’oggetto analizzato è riscontrabile per esempio nelle parole di Livi e Rondoni secondo i quali: “una descrizione completa del sistema reale non aggiunge niente di interessante e, soprattutto, di utile, per rispondere alle nostre domande.”
192
E’ importante notare come i due scienziati evidenzino la relazione esistente fra l’efficacia di un buon modello ed il tipo di domande alle quali vuole rispondere il ricercatore. Questo atteggiamento riflette il generale spostamento delle discipline scientifiche verso quelle che sono state precedentemente definite come scienze morbide. Il fatto che un modello e la sua interpretazione siano vincolati alla posizione del loro osservatore, dimostra che non vi siano modelli o verità scientifiche assolute. Come detto precedentemente l’interesse dei modelli scientifici sembra focalizzarsi sulla capacità di riprodurre alcuni aspetti salienti e caratteristiche utili alla descrizione e comprensione del sistema analizzato. Da questo tipo di interpretazione emerge una relativa indifferenza nei riguardi della verosimiglianza formale con il sistema analizzato. “Un buon modello scientifico mira a ricavare delle predizioni sul comportamento di sistemi reali, a partire da una descrizione semplificata.”
193
Sotto questo punto di vista è possibile affermare che un buon modello si basa su con un approccio topologico alla realtà in quanto favorisce l’analisi delle relazioni che stanno alla base di un sistema alla descrizione formale dello stesso.
Immagine 56 - La trasformazione di una tazza da caffé in una ciambella dimostra che entrambi gli oggetti hanno la stessa tipologia. Immagine tratta da: Peterson I., The mathematical tourist, W.H. Freeman and Company, New York, 1998, p.59.
Un
modello
potrebbe
essere
inteso
come
un
sistema
astratto
capace
di
rappresentare in maniera completa oppure parziale una specifica realtà. La necessità di chiarire il tipo di relazione esistente fra realtà ed astrazione è cruciale anche in architettura e si manifesta nel lavoro di molti progettisti. Per esempio riflettendo sul tema del diagramma, Peter Eisenman afferma che esso
192 193
Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 26. Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 26 - -
98
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
debba essere inteso come un ideogramma, non deve essere totalmente astratto, ma non può nemmeno corrispondere perfettamente alla realtà che rappresenta. It is a representation of something in that it is not the thing itself.”
194
Il diagramma deve sempre portare racchiuso in se il significato profondo della realtà che sta rappresentando in quanto si focalizza sull’identificazione della serie di relazioni e di proprietà intrinseche che ne definiscono l’essenza. Il diagramma non è né una struttura operativa vincolante, ma nemmeno l’astrazione di tale struttura. Esso si incentra sulle relazioni esistenti fra gli oggetti. Non è un elemento iconografico né tanto meno uno strumento con cui mettere a punto analogie
195
.
E’ possibile individuare in numerosi altri apparati di progettazione lo stesso tipo di relazione fra realtà ed astrazione che caratterizza sia i modelli scientifici sia i diagrammi architettonici. Riferendosi agli strumenti operanti nel progetto del concorso per Guangdong Museum di Peter Eisenman, Caldeira e Tiazzoldi analizzano le varie connotazioni che può assumere un codice ed in che maniera esso possa manifestarsi in architettura. Il codice architettonico va interpretato come quella serie di regole che sta alla base della formulazione di un progetto. La qualità di un codice risiede nel saper identificare quella serie di relazioni che sono capaci di descrivere un sistema indipendentemente dalle sue singole applicazioni. 196Una simile relazione appare anche nell’interpretazione architettonica del concetto di Macchina Astratta di Deleuze (utilizzato per esempio da Greg Lynn)
197
caratterizzata da un
forte distacco formale dalla realtà che essa rappresenta ma non dalle sue proprietà intrinseche.
194 Si veda: Tiazzoldi C., Peter Eisenman – Guangdong Museum, Automatismi operanti sul progetto del Guangdong Museum, intervista a Peter Eisenman, Apparato A5 del presente lavoro. 195 “Can never be free of value or meaning, even when it attempts to express relationships of formation and their processes. Al the same time, a diagram is neither a structure nor an abstraction of structure. While it explains relationships in ali architectural object, it is hot iconographic with it”. Si veda: Tiazzoldi C., Peter Eisenman – Guangdong Museum, Automatismi operanti sul progetto del Guangdong Museum, intervista a Peter Eisenman, Apparato A5 del presente lavoro. 196 “Se rapportato alla filosofia, alla linguistica, alla genetica, alla giurisprudenza, all’etica oppure nella sua dimensione astratta, il codice opera tramite la definizione di un set di regole anziché definire un oggetto specifico o un’entità ben precisa. In un sistema codificato il significato risiede più nelle relazioni che esistono fra le parti, che nel singolo elemento: le unità sono effimere in quanto facilmente rimpiazzabili. È proprio in questa qualità che si manifesta la capacità del codice di essere allo stesso tempo uno strumento flessibile (in quanto indipendente dalle unità) e specifico (poiché opera secondo regole estremamente precise). Dalla capacità di stabilire una serie di relazioni fra le parti emerge una componente dinamica del codice.”Caldeira M., Tiazzoldi C., Eisenman. Architettura codificata cit. 197 “Abstract machine consists of unformed matters and non formal functions.” As Deleuze highlights, the abstract machine doesn’t bring information about its concrete and empirical application. “Abstract machines in themselves are abstract, singular, creative, real, non-concrete, actual, non-effectuated.” The machine contains different tools that can be combined in very different ways by the manipulation of the designer of its application on extrinsic conditions (site, territory, programmatic conditions). The fact that the abstract machine contains all the rules of the project is different from the condition of defining a system of rules. In this last case the abstract machine would be a code intended as a body of laws or a system of rules. In the abstract machine, the relation between the internal rules of the project is still not organized; there is not a system to regulate their combinatory behavior. There is not a device that clearly indicates which rule to use in a specific moment, how many times it is to be activated, and which kind of effect the application of a specific rule will imply over the application of other rules. Si veda: Caldeira M., Tiazzoldi C., Peter Eisenman – Guangdong Museum, Automatismi Operanti sul Progetto del Guangdong Museum, revisione di Peter Eisenman al testo sul Guangdong Museum, Apparato A6 del presente lavoro. - 99
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
E’ forse possibile affermare che l’idea di modello, in quanto finalizzato a cogliere quella serie di proprietà astratte che permettono di comprendere e di descrivere le caratteristiche intrinseche di un sistema, in architettura si manifesta in quella che Peter Eisneman definisce l’interiorità di un progetto, e che attraverso l’uso di diagrammi, macchine astratte e codici opera una mediazione fra astrazione e realtà. “But unlike traditional forms of representation, the diagram as a generator is a mediation between a palpable object, a real building, and what can be called architecture's interiority”.
198
3.1.1.2 Riproducibilità Continuando l’analisi delle proprietà che caratterizzano i modelli scientifici e quelli architettonici, è necessario soffermarsi sul concetto di riproducibilità. Come già è stato visto precedentemente nel caso di Greg Lynn, la riproducibilità è una caratteristica da ricercarsi nei modelli scientifici o architettonici che essi siano199. Riprendendo l’idea di Caldeira e Tiazzoldi secondo le quali una delle caratteristiche salienti del codice architettonico è risiede nella flessibilità derivante dalla possibilità di sostituire le singole parti e che permette di utilizzare uno stesso strumento in diverse occasioni, il concetto riproducibilità diventa di primario interesse. “È proprio in questa qualità che si manifesta la capacità del codice di essere allo stesso tempo uno strumento flessibile (in quanto indipendente dalle unità) e specifico (poiché opera secondo regole estremamente precise).”
200
Una delle caratteristiche di un simile apparato progettuale consiste nella possibilità di rimpiazzare le singole unità mantenendo invariate le proprietà intrinseche del sistema.
In
effetti,
la
possibilità
di
analizzare
una
serie
di
relazioni
indipendentemente dai casi sui quali esse operano, permette di utilizzare lo stesso strumento in situazioni diverse in maniera tale da poter fare una serie di valutazione sia sui risultati ottenuti che sulla capacità descrittiva del modello stesso. Anche secondo Cache la riproducibilità è una caratteristica essenziale del modello architettonico. “Il disegno di un progetto per inserzione di componenti obbliga a concepire innanzitutto un "modello" di relazioni che deve essere possibile applicare in tutte
198
Peter Eisenman, Diagram Diaries, Universe Publishing, 1999, p.35.
199 200
Vedi paragrafo 1.6.2 Caldeira M., Tiazzoldi C., Eisenman. Architettura codificata cit. - -
100
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
le situazioni in cui bisognerà creare un componente dello stesso tipo. Il modello è in qualche modo un'invarianza che deve supportare tutte le variazioni alle quali saranno sottoposti i termini entro cui avremo stabilito delle relazioni.”
201
Tale esigenza nei confronti dei modelli è riscontrabile anche nella posizione di Morel secondo il quale, grazie alla riproducibilità è possibile ottenere un comportamento economico (sia in termini concettuali che produttivi). Da un lato la possibilità di utilizzare uno stesso modello per un numero elevatissimo di iterazioni permette di raggiungere risultati non ottenibili con procedimenti di tipo tradizionali. In questo primo caso Morel allude alla riproducibilità di un modello all’interno di un singolo caso studio (come avviene per esempio nel caso dell’analisi delle possibili configurazioni di sedie ottenibili con un algoritmo genetico, o come avviene nel caso delle varie configurazioni spaziali ottenibili con Function Mixer sulla base della variazione di alcuni dei parametri.) Allo stesso tempo fa appello alla necessità di utilizzare uno stesso modello concettuale per lo sviluppo di casi studio distinti in maniera tale riuscire a compensare la difficoltà concettuale che implica la messa a punto di un modello efficiente.
202
A dimostrazione di questa condizione si può
ricordare il caso del modello produttivo sviluppato da Mero la cui potenzialità risiede per l’appunto nella sua elevatissima riproducibilità.
3.1.1.3 Specializzazione Analizzando il concetto di riproducibilità del modello espresso da Livi e Rondoni: “Si
intende
stabilire
un
protocollo
di
riproducibilità
delle
osservazioni
sperimentali, sulla base di misure e non di analogie semantiche”, o d'induzioni pseudo logiche: qualunque fenomeno naturale, per essere compreso, necessità di una misura, piuttosto che di una parafrasi.
203
”,
appare evidente che esso porti con se un altro problema e che consiste nella necessità di stabilire una proporzione fra la riproducibilità e flessibilità dello strumento e la precisione dei risultati ottenuti. Alla flessibilità di uno strumento è necessario, affiancare l’efficienza, producendo quindi dati sulla base dei quali sia possibile fare dei confronti. In effetti, la flessibilità
201
Disponibile all’indirizzo: http://architettura.supereva.com/extended/20040214 (11/01/06). "Quant à la répétabilité, lorsqu’en architecture nous traitons d’une relation (par exemple topologique) sous forme d’algorithme, itérer le processus nous permet, aussi bien lors de la conception que de la fabrication, de répéter à moindre frais un nombre immense d’expérimentations, si bien que dans ce cas, on se rapproche des déclarations d’un scientifique contemporain comme G. Longo – «il faut appliquer au mieux ce talent de l’itération propre aux machines à état discret» et «reconnaître à quel point Galilée nous (donc lui scientifique) aurait envié énormément la possibilité d’itérer sans limites des expériences physiques virtuelles», mais aussi de celle d’ E. Mach, pour qui «toute science a pour but de remplacer ou d’économiser des expériences en représentant et en prévoyant les faits par la pensée; car ces reproductions sont plus facilement à disposition que les expériences elles-mêmes et peuvent dans une large mesure les remplacer."13. Nous aboutissons alors à une répétition imbriquée et à un cycle extrêmement puissants pour la recherche et la production de savoirs, qui trouvent évidennement leurs équivalents dans la pratique même de l’architecture”. (Morel P., Notes sul la Conception Algorithmique, Architecture Non standard, 2003). 203 Livi R., Rondoni L., Aspetti elementari della complessità cit.p.32 - 101 202
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
di un modello porta con se un certo livello di indeterminatezza che risiede nella sua possibilità di concretizzarsi in diverse situazioni. Allo stesso tempo, modelli troppo specifici, rischiano di essere eccessivamente rigidi e quindi applicabili solo in condizioni molto particolari204. Man mano che un apparato progettuale acquisisce in specializzazione e quindi in precisione esso va perdendo parte della sua flessibilità e della sua capacità di descrivere un fenomeno nella sua complessità205. In architettura è possibile affermare che quanto meno è flessibile un apparato progettuale, tanto più esso si avvicina al concetto di automatismo in quanto non necessita più di nessuna specifica da parte dei progettisti e porta iscritte in se tutte le informazioni riguardanti il progetto. Nel testo Architettura codificata, Caldeira e Tiazzoldi, analizzano il processo progettuale per il concorso per il Guangdong Museum di Peter Eisenman soffermandosi sullo studio della modalità secondo la quale gli apparati di progettazione si sono trasformati acquisendo un livello di specializzazione sempre maggiore. Da un diagramma generico e flessibile capace di manifestarsi in diverse applicazioni, è stata messa a punto una macchina astratta in cui, il sistema di relazioni era esplicitato in maniera precisa per arrivare infine allo schema definitivo dell’edificio. Ognuno degli strumenti concettuali utilizzati nelle varie fasi del progetto aveva la finalità di calibrare in maniera efficiente la relazione fra flessibilità dello strumento e la sua capacità di rispondere con una precisione sufficiente alle problematiche che andavano ponendosi di volta in volta. In ogni fase progettuale gli strumenti adottati perdevano flessibilità per aumentare in precisione. E’ importante notare che la specializzazione del modello adottato, non implica la negazione del sistema di regole originario, ma è va concepito come l’attualizzazione di un sistema astratto. In un’intervista fatta a Peter Eisenman sul tema degli automatismi progettuali operanti sul Guangdong Museum
206
, egli questiona la relazione esistente fra
apparati progettuali e livello di prescrittività e si chiede pertanto fino a che punto un diagramma debba operare come un automatismo? “I think the issue of automatism is an interesting one, the interesting issue it is how, the diagram it is or is not automatism”
207
Nel fine di chiarire la relazione esistente fra flessibilità ed indeterminatezza e quindi rigidità e prescrittività, Eisenman classifica i vari apparati progettuali in funzione del
204
Come avviene nel caso del modello produttivo di Mero che è allo stesso tempo flessibile in quanto permette di realizzare moltissime forme, ma rigido in quanto permette di controllare solo un tipo di procedimento produttivo. E’ possibile citare l’esempio di Livi e Rondoni secondo i quali nel fine di poter fare dei paragoni basati su dati numerici, in genetica è necessario stabilire in conformità a che principio fare un modello, la traduzione di un problema in una serie di caratteristiche trattabili numericamente rischia pertanto di far perdere la visione complessiva sul sistema. 206 Si veda: Tiazzoldi C., Peter Eisenman – Guangdong Museum, Automatismi operanti sul progetto del Guangdong Museum, intervista a Peter Eisenman, Apparato A5 del presente lavoro. 207 Ivi. - 102 205
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
livello di precisione e di prescrittività con cui operano sul progetto. Secondo Eisenman gli automatismi sono gli strumenti più rigidi in quanto per poter essere autonomi devono essere completamente prescrittivi. Le macchine astratte208 seguono gli automatismi in termini di rigidità per finire quindi con i diagrammi da considerarsi come gli strumenti più flessibili. “I think that automatism goes to abstract machine goes to diagram whatever form of diagrams”.
209
L’interazione fra progettista e abstract machine è molto più limitata che nel caso di interazione fra progettista e diagramma. “I think the abstract machine is more automatic than the diagram into their definition.”
210
3.1.1.4 Robustezza211 “In ingegneria, la resilienza è la capacità di un materiale di resistere a forze di rottura in ecologia e biologia è la capacità di autoripararsi dopo un danno, in psicologia, viene vista come la capacitá dell'uomo di affrontare e superare le avversitá della vita”.
212
Nel paragrafo precedente è stato evidenziato che una delle caratteristiche fondamentali dei modelli scientifici e progettuali risiede nell’essere allo stesso tempo flessibili e specifici. La relazione esistente fra flessibilità e rigidità, indeterminatezza e prescrizione porta con se un’altra domanda: fino a che punto un modello è in grado di adattarsi al variare delle situazioni al contorno o di resistere ad un disturbo proveniente dall’ambiente esterno senza perdere in efficienza? La robustezza o resilienza stabilisce la capacità di un sistema di resistere ed adattarsi al variare delle condizioni esterne. Questo problema è di grande interesse in
ambito
scientifico,
poiché
fondamentali dei networks.
permette
di
analizzare
alcune
caratteristiche
213
.
E’ da notare che, come sarà ripreso nel paragrafo 3.3, che realizzare un modello progettuale o scientifico, nella maggior parte dei casi, significa tradurre una serie di
208 L’abstract machine o macchina astratta: introdotta in campo architettonico da Greg Lnnn nel saggio da Greg Lynn nel libro Folds, Bodies & Blobs : Collected Essays, riprende il concetto del filosofo di Gilles Deluueze. L’interpetzaione di abstract machine di Lynn enfatizza la messa a punto di un sistema di regole astratte indipendenti dal caso specifico su cui operano. Secondo Eisenman l’abstract machine opera in maniera più prescrittiva di un diagramma in questo senso l’abstract machine è da considerarsi come più automatica del diagramma. Lynn G., Fold, bodies & blob cit. 209 Si veda: Tiazzoldi C., Peter Eisenman – Guangdong Museum, Automatismi operanti sul progetto del Guangdong Museum, intervista a Peter Eisenman, Apparato A5 del presente lavoro. 210 Ivi. 211 Si veda caso studio sviluppato in collaborazione con il Santa Fe Institute, disponibile all'indirizzo: http://www.santafe.edu/education/csss/csss05/papers/trancik_et_al._csssbj05.pdf 212 Disponibile all’indirizzo: http://it.wikipedia.org/wiki/Resilienza (15/03/06). 213 Disponibile all’indirizzo: http://arxiv.org/PS_cache/cond-mat/pdf/0202/0202330.pdf - 103
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
regole ed informazioni in un linguaggio matematico simbolico. Tale operazione è molto delicata in quanto rischia di indebolire il modello stesso. E’ importante notare che la trascrizione di una specifica realtà in linguaggio simbolico, implica un forte irrigidimento dello strumento sviluppato con la conseguente perdita sia di flessibilità sia di robustezza. Facendo riferimento ad un esempio concreto è possibile pensare al caso del linguaggio artificiale descritto da William Wang dell’Università di Hong Kong214. Paragonando il linguaggio naturale e quello artificiale (ricostruito a computer tramite una serie di regole), Wang afferma che la robustezza del primo sia infinitamente superiore a quella del secondo. In effetti, tutti i disturbi che possono dare origine ad errori interpretativi, nel linguaggio naturale vengono facilmente cosa che invece non avviene nel secondo caso. Questa condizione è imputabile al fatto che la traduzione di un linguaggio in una serie di regole, espresse tramite un codice simbolico, non supporta nessun tipo di comunicazione “fra le righe”. La traduzione di un problema concreto in linguaggio matematico implica spesso una rigidità che difficilmente è riscontrabile nel mondo reale. Le possibili ambiguità del messaggio non possono essere colmate facendo appello al background culturale, sociale o alla memoria collettiva al quale fa costantemente riferimento il linguaggio naturale per risolvere le incertezze del messaggio. Per questo motivo i modelli matematici ed architettonici vanno intesi come l’applicazione pura di un’idea astratta, con tutta la fragilità che ne deriva. Tutto quello che non è esplicitato nella lista dei comandi, non sarà eseguito215.
Immagine 57 - Robustness of the Language. Questo esempio mostra chiaramente la capacità della mente umana di adattarsi alle deformazioni del sistema utilizzato per rappresentare una specifica realtà (in questo caso il linguaggio). Questa elasticità è difficilmente riscontrabile in un modello matematico. Immagine per gentile concessione di Wang Y., presentata alla conferenza Language as a Complex Adaptive Systems, The Santa Fe Institute, Pechino, luglio 2005.
214
B.A. Columbia, M.A., Ph.D. Michigan; Academician, Academia Sinica, Professor of Electronic Engineering, Chinese University of Hong Kong, Professor Emrts of Linguistics Department, University of California at Berkeley. 215 Basti pensare a quando anche solo disegnando con un programma come autocad, per disegnare un muro sia necessario fornire una serie di informazioni che con il disegni manuale tradizionale vengono fornite quasi incosciamente. Punto di partenza, di arrivo, spessore muro, spessore linea ecc… - 104
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
La necessità di mettere a punto strumenti che siano allo stesso tempo flessibili e robusti è una delle componenti fondamentali sulla ricerca sull’intelligenza artificiale e sui complex adaptive systems216 e serve forse a capire la grande notorietà del concetto di genetica, adattazione e mutazione che andato sviluppandosi negli ultimi anni in ambito architettonico217.
216
Vedi paragrafo Errore. L'origine riferimento non è stata trovata. Ne sono la prova le ricerche sulla mutazione di Van Berkel, al parallelismo di Zaera Polo fra mutazione genetica ed evoluzione tipologica, al lavoro di Karl Chu finalizzato a realizzare un vero e proprio DNA architettonico capace di rispondere a qualsiasi disturbo proveniente dall’esterno. - 105
217
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
3.1.2
Applicazioni
Dopo analizzato alcune delle proprietà che permettono di valutare la qualità dei modelli (scientifici o architettonici che essi siano), è necessario soffermarsi sulle loro diverse applicazioni. Nel paragrafo 3.1.1.1 è stato osservato che secondo Livi e Rondoni, un modello deve essere concepito come uno strumento finalizzato a rispondere a delle domande precise e non a rappresentare in modo onnicomprensivo una specifica realtà. Il tipo di applicazione di un modello dipende dalle domande alle quali si intende rispondere. Secondo Holland ci sono tre tipi di modelli: analitici, esplorativi e dimostrativi. Ognuno di essi viene utilizzato in funzione delle caratteristiche
che si dimostrano
particolarmente rilevanti in ogni singolo caso. E’ interessante notare come l’utilizzo dei modelli scientifici corrisponde a quello di apparati astratti di progettazione quali diagrammi, macchine astratte e codici progettuali. Secondo Peter Eisenman il diagramma storicamente è stato interpretato in due modi: da un lato è stato concepito come uno strumento dimostrativo e analitico e dall’altro esso era inteso come uno strumento generativo. “In architecture the diagram is historically understood in two ways: as an explanatory or analytical device and as a generative device”.
218
Per quanto Eisenman riconduca a sole due categorie le applicazioni dei modelli progettuali, nelle sue parole emergono le tre tipologie precedentemente isolate da Holland. In effetti, egli fa riferimento al carattere dimostrativo, analitico e generativo (che potremmo assimilare a quello esplorativo).
3.1.2.1 Analizzare Il punto di forza dei modelli analitici o come li definisce John Holland “data driven”, risiede nella loro capacità di manipolare un numero elevatissimo di dati in un intervallo molto breve. Tale possibilità, che si concretizza attraverso l’uso dei computer, permette fare simulazioni e visualizzazioni veloci (come avviene nel caso delle previsioni meteorologiche). La capacità di gestire un numero elevatissimo di informazioni, caratterizzate sovente di un alto livello di interdipendenza, permette di visualizzare rapidamente gli effetti di una specifica ipotesi sul sistema complessivo. Grazie a questo tipo di modello è possibile valutare velocemente il peso di una
218
Eisenman P., Diagram Diaries, Thames & Hudson, London, 1999, p 27. - -
106
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
regola in un determinato sistema (è possibile visualizzare il numero delle volte che appaiono alcune sequenze del DNA, con che tipo di struttura esse appaiono ecc..) In architettura sono riconducibili a questo tipo di modello apparati progettuali parametrici che, come il Function Mixer di MVRDV, permettono di manipolare un numero elevatissimo di dati gestiti sulla base di una serie di parametri stabiliti dai progettisti. La visualizzazione in tempo reale delle varie soluzioni possibili, permette di analizzare i vari scenari e quindi di scegliere la migliore fra una moltitudine di possibili configurazioni.219
3.1.2.2 Dimostrare I modelli possono essere usati a scopo dimostrativo. Una volta fatta un’ipotesi è possibile
utilizzare
un
modello
per
verificarne
la
correttezza.
Grazie
alla
riproducibilità che permette di comparare i risultati, è possibile utilizzare un modello di cui si è verificata l’attendibilità in uno specifico campo, per dimostrare la validità di un'ipotesi relativa ad un sistema conosciuto.
Sfruttando la riproducibilità dei
modelli è possibile verificare la coerenza fra dati in ingresso e quelli in uscita, fra risultati previsti e risultati ottenuti, definendo il margine di errore con cui opera il modello in questione220. E’ da notare che questa pratica in campo architettonico non è sempre possibile, in effetti a causa dell’eterogeneità delle situazioni alle quali deve rapportarsi il progetto di architettura, non è sempre possibile sfruttare la riproducibilità dei modelli. E’ da notare che l’utilizzo di modelli a scopo dimostrativo è un tema molto delicato a cui bisogna avvicinarsi con una certa cautela221. Come affermano Livi e Rodoni troppe volte i risultati forniti da un modello – soprattutto se supportati da una simulazione a computer- sono interpretati come verità assolute senza verificare la coerenza degli stessi relativamente ai problemi analizzati. Tale considerazione è di particolare interesse in ambito architettonico in quanto troppo sovente sono utilizzati modelli e simulazioni per giustificare se non per legittimare una specifica scelta o metodologia adottata.
219
Sotto un certo punto di vista è possibile affermare che le modellazione avanzate e renders siano da considerarsi modelli analitici in quanto essi, nelle loro versioni più avanzate, permettono di mostrare in tempo reale gli effetti derivanti dalla gestione di alcune variabili. In effetti traducendo in linguaggio visivo (proiezioni ortogonali,modellazioni tridimensionali, animazioni) è possibile verificare alcuni aspetti di un ipotesi progettuale. Un’altra tipologia di modelli analitici adottati in architettura è quella utilizzata per esempio da Gehry Technolgies. La messa a punto di modelli volumetrici virtuali tridimensionali permette di monitorare l’effetto sincrono su varie variabili causato dalla mutazione di una delle parti in gioco analizzando quindi le conseguenze sulla struttura, la tecnologia e il prezzo derivante da una modifica. 220 Vedi paragrafo Errore. L'origine riferimento non è stata trovata. 221 Un esempio molto chiaro del carattere delicato dell’utilizzo di un modello potrebbe essere l’accetazione di un tipo di “prova” fatta in ambito scientifico o legale. L’accettazione di un video o di un nastro audio come testimoniaza di una situazione è un classico esempio di utilizzo a scopo dimostrativo di una rappresentazione di una determinata realtà. - 107
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
3.1.2.3 Esplorare “A model, like a hypothesis, suggests where to look”.
222
L’applicazione che potrebbe forse essere considerata come la più interessante in ambito architettonico, è l’esploratività dei modelli. Secondo il professor Holland del Santa Fe Institute, un modello va inteso come un'ipotesi che ci indica dove guardare. Riferendosi alla modellazione per agenti, Holland sostiene che la finalità di un modello è di offrire una predizione sulle future conseguenze di una specifica azione o strategia in ogni momento della sua evoluzione. Essendo i modelli dotati da una forma
di
automaticità,
in
quanto
agiscono
secondo
un
sistema
di
regole
predeterminate, permettono di portare a risultati che vanno al di là di ogni previsione ed aspettativa, portando talvolta alla scoperta di nuove di proprietà fino ad allora insospettate nei sistemi analizzati. Secondo Eisenman la componente esplorativa del modello deriva dalla sua capacità di generare una forma, o un sistema formale, che non sia stato predefinito dal progettista. Il diagramma generativo
223
si distingue dagli altri tipi di diagramma in
quanto serve a rivelare o a scoprire strutture latenti. “ […]. It is a way of triggering the diagram as a trigger for their design process. The design process involves human being and involves back and forward and going place where you haven’t been before”.
224
In questa sua accezione l’idea di diagramma si avvicina molto a quella di automatismo in quanto, parafrasando Eisenman, è in grado di portare dove non si è mai stati prima. Grazie alla sua autonomia o automaticità derivante dal sistema di regole che lo caratterizza, il diagramma è in grado di spingere un algoritmo fino al suo limite estremo, superando in questo modo – come avveniva nell’ambito dell’arte surrealista - ogni tipo di auto-censura dettata da inclinazioni personali. Per supportare questa idea è possibile far riferimento alle numerose affermazioni fatte da Peter Eisenman che, quando intervistato sul tema degli automatismi operanti sul Guangdong Museum affermava che:
222 Holland J., Complex Adaptive Systems, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. 223 “Clearly this generative role is different from thc diagram in other discourses, such as in thc parsing of a sentence or a mathematical or scientific equation, where thc diagram may reveal latent structures”. Si veda: Tiazzoldi C., Peter Eisenman – Guangdong Museum, Automatismi operanti sul progetto del Guangdong Museum, intervista a Peter Eisenman, Apparato A5 del presente lavoro. 224 Ivi. - 108
Per una classificazione degli strumenti del Non Lineare/ Modelli Scientifici-Modelli Architettonici
-Gli automatismi essendo autosufficienti sono capaci di produrre risultati lontani dalle idee preconcette del progettista. “The automatism being self sufficient is able to produce something far from the prefigured idea of the designer”.
225
- L'intero concetto di diagramma risiede nella volontà di trovare qualche cosa che non si può concepire con un sistema di progettazione tradizionale. “The entire notion of the diagram is to find something that you couldn’t have conceived just by making a traditional design”.
225
226
Ivi. Si veda: Tiazzoldi C., Peter Eisenman – Guangdong Museum, Automatismi operanti sul progetto del Guangdong Museum, intervista a Peter Eisenman, Apparato A5 del presente lavoro. - 109
226
3.2
DALLA REALTÀ AL MODELLO
3.2.1 Premesse sulla Metodologia Stabilita Nel capitolo precedente sono fatte alcune riflessioni riguardanti il concetto di modello ed alla modalità secondo la quale sarebbe corretto rapportarsi ad esso. Nei paragrafi a seguire verrà fatto un approfondimento su alcuni degli strumenti derivanti dalle scienze della complessità nel fine di capire se i limiti individuati nella loro applicazione in architettura dipendano dall’errore concettuale di voler compiere un trasferimento metodologico fra una disciplina e l’altra, oppure se siano riscontrabili anche nel loro contesto originario. Nel fine di poter procedere con l’analisi in questione è stato necessario prendere una chiara posizione al riguardo della metodologia di ricerca adottata. La scelta opponeva la possibilità di organizzare i vari argomenti secondo una procedura “scientifica” che analizzasse ognuna delle applicazioni dei vari strumenti nel loro ambito originario, alla volontà di compiere una riflessione metodologica dedotta dai casi studio considerati ed applicabile in architettura. La scelta è stata indirizzata verso questa seconda posizione in quanto non si è ritenuto possibile (ne tantomeno utile) fare una descrizione esaustiva di tutti gli strumenti operanti nell’ambito delle scienze della complessità. Per questo motivo l’esposizione dei paragrafi a venire si incentrerà sulla descrizione di alcune delle modalità secondo le quali vengono realizzati alcuni dei modelli più diffusi iniziando dalla più semplice delle componenti per arrivare ai sistemi estremamente complessi.
3.2.2 Ipotesi ed Intuizioni La traduzione di una specifica realtà in un modello astratto è una fase molto delicata della ricerca e richiede tutta l’intuizione ed esperienza di uno scienziato o di un progettista. John Holland afferma che per fare un buon modello, la cosa fondamentale è di riuscire a familiarizzare sufficientemente con un problema in maniera tale da essere in grado di identificare quelle proprietà che possono manifestare un particolare interesse nei confronti del fenomeno osservato. Per esempio Holland afferma che la sua “intuizione” e’ stata di saper ricondurre il
- -
110
problema della mutazione genetica a due proprietà sulla base delle quali è stato sviluppato un algoritmo: il fitness e la ricombinazione genetica227. A questo proposito Cosma Shalizi
228
descrive il procedimento a passi grazie al quale
è possibile avvicinarsi ad un problema riuscendo ad individuare le dinamiche interne che meglio riescono a rappresentarlo. L’idea è di isolare quelle proprietà emergenti capaci di esprimere con alcune regole locali il comportamento di parte o della totalità del sistema. Shalizi afferma che solitamente all’inizio si procede per tentativi, facendo riferimento ad esperimenti precedenti o spingendo la simulazione sulla pura casualità. Una volta fatta un’ipotesi relativa al sistema di regole, si fa una previsione sul suo comportamento futuro: se il risultato reale corrisponde alla simulazione, è possibile procedere raffinando il modello con la stessa procedura. Fino a che punto il progetto è scomponibile in una serie di elementi finiti rappresentabili grazie ad un codice simbolico e quindi gestibile tramite un insieme di regole che permettano di determinarne parte o totalità? A questo punto occorre richiamare alcuni aspetti sollevati nel paragrafo 1.7. Non è possibile pensare di
tradurre la totalità di un problema scientifico o di progetto
architettonico in una serie di regole; tantomeno è pensabile di sviluppare dei veri e propri automatismi (in quanto completamente autosufficienti); e’ solo ipotizabile di mettere a punto dei sistemi o delle reti di soluzioni, capaci di aiutare il progettista a valutare il peso di alcune decisioni. La messa a punto di un modello architettonico, non potendo basarsi esclusivamente su dati sperimentali, richiede il compimento di una serie di scelte soggettive per la definizione di alcune delle caratteristiche in gioco (come è stato visto nel caso di MVRDV per per esempio nella definizione del concetto di criminalità). Come affermano Livi e Rondoni il fatto che in numerosi casi le scelte si facciano “sulla base di inferenze, assunte come rilevanti dal ricercatore, o da una comunità di ricercatori. Non vi è niente di illegittimo in tutto questo, purché si tenga presente che le ipotesi costitutive di un modello, così costruito, vanno validate a posteriori ed eventualmente modificate, qualora risultino in evidente contraddizione con le osservazioni. In altre parole, gli aspetti soggettivi, introdotti nella scelta di ciò che riteniamo essere rilevante nella definizione di un
227
John Holland afferma che per tutti gli anni ‘60 stava lavorando sulla messa a punto di un modello matematico che potesse rappresentare l’’evoluzione/mutazione genetica. In quegli anni è stato fondamentale formulare il concetto secondo il quale le mutazioni avvenissero tramite un sistema di ricombinazione di gruppi di geni. Il problema era quindi di mettere a punto delle tecniche di programmazione che permettessero di rappresentare il processo di combinazione dei geni come quello di mutazione. Il risultato ottenuto è stato un sistema di classificazione che permetteva di distinguere le regole e gli attributi di un sistema. L’attivazione di ogni regola dipendeva dal manifestarsi o meno di una specifica condizione, identificabile in una stringa di informazione, tradotta a sua volta in una serie di bit. La difficoltà consisteva quindi nel tradurre in stringhe di informazioni numeriche le regole ed attributi che stavano alla base di un dato problema. 228 “How do we actually set about reducing phenomena and explaining emergence?”. Causal State Splitting Reconstruction (Shalizi & Shalizi 2004). Disponibile all’indirizzo: http://bactra.org/CSSR (17/01/06). - 111
modello
matematico,
devono
sempre
essere
esplicitamente
dichiarati
e
sottoposti ad un controllo critico.229”
E’ necessario saper quantificare la capacità descrittiva di uno specifico modello e la capacità di tradurre in indici numerici una serie di relazioni230. Per questo motivo verrà fatto accenno al concetto di entropia in quanto permette di valutare la quantità di informazione contenuta in uno specifico sistema.
229
Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 3. 230 Per esempio Livi e Rondoni descrivono il caso in cui, in genetica, per capire l’evoluzione dei fenotipi è sconsigliabile utilizzare solo le informazioni derivanti dalla codificazione del DNA. In effetti, per quanto è opinione diffusa che la sequenziazione del DNA permetta di fornire gran parte delle informazioni necessarie per definire le caratteristiche di un essere vivente, il fatto che vi siano delle profonde similitudini fra il patrimonio genetico dell’uomo e quello del topo (pari al 98%), porta a questionare il tipo di modello adottato. Questo non significa che venga messa in questione la correttezza scientifica dello strumento che viene utilizzato, ma significa semplicemente che sia di fondamentale importanza identificare uno strumento adeguato per l’analisi di uno specifico problema valutando il contenuto di informazione di uno strumento relativamente ad un problema analizzato. Nel caso della differenziazione dei fenotipi che ha portato alla distinzioni delle speci, Livi suggerisce di favorire un lettura finalizzata a creare una relazione fra la struttura del genoma e l’esplicitazione delle sue funzioni. - -
112
3.2.3 Livello di predicibilità - Entropia “Le désir, cette qualité cette force ”non mesurable”, car tout provient du non mesurable, tout promet le mesurable. Il y a-t-il un seuil où il se rencontrent?”.
231
“Possiamo dire che l'impredicibilità è un elemento costitutivo di un' evoluzione complessa, ma non è sufficiente a fornircene una definizione. Infatti, un sistema ci appare tanto più complesso, quanto più evolve in modo difficilmente riconducibile ad una descrizione semplice, manifestando una varietà e una ricchezza di comportamenti, in cui ordine e disordine coesistono”.
232
Come è stato visto precedentemente per mettere a punto un buon modello scientifico o strumento di progettazione non è necessario che il suo realismo sia totale; il fattore determinante consiste nella messa a punto uno strumento che permetta di manipolare gli aspetti che sono di particolare rilievo per la soluzione di uno specifico problema. La domanda che sorge è: come si fa a valutare la capacità descrittiva o l’efficienza di un modello? In che modo è possibile valutare la qualità del contenuto di informazione relativa ad un tema specifico? “Ci troviamo di nuovo a combattere con la difficoltà di individuare una misura di complessità, in grado di fornirci un'indicazione della quantità di conoscenza organizzata, o strutturata presente in una sequenza simbolica.”
233
Con il termine di entropia è possibile far appello ad una forma di misurazione del livello di complessità presente in una sequenza simbolica (che può essere letta sua volta
come
messaggio).
la
valutazione
del
contenuto
di
informazione
presente
in
un
234
Dovendo dare una definizione sintetica è possibile dire che grazie il concetto di entropia è possibile quantificare il livello di conoscenza o di indeterminatezza di uno specifico sistema identificandone la capacità descrittiva. Per quanto esistano svariate definizioni di entropia è possibile adottare un descrizione sintetica (quanto approssimativa) in cui essa possa essere descritta come la misurazione del livello di incertezza associato ad un gruppo di possibilità. I brevi accenni che verranno fatti al concetto di entropia saranno finalizzati a stimolare una riflessione critica sulla possibilità di quantificare l’efficacia di un
231
Kahn L., Silence et lumière cit., p. 36. Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 7. 233 Livi R., Rondoni L., Aspetti elementari della complessità cit.p16 234 “La definizione di complessità statistica si basa sull' idea di quantificare il contenuto d' informazione presente in un messaggio, espresso in un qualunque codice simbolico.” Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 27. - 113 232
modello nell’affrontare uno specifico problema scientifico o progettuale. Se, come è stato visto precedentemente, non è necessario (ne tanto meno sensato) pensare alla messa a punto di uno strumento omnicomprensivo capace di spiegare interamente ogni componente di un sistema, è indispensabile poter quantificare il margine di errore ad esso associato. In effetti se si pensa ad un modello come ad un apparato astratto grazie al quale è possibile, conoscendo le condizioni iniziali di un sistema, formulare una predizione sulle comportamento dello stesso al variare di alcuni fattori (come il tempo, il numero dei parametri in gioco, o l’introduzione di un elemento di disturbo), è fondamentale essere in grado di valutare la sua effettiva capacità descrittiva e predittiva. Facendo appello al concetto di predittività sufficiente Shalizi si riferisce al livello di informazione necessaria per capire e risolvere un dato problema, ma non sufficiente per spiegare
comportamento dell’intero sistema. Questo tipo di valutazione
permette di stabilire se sia possibile utilizzare un determinato modello in un contesto specifico dato contesto (basti pensare all’esempio in cui dall'assenza o assenza di un dato elemento nel sangue si sia in grado di individuare una specifica malattia senza tuttavia sapere nulla sulla persona sulla quale si stanno compiendo le analisi; o nel caso contrario in cui grazie alla traduzione del DNA in una sequenza simbolica è possibile conoscere una grande quantità di informazioni su di un organismo per quanto essa non possa fornire nessun tipo di informazione utile per stabilire la differenza dei fenotipi che distingue un uomo da un topo.) Nel fine di misurare il livello di incertezza è necessario far riferimento al concetto di 235
entropia di Shannon
in quanto essa può considerarsi come la misura del
incertezza di un sistema, delle imprecisioni di un modello relativamente alla realtà osservata.
Essa serve a misurare il livello di conoscenza relativa ad un’intera
sequenza. Immaginando di conoscere una regola grazie alla quale è possibile descrivere parte di un sistema che peso esercita tale regola sul sistema complessivo? Quante volte appare? In che modo ci permette di ridurne il margine di incertezza? Il concetto di entropia di Shannon236, risale al 1948, ed era stato inizialmente formulato per valutare l’efficienza di un sistema di comunicazione. Quanti possibili disturbi o diverse interpretazioni possono nascere dalla trasmissione di un messaggio codificato? Secondo Feldman
235
237
del Santa Fe Institute, l’interesse
“A questo punto possiamo porci il problema di eseguire un'analisi statistica di una sequenza simbolica, allo scopo di quantificarne il contenuto d' informazione e quindi la complessità. Il modo più naturale di affrontare questo problema è quello di chiedersi il numero di volte, N(sn;N), che una sottosequenza infinita sn di n simboli compare nei primi N elementi della sequenza. Introducendo il concetto di sequenza infinita, possiamo definire la quantica asintotica sn= lim, N=1;N(sn;N);N(1). Se questo limite esiste, f(sn) é interpretabile come la probabilità, che, nella sequenza infinita S, compaia la sequenza finita sn”. Livi R., Rondoni L., Aspetti elementari della complessità cit., 236 Entropia di Shannon: definisce la quantità di informazione contenuta in una sequenza I(sn), I(sn) = _log2_(sn). Livi R., Rondoni L., Aspetti elementari della complessità cit.p.15 237 Feldman D., Complexity Measure Discussion, in Atti di CSSS 2005, Complex Systems Summer School, The Santa Fe Institute, Pechino, 2005. - 114
per l’entropia di Shannon supera l’applicazione nell’ambito delle scienze della comunicazione e si manifesta nella possibilità di descrivere la probabilità di distribuzione di un evento in una sequenza di possibilità. Quante volte appare un dato noto? Quante volte nella totalità della sequenza appare una specifica regola capace di organizzare la nostra informazione. L’entropia di Shannon non serve solo ad analizzare la ricorrenza con la quale appare un singolo evento ma permette anche di verificare le ipotesi fatte sull’architettura del sistema stesso: con che ricorrenza alcune regole appaiono sequenzialmente, appaiate 238 o la presenza dell’una esclude quella di un’altra? Da cui deriva la possibilità di capire la maniera in cui una regola o un sistema di regole possono influire sulla comprensione di un sistema. Quando non sia riconducibile a nessun tipo di regola
si parla di un sistema
aleatorio. “Possiamo definire una sequenza infinita casuale, o aleatoria, se tutte le sequenze infinite sn, per ogni n, hanno la medesima probabilità di apparizione. In questo caso non vi sono regole grammaticali, che possano escludere alcuna sequenza infinita.”
239
Bisogna notare che un sistema aleatorio non è necessariamente assimilabile ad un sistema casuale, vi sono alcuni casi di sistemi che per quanto la funzione matematica che li ha generati sia perfettamente conosciuta
240
non è possibile fare
nessun tipo di predizione sul comportamento che assumeranno in una determinata 241
situazione.
Dal punto di vista progettuale è fondamentale stabilire il contenuto di informazione di uno specifico modello. In particolare è molto importante chiarire come e quanto un modello sia in grado di fornire delle informazioni significative su di un problema che si sta analizzando. Per quanto non sia possibile pensare di applicare letteralmente il concetto di entropia nell’analisi dei sistemi urbani ed architettonici l’idea di valutare il peso di una specifica informazione nei confronti del problema analizzato può essere estremamente utile in quanto essa cambia sia dal punto di vista
qualitativo e che quantitativo di situazione in situazione. Si potrebbe
affermare che nel caso dell’analisi funzionale di uno spazio, la qualità di un modello e delle informazioni che esso è in grado di fornire risiederà nell’organizzazione delle gerarchie fra elementi e nella raffinatezza con la quale vengono elaborate le
238
Come avviene in alcune sequenze genetiche in cui geni che non presentano nessun tipo di relazione diretta tendono ad apparire insieme. Livi R., Rondoni L., Aspetti elementari della complessità cit.p.11 240 Livi menziona l’esempio dell’applicazione logistica xn+1 = μxn(1 _ xn) ; xn 2 [0; 1]8n per quanto la funzione sia perfettamente per un valore di μ = 3:569945672 la funzione diventa caotica. 241 Per esempio l’applicazione logistica xn+1 = μxn(1 _ xn) ; xn 2 [0; 1]8n ha un comportamento che varia dalla totale predicibilità alla completa caoticità in funzione dei valori che asume μ. I valori critici di μ per i quali la funzione cambia comportamento sono quei valori in cui avviene una transizione di fase. - 115 239
relazioni di interdipendenza delle varie componenti, nell’analisi di fenomeni urbani il sistema viene valutato dalla sua capacità di individuare, a partire da una serie di relazioni semplici, il comportamento collettivo dell’insieme (in questo caso il livello di precisione non risiede nella misurazione delle singole unità ma nella gestione e rappresentazione del comportamento collettivo); infine nel caso dell’utilizzo di strumenti non lineari per la soluzione di problemi strutturali o tecnologici l’idea di precisione si sposta sulla possibilità di controllare numericamente sforzi, tensioni, misure e quantità di materiali. I requisiti di un modello e la loro valutazione non sono un valore assoluto ma variano in funzione del tipo di risultato ricercato. Pensare all’entropia di Shannon può essere un valido riferimento per valutare il peso di una specifica regola nella descrizione complessiva del sistema. All’entropia di Shannon e’ possibile affiancare un’altro tipo di entropia che e’ l’entropia informatica, complessità informatica
(adottando la definizione di
Feldman)o computation complexity o complessità algoritmica secondo la definizione di i Kolmogorov-Chaitin. Questo tipo di espressione sposta l’accento dalla misura dell’incertezza relativa ad un sistema al numero di informazioni ed operazioni che e’ necessario fornire o compiere per avere una conoscenza completa dello stesso. L’entropia informatica permette anche di esprimere il livello di compressione (codificazione) che si riesce ad ottenere nella rappresentazione di un sistema. Per esempio la sequenza di migliaia
di
elementi
Sn=
espressa con l’espressione x
2,4,6,8,..102,104,106,....,1002,1004..puo’
n+1=xn+2.
essere
La complessita’ informatica della sequenza
in questione risulta quindi molto limitata. “L’informazione algoritmica,o complessità di Kolmogorov-Chaitin K(sm), di una sequenza finita sm ´e definita come lunghezza del minimo programma in grado di realizzare tale sequenza su UTM”242
La computation complexity definisce la quantità minima di informazioni che è necessaria per essere in grado di conoscere perfettamente il comportamento di una sequenza pertanto quantifica il numero di descrivere il comportamento di un sistema.
regole essenziali che permettono di 243
"Pour donner un aperçu plus complet du concept d’optimisation, nous voudrions ajouter deux remarques. La première concerne la réduction du code et la
242 242
Livi R., Rondoni L., Aspetti elementari della complessità cit.p16 Volendo fare un esempio estremamente semplificato del concetto di complessità informatica: immaginando di voler scoprire la lista degli invitati ad una cena si cercherà di trovare le regole grazie alle quali sia possibile descrivere, con il minor numero minimo di domande possibile (alle cui sia possibile rispondere con un si o no), la lista completa degli invitati. Per questo motivo si proverranno a stabilire regole che permettano di limitare le domande necessarie per conoscere la lista dei partecipanti: sono compagni di scuola? Tutti? Quanti non lo sono? 243
- -
116
compression de l’information, la seconde l’«économie de pensée» au sens d’E. Mach".
244
Philippe Morel riferendosi al concetto di ottimizzazione progettuale
fa appello
all’idea di compressione dell’informazione concernente un progetto in un codice progettuale. L’idea di razionalizzare il processo concettuale, al punto di sopprimere ogni informazione ridondante o non
necessaria, si collega al concetto di
Associatività di Bernard Cache: in effetti fa appello all’articolazione del pensiero progettuale tramite una serie di regole che permettano di condensare l’informazione e di economizzare le espressioni sia in termini concettuali che funzionali. Quanta
memoria
è
necessaria
per
organizzare
l’informazione
progettuale?
Ritornando al domanda iniziale di questo saggio, quante regole e’ necessario sviluppare per poter codificare un intero progetto? Se è vero che progettare equivale a programmare, quante regole ed attributi è necessario esplicitare perché il modello non contenga più nessun tipo di ambiguità? Quante informazioni è necessario fornire perché il modello diventi un automatismo capace di eseguirsi senza nessun tipo di ambiguità? E’ possibile pensare di automatizzare completamente il progetto di architettura al punto da poterlo trascrivere nella sua interezza in una serie di regole? In Dialogo Transistorico fra Le Corbusier e Greg Lynn analizzo la relazione fra regola e progetto che caratterizza il lavoro dei due progettisti. Per quanto ognuno di loro sostenga che il proprio lavoro sia fortemente dipendente da un sistema di regole, legate sia alla produzione che alla concezione del progetto, nessuno dei due architetti sostiene che sia possibile tradurre il progetto in una sistema di regole completamente automatizzabili. In altre parole il progetto di architettura non puo’ essere compresso o codificato nella sua interezza ma solo in alcune delle sue componenti.
244
Morel P., Notes sul la Conception Algorithmique cit. - -
117
3.3
PROGETTARE EQUIVALE A PROGRAMMARE
Nei paragrafi precedenti è stato visto come un modello nella sua accezione contemporanea debba essere uno strumento di lavoro capace di rappresentare gli aspetti salienti e le regole che stanno alla base dell’organizzazione di un sistema. Che cosa significa fare un modello scientifico o architettonico capace di descrivere uno specifico problema? Significa identificare una serie di componenti elementari, analizzarne le proprietà e le relazioni, tradurle in azioni base o regole, organizzarle secondo un sistema gerarchico ben preciso e stabilirne le eccezioni e vincoli. Tali operazioni corrispondono alla concezione di un vero e proprio linguaggio. L’analisi di alcuni strumenti quali le tecniche di riscrittura e del linguaggio generativo di Chomsky evidenzia il fatto che non vi sono sostanziali differenze tra la messa a punto di un linguaggio di tipo tradizionale ed di un linguaggio informatico (un programma). Per questo motivo la scomposizione di un problema in un modello matematico caratterizzato da una serie di attributi e regole è molto simile alla messa a punto di un vero e proprio software progettuale. Ed è forse per questo motivo che Bernard Cache
245
asserisce che Progettare
equivale a Programmare in quanto significa esplicitare le regole del progetto a partire da un sistema di relazioni associativo. “L'Associatività è il metodo che, tramite l'utilizzo di un software, permette di costituire il progetto architettonico attraverso una lunga catena di relazioni, dalle prime ipotesi concettuali fino alla guida delle macchine che prefabbricano i componenti da assemblare in cantiere. Disegnare con un software associativo equivale a trasformare il disegno geometrico in un'interfaccia di linguaggio di 246
programmazione.”
Secondo Cache l’associatività è il procedimento mentale che porta a formulare razionalmente il progetto di architettura esplicitando le relazioni ed ipotesi che lo caratterizzano. Per controllare tale processo è necessario entrare nel vivo del linguaggio della programmazione informatica
247
.
“A cosa serve in effetti sviluppare degli strumenti di calcolo molto sofisticati se non si trovano poi degli utilizzatori –e in particolare degli architetti– disponibili a
245
“Progettare equivale a programmare”. (Bernard Cache corrispondenza con Caterina Tiazzoldi, 2005). Beaucé P., Cache B., Verso un modo di produzione non-standard cit. 247 “di formalizzare razionalmente il progetto architettonico, prendendo ben cura di distinguere antecedenti e dipendenti, col rischio altrimenti di creare dei riferimenti circolari o altri tipi di incongruenze logiche. L'associatività costituisce dunque un filtro che obbliga a pensare in maniera razionale il progetto di architettura e ad esplicitarne le ipotesi. Dopo un certo periodo questo dovrebbe favorire la chiarezza delle procedure e dei concetti architettonici.” (Cache B., In difesa di Euclide cit.). - 118 246
comprenderne il funzionamento? La competenza e il rigore necessari all'utilizzo di questi software fa si che essi siano naturalmente destinati ad utilizzatori ben formati e dotati di buone capacità di ragionamento logico e geometrico. A cosa serve ugualmente sviluppare un'Associatività tra concezione e fabbricazione se, nella pratica, chi richiede i prodotti e i produttori che li forniscono non giungono a stabilire delle relazioni che permettano di sfruttare positivamente la continuità 248
del flusso di informazioni?”
La posizione di Cache relativa al legame esistente fra concettualizzazione del progetto e programmazione è condivisa anche da Frazer secondo il quale i concetti architettonici possono essere espressi tramite una serie di regole generative. Winy Maas si interroga sulla relazione esistente fra progetto di architettura e programmazione interpretando quest’ultima come l’esplicitazione delle regole che stanno alla base dell’atto di progettare. Maas, afferma che software Function Mixer è stato sviluppato come uno strumento di progettazione operante su scala urbana e finalizzato a gestire problemi multidimensionali. Function Mixer è stato
concepito
per permettere al gruppo olandese di lavorare manipolando il sistema di parametri che reputavano di primaria importanza nella loro approccio progettuale. Maas interroga il legame esistente fra programmazione e disciplina dell’architetto chiedendosi se la programmazione diventerà una parte essenziale della professione degli architetti. “Does computer programming become an essential part of our discipline?”
249
Assumendo che l’atto di esplicitare il sistema di regole che stanno alla base del progetto sia un’operazione assimilabile alla messa a punto di un vero e proprio programma informatico bisognerebbe soffermarsi sulla domanda: In che modo progettare equivale a programmare?
Immagine 58 – Responsive Devices. Quest’immagine è stata ottenuta con la funzione “ hypergraph” del software Maya grazie al quale è possibile visualizzare le relazioni che uniscono i vari oggetti. Questa particolare immagine rappresenta il legame esistente fra altezza e rotazione di un solido in funzione della risposta che esso deve fornire ad uno stimolo proveniente dall’esterno. La visualizzazione delle relazioni esistenti in fase progettuale permette di rendere comprensibile l’organizzazione concettuale che sta alla base di uno specifico progetto. Immagine per gentile concessione di Christopher Whitelaw, Caterina Tiazzoldi, presentata alla conferenza Applied Responsive Devices, Columbia University, New York, ottobre 2005.
248 249
Vedi Migayrou F. (a cura di), Architectures non standard cit. MVRDV 1997-2002 cit., p.27. - -
119
Come è stato visto precedentemente per fare un modello scientifico e progettuale è necessario scomporre una specifica realtà in un sistema costituito da parti elementari, da regole base, da una struttura gerarchica che permetta di organizzare le regole e di spiegare la maniera in cui esse si combinano ed in fine da un sistema che permetta di definire come esse evolvano nel tempo e secondo quali criteri vadano modificandosi. Grazie all’uso combinatorio di poche regole, è possibile descrivere fenomeni il cui livello di complessità non sarebbe gestibile con processi di registrazione tradizionali. Nei paragrafi a venire verrà analizzato con maggior dettaglio in che modo è possibile ricorrere a tale processo.
- -
120
3.3.1
Elementi Base
3.3.1.1 Attributi e Building Blocks Il primo problema che si pone quando si lavora con la trasposizione di un problema reale in un modello, in un codice o in qualsiasi apparato astratto è la traduzione degli elementi base che caratterizzano una specifica realtà in una serie di attributi gestibili numericamente250. Secondo John Holland questo tipo di operazione avviene naturalmente nel processo mentale di ogni essere umano quando una scena non famigliare viene scomposta in una serie si elementi conosciuti archiviati nella memoria come in una serie di elementi famigliari; alberi, edifici, automobili, altri esseri umani, animali e così andando. Riferendosi all’intelligenza artificiale, Holland, afferma che la veloce scomposizione di scene complesse in elementi famigliari è qualche cosa che non si può simulare a computer in quanto a oggi non si conoscono i meccanismi attraverso i quali avviene tale processo. Il fatto di tradurre un problema in una serie di elementi già in “memoria”, e di scomporre una specifica realtà in una serie di attributi quantificabili è da considerarsi una delle operazioni più delicate del processo di modellazione. Dalla somma o compresenza di alcuni di attributi è possibile riconoscere un elemento più complesso grazie al quale si identifica un oggetto o entità e
che
nell’ambito delle Scienze della Complessità viene chiamato building blocks. Per fare un esempio Holland porta cita la maniera secondo la quale è possibile riconoscere un cane da una serie di attributi noti: esso sarà quel sistema caratterizzato dalla
250 Prima di passare al linguaggio matematico, é opportuno chiarire cosa si intende per codice simbolico e di cosa sia rappresentativo il messaggio, cosı espresso. Si può affermare, in tutta generalità, che una qualunque osservazione, eseguita su un sistema, di cui si vogliano descrivere le caratteristiche é esprimibile in tal modo. Ad esempio, possiamo rappresentare lo stato di evoluzione nel tempo di un qualunque indicatore (la temperatura in una stanza, il grado di umidità atmosferica, l’indice Dow-Jones, la corrente in un circuito elettrico, il numero di formiche che formano una colonia, etc.) come una successione di simboli (i numeri), estratti da un alfabeto (l’ insieme dei numeri). Se si assume di poter accedere ad una conoscenza, comunque limitata da un margine di precisione, ad ogni osservazione si potrà associare un numero formato da una successione finita di cifre, oltre la quale ogni ulteriore specificazione é indebita. Possiamo decidere di utilizzare la rappresentazione più semplice di tale numero, cioè quella binaria, in cui la sequenza finita di cifre viene riscritta in una sequenza finita, del tutto equivalente, di simboli ”0” e ”1”. Facciamo un semplice esempio. Supponiamo di voler monitorare l’ andamento nel tempo della temperatura in una stanza, facendo uso di un termometro. Ad intervalli di tempo fissati misuriamo 12.38 ◦C, 12.40 ◦C, 12.35 ◦C, 12.33 ◦C, etc. é evidente che abbiamo a disposizione un termometro di alta precisione, che ci consente di apprezzare variazioni di temperatura pari al centesimo di grado centigrado. Avendo così implicitamente fissato la scala delle nostre rilevazioni, i numeri decimali che le rappresentano possono essere sostituiti con numeri interi, ottenuti togliendo la virgola (lavorando cioè sulla scala dei centesimi di grado centigrado). La precedente successione di numeri diviene 1238,1240,1235, 1233 etc. In base binaria 1238 é scrivibile nella forma 01101011001 , 1240 diviene 00011011001 , 1235 diviene 11001011001 , 1233 diviene 10001011001 etc. Pertanto, la serie di misure di temperatura é espressa dalla sequenza 01101011001000110110011100101100110001011001......(Livi R., Rondoni L., Aspetti elementari della complessità cit.p9)
- -
121
compresenza degli attributi “peloso”, “leale”, “abbaia” ecc…A loro volta gli attributi saranno riconoscibili da stringhe di codici numerici di 1 e di 0 che li identificano. In architettura la scomposizione di una proprietà in una serie di attributi è un’operazione fondamentale. Nell’ambito delle esercitazioni svolte nel contesto della Non Linear Solutions Unit, è stato richiesto agli studenti di ripensare ad alcune qualità architettoniche in termini di relazioni matematiche traducibili in proprietà controllabili in fase di modellazione. Questo processo esige una traduzione di alcune qualità spaziali in funzione di attributi fisici semplici: il concetto di privacy verrà proporzionalmente collegato alla visibilità e all’udito. Queste due qualità saranno a loro volta rappresentate dalla presenza o assenza di ostacoli, dalla distanza esistente fra gli elementi in gioco, dal livello di opacità o trasparenza degli stessi ecc...Il concetto di visibilità può essere concepito come un building block definito a partire dalla presenza e combinazione di vari attributi. E’ da notare che ogni attributo sua volta è considerabile come un building block in quanto è la somma di altri criteri: come abbiamo visto che la visibilità dipende dalla distanza e dalla presenza o assenza di ostacoli. Tuttavia gli attributi sono da considerarsi come elementi stabili in quanto non cambiano (nel processo di modellazione), i building block come sarà visto nel caso degli algoritmi genetici sono i grado di cambiare tramite un procedimento combinatorio degli attributi che li costituiscono. È molto importante insistere sul fatto che la scelta degli attributi e building blocks con i quali si intende lavorare è fondamentale in quanto esercita un peso rilevante sui risultati ottenuti. Holland porta l’esempio in cui di fronte alla necessità di modellare il globo terrestre, esso possa essere rappresentato come un volume, come una superficie o come un sistema di flussi. La scelta della modalità con la quale si descrive il sistema influenzerà gran parte dei risultati ottenibili dal modello. Come è stato più volte ribadito, non potendo fare una descrizione dal realismo totale, è necessario selezionare quelle proprietà ed attributi che possono fornire la maggior completezza delle informazioni riguardanti il problema che si sta analizzando.
- -
122
3.3.2 Relazioni Base Nel paragrafo precedente è stato introdotto il concetto di elemento base o building block. In questo paragrafo verranno analizzate quelle che sono le regole base che potrebbero essere all’origine dell’esplicitazione di un progetto attraverso un programma. Un regola può essere assimilabile ad un algoritmo. “Un algoritmo finito di calcolo é una procedura, definita da una successione finita di istruzioni, del tutto analoghe ad un programma, scritto per essere sottomesso ad un calcolatore. Tra gli esempi più semplici di algoritmo possiamo ricordare le istruzioni per realizzare le operazioni algebriche elementari.”
251
Nei paragrafi a seguire verranno analizzati alcuni degli algoritmi, o regole più diffusi. E’ da ricordare che malgrado la semplicità con cui operano tali regole se applicate in maniera mirata, dopo un numero di iterazioni molto elevato esse sono in grado di descrivere e produrre fenomeni estremamente complessi. Come e’ stato visto nel capitolo introduttivo di questo saggio uno degli aspetti elementare della complessità e’ quello di essere in grado di utilizzare poche regole semplici per manipolare sistemi complessi.
3.3.2.1 Trova Come verrà dimostrato in seguito, il comando trova malgrado la sua semplicità svolge un ruolo fondamentale nella messa a punto di sofisticati algoritmi- come quelli genetici e come i Complex Adaptive Systems- in quanti essi rispondono alla presenza o assenza di una specifica condizione. Come è stato visto precedentemente gli attributi sono da considerarsi (almeno in fase di modellazione), come elementi descrivibili con un indice numerico e quindi traducibili a loro volta con una sequenza di 1 e di 0. Il comando trova o search riconosce la sequenza corrispondente ad uno specifico dato e permette di identificare in un sistema tutti gli elementi corrispondenti ad una descrizione data. Gran parte della ricerca genetica si basa sulla ricerca e sulla valutazione della frequenza con cui si verificano determinate situazioni che sono identificabili in stringhe di informazioni presenti nel codice di un sistema.
251
Livi R., Rondoni L., Aspetti elementari della complessità cit.p9) - -
123
3.3.2.2 Sostituisci Il comando sostituisci opera una permutazione di un elemento con un altro ed è da considerarsi come l’istanza basilare di ogni tipo di tecnica di riscrittura. 252 L’interesse del processo di sostituzione è che permette di incrementare il livello di complessità del sistema sostituendo un elemento con una regola ed eventualmente con un sistema di regole capace di cambiare gli assiomi originari. Come è stato visto nell’esempio di L-system, è possibile incrementare la complessità del sistema senza dover portare nessun tipo di modifica alla struttura stessa del sistema. Con il solo programma sostituisci è possibile attivare dei feed back loop. Per esempio le regole: A viene sostituito con AB e B viene sostituito da A. A → AB ; B → A L’attivazione di questa regola porterebbe il risultato seguente:
A→AB AB→ABA→ABAAB→ABAABABA Grazie a queste regole è possibile avviare una serie di feed back loop che portano il sistema a replicarsi all’infinito.
3.3.2.3 Relazioni Parametriche Le relazioni parametriche sono da intendersi come relazioni lineari che creano una corrispondenza diretta fra i termini di un sistema. Un esempio di relazione parametrica è: Attributo1.Oggetto1= Attributo2.Oggetto2 e quindi Altezza.Cono 1 = Larghezza.Sfera 2.
Immagine 59 - Due figure sono legate da una relazione parametrica. Se il cubo a sinistra si sposta verticalmente , il poligono a destra cambierà colore. Immagine di Caterina Tiazzoldi, presentata alla conferenza Applied Automatism in Architecture, Columbia University, New York, luglio 2004
252
Vedi paragrafo 3.3.3.1
- -
124
Malgrado la semplicità delle espressioni utilizzate, grazie ad una serie di relazioni parametriche è possibile rappresentare un sistema di
relazioni concatenate
estremamente complesso dotato di un tale livello di interdipendenza fra le parti da non essere quasi gestibile con un procedimento tradizionale. Rapportandosi per esempio al progetto architettonico, numerose delle normative urbane quali regolamenti edilizi e piani regolatori, sono trascrivibili con una serie di relazioni concatenate (per esempio l’altezza di un edificio è vincolata alla larghezza della strada sottostante e all’altezza degli edifici circostanti ed è allo stesso tempo vincolata alla volumetria costruibile su di uno specifico lotto).
Talvolta l’elevato
livello di interdipendenza che caratterizza tali relazioni, rende quasi impossibile la gestione simultanea di tutte le regole al punto che sovente i progettisti vanno per “tentativi” o imitano tipologie edilizie preesistenti. La possibilità di controllare simultaneamente
l’adempimento
a
tutti
i
vincoli
in
fase
di
modellazione
permetterebbe di ottenere un maggior controllo e quindi una maggior libertà progettuale.
- -
125
3.3.3 Organizzazione delle Regole Le regole analizzate nei paragrafi precedenti solitamente vengono chiamate context free language in quanto la loro esecuzione non dipende minimamente dalle condizioni al contorno (che siano esse da intendersi come elementi esterni o interni al sistema). Nel paragrafo a venire verranno analizzati i sistemi grazie ai quali è possibile definire l’organizzazione e il funzionamento di un sistema di regole sulla base di una risposta proveniente dal contesto in cui essa è inserita. In questo caso si parlerà di context sensitive language. Nel paragrafo a venire verranno analizzate quelle procedure grazie alle quali è possibile strutturare ed articolare un sistema di regole fino alla messa a punto di un vero e proprio linguaggio.
3.3.3.1 Tecniche di Riscrittura Per capire il funzionamento delle tecniche di riscrittura e’ necessario soffermarsi sull’idea di macchina universale di calcolo o macchina universale di Turing. “Una macchina di Turing é l'idealizzazione matematica di una macchina di calcolo, cioè di uno strumento in grado di realizzare una sequenza simbolica, applicando un algoritmo ad un insieme di dati iniziali (anch' essi rappresentabili con una sequenza simbolica). Una tale macchina, dotata di una memoria infinita (priva, pertanto, delle limitazioni di un vero calcolatore) ed in grado di eseguire un qualsiasi algoritmo finito, é detta Macchina Universale di Turing (UTM). Una sequenza finita di simboli sn é un programma (formato dai dati iniziali e dall' algoritmo) di UTM di lunghezza finita n, se UTM legge tutti i suoi n simboli ed esegue tutte le operazioni, da questi prescritte. Alla fine di tale procedura UTM avrà prodotto una nuova sequenza finita sm, che rappresenta il risultato dell' applicazione del programma sn. In altre parole, UTM associa ad ogni ogni programma finito sn una sequenza simbolica finita sm. Ora, in generale vi saranno più programmi sn, che, analizzati da UTM, produrranno la stessa sm.
253
253 Turing machines are extremely basic symbol-manipulating devices which - despite their simplicity - can be adapted to simulate the logic of any computer that could possibly be constructed. They were described in 1936 by Alan Turing. Though they were intended to be technically feasible, Turing machines were not meant to be a practical computing technology, but a thought experiment about the limits of mechanical computation; thus they were not actually constructed. Studying their abstract properties yields many insights in Computer Science and complexity theory. A Turing machine that is able to simulate any other Turing machine is called a universal Turing machine (UTM, or simply a universal machine). A more mathematically-oriented definition with a similar "universal" nature was introduced by Alonzo Church, whose work on lambda calculus intertwined with Turing's in a formal theory of computation known as the Church–Turing thesis. The thesis states that Turing machines indeed capture the informal notion of effective method in logic and mathematics, and provide a precise definition of an algorithm or 'mechanical procedure'. Chu K. The Turing Dimension. Disponibile all’indirizzo: http://www.archilab.org/public/2000/catalog/xkavya/xkavyaen.htm (10/01/06). - 126
Immagine 60 – Rappresentazione della macchina universale di Touring Immagine disponibile all’indirizzo: http://upload.wikimedia.org/wikipedia/en/0/0e/Maquina.gif
Come è stato visto precedentemente un algoritmo è una regola base. Una sequenza di regole è un programma. Dalla definizione di Livi e Rondoni emerge che
la
macchina universale di Turing è un apparato di calcolo ideale, che si basa su di un procedimento di riscrittura dal quale è possibile ottenere, a partire da un numero finito di elementi ed azioni un insieme infinito di situazioni. I procedimenti di riscrittura si basano sulla regola “sostituisci” esaminata al paragrafo 3.3.2.2. Un applicativo classico dei processi di riscrittura, o di sostituzione è il programma Lsystem, che viene utilizzato solitamente per lo studio del processo di crescita delle piante. Prezemysla Prusinkieicz
254
, afferma che in generale i processi di riscrittura
permettono di definire oggetti complessi rimpiazzando progressivamente le parti iniziali di un oggetto semplice e utilizzando un set di regole di riscrittura o produzione. La stessa logica permette di capire il funzionamento delle geometrie frattali. Dal punto di vista grafico il classico esempio di processo di riscrittura è il fiocco di neve proposto da Kock nel 1905.
254
Direttore del centro di ricerca Algorithmic Botany, del dipartimento di Computer Science dell’università di Calgary. Disponibile all’indirizzo: http://algorithmicbotany.org/papers/abop/abop-ch1.pdf (15/01/06). - 127
Immagine 61 – Costruzione di un fiocco di neve con un sistema di riscrittura. Ogni volta che il sistema intercetta la figura initiator, essa viene sostituita con la generator. Immagine disponibile all’indirizzo: http://algorithmicbotany.org/papers/abop/abop-ch1.pdf (15/02/06)
Nelle tecniche di riscrittura si manifesta chiaramente il concetto secondo il quale un modello è da intendersi come un sistema o una struttura di regole operanti indipendentemente dalle singole applicazioni ed a partire dalle quali è possibile ottenere un numero infinito di risultati. Come detto precedentemente una data struttura può essere applicata ad un singolo elemento geometrico e ad un sistema di geometrie. a _|_
S
a b _| \ a b a _| | |_ a b a a b _/ | |_ |_ \ a b a a b a b a
/ \ NP /\
VP /\
D N V NP Il cane mangia / \ D N il osso Immagine 62 – Grammatica generativa nella struttura qui sopra D è il determinante, N un nome, V un verbo, NP a frase nominale and VP a frase verbale. La frase risultante da questa struttura può essere il cane mangia l’osso. Questo tipo di frasi è anche chiamato formulatore di frasi Immagine disponibile all’indirizzo: http://en.wikipedia.org/wiki/Generative_grammar (15/03/06)
- -
Immagine 63 – Un esempio di processo di riscrittura, l'’esempio della regola qui sopra e’: regola A → AB; B → A Immagine disponibile all’indirizzo: http://algorithmicbotany.org/papers/abop/abop-ch1.pdf (15/03/06)
128
E’ interessante notare come le tecniche di riscrittura possano essere considerate come la base concettuale di alcuni linguaggi generativi e di numerosi linguaggi informatici ed è a partire da esse che è possibile spiegare il funzionamento della grammatica generativa di Chomsky. In effetti è a partire dalla messa a punto del linguaggio generativo di Chomsky che è nato un legame indelebile fra linguaggio, linguaggio macchina e tecniche di programmazione. Chomsky
255
è il fondatore e il
caposcuola del generativismo, un'interpretazione della linguistica che intende spiegare le leggi che governano il prodursi del linguaggio e che si oppone alla linguistica strutturalista funzionalista. L’obiettivo di questa teoria è sviluppare una grammatica in grado di generare frasi. L’ipotesi sulla quale si basa e di riprodurre la condizione di chi, parlando una lingua, a partire da un numero finito di parole e di regole grammaticali, è in grado di produrre un numero virtualmente infinito di frasi e concetti. La grammatica generativa è da intendersi come una regola formale che permette di dare origine ad un numero infinito di frasi o stringhe di comunicazione a partire da un numero finito elementi. Questa proprietà ha fatto supporre che la grammatica generativa di Chomsky potesse essere usata come un modello finalizzato a spiegare il funzionamento del linguaggio naturale. La considerazione che il cervello umano per quanto abbia una capacità operativa limitata possa di produrre un numero infinito di frasi e di concetti, ha portato molti linguisti a utilizzare il concetto di grammatica generativa per spiegare la costituzione del linguaggio naturale. La
grammatica
generativa,
presenta
tutte
le
caratteristiche
dei
modelli
precedentemente analizzati in quanto permette di articolare in una struttura gerarchica molto precisa, una serie di regole che risultano indipendenti dalle loro singole applicazioni. Una frase non si limita ad essere un gruppo di parole coerenti dal punto di vista grammaticale ma è una struttura ben precisa che si relaziona con altri elementi. Nel linguaggio generativo gli elementi in gioco vengono organizzati secondo un albero che permette di identificare il ruolo ed azione che ogni elemento scambia con le altre parti del sistema. E’ possibile notare come la traduzione di un metodo generativo in una serie di frasi e regole organizzate secondo una struttura gerarchica, si ricolleghi all’idea di
255 Avram Noam Chomsky (born December 7, 1928) is the Institute Professor Emeritus of linguistics at the Massachusetts Institute of Technology. Chomsky is credited with the creation of the theory of generative grammar, often considered to be the most significant contribution to the field of theoretical linguistics in the 20th century. He also helped spark the cognitive revolution in psychology through his review of B.F. Skinner's Verbal Behavior, which challenged the behaviorist approach to the study of mind and language dominant in the 1950s. His naturalistic approach to the study of language has also affected the philosophy of language and mind (see Harman, Fodor). He is also credited with the establishment of the so-called Chomsky hierarchy, a classification of formal languages in terms of their generative power. Along with his linguistics work, Chomsky is also widely known for his political activism, and for his criticism of the foreign policy of the United States and other governments. Chomsky describes himself as a libertarian socialist, a sympathizer of anarcho-syndicalism (he is a member of the IWW), and is often considered to be a key intellectual figure within the left wing of American politics. Disponibile all’indirizzo: http://en.wikipedia.org/wiki/Chomsky (20/03/06). - 129
associatività analizzata precedentemente nel caso di Bernard Cache, secondo la quale un progetto di architettura debba essere formalizzato
attraverso una
gerarchia di regole e relazioni assimilabili ad un programma informatico capace di operare dei processi di sostituzione fra elementi che manifestano le stesse proprietà nei confronti della struttura analizzata. (paragrafo 3.3) Le caratteristiche del linguaggio di Chomsky possono essere considerate come le fondamenta della Computation Theory. In effetti Bakus e Naur hanno utilizzato lo stesso tipo di processo formalizzandolo nei linguaggi di programmazione ALGOL-60. L’affinità della struttura di questo programma con il linguaggio di Chomsky è stato subito riconosciuto dando inizio ad un periodo di grande effervescenza nel campo della definizione di una sintassi del linguaggio di programmazione articolato a partire da stringhe di programma sostituibili. Come e’ stato visto precedentemente, la possibilità di definire un sistema dotato di un numero finito di regole ed assiomi capace di riprodursi e di modificarsi all’infinito nella più completa autonomia, presenta un enorme interesse nel lavoro di quegli architetti che come Karl Chu
256
ricercano l’espressione più assoluta dell’autonomia
del progetto di architettura nei confronti di qualsiasi elemento esterno. L’utilizzo di tecniche di scrittura permette di sviluppare sistemi autopoietici rappresentanti una condizione di interiorità pura.
3.3.3.2 Regole if/then if/or I sistemi if/then (se/allora), sono l’espressione più basilare di un sistema non lineare. Essi permettono di definire l’ambito nel quale applicare una regola determinata in funzione della presenza o assenza d una specifica condizione. Per questo motivo permettono di creare un sistema che risponda in maniera diversa alle varie situazioni. Grazie alle regole if/then è possibile esprimere le condizioni basilari di alcuni sistemi complessi quali gli algoritmi genetici (se un dato presenta un dato attributo allora egli vive). Numerosi problemi progettuali possono essere riassumibili in una serie di relazioni causa effetto (se aumenta superficie complessiva della casa allora aumenta la
256
“In the process, it would bifurcate into other self-replicating UTMs, each of which in turn would bifurcate and nest other self-replicating UTMs to form an epigenetic landscape of computational monads or a machinic phylum of Universal Turing Machines. Even though the Leibnizian monad continually engages in simultaneous, albeit non-linear, modification of multiplicities as it develops into higher levels of complexity, the UTM is a one-dimensional cellular automata that self-organizes and transforms itself by incessantly rewriting the binary digits registered on the tape that constitutes the Turing Dimension. It is a one-dimensional universe of monadic states generated by the perpetuallyevolving code of the machine.” Chu K., The Turing Dimension, disponibile all’indirizzo: http://www.archilab.org/public/2000/catalog/xkavya/xkavyaen.htm (10/01/06). - 130
superficie di pavimento (rivestimento), se l’altezza dell'interpiano aumenta allora aumenta l'altezza dei gradini, se l’altezza dei gradini supera una determinata misura allora aumenta il numero dei gradini e si ricalcola la nuova altezza e dimensione della scala). Opposte alle regole if/then si trovano le regole if/or. Definiscono il tipo di regola da adottare nel caso non si verifichi una conizione data. (Se numero altezza gradini e’ inferiore a 16 cm allora aumenta la loro altezza altrimenti aumenta numero scalini), (se riconosci un dato attributo in un individuo allora l’individuo in questione sopravvive altrimenti muore). Una delle condizioni sulle quali si basano le regole if/then risiede nella chiara esplicitazione degli attributi e building blocks a partire dai quali una stuazione è resa riconoscibilie attraverso un sistema numerico. Molti degli esperimenti fatti dalla NLSU si basano sulla messa a punto di modelli tridimensionali reagenti al variare delle condizione del sito e traducibili con una serie di regole if/then, if/or.257 E’ importante notare che le funzioni if/then o if/or sono da considerarsi come delle funzioni non lineari in quanto operano con una logica a gradino.
3.3.3.3 Automi Cellulari Nel paragrafo precedente sono state visionate alcune delle regole basilari che definiscono il comportamento di un elemento in funzione di una condizione al contorno. Gli automi cellulari possono essere interpretati come sistemi reagenti secondo lo stesso tipo di principio in quanto la condizione di ogni agente e’ interamente vincolata -tramite una serie di reazioni if/then- alla condizione degli agenti che lo circondano. Nel fine di dare una corretta definizione degli automi cellulari e della maniera in cui essi operano, si farà riferimento ad alcuni concetti definiti da Livi e Rondoni nell’ambito del corso Aspetti Elementari della Complessità
257
258
.
Si veda: Tiazzoldi C., Applied Responsive Devices, Apparato 10 del presente lavoro. Quando abbiamo parlato di UTM, abbiamo stabilito che una tale macchina legge una sequenza di simboli e ne produce una nuova, che può essere vista come l’evoluzione della precedente.Anche alla luce di questa considerazione, ci sembra naturale definire delle regole di evoluzione di una sequenza di simboli, che la mappano in una nuova sequenza di simboli. Senza perdita di generalità, anche in questo caso possiamo limitarci a sequenze di simboli presi dall’alfabeto binario "0", "1" . Una tale regola di evoluzione viene detta Automa Cellulare Booleano. Queste regole di evoluzione sono state ideate attorno al 1940 da J.Von Neumann, uno tra i più grandi scienziati del XX secolo. In quegli anni egli era impegnato nella progettazione del primo elaboratore elettronico e, soprattutto, nello studio delle sue potenzialità di indagine. Egli prese in considerazione la possibilità di definire delle regole astratte di evoluzione, espresse nel linguaggio binario del computer. Essendo von Neumann uno scienziato e non un tecnologico, si chiese anche quale interesse scientifico potessero avere gli Automi Cellulari (AC). La sua geniale intuizione fu che questi potessero consentire di indagare, dal punto di vista formale, le basi logiche dei fenomeni tipici della materia - 131 258
“Quando abbiamo parlato di UTM, abbiamo stabilito che una tale macchina legge una sequenziali simboli e ne produce una nuova, che può essere vista come l'evoluzione della precedente. Anche alla luce di questa considerazione, ci sembra naturale definire delle regole di evoluzione di una sequenza di simboli, che la mappano in una nuova sequenza di simboli. Senza perdita di generalità, anche in questo caso possiamo limitarci a sequenze di simboli presi dall' alfabeto binario "0", "1" . Una tale regola di evoluzione viene detta Automa Cellulare Booleano. Queste regole di evoluzione sono state ideate attorno al 1940 da J. von Neumann, uno tra i più grandi scienziati del XX secolo. In quegli anni egli era
impegnato
nella
progettazione
del
primo
elaboratore
elettronico
e,
soprattutto, nello studio delle sue potenzialità di indagine. Egli prese in considerazione la possibilità di definire delle regole astratte di evoluzioni, espresse nel linguaggio binario del computer”.
259
In altre parole un automa cellulare e’: “Un sistema dinamico composto da un insieme di unità (celle), disposte su di una struttura spaziale discreta (reticolo). Ogni cella può assumere un numero finito di stati (due,"0" o "1" nel caso Booleano). L'evoluzione di ciascuna cella avviene a passi discreti nel tempo, secondo una regola di aggiornamento locale (cioé dipendente da un intorno finito della cella), omogenea (uguale per tutte le celle) e sincrona (contemporanea per tutte le celle)”.
260
vivente: sopravvivenza, riproduzione, evoluzione e competizione [1]. L'idea di von Neumann si basa sull'ipotesi che i costituenti della materia vivente (geni, cellule, semplici organismi pluricellulari) siano in grado di realizzare quei complessi comportamenti auto-organizzativi, che li caratterizzano, a partire da semplici regole di evoluzione, che implicano, per ciascuno degli elementi costituenti, lo scambio di informazione con un sottoinsieme assai ristretto degli altri elementi. Non si può evitare di riconoscere che in queste ipotesi sia già presente l'idea di complessità, che abbiamo esposto nell' introduzione. Bisogna anche aggiungere che le idee di von Neumann apparvero a molti dei suoi contemporanei come un bizzarro tentativo di \riduzionismo biologico". é in parte per questo motivo che la teoria degli AC é rimasta relegata per molti anni al ruolo di curiosità matematica, coltivata da una ristretta cerchia di esperti. Questo, comunque, non ha evitato lo sviluppo, nei decenni successivi, di alcuni aspetti fondamentali della teoria. Negli anni '70 l' argomento conobbe nuova popolarità, grazie alla pubblicazione di una serie di articoli della rivista Scientica American sul Gioco della Vita (Game of Life) [2] (si veda anche [3] e [4]). Oggi gli AC e le loro varianti più moderne, come i cosiddetti multi-agent networks, rappresentano un campo di indagine che si è affermato ben al di là dei confini della biologia teorica. 3.1 Generalità sugli Automi Cellulari Un' AC _e un sistema dinamico composto da un insieme di unità (celle), disposte su di una struttura spaziale discreta (reticolo). Ogni cella può assumere un numero finito di stati (due, "0" o "1" nel caso Booleano). L'evoluzione di ciascuna cella avviene a passi discreti nel tempo, secondo una regola di aggiornamento locale (cioè dipendente da un intorno finito della cella), omogenea (uguale per tutte le celle) e sincrona (contemporanea per tutte le celle). 259 Livi R., Rondoni L., Aspetti elementari della complessità cit.p.17 260 A scopo illustrativo analizziamo l’esempio del Game of Life qui descritto da Livi. Questo è un AC booleano, definito su un reticolo quadrato. La semplice regola di evoluzione, che gli corrisponde, si applica ad un intorno, che contiene la cella che aggiorna il proprio stato e le otto che la circondano. Un semplice foglio di carta quadrettata ci consente di visualizzare l'intorno. Ogni quadretto è una cella e supponiamo di partire da una configurazione casuale, dove alcune celle sono "morte" ("0") ed altre sono vive ("1") (la codifica simbolica introdotta è arbitraria). A questo punto aggiorniamo lo stato di tutte le celle, seguendo le seguenti prescrizioni. Al passo temporale successivo una cella sopravviva solo nei due casi seguenti : - se era circondata da tre celle vive, indipendentemente dal fatto che fosse viva o morta. - se era circondata solo da due celle vive ed essa stessa era viva. Si ricordi che la regola di aggiornamento è sincrona. Questo implica che, se eseguiamo la regola su di un computer attraverso una successione di operazioni, dobbiamo lasciare inalterata la configurazione di partenza e scrivere su un' altra locazione di memoria gli stati, che calcoliamo per la nuova configurazione. Tornando al significato di Game of Life, possiamo dire che stiamo analizzando un universo peculiare, in cui ogni soggetto della popolazione (celle vive) può venire generato solo da tre celle contemporaneamente vive nel suo intorno e può sopravvivere solamente se nel suo intorno vi sono due o tre celle vive, altrimenti muore per sovrappopolazione, o per isolamento. Ci si può divertire, armati - 132
Un automa cellulare si basa su di un sistema di celle (a n°dimensioni) il cui stato dipende dall’attivazione o dalla non attivazione di una serie di regole dipendenti a loro volta dagli stati delle celle circostanti. Riferendosi a Von Neuman, l’inventore degli automi cellulari, Livi e Rondoni sostengono che la sua grande intuizione fosse di aver compreso che fosse possibile, grazie ad un sistema di regole semplici, di spiegare fenomeni estrememente complessi quali il comportamento della materia vivente, la riproduzione evoluzione e competizione degli organismi. In effetti grazie a questo tipo di formalizzazione, e’ possibile capire i fenomeni di auto-organizzativi basati sulle regole evolutive il cui comportamento dei singoli elementi dipende dalla situazione degli elementi circostanti. A causa dell’ambizione del programma scientifico al quale volevano adempire con sistemi tanto elementari, gli automi cellulari di Von Neuman sono stati accolti con ironia e distacco nell’ambiente scientifico dell’epoca. A partire dagli anni '70, l'argomento conobbe nuova popolarità grazie alla pubblicazione del lavoro di John Conway chiamato The Game of Life, sviluppato per dimostrare come comportamenti simili alla vita possono nascere da regole molto semplici. Il principio secondo il quale esso opera può essere definito grazie ad una serie di regole if/then e if/or che gestiscono il comportamento dell’intero sistema: lo stato di ogni cellula e’ legato da una regola di tipo if/then a quello delle cellule circostanti. Le regole alla base del game of life possono essere riconducibili a due situazioni principali operanti su di una griglia: ogni cellula può essere accesa o spenta, viva o morta, le regole con le quali si stabilisce lo stato di ogni cellula sono le seguenti: Quando uno spazio è popolato: Se una cellula ha uno o due vicini allora muore Se una cellula ha quattro o più vicini allora muore Se cellula ha due o tre vicini allora sopravvive Quando lo spazio non è popolato Se una cellula (vuota) ha tre vicini allora si popola
di molta pazienza, a studiare cosa accade a partire da una configurazione di 0 e 1 data a caso, annerendo sul foglio a quadretti le celle vive. Un modo pratico è quello di avere a disposizione tanti fogli a quadretti, identici e abbastanza trasparenti. Sovrapponendoli l'uno all'altro, senza dover continuamente cancellare i quadretti precedentemente anneriti, si possono, costruire le immagini del sistema ad ogni passo temporale. Si faccia attenzione al fatto che, anche in questo caso, si devono definire delle condizioni periodiche al bordo. Per chi non ha la pazienza da certosino, è possibile osservare l' evoluzione del Gioco della Vita sullo schermo di un PC. A differenza di regole apparentemente simili (che possono essere definite con qualche semplice variante della regola di aggiornamento del tipo: una cella nasce solo se ci sono quattro celle vive invece di tre nel suo intorno), il Gioco della Vita mostra un comportamento estremamente complesso, caratterizzato dalla formazione di un certo numero di configurazioni stabili, oscillanti o addirittura propagantesi nello spazio, che possono coesistere le une con le altre. - 133
Immagine 64 - Nella sequenza di immagini vediamo sei configurazioni di uno stesso schema di generazione: 1-2-11-1213-14. E’ possibile notare che in questo caso (e solo in casi analoghi a questo) alla tredicesima generazione la configurazione si stabilizza diventando una serie periodica. Immagini disponibili all'indirizzo: http://www.bitstorm.org/gameoflife/ (12/12/05).
Malgrado la semplicità delle regole The Game of Life mostra un comportamento estremamente complesso, caratterizzato dalla formazione di configurazioni stabili, oscillanti o addirittura propagantesi nello spazio e che possono coesistere le une con le altre. Livi afferma che oggi sappiamo che Game of Life è una UTM, cioè una macchina in grado di eseguire un qualunque algritmo finito di calcolo.
Immagine 65 - Karl Chu, utilizzo di automi cellulari come strumento di esplorazione progettuale. Immagine tratta da: Leach N., Wei-Guo X. (a cura di), Fast Forward cit., p. 18.
- -
134
Oggi gli automi cellulari (AC) nelle loro varianti più moderne fra le quali possiamo menzionare i multi agent-network, rappresentano un campo di indagine che si spinge ben al di là della biologia teorica. Alcuni AC, sono in grado di rappresentare fenomeni di crescita e sviluppo basati su di una serie di regole di maggioranza. In altre parole, lo stato della i-sima cella al tempo t + 1 é determinato dal valore assunto dalla maggioranza delle celle, nell'intorno di tale cella. Uno dei modelli maggiormente studiati in ambito fisico é il modello di Ising, che fu introdotto per spiegare la transizione alla magnetizzazione spontanea, osservata nei materiali ferromagnetici. Un’altra tipo applicazione degli automi cellulari consiste nei modelli di traffico, nei quali il comportamento di ogni individuo è principalmente vincolato alla situazione degli individui circostanti: vedendo una coda ad un incrocio un agente tende ad andare in un punto in cui suppone non vi sia traffico.
261
Il comportamento di ogni
singolo agente è quindi influenzato dal fatto che in una cella (assimilabile alla modellazione matematica dello spazio fisico) possa essere piena oppure vuota, accesa o spenta. Il tipo di complessità emergente dagli automi cellulari ha portato architetti come Karl
Chu,
a
riconoscere
in
essi
uno
strumento
di
indagine
progettuale
completamente autosufficiente e capace di rigenerarsi ed di innovarsi nel corso del tempo e capace forse di descrivere la complessità dei fenomeni che ci circondano.
Immagine 66 – Un applicazione degli automi cellulari alla lettura dello spazio urbano Immagine per gentile concessione di Natale Prudente, sviluppata nel contesto del Karl Chu Studio GSAPP Columbia University.
261
Questi modelli hanno avuto un certo successo di recente, in quanto hanno consentito di ottenere una modellizzazione efficace del traffico. A titolo di esempio, descriviamo il caso semplice di un modello unidimensionale. La strada é rappresentata da un reticolo unidimensionale di celle, ciascuna delle quali può essere vuota ("0") od occupata da un' auto ("1"). Tutte le auto si muovono nella medesima direzione (ad esempio, verso destra). La posizione di tutte le auto sul reticolo viene aggiornata contemporaneamente: se la cella i contiene un auto questa si sposta nella cella i + 1 solo se questa é vuota altrimenti rimane nella medesima posizione. La regola è locale, in quanto lo stato si(t + 1) dipende unicamente da si_1(t), si(t) e si+1, cioè dagli stati al tempo t nelle celle in i _ 1, i e i + 1. (Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 6). - 135
3.3.3.4 Do Whyle Loop Nel
paragrafo
precedente
sono
stati
analizzati
gli
automi
cellulari
il
cui
comportamento e’ legato tramite una serie di regole if/then allo stato delle cellule circostanti. Il comando do/while loop permette di raggiungere, lavorando per approssimazione, un target (obbiettivo) preciso, eseguendo un comando fino a quando non si e’ raggiunto un risultato determinato. L’interesse di questo tipo di algoritmo consiste nella possilita’ di raggiungere una specifica condizione senza conoscere la regola deterministica che permette di raggiungere il risultato in questione. Nel caso di equazioni non reversibili o di espresioni numeriche non razionali, e’ possibile manipolare un dato per approssimazione e di ripetere un ordine fino al momento in cui il target specifico non è stato raggiunto. Per questo motivo l’algoritmo do/while serve si rivela indispensabile in quei processi di ottimizzazione di cui si conosce il risultato al quale si vuole arrivare ma non l’equazione esatta grazie al quale raggiungerlo.
- -
136
3.3.3.5 Reti Neurali262 I do/while loop possono essere la base concettuale delle reti neurali in quanto ripetono un’operazione fino a quando non si sia raggiunta la soluzione ottimale relativa ad uno specifico target. Le reti neurali si ispirano alla maniera in cui avviene la trasmissione delle informazioni nel sistema nervoso umano. Il procedimento sul quale esse si basano è un sistema di smistamento dell’informazione in entrata e di organizzazione in classi dell’informazione in uscita.
262
Come abbiamo accennato nell' introduzione,il funzionamento del cervello umano ( e, più in generale, quello di sistemi neurali anche meno evoluti) rappresenta la metafora tipica di un sistema complesso. Il cervello umano é costituito, infatti, da un numero astronomico ( circa 1011) di unita' elementari, che comunicano tra loro attraverso un numero ancor più astronomico di connessioni (circa 1015). Queste unità sono delle cellule di vario tipo, dette neuroni. A prescindere dalle loro differenze, i neuroni svolgono la funzione di ricevere e trasmettere segnali elettrochimici, che viaggiano lungo opportune linee di trasmissione. Anche se non ne faremo uso in seguito, accenniamo molto brevemente alla fisiologia di tali cellule. In sostanza, il meccanismo di attivazione o di inibizione di un neurone é controllato dal usso di ioni attraverso la membrana cellulare, di cui é rivestito. Il corpo cellulare, che contiene il nucleo, é detto soma ed é circondato da una serie di diramazioni, dette dendriti. Dal neurone si diparte anche una linea di trasmissione, il modello più accreditato, nella descrizione della fisiologia neurale, é quello di Hodgkin-Huxley, detta assone, che lo collega con i dendriti o la superficie di altri neuroni, in punti di contatto, detti sinapsi. Se un numero suficiente di impulsi giunge ad un neurone in un certo intervallo di tempo, questo decide di "sparare" lungo il suo assone un impulso elettrico, che viene trasmesso a valle, ai neuroni ad esso connesso. Questo insieme di cellule funziona, quindi, secondo una procedura massicciamente parallela, relativamente lenta (rispetto alla velocità di trasmissione di segnali in un circuito elettronico), ed in grado anche di poter tollerare errori, entro certi limiti 15 . Il cervello umano é anche un sistema, che funziona con consumi di potenza estremamente bassi (non c' é di solito bisogno di ventole per raffreddare il cervello, anche in pieno funzionamento), rispetto a quelli di un sistema basato sulla tecnologia elettronica digitale, che esegua la stessa quantità di operazioni. Trattandosi di un sistema frutto di una lenta e lunga evoluzione, il cervello é in grado di assolvere anche a molteplici funzioni, che si realizzano su scale di tempo assai diverse (si pensi ai cosiddetti riessi e alla memoria). Per quanto il suo progetto sia scritto da qualche parte nel nostro DNA, bisogna anche dire che la sua realizzazione fenotipica non può essere specificata, in tutta la sua complessità, nel DNA stesso. In altre parole, il cervello mostra una plasticità , che gli consente di crescere e di adattare la sua struttura in funzione degli stimoli, che provengono dall' esterno, per tutta la durata della vita dell' individuo, che lo ospita. Bisogna anche ricordare che la plasticità diminuisce rapidamente con l' età (e forse si atrofizza definitivamente con il raggiungimento della saggezza). Quello che, però, rende il cervello una struttura unica é la sua naturale propensione ad autoregolarsi, ad auto-organizzarsi e a mantenersi in funzione anche in caso di informazione incompleta, o, addirittura, di errori. Queste considerazioni ci fanno capire come possa apparire presuntuoso mirare alla comprensione di questo sistema. In ogni caso, possiamo addentrarci nell' esplorazione del cervello, utilizzando modelli alquanto semplificati, ma in grado di descrivere e fornire una base di comprensione, almeno per alcuni aspetti significativi. In questo capitolo ci limiteremo a descrivere modelli matematici molto semplici di reti di "neuroni" interagenti. Lo scopo é di far comprendere come, già a questo livello, sia possibile rendere conto di alcuni meccanismi fondamentali, come, ad esempio, la capacità di ricostruire un' informazione completa, a partire da un' informazione parziale, oppure di apprendere e memorizzare nuove informazioni 16 . 7.1 Modelli di neuroni Partiamo con l' introdurre il più semplice modello di un neurone artificiale (NA), proposto nel 1943 da McCulloch e Pitts [24]. Il NA é ridotto ad un' unità logica di calcolo, che ha la forma di un "gate" a soglia. Il NA riceve n segnali di ingresso, rappresentati dalle variabili reali 15 Nel capitolo 2 abbiamo introdotto la definizione di macchina universale di Turing (UTM), come rappresentazione formale di una astratta macchina universale di calcolo. Le proprietà appena descritte ci fanno capire che il funzionamento del cervello umano non é riconducibile a tale definizione.16 Per una trattazione più estesa si veda xi ; i = 1; _ _ _ ; n, ciascuno dei quali é pesato con un "peso sinaptico", pi. Il NA funziona come un integratore, che somma tutti gli ingressi con il loro peso e, se il risultato é superiore ad un dato valore di soglia s, la sua variabile di uscita y prende il valore "1" (cioé il NA "spara", trasmettendo un segnale lungo il suo assone), altrimenti y rimane "0" (il NA resta silente e nessun segnale viene trasmesso). In formule: y = _1 ; se Pni=1 pixi _ s 0 ; altrimenti (40) Si osservi che l'operazione di calcolo, prodotta dal NA, é la combinazione di un' operazione line are (la somma) ed una nonlineare (l' applicazione di una funzione a gradino) 17 . é facile rendersi conto che ogni NA può funzionare come un dispositivo che realizza due funzioni booleane universali: AND e OR. A partire da questa considerazione, si giunge anche a concludere che un opportuno assemblaggio di NA può essere in grado di realizzare una qualunque funzione logica booleana. Sono state proposte varie architetture di reti neurali arti_ciali, (RNA), allo scopo di realizzare sistemi, in grado di eseguire opportune operazioni di calcolo. L' esempio più semplice di RNA éla "rete a strati direzionata". In questa RNA un opportuno segnale di ingresso viene elaborato, in successione, da un numero finito di strati di NA, fino a produrre un segnale di uscita. Le connessioni sono direzionate, in modo che non si possa formare retroazione (feedback) e il segnale proceda sempre in una data direzione. Si possono costruire RNA che operano su segnali reali, invece che booleani. Il vantaggio di questa definizione é che una qualunque funzione continua, a valori reali, può essere arbitrariamente bene approssimata da una opportuna combinazione lineare di funzioni sigmoidali. In generale, la scelta di realizzare una RNA, secondo una specifica architettura, dipende, principalmente, dal tipo di funzione, che le si vuole fare svolgere. Paraltro, data una tale funzione,17 Un NA di questo tipo non é in grado di riprodurre tutte le operazioni logiche, ma solo quelle linearmente separabili. Ad esempio, nel caso di due soli ingressi, il NA può eseguire le operazioni elementari AND e OR, ma non XOR. (Livi R., Rondoni L., Aspetti elementari della complessità cit.p.47) - 137
Prima di analizzare le reti neurali e quelle di apprendimento è necessario soffermarsi sulla loro parte più elementare che consiste nei neuroni artificiali. Come affermano Livi e Rondoni il più semplice neurone artificiale (NA) è caratterizzato da un ingresso delle informazioni e da un’uscita delle stesse. “Il NA é ridotto ad un'unità logica di calcolo, che ha la forma di un "gate" a soglia. Il NA riceve n segnali di ingresso, rappresentati dalle variabili reali 15 Nel capitolo 2 abbiamo introdotto la definizione di Macchina Universale di Turing (UTM), come rappresentazione formale di una astratta Macchina Universale di Calcolo. Ogni neurone raccoglie la somma di input provenienti da fonti diverse, se al somamre i vari input il contenuto la forza del messaggio è sfficiente esso viene trasmesso al neurone successivo in caso contrario il messaggio non passa. Ad una serie di situazioni di input in entrate corrisponde uanserie di input in uscita prestabilite. La caratteristica delle reti neurali è di essere in grado si raccogliere o sommare gli input arrivanti da diversi porte o gate”
263
.
Livi e Rondoni evidenziano il legame esistente fra un neurone artificiale ed un automa boleano (automa cellulare) in quanto tutte e due sono riconducibili ad un sistema if/then o if/or. Un’altra caratteristica di fondamentale interesse dei neuroni artificiali consiste nell’essere sistemi non lineari irreversibili. In effetti, il fatto che l’informazione necessaria per compiere una specifica operazione possa arrivare simultaneamente da diverse fonti, non permette di percorrere il processo inverso per tornare al segnale di origine. Le reti neurali sono da intendersi come un assemblaggio di neuroni artificiali. “Una rete neurale non artificiale segue una strategia di calcolo non basata su un algoritmo deterministico, ma su metodi statistici, che mirano a migliorare la relazione tra dati in ingresso ed in uscita, secondo una procedura simile all'interpolazione
ed
estrapolazione
di
funzioni
(ad
esempio,
metodi
di
regressione lineare e Non Lineare). In altre parole, una rete neurale si adatta a svolgere
una
data
funzione,
attraverso
una
sorta
di
meccanismo
apprendimento, che, di fatto, corrisponde ad una strategia di ottimizzazione.”
di 264
Per esempio nel caso di una rete di apprendimento guidato, “alla rete viene presentato un insieme di configurazioni di ingresso e le corrispondenti configurazioni di uscita, che rappresentano il cosiddetto insieme di apprendimento. La procedura di apprendimento consiste nell’aggiornare ad ogni passo i valori dei pesi pij in modo che, data una configurazione d’ingresso, si renda minima la distanza tra la 265
configurazione di uscita e quella attesa.
”
263
Livi R., Rondoni L., Aspetti elementari della complessità cit.p47 Livi R., Rondoni L., Aspetti elementari della complessità cit.p48 265 Livi R., Rondoni L., Aspetti elementari della complessità cit.p49 - 264
138
Dove il valore dei pesi indica l’importanza di una connessione fra due elementi del sistema. L’aspetto interessante dell’utilizzo di una rete neurale in architettura si manifesta nella possibilità di compiere dei processi decisionali complessi caratterizzati da logiche a gradini
266
(e quindi non lineare) in cui la partecipazione dei vari attori al
sistema è discontinua. In questo modo è possibile ottimizzare la gestione dei flussi e delle energie necessarie per il compimento di uno specifico risultato.(da identificarsi come il risultato in uscita al quale si può giungere attraverso diversi percorsi.
3.3.3.6 Soft Control Nel paragrafo 3.3.3.3 è stato dimostrato che gli automi cellulari sono descrivibili come un sistema ad agenti il cui comportamento collettivo dipende dalla variazione sincrona di un gruppo di individui fatta sulla base di una serie di regole locali, la cui attivazione o disattivazione dipende a sua volta dallo stato delle cellule circostanti (nel caso game of life la “risposta” di ogni agente al tempo T1 dipende dalla presenza o assenza di altri agenti nelle cellule circostanti al tempo T0). Nella conferenza “Soft Control” on Collective Behavior, Han267 presenta un’interessante applicazione di modellazione ad agenti nella quale è possibile modificare il comportamento complessivo del sistema grazie all’introduzione di una serie di elementi “spia”. Il principio del soft control è di potere, introducendo una serie di agenti che agiscono con regole prestabilite, provocare un fenomeno a catena che sia in grado di cambiare il comportamento collettivo del sistema su cui si opera. Il concetto di soft control è riassumibile nel modo seguente: se in un gruppo di agenti, il comportamento complessivo è vincolato esclusivamente ad una serie di regole locali (il comportamento dei singoli individui dipende dal comportante degli individui che lo circondano), allora è possibile modificare sistema introducendo una serie di agenti “spie” il cui comportamento, essendo diverso da quello degli individui normali, è in grado di modificare le azioni dei vicini dando così il via ad un fenomeno a catena. Volendo semplificare radicalmente il problema, si potrebbe affermare che il soft control agisce come la “clacca” in un teatro. Inserendo una serie di agenti “spia” pagati per svolgere una specifica funzione (applaudire) in un modo presuntamene naturale, è possibile influenzare in comportamento collettivo di tutto il pubblico assicurandosi che il flusso degli applausi sia appropriato alle varie
266
Si veda: Tiazzoldi C., Arch'Art 2: Petite Machine à Décider, Apparato 7 del presente lavoro. Han è Assistant Professor all’Istituto di Systems Sciences, professore e direttore associato al Complex Systems Research Center of AMSS (Cina). Il suo campo di interesse si focalizza sull’analisi dei sistemi complessi, comportamenti collettivi e ottimizzazione combinatoria. - 139 267
situazioni. Inserendo alcuni agenti che danno inizio agli applausi, è possibile controllare il comportamento dell’intera sala. Per chiarire la maniera in cui funziona un tale procedimento, nella lezione “Soft Control” on Collective Behavior,
268
Han porta ad esempio il caso della manipolazione
tramite agenti spia del volo di un gruppo di uccelli. Le dinamiche che stanno alla base delle configurazioni assunte da uno stormo di rondoni, sono riassumibili da una singola regola: segui la direzione dell’animale che ti sta più vicino. E’ interessante notare come questa regola, grazie al cambio delle distanze che avvengono durante il volo, è capace di creare un comportamento collettivo estremamente complesso non decifrabile con un tipo di analisi tradizionale. La possibilità di poter, grazie all’introduzione di una serie di agenti o segnali spia, dirottare il volo degli animali permetterebbe di risolvere i problemi causati dagli stormi che talvolta invadono gli aeroporti, mettendo a repentaglio la sicurezza degli apparecchi in fase di atterraggio e di decollo.
Immagine 67 - “Soft Control” on Collective Behavior, l’immagine rappresenta la dinamica del volo dei rondoni basato sull’emulazione del comportamento dell’individuo che si trova più vicino. Immagine per gentile concessione di Jing Han, presentata alla conferenza “Soft Control” on Collective Behavior, The Santa Fe Institute, Pechino, luglio 2005.
L’apparato messo a punto può essere descritto nel modo seguente: Il sistema: - Molti agenti - Ogni agente segue regole locali - Gli agenti sono connessi: nessuno di loro è isolato - Le azioni locali cambieranno il sistema complessivo. Le regole di controllo -Non ci sono regole né parametri operanti su scala globale. -Non bisogna cambiare le regole secondo le quali agiscono i singoli agenti.
268
Han J., Complex Systems cit.
- -
140
-Poche spie servono a guidare l’intero gruppo. -Le spie sono controllate dal programmatore e non seguono le regole locali. -Gli altri agenti considerano le spie come agenti normali.
(t+1)= controlled x(t+1)= x(t)+v·(t+1) or controlled v would be variable
(t+1)=((t)+(t)+’(t))/3 x(t+1)=x(t)+v·((t+1)
U(t) y(t)
Immagine 68 - “Soft Control” on Collective Behavior. Immagine per gentile concessione di Jing Han, presentata alla conferenza “Soft Control” on Collective Behavior, The Santa Fe Institute, Pechino, luglio 2005.
Appare evidente l’importanza di questo tipo di applicazioni in quei fenomeni il cui comportamento collettivo dipende dalla somma delle reazioni a semplici regole locali (come avviene nel caso del controllo di fenomeni di panico, nella manipolazione di dinamiche economiche e nei fenomeni di apprendimento e di insegnamento basati su di un principio di emulazione). Han solleva alcune domande concernenti questo tipo di modellazione. Data una serie di regole locali, qual è il comportamento collettivo risultante? Dato uno specifico comportamento collettivo che si vorrebbe ottenere, in che modo è possibile stabilire le regole secondo le quali programmare gli agenti spia nel fine di raggiungere nel minor tempo possibile il risultato auspicato? In che modo è possibile trovare una regola locale che permetta di ottenere un ottimo collettivo? Ripensando all’analogia con la “clacca” in un teatro, quanti agenti spia sono necessari e dove vanno posizionati nel fine di ottimizzare il processo? Le spie devono mimetizzarsi fra la folla oppure no? Appare evidente il peso che gioca ogni parametro nella modellazione e che lungi dall’essere un fenomeno puramente astratto influisce in maniera determinante sul comportamento dell’intero sistema. Sarebbe necessario chiarire cosa si vuole ottenere da una spia: -Sincronizzazione? -Mantenere unito o separare il gruppo? - -
141
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
-Andare in un posto specifico nel minimo tempo possibile? -Evitare di urtare un ostacolo? -Seguire qualche cosa? -In base a che cosa si può controllare un agente spia (alla velocità, alle coordinate spaziali, alla posizione relativa ad altri soggetti)? -Quante informazioni siamo in grado di osservare e di gestire? L’interesse del soft control risiede nel poter sfruttare le dinamiche o inclinazioni naturali di un gruppo di agenti nel fine di ottenere un comportamento complessivo predeterminato. Per quanto, per motivi di brevità dello studio, non sia stato possibile identificare casi in cui il sof control sia stato applicato alle politiche urbane, è possibile affermare che questo tipo di approccio racchiude un enorme potenziale. In effetto potrebbe essere lo strumento attraverso il quale sia possibile mediare i fra le pulsioni “naturali e locali” -e quindi non controllabili- dei singoli individui ed una pianificazione complessiva finalizzata ad ottenere una soluzione predeterminata. L’adozione di questo tipo di metodologia per l’analisi dei fenomeni urbani sembra del tutto plausibile in quanto basterebbe introdurre il concetto di
“spia” nelle
modellazione ad agenti -ormai molto diffusee nella pratica urbanistica. Per esempio, Secondo Stan Allen agenti
mobili
e
270
di
, le città contemporanee sono leggibili come un amalgama di colonie
provvisorie,
composte
da
piccole
unità,
il
cui
comportamento è leggibile attraverso una serie di comportamenti locali indipendenti da una qualsiasi regola collettiva. Sarebbe uno stimolo interessante per una ricerca futura di verificare fino a che punto sia possibile manipolare sfruttando le dinamiche, operanti naturalmente in scala locale, ottenere uno specifico risultato collettivo. In questo caso sarebbe necessario domandarsi in che modo il comportamento dei singoli agenti urbani è influenzato dalle azioni dei propri vicini? Fino a che punto il compimento di alcune decisioni (sviluppo commercio, flusso mercato immobiliare, cura spazi semi pubblici, recinzioni, piccoli abusi, livello di manutenzione e di decoro) sono influenzate degli agenti circostanti? Sarebbe possibile introdurre delle “spie” urbane capaci di esercitare una forma di soft control e capaci quindi di influenzare una dinamica naturale?
270
"Here is nothing monolithe or object like about this emergent horizontal field. Rather than existing in search of some kind of organizing body, these new city forma are an amalgam of mobile agents, provisional colonies, and diverse components. They are composed of small units and collectives rather than singularities, and bottom-up organizations rather than top-down orders". (Allen S., Corner J., Urban natures, in: Tschumi B, Cheng I., The State of Architecture cit., p. 17). Stan Allen è uno dei fondatori principali del Field Operations e preside della scuola di Architettura di Princetown. Tra i suoi progetti realizzati ci sono gallerie, spazi espositivi, e abitazioni unifamiliari. Il suo interesse si è rivolto anche ai contesti di progettazione urbana su vasta scala attraverso la partecipazione a concorsi e progetti di ricerca. Le sue pubblicazioni includono Points and lines: Diagrams and Projects for the City (1999) e Pratice: Architecture, Technique and Rappresentation (2000). - 142
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
3.3.3.7 Problemi di Ottimizzazione Prima di passare all’analisi di quei sistemi che, grazie ad un comportamento evolutivo sono in grado di cambiare le regole che li governano, è necessario soffermarsi sul problema della calibrazione o modulazione delle regole che operano sui modelli in generale. Nella conferenza Combinatorial Problems and Collective Behaviors,
271
Jing Han solleva il problema dell’ottimizzazione del comportamento di
un sistema caratterizzato da una serie di conflittualità interne e della necessità di strutturare la gerarchia secondo la quale essi operano. Questo aspetto è di importanza rilevante in quanto, com’è stato osservato nella prima parte di questo trattato, uno dei maggiori problemi alla base delle retoriche della complessità deriva dalle conflittualità che si manifestano all’interno di un sistema. Nell’approccio riduzionista tradizionale, per poter operare con una metodologia rigorosa i problemi erano frazionati in sub-sistemi ed ognuno di essi era risolto indipendentemente, trascurando per tanto le conflittualità che ne potevano derivare; oppure, i problemi erano risolti cercando di ottimizzare i parametri agenti su scala globale, non considerando gli effetti delle pressioni agenti su scala locale. Nelle Scienze della Complessità è favorito un approccio olistico in cui gli elementi operanti in scala locale e globale sono considerati simultaneamente. Occorre porre l’accento sul fatto che, in alcuni, casi ottimo locale e globale sono divergenti pertanto, è necessario compiere alcune scelte. In altri casi invece, è possibile far convergere i due ottimi, ma il raggiungimento di tale condizione richiede un elevato investimento di risorse (espresse in termini di tempo o di energia) ed implica l’insorgere di conflittualità locali transitorie. Nella conferenza Combinatorial Problems and Collective Behaviors Hang, analizza i criteri secondo i quali vengono affrontati i problemi di conflittualità ed i modelli che vengono utilizzati per studiare questo tipo di problemi. Per motivi di brevità non sarà possibile di entrare nel merito delle metodologie proposte, ma saranno estratte solamente alcune idee basilari.
271
"1.Given the local rules of the agent, what is the collective behavior of the overall system? Spin Glasses, panic model, network dynamic; 2.Given the desired collective behavior, what are the local rules for agents?". (Han J., Complex Systems Research Center, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005). - 143
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
Immagine 71 – In questa figura appare evidente il problema relativo ad una situazione localmente funzionale ma globalmente inefficiente. Immaginando che l’obbiettivo del sistema sia di minimizzare l’altezza della posizione delle biglie e che la regola a cui esse obbediscono sia quella di minimizzare lo sforzo di movimento: appare evidente che la biglia rossa presenta una condizione di conflittualità fra ottimo locale e globale. In effetti, per raggiungere l’ottimo globale essa dovrebbe risalire (compiendo uno sforzo) e contraddicendo quindi il suo principio di ottimizzazione interna. Immagine per gentile concessione di Jing Han, presentata alla conferenza Complex Adaptive Systems, The Santa Fe Institute, Pechino, luglio 2005.
Portando ad esempio i modelli di studio chiamati coloring problems, Han descrive come fare per definire un sistema capace di trovare una situazione ideale da un determinato numero di vincoli e di variabili. I coloring problem permettono di studiare numerosi problemi di conflittualità esistenti all’interno di un sistema come la distribuzione delle risorse all’interno di un network (da leggersi come una città, una rete infrastrutturale distributiva ecc).
Immagine 72 – 2-coloring problem. Il sistema deve trovare la soluzione secondo la quale nessun elemento è collegato con un altro dello stesso colore. Immagine per gentile concessione di Jing Han, presentata alla conferenza Combinatorial Optimization and Collective Behaviors, The Santa Fe Institute, Pechino, luglio 2005.
L’idea sulla quale si basano tali modelli è di descrivere un sistema con una serie di elementi (in queste immagini cerchi) caratterizzati da attributi (in questo caso il colore) e di regole che ne gestiscono i vincoli e l’organizzazione (incompatibilità fra - -
144
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
colori ecc..). L’obbiettivo è di identificare l’algoritmo che permette di ottimizzare il sistema secondo i criteri stabiliti dal progettista. Tali criteri sono per esempio: - Ottimizzazione del fattore tempo necessario per raggiungere l’ottimo globale (indipendentemente dal numero dei conflitti interni). - Minimizzazione del numero di conflitti interni (indipendentemente dal fattore tempo) - Ottimizzazione del fattore tempo e minimizzazione dei conflitti interni solamente in alcuni compartimenti del sistema.
Immagine 73 - Nell’esempio sovrastante l’obbiettivo è di trovare una situazione di equilibrio fra i vincoli esistenti nel sistema. In questo caso ogni elemento (rappresentato da un cerchio) è caratterizzato da una serie di attributi. In questo caso gli elementi hanno un solo tipo di attributi -il loro colore- il quale a sua volta po’ avere tre diversi stati (blu, rosso, beige) Il sistema è caratterizzato da una serie di vincoli o regole ( che in questo caso è: gli elementi collegati non possono avere lo stesso colore). Immagine per gentile concessione di Jing Han, presentata alla conferenza Combinatorial Optimization and Collective Behaviors, The Santa Fe Institute, Pechino, luglio 2005.
Le domande che sorgono in questo tipo di approccio sono: in che modo è possibile raggiungere uno specifico risultato? Che cosa si vuole ottimizzare? Il tempo necessario per raggiungere un dato risultato? Il numero di situazioni conflittuali che è necessario creare o i conflitti in una specifica area del sistema? Evidentemente questo tipo di domande ha un enorme peso se rapportato, per esempio, a problemi urbani. E’ importante notare che, giacché gli agenti sono degli esseri umani, le azioni dei singoli agenti possono cambiare, se influenzate dal sistema. Immaginando di voler trovare una situazione ottimale, finalizzata al raggiungimento di uno specifico risultato ma, che richiede un “sacrificio” o un regresso momentaneo dei singoli cittadini, che criterio è meglio favorire? Una - -
145
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
strategia finalizzata ad ottenere nel minor tempo possibile una specifica situazione indipendentemente dai contrasti che ne decorrono? (basti pensare a situazioni nelle quali sia necessario raggiungere velocemente la condizione di ottimo collettivo per evitare che, chi partecipa al progetto, inizi ad assumere un comportamento troppo dispersivo. In questo caso è possibile collegare il fattore tempo al numero di iterazioni di calcolo che è necessario produrre per controllare un sistema. Oppure è meglio favorire una strategie finalizzata a minimizzare le conflittualità indipendentemente dal tempo? Se il raggiungimento di una specifica condizione richiede un numero troppo elevato di “sacrifici”, difficilmente è possibile coinvolgere i vari agenti (persone) nella partecipazione al successo della missione. Un’altro tipo di strategia urbana potrebbe essere quella di ricercare nel minor tempo possibile di raggiungere una situazione di ottimo collettivo cercando tuttavia di limitare le conflittualita’ in quelle aree del sistema che sono particolarmente delicate (per esempio in’area particolarmente fragile dal punto di vista politico o economico).
Immagine 74 – Esempio di un sistema finalizzato all’ottimizzazione delle conflittualità locali Immagine per gentile concessione di Jing Han, presentata alla conferenza Combinatorial Collective Behaviors, The Santa Fe Institute, Pechino, luglio 2005.
In che modo è possibile far
Optimization and
collimare una situazione ottimale dei singoli cittadini
con quella dell’intero sistema e, viceversa? I problemi di ottimizzazione applicati all’architettura non si limitano ad applicazioni urbanistiche. In ogni momento è necessario
capire
che
dimensione
di
un
progetto
favorire,
se
procedere
all’individuazione di una serie di ottimi locali trascurando l’effetto globale del sistema oppure se è meglio favorire l’ottimo globale del sistema. Immaginando di dover compiere scelte progettuali in cui domina un aspetto particolare (vincoli economici strutturali, economici, formali) in questo caso si favorirà una strategia finalizzata ad ottimizzare il comportamento di quel settore specifico del sistema a scapito - -
146
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
dell’ottimo globale. In altre occasioni in cui non vi siano particolari vincoli si tenderà ad un ottimo globale. Su questo problema è necessario fare una nota. Han afferma che per risolvere un problema di ottimizzazione per una sistema caratterizzato da tre regole e tre attributi, è necessaria un’enorme capacità di calcolo per risolvere tutti problemi di conflittualità interna. Questo porta a ridimensionare qualsiasi tipo di approccio che abbia la finalità di lavorare con un numero elevato di elementi -definiti a loro volta da numerosi attributi- e di regole che li correlano gli uni agli altri. Questo concetto è di fondamentale importanza per capire che possbilità effettive di poter metter a punto modelli che siano in qualche modo risolvibili.
- -
147
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
3.3.4 Evoluzione Regole Nei paragrafi precedenti sono state esaminate le componenti elementari di un sistema (elementi base, regole elementari, strutturazione delle stesse). In questo paragrafo sarà analizzato il modo secondo il quale tali regole sono capaci di evolvere per adattarsi al variare delle situazioni al contorno. Adattarsi significa cambiare comportamento o aspetto, per essere conformi a situazione nuova. Secondo Guo la capacità di adattarsi è una dimostrazione di intelligenza.
272
In questo paragrafo saranno analizzati alcuni strumenti complessi finalizzati ad esplorare il concetto di adattazione.
3.3.4.1 Complex Adaptive Systems Nel caso dei Complex Adaptive Systems il sistema di regole interno muta in funzione dei requisiti dell’ambiente. Secondo John Holland273 un CAS, è un sistema in perenne evoluzione ed è caratterizzato da un gruppo di unità interagenti fra di loro le cui proprietà sono sotto elencante: - Le componenti reagiscono in maniera Non Lineare (vedi capitolo 3.3.3.2) ad una serie di condizioni. - Sono capaci di trasformare le loro regole interne in risposta ad uno stimolo esterno e sono pertanto capaci di evolvere. Per questo motivo, come sarà visto nel caso studio proposto da Cristiano Antonelli, si rivelano particolarmente adatti nello studio di fenomeni di mercato, di comportamento della materia vivente (cellule batteri) e nell’analisi degli ecosistemi. - A causa della loro Non Linearità non sono gestibili con processi deterministici tradizionali. - Malgrado il loro carattere non deterministico, i CAS sono riconducibili ad una serie di regole comportamentali e da una forma di ordine sulla base dei quali è possibile lavorare. - Non esiste un obbiettivo comune e nemmeno un ottimo globale, - Gli agenti evolvono e rispondono agli stimoli locali trasformando i building block e le regole con le quali essi operano.
272
Guo L., Adaptive Systems Theory: Some Basic Concepts, Methods and Results, disponibile all'indirizzo: http://www.itp.ac.cn/csss05-pic/download/Adaptive%20Systems%20Theory/Adaptive%20theory.pdf 273 Professore di psicologia, ingegneria elettronica ed informatica all’università del Michigan nell’area di percezione e scienze cognitive.I suoi studi si focalizzano sull’analisi dei processi cognitivi e complex adaptive systems, utilizzando modelli matematici e simulazioni a computer. - -
148
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
- Esiste una grande diversità fra gli elementi (Holland porta ad esempio il caso di una foresta tropicale in cui i vari ecosistemi sono occupati da diversi tipi di agenti che rispondo a regole molto diverse). - L’innovazione è un criterio che fa parte del sistema stesso: l’equilibrio è una condizione rara e momentanea. - Ogni tipo di azione è in grado di cambiare il processo del sistema. - Gli agenti si adattano cambiando i loro attributi e le regole con cui agiscono. (Per essere in grado di lavorare con questo tipo di apparati concettuali è necessario far riferimento alla scomposizione del problema in una serie di elementi base o building block (vedi paragrafo 3.3.1.1). Holland insiste sull’importanza di semplificare in maniera appropriata e significativa una specifica realtà.
In effetti, è proprio dalla
ricombinazione degli attributi di un building block, che è possibile capire il processo che sta alla base della trasformazione ed adattazione di un sistema. ) E’ da notare come molte delle proprietà che caratterizzano i CAS sono le stesse che definiscono le proprietà generiche dei sistemi non lineari. L’analisi delle dinamiche evoluzioni economiche è una classica applicazione dei complex adaptive systems. Nel saggio Path Dependance and the Quest for Complex 274
Dynamics
275
, l’economista Cristiano Antonelli,
descrive il concetto adattazione
rapportato alle dinamiche evolutive. L’idea si basa sulla volontà di definire uno strumento concettuale che sposti la modellazione dall’analisi statica a quella dinamica, incentrata principalmente sullo studio delle forze agenti sui fenomeni economici. L’approccio delle Path Dependance fa appello ad una logica di flessibilità irreversibile, all’effetto di elementi esterni ed alla creatività e che permettono di incorporare nella modellazione sia gli effetti del tempo e della storia, che le azioni intenzionali che si possono compiere.
276
L’analisi dei sistemi dinamici e complessi,
emerge come una nuova teoria unificante che permette di capire in una grande varietà di discipline, dalla matematica alla fisica alla biologia, le mutazioni endogene e trasformazioni che caratterizzano un sistema. E’ possibile utilizzare agenti completamente “stupidi” a condizione che vi sia un sistema molto competitivo in azione. Le forze del mercato serviranno a selezionare quelli che fra gli agenti saranno destinati a sopravvivere. Quelli che per fortuna, anche se per ignoranza, avranno fatto la scelta giusta saranno destinati a restare. Gli agenti che avranno fatto delle scelte sbagliate, saranno eliminati. Appena le regole cambiano gli agenti possono scegliere di trasformarsi e di adattarsi. Non appena avranno iniziato a
274
Antonelli C., Path Dependence and the Quest for Complex Dynamics, disponibile all'indirizzo: http://www.fondazionerosselli.it/DocumentFolder/Path_dependence_change.doc Cristiano Antonelli è professore di Ecomia all’Università di Torino Laurea (Political Sciences, University of Turin, Italy), Master in Economics (ISTAO, Ancona), esperto di economia dell’innovazione e organizzazione industriale. 276 Antonelli C., Path Dependence cit. - 149 275
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
mutare anche il contesto nel quale operano inizierà a modificarsi costringendo quindi gli agenti a adattarsi nuovamente.
277
L’analisi dei sistemi complessi dinamici favorisce un approccio sistemico secondo il quale è possibile valutare simultaneamente il comportamento di ogni singolo agente e del sistema nella sua totalità. Quest’ultimo può essere inteso solo come l’insieme risultante dall'interazione fra le micro e le macro dinamiche. Questo tipo di modellazione si basa su alcuni aspetti fondamentali: - Ogni singolo agente è definito grazie ad una serie di caratteristiche. - Gli agenti sono diversi fra di loro, le leggi con cui operano sono diverse da un agente all’altro e sono in grado di cambiare al mutare del contesto nel quale sono inseriti. - Il sapere è locale: ogni agente ha accesso solo ad informazioni locali nessuno di essi conosce ciò che conosce un altro agente. - Gli agenti sono localizzati in un network di relazioni, che includono transazioni e feedback. - Gli agenti sono creativi: ognuno di essi può eseguire una specifica regola ma può anche cambiare le regole come risposta di uno specifico feedback, in funzione delle proprie caratteristiche interne e delle risposte fornite dall’ambiente che lo circonda (compreso il network delle transazioni e interazioni nel quale è inserito) - La condotta di ogni singolo agente è fortemente dipendente dal tipo di stimolo proveniente dalle interazioni del sistema.
277
278
Guo L., Adaptive Systems Theory cit. Antonelli C., Path Dependence cit., 278 Living organisms are consummate problem solvers. They exhibit a versatility that puts the best computer programs to shame. This observation is especially galling for computer scientists, who may spend months or years of intellectual effort on an algorithm, whereas organisms come by their abilities through the apparently undirected mechanism of evolution and natural selection. Pragmatic researchers see evolution's remarkable power as something to be emulated rather than envied. Natural selection eliminates one of the greatest hurdles in software design: specifying in advance all the features of a problem and the actions a program should take to deal with them. By harnessing the mechanisms of evolution, researchers may be able to "breed" programs that solve problems even when no person can fully understand their structure. Indeed, these so-called genetic algorithms have already demonstrated the ability to made breakthroughs in the design of such complex systems as jet engines. Genetic algorithms make it possible to explore a far greater range of potential solutions to a problem than do conventional programs. Furthermore, as researchers probe the natural selection of programs under controlled an well-understood conditions, the practical results they achieve may yield some insight into the details of how life and intelligence evolve in the natural world. Selection is simple: if an organism fails some test of fitness, such as recognizing a predator and fleeing, it dies. Similarly, computer scientists have little trouble weeding out poorly performing algorithms. If a program is supposed to sort numbers in ascending order, for example, one need merely check whether each entry of the program's output is larger than the preceding one. (Holland J., Genetic Algorithms. Computer programs that "evolve" in ways that resemble natural selection can solve complex problems even their creators do not fully understand, disponibile all'indirizzo: http://www.econ.iastate.edu/tesfatsi/holland.GAIntro.htm (01/12/05)). - 150 278
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
Immagine 75 - Nei sistemi adattivi le regole con il variare delle conidizioni del sistema. A ogni ciclo la nuova regola va intesa come la risposta di un agente agli stimoli provenienti dall’ambiente circostante influenzato anch’esso dal variare degli agenti. Immagine per gentile concessione di John Holland, presentata alla conferenza Complex Adaptive Systems, The Santa Fe Institute, Pechino, luglio 2005.
Alla base di queste considerazioni è necessario chiedersi che cosa significa adattarsi? In base a che cosa? A che sistema? Secondo Guo, nei metodi di adattamento ci sono due elementi chiave: -Che informazione è nota del nuovo sistema -In che maniera il vecchio sistema risponde. Ogni processo di adattazione si articola in due passi, una prima fase analitica o di apprendimento ed una seconda fase di reazione e di risposta.
Immagine 76 – La definizione dei limiti del sistema: definizione delle componenti in gioco. I due cerchi stabiliscono che tipo di stimoli devono ricevere gli agenti ed a che tipo di stimoli devono rispondere. Immagine per gentile concessione di John Holland, presentata alla conferenza Complex Adaptive Systems, The Santa Fe Institute, Pechino, luglio 2005.
Che cosa significa adattarsi in architettura? Com’è stato visto nelle prima parte di questo lavoro il concetto di complessità in architettura, per tutti gli anni novanta, è stato associato al concetto di impossibilità di gestire le conflittualità dei sistemi. La rigidità degli strumenti progettuali derivanti dal paradigma deterministico e la loro incapacità di rispondere a problematiche complesse ed al variare delle situazioni, ha portato alla negazione dell’idea stessa di strumento progettuale. In - -
151
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
altre parole l’impossibilità di sviluppare strumenti progettuali capaci di adattarsi, ha portato al rifiuto del concetto stesso di modello. Il fatto di definire uno strumento che sia in gradi di adattarsi al variare delle situazioni, rispondendo in maniera adeguata alle problematiche che si vengono a presentare, si rivela di fondamentale importanza sul piano progettuale. Ne sono la dimostrazione l’interesse dedicato al tema della mutazione, dell’adattamento e dell’ibridazione
genetica
manifestato
internazionale contemporanea.
da
numerosi
architetti
della
scena
279
L’articolazione di tale problema non è semplicemente un virtuosismo teorico ma serve a fronteggiare la necessità di pensare e di realizzare edifici che siano in grado di rispondere a situazioni molto dissimili (come avviene per esempio in cui un progettista deve lavorare in diversi paesi). Il problema dell’adattazione (e il suo forte collegamento con l’idea di genetica) è stato per esempio, sollevato da Ben Van Berkel il quale, facendo appello al concetto di mutazione, si interroga esplicitamente sulle caratteristiche delle informazioni che devono essere modellate in fase progettuale per progettare edifici che siano di rispondere al variare delle situazioni.
Immagine 77 – Fragmented organisation of disonnected parts; displaced organisation of connected parts; seamless organisation of disconnected parts. Van Berkel B., Bos C., Move. Technique, Un studio & Goose Press, Amsterdam, 1999, p. 85.
3.3.4.2 Algoritmi Genetici “Secondo
il
paradigma,
correntemente
accettato,
tutte
le
funzioni,
che
determinano l'esistenza di un essere vivente, sono scritte nel suo codice genetico. Il fatto che lo stesso codice genetico possa dare luogo a fenotipi diversi viene attribuito a cause e vincoli esterni al genoma. Dietro a questo paradigma si nasconde, quindi, una sorta di pseudo-determinismo, secondo il quale le caratteristiche salienti di un essere vivente sono stabilite dal codice genetico, ereditato dai suoi progenitori”.280
279
"In architecture, the interest lies in the investigation of the possibility to develop a tool of design that has the ability to define an internal system of rules, without compromising its flexibility and capacity to answer to different architectural problems, and to react to outside input". Caldeira M., Tiazzoldi C., Outside-in or Inside-out cit. Basti pensare al concetto di mutazone introdotto da Van Berkel, al concetto di evoluzione di Zaera Polo, all’idea di Eisenman di "coded mutation" e non per ultimo alla metafora genetica di Karl Chu. 280 Livi R., Rondoni L., Aspetti elementari della complessità cit.p.52 - 152
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
Gli algoritmi genetici si basano sulla ricombinazione dell’informazione genetica contenuta nel DNA nel fine di migliorare, grazie all’ottimizzazione di una specifica performance. “Living organisms are consummate problem solvers”.
281
Per descrivere l’origine concettuale che sta alla base degli algoritmi genetici, John Holland, afferma che gli esseri viventi sono votati ad un sostanziale pragmatismo che ha la finalità migliorare le loro condizioni di vita; essi sono in grado di dimostrare una versatilità ed adattabilità che farebbe invidia a qualsiasi programma informatico. Uno scienziato può passare mesi o addirittura anni per mettere a punto un software che sia in grado di fare ciò che un organismo realizza in un intervallo brevissimo. E’ per questo motivo che molti scienziati cercano di trarre spunto dalle tecniche evolutive degli esseri viventi, per sviluppare software più flessibili ed in grado di adattarsi al variare delle situazioni. Gli algoritmi genetici sono in grado di produrre un numero di soluzioni largamente superiore a quello che potrebbe essere prodotto da un qualsiasi altro software. La logica sulla quale si basa la messa a punto di tali algoritmi, si incentra su due criteri: selezione naturale e riproduzione sessuale. Il primo determina che membro di una popolazione è destinato a sopravvivere e quindi a riprodursi. Il secondo provoca un mescolamento del patrimonio genetico che garantisce un’evoluzione più rapida di quella che si sarebbe ottenuto con l’utilizzo del materiale genetico di solo uno dei genitori. Descrivendo come avviene la modellazione del fenomeno di selezione naturale, Holland afferma che esso si basa su di un criterio molto semplice: tradurre in proprietà o performance i requisiti che deve avere un organismo per sopravvivere. In altre parole grazie alla traduzione in attributi di una serie di proprietà, l’idea di selezione naturale è facilmente riconducibile ad una serie di relazioni if/then. Il concetto di fitness è quindi riconducibile alla regola seguente: se le caratteristiche di un individuo coincidono con quelle stabilite dal principio di selezione naturale (come per esempio nell’essere in grado di riconoscere un dato predatore) vive altrimenti muore. Holland sviluppo
di
282
un
afferma che nel corso degli anni '60 stava lavorando sullo modello
matematico
che
permettesse
di
rappresentare
l’evoluzione/mutazione genetica; in quegli anni è stato fondamentale mettere a punto l’idea che tali mutazioni avvenissero tramite un sistema di ricombinazione di gruppi di geni. Il problema era di realizzare dei software che permettessero di rappresentare i processi di combinazione dei geni e di mutazione. Il processo in questione viene chiamato ottimizzazione combinatoria.
281 282
Holland J., Genetic Algorithms cit. Si veda: http://www.econ.iastate.edu/tesfatsi/holland.GAIntro.htm (01/12/05). - -
153
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
Immagine 78 – La creazione di un nuovo elemento sulla base della ricombinazione degli attributi di un elemento preesistente. Immagine per gentile concessione di John Holland, presentata alla conferenza Genetic Algorithms and the Study of Complexity, The Santa Fe Institute, Pechino, luglio 2005.
Secondo Holland la strategia dell’ottimizzazione combinatoria è applicabile anche in altre discipline per esempio nella ricerca creando una nuova teoria a partire della ricombinazione di teorie preesistenti. “New strategies can be constructed by recombining the components of successful strategies”.
283
La maniera grazie alla quale avviene il processo di ottimizzazione ed di innovazione, deriva dalla possibilità di selezionare quali attributi è indispensabile riprodurre e quali invece, possono essere ricombinati secondo un criterio casuale. Immaginando una sequenza composta da 1 e 0 introducendo l’elemento * è possibile individuare quegli elementi che non è necessario riprodurre. Per tanto la sequenza
L di
lunghezza 5, se l’input o schema di selezione corrisponde a s= 1*10* siginfica che bisogna selezionare gli elementi nella prima terza e quarta posizione gli altri elementi possono essere definiti da una selezione casuale ottenendo per esempio i seguenti tipi di combinazioni: {10100, 10101, 11100, 11101}.
Immagine 79 – Schema di un algoritmo genetico Immagine disponibile su sito: http://www.econ.iastate.edu/tesfatsi/holland.GAIntro.htm
L’utilizzo di questo tipo di strategie ha due conseguenze:
283
John Holland Lecture at Complex Systems Summer School, July 2005. - -
154
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
-Ottimizzare il tipo di performance del risultato finale. -Innovare. E’ importante notare che la capacità di innovativa, deriva dal fatto di produrre del materiale che prima non esisteva ed è una delle caratteristiche di maggior rilievo degli algoritmi genetici284. L’idea di utilizzare un sistema combinatorio per produrre innovazione è riscontrabile in architettura per esempio nel progetto di Guangdong Museum di Peter Eisenman, o nel caso studio della sedia geneticamente generata di Morel. Zaera Polo285 in the State of Architecture at the Beginning of XXI Century
286
afferma
che, facendo uno studio che affianchi il concetto di evoluzione tipologica a quello di adattazione genetica, sia possibile controllare in maniera rigorosa il procedimento con il quale un edificio o una tipologia edilizia debba rispondere ai diversi ambienti nei quali verrà inserito.287Tale concetto si manifesta nella trasformazione di una specifica struttura di regole derivante dalla combinazione delle sue componenti interne. L’idea di mutazione in architettura deve essere interpretata come un principio di evoluzione tipologica. In effetti, di fronte alla necessità di sviluppare un modello progettuale capace di adattarsi ai diversi tipi di sollecitazioni derivanti dal contesto esterno, è possibile rispondere con una mutazione tipologica basata sulla ricombinazione delle parti costituenti dello stesso. Ispirandosi per tanto all’idea dell’evoluzione delle specie animali Zaera Polo propone un sistema progettuale basato sulla scomposizione degli edifici in elementi base (assimilabili ai building
284
Questo dato di fatto è facilmente riscontrabile per esempio nel lavoro di Morel in cui la forma finale è assolutamente inedita i quanto deriva da un principio formativo legato all’ottimizzazione combinatoria delle componenti di ciascuna delle sedie genitore. 285 “Typology offers us a way to assess the practice of architecture as material organization. Architectural types are assemblages of form and program, and typology, the study of the classification of these assemblages, is the framework that traditionally has linked forms of architecture. The problem with typology, of course, is that it has been used in the past as a recipe to reproduce existing conditions, thus making it inadequate for dealing with the increasingly accelerated pace of social, cultural, and political change brought on in part by the processes of globalization. However, typology need not lead to the systematic repetition of existing types. Rather, it can be used to assess whether the work one is doing is moving forward or standing still. Typology can become a catalyst for architectural experimentation and the development of new urban models, especially if we conceive of types as objects for manipulation and adjustment rather than for imitation. (…) In our architectural practice as well as in studios we taught at Columbia University and elsewhere, we explored the possibility of reinterpreting typology as a tool for overcoming the limits of authorship or personal style. Over time, another category emerged - the concept of the species. Instead of being associated with the notion of systematic or equal repetition, the species was linked with the processes of mutation and adaptation to different environments-in other words, with changes in time and in space. We felt that this idea of the species could potentially help us overcome the limited definition of typology as something that only produced repetition. In designing the Yokohama Port Terminal, we created a diagram that began as an attack on typology-specifically, the typology of theterminal-proposing instead that the terminal was a space with its own internal forms of organization. Yet in the process of building the project, typology emerged as a useful way of thinking about the methods of assembly. We based the material organization of the building on the concept of repetition: a small number of details or types were repeated throughout but were differentiated to solve particular situations. We designed the geometry of the building to achieve this, organizing the structural elements into a few types that could be combined to produce a complex form. The typology of the deck generated many different types of decks; the approach to the glazing and fencing was similar. A single detail varies to accommodate particular conditions. The hope was that through the systematic repetition and differentiation of these elements, something previously unknown would emerge. Polo Z., Breeding Architecture, in The State of Architecture cit., p. 56. 286 Polo Z., Breeding Architecture, in: Tschumi B, Cheng I., The State of Architectur cit., 48 287
- -
155
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
block) capaci di ridisegnarsi e riassemblarsi in funzione di una specifica condizione esterna o programmatica.
Immagine 80 – Immagine tratta da The State of Architecture cit., p. 56.
Nell’articolo Outside-in or Inside-out
288
Calderia e Tiazzoldi analizzano le estreme
conseguenze di questo tipo di approccio interrogandosi su che cosa significa fare un progetto di architettura in questi termini.
288
Within this logic, the urban projects Functionmixer and the Regionmaker of the Dutch MVRDV can be considered as embryonic representations of serial projects that attempt to establish a design model based on the inter-dependency of interiority and exteriority. The design process is generated through the activation of one or more components dependent on exterior data, while still keeping the integrity of the interior organizing system. By considering in its conception the indeterminacy of one or more components, which are open to exterior information, these serial projects are formed by one concept only that allows multiple configurations, depending on one particular condition. This certain degree of openness of the internal organization to the exterior data confers a dynamic quality to the project for its necessary readjustment in time and space. The examples mentioned show a shift in interpretation: neither depending on interiority nor exteriority, the design methodologies express a tendency to be articulated systems based on a combinatorial device. Their capacity to adapt to every specific situation depends on the possibility to produce new solutions by re-organizing a set of its internal preexisting elements. The definition of new rules or conditions has the finality to answer to the most varied demands emerging from a specific context. The idea to use such combinatorial system recalls a recurrent methodology in both philosophical and scientific fields. In effect for the well-known French philosopher Gilles Deleuze one crucial element of innovation depends on the combinatory capacity of the sub element of a pre-existing internal rule. The same approach has been adopted to solve many of the problems emerging in the field of science of complexity. In a recent lecture describing the complex adaptive behavior CAS, John Holland affirmed: “ New strategies can be constructed by recombining the components of successful strategies.” The combinatorial device as design methodology in architecture – this possibility has already been suggested in recent discussions on contemporary design strategies currently deployed in the accelerated development, considering for example the Asian case. The conception of a permeable device capable of combining an abstract internal logic with local external input, and therefore developing an adaptive capacity, would find in this case the most adequate grounds for their application. Still, it remains to be seen if these hypothetical formulations on a combinatorial strategy in architecture can in fact yield new possibilities, or if perhaps it results simply in a newer version of Koolhaas “Copy Paste”. Seen as a series of copy-paste, the role of the architect in this design process would be limited to the definition of what is to be copied, how many times, to what scale, where is the copy to be placed. The estrangement between - 156
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
Fino a che punto il progetto può essere considerato come la composizione additiva di
singole
unità
che
si
sviluppa
grazie
ad
un
processo
di
ottimizzazione
combinatoria?
Immagine 81 - John Holland building block and combitorial devices. Immagine per gentile concessione di John Holland, presentata alla conferenza Genetic Algorithms and the Study of Complexity, The Santa Fe Institute, Pechino, luglio 2005.
A che tipo di adattazione289 deve essere soggetto un modello progettuale? Nell’articolo Outside-in or Inside-out
scritto con Marta Caldeira
290
, è analizzata la
modalità secondo la quale è possibile realizzare uno strumento progettuale capace di modulare il sistema di regole interne in risposta delle variazioni delle condizioni al contorno. Si è visto che gli algoritmi genetici hanno la qualità di stabilire quali informazioni (anche in una condizione di ricambio veloce) vadano mantenute integre in un
program and space produces a temporary notion of innovation. Are these considerations therefore simply the reflection of the influence of the contemporary biological/computational paradigm, or is the mediation between an interior preexisting logic and the specific exterior conditions a possible generator of newness in architecture? Caldeira M., Tiazzoldi C., Outside-in or Inside-out cit. 289 Riflettendo sulla maniera in cui possa avvenire il processo di adattazione è necessario fare una distinzione esistente fra due sue possibili manifestazioni. Nel primo caso essa avviene opera grazie alla velocità di aggiornamento del suo materiale interno e grazie alle trasformazioni che hanno luogo di generazione in generazione -come nel caso di quegli organismi in cui l’adattazione si attualizza grazie ad un veloce susseguirsi delle generazioni (come per esempio nel caso di quegli insetti che riescono ad diventare immuni ad uno specifico pesticida nel giro di poche generazioni). Il concetto su cui si basa questo tipo di idea è di avere una struttura interiore snella al punto da essere capace di duplicarsi e trasformarsi velocemente (questa condizione è riconducibile sia alla gestione del materiale genetico, che all’organizzazione dei sistemi economici e politici, e infine nella messa a punto di un modello progettuale). I complex adaptive systems rappresentano appieno questo tipo di mutazione in quanto gestiscono in maniera dinamica e veloce una serie limitata di informazioni. Come evidenzia Cristiano Antonelli il limite di questo tipo di sistema evolutivo risiede nella sua eccessiva volabilità che porta ad un enorme dispersione di risorse. A questo tipo di adattazione basata su di una rigenerazione veloce, se ne oppone uno basato sulla robustezza e sulla ridondanza del materiale contenuto e che appare chiaramente nella lunghezza del DNA di alcuni organismi fra i quali gli esseri umani). Questa seconda modalità si definisce sull’abbondanza delle informazioni presenti. L’obbiettivo è di poter trovare nel sistema stesso tutte le risposte necessarie per far fronte ad una richiesta proveniente dal contesto esterno. Questa modalità caratterizzata da un sistema di duplicazione e diffusione dell’informazione molto più lento (di conseguenza caratterizza organismi con un ciclo biologico molto più esteso) presenta degli enormi problemi di aggiornamento e di adattazione a situazioni che non sono intrinseche alla propria informazione interna. In effetti il peso dell’informazione e dell’organizzazione della stessa non permette un aggiornamento veloce (questo è manifesto negli esseri viventi la cui informazione genetica è ridondante, o nei sistemi economici e politici molto strutturati). 290 “The problematic between a regulating interior device and its exterior condition is not exclusive to the architectural discourse; it is, in fact, a widely researched topic in the scientific world. Questions such as “What is the balance required for a system to be able to answer to the most varied demands without endangering the stability of its genetic patrimony?” or, “What is the relation between what is known as interiority and exteriority?” have been intensively analyzed in the history of sciences. In the 19th century, the biologist Gregory Bateson has demonstrated that not one system is able to change according to an external agent, but can only apply, from all its implicit solutions, the one that adapts the most, where the systems ”generate a large number of alternatives and that there is a selection among these determined by something like reinforcement.” Caldeira M., Tiazzoldi C., Outside-in or Inside-out: cit. - 157
Per una classificazione degli strumenti del Non Linear/ Dalla realtà al modello
sistema e quali di esse possano mutare secondo un criterio più o meno casuale o secondo una serie di stimoli provenienti dal contesto esterno. Leggendo il concetto di algoritmo genetico con un'ottica architettonica è forse possibile ricondurlo alla definizione di un punto di equilibrio fra quelle possono essere considerate come le invarianze del progetto e che si verificano o perpetuano di generazione in generazione (o di situazione in situazione), e quelle che sono gli attributi che devono rispondere adattandosi, tramite la messa in pratica di una serie di regole, ai requisiti del contesto esterno. Riprendendo l’idea di Cache si potrebbe affermare che: “Il disegno di un progetto per inserzione di componenti obbliga a concepire innanzitutto un "modello" di relazioni che deve essere possibile applicare in tutte le situazioni secondo le quali bisognerà creare un componente dello stesso tipo. Il modello è in qualche modo un'invarianza che deve supportare tutte le variazioni alle quali saranno sottoposti i termini entro cui avremo stabilito delle relazioni.”
291
In altre parole in architettura l’adattazione potrebbe avvenire attraverso la definizione di un modello di regole e di proprietà che legano una serie di possibilità non predeterminate e che si concretizzano in un elemento specifico come risposta agli stimoli del contesto esterno.
291
Cache B., In difesa di Euclide cit.
- -
158
3.4
DAL MODELLO ALLA REALTÀ
Nei paragrafi precedenti è stata fatta riflessione sulla metodologia perseguibile per tradurre una specifica realtà in un apparato astratto. Come è stato evidenziato più volte, la parte più delicata del processo consiste nel saper cogliere quelle relazioni che sono in grado di rappresentare in maniera significativa le forze in gioco in un determinato sistema (come nel caso della selezione naturale che è stata descritta con l’utilizzo di due criteri: il fitness e il ricombinazione del patrimonio genetico).
Immagine 82 – Dal modello alla realtà. Un esempio in cui processo e progetto sono fortemente legati. Immagini tratte da: Eisenman P., Diagram Diaries, Thames & Hudson, London, 1999, p.201-205
E’ necessario soffermarsi sul problema della riconversione dei risultati prodotti dal modello in informazioni utili per la realtà alla quale ci si vuole riportare. Riprendendo la posizione di Livi e Rondoni analizzata nel paragrafo 1.7 “ In altre parole, gli aspetti soggettivi, introdotti nella scelta di ciò che riteniamo essere rilevante nella definizione di un modello matematico, devono sempre essere esplicitamente dichiarati e sottoposti ad un controllo critico”.
292
Livi e Rondoni pongono l’accento sul fatto che un modello, essendo in ogni caso fatto sulla base di una serie di ipotesi soggettive, necessita che si verifichino le informazioni che produce. “Ad esempio, é ormai nota la profonda similitudine tra il patrimonio genetico dell’ uomo e quello del topo, che però non si può dire che siano molto simili, né sulla scala evolutiva, né su quella metabolica. Ovviamente troverete sicuramente
292
Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 3 - -
159
chi argomenterà, con la tipica certezza di chi ha le idee chiare, che questa distanza é solo apparente. L’ ostentazione di tanta sicurezza può essere utile per un venditore di auto, ma é certamente stonata in ambito scientifico293.”
Il motivo per il quale appare fondamentale insistere su questo punto, è che troppe volte, in ambito sia scientifico sia architettonico, il modello non è considerato con una distanza critica sufficiente. In linea teorica dal momento stesso in cui si sceglie uno specifico strumento, appare chiaro che il tipo di informazioni che esso sarà in grado di fornire, deriva dalla scelta stessa del modello e che pertanto, porta racchiuse in se la modalità con la quale riportare i risultati alla realtà analizzata. I risultati osservati possono anche servire per mettere in questione l’utilizzo di un determinato modello per lo studio di un problema. Come evidenzia Livi, il fatto che il contenuto dell'informazione genetica strutturata (misurabile con la quantità di esoni presenti nel DNA) nel caso di un essere umano sia solamente del 3% su un totale di circa 6 × 10 9 organizzate su 46 cromosomi, mentre quello dell’ameba dubbia invece ne ha 6 × 10 11 e la cipolla ne ha 2 × 1010 , non dovrebbe portarci a concludere che dal punto di vista evolutivo una cipolla è più avanzata di un essere umano ma, semplicemente che la valutazione del numero degli esoni presenti nel DNA non è una misura sufficiente per valutare lo stato evolutivo di un organismo. Questo stato di fatto si rivela ancor più vero in campo architettonico in cui oltre alla soggettività intrinseca alla scelta stessa del modello, l’assenza di dati sperimentali sulla base dei quali poter fare dei paragoni, aumenta il livello di soggettività delle scelte compiute. Per questo motivo numerose delle critiche che sono state fatte all’utilizzo di apparati astratti di progettazione (come per esempio i diagrammi o mappature), derivano dal fatto che, come afferma Tzomis, non viene creato un distacco oggettivo fra processo e progetto. Il processo talvolta diventa lo strumento attraverso il quale sono legittimate alcune scelte progettuali ed il progetto diventa la materializzazione fisica del modello astratto utilizzato in fase di progettazione. 294 Secondo Tzomis
295
, il prodotto architettonico va inteso come una forma di ordine
superiore capace di sintetizzare, grazie al progettista, tutte le componenti in gioco, le informazioni fornite dal modello e di tradurle con un unico gesto nello spazio costruito.
293
Livi R., Rondoni L., Aspetti elementari della complessità cit., p. 52 Questa situazione è particolarmente manifesta nel caso di quelle che nella seconda parte di questo trattato sono state chiamate superfici indessicali in cui lo spazio costruito deriva dalla concretizzazione della superficie sulla quale sono stati raccolti i dati che stanno alla base del progetto. 295 Tzonis A., White I., Automation Based Creative Design, cit., p. 11. - 160 294
Questo tipo di posizione è riscontrabile anche nel lavoro di Peter Eisenman secondo il quale il modello va inteso come un generatore dello spazio la cui corrispondenza con la sua manifestazione nel costruito non deve essere totale. â&#x20AC;&#x153;The form of the process, and the form of the product, need not be the same, and that of the execution may be different againâ&#x20AC;?.
296
Idem, p. 8.
- -
296
161
Conclusioni e Linee Guida per la Ricerca/
4 CONCLUSIONI E LINEE GUIDA PER LA RICERCA
- -
163
Conclusioni e Linee Guida per la Ricerca/
Questa ricerca aveva la finalità di ripensare alla relazione esistente fra regola e progetto nella sua doppia dimensione: nel lavoro dei singoli progettisti e nello specifico di una determinata condizione storica. L’analisi della transizione fra il paradigma Determinista e quello del Non Lineare, ha permesso di approfondire la maniera in cui tale relazione è andata trasformandosi nel corso degli ultimi cinquanta anni. L’approfondimento del concetto di modello, nell’accezione contemporanea delle sue proprietà ed applicazioni, ha permesso di far chiarezza sul fatto che non sia possibile, neanche nell’ambito del più assoluto rigore scientifico, pensare di tradurre la totalità di un problema in una serie di regole oggettive al punto tale, da non necessitare la presenza di un soggetto esterno. In effetti, considerato che il paradigma del Non Lineare porta con se la negazione di regole scientifiche assolute, la distinzione fra procedimenti regolamentati e quindi oggettivi e i procedimenti soggettivi è andata affievolendosi. Ogni apparato progettuale porta inscritta una componente di soggettività che lo rende più simile ad un’interfaccia del pensiero, che non ad uno strumento deterministico. Questo tipo di considerazioni ha permesso di rispondere ad alcune delle perplessità riguardanti la possibilità di attuare un trasferimento metodologico dalle Scienze della Complessità all’Architettura. In effetti, esso poteva essere inteso in due modi distinti: come la semplice importazione in architettura di una serie di strumenti derivanti dalle Scienze della Complessità quali relazioni parametriche, reti neurali, automi cellulari, ed algoritmi genetici; oppure come la maturazione di una riflessione metodologica, finalizzata a fornire una linea guida per la gestione di problemi complessi. Per quanto non sia possibile stabilire una vera frontiera fra le due posizioni, è stato necessario individuare le priorità sulla base delle quali, definire una linea guida per le ricerche a venire. L’impossibilità di sviluppare un vero e proprio automatismo (ossia uno strumento autonomo al punto da non necessitare l’intervento di un soggetto esterno ), esclude l’idea di compiere una semplice trasposizione strumentale da una disciplina all’altra. Il contributo derivante dall’analisi delle metodologie delle Scienze della Complessità, consiste nell’aver migliorato la comprensione della logica secondo la quale sono impostati e sviluppati alcuni modelli scientifici. L’arricchimento concettuale, consiste nell’aver permesso di formulare un modello del pensiero, che permetta di lavorare su diverse scale e con vari livelli di precisione, dando in questo modo maggior rigore e controllo al processo progettuale. Lo studio di un problema fatto a partire dell’esplicitazione chiara dei postulati che lo caratterizzano e del tipo di regole che lo governano, può essere di grande aiuto in quanto permette di sviluppare strumenti specifici finalizzati a controllare il crescente livello di complessità del progetto. Come appare evidente nella frase di Bernard Cache, Progettare equivale a Programmare, la strutturazione del progetto di architettura tramite l’organizzazione delle regole e - -
164
Conclusioni e Linee Guida per la Ricerca/
relazioni che lo governano, può essere assimilata allo sviluppo di un vero e proprio software progettuale. Tale condizione implica la possibilità di utilizzare il computer per verificare la correttezza delle ipotesi progettuali enunciate. La messa a punto di strumenti, che siano essi digitali oppure no, diventa un’azione di importanza decisiva nella progettazione architettonica. E’ su questa linea guida che si articola la proposta dell’unità di ricerca Non Linear Solutions Unit (NLSU) della Columbia University. L’obbiettivo è di influire a livello pedagogico, accademico e professionale sullo sviluppo di un diverso tipo di approccio al progetto, esplicitando in fase di modellazione quelle che sono le regole, i vincoli e le priorità concettuali che stanno alla base della concezione dello stesso: che siano essi di natura formale, funzionale o tecnologica. La possibilità di tradurre in vincoli operanti direttamente sulla risposta formale quella serie di condizioni che stanno all’origine del progetto, ha l’ambizione di aumentarne il livello di controllo dello stesso permettendo pertanto, di gestire la crescente complessità che caratterizza la professione di architetto. L’obbiettivo del laboratorio NLSU non è quello di ottenere una serie di automatismi progettuali ma, di maturare un approccio metodologico finalizzato ad articolare il progetto come una rete di soluzioni o un sistema non lineare, capace di utilizzare i vincoli stessi del progetto come il mezzo a partire dal quale, espolare le potenzialità formali e funzionali che da essi derivano.
- -
165
- -
166
BIBLIOGRAFIA
TESTI Le Corbusier, Urbanistica, Il Saggiatore, Milano, 1967. Alexander C., Ishikawa S., Silverstein M., Jacobson M., Fiksdahl-King I., Angel S., A Pattern Language, Oxford University Press, New York, 1977. Perec G., La vie mode d'emploi, Hachette, Paris, 1978. Bateson G., Mind and nature, E.P.Dutton, New York, 1979. Deleuze G., Guattari F., Mille Plateaux, Les Editions de minuit, Paris, 1980. Alexander, C., The Production of Houses, The Oxford University Press, Oxford, 1985. Somezi, Cordeschi R., La filosofia degli automi; origini dell'intelligenza artificiale, Bollati Boringheri, Torino, 1986. Deleuze G., Le Pli: Leibniz et le baroque, Les Editions de minuit , Paris, 1988. Derrida J., Eisenman P., Kipnis J., Choral Works, AA Publications, London, 1988. Tschumi,
B.
(a
cura
di),
Columbia
Architecture
Planning
Preservation.
Abstract,Graduate School of Architecture, New York, 1988. Fochs C. (a cura di), J.A. Coderch de Sentmenat 1913-1974, Editorial Gustavo Gili S.A., Barcellona, 1989. Hollier D., Against Architecture. The writing of Georges Bataille, The MIT Press, Cambridge, 1989. Tschumi B., Questions of Space: Lectures on Architecture, Architectural Association, London, 1990. Bertuglia C., Rabino G., Tadei R., La valutazione in campo urbano in un contesto caratterizzato dall'impiego di modelli matematici, Celid, Torino, 1991. Bertuglia C., Rabino C. A., Tadei R., La valutazione delle azioni in campo urbano in un contesto caratterizzato dall'impiego dei modelli matematici, Celid, Torino, 1991. De Landa, M., War in the Age of intelligent Machine, Zone Book, New York, 1991. Deleuze G., Guattari F., Qu'est ce que la philosophie?, Les Editions de minuit, Paris, 1991.
167
Frazer J.H., Can computers be just a tool?, in Systemica: Mutual Uses of Cybernetics and Science, Vol 8, Amsterdam 1991, pp 27-36. Frazer J.H., Computer - Muse or Amanuensis?, in SISEA Proceedings, Second International Symposium on Electronic Art, Groningen 1990, Wim van der Plas, 1991, pp. 176-183. AA.VV, Anywhere (catalogo della mostra), Rizzoli, New York, 1992. Le Corbusier, Verso una architettura, Longanesi&C., Milano, 1992. Mela A., La città come sistema di comunicazioni sociali, Franco Angeli, Milano, 1992. Nicolis G., Prigogine I., A la rencontre du complexe, Presse Universitaire de France, Vendome, 1992. Wachsmann K., Holzhausbau. Costruzioni in legno: tecnica e forma, Guerini ed Associati, 1992 Calvino, I., Le città invisibili, Mondadori, Milano, 1993. Calvino, I., Lezioni americane. Sei proposte per il nuovo millennio, Mondadori, Milano, 1993. Deleuze G., Guattari F., The fold Leibniz and the Baroque, University of Minnesota, Minneapolis, 1993. Frazer J.H., The Architectural Relevance of Cybernetics, in Systems Research, vol. 10, n. 3, 1993, pp. 43-47. Stengers, Prigogine I., Entre le temps et l'eternité, Flammarion, Paris, 1993. Bertuglia C., La città come sistema complesso: significato ed effetti sulla strumentazione metodologica e sulla prassi, nonchè sui presupposti concettuali che sono alla base della strumentazione metodologica e della prassi, Celid, Torino, 1994. Deleuze G., Guattari F., What is philosophy?, Columbia University Press, New York, 1994. Frazer J.H., Bioclimatic Skyscrapers. Ken Yeang, in "AA Files", 1994, pp. 109-110. Frazer J.H., The Genetic language of Design, in "Artemis", 1994, pp. 77-79. Koolhaas R., Delirious New York, Monicelli Press, New York, 1994. Tzonis A., White I., Automation Based Creative Design. Research and Perspectives, Elsevier Science, Amsterdam, 1994.
168
Ceravolo R., De Stefano A., Grosjacques M., Sabia D., Experimental identification of structural damage by neural network, in "The American Society of Mechanical Engineers", 1995, pp. 1127-1133. Frazer J.H., Computing without Computers, Opening the Envelope - Intelligent Urban Tools, Exploring Urban Strategies for the 21st Century, C.Moller, Groningen, 1995, pp 14-17 e 27. Frazer J.H., The Dynamic Evolution of Designs, Atti del convegno "Proceedings of 4D Dynamics", Leicester (UK) September 1995, A.Robertson, 1995, pp. 49-53. Frazer J.H., The Architectural Relevance of Cyberspace, in "Architectural Design Architects in Cyberspace", November 1995, pp. 76-77. Frazer J.H., Architectural Experiments in Cyberspace, in "Architectural Design Architects in Cyberspace", November 1995, pp 78-79. Frazer J.H., An Evolutionary Architecture, Architectural Association, London, 1995 (out of print) diposnibile all'indirizzo: http://www.aaschool.ac.uk/publications/ea/intro.html Allen S., Colossal Urbanism projects for New York, Columbia University Press, New York, 1996. Frazer J.H., Frazer J.M., The Evolutionary Model of Design. Approaches to Computer Aided Architectural Composition, Poland, Technical University of Bialystok, A. Asanowicz and A. Jakimowicz , 1996, pp 101-117. Koolhaas R., S, M, L, XL, Sigler, Rotterdam, 1996. Leibniz W. G., Principe de la nature et de la Grace, Monadologie, Flammarion, Paris, 1996. Levy P., L'Intelligence collective : Pour une anthropologie du cyberspace, Poche, Paris, 1996. Mela A., Sociologia della città, La nuova Italia scientifica, Roma, 1996. Prigogine I., Les lois du caos, Flammarion, Paris, 1996 Tschumi B., Architecture and Disjunction, MIT Press, Cambridge, 1996. Biennale di Venezia (a cura di), Sensori del futuro. L'architetto come sismografo. 6 mostra internazionale di architettura, Mazzotta, New York, 1996. Balboni G., Billotti M., Saracco R., Città digitale: il contributo della ricerca, in "Atti e Rassegna Tecnica" della Società degli Ingegneri e degli Architetti in Torino, anno 130, n. 1, giugno 1997. De Landa, M., A thousand years of nonlinear history, Zone Book, London, 1997.
169
Doubilet S., Boles D., La casa in Europa oggi, Sfera International, Milano, 1997. Holland J., From Chaos to Order, Addison-Wesley, The Bactra Review: Occasional and eclectic book reviews by Cosma Shalizi, 1997, disponibile all'indirizzo: http://cscs.umich.edu/~crshalizi/reviews/holland-on-emergence/ Somol R. E., Autonomy and Ideology, The Monacelli Press, New York, 1997. Cordeschi, R. La scoperta dell'artificiale, Masson-Dunod, Verona, 1998. Lynn G., Fold, Bodies & Blob, La lettre volĂŠĂŠ, Bruxelles, 1998. Motta G., Pizzigoni A., Cento tavole - La casa a Milano dal 1980 al 1970, Grafiche Vadacca, Vignate, 1998. Motta
G.,
Pizzigoni
A.,
L'orologio
di
Vitruvio,
Litografica
Abbiatense,
Abbiategrasso(MI), 1998. Peterson I., The matematical tourist, W.H. Freeman and Company, New York, 1998. Sassen S., Globalization and its Discontents, The New Press, New York, 1998. Tschumi,
B.
(a
cura
di),
Columbia
Architecture
Planning
Preservation.
Abstract,Graduate School of Architecture, New York, 1998. Bernardini
A.,
Seismic
Damage
to
Masonry
Buildings,
Proceedings
of
the
"International workshop on measures of seismic damage to masonry buildings", Monselice/Padova/Italy 25-26 June 1998, Balkema, Rotterdam/Brookfield, 1999. De Stefano A., Sabia D., Sabia L., Prediction of seismic damage in masonry buildings by means of probabilistic neural networks, in "European Earthquake Engineering", volume XIII, numero 2, 1999. Eisenman P., Diagram Diaries, Thames & Hudson, London, 1999. Garofalo L., Digital Eisenman, Birkhauser, Basilea, 1999. Prestinenza Puglisi L., Spaces in the eletronic ages, Birkhauser, Basilea, 1999. Prestinenza Puglisi L., Hyper architecture, Birkhauser, Berlino, 1999. Prigogine
I,
Kondepudi
D.K.,
Pahaut
S.,
Thermodynamique:
des
moteurs
thermiques aux structures dissipatives, Editions Odile Jacob, Paris, 1999. Van Berkel B., Bos C., Move, Un studio & Goose Press, Amsterdam, 1999. Van Berkel B., Bos C., Imagination, Rosbeek, Netherlands, 1999. Van Berkel B., Bos C., Tecnique, Rosbeek, Netherlands, 1999. Van Berkel B., Bos C., Effects, Rosbeek, Netherlands, 1999. 170
Bertuglia C. Staricco L., Complessità, autorganizzazione e città, Franco Angeli, Torino, 2000 Biennale di Venezia (a cura di), Città: less aesthetics more ethics. 7 mostra internazionale di architettura, Marsilio, Venezia, 2000. Collins B., Gwathmey Siegel, Sfera International, Milano, 2000. Cortés J.M., Contra la arquitectura, Generalitat Valenciana, Valencia, 2000. Davidson C.C. (a cura di), Anything, Anyone Corporation, New York, 2000. Davidson C.C. (a cura di), Anymore, Anyone Corporation, New York, 2000. Imperiale A., Surface Tension in Digital Architecture, Birkhauser, Berlino, 2000. Palumbo M.L.., Electronic Bodies and Architectural Disorder, Birkhauser, Basilea, 2000. De Deleuze G., Pure immanence, essay on a life, Zone Book, New York, 2001. De Kerckhove D., The architecture of immanescence, Birkhauser, Berlino, 2001. De Kerckhove D., The architecture of intelligence, Birkhauser, Berlino, 2001. Holl S., Safran Y., City Fragments, Die Keure, Brugge, 2001. Orlandini A., Le parc de la vilette de Bernard Tschumi, Somogy, Paris, 2001. Prestinenza Puglisi L., Silenziose avanguardie, Grafiche Dessì, Chieri, 2001. Prigogine I., La fine des certitudes, Odile Jacob, Paris, 2001. Tschumi,
B.
(a
cura
di),
Columbia
Architecture
Planning
Preservation.
Abstract,Graduate School of Architecture, New York, 2001. United Nation Center for Human settlements, Cities in a Globalizing World, Earthscan, London, 2001. Vilder A., Warped spaces, The MIT Press, Cambridge, 2001. Balmond C., Smith J., Informal, Prestel, Berlino, 2002. De Landa, M., Intensive science and virtual philosophy, The Tower Buinding, New York, 2002. De Landa, M., A thousand years of nonlinear history, Swerve Editions, New York, 2002. Morris A., Next. 8 Mostra Internazionale di Architettura 2002, Marsilio, Venezia, 2002. Pasquarelli S. H. (a cura di), Versioning: Evolutionary Techniques in architecture, Wiley-Academy, West Sussex, 2002. 171
Rashid H., Couture L. A., Flux Asymptote, Phaidon Press, New York, 2002. Safran Y., City Fragment, Die Keure, Brugge, 2002. Tschumi,
B.
(a
cura
di),
Columbia
Architecture
Planning
Preservatio.
Abstract,Graduate School of Architecture, New York, 2002. MVRDV 1997-2002, "El Croquis", numero 111, Madrid, 2002. Versioning: evolutionary technique in architecture, in "Architectural Design", vol. 72, n. 5, Wiley-Academy, Londra, 2002. Kapoor A., Marsyas, Tate Publishing, Londra, 2003. Lynn G., Intricacy, CRW Graphics, Philadelphia, 2003. Migayrou F. (a cura di), Architectures non standard, Catalogo della mostra, Centre Pompidou, Paris, 2003. Morel P., Notes sul la Conception Algorithmique, Architecture Non standard, 2003. Sacchi L., Unali M., Architettura e cultura digitale, Skira, Milano, 2003. Simonot M., Simonot B. (a cura di), Archilab's - Earth Building, Thames & Hudson, New York, 2003. Spier S., Tschanz M., Swiss made new architecture from switzerland, Princeton Architectural Press, New York, 2003. Tschumi B., Berman M., Index architecture, MIT Press, Cambridge, 2003. Tschumi B., Tri-towers of babel:questionning groung zero, Columbia Books of architecture, New York, 2003. Tschumi,
B.
(a
cura
di),
Columbia
Architecture
Planning
Preservation.
Abstract,Graduate School of Architecture, New York, 2003. Tschumi B., Cheng I., The state of Architecture at the Beginning of the 21st Century, The Monicelli Press, New York, 2003. Intricacy. A project by Greg Lynn FORM, Institute of Contemporary Art, the Authors and the Artists, Philadelphia, 2003. Eisenman Architects, The Architect's Work I. Peter Eisenman, Siracuse University, New York, 2004. Eisenman history Italy, in "Area", numero 74, Federico Motta, Milano, 2004. Leach N., Wei-Guo X. (a cura di), Fast Forward Hot Spot Brain Cells, Birkhauser, Berlino, 2004.
172
Morel P., Why research and contemporary architecture should be different, in EZCT Architecture & Design Research, Archilab 2004. Spuybroek L., Nox, Thames & Hudson, New York, 2004. Tiazzoldi C., Grazie all'architetto, adesso facciamo da soli, in "Il Giornale dell'Architettura", n. 16, Marzo 2004, Umberto Allemandi e C., Torino. Tiazzoldi C., Dialogo transtorico fra Le Corbusier e Greg Lynn. Una riflessione sul concetto di automatismo in architettura, Parte 2, 2004, disponibile all'indirizzo: http://architettura.supereva.com/extended/20040710/ Tschumi B., Berman M., Index architecture, Postmedia Books, Milano, 2004. Livi, R., Rondoni L., Aspetti elementari della complessità, Dipartimento di Fisica, Università degli studi di Firenze, Firenze 2004, disponibile all'indirizzo: http://www.calvino.polito.it/~rondoni/note_complex-1.pdf The Yale Architectural Journal (a cura di), Perspecta 35 - Buildings codes, MIT Press, Cambridge, 2004. Biennale di Venezia (a cura di), Metamorph. 9 Mostra Internazionale di Architettura. Trajectories, Marsilio, Venezia, 2004. Digitale in costruzione: computer numeric control, in “Il Giornale dell’Architettura”, n. 16, Marzo 2004, Umberto Allemandi e C., Torino. Andelman, D., One thousand and one (1001) States of Matter: Smart Materials in the 21st Century, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Bagheri H., Open problems in evolutionary biology, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Balmond C., Carroll C., Forster B., Simmonds T., Engineering Marsyas at Tate Modern, 2005, disponibile all'indirizzo: http://www.arup.com/DOWNLOADBANK/download73.pdf Caldeira M., Tiazzoldi C., Eisenman. Architettura codificata: Guangdong Museum, in "Progetto", anno IX numero 23, marzo 2005, Mancuso, Roma. Cheng X., Critical phenomena in confined systems, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Feldman D., Chaos & Dynamical Systems, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Feldman D., Automata and Computation Theory, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005.
173
Feldman D., Complexity vs. Entropy, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Feldman D., Computational Mechanics, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Feldman D., Complexity Measure Discussion, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Feldman D., Information Theory, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Feldman D., Time Series Analysis, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Feldman M., Li S., Population dynamics, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Feldman M., Li S., Modeling the Evolution of Attitudes and Behaviors for Ruralurban Migrants in China, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Feldman M., Li S., Niche construction. A new dimension for biological and cultural evolution, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Frenkel D., Order through disorder: the unexpected side of entropy, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Frenkel D., Soft matter, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Frenkel D., Simulation techniques for Many-body systems, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Frenkel D., Rare events, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Girvan M., The Structure and Dynamics of Social, Biological, and Technological Networks: A Complex Systems Approach , in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Guo L.., Adaptive Systems Theory: Some Basic Concepts. Methods and Results, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005.
174
Han J., â&#x20AC;&#x153;Soft Controlâ&#x20AC;? on Collective Behavior, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Han J., Combinatorial Optimization and Collective Behaviors, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Han J., Nash Equilibrium. A rough introduction, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Han J., Individual, Compartment and the Whole, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Hart S., Imagining the future. How will we make buildings in 2030?, disponibile all'indirizzo: http://archrecord.construction.com/innovation/2_Features/0310future.asp Holland J., Genetic Algorithms. Computer programs that "evolve" in ways that resemble natural selection can solve complex problems even their creators do not fully understand, disponibile all'indirizzo: http://www.econ.iastate.edu/tesfatsi/holland.GAIntro.htm Holland J., Genetic algorithms and hidden order, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Holland J., Reaction Nets. Boundaries and Agents, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Holland J., Classifier Systems, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Holland J., Genetic Algorithms and the Study of Complexity, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Holland J., Complex Adaptive Systems, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Lee HC., Complexity, universality, self-similarity and growth of genomes, in Atti di CSSS 2005, Complex Systems Summer School (a cura di), The Santa Fe Institute, Pechino, 2005. Morel P., N extensions to "Extensions of the Grid". The linguistic Turn of Contemporary Production, Symposium "The Architecture of Possibility", in EZCT Architecture & Design Research, n. 20, January 2005.
175
Shalinzi C., Optimal Prediction and Pattern Discovery, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Wang Y., Language as a Complex Adaptive System, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. West G.B., From Simplicity to Complexity. Size, Scale and Fractals from the Big Bang to Life, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Wright H., New archaeological research on the rise of civilizations, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005. Xie L., Wireless Network Information Theory, in Atti di CSSS 2005, Complex Systems Summer School(a cura di), The Santa Fe Institute, Pechino, 2005.
SITI INTERNET
A4521A Digital Fabrication: Assemblages, disponibile all'indirizzo: http://www.arch.columbia.edu/gsap/55654 AGENCY GP: Agent-Based Genetic Programming for Spatial Exploration, disponibile all'indirizzo:
http://www.ai.mit.edu/projects/emergentDesign/agency-gp/acsa-
prez/simon_acsa_files/frame.htm A survey of complexity measure, disponibile all'indirizzo: http://www.santafe.edu/projects/CompMech/tutorials/ComplexityMeasures.pdf Arup's Realtime simulation, disponibile all'indirizzo: http://www.arup.com/ard/feature.cfm?pageid=3299 BeaucĂŠ P., Cache B., Verso un modo di produzione non-standard, in Arch'it, rivista digitale di Architettura, disponibile all'indirizzo: http://architettura.supereva.com/index.htm Bus station, progetto, disponibile all'indirizzo: http://www.ivarhagendoorn.com/photos/architecture/nio_busstation.html Cache B., A proposito della presenza di una macchina a controllo numerico a Venezia, in Arch'it, rivista digitale di Architettura, disponibile all'indirizzo: http://architettura.supereva.com/index.htm 176
Cache B., In difesa di Euclide, in
Arch'it, rivista digitale di Architettura, disponibile
all'indirizzo: http://architettura.supereva.com/index.html Caldeira M., Tiazzoldi C., Outside-in or Inside-out: 5 paradigmatic relations at the origin of the design project, in "Spazio e Architettura", disponibile all'indirizzo: http//:www.spazioarchitettura.net/articoli/teorie/54 CCTV site construction project, disponibile all'indirizzo: http://www.cctv.com/newSiteProgram/en/project_info.htm Chu K., The Turing Dimension, disponibile all'indirizzo: http://www.archilab.org/public/2000/catalog/xkavya/xkavyaen.htm Definition of modeln, disponibile all'indirizzo: http://www.m-w.com/dictionary/model Ecole polytechnique fédérale de Lausanne. Atelier Weinand, disponibile all'indirizzo: http://www.weinand.be/etudes/daphnis-lalo.htm EZCT architecture and design research, disponibile all'indirizzo: http://www.ezct.net/ Géometrie fractale, disponibile all'indirizzo http://ibois.epfl.ch/page12312.html Graphical modeling using L-system, disponibile all'indirizzo: http://algorithmicbotany.org/papers/abop/abop-ch1.pdf Gregg Lynn form, disponibile all'indirizzo: http://www.glform.com/ Guggenheim virtual tour, disponibile all'indirizzo: http://www.guggenheim.org/exhibitions/virtual/virtual_museum.html Holland J., Computer programs that "evolve" in ways that resemble natural selection can solve complex problems even their creators do not fully understand, disponibile all'indirizzo: http://www.econ.iastate.edu/tesfatsi/holland.GAIntro.htm Holland, J., Genetic Algorithms; Computer programs that "evolve" in ways that resemble natural selection can solve complex problems even their creators do not fully understand, disponibile all'indirizzo: http://www.econ.iastate.edu/tesfatsi/holland.GAIntro.htm Holland J., Genetic Algorithms. Computer programs that "evolve" in ways that resemble natural selection can solve complex problems even their creators do not fully understand, disponibile all'indirizzo: http://www.econ.iastate.edu/tesfatsi/holland.GAIntro.htm Istituto di ricerca Santa Fè, disponibile all'indirizzo: http:// www.santafe.edu
177
Knecht B., Brave new solid-state: carbon fiber world. Architects Peter Testa and Sheila Kennedy are reinventing the design process through collaboration with industry,
in
"Architectural
Recors
Innovation",
disponibile
all'indirizzo:
http://archrecord.construction.com Larson K., Tapia M., Pinto Duarte J., A New Epoch: Automated Design Tools for the Mass Customization of Housing, disponibile all'indirizzo: http://architecture.mit.edu/house_n/documents/AutomatedDesignTools.pdf Luebkeman C., Shea K., CDO: Computational design + optimization in building practice, disponibile all'indirizzo: http://www.arup.com/DOWNLOADBANK/download462.pdf Matematica, definizione, disponibile all'indirizzo: http://en.wikipedia.org/wiki/Mathematica Mero Structures, disponibile all'indirizzo: http://www.mero.us/about/ref_loc.html NIO architecten, disponibile all'indirizzo: http://www.nio.nl/ NLSU Applied Responsive Device, disponibile all'indirizzo: http://www.arch.columbia.edu/gsap/59984?PHPSESSID=77f89e87362669fe066061 082c1e4e6c Non Linear Solutions Unit, disponibile all'indirizzo: http://www.arch.columbia.edu/nlsu NONLINEAR SOLUTIONS UNIT: the transfer of methodology from the science of complexity to architecture, disponibile all'indirizzo: http://www.arch.columbia.edu/index.php?pageData=51460 Topologia, definizione, disponibile all'indirizzo: http://it.wikipedia.org/wiki/Topologia Non-standard architectures, disponibile all'indirizzo: http://www.designboom.com/contemporary/nonstandard.html Piano R., Auditorium della musica a Roma, disponibile all'indirizzo: http://194.185.232.3/works/047/pictures.asp PoincarĂŠ H., disponibile all'indirizzo: http://it.wikipedia.org/wiki/Jules_Henri_Poincar%C3%A9 Regione Piemonte, Sostegno alla ricerca, disponibile all'indirizzo: http://www.giovaneinnovazione.it/news.asp
156.Tiazzoldi
Caterina
(protocollo
n.SPTO-142-29/10/2004/16.59 - ID di progetto n.111) Resilienza, definizione, disponibile all'indirizzo: http://it.wikipedia.org/wiki/Resilienza Review: Digital Project from Gehry Technologies, disponibile all'indirizzo: http://aecnews.com/articles/842.aspx 178
Serpentine Gallery Pavilion 2002: Toyo Ito con Ove Arup, disponibile all'indirizzo: http://www.europaconcorsi.com/db/rec/inbox.php?id=159 Software Projects of the Emergent Design Group at the MIT Artificial Intelligence Lab, disponibile all'indirizzo: http://www.ai.mit.edu/projects/emergentDesign/agency-gp/acsaprez/simonĂ csa_files/frame.html Stephan Wolfram: a new kind of science, disponibile all'indirizzo: http://www.wolframscience.com/ Stephan Wolfram, biografia, disponibile all'indirizzo: http://www.stephenwolfram.com/about-sw/ Stretching Marsyas, Tate Modern, London (UK), disponibile all'indirizzo: http://www.arup.com/europe/feature.cfm?pageid=338 Surrealist automatism, disponibile all'indirizzo: http://en.wikipedia.org/wiki/Surrealist_automatism The Santa Fe Institute, disponibile all'indirizzo: http://www.santafe.edu The Structure: A New Beginning in Design Thinking, disponibile all'indirizzo: http://www.arup.com/australasia/feature.cfm?pageid=3460 The Water Cube, National Swimming Centre, Beijing, China, disponibile all'indirizzo: http://www.arup.com/eastasia/project.cfm?pageid=1250
179