0
Universidad de Belgrano Facultad de Arquitectura y Urbanismo Carrera acreditada por:
“Arquitectura Paramétrico-generativa: La relación entre la metodología proyectual y los resultados formales”
Autor: Facundo San Román Matrícula: (201) 18448 Tutores: Arq. Rosario Betti – Universidad de Belgrano Arq. Anna Marotta – Politecnico di Torino
Mayo 2014. Buenos Aires, Argentina.
1
2
ARQUITECTURA PARAMÉTRICOGENERATIVA: LA RELACIÓN ENTRE LA METODOLOGÍA PROYECTUAL Y LOS RESULTADOS FORMALES 3
Índice
1
Abstract................................................................................................................6
2
Introducción.........................................................................................................8
3
Acerca del marco sociocultural.........................................................................12
3.1
Entre el paradigma de la complejidad y la “modernidad líquida”….………..……..13
3.2
Revisando relaciones: naturaleza, forma, arquitectura ……………………..…………..18
3.3
Serialidad no estándar……………………………………….…………………………………….…….25
4
Paradigma tecnológico contemporáneo: la nueva relación entre materia e información………………………………………………….…………………………………….….……..28
4.1
Computación ubicua……………………………….………………………………………….………….29
4.2
Realidad aumentada..........................................................................................32
4.3
Individuos ciborgs…………………………………….……………………………………….…….…….35
5
Curvas y el nuevo vocabulario de la arquitectura………………………………….……..40
5.1
Curvas de Bézier …………………………………………………………………………………….……..42
5.2
Splines……………………………………………………………………………………………….….……….43
5.3
NURBS……………………………………………………………………………………….……….………….43
6
Del método paramétrico de la arquitectura………………………….……………..……….48
7
Algunas experiencias paramétricas, visiones particulares……………………...…….54
7.1
Zaha Hadid, Patrik Schumacher y el manifiesto parametricista…….………....…….55
7.2
FOA, el proceso como fin……………………………………………………………..………….……60
7.3
Greg Lynn y la metáfora de la movilidad…………………..…………………….……...…….63
8.
Conclusión…..……..………………………………………………………………………………….….….66
8.
Bibliografía…..……..………………………………………………………………………………….…….72
4
5
Abstract 6
La arquitectura paramétrica, como subcategoría de lo que denominamos «arquitectura digital», se presenta como una verdadera manifestación de la complejidad contemporánea y como una oportunidad de dar a la arquitectura una nueva imagen que tenga correlato con el tiempo presente. La implementación de programas de modelado paramétrico en las etapas más tempranas del proyecto generan, de por sí, un resultado formal característico de la metodología que surge de la misma dialéctica «creación-representación» y cuyo carácter se diferencia, en gran medida, de otros producidos con métodos tradicionales. Actualmente atravesamos una fase histórica en la que percibimos grandes cambios en lo que se refiere a la concepción de la realidad. La complejidad, nuevo paradigma de la ciencia que se encuentra en pleno auge, se traslada a todos los ámbitos de la vida en sociedad, influyendo directamente en la idea de «espacio arquitectónico». El estado «líquido» propio de nuestros tiempos, sumado a la ubicuidad de los dispositivos con conexión a internet, modifican radicalmente la percepción que tenemos del espacio contemporáneo, y vinculado a ello, cambia también la relación del hombre con el propio espacio. Lo físico y lo digital confluyen y se entrelazan en una misma ideaestrategia modificando además la relación entre el tiempo y el espacio construido.
7
Introducci贸n 8
La masificación de las nuevas tecnologías digitales está teniendo un fuerte impacto en todos los aspectos de la vida contemporánea del mundo occidental y «occidentalizado». Las relaciones entre individuos y, especialmente, las relaciones entre el individuo y su medio, actualmente sufren grandes alteraciones debido a una reconceptualización de la realidad, donde lo virtual llega a ser tan importante como lo físico. Un verdadero cambio de paradigmas se pone de manifiesto en cada uno de los campos de estudio, y nuestra disciplina no queda exenta de esta transformación que demanda cada día mayor dinamismo. A la arquitectura se le presentan, hoy, nuevos desafíos, y estos son establecer primero qué rol cumple en estos tiempos en que lo físico y lo digital compiten por el mismo puesto y evaluar, luego, cómo encara desde lo proyectual esta compleja situación. Sobre estos últimos aspectos gira este trabajo. El presente trabajo abordará, entonces, la temática de las nuevas metodologías de diseño paramétrico y la medida en que estos nuevos modos de generación de la forma condicionan el resultado arquitectónico final. A fin de dar un marco general al tema de estudio, se explicitarán ciertos aspectos del contexto socio-cultural que ayudan a comprender mejor el porqué de esta nueva arquitectura y la manera en que los cambios que se suceden en otros campos impactan en la disciplina. En el proceso, tratará temas que no son exclusivos de la disciplina pero que se encuentran directamente relacionados con el método y con la nueva imagen de la arquitectura, tales como la creciente digitalización del medio físico y los nuevos métodos de producción no-estándar. El paradigma de la complejidad nos permite entender los cambios estructurales que acontecen en la concepción actual de la realidad. Conceptos utilizados para describir la hoy superada cosmovisión moderna, tales como la simplicidad y el orden, se ven ahora reemplazados por la complejidad y el caos. Los métodos tradicionales de diseño se vuelven, cada vez más, incapaces de satisfacer las demandas de la civilización y la realidad contemporáneas, en las que el cambio constante es lo único permanente. La publicación del manifiesto parametricista de Patrik Schumacher nos abre un interrogante de lo que él postula como una afirmación. ¿Es realmente el parametricismo el nuevo «gran estilo» luego del modernismo? y, además, ¿es correcto el uso del término «estilo», como si estuviésemos refiriéndonos a una imagen acabada o es más acertado referirnos al parametricismo como una metodología proyectual? La importancia que auto atribuimos al hombre por sobre otros aspectos y seres del medio nos ha llevado, en una postura bastante egocéntrica (y egoísta), a referenciarlo como medida de la totalidad del medio artificial construido, lo que dificultó aún más la relación entre éste y la naturaleza, quedando esta última en muchos casos rezagada a incorporaciones muy tímidas e incluso en ocasiones, completamente excluida. La creciente estandarización que la producción industrial ha sufrido a lo largo de los últimos siglos ya no se condice con las demandas de una realidad y una arquitectura que se complejizan cada día más. Los procesos de producción y construcción tradicionales son incapaces de materializar de forma eficiente una arquitectura de formas complejas. Debemos repensar la manera en que nos aproximamos a la 9
materialidad. La «concepción geométrica» que tenemos de la forma nos ha hecho olvidar la importancia de la misma y de las cualidades propias de cada uno de los materiales. Tendemos a idear una forma para luego materializarla sin explorar las capacidades potenciales que la propia materia nos ofrece. A los efectos de su organización, el trabajo se estructura en capítulos. En primer lugar, se abordarán algunos aspectos del contexto sociocultural de los tiempos presentes: los conceptos de Zygmunt Bauman sobre lo que denomina la liquidez de nuestra era será particularmente pertinente al devenir de la arquitectura. Luego, se revisará el impacto de la revolución tecnológica en la vida cotidiana.
10
11
Acerca del marco sociocultural 12
Entre el paradigma de la complejidad y la “modernidad líquida”
Existen innumerables perspectivas desde las cuales es posible abordar un estudio de la fase o época histórica que actualmente atravesamos, llamada por el pensador polaco Zygmunt Bauman de los «tiempos líquidos». Podríamos empezar por definir y examinar qué actores (sociales, psicológicos, culturales, económicos, etc.) intervienen a la hora de dar forma a la realidad contemporánea y de qué forma lo hacen; sin embargo, el análisis que considero más oportuno e interesante para el caso de esta investigación es el que hace a la concepción misma de la realidad, entendiéndola como un marco de referencia macro a partir del cual es posible emprender otras aproximaciones más particulares. Las transformaciones radicales que experimenta la noción de realidad y, en consecuencia, la visión contemporánea del mundo definen un momento histórico muy particular que podemos considerar como un verdadero «cambio epocal» que implica la superación del paradigma newtoniano-cartesiano moderno y su sustitución por el nuevo paradigma de la complejidad. Denominamos «paradigma newtoniano-cartesiano» a una serie de postulados teóricos que se suceden a partir del siglo XVII con los aportes de Isaac Newton y René Descartes y que, en su conjunto, definen un marco conceptual a partir del cual se estructura la cosmovisión moderna de la civilización occidental. A continuación se presentan una serie de conceptos comunes a varias de estas teorías. Entre las principales propiedades que caracterizan a este modelo podemos ubicar al mecanicismo en una posición troncal. Éste es de por sí una manera de abordar la realidad. Una realidad (un universo) que posee una estructura semejante a la de una máquina de orden imperante, posible de ser entendida según modelos proporcionados por la mecánica a partir de las nociones de materia y movimiento. El reloj es la metáfora más acertada para comprender el funcionamiento de este universo fijado y predecible en el que espacio y tiempo son absolutos e inmutables. Se trata también de una visión reduccionista del mundo ya que para abordar cualquier tipo de análisis se prefiere el estudio de las partes aisladas, de entidades desconectadas, de acontecimientos individuales, dejando de lado las interrelaciones entre los mismos. De esta manera se pretende entender el todo, creyendo que éste no es más que la sumatoria de las partes, lo que indudablemente deviene en una perspectiva fragmentaria de la realidad y su posible conocimiento. Otra cualidad de este enfoque es la visión determinista de la realidad. Plantea que los acontecimientos (físicos, sociales, etc.) se encuentran causalmente determinados, es decir, que cada causa produce un efecto (consecuencia) de forma lineal y predecible. Basándose en el estado actual se cree posible determinar los acontecimientos futuros. 13
La base materialista de esta postura es otra de sus principales cualidades a destacar. El concepto de «materialismo» hace referencia a la manera en que se fundamenta la totalidad de lo real, un universo que se explica siempre sobre la base de partículas sólidas de materia y el movimiento de las mismas en el espacio. Estos conceptos –mecanicismo, reduccionismo, determinismo y materialismo- que caracterizan a la llamada «visión moderna» (paradigma newtoniano-cartesiano) en contraposición con la visión contemporánea de la realidad, fueron definidos por Charles Jencks como “los cuatro esclavizantes ‘ismos’ modernos”1. Lo cierto es que este modelo desplaza y excluye de su campo de estudio a todo concepto que quede por fuera del «orden» (determinista, previsible), designando como caótico a todo proceso o acontecimiento incapaz de ser determinado, asociando a su vez este caos a lo desordenado, lo informe, lo vacío. El nuevo paradigma de la complejidad pretende, en cambio y en primera instancia, quitarle esta connotación peyorativa a la que comúnmente asociamos el término «caos» y disolver la significación dialéctica opositora «orden-caos», integrando ambos conceptos y abordando la realidad como una relación compleja entre los mismos. Es preciso también entender la importancia y validez de escoger la denominación de «paradigma» para referirnos a este fenómeno: esta nueva visión y concepción de la realidad se construye a partir de un conjunto de teorías provenientes de diversos campos del saber, configurándose como una «gran teoría multidisciplinar» que establece correlaciones entre diferentes áreas del conocimiento, entre las cuales se producen frecuentes migraciones y adopciones de conceptos (préstamos teóricos), volviéndose, así, comunes a más de una. Este cuerpo teórico al que podemos denominar «teorías de la complejidad», recurriendo o usando el plural ya que no existe una teoría unificada, se construye a partir de la segunda mitad del siglo XX en base a los siguientes estudios: -
Teoría del caos Autoorganización Termodinámica del no-equilibrio Autopoiesis Geometría fractal Teoría de las catástrofes Lógica difusa
Ilya Prigogine, Benoit Mandelbrot, Edward Lorenz, Niklas Luhmann, Edgar Morin, Francisco Varela, Humberto Maturana, Fritjof Capra, entre otros, son por distintas vías autores de las teorías de la complejidad. Los aportes particulares de cada uno de ellos se realizan desde las matemáticas, la física, la química, la biología, la sociología, etc. 1
JENCKS, Charles. La arquitectura en un universo camnbiante. Propuesta para una polémica: cómo la ciencia de la complejidad está cambiando la arquitectura y la cultura. West Sussex: Academy editions; 1997.
14
Este conjunto de teorías plantean una nueva forma de abordar la naturaleza, la sociedad, el pensamiento, el saber científico, entendiéndolos como sistemas complejos. Al hablar de un elemento o sistema de elementos complejos nos referimos a un tejido de constituyentes heterogéneos, los cuales pueden ser eventos, acciones, fenómenos que se articulan e interactúan entre sí. La simplicidad se presentaba como un valor ético y un ideal estético de suma importancia dentro del paradigma moderno. Conceptos tales como orden, regularidad, determinismo, estabilidad, permanencia, inmutabilidad hacían a la concepción del mundo mecanicista en vías de superación. En contraposición a esto, caos, desorden, incertidumbre, no-linealidad, no-equilibrio, imprevisibilidad, emergencia, recursión, temporalidad, probabilidad, indeterminismo, irreversibilidad configuran, en su conjunto, el repertorio de la complejidad, un nuevo léxico, una lente a través de la cual nos permitimos ver, analizar, concebir y construir la realidad contemporánea. Si el enfoque que establecía el viejo paradigma era mecanicista, reduccionista, determinista y materialista, el que plantea el nuevo paradigma, por el contrario, ofrece una visión dinámica, holística, indeterminista y cognitivista de la realidad. Así, la realidad es ahora entendida como una red dinámica de fenómenos relacionados entre sí a través de ilimitadas conexiones. Ninguna de las propiedades de esa red es fundamental o elemental y tampoco independiente. La holística se refiere a la manera en la que se aborda el análisis de un sistema (biológico, político, económico, social, etc.). Éste se lleva a cabo considerando las diversas interacciones y retroacciones entre las partes que dan origen al sistema, de forma conjunta, integral, unificadora, y no analizándolas por sí solas. En esos términos , este enfoque no se detiene en el actuar individual de cada una de las partes sino en su interdependencia, enfatizando en el comportamiento del sistema (sinérgico) como un todo. Puede decirse que un sistema completo se comporta de forma diferente a la sumatoria de sus partes. A su vez, el indeterminismo hace referencia a un acontecimiento que no responde a un proceso de causa-consecuencia «lineal» sino, por el contrario, este se da de manera «no-lineal», admitiendo la existencia del azar, de lo impredecible. Plantea una relación que podemos llamar porosa entre causas y efectos que se da de forma irregular y variable, es decir, que a las mismas causas no siguen siempre los mismos efectos. Nuevas y más complejas estructuras emergen a partir de lo aparentemente aleatorio (caos). En cuanto al cognitivismo, entendido en este caso en contraposición a la visión materialista, destaca la importancia del observador (el sujeto) por sobre el objeto en estudio. La relevancia recae en el acto de conocimiento, entendido como las sumatorias de las acciones de comprender, almacenar, organizar y usar la información recibida a través de los sentidos. La manera en que el sujeto se aproxima (conoce) a la realidad evidentemente condiciona la idea que puede formar de la misma.
15
Por otro lado, y como una explicación del carácter exageradamente dinámico de nuestra era, Zygmunt Bauman define el concepto de «modernidad líquida». En su fundamentación contrapone el concepto (y la realidad) de una «modernidad sólida» a esta más reciente «modernidad líquida», explicando que el pase de la primera a la segunda es un proceso denominado «licuefacción de los sólidos». Es importante detenerse a pensar en el papel que juega el carácter en un mundo de incesantes cambios. Como plantea el propio Bauman: “La búsqueda de identidad es la lucha constante por detener el flujo, por solidificar lo fluido, por dar forma a lo informe”2 Lo que pretende «solidificar» esta nueva tendencia es ese mismo instante en el que se produce la mutación, la metamorfosis, el pasaje, la licuefacción misma y quizá, por qué no, esta condición sea lo que marca su carácter. En una era en la que el cambio es lo único que permanece puede que este sea la única certeza con la que contamos. En términos de materialización, este concepto no es nuevo en arquitectura. Hace tiempo que aprendimos a dejar de construir para la eternidad y a repensar lo efímero, hoy más que nunca con la vigencia que tiene la línea sustentable. Es sabido que los programas tampoco son eternos y por esto proyectamos muchos de los espacios contemporáneos dotándolos de cierta flexibilidad o adaptabilidad «latente», creyendo o teniendo certeza que en un futuro no albergarán las mismas actividades que durante los primeros años de uso, o que aun cuando lo hagan, la manera de realizarla será diferente. Lo que aún nos cuesta concebir son estos mismos conceptos por fuera del legado moderno sin caer en gestos posmodernos o deconstructivistas, reconociendo el cambio y por qué no, la incertidumbre, como otros de los protagonistas del espacio contemporáneo. Estableciendo un paralelismo con el planteo de Bauman podemos argumentar que las categorías de modernidad sólida y modernidad líquida se corresponden respectivamente con el espacio vectorial cartesiano y el espacio complejo del parametricismo. Zygmunt Bauman es un sociólogo y filósofo polaco que utiliza la metáfora de la liquidez para aprehender la naturaleza de la fase actual de la sociedad..
La configuración del espacio cartesiano determinó históricamente la composición arquitectónica. Considero importante destacar el uso del término «composición» en lugar de «caracterización» ya que, desde la antigüedad clásica hasta la mayor parte de la arquitectura construida del siglo XX, los lineamientos generales de la disposición y distribución de llenos y vacíos no han sufrido cambios radicales, aun cuando sí lo han hecho los elementos de arquitectura (y la materialidad) que los definen. El espacio cartesiano es responsable por ser condicionante de la disposición y la forma que adquieren los volúmenes que nacen bajo su lógica, reducidos a cuerpos mensurables en tres dimensiones, lo que hoy resulta extremadamente rígido y estático para nuestra compleja civilización. Las coordenadas geométricas ortogonales en base a las cuales se configura se muestran cada más ajenas y menos significativas para el movimiento 2
BAUMAN, Zygmunt. Modernidad líquida. Buenos Aires: Artes gráficas del sur; 2010, pág.89.
16
actual de los individuos y la sociedad contemporánea de la que forman parte; que entiende «movimiento» no únicamente en términos de desplazamientos espaciales sino también en el sentido de movilidad social y mutabilidad constante del grupo social primario al que denominamos «familia» junto con la emergencia de otros grupos sociales que configuran la vivienda contemporánea. Las nuevas y cada vez más efímeras relaciones laborales, la mentalidad «a corto plazo» imperante a la hora de establecer dichas relaciones, los nuevos flujos comerciales, la redefinición de intereses públicos y privados son solo algunas de los componentes de la nueva modernidad. El ideal cartesiano aún se encuentra tan fuertemente arraigado al imaginario colectivo que en muchas ocasiones solemos concebir sus cualidades, quizá no muy conscientemente, como condiciones per se del espacio. Olvidamos que, en realidad, la concepción espacial es una construcción mental que aprehendemos mediante un proceso cognoscitivo en estrecha relación con factores culturales y evolutivos de la sociedad en la que el individuo se encuentra inserto, lo que descarta la idea de que sea única y objetiva u objetivable. Actividades como habitar, trabajar, circular y disfrutar del ocio difieren de lo que cada una suponía hasta hace poco tiempo. Y aun, también ha cambiado profundamente la manera en que estas actividades se relacionan y articulan entre sí, superponiéndose, entrelazándose en el espacio y en el tiempo, ya muy alejadas de las concepciones funcionalistas que tanto incidieron en la producción arquitectónica y en la planificación y configuración urbanística del siglo pasado. De la misma manera que estas funciones mutan se percibe como van complejizándose los espacios que albergan estos usos: tienden a ablandarse, plegarse, fundirse, fragmentarse e interconectarse. Hoy se celebra el «acontecimiento», lo que ocurre aquí y ahora, sin intentar construir linealidades espacio-temporales.
17
Revisando relaciones: naturaleza, forma, arquitectura
Existen al menos dos cuestiones fundamentales presentes en las líneas de pensamiento contemporáneo que necesariamente se imbrican y retroalimentan y que tienen una influencia directa en la concepción actual de la arquitectura: en primer lugar, el abandono definitivo de la idea del hombre como centro y hasta la misma idea de centro, y en segundo, el entendimiento del hombre como un ser complejo. Históricamente y desde diferentes perspectivas, el hombre se ha ubicado a sí mismo en una posición central y privilegiada respecto a otras especies y al conjunto mismo de la naturaleza. Este lugar central era entendido como única posición correcta desde la cual el resto del mundo debía ser observado, comprendido, concebido y evaluado. Ya el Renacimiento planteaba un hombre como centro del universo que debía gozar de una consideración y una atención superiores por sobre otros individuos; dos de las expresiones más significativas de esta idea son el dibujo de «El hombre de Vitruvio», de Leonardo da Vinci, y la mismísima perspectiva de un punto de vista central atribuida a Brunelleschi, devenida en herramienta y método proyectual de la arquitectura del siglo XV italiano. La revolución científica que impulsó la Teoría de Copérnico a partir del siglo XVI (de la concepción geocéntrica a la heliocéntrica) puede considerarse como el inicio del desplazamiento paulatino de esta idea del hombre como centro físico del universo por la razón humana y su poder para generar conocimiento, lo que en términos generales establece una continuidad con la concepción precedente. Siglos más tarde, y en línea con la tradición de arquitectos que plantean una interrelación entre el hombre, las matemáticas y la arquitectura, Le Corbusier publicaría «El modulor», un sistema de proporciones antropométrico en el que cada magnitud se vincula con la anterior. Este largo camino que recorre el antropocentrismo deriva, al encontrarse con la fabricación en serie de la era moderna, en una arquitectura hecha «a la medida del hombre» (como si el hombre fuese «medida»). Se consolida un tipo ideal de hombre, el cual dictará las relaciones proporcionales que dimensionarán el entorno construido. El espacio arquitectónico pasa a ser definido, casi exclusivamente, por una serie de características antropomórficas sumadas a una serie de comportamientos considerados «patrón», dejando de lado prácticamente cualquier otro tipo de cualidades subjetivas inherentes al ser humano. Sin despreciar los méritos que la ergonomía aportaría en su momento al diseño, esto genera una tendencia a la estandarización de la concepción del propio hombre, análoga a la estandarización del conjunto de elementos que definen el espacio y sus posibles usos. Esta reducción y simplificación de la relación hombre-entorno podrá ser superada únicamente cuando entendamos que la aproximación a la problemática arquitectónica no debe hacerse a partir de unas pocas características físicas que nos hacen semejantes (pero nunca idénticos) los unos a los otros, sino que debe hacerse en primer lugar a partir de la reflexión y la comprensión del conjunto de circunstancias que hacen del hombre un ser 18
complejo, desde las características que nos distinguen de las «masas de similitud» y nos definen como individuos. Esto es, seres humanos con afán de expresión individual, con necesidades, deseos, intereses e identidades personales. Ciertas experiencias europeas que englobamos bajo el término de «modernismo», como el Art Novueau, el Jugendstil y el Liberty tuvieron, a partir de finales del siglo XIX, la intención de rescatar y devolver a la arquitectura y al diseño en general un vínculo con lo natural que había sido dejado de lado por la producción académica precedente. La relación que estas tendencias establecieron con la naturaleza estuvo en gran medida caracterizada por una fuerte carga figurativa, una suerte de mímesis formal que asumía connotaciones emblemáticas de ruptura con la obligatoriedad de referir racionalmente a la Historia de la Arquitectura oficial. Salvo casos particulares, como fueron los aportes del modernismo catalán de Gaudí y las exploraciones de Victor Horta, es posible sostener que la aproximación que estas arquitecturas tuvieron respecto a la naturaleza no estaba orientada explícitamente a extraer de los sistemas naturales las diversas lógicas de crecimiento, estructuración e interrelación espacial, es decir, del «proceso morfogenético» sino que partían de la observación del resultado acabado de la génesis, trabajando desde una referencia figurativa que afectaba, fundamentalmente, al lenguaje arquitectónico. Algunos ejemplos recientes del conjunto de la producción arquitectónica que denominamos «orgánica», muchos de los cuales podríamos enmarcarlos dentro del compendio paramétrico, se caracterizan por la mímesis del sistema natural como procedimiento organizador de la generación de la forma y del espacio. “Tras siglos de racionalismos que han intentado ahogar las corrientes naturalistas y organicistas surgidas desde el siglo XIX, sería posible una modernidad superada en la que el naturalismo fuera integrado”3 Una nueva línea en el debate de la arquitectura contemporánea nace a partir de una sensibilidad recuperada de la observación e investigación del comportamiento natural, de la singularidad de lo orgánico, del fenómeno natural y, en especial, de la morfogénesis. Podemos definir la morfogénesis como un proceso biológico que lleva a que un organismo desarrolle su forma. En otros términos, es el proceso que controla la organización espacial de las células durante los primeros momentos del desarrollo de un organismo vivo, que hace a su crecimiento y su evolución y es, finalmente, el responsable de la distinción entre un ser y otro. Uno de sus objetivos principales es relacionar al organismo con el medio ambiente en el que crece. Análogamente a como sucede con los organismos biológicos en los que la información que dará forma al ser (que define el tipo de desarrollo, distribución y crecimiento de cada una de sus partes) se codifica en el ADN celular, la información que hace a la generación de la forma arquitectónica, es en nuestro caso, codificable en «algoritmos 3
MONTANER, Josep Maria. La modernidad superada: arquitectura, arte y pensamiento del siglo XX. Barcelona: Gustavo Gili; 1997, pág.214.
19
generativos». Los algoritmos no solo nos permiten emular el desarrollo de procesos biológicos sino, incluso, la formación de ciertos fenómenos naturales.
Neri Oxman es actualmente investigadora en el Media Lab del Instituto de Tecnología de Massachusetts, que está dedicado a los proyectos de pesquisa en la convergencia del diseño, la multimedia y la tecnología. Su trabajo se centra principalmente en el diseño medioambiental y la morfogénesis digital con el objetivo de mejorar la relación entre el ambiente construido y el ambiente natural, empleando principios de diseño inspirados en la naturaleza e implementándolos en la invención de tecnologías del diseño digital. Entre sus líneas de investigación se encuentra la creación formal a través del conocimiento y experimentación de los materiales. Plantea la imposibilidad de separar la forma resultante del método que la origina (algo también verificable prácticamente en otras arquitecturas, valga como ejemplo la ya mencionada relación entre perspectiva de un punto de fuga y espacio centralizado del Renacimiento) y la necesidad de aprender de la observación de los comportamientos del mundo natural para el diseño del artificio. Argumenta que el estado de atraso actual en el que se encuentra la producción arquitectónica se debe, en gran medida, a la manera tradicional en la que aún concebimos la producción y la utilización de materiales. “Tanto las herramientas del diseño asistido por ordenador (CAD) como los procesos de fabricación industrial son incapaces de representar graduaciones y variaciones de las propiedades de un sólido como por ejemplo: densidad variable en el concreto, elasticidad variable en la goma, o transparencia variable en el vidrio”4 La manera en que hacemos uso de los materiales se encuentra casi absolutamente determinada por la forma en que éstos son elaborados. La producción estandarizada y la fabricación en serie suponen, en consecuencia, una asignación de funciones específicas a cada material producido de esta manera. Lo que resta luego de la cadena de producción es el ensamble de los mismos o, a lo sumo, su combinación. Utilizamos separadamente las barras de hierro para tomar tensiones de tracción, el hormigón para resistir cargas de compresión, el vidrio como cerramiento trasparente, la mampostería como cerramiento opaco, el aluminio para las carpinterías y el pvc para instalaciones hidráulicas. De esta manera, a cada material le correspondería una función. Esto ocurre aun cuando a veces se combinan entre sí y se convierten en un material complejo o mixto (hormigón armado, por ejemplo) o cuando cumplen otras funciones consideradas secundarias. En el mundo natural no existe el concepto de especificidad de los materiales sino que por el contrario, la materia se organiza de forma tal que dota de multifuncionalidad a los mismos. Las fibras musculares, por ejemplo, sirven de soporte mecánico del cuerpo de algunos seres al mismo tiempo que administran y conservan la energía. Otra cualidad propia de los sistemas naturales es la capacidad de distribuir el material a la 4
OXMAN, Neri. “Material computation” en revista FABVOLUTION, Avances en la fabricación digital. Barcelona: Disseny hub; 2012.
20
Estructura portante de la Mediateca de Sendai, (Jap贸n). Toyo Ito. Espacio morfogen茅tico: la misma estructura del edificio queda comprometida con los nuevos mecanismos de definici贸n del espacio arquitect贸nico.
21
manera de un gradiente continuo, esto es, cuando la composición espacial del material experimenta un aumento o disminución variable. Esta variación o, mejor dicho, gradación de la materia se da, por ejemplo, en la conformación del tejido óseo donde se observa una estructura esponjosa cuya densidad varía dentro de una misma pieza en función de las cargas a soportar. “La prioridad de la representación geométrica por sobre las consideraciones físicas del material llevó a racionalizar el proceso de diseño: primero la forma, luego el material”5 La predominancia histórica de las representaciones geométricas como método de proyecto contribuyó a desplazar la importancia de las cualidades de los materiales por un enfoque centrado en ella, reduciendo los problemas de la arquitectura a un nivel de resolución casi exclusivamente, precisamente, geométrico. Bajo esta lógica, la forma necesita ser concebida, en primer lugar, para recién luego ser construida. En este sentido concebimos un diseño para posteriormente someterlo a una serie de análisis y soluciones (estructurales, ambientales, etc.) que permitan su realización y lo justifiquen. En la naturaleza, por el contrario, la forma es el resultado de la interacción entre los parámetros de los materiales y sus limitaciones medioambientales. Es el producto derivado del conjunto de las condicionantes medioambientales particulares de su propio entorno.
5
OXMAN, Neri. “Material computation” en revista FABVOLUTION, Avances en la fabricación digital. Barcelona: Disseny hub; 2012.
22
Leviatán. Obra de Neri Oxman inspirada en la bestia marina del Antiguo Testamento. Sucesivos pliegues que dan velocidad al pesado cuerpo de un monstruo acuático.
Pneuma. Obra de Neri Oxman inspirada en “El libro de los seres imaginarios” de Jorge Luis Borges. Estructuras porosas atravesadas por conductos donde fluye el aire.
23
Monocoque. Obra de Neri Oxman en la que se representa una piel estructural continua generada por un algoritmo que emula los diagramas de Voronoi.
24
Serialidad no estándar
Históricamente los avances tecnológicos marcaron los grandes cambios de rumbo en la cronología arquitectónica. En algunos casos acompañaron transformaciones provenientes del discurso teórico, en otros fueron estas mutaciones de la técnica (constructiva, de producción) las que introdujeron la novedad. Claros ejemplos de esto fueron la estandarización de la producción del hierro y la construcción con hormigón armado, tecnologías en estrecha relación con la nueva imagen que el Movimiento Moderno daría a la arquitectura. Desde algunos años a la fecha, la «producción no estándar» se presenta como un nuevo cambio de paradigma proclive a mudar radicalmente no sólo la forma en que la producción arquitectónica es concebida sino también la manera en que entendemos la producción de objetos en general. Un ejemplo claro para entender lo que este cambio significa en términos prácticos es contraponer el funcionamiento de una imprenta (impresión mecánica) al de una impresora láser (impresión digital). La primera genera múltiples copias idénticas a partir de una misma matriz, y la cantidad de material utilizado para general las copias es igual en cada ejemplar. La gran desventaja es que la matriz presupone un costo inicial importante que se justifica, únicamente, con la impresión de un número elevado de ejemplares. Con la impresora láser, en cambio, resulta lo mismo imprimir mil veces una misma página o mil páginas diferentes con el mismo formato, en tanto en términos de costo es irrelevante si el contenido varía entre una hoja y otra. A su vez, el hecho de imprimir una mayor o menor cantidad de copias tampoco disminuye el costo por unidad. Los mismos principios que determinan la manera en que una página es impresa con una impresora láser pueden aplicarse a la producción de objetos tridimensionales. A pesar del avanzado estado actual de la industria de la construcción, la materialización de una arquitectura de formas complejas aún hoy resulta difícil. Superficies cóncavoconvexas o de doble curvatura, perforaciones irregulares de muros, carpinterías de formas y dimensiones variables, entre otras tantas cosas, presuponen prolongados tiempos para la confección de planos de ejecución y detalles, la fabricación y la construcción; lo que a su vez se traduce en elevados costos en cada una de estas etapas. La impresión digital en tres dimensiones surge como una posible solución a estos problemas y promete dar lugar a innovadores procesos constructivos. El proceso de impresión con impresoras 3D consiste en el depósito progresivo en capas superpuestas de una mezcla de algún material sometido a altas temperaturas. El plástico es por ahora el material más comúnmente usado para la impresión de objetos de tamaño reducido. Existen incluso otros materiales imprimibles que actualmente están siendo utilizados como, por ejemplo, el acero inoxidable, el cristal, la goma, el titanio, etc. Cada vez más se amplía el campo de acción de esta nueva tecnología, habiendo ya sido utilizada para la impresión de piezas de para la industria de aviación,
25
la automotriz e, incluso, para la confección de prótesis que sustituyen ciertos huesos en seres humanos.
Nos encontramos en medio de un cambio de paradigma en lo que a producción industrial se refiere: estamos pasando de una fase mecánica estandarizada a una nueva fase digital no estándar. La impresión 3D puede ser considerada el exponente más emblemático de la era de la producción no estándar por las posibilidades que ella misma ofrece. Las repercusiones que esta nueva tecnología pueda generar en la cultura contemporánea son aún difíciles de imaginar en su totalidad. Es posible que en un futuro no muy remoto cambie radicalmente la manera en que concebimos la producción industrial y, junto con ésta, la imagen que tenemos de nuestro entorno construido. Si pensamos en la posibilidad de que esta tecnología se masifique, quizá de aquí a un tiempo sea posible comprar ciertos «productos personalizados» por internet, descargar un modelo tridimensional del mismo e imprimirlos en casa o, por lo menos, en algún comercio cercano. A tal punto que: “Todas las bases de reproducción idéntica y de estandarización del producto que nacieron con el entorno mecanicista dejarán de existir con el nuevo entorno digital”6 Cabe enfatizar que por producción no estándar se entiende: producción en serie de partes no idénticas. Lo que se pretende entonces no es focalizarse en la creación de elementos particulares, tampoco de ejemplares idénticos, sino en la creación de «familias de elementos», es decir, de grupos de objetos que comparten características similares, que se parecen los unos a los otros, pero que a su vez se distinguen entre sí por un parámetro que establece de qué se trata esa diferenciación. Hoy en día es posible la producción de objetos personalizados como si fuesen confeccionados artesanalmente sin los elevados costos que esto suponía y, a su vez pueden ser producidos en serie sin la necesidad de ser idénticos. Tal como señala Mario Carpo: Mario Carpo es historiador y analiza el impacto de las nuevas tecnologías digitales en la producción arquitectónica
“La reproducción diferencial de la era digital puede combinar las ventajas de la reproducción variable de la era artesanal con las de la producción en serie de la era mecánica, sin las desventajas de una y de otra. (…) Durante algunos siglos hemos vivido en un entorno visual y técnico caracterizado por imágenes repetibles de una manera exacta. En consecuencia, ahora tendemos a pensar que lo seriado provoca lo idéntico. En el momento en que el nuevo paradigma digital reemplace al viejo paradigma mecánico, tendremos que aprender a asociar la serialidad con nuevas formas de variabilidad” 7
6 7
ORTEGA, Lluís (ed.). La digitalización toma el mando. Barcelona: Gustavo Gili; 2009, pág.62. ORTEGA, op.cit. pág.63.
26
27
Paradigma tecnol贸gico contempor谩neo: nueva relaci贸n entre materia e informaci贸n 28
Computación ubicua Se la conoce también con otras denominaciones tales como: -
-
pervasive computing, computación omnímoda calm technology, tecnología pasiva everyware este término implica un juego de referencias etimológicas: por un lado refiere al vocablo «everywhere» que significa «en todas partes»; every = todos, where = sitios; y por otro, a ware = equipamiento; ambos han mutado en everyware a fin de significar «equipamiento en todas partes» inteligencia ambiental context awareness, consciencia del contexto
La computación ubicua puede definirse como la integración profunda de dispositivos informáticos en el entorno del individuo y sus actividades, de manera que estos artefactos no se perciban como objetos diferenciados. Este nuevo paradigma viene a reemplazar a la «antigua» computadora de escritorio o desktop que contaba con una unidad procesadora de datos y otra de almacenamiento dentro de un gabinete al que se conectaban diferentes periféricos de entrada (teclado, mouse, micrófono, etc.) con otros de salida (pantalla, parlantes, etc.), concebidos como medios de intercambio de datos entre el hombre y la máquina. Hoy en día, el uso de este tipo de ordenador se ha desacelerado notoriamente siendo empleado sólo para algunas tareas específicas. En los últimos años, las ventas de los mismos han sido altamente superadas por los nuevos dispositivos smart (inteligentes). Los dispositivos smart se caracterizan principalmente por tres aspectos: en primer lugar no precisan de una conexión a la corriente eléctrica, al menos que se los esté cargando; en función de ello (pero no solamente por ello) son móviles (fácilmente transportables); y por último se encuentran siempre conectados a internet (vía Wifi, 3G, 4G, etc). Mark Weiser, considerado el padre de la computación ubicua y creador del término «ubiquous computing» que denomina este concepto, propuso tres formas básicas que estos dispositivos podrían adoptar: tabs, pads y boards (la traducción de estos vocablos es infrecuente en los países hispanohablantes; generalmente las marcas comerciales designan sus productos con estos términos). La diferencia principal entre éstos radica en el tamaño de cada uno: los tabs son elementos portátiles de escasos centímetros, los pads tienen el tamaño aproximado de una mano y los boards pueden llegar a medir metros. Nótese la correlación entre estos tres conceptos y los productos actualmente disponibles en el mercado, como son los smartphones, las tablets y los últimamente incorporados smart TVs; todos ellos dispositivos que ya sustituyeron el uso de la computadora tradicional.
29
La relevancia de los acontecimientos contemporáneos se extiende extensamente por fuera del espacio físico donde se desarrollan, desplazándose hacia el espacio digital (entiéndase éste como la sumatoria de publicaciones en la red que hacen referencia al suceso). En muchos casos el acontecimiento cobra importancia sólo por el hecho de ser compartido (masificado) en redes sociales, importancia de la cual carecería completamente si no fuese comunicado de esta forma. En algunas ocasiones, el evento se torna irrelevante si no se digitaliza, es decir, si no es creado, compartido, fotografiado, comentado a través de internet. La masificación del uso de dispositivos smart alimenta el afán de «hacerlo todo público», y la necesidad de publicar en la web hasta el más insignificante de los acontecimientos. La portabilidad de estos elementos de acceso a la red de redes permite convertir actividades anteriormente reservadas al ámbito privado en un acto comunicable. A cada momento se publican acciones, sean éstas ocasionales o de lo más rutinarias, generalmente a la espera de un comentario u opinión. Con esta disponibilidad constante de un dispositivo que nos conecta a internet (llámese teléfono móvil, tablet, etc.) estamos en contacto con dos dimensiones convergentes: la dimensión de lo físico, un espacio de existencia temporaria que depende de nuestra ubicación y cuyas condicionantes se ven subordinadas a lo local; y la dimensión de lo virtual, un ámbito de existencia permanente cuyas condicionantes son universalmente dadas. El espacio mismo que congrega a los individuos en un evento como puede ser una reunión de familiares o amigos pierde cierta validez como medio de interacción y discusión. La relevancia del evento se desplaza del espacio real donde se lleva a cabo al espacio virtual donde el acontecimiento es «inmortalizado» a través de fotografías y comentarios.
30
Hyperhabitat: Reprogramming the world. Guallart Architects. XI Bienal de Venecia. 2008. Un modelo de definición del mundo físico en términos digitales a través de redes que vinculan los objetos dotándolos de identidad digital.
31
Realidad aumentada
La realidad aumentada puede definirse como el resultado combinatorio de la materialidad física existente con la información sintético-virtual posteriormente añadida. Como producto de esta superposición (fusión) de información el entorno es ahora percibido por el sujeto como una «realidad mixta» sincronizada y a tiempo real (en vivo), ubicada entre el aporte del contexto real y el virtual. Este es un fenómeno que combina elementos virtuales con el mundo físico a través de dispositivos tecnológicos situados entre el entorno del usuario y sus medios de percepción. No debe confundirse este concepto con el de «realidad virtual» donde en cambio, lo que se pretende es el reemplazo del mundo real por el virtual, sustituyéndolo en su totalidad; quedando, el usuario, inmerso en un ambiente informático artificial con cierta apariencia de realidad como sucede por ejemplo con los videojuegos más tradicionales, en los cuales el usuario se sumerge en un entorno gráfico simulado, trasladándose a un ámbito espacio-temporal distinto al de su existencia efectiva (mundo paralelo o segunda vida). La «realidad aumentada» no reemplaza a la realidad física, sino que le sobreimprime datos agregando capas de información ergo, complementándola y enriqueciéndola. En este caso el sujeto no dista físicamente de la realidad tangible que lo rodea. Sin embargo, es cierto que los conceptos de «realidad aumentada» y «realidad virtual» están relacionados. En vez de pensarlos como antagónicos uno del otro es más acertado entenderlos como extremos opuestos del «continuo de la realidadvirtualidad», esa «realidad mixta» ubicada entre lo puramente real y lo puramente virtual. Realidad mixta Mundo Real Realidad aumentada (RA) Virtualidad aumentada (VA)
Mundo virtual
Representación simplificada del continuo de la realidad-virtualidad.
Como muestra el gráfico anterior a la izquierda se ubica cualquier espacio conformado únicamente por objetos reales y en el extremo opuesto, a la derecha, se ubica el entorno configurado exclusivamente por objetos virtuales. De izquierda a derecha aumentan gradualmente los estímulos virtuales hasta llegar a un estado máximo de realidad virtual inmersiva. Si nos ubicamos más cerca del extremo izquierdo estamos ante un caso de RA donde la realidad se ve aumentada por la virtualidad (la enriquece agregando elementos virtuales en ella), en cambio, si nos posicionamos más próximos al extremo derecho experimentamos la VA, donde ahora es la realidad que aumenta la virtualidad (introduce objetos reales en ella). Cualquier espacio del continuum
32
Ejemplo de realidad mixta con fuerte carga de virtualidad: Cloud Atlas. La mayor parte de lo que se percibe de este espacio son imágenes proyectadas sobre superficies neutras.
Dispositivo de realidad aumentada portátil con conexión a internet que permite realizar búsquedas, tomar imágenes, grabar videos, directamente de lo que estamos observando. Google Glass.
33
comprendido entre los extremos queda dentro del marco de la «realidad mixta», con más o menos incidencia de lo virtual. La realidad aumentada actualmente puede ser manejada por computadoras, smartphones, tabletas, entre otros dispositivos que generalmente se emplean con una conexión inalámbrica a internet. La tendencia parece ir en dirección a que estos artefactos devengan cada vez menos evidentes y más integrados al usuario. En algunas producciones cinematográficas éstos frecuentan ser instrumentos que brindan algún tipo de asistencia visual al usuario, generalmente como anteojos o más imperceptibles aún, como lentes de contacto. Los componentes más usuales con los que cuenta un dispositivo que permita interactuar con RA son: -
una cámara web capaz de capturar la imagen del mundo físico real que informa al sistema informático dónde debe desplegarse la imagen virtual un software que haga posible la suma de los elementos reales y los virtuales una memoria para almacenar la información que está siendo procesada una pantalla donde se visualice la superposición de lo virtual sobre lo real, resultado de la realidad aumentada
Dependiendo del fin de la aplicación también pueden ser requeridos un sistema GPS (sistema de posicionamiento global), un giroscopio, entre otros. Distintas tecnologías se suelen englobar bajo el término de «realidad aumentada» en relación con la manera en que éstas aumentan la información de la realidad. Actualmente la RA está siendo utilizada con diversos fines y en diferentes campos, siendo la publicidad el primer ámbito en que se aplica y donde esta tecnología se encuentra más difundida. También ya existen usos en turismo, actividades culturales, medicina, educación, etc. Algunas aplicaciones permiten, incluso, que el propio usuario sea capaz de adicionar información multimedia a su entorno pudiendo, estos datos devenir interactivos y manipulables digitalmente (comunicables). Pensemos en el valor que tiene incluso para nosotros los arquitectos la creación dentro de un ámbito de cierta virtualidad. Curioso que hoy en día se generen y sean expuestas en medios digitales una extensísima variedad de obras no construidas, que no por eso dejan de ser obras, generadas mediante algún software computacional y destinadas a existir únicamente dentro de una pantalla. Son aportes, muchos de ellos de gran relevancia, que hacen al discurso arquitectónico actual transformándose en posibles referentes, en futuras influencias. Estas obras que nacieron digitales, esto es, en el mundo de los bits, quizá nunca migren al mundo de los átomos.
34
Individuos ciborgs
La expresión «ciborg» proviene del inglés cyborg, conjunción de las palabras: cyber (cibernético) y organism (organismo). Su acepción más difundida es la de una forma de vida que ha sido modificada con cierto grado de tecnología para un mejor funcionamiento, o en otros términos, un ser orgánico que cuenta con dispositivos cibernéticos que mejoran sus capacidades. El nuevo paradigma digital coloca al hombre en una relación estrecha con la cibernética. El cuerpo mismo se modifica, se expanden sus funciones, la relación con el entorno construido va mutando y de igual manera lo hace el entorno mismo. En una primera aproximación podríamos pensar en un ciborg como un hombre que cuenta con acoples electro-mecánicos íntimamente articulados con el cuerpo en forma de extremidades o que reemplazan algunas partes del mismo. En otros casos estos acoples se parecen más a accesorios o complementos como los ya existentes prototipos en desarrollo en forma de lentes. La realidad demuestra que el conjunto de elementos actualmente en uso que definen a un ciborg como tal puede ser considerado mucho más amplio. Es sustancial entender que los individuos ciborgs forman parte de nuestro presente, y que no son el personaje robótico cliché de una obra de ciencia ficción. De hecho, están entre nosotros, y aun, somos nosotros. En mayor o menor medida nos servimos de una serie de dispositivos (acoples) digitales que expanden ciertas funciones inherentes al individuo, sean estas relativas a la memoria (trátese del tipo visual o auditiva), a las relaciones inter e intrapersonales, a la pertenencia a determinados grupos sociales, a la concepción espacial del entorno próximo y remoto, etc. Estamos equipados con smartphones, tablets, laptops interconectados mediante los que accedemos a perfiles personales que actualizamos ante cada acontecimiento u ocurrencia, sean éstos trascendentes o efímeros, para volcar información en una red de redes que nos mantiene en un estado de contacto permanente con el prójimo.
El proceso de hibridación que atravesamos presupone una miniaturización progresiva de los elementos digitales con los que contamos al mismo tiempo que aumenta el nivel de interconexiones entre los dispositivos de un mismo usuario y entre diferentes usuarios. El sujeto se conforma como un híbrido dotado de componentes orgánicos y cibernéticos, y análogamente el espacio se vuelve un híbrido entre lo real y lo digital. Vivimos en un estado de hiperconectividad incesante con sujetos y eventos que pueden distar remotamente de nuestra presencia e, incluso así, tener mayor relevancia que nuestro entorno real (en términos físicos) más próximo. Existe una acentuada expansión y diversificación en la oferta de este tipo de aparatos y, a su vez, una marcada unificación de las funciones que los mismos cumplen y de aplicaciones con las que cuentan. Aplicaciones que generan y, al mismo tiempo, reciben textos, imágenes, videos, entre otras cuestiones, que se transmiten a través de redes sociales 35
universalmente utilizadas que permitirán su reproducción en forma de réplicas fragmentadas. Si entendemos que cualquier invención tecnológica a lo largo de la historia siempre fue una extensión de alguna función corporal que facilita la adaptación al medio, la diferencia se da justamente en el tipo de funciones que el nuevo paradigma digital expande por fuera del ser orgánico. Entre otras, las que considero de mayor importancia para esta investigación son las funciones de tipo relacionales, teniendo éstas repercusiones en tres aspectos: interpersonales, intrapersonales y en el vínculo sujeto-objeto. En el ámbito interpersonal la tecnología digital permite una relación muchas veces no coincidente en el espacio-tiempo y, a su vez, de contacto permanente con el prójimo. Dos individuos pueden localizarse en ámbitos de lo más remotos, estar realizando actividades completamente diferentes, e incluso así mantener un diálogo de la misma forma que lo harían cara a cara. En una situación como ésta, la importancia del espacio material se desplaza hacia el espacio virtual, que en este caso pasa a ser el espacio «real» (realmente) compartido por ambas partes. Paradójicamente, estas dos personas que no comparten un entorno físico común permanecen en un estado de contacto mutuo permanente si consideramos que, dependiendo de la acción que cada uno se encuentre realizando en determinado momento, siempre dispondrán de algún dispositivo smart próximo en uso (con ‘uso’ me refiero a conectado a internet) que establezca algún tipo de conexión entre las partes, o simplemente informando de la actualización más reciente del perfil del otro contacto. En lo que se refiere a las relaciones intrapersonales, la novedad se da en la construcción continua de una imagen del yo ahora exteriorizada y plasmada en perfiles de redes sociales, donde se vuelca todo tipo de información acerca de uno mismo. La preocupación pasa por mantener siempre actualizados los campos que hacen referencia a gustos, intereses, preferencias, estados de ánimo, últimas actividades realizadas, etc. Esta imagen del sujeto, que muchas veces difiere en gran medida de la personalidad concreta del mismo por fuera del ámbito virtual, es la que otros usuarios perciben como real a la hora de establecer contacto. “La visualización de la pantalla es información del exterior, pero también una proyección del interior. En lo que se refiere al cuerpo, el límite entre exterior e interior se va desdibujando, y si se intentara definir este límite exactamente, se correría el peligro de invadir el límite del yo”8 La relación del sujeto con su entorno se redefine cuando el individuo cuenta con dispositivos digitales que expanden sus funciones. El almacenamiento electrónico de imágenes, videos y otros tipos de información que extraemos del entorno modifican radicalmente la manera en que el individuo se relaciona con el contexto. La memoria espacial se construye ahora a partir de fragmentos tomados del medio real que se transforman en los nuevos «recuerdos digitales» que, a diferencia de los recuerdos que 8
ITO, Toyo. Arquitectura de límites difusos. Barcelona: Gustavo Gili; 2006, pág.22.
36
retenemos en nuestra memoria, estarán siempre disponibles, de acceso inmediato mediante cualquier dispositivo con conexión a internet. Las presentes innovaciones digitales aplicadas a nuestro entorno diario contribuyen a definir una nueva relación entre la materia y la información. Este estado de tensión constante entre arquitectura y tecnología se construye como una relación cada vez más íntima y a su vez menos estable. El sujeto y el objeto se encuentran en un proceso de redefinición constante, inscriptos en un ciclo de retroalimentación donde uno construye y es construido. La forma en que percibimos el espacio condiciona el espacio mismo y más importante aún condiciona la creación de futuras arquitecturas. El espacio, al ser percibido a través de los «ojos digitales» del ser ciborg y procesado mediante redes de comunicación e información adquiere cualidades análogas a éstas. Se le atribuyen propiedades físicas que en realidad provienen del mundo virtual, ahora que lo virtual y lo real se esfuman en un collage poco definido. (…) Nosotros, que ya tenemos una sensibilidad corporal como la de un androide, no volveremos jamás al mundo de lo ‘real’. Cualquiera que sea nuestro entusiasmo nostálgico por un retorno al pasado, la casa que sobrevive en nuestras memorias no es más que una imagen ilusoria…”9 “Nuestra piel, sin darnos cuenta, empieza a percibir las materias inorgánicas y artificiales como el metal o el plástico con más naturalidad que las materias naturales. Asimismo empieza a percibir el espacio ficticio e imaginario como algo más confortable que el espacio real”10
9
ITO, Toyo. Escritos: Una arquitectura que pide cuerpo androide. Barcelona: Gustavo Gili; 2006, pág.65. ITO, Toyo. Escritos. Valencia: Colegio Oficial de Arquitectos Técnicos y Aparejadores de Murcia; 2000, pág.64. 10
37
En la imagen superior se observa un individuo que, sentado en un sofá, dirige su mirada hacia un muro. En la inferior el mismo individuo observa, a través de una lente de contacto de realidad aumentada, ciertos menús informáticos desplegados sobre la pared. Es en este caso que la arquitectura comienza a participar como un mero soporte.
38
39
Curvas y el nuevo vocabulario de la arquitectura 40
Es un hecho que la nueva arquitectura (y de hecho, la arquitectura en general) se nutre de los desarrollos matemáticos; sea porque estos permiten su materialización efectiva, sea porque estimulan imaginarios formales. Dicho esto es necesario aclarar que mi intención no es hacer una descripción puramente matemática del asunto (manera en la que generalmente son expuestos estos contenidos) sino intentar dar una interpretación más acorde a nuestra profesión, esclareciendo conceptos y presentando los elementos que definen cada curva de una manera lo más gráfica posible. No considero oportuno profundizar en la teoría matemática de la descripción de curvas, y no tanto o no solo por su complejidad sino porque, de igual manera que sucede al momento de proyectar con rectas, éstas no son concebidas como «una serie lineal de puntos comprendida entre las coordenadas tal y cual que definen un segmento con una pendiente x», sino que (y especialmente durante las primeras etapas de un proyecto) son descriptas y manejadas de una manera gestual mucho más intuitiva. Con esto quiero decir que el conocimiento matemático e informático de la construcción de curvas son competencias, en la mayoría de los casos, ajenas a los diseñadores y arquitectos. Quedan fuera del objeto de esta investigación el desarrollo de conceptos tales como algoritmos de Casteljau y de Boor, métodos de interpolación y aproximación de curvas, polinomios de Berstein, entre otros. A continuación se definen una serie de conceptos comúnmente utilizados al hablar de los diferentes tipos de curvas: -
-
-
-
-
Polinomio: expresión matemática construida por un conjunto finito de variables y constantes utilizando únicamente operaciones de suma, resta, multiplicación, así como también exponentes enteros positivos. Ejemplo: P(x) = 2x2+ 3x + 2 En este caso x es la variable y 2 es la constante. Función polinómica: representación matemática de una curva. En la informática gráfica podemos considerar a las líneas rectas como un tipo de curva. Puntos de control: vértices del polígono de control que determinan la forma de la curva. La curva pasará por el primero y último punto y se acercará, de manera suave, a todos los otros. Polígono de control: conjunto de segmentos que unen entre sí los puntos de control Nodos: puntos donde se unen dos porciones polinómicas Grado: en un polinomio es el del monomio de mayor grado, es decir, el término que posee el valor de potencia más alto. Un polinomio de primer grado se denomina lineal, de segundo grado cuadrático, de tercer grado cúbico y así sucesivamente. Ejemplos: P(x) = 3x + 2 polinomio primer grado (lineal) P(x) = 2x2+ 3x + 2 polinomio de segundo grado (cuadrático) Pesos: coeficientes asociados a los puntos de control que definen la aproximación de la curva hacia estos últimos. Sección cónica: curvas generadas por la intersección de un cono y un plano. Existen cuatro clasificaciones: elipse, parábola, hipérbola y circunferencia.
41
Curvas de Bézier Fueron originalmente formuladas como un sistema geométrico empleado para el desarrollo en sistemas CAD (diseño asistido por computadora) de chasis de automóviles. Llevan el nombre de su creador, el ingeniero Pierre Bézier, quien aplicó el método en la compañía Renault, desarrollado en paralelo por el físico-matemático Paul de Casteljau para Citroen. Este tipo de curvas es una manera alternativa de representación de una curva polinómica. Las mismas se definen mediante un polígono de control con un número fijo de puntos en función del grado. Cada punto de control que se adiciona incrementa la complejidad de la forma y confiere más grados de libertad a la hora de describir la curva. Curvas de Bézier de diversos grados con sus puntos de control (azul) y su polígono de control (gris). (a) lineal, (b) cuadrática, (c) cúbica
(a)
(b)
(c)
Las curvas de Bézier son geométrica y matemáticamente simples pero presentan dos problemas principales: el control de las mismas es únicamente pseudo-local y el grado de una de estas curvas es el número de puntos presentes en el polígono de control. Control pseudo-local significa que todos los puntos de la curva cambian al ser modificado cualquiera de los puntos de control. Esto se entiende más fácilmente si pensamos lo que sucede a la hora de diseñar un barco, por ejemplo, donde seguramente necesitemos modificar la proa sin que esa acción necesariamente modifique la popa al otro extremo. La relación que existe entre el grado de la curva y sus puntos de control significa que al trabajar con diseños complejos inevitablemente estaremos operando con curvas de grados excesivamente altos (para tener más flexibilidad en la definición de la curva necesitaremos colocar más puntos de control y por ende aumentará el grado). A niveles de cálculo esto exige un número de operaciones relativamente grande, lo que a efectos prácticos y de costo computacional no es aconsejable. Un tercer problema que en algunos casos presentan las curvas de Bézier es que las mismas puede quedar muy distanciada de los puntos de control, siendo difícil predecir gráficamente la manera en que una acción de edición podrá afectarlas.
42
Splines Debido a los problemas que este primer tipo de curvas presentan surge como alternativa las llamadas splines. Éstas no son otra cosa que diversas curvas polinómicas de grado bajo (como pueden ser las curvas de Bézier) unidas entre sí consecutivamente y de forma tal que respeten ciertos criterios de continuidad para componer una «curva polinómica a trozos» a partir de curvas polinómicas simples. Se podría decir, entonces, que una curva spline es formada mediante la unión de sucesivas curvas de Bézier cumpliendo unos requisitos de continuidad en los puntos de unión. A estos puntos se los denomina «nodos».
Existen también las llamadas B-Splines que consisten en un caso particular de las splines, y refiere a cuando éstas son representadas mediante el polígono de Boor. Al conjunto de funciones empleado para generar? la curva spline se lo denomina «funciones base», es por esto que se llama B-splines (B, base) a las mismas.
NURBS Por último, existe también un tipo especial de B-Splines llamadas «NURBS». Se las designa con un término que en inglés se utiliza para abreviar: Non-uniform rational BSplines (B-Splines racionales no uniformes). Consisten en un modelo matemático muy utilizado en la computación gráfica que permite generar y representar curvas y superficies complejas. Debido a su flexibilidad y a su exactitud, los modelos NURBS pueden ser usados en cualquier proceso, desde la ilustración o animación hasta su producción. Los avances que presentan respecto a las curvas precursoras son los llamados «pesos» que se dan a los puntos de control. El cambio de éstos últimos afectará a la forma de la curva. El incremento de un peso sobre un punto de control tenderá a atraer a la curva a ese mismo punto, lo que proporciona un mayor control sobre la forma de la curva sin 43
Curva Spline formada mediante la unión de sucesivas curvas Bézier (definida por porciones)
necesariamente tener que aumentar la cantidad de puntos de control. Con una correcta elección de pesos, las NURBS son capaces de representar secciones cónicas, algo que no es posible con las B-Splines o las curvas de Bézier. Además de esta condición primera, las NURBS no incorporan ninguna característica geométrica muy relevante comparada con sus predecesoras. Su aporte, entonces apunta a su importancia desde un punto de vista informático y de cómputo. Diferencia entre mover un punto de control o aumentar un peso en ese punto. (a) movimiento del punto de control, (b) aumento de peso en el punto de control
(a)
(b)
Las curvas de Bézier con la incorporación de los puntos de control como nueva herramienta para el trazado de curvas, las Splines con la integración de los nodos y, finalmente, las NURBS con los pesos, todas ellas, forman parte de una secuencia de innovaciones tecnológicas con el objeto de alcanzar una más precisa descripción de curvas y, a su vez, una diversidad mayor en la forma que estas curvas pueden adoptar, superando la antigua necesidad de definirlas en forma de ecuaciones polinómicas. Con estos instrumentos es posible describir correctamente y con precisión cualquier figura, sean líneas, superficies o incluso sólidos de formas libres y orgánicas. Llevadas al campo de lo arquitectónico, la importancia de estos elementos reside en que permiten «objetivar» el uso de curvas, esto es, permiten establecer un lenguaje común a la hora de hablar de generación de geometrías complejas, posibilitando que sea un acto comunicable y reproducible. Por otro lado, y si pensamos que hasta no muchos años atrás las únicas curvas que formaban parte del vocabulario arquitectónico no eran otras que circunferencias, parábolas, hipérbolas o elipses, es posible afirmar que amplían inmensamente el repertorio formal del cual nos nutrimos. Es importante pensar que antes de que el uso de la computadora por parte de arquitectos y diseñadores se volviera un fenómeno masivo, las curvas trazadas a mano, con curvígrafos por ejemplo, carecían en muchos casos de suficiente precisión, lo que dificultaba mucho su definición en etapas avanzadas del proyecto. Nótese que, por el contrario, cuando se trata de líneas rectas el fenómeno de la digitalización no tiene semejante relevancia. En efecto, si bien al dibujar rectas mediante un sistema informático la precisión aumenta en términos numéricos (métricos), entre el diseño manual y el digital (con un sistema CAD tradicional) no se produce un salto cualitativo; dicho de otra manera, las rectas no sufren grandes alteraciones: proyectadas a mano o 44
mediante algún sistema CAD, es posible llegar al mismo resultado. El gran cambio se da cuando la implementación del trazado de curvas acontece dentro de un programa informático que opere con la lógica paramétrica de diseño. El proyectista no piensa con números sino en relaciones, por esta misma razón los sistemas CAD tradicionales, que almacenan números pero no son capaces de trabajar con relaciones, no ofrecían otra posibilidad al usuario que no sea la mera representación de una idea. Ésta podría incluso haber sido concebida y desarrollada inicialmente con un dibujo a mano, quizás menos riguroso en términos dimensionales, esto es claro. En este último caso, el pasaje del medio manual al digital funciona como un simple cambio de soporte, pasando del papel a un archivo informático. Por el contrario, un programa informático-paramétrico nos permite definir las reglas que se hallan por detrás del desarrollo de la forma. Y esto es relevante a la hora de diseñar formas y espacios. Desde un punto de vista gráfico podría decirse que ha existido una búsqueda común que determinó la evolución de un primer tipo de definición de curvas hacia el siguiente. El objetivo siempre presente es poder generar «diferenciaciones» mayores en cada intervalo, que por consiguiente dará una curva más variada en su totalidad, es decir, con tramos más diversificados. Esto mismo es lo que permite definir geometrías cada vez más complejas. A la hora de definir una forma, un factor sumamente importante es la «continuidad» existente entre las superficies. Esto mismo, y en primera instancia, sucede a nivel de curvas (que posteriormente conformarán las superficies). Este concepto de continuidad de curvas se encuentra directamente relacionado con el nuevo lenguaje arquitectónico. Gradualmente nos aproximamos a un lenguaje en el cual las curvas se unen entre sí de forma continua, pero cada vez más diferenciadas.
45
Museo Soumaya, Fernando Romero, Ciudad de M茅xico. Estructura hiperb贸lica irregular revestida de placas hexagonales de aluminio
46
47
Del mĂŠtodo paramĂŠtrico de la arquitectura 48
Se puede ubicar el inicio del parametricismo en la 11ª edición de la Bienal de Venecia de 2008, con la presentación del manifiesto de Patrik Schumacher: Parametricism as style. En éste, Schumacher define al parametricismo como un nuevo estilo arquitectónico que viene a dar respuesta a la multicentralidad y a la complejidad de la sociedad actual. Lo cierto es que el término «paramétrico» ya desde hace un tiempo, y cada día más, deviene en sinónimo de una categoría bastante más amplia que originalmente solía denominarse «arquitectura digital». Ésta contempla una extensa serie de experimentaciones entre las cuales las más habituales son: diseño generativo, diseño emergente, morfogénesis digital, scripting, form-finding, L-Systems, algoritmos genéticos, entre otros. Si bien todos ellos, han tenido orígenes diferentes, hoy en día han quedado asociados al parametricismo y, a su vez, a las morfologías hiperorgánicas. Es posible que la causa por la cual actualmente es común englobar bajo este único denominador a un conjunto tan heterogéneo de aproximaciones a la generación de la forma se deba, en parte, al impacto que generó el manifiesto de Schumacher mencionado así como la convicción con la que el mismo autor presenta a esta arquitectura como el «nuevo gran estilo». Una de las razones por las cuales el parametricismo no puede ser considerado un estilo, tal cual lo plantea Schumacher, es porque las expresiones que genera la sociedad contemporánea y, junto con ésta las expresiones de sus individuos, son ampliamente diversas, inmensurables e inacabadas. Por esto mismo incurrimos en un error al plantear que pueden ser clasificables como una única, definida y homogénea imagen de nuestro tiempo. Ningún estilo a lo largo de la Historia de la Arquitectura –el Románico, el Gótico, el Barroco, etc.- fue definido como tal inmediatamente al comienzo de su desarrollo, es decir en el mismo momento de su gestación, sino que, por el contrario, una serie de experimentaciones (construidas o no) con elementos y decisiones proyectuales comunes fueron englobadas bajo estos términos sólo después de ser superadas con cierto distanciamiento temporal. Proponer una nueva arquitectura no significa necesariamente explicitar la forma que ésta deba adoptar, quizá hayamos entendido que no existe una única manera acertada de hacer arquitectura. Muchos de los avances y transformaciones que experimentó la arquitectura a partir de los años ‘80 se deben desde un principio al desarrollo e implementación de las computadoras en los procesos de diseño y su desencadenante, la arquitectura digital, de la cual la arquitectura paramétrica forma parte, aunque ambos conceptos suelan confundirse. Con el uso de las computadoras, los métodos de representación utilizados para la concepción formal de una obra pasaron de la mera manipulación bidimensional de un dibujo a la manipulación tridimensional de un volumen. En un principio se trató únicamente de un cambio de soporte, ya que se continuaba proyectando de la misma manera que se hace manualmente mediante el dibujo, esto es, con plantas, vistas, cortes o representaciones axonométricas. De igual manera, con 49
la irrupción de los programas de modelado 3D, y si bien existen innumerables ventajas de los modelos digitales por sobre los modelos físicos (maquetas), al inicio tampoco se logró un adelanto significativo en términos de proceso de diseño o de conformación del objeto. El verdadero salto cualitativo en lo que a arquitectura digital se refiere se manifiesta con la inclusión de los programas de modelado paramétricos en la fase de generación de la forma, que cambian estructuralmente la visión proyectual mediante un acercamiento no lineal al proceso de diseño. En las últimas décadas ciertas escuelas de arquitectura impulsaron una reconceptualización del proceso de diseño partiendo del modelo bottom-up (de abajo arriba o de lo particular a lo general), que plantea diseñar en detalle y en primer lugar las partes individuales más pequeñas para luego, al enlazarse, conformar componentes más grandes, que a su vez se enlazan hasta formar el sistema completo. Este proceso se contrapone a la estrategia tradicional denominada «top-down» (de arriba abajo o de lo general a lo particular) en la que se formula un resumen del sistema sin especificar detalles para luego pasar a refinar y redefinir cada parte con mayor precisión, hasta que la especificación general sea lo suficientemente completa y detallada para validar el sistema. Estos conceptos son importados de las ciencias de la información, más concretamente se trata de estrategias de procesamiento de información para el diseño de software, que se aplican también a otras ciencias sociales y exactas. La estrategia top-down, que comúnmente asociamos con la estructura de árbol, es totalmente análoga al proceso de diseño tradicional en el que comenzamos por definir un partido para progresivamente pasar a desarrollar cada vez con más definición cada sector particular y cada resolución técnica. Esta estrategia se configura en base a una estructura jerárquica, en la que el partido se ubica a la cabeza rigiendo todos los otros procesos. En contraposición, las estrategias bottom-up, «de abajo arriba», permiten desarrollar estructuras heterárquicas, en forma de redes flexibles. El proceso bottom-up permite entender al diseño como un «proceso genético» o mapa genético, en el que se parte de elementos primitivos (datos) como ser los puntos que se conectan entre sí aumentando de nivel de información para conformar, por ejemplo, curvas y éstas, a su vez conformarán superficies, y así consecutivamente. De esta manera, uniendo estos elementos y, principalmente, estableciendo de qué manera, cuándo y cómo serán esas relaciones estamos escribiendo algoritmos (recetas) que generarán el último componente del sistema como resultado definitivo del proceso. Creamos así una «asociación paramétrica» de datos que, en definitiva, no es otra cosa que una estrategia constructiva. Entender la lógica de estas estrategias supone, además, comprender que al modelar paramétricamente la importancia no recae únicamente en la obra acabada, que es entendida como resultado, sino que se trata también del diseño del proceso de generación de la forma. Esta combinación del diseño digital con el modelado 50
paramétrico es lo que permite un salto cualitativo respecto a metodologías anteriores, y da un nuevo sentido al proceso de diseño, en el que el uso de la tecnología digital no se limita únicamente a la representación arquitectónica sino que principalmente posibilita una nueva concepción arquitectónica. A partir de un modelo que se comporta como un organismo conformado por un algoritmo genético es posible replicar su código en otros organismos. Así, y en términos de Lluís Ortega “(…) los arquitectos empezaron a interesarse por las maneras de operar de un software determinado.(…) El desarrollo ya no se basa en la historia y en la teoría de la arquitectura, ni en formas pretéritas del diseño y de la producción arquitectónicas, sino en los regímenes tecnológicos de los aparatos de diseño informáticos. Como nuevo medio de investigación y generación de forma, el software cambió la manera de pensar y de diseñar de los arquitectos”11 Tal como plantea el autor, el método empleado para la generación de la forma, en nuestro caso el software paramétrico, necesariamente condiciona el resultado final de la misma y, por su misma naturaleza, hasta la estrategia de su materialización constructiva. La lógica de funcionamiento de los programas de modelado paramétrico «imprime» en la obra ciertas características intrínsecas del propio método, de la misma forma que en su momento sucedió con la perspectiva de un punto de fuga inventada en el Renacimiento o con las representaciones axonométricas durante la modernidad, es decir, no se trata únicamente de una técnica descriptiva sino de un verdadero instrumento de diseño, un método proyectual. En la arquitectura paramétrica se utilizan entidades geométricas modelables: polilíneas, curvas complejas, manchas o tejidos que conforman superficies, etc.; en contraposición con las formas geométricas limpias de la arquitectura del Movimiento Moderno. Estas entidades conforman los elementos arquitectónicos que, a su vez, son paramétricamente maleables. Podríamos definir al diseño paramétrico como una técnica de control holístico en la que se manipulan los elementos de diseño en todas sus escalas, que permite que un cambio puntual en un elemento propague cambios a lo largo de todo el sistema ya que el mismo está basado en relaciones permanentes entre cada una de las entidades que lo componen; y cuyo método es el «algoritmo», es decir, las instrucciones para la generación y producción de la forma. Es interesante rescatar el significado original del vocablo «fenotipo» que, en términos biológicos, significa expresión del genotipo en función de un determinado ambiente. Haciendo un paralelismo entre la genética y la arquitectura, podríamos denominar como «genotipo» a la sumatoria de variables (parámetros) relacionadas entre sí y expresadas en algoritmos, y como «fenotipo» al modelo resultante de la interrelación de todas las variables según los valores que les asignemos a las mismas. Es por esto que un solo genotipo es capaz de presentarnos tantos fenotipos como nos propongamos. Al utilizar herramientas paramétricas en el proceso de diseño 11
ORTEGA, Lluís (ed.). La digitalización toma el mando. Barcelona: Gustavo Gili; 2009, pág.114.
51
generamos un sistema que potencialmente es capaz de generar una variedad muy amplia de casos (modelos, fenotipos), de los cuales escogeremos uno como definitivo para ser materializado. A los conjuntos de estos modelos, (fenotipos) podemos denominarlos «familias formales», grupos cuyos individuos pueden ser creados instantáneamente a partir de una variación de propiedades. Esta es una de las cualidades más significativas del uso de este método. Es posible dejar de lado la tradicional forma de proyectar en base a un partido que surge como una idea-fuerza «a respetar» a lo largo del proceso proyectual, más allá de las modificaciones menores que puedan hacerse durante las etapas de anteproyecto y proyecto en las que resultará ya muy difícil realizar cambios significativos a la idea inicial. Ahora, en cambio, es posible generar y, a su vez, escoger «individuos» de estas familias formales con una inmediatez antes impensable. Tal como señala John Frazer: “(…) los valores del proyecto arquitectónico son adversos a la evaluación y el desarrollo comparativo y sistemático del proyecto. Los proyectistas tienden a confiar en su idea preconcebida intuitiva, modificándola para que ‘funcione’, entendiendo a menudo ‘funcionar’ en un sentido más místico que funcional.”12 Es interesante observar cómo algunos programas permiten incluso trabajar paralelamente con el sistema de relaciones paramétricas que genera el modelo físico y este último, ambos al mismo tiempo, siendo posible introducir modificaciones tanto de una forma como de otra, y observando los cambios en ambas partes. La crisis del deseo moderno de elaborar un objeto autónomo y acabado se manifestó principalmente en el afán de la ruptura de la «caja arquitectónica». El método de generación paramétrico nos acerca con mucha facilidad la posibilidad de trabajar con planos no coplanares, ya no como un gesto de rotura sino como un intento de construir sobre una base diferente al sistema cartesiano. Además, y esto también merece ser resaltado, la arquitectura paramétrica goza de un gran potencial para abordar unos de los temas más importantes de la agenda arquitectónica actual: la sustentabilidad, que se presenta como una necesidad cada vez más acentuada a la que debemos atender con urgencia. La capacidad de este método para elaborar sistemas versátiles y dar respuestas adaptativas y efectivas a parámetros ambientales diversos nos trae una gran esperanza y nos plantea, a la vez, un gran desafío: proponer nuevos métodos de producción compatibles con los nuevos métodos de creación.
12
ORTEGA, Lluís (ed.). La digitalización toma el mando. Barcelona: Gustavo Gili; 2009, pág.32.
52
53
Algunas experiencias paramĂŠtricas Visiones particulares 54
Zaha Hadid, Patrik Schumacher y el manifiesto parametricista
“El parametricismo está cobrando impulso para convertirse en el primer estilo unificado mundial que puede y debe sustituir al Modernismo como estilo creíble y capaz de hacer época. El parametricismo se enfrenta a ambos, a los vestigios que quedan de la monotonía modernista y al caos urbano que ha surgido como consecuencia de la desaparición del modernismo, con un orden complejo y abigarrado inspirado en los procesos autoorganizadores de la naturaleza” 13
El alemán Patrik Schumacher, principal socio de Zaha Hadid, es hoy en día no solamente un apoyo fundamental en el diseño y desarrollo de su obra, sino también la cara visible tras la posición ideológico-arquitectónica de la firma. Schumacher presenta al parametricismo como un «estilo hegemónico» basado en una teoría unificada. Según él, tanto el Posmodernismo como el Deconstructivismo representan «episodios de transición» que desembocan en el nuevo gran estilo capaz, luego del Movimiento Moderno; de crear la innovación arquitectónica necesaria para que los espacios se adapten a los requerimientos y expectativas del siglo XXI. Los métodos gráficos tradicionales y las herramientas habituales de representación gráfica de la arquitectura no resultaban suficientes para Zaha. La arquitecta experimentaría, en un principio, un alejamiento de la planta ortogonal tradicional a través de la deconstrucción que plasma en sus investigaciones gráficas. Luego, explora una «geometría fragmentada y una movilidad fluída» que deriva en sus más recientes obras paramétricas. La morfología de las obras que propone el estudio en la última década está cargada de connotaciones biomórficas y sinuosidades en donde el desequilibrio estático (en el sentido vectorial-cartesiano tradicional) se pone de manifiesto. En el MAXXI (Museo Nazionale delle arti del XXI secolo), proyectado por el estudio para la ciudad de Roma, se ponen de manifiesto ciertas cuestiones que conforman el respaldo teórico que Schumacher aporta al grupo. Una de ellas refiere a los principios de «diferenciación» interna entre los distintos espacios y «correlación» con el contexto urbano circundante, en contraposición a la arquitectura de la modernidad que destacaba los conceptos de «separación» y «repetición».
13
HADID, Zaha y SCHUMACHER, Patrik. “Edificios adaptables” en revista Babelia El País; 2011.
55
“Una gran masa que se geometriza a partir de los flujos de circulación internos y externos, de acuerdo con los conceptos definidores de la arquitectura paramétrica que pone en práctica, según la cual todos los elementos de un edificio pueden ser maleables y adaptables al entorno”14 Las circulaciones se configuran en función de las diferentes densidades de los movimientos interiores y principalmente en relación con la trama urbana exterior. De esta manera, el edificio es concebido por la autora como un «campus urbano». Los flujos y desplazamientos peatonales no se encuentran subordinados a los espacios principales sino que hacen a la conformación de los mismos, forman parte de la composición troncal de la obra y, a su vez, refuerzan el carácter global del museo. Al ingresar al hall, se le presentan y ofrecen al visitante múltiples caminos por los que puede emprender el recorrido; el hecho de que no se sucedan de forma lineal y que parezcan presentarse de forma azarosa, genera cierta sorpresa en el espectador y los vuelve más interesantes o, al menos, más inquietantes y sugestivos. La elección de los materiales interiores, como el hormigón, el acero y el vidrio, otorga una imperante neutralidad al espacio que facilita que resalten siempre los elementos expuestos. En los espacios expositivos interiores se contempla la posibilidad de suspender paneles que configuran las salas de manera flexible y variable. Los mismos son cubiertos con grandes cristales que permiten el ingreso de luz tamizada dotando de homogeneidad a la iluminación de los diferentes sectores, lo que acentúa aún más la fluidez presente (y permanente) entre un sector y otro. En el MAXXI se materializan claramente los postulados tanto funcionales como formales que Schumacher hace para definir lo que llama «heurísticas del parametricismo»: Heurísticas funcionales del Parametricismo Principios negativos (tabús): evitar estereotipos funcionales rígidos evitar la zonificación funcional segregativa Principios positivos (dogmas): todas las funciones son escenarios paramétricos todos los espacios, actividades o eventos se comunican entre sí Heurísticas formales del Parametricismo Principios negativos (tabús): evitar formas rígidas (falta de maleabilidad) evitar repetición simple (falta de variedad) evitar el collage de elementos aislados o no relacionados (falta de orden) Principios positivos (dogmas): todas las formas deben ser suaves (deformación inteligente = información) todos los sistemas deben ser diferenciados (gradientes, umbrales, singularidades) 14
RUBIO, Antonio. Arquitectos Pritzker: Zaha Hadid. Buenos Aires: Arte gráfico editorial argentino; 2013.
56
todos los sistemas deben ser interdependientes (correlaciones)15
15
SCHUMACHER, Patrik. The autopoiesis of architecture: a new agenda for architecture. West Sussex: John Wiley & Sons Ltd; 2012.
57
MAXXI, Zaha Hadid, Roma. La obra es parte integrante de la muestra museĂstica en la que se confronta lo expuesto con el espacio
58
MAXXI, Zaha Hadid, Roma. Superposici贸n de los flujos espaciales del interior y el exterior.
59
FOA, el proceso como fin “Los procesos son mucho más interesantes que las ideas. Las ideas están vinculadas a códigos existentes y operan críticamente o en alineación con sistemas de ideas preexistentes”16
Alejandro Zaera-Polo se destaca por sus investigaciones sobre superficies topológicamente construídas
El estudio FOA (Foreign Office Architects) conformado por Alejandro Zaera Polo y Farshid Moussavi no busca, desde el inicio del proyecto, un resultado formal específico sino que permite y hasta promueve que este surja del proceso de diseño, al punto que resulta, en algunos casos, incluso inesperado. Según señalan ambos arquitectos, descartan completamente la idea de un efecto espacial a priori: “Lo que hacemos es construir el sistema que genera el proyecto”17 Y agregan, “No tenemos que producir un proyecto como reproducción, derivación o invención de un modelo histórico. Para producir complejidad no necesitamos hacer collages”18 A su vez, para el estudio resulta de suma importancia la materialidad, y más específicamente, la organización material; y destacan que cada material tiene geometrías y organizaciones propias que pueden ser exploradas. La terminal portuaria de Yokohama fue proyectada en el año 1994 por FOA, y su singular diseño la hizo merecedora del Primer Premio del Concurso Internacional. Es una obra pionera en la concepción digital del proyecto a lo largo del proceso de gestación y desarrollo formal, y justamente por ello se destaca en esta investigación. En ella se experimenta una continuidad e integración espacial entre el interior y el exterior dada por superficies envolventes trabajadas como yuxtaposición de fragmentos que delimitan el espacio y los recorridos. El solado interior se despliega sobre el espacio exterior de forma fluida y pasa a conformar la cubierta, de esta manera se logra una inclusión del exterior dentro del recinto, con una acentuada imprecisión de los límites. La implantación elegida presenta al edificio como una extensión del suelo urbano por sobre el espacio marítimo, y se materializa como nexo entre uno y otro, como imagen de una ciudad sobremoderna en la que no es fácil distinguir entre naturaleza y artificio. El usuario va descubriendo la obra únicamente a medida que la recorre, ya que desde la observación exterior es poco lo que puede intuirse de la función interior. Se cuenta incluso con la posibilidad de realizar múltiples recorridos y “paseos arquitectónicos”, lo 16
SALAZAR, Jaime. Verb Processing: Architectural boogazine. Barcelona: Actar; 2001, pág.18. DÍAZ, Cristina y EFRÉN, Grinda. “Complejidad y consistencia. Una conversación con Farshid Moussavi y Alejandro Zaera” en revista El croquis n.115; 2003. 18 SALAZAR, op.cit., pág.15. 17
60
que proporciona cierta incógnita en los desplazamientos y sorpresa al descubrir cada espacio; en síntesis, el edificio es en sí un paisaje sin instrucciones para ser ocupado. Para la representación de este proyecto, el estudio realizó una secuencia de cortes transversales próximos entre sí, técnica similar a la que se aplica para la construcción de geometrías complejas en otros campos, como el naval o el aeronáutico. Esto permite la materialización de modelos tridimensionales con materiales predominantemente bidimensionales. La estructura se basa principalmente en una pieza de acero plegada que, además de proporcionar resistencia por la forma misma, está relacionada a la técnica de la construcción naval. Además y como valor agregado, se encuentra en estrecha relación con la tradición japonesa del origami a través de este tipo de referencias: “El contexto se introdujo como un proceso de organización material más que como una imagen”19 Para el Zaera Polo y Moussavi, las técnicas siempre han estado vinculadas a los resultados. Explorar el potencial de las tecnologías, integrándolas a la disciplina, permitirá finalmente, construir una nueva disciplina que se soporte en ellas.
19
SALAZAR, Jaime. Verb Processing: Architectural boogazine. Barcelona: Actar; 2001, pág.18.
61
Terminal portuaria, FOA, Yokohama. No existen paramentos como solados y paredes de forma tradicional. El interior y el exterior se funden en un mismo espacio.
62
Greg Lynn y la metáfora de la movilidad
“No es necesario que la arquitectura se mueva literalmente, pero debe conceptualizarse y modelarse en un campo urbano que se entienda como dinámico y que se caracterice por fuerzas más que por formas”
El estadounidense Greg Lynn propone una arquitectura que acompañe los cambios en las estructuras, tanto físicas como inmateriales, que surgen de la sociedad contemporánea. Para concebir esto es necesario entender el diseño de la forma en términos de fuerza y movilidad. En primer lugar, la arquitectura debe dejar de ser solamente un medio de estudio y representación de la estática. En segundo lugar, debe ser concebida en «un espacio de movimiento virtual» y modelarse como un elemento que participa de los flujos dinámicos. De esta manera, Lynn propone reemplazar la concepción estática tradicional de la arquitectura por una «arquitectura animanda». “Si los arquitectos pretenden participar en las fuerzas dinámicas, a menudo inmateriales, que conforman la ciudad contemporánea, deberían asumir tanto una ética como una práctica de la movilidad, lo que incluye comprender que los modelos clásicos de formas y estructuras puras, estáticas, esencializadas e intemporales ya no son adecuados para describir la ciudad contemporánea y las actividades que soporta.”20 Lynn plantea que los métodos tradicionales de representación, al ser herramientas simples de diseño, producen un tipo específico de simplicidad arquitectónica. Con éstos resulta altamente complejo y difícil concebir una arquitectura basada en la movilidad; sin embargo, encuentra en el cine de animación un método innovador del cual la arquitectura debería aprender para superar esta dificultad. Este se basa principalmente en la manipulación de efectos de fuerza en un entorno basado en el tiempo: “La arquitectura no necesita ser estática para persistir. La diferencia clave reside en el tiempo; la arquitectura estática se concibe ajena al tiempo, mientras que la estable debe concebirse basándose en el tiempo”21 Permitirnos modelar con fuerzas que interactúan en un espacio temporal es radicalmente distinto a modelar formas estáticas. Es por esto que la irrupción del software de animación en el terreno de la arquitectura a partir de la década de 1990 permitió abordar el diseño de una forma completamente distinta.
20 21
ORTEGA, Lluís (ed.). La digitalización toma el mando. Barcelona: Gustavo Gili; 2009, pág.107. ORTEGA, op.cit, pág.110.
63
Greg Lynn toma como referente a la industria y la forma de producción automotriz, donde una misma marca fabrica diferentes modelos con diferentes prestaciones que, sin embargo, comparten un lenguaje común que los caracteriza y los distingue de aquellos de otras marcas, y propone la aplicación de un método similar, más flexible que el actual, para la producción arquitectónica. Bajo este concepto desarrolla un prototipo de vivienda, la casa embriológica, conformada por elementos estándar, como ser 2048 paneles, 9 marcos de acero y costillas de aluminio. Análogamente a la gestación de un ser vivo de una determinada especie, cada una de las casas comparte un «código genético» con las demás, que atendiendo a las necesidades particulares de cada usuario, adquiere una forma diferente e irrepetible. Para concretar este proyecto, Lynn destaca la necesidad de atender las relaciones de las partes con el todo, y da primordial importancia al uso del cálculo como recurso necesario para asegurar estas relaciones. De esta manera, propone una «forma basada en el cálculo» que consigue generar formas flexibles, dinámicas, desestructuradas (en el sentido tradicional del término), y logra incorporar una repetición de elementos no necesaria u obligadamente modulares. La utilización de un medio virtual, como es el software de animación, al que normalmente se recurre para generar un resultado también virtual da cuenta de que la importancia del espacio contemporáneo radica, cada vez menos, en lo exclusivamente físico.
64
Casa Embriológica. Greg Lynn. Los prototipos redefinen la idea de ‘modelos genéricos’ y de ‘modelos variables’ haciendo que ambas cosas ocurran al mismo tiempo.
65
Conclusi贸n 66
El vínculo entre naturaleza y arquitectura aún hoy se encuentra mayoritariamente desplazado de las prioridades proyectuales debido a la todavía imperante concepción antropocéntrica de la realidad. La arquitectura paramétrica permite reestablecer un acercamiento con lo natural de una forma distinta a la que propusieron ciertos movimientos y estilos a lo largo de la historia. Los algoritmos generativos nos dan la posibilidad de emular procesos morfogenéticos y fenómenos naturales, es decir, podemos permitirnos aprender de la naturaleza en su nivel más esencial, sin caer en una mera mímesis formal. Por otro lado, si el cambio constante es lo único que permanece en la civilización contemporánea bajo el paradigma de la complejidad, la realidad exige de la arquitectura relaciones menos estáticas. El grado de adaptabilidad y aceptación del cambio es lo que, hoy más que nunca, hace la diferencia. Respuestas más dinámicas son necesarias, y no únicamente en el resultado acabado de la obra de arquitectura, y a nivel funcional, sino también a lo largo del proceso mismo de creación. Como metodología proyectual, las técnicas paramétricas de diseño cuentan con el potencial necesario para devolver a la arquitectura una correlación con la realidad de su tiempo presente. Son capaces de ayudarnos a dar respuestas y materializar una arquitectura compleja para una sociedad compleja. La evolución del trazado y descripción de curvas es de una gran relevancia para la etapa actual que atraviesa nuestra disciplina debido a la ampliación que éstas ofrecen del repertorio formal del cual nos nutrimos. Su utilización en el diseño arquitectónico, salvo casos particulares, se ha dado siempre de manera muy rígida y geométricamente dura, reduciéndose a escasas variaciones. Las curvas han sido descriptas, durante siglos, dentro de un sistema cartesiano que, con su lógica operativa particular, ahoga las inimaginables capacidades de conformación formal y espacial de las que éstas son portadoras. Para la descripción y materialización de un universo de relaciones fluidas que se insertan en la complejidad de la cosmovisión actual, parece ser más acertada la utilización de curvas y gradientes que el uso de rectas y ángulos. Los programas de modelado paramétrico nos permiten redefinir las relaciones formales que las curvas establecen entre sí, para así configurar nuevas morfologías de superficies continuamente diferenciadas. Los algoritmos generativos nos permiten operar con familias formales en vez de con unidades únicas. Esto cambia radicalmente nuestro rol como proyectistas. De operar con una idea formal inicial única pasamos a diseñar una serie de «modelos posibles» que someteremos a una evaluación (elección de un individuo) que, al contrario de otros métodos proyectuales, puede acontecer en una etapa avanzada del proyecto. La idea de linealidad del desarrollo proyectual como una sucesión de etapas predefinidas a respetar secuencialmente puede (y debe) dejarse de lado, en tanto contamos con la posibilidad de operar desde una mirada holística y no-lineal que posibilita realizar modificaciones en cualquier punto del proceso de diseño regenerando instantáneamente el sistema en su totalidad y, quedando incluso, más fuertemente ligado al proceso de producción.
67
Las técnicas y herramientas paramétricas no solo nos permiten dar una mejor respuesta a las necesidades emergentes de la compleja sociedad posfordista, sino que cuentan con el potencial para optimizar la forma arquitectónica y lograr, así, un mejor comportamiento en términos medioambientales. El estudio de la morfogénesis nos abre un gran espectro de posibilidades en lo referente a la conformación y construcción de sistemas físicos. La mímesis intencionada de sistemas naturales, comprendiéndolos como verdaderos mecanismos de desarrollo, intercambio, relación y, desde ya, adaptación al medio, nos abre nuevos caminos en el gran reto que implica diseñar con parámetros de sustentabilidad. La creciente digitalización del medio físico, producto del auge de los dispositivos móviles interconectados a internet, modifica en gran manera la aproximación, la definición y la comprensión que tenemos de la relación entre hombre y mundo, y también y necesariamente, del espacio arquitectónico. Hoy, el acontecimiento efímero cobra importancia por sobre lo trascendente y lo permanente; es así que el espacio físico se ve forzado a confrontarse con el espacio digital en una dialéctica en plena formación. El espacio se redefine como la hibridación de lo físico y lo digital, producto de las superposición y encastre de ambas vertientes, conformando nuevas formas de entendimiento del medio, en las que el concepto de «lo digital» deja de oponerse a la idea de «lo real» para pasar a formar parte de lo mismo. A la ausencia del pensamiento a largo plazo, junto con la posibilidad que nos ofrecen las nuevas tecnologías de redes digitales de «estar en todas partes al mismo tiempo», se le suma la consecuente importancia que cobran la instantaneidad y la inmediatez como nuevos valores de la sociedad contemporánea, en la que lo importante es el «ahora». De esta manera, es el tiempo lo que transforma el espacio (y los distintos espacios), sometiéndolo a una licuefacción constante, flexibilizando relaciones y jerarquías, y dotándolo así de una intensa fluidez compositiva y material, reflejo del estado de mutación permanente en el que se encuentra.
68
69
Bibliografía Libros BAUMAN, Zygmunt. Modernidad líquida. Buenos Aires: Artes gráficas del sur; 2010. ECO, Umberto. Cómo se hace una tesis. Barcelona: Gedisa; 2006. FERRÉ, Albert. Verb Natures: Architectural boogazine. Barcelona: Actar; 2006. GARCÍA, Javier (ed). De lo mecánico a lo termodinámico: por una definición energética de la arquitectura y el territorio. Barcelona: Gustavo Gili; 2010. GRILLO, Antonio. La arquitectura y la naturaleza compleja: arquitectura, ciencia y mímesis a finales del siglo XX. Barcelona: Universitat politècnica de Catalunya; 2005. ITO, Toyo. Arquitectura de límites difusos. Barcelona: Gustavo Gili; 2006. ITO, Toyo. Escritos: Una arquitectura que pide cuerpo androide. Barcelona: Gustavo Gili; 2006. ITO, Toyo. Escritos. Valencia: Colegio Oficial de Arquitectos Técnicos y Aparejadores de Murcia; 2000. JENCKS, Charles. La arquitectura en un universo cambiante. Propuesta para una polémica: cómo la ciencia de la complejidad está cambiando la arquitectura y la cultura. West Sussex: Academy editions; 1997. KRAUEL, Jacobo. Arquitectura digital: innovación y diseño. Barcelona: Links: 2010. MEREDITH, Michael. From control to design: parametric/algorithmic architecture. Barcelona: Actar; 2008. MITCHELL, William. Me++: The Cyborg Self and the Networked City. Cambridge: MIT Press; 2003. MONTANER, Josep María. La modernidad superada: arquitectura, arte y pensamiento del siglo XX. Barcelona: Gustavo Gili; 1997. MORIN, Edgar. Introducción al pensamiento complejo. Barcelona: Gedisa; 1994. ORTEGA, Lluís (ed.). La digitalización toma el mando. Barcelona: Gustavo Gili; 2009. RUBIO, Antonio. Arquitectos Pritzker: Zaha Hadid. Buenos Aires: Arte Gráfico Editorial Argentino; 2013. SALAZAR, Jaime. Verb Processing: Architectural boogazine. Barcelona: Actar; 2001. 70
SCHUMACHER, Patrik. The autopoiesis of architecture: a new agenda for architecture. West Sussex: John Wiley & Sons Ltd; 2012. SCHUMACHER, Patrik. The autopoiesis of architecture:a new framework for architecture. West Sussex: John Wiley & Sons Ltd; 2011. WOODBURY, Robert. Elements of parametric design. Routledge. Oxon; 2010.
Revistas
OXMAN, Neri. “Material computation”, en revista FABVOLUTION, Avances en la fabricación digital. Barcelona: Disseny hub; 2012. DÍAZ, Cristina y EFRÉN, Grinda. “Complejidad y consistencia. Una conversación con Farshid Moussavi y Alejandro Zaera”, en revista El croquis n.115; 2003.
WEB ALEXANDER, Cristopher. Sistemas que generan sistemas. 2008, en http://textosenlinea.blogspot.com.ar/ ANDERSON, Chris. In the next industrial revolution, atoms are the new bits. 2010, en http://www.wired.com/magazine/2010/01/ff_newrevolution/all/ ANDREEN, David. Building genotypes. 2012, en http://smartgeometry.org/ JERONIMIDIS, George. Biomimetics: smart geometry at work. 2012, en http://smartgeometry.org/ DE SOUZA, Lucio; ECHEVARRÍA, Luciana; VELÁZQUEZ, Raúl. Procedimientos diagramáticos. 2011, en http://textosenlinea.blogspot.com.ar/ MILGRAM, Paul; TAKEMURA, Haruo; UTSUMI, Akira; KISHINO, Fumio. Augmented Reality: A class of displays on the reality-virtuality continuum. 1994, en http://wiki.commres.org/pds/Project_7eNrf2010/_5.pdf RIERA, Elba. La complejidad, consideraciones filosóficas y epistemológicas. 2008, en http://textosenlinea.blogspot.com.ar/ TAMKE, Martin, NICHOLAS Paul. A new material practice. 2012, en http://smartgeometry.org/
71
72