A.I IS THE NEW B.I.M Martin Lopez-Bernal | Mémoire de Master 2 | 2019 ENSAPVS - Sous l’encadrement de Pascal Terracol
Résumé
Ce mémoire interroge le thème du design génératif et plus globalement les implications que pourraient avoir l’intelligence artificielle sur la conception architecturale et sur la profession d’architecte. Il vise à étudier des méthodes de conception alternatives aux méthodes «classiques» que l’on apprend en école d’Architecture. Il est le fruit de la mise en relation de ma propre expérience au cours de mon apprentissage à l’ENSAPVS et du thème émergeant de l’intelligence artificielle, qui me fascine. Il cherche à démontrer que de nombreux liens entre les deux domaines sont possibles et exploitables à plusieurs niveaux : conception, construction, réemploi, écologie...et ce de manière efficace.
Mots clés : Generative design - intelligence artificielle - conception parametrique - deep learning - machine learning - Autodesk - algorithme - méthodologie du design - GAMSAU
Je remercie Aymeric de La Bachelerie et Rémi Babut de l’agence Franck Boutté Consultants d’avoir pris du temps pour répondre à mes questions. Je remercie aussi Christian Morandi de m’avoir permi de connaître Paul Quintrand, qu’il a invité à l’un de ses cours et qui m’a fait découvrir tout un pan de la recherche sur la méthodologie du design et de l’architecture en France. Enfin, je remercie Pascal Terracol qui m’a encadré et encouragé au cours de mes recherches.
“Autodesk developpe des algorithimes pour créer des quartier entiers par intelligence articifielle en pillant les projets des architectes” Le 12 février 2018, le Moniteur a publié une interview d’Andrew Anagnost, PDG d’Autodesk. Quel ne fut pas notre indignation de lire en réponse à la question du Moniteur sur « les évolutions qu’il anticipe à l’avenir » : A.A. : Nous avons déjà lancé des solutions de «generative design» ou «conception générative» pour la construction. Il s’agit d’utiliser un algorithme qui va analyser des millions de design afin de ne présenter au final que les meilleurs par rapport à un contexte ou un cahier des charges précis. L’intelligence artificielle permet déjà de concevoir des quartiers entiers de cette façon. Notre objectif est ainsi d’aider nos clients à concevoir plus rapidement de meilleurs projets. L’autre axe d’innovation est à la fluidification des flux entre la conception et le chantier, là aussi l’intelligence artificielle constitue une ressource. Elle permet de gagner en efficacité, afin de construire mieux, moins cher et avec moins d’impacts sur l’environnement. Données qu’il trouvera dans le «cloud qu’il met à notre disposition» puisqu’il explique quelques lignes plus haut : «Enfin, l’abonnement comprend un service de stockage de données dans le cloud» Autodesk ne se contente pas de racketter les entreprises d’architecture (ainsi que tous les utilisateurs de REVIT), mais se flatte de piller nos propres projets pour créer via «des algorithmes, des quartiers entiers» et concevoir «de meilleurs projets» ! Au-delà du pillage de nos créations et du déni de la créativité humaine qui est l’essence même de notre profession, quel avenir nous prépare-t-on ? Si les Hommes avaient eu un raisonnement aussi binaire et un développement des techniques si grégaire, croyons-nous que l’adaptabilité de l’homme à son environnement et le vivre ensemble selon des variables infinies auraient-été viables depuis des siècles ? Ne laissons pas de simples marchands, fussent-ils si puissants financièrement, établir la construction des mondes. Et introduisons, si nécessaire, des dispositifs législatifs complémentaires interdisant le pillage des données relatives aux droits d’auteur et aux prestations intellectuelles. Si, comme nous, vous êtes convaincus que la créativité humaine doit primer sur l’intelligence artificielle, et que vous voulez que les architectes continuent à concevoir le cadre bâti, signez et faites signez cette pétition «je m’oppose au pillage des données stockées dans le cloud, que ce soit celui d’AUTODESK ou d’un autre» «Autodesk-Pillage organisé des prestations intellectuelles des architectes», pétition de l’UNSFA, 21 février 2018
Sommaire
Résumé
...............................................................3
Introduction
...............................................................8
I - Histoire de la méthodologie du design, de la numérisation du dessin architectural et de la CAO
..............................................................12
II – L’essor de l’intelligence artificielle et de la robotique
.............................................................24
III - Différentes utilisations des algorithmes et du generative design
.............................................................32
Conclusion
.............................................................58
Bibliographie
.............................................................64
8
Introduction Aujourd’hui, on remarque que la conception dite paramétrique (basée sur une pensée algorithmique) est très présente dans l’architecture contemporaine, notamment pour les façades, imitant souvent des principes organiques, eux-mêmes issus des mathématiques et d’algorithmes (nombre d’or, suite de Fibonacci, fractales...). Cependant, ces paramètres ou algorithmes sont dans la majorité des cas utilisés à des fins uniquement esthétiques, sculpturales, mais ne répondant pas réellement à des besoins utilitaires, fonctionnels et objectifs du projet. On constate en parallèle, l’essor de l’intelligence artificielle dans de nombreux domaines (voitures sans chauffeur, reconnaissance voire reconstitution d’images, sports ou jeux de société à haut niveau, médecine, cancérologie, «data mining»...) domaines dans lesquels l’I.A, pour être performante, a besoin d’avoir accès à une grande quantité de données. Le travail de l’architecte quant à lui, étant de plus en plus complexe, normé, soumis à de plus en plus de contraintes programmatiques, écologiques, d’optimisation énergétique, de contraintes économiques et de normes diverses, ne peut plus s’établir sans l’aide d’un ordinateur. En effet, nous nous éloignons de plus en plus de l’image de l’architecte «sculpteur», artiste, qui crée ses bâtiments à partir de théories liées aux proportions, à des croyances, à une forme de spiritualité etc...
« Les architectes sont spécialement mis en cause pour plusieurs raisons. Premièrement ils se sont toujours attribués le double rôle de l’artiste et du professionnel, deux rôles qui ont souvent des exigences contradictoires. En tant qu’artistes, ils veulent atteindre des objectifs esthétiques qui peuvent être vraiment indépendants des désirs compris ou exprimés des clients. Si un client se comporte comme un mécène (idéalisé) de la Renaissance, il n’y a aura peut-être pas de difficultés, car le mécène n’impose pas sa vision de la beauté à l’artiste. Mais si l’approche du client sur la construction prend un tour plus utilitaire, et qu’il n’est pas désireux de sacrifier ce qu’il conçoit comme utile à ce que l’architecte conçoit comme beau, alors leurs relations peuvent être teintées de méfiance et de déception. Au mieux, l’architecte devient enseignant et avocat, non plus simple exécuteur des intentions de son client [...] Un deuxième problème, plus difficile encore pour les architectes tient à ce que, quand ils entreprennent la tâche de concevoir des complexes entiers ou des zones urbaines au lieu de bâtiments uniques, leur formation professionnelle ne leur donne pas de critères de conception clairs. En planification urbaine, par exemple, la frontière entre la conception des structures physiques et celles des systèmes sociaux disparaît presque complètement. Comme il y a peu de choses dans la base de connaissances ou dans les dossiers des techniques d’architecture qui qualifient le professionnel pour planifier de tels systèmes sociaux,
9
l’approche de la conception tend à être hautement idiosyncrasique, reflétant peu ce qui peut être décrit comme un consensus professionnel et encore moins ce qui peut être décrit comme une technique analytique de base empirique. » Herbert A. Simon, Les sciences de l’artificiel, 1969 Nous remarquons par ailleurs, que le travail de l’architecte, notamment en phase de début de projet, se fait beaucoup par «tâtonnement» puis, par extension, grâce à l’intuition de ce dernier et surtout grâce à son expérience. C’est d’ailleurs en me basant sur ma propre expérience que j’ai pu contstater, en seconde année d’école d’architecture lors de travaux sur les logements, que la conception de plans «standards» (T1,T2,T3,T4...) se faisaient à peu près ainsi : On déplace une cloison ou un équipement dans un espace, ce qui engendre un rétrécissement, un agrandissement ou une quelconque modification dans un autre, puis, petit à petit, en cherchant à respecter à la fois les normes pour handicapés, à optimiser au maximum les circulations et en cherchant à offrir du confort (via la quantité de lumière offerte par exemple), on arrivait finalement à une solution. Ce processus me semblait très chronophage et peu efficace dans le sens où, pour se rendre compte qu’une solution ne « fonctionnait pas », il fallait d’abord la dessiner entièrement. Effectivement, en tant qu’êtres humains, nous n’avons pas la capacité d’abstraction
suffisante pour anticiper toutes les répercussions et « réactions en chaîne » qu’un simple mouvement de cloison peut produire sur un espace donné. C’est encore plus vrai quand nous travaillons sur un projet entier. En effet, le nombre de données à traiter en même temps par l’architecte lorsqu’il conçoit un projet est tellement grand qu’il ne peut pas les traiter objectivement, toutes en même temps. Il doit prendre des décisions à certains moments, faire des choix. Cette prise de décision, est forcément arbitraire, par manque de temps vis à vis des délais de rendu de projet (on ne peut pas se permettre de créer tous les projets possibles puis d’en déterminer le meilleur), mais aussi à cause des limites du cerveau humain à traiter en même temps un grand nombre d’informations, de contraintes. « Les événements actuels et projectifs qui entrent dans nos sytèmes de valeur sont tous datés, et l’importance que nous leur attachons décroît généralement très vite avec leur éloignement dans le temps. Pour les créatures dont les capacités cognitives sont limitées que nous sommes, c’est plutôt une chance ! Si nos décisions dépendaient de façon égale de leurs conséquences éloignées et proches, nous ne pourrions jamais agir car nous serions toujours perdus dans nos réfléxions. » Herbert A. Simon, Les sciences de l’artificiel,1969
10
C’est à partir de ce constat que je me suis posé la question suivante : Existe-t’il d’autres manières de concevoir ? Des travaux sont réalisés depuis les années 70, notamment par le GAMSAU1, via des programmes comme Lokat2 en 1971 ou Arlang3 en 1975 (aujourd’hui un peu archaïques) d’allocation automatique d’espaces, travaux qui ont par la suite été abandonnés car ne donnant pas de résultats probants, ou aucun résultat. La puissance de calcul des ordinateurs d’aujourd’hui étant de plus en plus importante, leurs fonctions toujours plus complexes et performantes, pourraient-ils accompagner l’architecte dans ses tâches de conception, notamment celles nécessitant de traiter un grand nombre de paramètres en même temps ? L’option de design génératif baptisée Dreamcatcher, développée par Autodesk Research et récemment intégrée au logiciel d’impression 3D Netfabb, permet de concevoir des objets à partir de contraintes définies par son utilisateur, en parcourant une multitude de solutions via la technologie du machine learning et en proposant des réponses à ces contraintes. Surtout utilisé à l’échelle de l’objet pour le moment, ce mode de conception commence cependant à être utilisé à plus grande 1 Groupe d’étude pour l’Application des Méthodes Scientifiques à l’Architecture et l’Urbanisme 2 Logiciel d’allocation d’espace 3 Langage de programmation pour l’architecte (Jacques Autran, Marius Frégier, Loisy)
échelle, dans le domaine de l’architecture et de l’urbanisme. Quelle serait alors la place de l’architecte vis à vis du design généré par cette forme «d’intelligence artificielle» ? Le machine Learning peut-il être un outil de conception architecturale ? Afin de donner des éléments de réponse, nous évoquerons l’histoire de la CAO à travers l’exemple de Paul Qintrand, puis nous verrons en quoi les technologies liées à l’intelligence artificielle et plus globalement aux technologies de l’information qui sont en cours de développement ont le potentiel de modifier radicalement les méthodes avec lesquelles on conçoit l’architecture. Enfin, nous présenterons des exemples de réalisations et de recherches, qui commencent à exploiter ces nouveaux outils.
11
Fig 1 : Lignes de code JavaScript
12
I - Histoire de la méthodologie du design, de la numérisation du dessin architectural et de la CAO Pour cette partie, nous allons retracer un morceau de l’histoire de l’informatisation dans l’architecture et plus particulièrement à travers les débuts de la programmation, en nous intéressant à une figure discrète mais emblématique de cet univers : Paul Quintrand. Il est en effet, un des pionniers des outils numériques en France. Paul Quintrand est tout d’abord un architecte français, qui a construit beaucoup d’immeubles dans le sud de la France. Il a notamment travaillé chez Pierre Dufau, spécialiste des immeubles de bureau, dans les années 60. Pierre Dufau est un architecte très important, qui est quasiment l’inventeur de l’immeuble de bureaux en France, grâce à un savoirfaire qu’il a importé des États-Unis. Les recherches menées par Paul Quintrand dans le domaine de l’informatique sont en résonance et en réaction avec une formation classique et manuelle, qu’il a reçu à l’école des Beaux Arts. Il s’est lancé très tôt dans le développement d’outils numériques, ce qui est étonnant car aujourd’hui, on ne fabrique plus vraiment d’outils dans les laboratoires de recherche à Paris. Il se déplace dans le sud de la France pour créer une entreprise afin de louer des programmes informatiques et créée son agence. Il s’investit dans des
associations professionnelles et organise des séminaires de géographie, d’histoire etc... C’était une époque ou le statut de l’architecte était en transformation et dans laquelle l’architecture devait avoir une approche pluridisciplinaire, afin de répondre aux problèmes d’après guerre du logement et de la ville. « On n’a pas logé les ouvriers, on les a mis en boîte » pouvait-on lire en 1968. Il créé avec Mario Borillo4, un chercheur du CNRS, le GAMSAU (Groupe d’étude pour l’Application des Méthodes Scientifiques à l’Architecture et l’Urbanisme) en 1970. Cette structure lui a permis de sortir d’une forme de routine et de s’ouvrir à d’autres approches de la pratique architecturale, notamment par celles des écoles anglaises. Dans les années 60, une nouvelle idée apparaît, celle de « fonction architecturale ». L’architecture ne dépend plus d’un seul homme ni d’une seule profession, la communication des acteurs du projet architectural devient essentielle, primordiale. L’architecte reste certes un spécialiste de la création d’espaces mais il devient également apte à dialoguer avec d’autres acteurs. Une nouvelle ère s’ouvre dans laquelle l’architecte n’est plus tout puissant.
4 Il s’intéresse à la relation entre création artistique et cognition, en particulier à l’apport de l’informatique en tant qu’outil d’analyse et de compréhension de l’acte de création.
13
On s’arrête sur le processus du projet pour la première fois, on réfléchit à ce processus car il faut le décrire, l’expliciter, tandis qu’il y avait auparavant, un savoir faire : on avait le «don» de l’architecture ou on ne l’avait pas, on donnait des directives mais on ne les explicitait pas vraiment. Dans ce courant de pensée, on va expliquer le processus de conception avec des mots, des symboles, des signes mathématiques, des diagrammes, des schémas, des matrices etc...dans le but ensuite de pouvoir travailler avec des ingénieurs, la maîtrise d’ouvrage...afin que chacun des acteurs sache comment
pas l’informatique en soi qui a modifié le «paysage architectural» mais c’est parce qu’en amont, il y a eu une réflexion pour organiser, rationaliser et subdiviser le processus de projet.
intervenir.
spécialistes de la méthodologie du design et de la conception.
Il s’agit d’appliquer des méthodes scientifiques à l’architecture et à l’urbanisme. On peut rapprocher cette réflexion à des choses plus lointaines, en effet, Platon et Aristote s’opposaient entre l’idée de l’intelligible et du sensible, l’intelligible de l’idée et le sensible de l’intuition. «La puissance du modèle contre la finesse du sensible». C’est vraiment cette question qui est en jeu quand on parle de conception architecturale aujourd’hui, avec l’arsenal des outils que nous avons à notre disposition, en même temps que la complexité des problèmes que nous avons à résoudre. L’informatique n’est pas simplement un outil qui permet de dessiner des projets, c’est aussi un moyen d’appliquer de nouvelles méthodes. Le développement de l’informatique va se poser sur cette réflexion. En réalité, ce n’est
L’informatique, apparaissant à peu près en même temps que ces questionnements, des chercheurs ont choisi d’utiliser cet outil afin d’optimiser cette réflexion scientifique, mais cette réflexion était déjà présente avant son arrivée. Ce thème était très présent dans les pays anglo-saxons à l’époque, en effet, il y avait des «design methodologists», des
Cette «pensée anglo-saxone» a pris son origine à l’école d’Ulm en Allemagne, après la guerre, qui se voulait être un nouveau Bahaus. Il y a eu deux tendances qui se sont développées dans cette école : une partie de plasticiens, qui se sont lancé dans une copie du Bahaus, puis des enseignants comme Horst Rittel qui étaient spécialisés dans les méthodes et les méthodologies appliquées aux gros projets, très complexes. Ils ont quitté cette école d’Ulm dans les années 1950 et sont allés dans les pays-anglo saxons. Ces «design théoriciens» se sont vraiment développés dans toutes les écoles des États-unis et d’ Angleterre. C’est notamment pour cela qu’aujourd’hui, la pédagogie y est totalement différente et beaucoup plus rationnelle dans les écoles d’architectures, qu’elle ne l’est en France.
14
Ce thème de «méthodologie du design» a quelque peu été oublié, mais existait déjà dans les années 60. Ce courant de pensée est aussi lié à l’importance qu’avaient les mathématiques à cette époque, qui pouvaient être appliquées aux sciences sociales (systèmes d’informations géographiques par exemple). Les design methodologists ne s’intéressaient d’ailleurs pas seulement à l’architecture, mais à toutes les disciplines dans lesquelles la conception est en jeu. Il y a trois façons de voir la conception : Soit la conception est quelque chose de magique, avec un «système nerveux» un peu complexe : le concepteur se pose une question, elle entre dans sa tête, on ne sait pas ce qu’il s’y passe, une réponse en sort, il a la réponse, c’est le principe de la boite noire : les informations entrent, mais on ne sait pas ce qu’il s’est passé dans cette boîte noire. On peut aussi considérer que c’est une boîte de verre : tout y est organisé rigoureusement, on peut parfaitement décrire le processus de ce qu’il se passe dans la tête du concepteur et une réponse en sort. La troisième façon de voir est située entre les deux : moins radicale, ce n’est ni la boîte de verre, ni la boîte noire, mais elle prend en compte une forme de créativité que l’on ne peut pas définir. Les design methodologists ont essayé de schématiser ce qu’il se passait dans la tête du concepteur, en établissant une procédure de conception qui consiste à poser des problèmes de manière itérative.
« A.I. is a black box, “a device which performs intricate functions but whose internal mechanism may not readily be inspected or understood” (OED)—something we understand because of the inputs and the outputs. We can’t see what happens inside and we’re not meant to have access to it. The black box is opaque. » Molly Wright Steenson , medium.com, 4 juin 2018 Le plus connu était Christopher Alexander. Il a décrit une méthode pour résoudre des problèmes complexes en les décomposant en sous-problèmes, que l’ont peut régler les uns après les autres. Il n’a pas réglé ces problèmes mais il a posé des questions. On peut noter ses ouvrages Community and Privacy dans lequel il aborde les systèmes de relation entre les divers éléments qu’on peut isoler et en quoi les quartiers de banlieues sont mal conçus, Synthesis of form dans lequel la thèse est qu’un ensemble de forces agissent pour donner un produit final afin qu’il réponde à une fonction, et puis Pattern language dont le principe de base est encore utilisé aujourd’hui pour l’intelligence artificielle avec les notions de patterns , sous-pattern etc...
15
Fig 2 : Hierarchisation par niveaux des différentes contraintes qui composent le design d’un projet de maison, Design Quarterly 66/67
Fig 3 : Diagrammes montrant la décomposition en «sous-pattern» d’un projet de maison, Design Quarterly 66/67
Fig 5 : Illustration de Christopher Alexander, «positive outdoor spaces», A Pattern Language Fig 4 : Illustration de Christopher Alexander, Notes on the Synthesis of Form
16
Au début des années 1970, le mathématicien Allen Bernholtz de l’université Berkeley, en Califorie, avait imaginé un programme « d’allocation spatiale ». On analysait un programme, on dégageait de ce programme des relations entre les éléments et comment celles-ci étaient liées entre elles physiquement. En Angleterre, un exemple connu est celui des hôpitaux. Afin qu’ils soient les plus rentables possible, ils avaient comme contrainte le fait que les gens les mieux payés passent le moins de temps d’une pièce à l’autre. Ansi leur salaire pouvait vraiment
Cependant, après de multiples expériences et essais, l’ordinateur en réalité, ne parvenait pas à résoudre tous les problèmes car les architectes posaient trop de questions. L’ordinateur buttait et buguait. C’est au fond en analysant toutes les sorties de l’ordinateur que les chercheurs arrivaient à déterminer d’où venait le problème. Mais le but était d’écrire des programmes qui puissent construire automatiquement des modèles architecturaux. Le temps a fait que ce type de démarche a disparu du paysage de conception actuel, mais il serait bien utile. Certains outils du
corresponde à un travail efficace. Il n’y avait pas d’écran d’ordinateur à l’époque donc le «programme» imprimait 50 solutions différentes, sous forme de petits carrés et de schémas, qui servaient de support à la réflexion de l’architecte, méthodologique et rationnel.
GAMSAU ont été commercialisés dès la fin des années 70, certains avec succès, comme le logiciel Keops, en 1979, qui a servi surtout aux Etats-unis.
Fig 7 : A.Bernholtz, S. Fosburg, A Generalized, 1971, Program for Transforming Relationship Values into Plan Layout, Advanced Computer Graphics
Fig 6 : LOKAT, GAMSAU, 1971, logiciel d’allocation d’espace. Projet pour une faculté de droit et sciences économqiues dans le site de Luminy
17
Fig 8 : Sorties du programme de Roland Billon « SYMOD 0 » qui permet d’analyser des problèmes d’organisation de locaux et de représenter déjà, des images de localisations d’équipements.
Fig 9 : Processus méthodologique de développement d’un projet selon Paul Quintrand, 1969
18
Ce qu’imaginaient Paul Quintrand et les chercheurs du GAMSAU étaient au fond du BIM5 avant l’heure. Il expliquait déjà qu’un jour, les architectes travailleraient sur des outils numériques qui permettraient de communiquer avec des ingénieurs pour concevoir de l’architecture. En effet, il avait déjà intégré le fait que si l’on regarde de près, l’architecture se situait dans un univers régulier. «Quand nous parlons, nous employons le même langage qui se situe dans un univers régulier, s’il n’était pas régulier nous ne nous comprendrions pas». Effectivement, les choses se modifient
d’objets et d’analyses sémantiques de ces objets. De cette organisation, des règles s’instituent: Prenons l’exemple d’une baie percée dans un mur, que l’on aurait appelé «fenêtre» : Automatiquement, toutes les règles qui vont construire la fenêtre vont être issues de la mesure de cette bais. S’il s’agit d’une fenêtre à la Française, elle va s’ouvrir à l’intérieur, une fenêtre à l’Anglaise, à l’extérieur et ainsi de suite. On pourrait aussi imaginer qu’un livre comme le Neufert (Les Éléments des projets de construction), pourrait servir
dans leur forme mais pas tellement dans leurs fonctions. Les grands déterminismes de l’architecture sont au fond la gravité, les descentes de charges, l’écoulement de l’eau, le fait qu’un plancher doit être horizontal etc...
de base de connaissances utiles à la conception d’un projet complexe. En effet, il pourrait constituer une source de données exploitable, très standardisée, mais qui peut toutefois être utilisée comme outil de base à la conception. D’ailleurs, ce livre est toujours présent dans presque toutes les agences d’architecture, peu importe le «type» d’architecture qu’elles produisent.
Il note aussi que les objets et les éléments architecturaux évoluent très peu. Ces objets référentiels peuvent être désignés par un nom (un trou dans un mur ou une baie qui peut être soit une fenêtre soit une porte par exemple, c’est aussi le cas pour un poteau, une poutre...) ces éléments sont à leur tour rattachés à d’autres éléments. C’est sur cette hypothèse qu’au milieu des années 80 il développe avec ses collaborateurs du GAMSAU, le projet «Tecton», qu’il qualifie de «Système intelligent de C.A.O intégrant le savoir architectural» Il correspond à un «modèle de connaissance» de l’architecture et fonctionne grâce à une organisation établie à partir de typologies 5 Building Information Modeling
Le principe des bibliothèques d’objets contenues dans les logiciels BIM repose aussi sur une base similaire dans la mesure où elles proposent des objets standardisés, modulables certes, mais qui restent dans un «univers fini» pour reprendre les termes de Paul Quintrand. De plus, ce sont aujourd’hui les constructeurs eux-même qui proposent leurs catalogues d’objets au format IFC6. 6 Le format IFC (Industry Foundation Classes) est un format de fichier destiné à assurer l’interopérabilité entre les différents logiciels de maquette numérique. Il s’agit d’un format libre et gratuit qui se veut être le garant d’un «OpenBIM»
19 Fig 10 : Schema du systeme expert Remus, GAMSAU, 1990-1993
Fig 12 : IPA, 1979, premier logiciel pour architecte (Roland Billon) qui deviendra Keops.
Fig 11 : Building Information Modeling (BIM) lifecycle view
Paul Quintrand et Jacques Zoller, alors professeurs à l’école d’architecture de Marseille-Luminy, au début des années 90 avaient développé des exercices pour leurs élèves sur le thème «revoir pour comprendre». Il s’agissait de donner aux étudiants des projets de constitution d’images à partir de
thèmes architecturaux donnés. Cette démarche permettait de voir si l’étudiant avait bien compris les méthodes qu’avaient utilisé les architectes pour concevoir leurs projets.. Ils appelaient ces exercices «à la manière de» : il était donné aux étudiants des objets architecturaux, qu’ils analysaient, et on leur demandait de recréer des objets qui sont fait «à la manière de», avec les mêmes règles.
20
Fig 13 : Travaux d’étudiants : À partir des règles de Durand, il s’agissait de faire «du Le Corbusier, du Mies Van der Rohe ou de n’importe quel architecte»
Fig 14 : Travaux d’étudiants : Ici, il s’agissait de réaliser une image «à la manière de» à partir des règles qu’avaient donné Tchumi dans son livret pour la Vilette. Le Jury était composé d’un architecte, d’un informaticien et d’un plasticien. Il s’agissait du premier contact qu’avaient les étudiants de deuxième année avec l’informatique, à l’école d’architecture de Marseille-Luminy.
Images tirées de la conférence «l’image de synthèse au GAMSAU (1969-1995)»
21
« Complexité Rendre compte de la complexité architecturale et la maîtriser dans l’espace du projet a été et reste un souci majeur des architectes s’exprimant sous diverses formes dans les théories et les pratiques. Le travail de construction de systèmes hiérarchiques, de structurations permettant la «mise en relaion» du tout et des parties, motive aussi bien Andrea Palladio dans ses efforts de constrction de modèles générératifs de villas, que Choisy nous proposant dans les axonométries éclatées une «représentation relationelle» du savoir bâtir, qu’enfin Alexander et Chermayeff proposant l’utilisation de l’ordinateur pour traîter les «dix milliards de jonctions». On a pu constater l’échec de ces derniers à vouloir représenter le problème architectural avec des outils trop réducteurs de la réalité et peu opératoires. Les techniques d’intelligence artificielle nous imposent aujourd’hui de nouveaux investissements sur ce sujet, nous renvoyant directement au savoir architectural en même temps qu’elles nous apportent des outils mieux adaptés. L’Univers architectural peut y être abordé en terme d’univers structuré d’objets regroupant des informations déclaratives et procédurales qui le concernent. Ce modèle de représentation des connaissances est né du concept de «Frame» (ou Schéma) introduit par Minsky en 1975 » Paul Quintrand, « Informatique et savoir architectural », Les cahiers de la recherche architecturale num. 23, 1988
On remarque que, n’en déplaise à l’UNSFA, ces problématiques ne datent pas d’hier et qu’Autodesk n’a finalement fait que reprendre des idées basées sur une philosophie et des méthodes qui existent depuis bien longtemps. Les outils de l’époque n’étaient sans doute pas assez performants pour exploiter pleinement le potentiel de ces théories, qui furent abandonnées au profit d’autres domaines (notamment la CAO7 et la DAO8, la repésentation en 3D, les moteurs de rendu9...) plus concrèts et rentables à court terme, répondant mieux aux besoins immédiats de résultats et d’efficatité dans les agences d’architecture. Notons qu’aujourd’hui, Autodesk en est encore au stade de la recherche, et de la «preuve de concept». Nous pourrions aller plus loin en nous posant la question suivante : Sachant que nous sommes censés avoir dépassé les enjeux, très fonctionalistes, posés par l’architecture moderne, qu’est-ce qui aujourd’hui serait inhérent à l’homme et qui de ce fait serait «non paramétrable» ?
7 Conception assistée par ordinateur 8 Dessin assité par ordinateur 9 logiciels qui calculent une ou plusieurs images 3D en y restituant non seulement la projection 3D mais surtout tous les effets d’éclairage (ombres, réflexions, etc.).
22
« Architecture is not just about walls, floor, roof, it’s also about atmosphere, the untouchable value of a space, the sense of lightness, sense of transparency, the sense of perspective...» Renzo Piano, «A visit to the Genoa studio of architect Renzo Piano», Royal Academy of Arts Nous pourrions argumenter que ce qui fait la qualité d’un espace, les émotions et les sensations qu’il proccure, peuvent elles aussi être décomposées et analysées indépendament, de manière empirique et objective. Prenons l’exemple d’un espace considéré comme «lumineux», «chaleureux», «ouvert», «intime» : Une grande majorité des sensations que nous ressentons, des émotions qui surgissent quand nous le parcourons, sont liées à des phénomènes physiques simples: la présence ou non de beaucoup de lumière dans une pièce, la hauteur sous plafond, la présence ou non d’ouvertures dans les murs, l’influence des matériaux et des couleurs sur les sensations humaines , les dimensions ou la configuration gémoétrique de cet espace etc... Même des caractéristiques plus «diffuses» telles que les odeurs, le son, la perspective, sont issues de paramètres concrets, palpables et mesurables. Dans cette optique, ce que nous appelons «ambiance» n’est au fond que l’accumulation et l’imbrication de jeux architecturaux, qui indépendament les uns des autres, ont un impact précis sur nos émotions et sur nos sensations.
« Devient-il possible ou, du moins, envisageable de transferer sur la machine tel ou tel aspect, tel ou tel segment, de la competence «creative» evoquée plus haut ? L’emergence des sciences de la cognition apporte des connaissances nouvelles sur le fonctionnement neuropsychologique du cerveau, sur les processus de perception, sur I’émotion, sur le langage et sur la vie mentale en general. Ces ruptures permettent d’esperer mieux comprendre la nature de quelques-unes des aptitudes et des fonctions qui sont mises en jeu par l’architecte et l’artiste dans leurs activités de création. La description de ces aptitudes et fonctions peut aller parfois jusqu’à leur représentation dans un langage formel qui constitue le prérequis de toute simulation par ordinateur. Problèmes d’autant plus difficiles à apprehender qu’ils se situent a la charnière de traditions intellectuelles fort éloignées, et qu’il s’agit pourtant de rapprocher, en commençant à baliser un territoire sur lequel puissent se retrouver fermement articulés préoccupations ésthetiques, analyses scientifiques et même, parfois, développements technologiques.» M.Borilo et A.Sauvageot, « L’analyse du langage, une strategie d’accès à l’univers mental de l’architecte », D’A. D’Architectures num. 131, 1996
23
Fig 15, 16
Fig 17 : Perceptron, 1957
24
II – L’essor de l’intelligence artificielle et de la robotique Le machine learning, c’est l’ensemble des algorithmes qui visent à apprendre des choses à partir de données empiriques. L’utilisateur alimente l’algorithme avec des informations et, basé sur des statistiques, ce dernier peut ensuite donner des prédictions. Le premier algorithme de machine learning créé date de la fin des années 50 : Le Perceptron. Il fut inventé en 1957 par Frank Rosenblatt, au sein du Cornell Aeronautical Laboratory. Il était déjà destiné à la reconnaissance d’images et il était l’un des tout premiers réseaux de neuronnes artificiels. Qu’est-ce que le deep learning ? «Je n’ai jamais vu une révolution aussi rapide. On est passé d’un système un peu obscur à un système utilisé par des millions de personnes en seulement deux ans.» Yann LeCun, un des pionniers du «deep learning», n’en revient toujours pas. Après une longue traversée du désert, «l’apprentissage profond», qu’il a contribué à inventer, est désormais la méthode phare de l’intelligence artificielle (IA). Toutes les grandes entreprises tech s’y mettent : Google, IBM, Microsoft, Amazon, Adobe, Yandex ou encore Baidu y investissent des fortunes. Facebook également, qui, signal fort, a placé Yann LeCun à la tête de son nouveau laboratoire d’intelligence
artificielle installé à Paris. Ce système d’apprentissage et de classification, basé sur des «réseaux de neurones artificiels» numériques, est, pêle-mêle, utilisé par Siri, Cortana et Google Now pour comprendre la voix, être capable d’apprendre à reconnaître des visages.», Morgane Tual, «Comment le «deep learning» révolutionne l’intelligence artificielle», Le Monde , 2016 Le deep learning est une sous-catégorie du machine learning. Il est la création de machines qui utilisent des techniques inspirées par la capacité du cerveau humain à apprendre. Avant récemment, nous n’avions tout simplement pas assez de données (data) et de puissance de calcul pour entraîner une machine à apprendre. Les réseaux de neurones apprennent plusieurs niveaux d’abstraction, de concepts très simples jusqu’à des concepts bien plus complexes. C’est de là d’où vient le mot «deep» dans «deep learning». Chaque couche caractérise un type d’information, l’affine et le transmet au suivant. Le deep learning laisse la machine utiliser ce processus afin de fabriquer une représentation hiérarchisée. Une machine peut alors par exemple reconnaître des objets voire des concepts, en fonction de ce pourquoi elle a été «entraînée». Un humain apprend à compter de 1 à 9 en 3 à 5 ans, un ordinateur peut apprendre des centaines de chiffres en une journée, selon la puissance de son processeur, une
25
carte vidéo peut le faire en une heure, car, dû à leur architecture, les cartes vidéos peuvent effectuer davantage de tâches en parallèle qu’un processeur. Le but étant que l’intelligence artificielle apprenne d’ellemême grâce à de la data, tout comme un enfant doit apprendre le monde dans lequel il vit en observant et en expérimentant ce qui l’entoure. Le deep learning peut être appliqué dans énormément de domaines comme le diagnostic médical, la robotique, la sécurité automobile ou encore la reconnaissance vocale.La liste peut être encore très longue et peut s’appliquer, même dans des domaines surprenants. Nous n’en sommes qu’au tout début.
Fig 18 :Schéma d’un réseau neuronal simple
«On s’est rendu compte qu’en prenant des logiciels que nous avions écrits dans les années 80, lors d’un stage par exemple, et en les faisant tourner sur un ordinateur moderne, ils fonctionnaient beaucoup mieux», explique Andrew Ng à Forbes. Il existe par ailleurs une loi, appelée Loi de Moore, qui n’en est en fait pas réellement une au même sens que la loi de la gravité par exemple, mais plutôt une tendance technologique. Elle annonce que le nombre de transistors gravés sur un processeur double tous les 18 mois. Cette loi fut énnoncée par Gordon Moore dans les années 60, alors qu’il était à la tête de la société Intel. Théoriquement, si on double le nombre de transistors, cela veut dire qu’on peut doubler la puissance de calcul. Cette évolution est impressionante car, instinctivement, nous avons une vision linéaire de l’évolution des choses, tandis que dans ce cas, il s’agit d’une évolution exponentielle. Plus nous avançons, plus les changements sont drastiques et rapides.
« Les idées de base du deep learning remontent à la fin des années 80, avec la naissance des premiers réseaux de neurones. Pourtant, cette méthode vient seulement de connaître son heure de gloire. Pourquoi ? Car si la théorie était déjà en place, les moyens, eux, ne sont apparus que très récemment. La puissance des ordinateurs actuels, combinés à la masse de données désormais accessible, a multiplié l’efficacité du deep learning.
Fig 19 : Loi de Moore, nombre de transistors sur circuit imprimé (19712016)
26
« L’éclosion de l’IA est le prolongement d’une histoire informatique dont la progression a été vertigineuse. 1938 : L’ordinateur de plus puissant sur terre, le Z1, inventé par l’ingénieur allemand Konrad Zuse, réalise une opération par seconde. 2017 : Le Taihulight Sunway chinois atteint 93 millions de milliards d’opérations par seconde. La puissance informatique maximale disponible sur terre a été multipliée par près de cent millions de milliards en quatre-vingt ans. Les machines réalisant un milliard de milliards d’opérations par seconde sont attendues pour 2020. Les experts envisagent que des ordinateurs effectuant un milliard de milliards de milliards d’opérations par seconde seront entre nos mains vers 2050. Grâce à de nouvelles techniques de gravures des transistors, à l’envol de l’Intelligence Artificielle et, à partir de 2050, à l’ordinateur quantique, nous allons longtemps encore continuer à disposer d’une puissance de calcul toujours plus grande. Cette puissance informatique rend possibles des exploits impensables il y a seulement 20 ans. » Laurent Alexandre, La guerre des intelligences, 2017
Fig 20 : Die d’un processeur Intel Core I7
Nous arrivons aux limites physiques de la gravure de transistors. En effet, les processeurs actuels, déjà très puissants, sont gravés à une finesse proche de celle de l’atome. Les derniers processeurs grands public de chez Intel nommés «Coffee Lake» sont gravés en 14nm. Sous les 8 nanomètres, des effets quantiques vont perturber le fonctionnement des composants électroniques. C’est ainsi que de nouvelles approches technologiques viennent repousser encore ces limites.
Fig 21 : Ordinateur quantique IBM Q
Les ordinateurs quantiques sont de nouvelles sortes d’ordinateurs qui promettent de faire perdurer cette fameuse loi de Moore, en continuant à faire évoluer de manière exponentielle la puissance de calcul des ordinateurs. Cela permettrait de résoudre des problèmes d’aujourd’hui, que même nos ordinateurs ultrapuissants ne peuvent pas résoudre.
27
Bien qu’ils ne sont pas encore vraiment au point, le domaine a fait énormément de progrès et IBM ou encore Google investissent massivement dans la recherche. Dans le cadre des ordinateurs quantiques, plutôt que d’utiliser des «bits», ils utilisent des «qubits», qui découlent des propriétés quantiques de la matière. Plutôt que d’opérer avec soit des «0» soit des «1», les ordinateurs quantiques utilisent deux propriétés de la mécanique quantique : «la superposition des états» et «l’intrication» qui permettent d’avoir des «0» et des «1» en même temps. Selon David Deutsch, spécialisé dans
Prenons l’exemple de l’ETH de Zurich : Des chercheurs ont développé une méthode de construction de charpente entièrement fabriquée par des bras robotisés. Cette technologie permet de fabriquer très rapidement, directement sur site, des charpentes complexes et ce, de manière très précise. Les robots calculent leur position dans l’espace via des algorithmes,et peuvent découper, à partir d’un fichier CAD des tronçons de bois de charpente de manière millimétrée et efficace.
le domaine de l’informatique quantique, «la construction (éventuelle) de grands calculateurs quantiques (plus de 300 qubits) permettrait alors en théorie de faire certains calculs plus vite qu’un ordinateur classique plus grand que l’univers observable luimême.» Un domaine qui lie entre eux ces deux pans de la technologie est la robotique. Quoi qu’étant inquiétante quant à ses repercussions sur le travail des ouvriers dans le domaine de l’industrie, en Asie notamment, (elle les remplace petit à petit pour les tâches répétitives), elle ouvre des possibilités nouvelles, notamment dans le domaine de la construction et de l’architecture. Owen Hopkins10 parle de «Post-digital architecture». C’est à dire que les limites entre le monde numérique et le monde analogique deviennent floues. 10 Ecrivain spécialisé en architecture, historien et conservateur de musée, notamment de la Royal Academy of Arts.
Fig 22, 23 : : ETH de Zurich, fabrication d’une charpente en bois par des robots
Dans cet exemple, nous sommes loin de l’image classique «futuriste» d’une architecture contemporaine qui se voudrait fluide, souple et transparente.
28
Cette architecture «blob» est déjà un peu obsolète. L’enjeu est ailleurs. On voit ici que les architectes conçoivent à partir de code qu’ils utilisent directement pour «nourrir» les constructeurs de leur projet, en l’occurence des robots plutôt que des humains. On pourrait parler de déshumanisation de l’architecture cependant, cela permet finalement et contre toute attente, de reconnecter la pratique de l’architecture et de la construction, tout en remettant en avant la place de l’architecte dans le processus de
Le Generative design (ou design génératif) est une forme de design par le code qui combine l’intelligence artificielle et la créativité humaine dans le but de créer des solutions à des problèmes de conception auxquelles un humain seul ou un ordinateur seul ne serait pas capable de créer. Plutôt que de démarrer un design avec un dessin ou une forme, il s’agit de donner les enjeux et les contraintes d’un problème architectural à un ordinateur, qui va générer automatiquement, via des allers et retours successifs entre l’homme et le logiciel des dizaines de milliers de solutions.
fabrcation de son projet. On constate aussi que l’homme, à défaut d’être remplacé, travaille en collaboration avec la machine ou le robot.
Cette façon de concevoir peut être appliquée à de nombreux problèmes de design et à beaucoup d’échelles différentes allant de la conception industrielle, la conception d’un bâtiment jusqu’à la conception d’une ville entière.
Une étude du MIT a par ailleurs montré que sur les chaînes de production, les équipes composées d’humains et de machines étaient plus efficaces que celles composées uniquement de l’un ou de l’autre.
Il y a quatre phase principales dans ce processus : La phase de la génération qui permet de créer un large panel de solutions, puis la phase d’évaluation qui se fait sous la forme d’objectifs ou d’algorithmes de simulation, qui peuvent «noter» et donner des critères de
Fig 24 : Comparatif d’efficacité sur les chaînes de production
performance à chaque solution de ce panel. La troisième phase est la phase d’évolution et d’optimisation, qui induit l’utilisation d’un système intelligent, capable d’apprendre comment améliorer chaque solution, petit à petit, afin d’améliorer ses performances. Pour cela, on utilise un algorithme dit «génétique» basé sur les mêmes principes que ceux de l’évolution humaine :
29
Il séléctionne la meilleure solution parmis la première génération de réponses puis, par un processus de métissage, de sélections et de mutations, ce qui est considéré comme la meilleure solution «survit» à la prochaine génération, et ainsi de suite, afin de créer les designs les plus efficaces et optimisés possible. La quatrième étape, la phase d’exploration, est celle dans laquelle la place de l’homme prend toute son importance (bien qu’elle soit obligatoire dans les phases précédentes également) : À l’aide d’outils d’analyse, on va être capable d’identifier les «compromis» qu’à dû faire l’algorithme pour
Grâce aux avancements en generative design, aux algorithmes et à la robotique, notre manière de construire va forcément évoluer et les ordinateurs vont remplacer de plus en plus les tâches que nous effectuons.
chaque solution, en rapport avec les buts qui étaient pré-établis au tout début du processus.
d’architectes «augmentés»
Ce type de conception n’a pas vocation à remplacer l’architecte ou le designer, mais de lui donner de nouveaux outils, et notamment d’explorer des réponses à des problèmes que des hommes seuls n’auraient pas «l’ouverture d’esprit» d’explorer, pour des raisons d’automatisme, de structure et de «formattage» de nos cervaux. Plutôt que d’apporter des réponses toutes faites, ce processus permet d’inspirer le concepteur à trouver des manières différentes et nouvelles de répondre à des problèmes. La combinaison de ce type de technologies avec le machine learning pourrait en outre être extrêmement efficace.
En effet, c’est la coexistence de ces technologies qui permettrait aux architectes et aux designers, de travailler différement (mais aussi de mettre en péril leur profession s’ils continuent à refuser de s’y interresser). Des processus réalisés traditionnellement sur plusieurs mois pourraient être réalisés en une journée...On pourrait alors parler
«Nos étudiants s’insèrent dans un marché mondialisé, en Suisse, en Allemagne, aux Etats-Unis et en Angleterre. Malheureusement en France les agences d’architecture sont en retard sur les innovations. Très peu d’entre elles ont des cellules de recherche et développement ; comme c’est le cas par exemple chez Norman Foster ou Zaha Hadid Architects. Nous pensons qu’il faut dynamiter la façon d’enseigner l’architecture en France. Aujourd’hui on ne peut pas sortir d’une école d’architecture sans savoir programmer ou, au minimum, comprendre les principes fondamentaux de la computation, cela permet d’avoir une puissance opérationnelle. Mais, hélas, la tradition culturelle française assimile toujours l’architecte à un artiste. L’enseignement en Allemagne, en Hollande, en Suisse ou en Angleterre est un enseignement plus
30
technique. En France, la computation n’est maîtrisée ni par les professeurs ni par les étudiants. L’anglais, qui est la langue de l’architecture, est encore trop peu utilisée. Si on ajoute à cela une forme de technophobie, on comprend le retard français dans la fabrication numérique.» Christian Girard, «Nous pensons qu’il faut dynamiter la façon d’enseigner l’architecture en France», Le Monde, 2017 Nous sommes déjà un peu augmentés. En effet, avec un smartphone et une connexion à internet, nous pouvons avoir une réponse à des questions. Mais cela reste assez primitif. Même Siri11est juste un outil passif. D’ailleurs, tous les objets que nous connaissions depuis des millions d’années ont été complètement passifs. Ils font ce que nous leur demandons de faire et rien de plus. Même nos outils les plus avancés dans l’informatique, comme les logiciels de représentation, les tablettes graphiques, les logiciels de simulation etc, ne font rien sans nos directions explicites. Nous avons toujours dû manuellement insuffler notre volonté dans les outils que nous utilisons. Nous utilisons littéralement nos mains pour les utiliser, même pour manier une souris et un clavier.
11 Assistant personnel intelligent pour iPhone, introduit en 2011
En 1952, un ordinateur a été capable de battre un humain au morpion. En 1997, DeepBlue, l’ordinateur d’IBM a vaincu Kasparov au jeu d’échecs. En 2011, Watson d’IBM a vaincu deux participants au Jeopardy, (l’équivalent de «Qui veut gagner des millions» aux ÉtatsUnis) qui est un jeu bien plus compliqué que les échecs. En effet, Watson a dû utiliser une forme de raisonnement pour répondre, plutôt que d’utiliser une recette prédéterminée. En 2016, DeepMind AlphaGo de Google, a vaincu le meilleur joueur au monde de Go, qui est le jeu le plus complexe qui existe : Il y a plus de mouvements possibles au Go que d’atomes dans l’univers. AlphaGo a donc, pour gagner, dû développer une forme d’intuition. Il a pu développer cette intuition à force de jouer des parties de Go contre luimême des millions de fois, en apprenant lui-même de ses propres erreurs. Plus il joue, plus il est performant. En fait, les développeurs d’AlphaGo eux même ne savaient pas pourquoi AlphaGo faisait tel ou tel mouvement, certains étaient mêmes étranges sur le moment, mais finalement extrêmement bien joués. La force d’AlphaGo est d’avoir un raisonnement totalement objectif, vierge, qui n’est pas parasité par les réflexes humains naturels et ses schémas de pensée automatiques qu’il a appris depuis l’enfance. On constate que les ordinateurs passent d’un raisonnement purement logique, mathématique à une forme plus intuitive...
31
« Par intuition j’entends non le témoignage variable des sens, ni le jugement trompeur de l’imagination naturellement désordonnée, mais la conception d’un esprit attentif, si distincte et si claire qu’il ne lui reste aucun doute sur ce qu’il comprend » René Descartes, Règles pour la direction de l’esprit, Œuvres de Descartes, Levrault, 1826
Fig 25
Fig 26 : Google DeepMind Challenge Match, AlphaGo - Lee Sedol, 2016
32
III - Différentes utilisations des algorithmes et du generative design Le designer italien des années 60 Luigi Moretti, avait lui aussi l’idée que s’il connaissait les règles de l’espace dont il disposait, il pouvait les entrer dans un ordinateur et le laisser le concevoir pour lui. Il a réalisé ce projet avec un IBM 610 qui est le premier ordinateur pour particulier. Il n’avait aucune idée de ce à quoi il voulait que son stade ressemble. Il savait seulement que les personnes assises au fond du stade devaient expérimenter de la même manière le match que celles assises devant. C’est l’origine de l’architecture paramétrique italienne. Les stades sont simples à générer car ils ont une géométrie sous-jacente assez simple, en général, un rectangle. Ensuite, ils sont assez simples à générer car les spectateurs n’ont qu’ une seule tâche principale : ils veulent regarder le match.
Fig 27 : Luigi Moretti, proposition de stade pour l’exposition de l’ Institute for Operations Research and Applied Mathematics Urbanism, 1960
Le premier exemple est l’agence Antonio Citterio-Patricia Viel qui utilise les outils Dynamo et Revit afin de créer rapidement des complexes hôteliers entiers. Dynamo est un complément pour Revit, qui autorise un accès aux fonctions internes du logiciel. Il est fourni et développé par Autodesk, au format Open Source et permet d’automatiser des tâches devant s’appliquer à de nombreux éléments, d’accéder à la base de données interne, de lier des paramètres à des feuilles Excel, etc... Il est également un complément donnant accès à de la création de géométrie, avec la possibilité de visualiser et d’analyser avant de créer «en dur» la géométrie dans Revit. Ces capacités dans ce domaine autorisent un grand nombre d’itérations, par l’usage de curseurs permettant d’ajuster les valeurs des paramètres et donc de modifier la géométrie en temps réel. Dynamo est en de nombreux points similaire au complément Grasshopper disponible pour Rhino. Un hôtel est basé sur des règles très précises. Mais un hôtel doit répondre à beaucoup de besoins de la part de ses usagers. En effet, on peut y dîner, dormir, prendre un verre, avoir un massage ou y faire du sport...De plus, plusieurs types de personnes sont engagés : des employés, des clients, de la maintenance etc...Il y a aussi plusieurs types d’hôtels allant du moins luxueux au plus luxueux. Cette agence explique qu’elle utilise Dynamo pour réaliser des chambres d’hôtels, en synchonisant le logiciel à des pages Excel.
33
Fig 28, 29, 30
34
Cet autre exemple est un projet expérimental, extrait d’une thèse de Nate Holland, réalisée en 2011. Il utilise Galapagos, qui est un plugin d’optimisation pour GrassHopper. Il l’utise pour la réalisation d’un projet immobilier afin de déterminer les emplacements optimaux des vues sur la mer pour chaque appartement, aini que pour positionner des lieux de ventes au Rez-de-Chaussé, etc... L’algorithme traite toutes les informations, paramètres et contraintes afin de proposer des solutions formelles.
Fig 31
35
Il propose au travers de sa thèse, un travail conjoint entre l’ordinateur (en l’occurrence Galapagos) et le designer. Une «integrated team» comme il l’appelle, dans lequel le designer et le logiciel prennent des décisions tour à tour. Il souligne notamment la complexité croissante des projets et fait un parallèle avec la capacité des logiciels de ce type à traiter de l’information de manière hiérarchisée, très structurée et logique.
Fig 32
Le logiciel est alors capable de créer des milliers de solutions en temps réel. Il est d’ailleurs interressant de noter que ce plugin s’appelle un «solver», un solveur en Français.
36
Fig 33
Chacun des quatre plans présentés ici a été optimisé et orienté spatialement pour un objectif spécial, ici, les vues et les espaces de ventes situés au rez-de-chaussé, tout en prenant en compte l’environnement urbain, les percées offertes par les bâtiments adjacents, les ombres créées par ceux-ci, ainsi que les ouvertures sur la mer située à proximité. Par la suite, l’ordinateur est capable d’organiser en utilisant les informations programatiques, l’emplacement des espaces de vie, et de déterminer s’il doit
Fig 34
s’agir d’une pièce à une ou deux chambres, d’une suite ou d’ un studio. La limite à l’utilisation de GrassHopper et de tout programme utilisant des algorithmes pour l’architecte ou le designer est l’interface, l’ergonomie et la dimension intuitive (ou non) du logiciel. En effet, Nate Holland a utlisé l’un des seuls outils diponibes en 2011, GrassHopper, mais de manière très poussée et totalement expérimentale, pionnière pour arriver à ses fins.
37
Fig 35-36 : Etapes supplĂŠmentaires de dĂŠveloppement du projet
Fig 37 : Perspective du projet final
38
Voici maintenant des projets à des échelles plus réduites mais qui utilisent les technologies développées par Autodesk Reasearch. En l’ocurrence, il s’agit du projet Dreamcatcher .
Pour ce prototype de drone, l’utilisateur a uniquement besoin definir des règles et des contraintes du type «il y a 4 hélices» ou «il doit être le plus léger possible» et «être efficace aérodynamiquement».
Il offre la notamment la possibilité de hiérarchiser les contraintes et les buts, ce qui le différencie d’autres algorithmes génétiques et d’outils d’optimisations moins avancés.
On constate d’ailleurs que le drône ressemble beaucoup à un pelvis d’écureuil. C’est normal car l’algorithme travaille un peu de la même manière que l’évolution humaine.
Fig 38 : Modèles de drônes générés par ce procédé
Développé en collaboration avec Airbus, Autodesk et APWorks, le «Bionic Parition» est un composant d’avion en métal imprimé en 3D. Il s’agit d’un mur de séparation entre la zone des sièges et la cuisine d’un avion. Elle constitue un composant difficile à concevoir en raison de ses exigences fonctionnelles et structurelles complexes. Elle est créée par une combinaison de conception générative, d’impression 3D et de matériaux avancés et est près de 50% plus légère que les conceptions actuelles tout en étant plus solide.
Fig 39
39
Fig 40, 41, 42, 43 : Impression 3D et étapes de génération du mur de séparation
40
Cet autre exemple est particulièrement interressant car l’élément humain et sa capacité à «expérimenter la réalité» y est essentielle. Il s’agit d’ un prototype de châssis de voiture, qui a été conçu grâce à un «système nerveux». Cette voiture est destinée à réaliser des cascades, qui soumettent sa mécanique à très rude épreuve. L’idée est d’utiliser un châssis de voiture traditionnel et d’y poser plusieurs milliers de capteurs, puis de le confier à un pilote professionel qui va conduire avec dans le desert pendant une semaine complète. Les capteurs ont pu mesurer 4 milliards de données à partir des forces appliquées aux matériaux et à leur résistence. Toutes ces données ont ensuite été injectées dans une I.A appelée Dreamcatcher afin de créer le «châssis ultime».
Fig 44
Ce logiciel de conception générative utilise ce que les ingénieurs appellent le machine learning. Instrument majeur de la boîte à outils des concepteurs, cette technologie permet d’esquisser les possibilités structurelles en même temps qu’elle analyse leur comportement. En pratique, elle permet donc de résoudre les problèmes et d’améliorer le concept. « Alliée au traitement des données sur le cloud, la conception générative surclasse le cerveau humain, ce qui permet à chacun de se concentrer sur leur savoir-faire », déclare Felix Holst. Ainsi, l’équipe a étudié les itérations pour construire un nouveau prototype destiné à d’autres essais et au perfectionnement du modèle. En réalité, grâce à l’apprentissage automatique, le véhicule participe à sa propre conception au fur et à mesure des essais. Autodesk, Felix Holst, co-fondateur du projet Hack Rod
Fig 45 : châssis généré
41
Ici, l’algorithme utilise une manière différente de générer du design : Il cherche à «s’inspirer» de projets déjà existants . Il s’agit d’un projet réalisé à Hardturm à Zurich en 2006-2007. Les auteurs ont rassemblé les typologies d’appartements construits dans les vingt années précédentes puis les ont ajustées au volume par un processus automatisé de sélection et d’ajustement qui tire le meilleur avantage de la situation géométrique pour optimiser certains critères (ensoleillement, exposition au bruit, circulations, etc.) « En supposant que tout a déjà été inventé en termes de typologies d’appartements, les informaticiens collectent simplement les plans d’appartements de 2.5, 3.5 et 4.5 pièces couramment utilisés dans la région zurichoise. Ceux-ci sont ensuite traduits dans un langage informatique qui les décrit en termes géométriques (périmètre, surfaces) et topologiques (interdépendance entre les pièces), indique les conditions d’accès (position de la porte d’entrée) et calcule l’apport en lumière naturelle. Avec ces paramètres, chaque typologie peut être automatiquement adaptée morphologiquement à n’importe quelle situation du plan d’étage. » Marc Frochaux, espazium.ch, 2017
Fig 46, 47, 48
42
Le projet le plus poussé et abouti actuellement est sans doute celui du bureau d’Autodesk à Toronto. Le projet s’appelle «MaRS Office» et est un espace de recherche et de travail qui compte 300 personnes.
Fig 49
La conception générative appliquée à l’architecture reprend les mêmes principes
Pour ce faire, l’équipe de David Benjamin, fondateur du studio de recherche The Living,
que celle utilisée pour le design d’objets manufacturés, mais les buts et contraintes appliqués au projet sont plus complexes.
a collecté un grand nombre d’échanges avec les utilisateurs et réalisé des sondages afin de réunir un ensemble d’informations, comme leurs préférences en termes d’environnement de travail, leur proximité avec d’autres équipes, celles avec lesquelles ils collaborent etc...
La première étape du projet a été de récupérer des données, le but étant de créer un design qui crée la meilleure expérience humaine possible.
43
La deuxième étape a été d’établir les objectifs. Six objectifs différents ont été choisis, objectifs mesurables, qui doivent
Fig 50
permettre de fabriquer un espace agréable et favorisant le travail.
Fig 51
Le premier objectif est l’agencement, c’està-dire minimiser les distances entre les équipes qui travaillent en collaboration et leurs équipements préférés. Le second objectif est celui des préférences individuelles en terme d’espace de travail,
c’est à dire adapter chaque espace à l’envionnement lumineux et acoustique préféré de chacune des équipes. Le troisième objectif est celui de maximiser l’accès aux espaces communs à travers les mouvements des équipes individuelles et collectives.
44
Le quatrième objectif est celui de là productivité, c’est à dire minimiser la distraction visuelle et auditive. Le cinquième objectif est celui de la lumière naturelle, c’est à dire maximiser l’entrée de lumière à l’intérieur des bureaux.
Le sixième et dernier objectif est celui des vues vers l’extérieur, c’est à dire maximiser les vues vers l’extérieur depuis les tables de bureau et les passages de circulation.
45
Fig 52, 53, 54, 55
La troisième étape a été d’établir des contraintes, ici, un des trois étages sur lesquels
La quatrième étape est celle de l’automatisation, l’étape «magique» qui
l’équipe a travaillé. La zone hachurée est une zone fixe (ascenseurs, escaliers etc...), tandis que la zone en noir est la zone sur laquelle l’équipe a pu expérimenter la conception générative.
permet de résoudre les problèmes posés dans les premières étapes. L’ordinateur a généré, évalué et produit plus de 10000 solutions.
46
Fig 56, 57
Une force de ce mode de conception est que l’espace n’est pas figé une fois qu’il a été construit. En effet, même s’ il s’agit d’un design généré à partir de données complexes, ces données peuvent être réutilisées après. Par exemple, si une équipe se réorganise ou si une nouvelle équipe arrive, l’espace peut être réorganisé très rapidement. Il suffit d’injecter les nouvelles données dans le logiciel, qui va suggérer de nouvelles manières d’aménager l’espace. Il est aussi possible, au fil du temps, d’affiner les algorithmes en fonction des retours d’expérience des utilisateurs qui vivent dans l’espace construit.
47
Fig 58, 59, 60
48
Interview d’Aymeric de La Bachelerie et de Rémi Babut, membres de l’agence Franck Boutté Consultants et de l’équipe du projet MESH
Aymeric de La Bachelerie
Franck Boutté consultants est une agence spécialisée dans la conception et l’ingénierie environnementale.
Rémi Babut
ACV, certifications environnementales françaises et étrangères, etc.) et intervient à toutes les échelles.
Depuis sa création en 2007, l’agence est composée d’une équipe aux profils hybrides (30 collaborateurs), ingénieurs, architectes et urbanistes, répartis entre Paris, Bordeaux et Nantes. Elle couvre un large spectre de disciplines et de compétences (bioclimatisme et stratégies passives, confort, ambiances, santé, optimisation des ressources, de l’énergie, de l’eau, conception des enveloppes, ventilation naturelle, modélisation et simulation, énergies renouvelables, approche carbone et
Fig 61 : Consultation Internationale du Grand Paris, 2012
49
L’agence est située au 43bis Rue d’Hautpoul à Paris, dans le 19ème arrondissement.
Fig 62, 63
50
Qu’est-ce que MESH ?
Quels-sont vos parcours scolaires respectifs ?
Aymeric : Le projet Mesh est en réalité terminé, mais nous allons continuer à l’appliquer comme méthodologie à des projets futurs de l’agence. L’objectif était de faire de la morphogenèse urbaine avec une idée de performance environnementale. MESH est un projet de recherche qui est cofinancé par l’Ademe et par l’agence Franck Boutté. Il y a aussi un laboratoire d’urbanisme, qui s’appelle le Lab’Urba, composé de chercheurs de l’université ParisEst et de l’école d’ingénieurs de la ville de
Aymeric : Je suis d’abord ingénieur : J’ai fait l’École centrale Paris puis j’ai fait un double diplôme en architecture à l’école EDA Politecnico di Milano. J’ai ensuite fait un peu d’architecture : j’ai travaillé un mois dans une agence en Italie puis un mois à Paris pour ensuite entrer dans l’agence de Franck Boutté dans laquelle je travaille depuis maintenant 3 ans.
Paris. Il y avait aussi Francisco Cingolani qui est un spécialiste de la conception paramétrique et enfin la SADEV 94. Pour ce qui est de l’agence, nous intervenons comme bureau d’études au service d’architectes ou d’urbanistes. Une partie de l’agence travaille plutôt à l’échelle architecturale et une autre à l’échelle urbaine et territoriale. Nous ne tenons jamais le crayon mais nous influençons les décisions des architectes et urbanistes.
d’urbanisme à l’école des ponts et chaussées, spécialisé dans l’aménagement. Je suis ensuite venu travailler dans l’agence au cours de la première année de MESH.
Rémi : Je suis aussi ingénieur à la base: En dernière année, j’ai fait un master
Le projet MaRs d’Autodesk est le projet le plus avancé en termes d’utilisation de l’intelligence artificielle pour la conception que j’ai trouvé. Le connaissez-vous ? Aymeric : Oui je connais bien ce projet : Il a été fait par la cellule de computational design d’Autodesk avec un moteur d’allocation spatiale. Ils utilisent des concepts assez courants de space syntax pour faire de l’allocation spatiale. Efficacity fait ça en France aussi à un niveau un peu plus simplifié. Zaha Hadid a aussi travaillé avec le design computationnel pour dessiner des espaces dans un musée à Londres, avec des algorithmes et une base de données.
51
Fig 64, 65, 66 : Science Museum de Londres, Zaha Hadid, 2014
52
Y’a t-il d’autres agences, centres de recherche ou bureaux d’études qui utilisent ce mode de conception en France ? Aymeric : Il y a plusieurs états de l’art sur le thème de l’intelligence artificielle appliquée à l’architecture qui sont super intéressants: le MAP-Aria qui est un laboratoire spécialisé à l’école d’architecture de Lyon et qui travaille sur ces questions de design génératif, avec Xavier Marsault notamment. Cependant, le «rêve» d’une architecture qui serait complètement générative n’existe pas encore : Les moteurs d’allocation spatiale ont beaucoup de problèmes : Un de nos collègues architectes qui a travaillé avec Efficacity et dont le rôle était de surveiller ce que faisaient les algorithmes s’est heurté à des difficultés car le logiciel n’arrivait pas à résoudre tous les problèmes qu’on lui imposait. L’idée que la ville pourrait se constituer de manière générative, certains y pensent, certains en rêvent et fantasment dessus, mais on n’y est pas encore.
Dans le cadre de mon projet de diplôme, je réhabilite une ancienne halle sur l’îlot 4G du projet Ivry-Confluences. C’est d’ailleurs grâce à cela que j’a découvert MESH. Aymeric : Oui, nous avons travaillé sur l’îlot 4G, la construction neuve, portée par l’agence Nicolas Michelin. Nous avons surtout travaillé sur l’enveloppe et l’aspect urbain. L’objectif principal était de définir des préconisations morphologiques et des gabarits sur ces îlots. Certaines préconisations seront intégrées, ou non à la fiche de lot. Nous avions des indicateurs de performance environnementale que l’on calculait : le confort thermique, le confort visuel, la solarisation, le confort acoustique, la gestion des eaux, la marchabilité, la connectivité...
Fig 64
53
Fig 65 : Implantation du projet de MESH sur la parcelle d’Ivry Confluences
Fig 66, 67
54
Il fallait ensuite définir une série d’indicateurs qui soient calculables à cette échelle, qui ne prennent pas trop de temps à être modélisés et qui soient pertinents. Il s’agissait de les optimiser avec des algorithmes génétiques (une forme d’intelligence artificielle) dans un dialogue avec les urbanistes. Sur Ivry Confluences, c’était notre terrain d’expérimentation: Nous avons traité deux ilots, 4G et 3I-3N. Sur ces deux secteurs, nous avons essayé de paramétriser les formes et les intentions urbaines que Nicolas Michelin et François Leclerc nous avaient donné.
Puis au bout de N itérations, avec les algorithmes génétiques, on peut sortir tout une série de formes dites “optimisées” sur la base desquelles un choix va être réalisé. On pourrait partir de rien dans l’absolu ? Rémi : On peut contraindre moins ou modéliser plus grossièrement, avec plus de degrés de liberté. Une méthode simple consiste à modéliser avec des voxels, c’est un peu comme des pixels en 3D
Vous aviez déjà des esquisses dans ce cas ? Rémi : Nous avions des esquisses de niveaux différents, notamment une première 3D de Nicolas Michelin. Nous avions analysé les intentions sous-entendues par cette 3D pour paramétrer une forme et en se donnant des degrés de liberté afin de faire varier des hauteurs ou des emprises. Sur le cas de 3i3N nous travaillions directement avec eux dès le début du projet. Ils savaient comment placer les masses mais ils n’avaient rien dessiné. Aymeric : Dans chaque projet, il y a une série de contraintes et de variables. Elles définissent des points de repère et des grandes masses de programme à allouer. Ici par exemple, on va calculer les vues sur la Seine, sur le parc etc...
Fig 68 : Série de voxels empilés
On pourrait imaginer modéliser au début avec des voxels de 20m sur 20m, ce qui permettrait de répartir les grandes masses, puis de creuser à l’intérieur de chacune des grandes masses avec des voxels de 5m sur 5m puis peut-être 1m sur 1m à la fin. C’est une façon de faire quand on ne part de rien.
55
Fig 69
56
Aymeric : Nous avons travaillé sur un projet, avec l’agence François Leclerc egalement, sur lequel nous sommes partis du minimum possible. Il s’agit du projet de l’extension du Port de la Grande Motte
Quels logiciels utiliez-vous ? Aymeric : À l’agence, on utilise surtout Rhino et Grasshopper. (je lui ai ensuite montré la thèse de Nate Holland présentée plus haut) Depuis 2011 il y a eu un certain nombre d’évolutions, par exemple, Octopus est l’équivalent multicritère de Galápagos qui ne fait que du monocritère. Il y a aussi beaucoup de logiciels d’optimisation comme Goat, Opossum, Biomorpher...on utilise aussi des logiciels spécialisés comme des moteurs de calcul CFD (computational fluid dynamics) comme UrbaWind (l’équivalent d’Autodesk Flow Design) et des logiciels de simulation thermique dynamique comme DesignBuilder ou encoe ArchiWIZARD.
Fig 70 : Axonométrie du projet
Rémi : On ne peut pas tout quantifier, il y a un certain nombre de “performances”, qui sont incorporées de façon implicite dans la façon de modéliser et qu’il est très long d’expliciter. Que ce soit en modélisant des petites tours, des grands serpents ou avec des voxels, on préfigure la forme urbaine. Certains paramètres ne sont pas quantifiables ou alors sont très difficiles à quantifier, c’est pour cela que ce n’est pas intéressant de le faire. Aymeric : Lorsqu’on a un terrain, on se reconnecte avec un tissu urbain. Nous n’avons jamais utilisé ces outils en rase campagne ou il n’y a rien du tout. Ici, nous avons croisé des questions d’accessibilité et de marchabilité avec des questions de perméabilité et de porosités aérauliques.
J’ai trouvé cette pétition qui met en garde les architectes contre le pillage des données qui seraient organisé par Autodesk. Aymeric : Je savais qu’Autodesk faisait du generative design mais je n’étais pas au courant qu’ils utilisaient le deep lerning pour réutiliser des données stockées sur le cloud.
57
Vous pensez que tout cela représente un risque pour la profession d’architecte ? Rémi : Nous fonctionnons encore beaucoup par étapes, et certains paramètres comme le PLU, l’histoire du site etc... sont pour le moment impossibles à intégrer dans les logiciels. C’est pour cela que cet absolu du tout informatique est un peu vain car le mode de travail a fait que nous avons besoin que tous les acteurs avancent en se basant sur un ensemble d’éléments fixes. Aymeric : C’est même plus efficace comme ça. Imaginons que toutes les villes soient extrêmement génériques, il serait bien de passer du temps à définir des contraintes de PLU qui seraient génériques pour l’ensemble des villes : À ce moment-là nous pourrions réutiliser ce même algorithme pour plusieurs scénarios. Ce temps passé pourrait ensuite alors être rentabilisé et réutilisé par tous les designers. Comme dans ces cas-là nous sommes sur des sites différents, l’humain est plus rapide et plus intelligent pour s’imposer quelques contraintes. Ou alors il faudrait un lecteur de PLU qui intègre les contraintes...mais nous trouvons qu’il y a quelque chose de plus intéressant à hybrider les approches humaines avec les outils d’aide à la décision. Rémi : Il faut vraiment voir cela comme un outil. Nous avons rencontré pas mal d’architectes qui sont un peu réticents à
tout ça car ils ont l’impression qu’ils vont se faire remplacer...mais personnellement je vois beaucoup plus cela comme une évolution du métier d’architecte qui est un peu inéluctable. C’est comme s’il y a 30 ans, les architectes s’étaient battus contre l’arrivée d’Autocad parce qu’on était en train de remplacer le savoir-faire de l’humain qui trace au T. Aujourd’hui, nous avons déporté les enjeux de la construction de la forme, notamment vers la performance environnementale. On se dote de nouveaux outils qui nous permettent d’être plus efficaces dans la création de formes performantes. Le temps qui est passé par l’architecte à se demander s’il a bien disposé ses loggias pour que le soleil entre dans ses pièces, le logiciel va en faire une bonne partie tandis l’architecte lui, pourra se concentrer sur les tâches plus importantes. Mais globalement, le problème, c’est que si les architectes ne s’approprient pas ces outils, c’est là qu’ils seront dépossédés et ne seront plus capables de suivre et de s’appuyer sur ce que propose l’intelligence artificielle. De toutes façons, cela va arriver et il y aura forcément des clients pour ça...
58
Conclusion Si même les machines deviennent intuitives, que reste t’il donc à l’homme ? En parrallèle à cette «rigueur logique» absolue, on peut se poser la question de la place du hasard, de l’imprévu et du «chaos» au sein du projet d’architecture. D’autres notions comme l’humour, la dérision, (le post-modernisme) ne sont pas comprises dans ce type de pratique purement logique. On remarque dans les projets de grandes agences comme MVRDV ou BIG, qu’il y a une part de folie, de dérision, de paradoxe volontaire, d’humour.
Les grands projets d’architecture, les projets qui marquent, comportent parfois une forme de caprice de la part de l’architecte qui les ont conçus, mais qui finalement, donnent un résultat probant, tout en défiant un peu la logique. C’est peut être encore dans le domaine de la dérision, de l’art, de la subtilité et des clins d’oeils architecturaux que l’on peut encore sortir son épingle du jeu. Nous pourrions aussi donner l’exemple du «Kintsugi» qui est une méthode japonaise de réparation des porcelaines ou céramiques brisées au moyen de laque saupoudrée et de poudre d’or. L’imperfection du bol, devient alors une qualité, une valeur ajoutée par rapport à un bol neuf.
Fig 71 : The Imprint, MVRDV, Incheon, South Korea, 2018
Fig 72 : Amager Bakke Rooftop Park – SLA – BIG – Copenhague, 2018
Fig 73, 74 : Le kintsugi (« jointure en or ») ou kintsukuro (« réparation en or »)
59
Les très grosses entreprises comme Autodesk ou les GAFA (Google, Amazon, Facebook, Amazon) qui sont les entreprises les plus à la pointe sur les technologies liées à l’I.A ont une politique très «mondialisée». Se pose alors le problème de voir s’ériger des monopoles encore plus importants ainsi que le risque d’assister à une réduction de la pratique architecturale à une simple vision capitaliste des lois de l’offre et de la demande, décomplexée encore davantage par l’automatisation des processus de conception.
ancrées profondément en nous et dans notre subconscient. « Ce n’est ni avec un pinceau, ni avec le crayon que l’on dessine, c’est avec l’intelligence; L’outil ne fait rien à l’affaire, le mécanisme de la main n’est même qu’accessoire et tout artiste qui ne dessine pas dans son cerveau, si adroite que soit sa main, ne sera jamais qu’un pantographe » Violet Le Duc à propos de l’enseignement des arts et du dessin Il est aussi intérressant de noter le côté
L’anthropologue américain Edward T. Hall, connu pour avoir introduit le concept de proxémie, dit que la manière dont nous percevons la moprhologie urbaine se fait de manière inconsciente, et se fait différement selon les cultures. Cette perception serait aussi selon lui liée à la structuration du langage. Il explique aussi dans La Dimension cachée, p202-221, en 1971, que l’inadaptation des structures urbaines et architecturales à certains groupes sociaux serait l’une des raisons principales des troubles sociaux urbains. Ce qui fait la qualité et les goûts architecturaux est donc aussi emprunt de
«organique» qu’ont les objets créés par les logiciels de design génératif notamment. En effet, alors qu’on aurait tendance à réduire ce qui est issu des machines à quelque chose de froid et d’anguleux, on voit apparaître des formes et des structures se rapprochant davantage de ce que l’on pourrait retrouver dans la nature. Par ailleurs, l’impression 3D, la robotique et l’I.A pourraient permettre de modifier la manière dont nous concevons les édifices en leur apportant un côté modulable La rapidité d’éxecution et l’efficacité de ces outils remettent en question le rapport que nous avons vis-à-vis du cycle
culture et de traditions. Cependant, comme évoqué plus haut, plutôt que de voir un danger dans l’intelligence artificielle, il faudrait en tant qu’humains (et c’est inéluctable car son évolution rapide semble inarrétable), la considérer comme un outil, qui aurrait cette possibilité de créer une esthétique nouvelle, affranchie de ces idées culturelles préconçues, qui sont
de vie classique des bâtiments qui sont construits aujourd’hui. C’est d’ailleurs une problématique extrêmement importante en ces temps de crise écologique, et des urgences sociales qui en découlent. La question du réemploi des matériaux est aussi centrale.
60
Maurice Contti , designer et futuriste, annonce lors d’une conférence TEDxPortland en 2017 que nous allons basculer vers un monde dans lequel les choses ne seront plus fabriquées (fabricated) mais cultivées (farmed), dans lequel les choses ne seront plus construites (constructed) mais qu’ on les fera pousser (grown). Sur un plan philosophique, l’humanité a toujours cherché à aller au delà de ses capcités «to expand our reach» comme le répète Ray Kurzweil12. On pourrait argumenter, à l’heure où l’on
« Dans quelques décades, l’intelligence des machines surpassera l’intelligence humaine, conduisant à la Singularité un changement technologique si rapide et profond qu’il représente la fusion de l’intelligence biologique et non-biologique, des hommes logiciels immortels et des niveau d’intelligence ultra-élevés qui se propagent dans l’univers à la vitesse de la lumière » Ray Kurzweil, The Law of Accelerationg Returns, 2001
reproche au mouvement moderne d’avoir donné naissance à des «cages à lapin» ou à des «barres d’immeubles» déshumanisées (mais duquel sont issues toutes les recherches sur la méthodologie du design, et jusqu’à un certain point les bases de ce qui a donné aujourd’hui la conception générative), que l’on retrouve une forme de spiritualité dans cette envie de dépasser les capacités humaines et à tendre vers quelque chose qui nous dépasse. Les mathématiques ont en cela quelque chose de spirituel, qui est inhérent à la pratique de l’architecture depuis les Grecs jusqu’à aujourd’hui.
Fig 75 : Couverture du magazine Time annonçant l’immortalité pour l’an 2045
12 Informaticien américain, créateur de plusieurs entreprises pionnières dans le domaine de la reconnaissance optique de caractères. Il est l’un des théoriciens du transhumanisme et de la singularité technologique. Il est depuis 2012 directeur de l’ingénierie chez Google.
62
« Nul ne met en doute que nos capacités inventives soient limitées, il faut un moyen de réduire le fossé entre les faibles capacités du créateur et la grandeur de sa tâche. Quelle attitude les architectes vont-ils adopter devant l’accroissement du nombre de constructions auxquelles ils n’ont pas pris part (95%) ? Dans les deux prochaines décades le nombre de ces constructions élévées à la surface du globe va doubler ! En fait l’architecture se fait en dehors de la profession. Notre société occidentale est motivée par la notion de profit. General Motors et la Banque des Pays-Bas ne sont pas loin de faire l’architecture, sans architectes, puisque cela semble être leur intérêt. Une nouvelle conscience et une nouvelle attitude doivent êter développées par l’architecte envers les derniers raffinements de la technologies et envers l’évolution sociale. Explosion technologique et explosion démographique impliquent un changement dans l’échelle de sa tâch et aussi un changement dans sa fonction sociale. Le rôle et la fonction de l’architecte sont devenus infinement complexes et importants : la création d’une nouvelle et meilleure façon de vivre, d’apprendre, de communiquer. La conception d’un “bon travail” réalisé uniquement par la combinason de l’intelligence, du savoir faire, du bon goût ou de l’intuition d’un homme n’est plus adéquate. Il y a trop de variations “réussies” du même type d’objet. Ce qu’il nous faut en fait ce sont des écoles, des hôpitaux, des villes qui ne soient pas anarchiques et des usines qui ne soient pas malsaines. Les cheminements traditionnels du processus de création et du processus de réalisation architecturale ne sont certainement plus adaptés, il suffit de regarder autour de soi. La conception de “l’architecte” comme un don personnel acquis par une succession d’erreurs sous la direction d’un maître n’est plus de mise dans le système de formation. L’architecte doit s’engager dans la domination du calcul électronique et par suite de l’intelligence artificielle pour se forger de nouveaux outils et améliorer sa compréhension du monde d’aujourd’hui et de demain. Dans “Architectural Record” Marshall Mc Luhan prophétise ce que sera l’architecte de demain “The artist leaves the ivory tower for the central tower, and abandons the shaping of art in order to program the environment itself as a work of art” » Gérard Courtieux, «Vous n’y pouvez rien, petite histoire de l’architecte et du robot», 1969
63
Fig 76 : «Un jour, votre ordinateur peut devenir une cible.», Publicité de Cobis, Belgique, 2006
64
Bibliographie LIVRES ALEXANDER C., CHERMAYEFF S. (1965), Community and privacy: Toward a New Architecture of Humanism, Mass Market Paperback, 255p. ALEXANDER C., ISHIKAWA S., SILVERSTEIN M., JACOBSON M. (1977), A Pattern Language: Towns, Buildings, Construction, Oxford University Press, 1171p ALEXANDER C. (1964), Notes on the Synthesis of Form, Massachusetts, Harvard University Press, 224p. ALEXANDRE L. (2017), La guerre des intelligences, JC Lattès, 339p. GANASCIA J-B. (2017), Intelligence artificielle, vers une domination programmée ?, Le Cavalier Bleu éditions, 215p HALL E.T (1966), The Hidden Dimension, Paris, 254 p. HOLLAND N. (2011), Thèse, Inform Form Perform, University of Nebraska-Lincoln, 139p KURZWEIL, R. (2006), The Singularity Is Near : When Humans Transcend Biology, Penguin Books, 672p. NEGROPONTE N. (1973), The Architecture Machine Toward a More Human Environment, Massachusetts, MIT Press, 164 p. NEUFERT E. (2014), Les éléments des projets de construction - 11e édition, Dunod, 648p. SIMON H. (1969), The sciences of the Artificial, Massachusetts, MIT Press ,464 p.
65
REVUES BERNHOLTZ A. (1966), « Computer-Augmented Design », Design Quarterly issue vol. 66/67 BORILLO M., GOULETTE J-P. (2003) « Lorsque dire c’est concevoir : vers une approche cognitive des processus de composition architecturale » D’A. D’Architectures num. 131, pp.16 CHRISTIAN M. (2007), « L’architecte électronique : de l’automatisme à l’interactivité, ou l’intelligence artificielle et l’architecture entre 1960 et 1990 », FabricA COURTIEUX G. (1969), « Vous n’y pouvez rien, petite histoire de l’architecte et du robot », Nouvel Environnement de l’Homme num. 145 QUINTRAND P. (2014), « Paul Quintrand, l’informatique et la recherche architecturale », Les cahiers de la recherche architecturale num. 23, pp. 9 QUINTRAND P. (1998), « Informatique et savoir architectural », Colonnes, hors série numéro 1, pp. 33 «Architecture en réseau et minimalisme cartésien», L’Architecture d’aujourd’hui, no 327, 2000 Techniques et Architecture ,supplément n° 2 / 34, 1971
66
INTERNET Autodesk, Hot-rodders pioneer a new manufacturing revolution, https://www.autodesk.com/ customer-stories/hack-rod Autodesk University, BIM for Hotels: Revit Automation for Rule-Based Spaces, https://www. autodesk.com/autodesk-university/class/BIM-Hotels-Revit-Automation-Rule-BasedSpaces-2016 Espazium, Vers une architecture automatique?, https://www.espazium.ch/vers-unearchitecture-automatique, 2017 Deezen, Post-digital architecture will be rough, provisional and crafted by robots, https://www. dezeen.com/2018/12/12/post-digital-architecture-owen-hopkins-opinion/, 2018 The Living, http://www.thelivingnewyork.com/ Le Monde, Morgane Tual, Comment le « deep learning » révolutionne l’intelligence artificielle, https://www.lemonde.fr/pixels/article/2015/07/24/comment-le-deep-learning-revolutionne-lintelligence-artificielle_4695929_4408996.html, 2016 Le Monde, Christian Girard et Philippe Morel, Nous pensons qu’il faut dynamiter la façon d’enseigner l’architecture en France, https://www.lemonde.fr/campus/article/2017/06/24/ nous-pensons-qu-il-faut-dynamiter-la-facon-d-enseigner-l-architecture-enfrance_5150594_4401467.html, 2017 Medium, Molly Wright Steenson, https://medium.com/s/story/ai-needs-new-clich%C3%A9sed0d6adb8cbb, 4 juin 2018 Mesh, http://mesh-research.com/ Nvidia Developer, Deep Learning, https://developer.nvidia.com/deep-learning Usine nouvelle, Autodesk lance (enfin) son logiciel de design génératif, https://www.usinenouvelle.com/editorial/autodesk-lance-enfin-son-logiciel-de-designgeneratif.N557153
67
Royal Academy of Arts, A visit to the Genoa studio of architect Renzo Piano, https://www. royalacademy.org.uk/exhibition/renzo-piano, 2018 Vimeo, Paul Quintrand : l’image de synthèse au GAMSAU (1969-1995), https://vimeo.com/66517070 Wikipédia, GAMSAU, http://histoire3d.siggraph.org/index.php/GAMSAU YouTube, Introduction au machine learning : des algorithmes à la pratique - David Bessis à l’USI, https://www.youtube.com/watch?v=_w4OOhlv7Hk, 2014 « Autodesk-Pillage organisé des prestations intellectuelles des architectes », pétition de l’UNSFA, 21 février 2018