9 minute read

INTRODUCTION

Next Article
PARTIE II

PARTIE II

Depuis quelques années maintenant, notre monde connait l’explosion du développement des Intelligences artificielles qui sont aujourd’hui partout : « Just above your smartphone keyboard lives an artificial intelligence. It was trained on lots of texts and emails, and tries to guess what you’ll type next » 1 . Ces intelligences artificielles ne cessent d’être améliorer, d’évoluer, mais l’enjeu qu’elles poursuivent remonte déjà à une vingtaine d’année…

Le 11 Mai 1997, Garry Kasparov (un champion du monde d’échecs) affronte Deep Blue, un supercalculateur conçu par IBM avec en mémoire une base de données de plusieurs millions de parties. Après pas plus de deux minutes de jeu, l’un des plus grands joueurs d’échec de tous les temps abandonne face à l’Ordinateur. L’humanité assiste pour la première fois à la possibilité que l’ordinateur la surpasse (Depardieu G. et T. MARTIN, 2018). Pourtant, dans le milieu de l’architecture, dès les années 80, l’émergence de logiciels comme les CAO (conception assistée par ordinateur, qui voient le jour dans les années 60) vient déjà poser des questions sur le métier. En effet, certains logiciels sont déjà capables à partir de « critères » simples : un programme et certains souhaits des commanditaires (tel qu’une surface minimale pour une pièce ou un fort taux d’apport lumineux) de proposer des plans répondant à cette demande sans réel besoin de l’architecte. Le premier logiciel de ce type est Urban 5 édité entre 1966 et 1968. Il a été mis au point par l’architecte Nicholas Negroponte à l’IBM Cambridge Scientific Center : « Urban 5 a été imaginé comme un véritable automate au service des usagers. Un système interactif permet à l’utilisateur de « jouer » avec une machine capable de dialoguer avec lui dans une langue compréhensible ! Le concepteur positionne ses cubes sur un écran en ayant au préalable définit des contraintes, par exemple d’ensoleillement ou de proximité. Urban 5 interprète les actions du concepteur, signale les erreurs, les incompatibilités avec les objectifs entrés dans la machine au début de la séance de travail. Il aide l’urbaniste à trouver une solution, ou signale qu’à « son grand regret », il n’y en n’a pas ! Le système évolue et s’adapte aux progrès de l’utilisateur : Plus ce dernier est familier avec le système, plus celui-ci prend en compte ses habitudes, son temps de réponse, ses hésitations, etc. » (Morandi C., 2010)

L’architecte possède donc déjà, avant même les années 70 un outil capable de concevoir une esquisse de projet sans lui. Si l’architecte sollicitait l’ordinateur, lui disant qu’il voulait faire une maison, Urban 5 lui répondait et proposait une trame pour le projet (ibid.).

1 Phrases d’introduction du court-métrage Sunspring (Sharp O. et Benjamin, 2016) Traduit de l’anglais : « Juste en dessous du clavier de votre téléphone vit une intelligence artificielle. Elle a été entrainée sur de nombreux messages et e-mails, et essaye de deviner ce que vous voulez écrire »

Pour aller plus loin, il est pertinent de s’intéresser à Paul Quintrand, « professeur à l’École d’architecture de Marseille-Luminy de 1967 à 1994 (…) il y fonde le GAMSAU en 1969, laboratoire de recherche pionnier en matière d’utilisation des outils de conception assistée par ordinateur en architecture » (Ministère de la Culture - DRAC PACA, 2010). Ce dernier, en 1970, avec son équipe de chercheurs, développe le logiciel 3.55, qui ressemble fortement à Urban 5 dans son fonctionnement, mais qui va bien plus loin. Ce logiciel permet d’organiser l’espace de la maison à partir de modules carrés de 3,55m de côté. La maison doit potentiellement être évolutive. « Il s’agit d’un processus méthodologique rigoureux » (Morandi C., 2010). Le logiciel a besoin de données que seul le(s) futur(s) usager(s) est(sont) en mesure de définir. Pour cela, l’architecte doit consulter ces usagers, aller à leur rencontre et dialoguer avec eux afin de « préciser leurs besoins et leurs désirs. (…) Une fois ces données entrées dans un programme informatique écrit spécialement pour le 3.55, il est possible de « sortir » sur une imprimante alphanumérique des schémas d’organisations spatiales répondant aux choix initiaux des usagers » (Morandi C., 2010, p.159-160). En 1980, l’accent est mis sur l’utilisation de l’ordinateur, de la CAO en particulier, et la volonté est de lui donner un rôle plus important : « l’intelligence artificielle en architecture consiste désormais à concevoir un « système expert » ayant intégré une partie des connaissances métier et capable de seconder un architecte. » (ibid., p.164). Ce genre de logiciels CAO résulte en logiciels qui aident aux calculs des apports solaires, de l’orientation optimale des bâtiments en milieu urbain ou encore des simulations thermiques pour sa consommation optimale en énergie, etc… Toujours est-il que les connaissances en informatique de l’époque étaient bien moindres, on assistait aux débuts de la technologie, ses premiers pas en quelques sorte. Il apparait donc logique que ce ne soit qu’à partir des années 2000 qu’elles se soient réellement démocratisées et surtout, perfectionnées à l’instar d’un développement cellulaire qui se subdivise et ainsi se développe de manière exponentielle ! En 1956, Marvin Lee Minsky (chercheur au MIT) et John McCarthy (chercheur à Stanford) définissaient l’intelligence artificielle comme suit : « Tout programme informatique qui accomplit des tâches normalement réservées aux Hommes du fait de leurs capacités intellectuelles. Il s’agit d’un programme sensé être doté de facultés comme l’apprentissage ou l’adaptation, et même d’une forme de raisonnement ». La plupart des logiciels actuels et la quasi-totalité des logiciels post XXIe siècles ne semblent pas tout à fait correspondre à cette définition. En effet, ils ne sont tout-au-plus programmés que pour résoudre de manière « logique » (en son sens purement mathématique) pour répondre à tous les critères. Le

logiciel ne raisonne pas, il arrange, il ordonne simplement à partir de schémas types qu’on lui a procurés comme base de données. Il ne pourra donc pas prendre « d’initiative » : si une configuration ß entre deux éléments ne lui a jamais été donnée, il ne pourra en aucun cas proposer un résultat comportant la configuration ß. Cette prise d’initiatives, qui requalifierait ces logiciels en I.A. est la notion de curiosité : « In many real-world scenarios, rewards extrinsic to the [A.I.] are extremely sparse, or absent altogether. In such cases, curiosity can serve as an intrinsic reward signal to enable the agent to explore its environment and learn skills that might be useful later in its life » 2 (Pathak D., P. Agrawal, et al., 2017). Cette notion exprime que pour pouvoir prendre des initiatives, il faut « l’obliger » à être curieuse et proposer des solutions qu’elle n’est initialement pas sensée proposer, quitte à proposer une solution erronée. L’idée de cette méthode est, suite à une quantité pharaonique d’erreurs, d’en arriver à ladite solution ß sans lui avoir préalablement appris la configuration ß. On en arrive à une démarche s’apparentant bien au schéma humain qui, depuis des générations apprend par le système essai-échec. En 2016, AlphaGo, un programme mis au point par Google bat le troisième joueur mondial du jeu de Go. Là où Deep Blue connaissais toutes les configurations possibles du jeu d’échec, la complexité du jeu de Go ne permettait pas à AlphaGo d’emmagasiner une telle quantité de données. Pour perfectionner le programme, Google a doté AlphaGo de facultés d’apprentissage. Plus la machine joue, plus elle s’améliore… Mais là où la démarche va encore plus loin, et démontre la force de l’I.A., c’est avec Libratus, un programme capable de jouer au poker, ou du moins pas tout à fait. En 2017, des chercheurs de la Carnegie Mellon University mettent au point Libratus. A la différence de ses cousins Deep Blue et AlphaGo, il n’avait pas été doté d’anciennes parties de jeu, non, il lui avait simplement été transmis les règles du poker. Pour le tester, Libratus a pris part à un concours de vingt jours à Pittsburg. En analysant chaque soir la totalité des parties jouées dans la journée, le programme a appris à jouer et même à bluffer. En vingt jours, Libratus était devenu le meilleur joueur de poker de tous les temps.

On l’a vu, les capacités de l’intelligence artificielle sont extraordinaires. Pourtant il ne semble exister aucun de ces outils dans le milieu de l’architecture. Notre matériau de recherche s’appuie sur des écrits en rapport avec ce qu’on appelle la computation – qui consiste (vulgairement) à retranscrire l’intégralité du réel (et par là même, de l’intangible) en des données traitables infor

2 Traduit de l’anglais : «Dans la plupart des cas dans la vraie vie, les récompences extrinsèques à l’I.A. sont très dispersées les unes des autres, voire absentes. Dans ces cas ci, la curiosité peut servir de signal de récompense intrinsèque poussant l’agent à explorer son environnement et apprendre des compétences qui pourraient lui être utiles plus tard dans sa vie. »

matiquement. Pourtant, dans tous les écrits prônant l’avènement de telles machines qui nous ont été donnés de lire pour appuyer notre réflexion, presque tous cherchent à savoir de quelle manière l’I.A. pourrait centraliser les données diverses et variées auquel l’architecte se confronte chaque jour. Deux cas de figure s’esquissent à chaque fois : L’intelligence artificielle procurera à l’architecte un outil capable de l’aider à traiter un nombre toujours plus grand de données toujours plus complexes à prendre en compte. La relève de l’intelligence artificielle et l’automatisation totale est inévitable (Morel P., 2014). Dans le premier cas, et il est mis en avant en grande majorité, la réflexion s’arrête au simple outil manipulé par l’architecte. Dans le second, on s’accorde sur un point de vue purement progressiste sans s’intéresser à prouver que ce qui est dit soit atteignable : la limite de l’I.A. à pouvoir quantifier des choses de l’ordre du qualitatif et de l’immatériel n’est jamais stipulée. N’a donc jamais été évoqué la question de la faisabilité d’une machine capable de telles prouesses. Jusqu’à présent, il semble que personne n’ait exprimé s’il était possible à l’intelligence artificielle de s’appliquer à l’architecture en vue de la dimension qualitative qui la compose. Cette absence de réponses (ou de considération) nous pousse à nous demander quelles seraient les possibilités pour l’intelligence artificielle à remplacer l’architecte humain tout en proposant des projets d’une qualité égale, voir supérieure ? Si l’on se réfère à Michelin, il semblerait que « ce qui relève de la création échappe à toute approche méthodique » (Michelin N., 2003, p.52) en y imputant les valeurs de la « poétique » et du « symbolique » (Michelin N., 2003, p.50). De fait, il semblerait que ces valeurs, qui relève de la dimension sensible ne soit jamais considérées comme attribuables à la machine. L’expression du sensible étant fondamentale à la production d’art nous pousse ainsi à penser que l’intelligence artificielle ne pourrait tout simplement pas remplacer l’architecte humain par son incapacité à ressentir et à produire du sensible.

Ce travail a nécessité beaucoup de recherches dans des domaines très variés tel que les nouvelles technologies et la philosophie. Aussi, il n’a été rencontré presque aucune documentation sur les sujets tels que celui que nous allons traiter. Ce mémoire a donc également pour but d’aider à la création de matériaux exploitables sur une thématique peu abordée dans le domaine de l’architecture : l’automatisation par l’intelligence artificielle. Pour commencer ce travail, nous nous commencerons par définir les notions qui nous accompagneront tout le reste de notre production. Ensuite, nous

étudierons la façon dont le corps enseignant (architectes et autres professions liées) ainsi que les étudiants en école d’architecture appréhendent la discipline mais aussi de quelle façon ils perçoivent les I.A.s. Nous terminerons en manifestant de ce qu’il en retourne aujourd’hui

This article is from: