Pour une ar­chi­tec­ture gé­né­ra­tive

Entretien avec Frédéric Migayrou, conservateur en chef des collections Architecture et design au MNAM du Centre Pompidou, co-fondateur d'ArchiLab et co-commissaire de l'exposition Naturaliser l'architecture.

Date de publication
11-12-2013
Revision
25-08-2015

Tracés: Pour accompagner et prolonger l’exposition Naturaliser l’architecture, vous avez organisé un colloque réunissant des historiens de l’art et de l’architecture, mais aussi des scientifiques: des biologistes, des généticiens, des spécialistes des systèmes de simulation du vivant. Pourquoi cela vous a-t-il paru nécessaire?
Frédéric Migayrou: en fait, la conception du colloque n’est pas postérieure à l’exposition. Le colloque reflète une problématique que j’ai commencé à aborder dès l’exposition Architectures non standard1 au Centre Pompidou en 2003. Ce que je voulais exposer alors c’était la généralisation du computationnel (lire glossaire ci-dessous) dans tous les domaines, et notamment dans celui de l’architecture. Je voulais montrer que, derrière les logiciels de représentation, il y a une écriture logicielle, un code qui est entièrement mathématique et qui crée une nouvelle relation entre mathématique, forme et matière.
Nous disposons désormais d’outils de simulation qui sont fondés sur l’analyse non standard. Ce nouveau type d’analyse, que nous devons à abraham robinson2, a permis une nouvelle compréhension du désordre et de la complexité3 avec des applications immédiates dans toutes les disciplines (la physique, la biologie, l’économie et, bien sûr, l’informatique). Si le processus de la morphogénèse est aujourd’hui mathématisable et donc computable, c’est grâce au travail de robinson. Ainsi apparaît un nouveau type de software tel que Mathematica, qui est un logiciel de calcul formel entièrement fondé sur les automates cellulaires qui sont à leur tour basés sur la mathématique non standard.
Depuis une dizaine d’années, une nouvelle géné ration d’architectes refusent les logiciels géométriques traditionnels et leur approche paramétrique absurde du tout géométrique. Ils laissent derrière eux la conception académique (projective) de la géométrie et se tournent vers une mathématique liée au computationnel. Ils travaillent avec des automates cellulaires, avec Processing et d’autres instruments encore basés sur des langages de programmation liés à cette nouvelle conception mathématique. Cette génération s’est tout de suite posé la question d’un autre rapport à la forme et à la matière. Elle a retrouvé les préoccupations de ceux qui employaient ces outils pour comprendre la morphogenèse en biologie, en physique, en thermodynamique. Il était alors naturel et intéressant de confronter ces architectes qui utilisent les outils de simulation comme des outils génératifs de création avec des recherches similaires dans ces autres disciplines, d’où le colloque. 

A la fin de votre introduction au colloque Architecture et sciences: une nouvelle naturalité (24.10.2013), vous présentez un rôle nouveau qui reviendrait aujourd’hui aux architectes. Vous dites que, puisqu’ils travaillent sur la limite entre nature et artifice à l’aide d’outils de simulation génératifs, ils peuvent devenir prescripteurs et définir les limites de l’éloignement de la règle de la nature, de la licencia (Vitruve). Mais pourquoi les architectes plutôt que les designers, les artistes ou directement les scientifiques? Qu’est-ce qui les rend plus aptes à devenir les médiateurs de ce changement?
On n’a pas pris la mesure des effets produits par les systèmes de simulation sur le monde contemporain. Le fait qu’on puisse breveter la nature, que des compagnies puissent déposer des brevets sur des chaînes d’ADN pose des problèmes incommensurables, au-delà de la rationalité. Il y a un problème juridique, moral et politique sur ce qu’est la nature à partir du moment où on peut la breveter. Je me souviendrai toujours d’un président de Coca-Cola, qui disait que le plus grand concurrent et ennemi de son entreprise ce n’était pas les autres marques, c’était l’eau. Ce type de réflexion pose des questions absolument essentielles. Quelle est l’économie générale de ces processus? Il y a toute une réflexion et tout un combat à mener sur ces questions. D’un côté, se met en place une hybridation potentielle de la technologie avec la nature qui promet des possibilités extraordinaires (thérapeutiques, agricoles, etc.). de l’autre, guette la menace de la dérégulation économique, capable de provoquer des vraies catastrophes. En cela, on traverse une période analogue au passage du Moyen age à la renaissance.
A ce moment-là, on commence à comprendre la nature selon le modèle de la venatio, de la chasse. Le scientifique est un chasseur de secrets de la nature. toute la science de la renaissance se base sur ce modèle de compréhension et de traduction des secrets naturels. La sécularisation en est la première conséquence, la frayeur des monstres la seconde. dans ce monde qui n’obéit plus aux ordres divins, qu’est-ce que le monstrueux? Puisque les hommes en détiennent les secrets, peuvent-ils générer des monstres eux-mêmes? est-ce qu’ils peuvent transformer le fer en or, etc.? Ce n’est pas très connu, mais à l’époque les scientifiques aussi bien que les architectes sont toujours secondés par des mathématiciens.
Aujourd’hui, les architectes travaillent avec les mêmes outils que les mathématiciens, les biologistes et les physi- ciens. Même s’ils arrivent tardivement dans le domaine de la simulation, ils ont un potentiel d’accès exceptionnel à ce type de construction car ils travaillent avec les ingénieurs et avec l’industrie. Sur la planète, 0.5% est construit par des architectes, 99.5% est construit par des grandes compagnies industrielles, qui travaillent avec ces logiciels.
Les architectes commencent à utiliser ces logiciels et en détournent l’usage: entre leurs mains, ce ne sont plus des outils de médiation mais des outils génératifs. Voilà un premier point sur leur capacité de devenir prescripteurs.
Le deuxième point c’est que, plus encore que les autres disciplines, les architectes travaillent dans des systèmes contextuels complexes. L’architecture apparaît au travers de contextes sociaux, politiques, économiques, donc tou- jours en relation avec une hétérogénéité très complexe, plus complexe que dans le cas du design par exemple. Ce n’est pas tant que l’architecture est en avant des autres disciplines, elle est simplement plus effective dans son rapport à la matérialité car elle occupe une place nodale.
Quant à l’art, il me semble que sa dernière période intéressante ce sont les années 1970 quand l’art est en rapport avec le corps, avec la danse, etc. dans le contexte de l’art conceptuel. Il existe là une corrélation parfaite entre l’art, la musique, la notation, la danse. On retrouve l’idée d’une synthèse. Mais après, tout bascule dans le marché, c’est le retour obstiné de l’expressionisme... D’ailleurs, le computationnel n’a pas vraiment touché l’art contemporain. sur le process computationnel, je n’ai pas encore vu d’artistes travaillant de manière intéressante.

Et, Casey Reas, le programmeur de Processing qui participe à ArchiLab 2013?
Mais, justement, il utilise son logiciel comme un médium. Ce que je recherche c’est un usage génératif du computationnel. Chez Reas, Processing reste un outil de représentation. Il se bat toujours contre les vieux problèmes du géométrique, du paramétrique, tandis que tout l’enjeu aujourd’hui c’est d’avoir accès à la compréhension générative du computationnel.
Pour revenir à l’architecture, oui, je crois qu’aujourd’hui elle est la seule discipline de création qui tend à avoir accès à cette nouvelle scène de la simulation. Elle a une capacité de prescription puisqu’elle permet aussi de déborder ce qui était sa mauvaise nature, celle de croire qu’elle était une discipline qui organisait l’espace. C’est le cas, bien sûr, il y a un rapport politique, sociologique, économique entre architecture et espace, mais seulement en deuxième terme: aujourd’hui, l’espace est géré pas des systèmes militaires, économiques, boursiers et par des systèmes de gestion de flux, de communication, qui le reconstruisent de manière générative et totalement différente.

Quel serait donc selon vous le rôle des architectes aujourd’hui?
Ce serait de s’adapter à la nouvelle donne et de prendre en compte les systèmes de simulation générique de la météorologie, les outils de transport, les théories des flux, les théories d’une cartographie relative aux systèmes de drones, qui permettent d’assassiner quelqu’un à distance avec une précision époustouflante... C’est là qu’on quitte l’espace des réseaux de Paul Virilio. Pour cette raison, il faut accéder à une dimension générative où l’outil sera désormais capable de surdimensionner l’espace-temps. Le domaine du computationnel rend cette adaptation nécessaire pour les ingénieurs et pour les architectes.

Vous établissez un parallèle entre la nature en tant qu’artefact au 16e et 17e siècles, et ce qui est en train de se produire avec la nouvelle frontière entre nature et tectonique. Comment faut-il comprendre ce lien entre les deux époques? est-ce une résurgence de nature esthétique?
Le terme «tectonique» me paraît très ambigu car il renvoie à cette idée de la rationalité qui est supposée traverser toute l’histoire de l’architecture. Mais est-ce  que cette histoire commence vraiment avec les ordres de Vitruve et de Vignole selon Claude Perrault? Cela nous amènerait à écarter toute la complexité des ordres romains et grecs où c’est la variété qui domine. Il n’y a que des réinterprétations, une variation constante. Est-ce qu’on doit privilégier l’académisme et l’ordre fixe aux dépens de la variabilité? C’est ainsi que le rationalisme structurel perçoit l’histoire de l’architecture. C’est le règne du bon ordre des proportions, des dimensions, dont le héros est Kenneth Frampton avec sa relecture tectonique de l’architecture. d’une certaine manière, Le Corbusier lutte contre cette approche, il essaye de trouver un système de proportions intégrant la variation et la cognition. Je suis en train de préparer une exposition sur cette question-là.
On a tout à gagner à relire l’histoire de l’architecture, et notamment la période baroque. C’est le moment où les ordres se créent et où, en même temps, une dérégulation de l’ordre se met en place. Avec elle apparaît une autonomie de l’ornement, qui va jusqu’à pervertir l’ordre et la structure. Le baroque est une réaction. L’ornement autorise une pensée et une cognition de l’espace que la structure cachée ne permet pas. Panofsky montrera qu’on passe du romain au gothique parce qu’on a besoin de faire varier le son dans les cathédrales pour que le cœur chantant résonne mieux. C’est évidemment toute la question de la perception et de la cognition, qui pré- occupe tant l’architecture contemporaine, qui entre ici en jeu. Le baroque est justement cette idée d’une compréhension cognitive de l’espace-temps. Le baroque n’est pas une efflorescence de motifs, mais une compréhension du monde nouvelle et très moderne. Le temps apparaît dans l’architecture pour la première fois.
La rupture épistémique à l’œuvre dans notre monde à nous où les enfants s’accaparent des tablettes et des smartphones avec un naturel étonnant nous rapproche des questions initialement posées aux 16e et au 17e siècles. 

 

Notes

1. L’exposition présentait les maquettes de 12 équipes internationales d’architectes : - Asymptote - dECOI Architects - DR_D - Greg Lynn FORM - Kol/Mac Studio - Kovac Architecture - NOX - Objectile - Oosterhuis.nl - R&Sie - Servo - UN studio. Commissaires / organisateurs: F. Migayrou - Z. Mennan (commissaire associé).
2. Abraham Robinson, « L’analyse non standard », in Proceedings of the International congress of Mathematicians, Amsterdam, North-Holland Publishing Company, 1961. Sa pensée a eu une grande influence en France à travers l’œuvre de Georges Reeb et de René Thom.
3. « Selon Robinson, grâce à l’analyse non standard, les infinitésimales peuvent être assimilées à des nombres utilisables dans toutes opérations logiques et mathématiques fondamentales», in Frédéric Migayrou, «Les ordres du non standard », dans Architectures non standard, Paris, Centre Pompidou, 2003.   

 

Glossaire ArchiLab*

Algorithme: Un algorithme est une suite logique d’opérations déterminées qui permet de résoudre un problème présenté de façon mathématique. Certaines familles d’algorithmes comme les algorithmes génétiques s’inspirent de processus naturels (croisements, mutations, sélection, etc.) pour mettre au point de nouveaux modèles d’optimisation.
Biomimétisme: Le biomimétisme est une démarche qui vise à appliquer à la création humaine les principes qui gouvernent l’apparition, l’organisation et l’évolution des formes naturelles. Dans le sillage de Gaudí, certains architectes cherchent à adapter ces lois observées par les sciences naturelles à leurs propres projets pour mettre au point des architectures en harmonie avec leur environnement et dont les formes extrêmement variées répondent mieux à leur fonction.
Cellular automata / Automate cellulaire: Programme de simulation comportementale à partir d’un ensemble d’entités définies artificiellement appelées «cellules». Celles-ci peuvent prendre différents états et évoluer dans le temps en fonction des générations de cellules qui les entourent. Les automates cellulaires sont utilisés dans la vie de tous les jours, par exemple pour des simulations de feux de forêt, les cellulaires automates permettent notamment de savoir comment le feu va se répandre. Rapporté au domaine de la création, l’automate cellulaire est un outil de génération de formes évolutives qui répondent à une certaine complexité.
Computation: Souvent associée à l’outil informatique, le terme computation signifie calcul. L’architecture computationnelle fait référence à l’utilisation de l’ordinateur comme outil de génération mathématique de la forme plutôt que comme simple outil de représentation.
Low-tech: Peut être traduit littéralement par technologie pauvre, en opposition à high-tech, haute technologie. Ce terme renvoie à un usage simple, économique des outils, des machines et des techniques contemporaines.
Modélisation paramétrique: Technique de description et de modification de la géométrie d’un volume en fonction de paramètres. La forme de l’objet évolue en fonction des modifications des contraintes variables.
Morphogenèse: Ensemble des lois gouvernant le développement des formes. Issue des sciences naturelles, où elle s’applique à la croissance des organismes, la notion est également utilisée en architecture.
Production non standard: Dans le domaine des mathématiques, l’analyse non-standard est basée sur l’exploration de l’infiniment petit. Elle autorise une maîtrise poussée des concepts de continuité et de variation, notamment dans le processus de génération de formes. Dans le domaine de la production, le non standard remet en cause la fabrication industrielle d’objets standard, ouvrant à la production en masse d’objets singuliers.
Script: Suite d’opérations informatiques écrites dans un langage spécifique, dit «langage de script», qui permet de générer une ou plusieurs actions.
Systèmes génératifs: Des systèmes génératifs sont des systèmes computationnels qui utilisent des grammaires génératives, soit des règles de base simples définissant des objets, les comportements de ces éléments et leur mode de visualisation. L’interaction entre les composants, ou objets, selon les règles définies produit une complexité que seul l’ordinateur est en mesure de restituer.
Système multi-agents: Un système, dans lequel un ensemble d’agents, c’est-à-dire d’éléments (un processus, un robot, un être humain, etc.) dotés d’une relative autonomie, opèrent de façon collaborative pour accomplir une tâche qu’aucun d’entre eux n’aurait pu accomplir seul. Les résultats obtenus sont le fruit de l’interaction entre les éléments. Inspiré en partie de phénomènes naturels comme les fourmilières, le principe a été étendu au domaine de l’intelligence artificielle.

 

Sur ce sujet