l e s n o u v e l l e s
OCT NOV DéC
la revue culturelle de l’Université Lille 1
# 6 1
d’A
rchimède
« À propos du nucléaire », « La Méditerranée » Rendez-vous d’Archimède / « Les patrimoines cachés » Journées européennes du patrimoine / This is Major Tom to Ground Control, « Le cabinet de curiosités » Expositions 2012
« Ce n'est pas que nous disposions de peu de temps c'est plutôt que nous en perdons beaucoup » Sénèque, La Brièveté de la vie
LNA#61 / édito
Faire de notre diversité une richesse
Jean-Philippe CASSAR
Vice-président de l’Université Lille 1, chargé de la Culture et du Patrimoine Scientifique
1 Michel de Certeau, « Les universités devant la culture de masse » dans La culture plurielle, 1974, Édition 1993, éd. du Seuil, Collection Points - Essais. 2 Jean Fleury, « La culture », éd. Bréal, collection Thèmes & Débats Sociologie, 2002.
Michel de Certeau, « Les révolutions du croyable », op. cit. 3
« Art, culture et Université », Numéro spécial de la revue Mouvement : www.mouvement.net/ pdf/tap/tap_tu_nantes.pdf. 4
L’équipe Jacques LESCUYER directeur Delphine POIRETTE chargée de communication Edith DELBARGE chargée des éditions et communication Julien LAPASSET graphiste - webmestre Audrey Bosquette assistante aux éditions Mourad SEBBAT chargé des initiatives culturelles Martine DELATTRE assistante initiatives culturelles Dominique HACHE responsable administratif Angebi Aluwanga assistant administratif Fathéa Chergui secrétaire de direction Sophie BRAUN chargée du Patrimoine scientifique Brigitte Flamand chargée d'accueil Jacques SIGNABOU régisseur technique Joëlle MAVET responsable café culture
2
A
près une longue campagne électorale, le président de l’Université Lille 1 a été réélu. Il s’est entouré d’une équipe renouvelée dans laquelle j’assure la responsabilité de la « politique culturelle et du patrimoine scientifique ». Nabil El-Haggar a initié et porté pendant 20 ans un projet original qui fait aujourd’hui de la culture une dimension importante de la vie et de la reconnaissance de notre université. Tout en reconnaissant cet héritage et en me situant dans sa continuité, je suis convaincu que des évolutions sont nécessaires pour assurer sa pérennité. Au début des années 70, Michel de Certeau 1 pointait l’ « hétérogénéité culturelle » comme un défi pour une université originellement destinée à une « population d’étudiants relativement restreinte ». Dans une société où « le rapport de la culture à la société s’est modifié », il introduisait la culture dans une dualité qui renvoie « le savoir établi à une pratique de la pensée et les objets conceptuels qu’elle véhicule aux sujets qui les produisent ». Depuis, l’augmentation du nombre d’étudiants a encore accru cette diversité d’origine sociale et culturelle. Le personnel de l’université s’est lui aussi renouvelé, en nombre et en qualité ; les jeunes collègues n’ont plus les mêmes références, les mêmes aspirations, que leurs aînés et sont confrontés aux pressions de l’évolution de leur métier qui favorise la spécialisation et le court terme. Pour faire de cette diversité une richesse, pour promouvoir « l’intérêt et la signification » comme une réponse aux attitudes consuméristes, une politique culturelle universitaire doit avoir l’ambition d’impliquer largement les personnels et les étudiants à son élaboration pour que l’université reste un lieu de pensée vivante. Dans le plaisir de la création en commun, du débat, de la découverte, par l’expérience de l’émotion artistique, la culture leur apparaîtra alors comme « une construction collective dans l’action des individus qui vivent et interprètent le monde 2 » et non comme un patrimoine dont ils peuvent se sentir « émigrés 3 ». Pour rester dans la tradition universitaire de création de savoirs et de sens, cette ambition se double d’une exigence de qualité, en termes de rigueur intellectuelle et de réalisation, des actions mises en œuvre. Ces actions s’appuieront sur le renforcement des partenariats avec, d’une part, les autres universités françaises, dont un récent colloque à Nantes en février a montré le dynamisme des politiques culturelles 4 et avec, d’autre part, les structures qui portent la même exigence et participent de l’environnement culturel favorable de notre métropole. Au cours de cette année universitaire qui commence, je vous invite chaleureusement à découvrir et apprécier la programmation de grande qualité qui est accueillie à l’Espace Culture grâce au travail de son équipe et des personnes qui l’ont élaborée. Je vous invite, aussi et surtout, dans votre service, laboratoire ou composante, à être des acteurs de la culture à l’Université. En vous l’appropriant, c’est vous qui donnerez sens au projet culturel de notre université.
sommaire / LNA#61 Retrouvez le détail de nos manifestations dans notre programme trimestriel et sur notre site Internet : culture.univ-lille1.fr OCTOBRE > DÉCEMBRE 2012 /#7
À propos du nucléaire 4-7 8-9 10-11
Risques et crises en Terra Incognita : nouveaux défis, nouvelles responsabilités par Patrick Lagadec Les dimensions symboliques d’une catastrophe nucléaire par Jean-Pierre Dupuy CEA et Pouvoir (1945 – 1983) par Alain Leridon
Rendez-vous d’Archimède À propos du nucléaire La Méditerranée This is Major Tom... Avenir radieux... Riha Rencontre : J. Le Guillerm Patrimoines cachés Cabinet de curiosités
La Méditerranée 12-13 Être pauvre au sud et à l’est de la Méditerranée ? par Bouziane Semmoud 14-15 Florence et la naissance de la science moderne par Bernard Maitte Rubriques 16-17 18-19 20-21 22-23 24-25
Paradoxes par Jean-Paul Delahaye Mémoires de sciences : Et voilà le travail ! La riche impureté de la naissance d’un concept par Yannick Fonteneau Repenser la politique : Justice sociale et liberté par Alain Cambier À lire : Artistes de laboratoire. Recherche et création à l’ère numérique par Jean-Paul Fourmentraux Chroniques d’économie politique : Les crises du logement par Didier Cornuel
Au programme 26-27 Rendez-vous d’Archimède : Cycles « À propos du nucléaire » et « La Méditerranée » 28 Rencontres culturelles de sens : Vers une culture de sens au service des Droits fondamentaux 29 Journées européennes du Patrimoine : « Les patrimoines cachés » de l’Université Lille 1 30 Exposition : This is Major Tom to Ground Control - installation de Véronique Béland 31 Exposition : « Le cabinet de curiosités »
En couverture : Expérience thermonucléaire américaine, GEORGE, lancée depuis une tour de l'atoll d'Enewetak (Pacifique) dans le cadre de l'opération Greenhouse, 8 mai 1951. Photo courtesy of National Nuclear Security Administration / Nevada Site Office
LES NOUVELLES D’ARCHIMÈDE Directeur de la publication : Philippe ROLLET Directeur de la rédaction : Jean-Philippe CASSAR Comité de rédaction : Alain CAMBIER Jean-Paul DELAHAYE Rémi FRANCKOWIAK Jacques LESCUYER Bernard MAITTE Rédaction - Réalisation : Delphine POIRETTE Edith DELBARGE Julien LAPASSET Impression : Imprimerie Delezenne ISSN : 1254 - 9185
3
LNA#61 / cycle à propos du nucléaire
Risques et crises en Terra Incognita : nouveaux défis, nouvelles responsabilités Par Patrick LAGADEC Directeur de recherche à l’École Polytechnique
En conférence le 9 octobre Si on me dit : « puisque le modèle n’existe pas, la question n’a pas de sens », je répondrai : « ça c’est une réponse de technicien, mais pas de scientifique ». Je me réclame ici de ce qui fait la science en acte, qui est précisément de se risquer aux questions pas possibles. Maurice Bellet 1 Three Mile Island (1976), Tchernobyl (1986), Fukushima (2011) Les1trois événements impactent gravement et pour la très longue durée nos réf lexions, nos débats, en matière d’énergie nucléaire, d’énergie en général, et plus largement de style de vie. Bien entendu, comme tous les travaux en matière de choix techniques l’ont souligné depuis des décennies, aucune activité, aucune option ou décision ne saurait être appréciée à travers la seule dimension du risque. Cependant, cette dimension se fait plus décisive lorsque l’on aborde des territoires du risque tels qu’on les connaît désormais – marqués par la démesure, et une turbulence globale elle aussi extrême. Il nous faut aujourd’hui reprendre les ancrages, les logiciels fondamentaux de nos expertises comme de nos débats. Three Mile Island avait été contenu par la troisième barrière, mais avait mené au bord de l’impuissance : « Nous sommes comme un couple d’aveugles qui titubent et tournent en rond », déclarait alors le président de l’Autorité de sûreté nucléaire américaine. Tchernobyl avait été fabriqué par un système en bout de course. Fukushima est survenu au cœur de ce qui était la troisième puissance économique du monde, a plongé les autorités dans une crise hors cadres – paralysées par la quasi disparition de l’opérateur, submergées par la profusion des fronts de catastrophes, tétanisées devant l’éventualité imminente d’avoir à évacuer Tokyo. Le coût du désastre japonais est colossal, systémique, historique, avec des effets en chaîne mondiaux en raison de l’importance du pays comme fournisseur de composants électroniques, et ce d’autant plus que, peu après, le grand centre de production indonésien allait à son tour être frappé par des inondations hors échelle. Le tout dans une économie mondiale sérieusement malade. On a certes pu mettre en avant le fait que Three Mile Island avait in fine démontré la robustesse de la technique ; que Tchernobyl était le fruit d’un acharnement dans la violation de toutes les règles de sécurité, de la conception aux Maurice Bellet, Aux prises avec le chaotique, entretien vidéo avec P. Lagadec, 2004.
1
4
essais finaux qui ont provoqué le drame ; que Fukushima n’aurait pas eu lieu sans le tsunami. Mais le « bon sens » – qui est surtout une protection réflexe en matière de communication défensive – ne saurait effacer un défi fondamental : le hors-dimensionnement n’est plus ce qu’il était. Il faut reprendre nos hypothèses initiales de conception, notamment en raison des nouveaux environnements globaux qui sont les nôtres, sur tous les fronts. Nous avions coutume, au XXème siècle, d’analyser les risques en examinant les potentiels de destruction liés à telle installation, tel produit, telle activité ; en pondérant ces estimations par une évaluation des probabilités calculées à partir de l’expérience accumulée ; le tout sous hypothèse qu’il fallait tout de même être « raisonnable », c’est-à-dire se garder de considérer des scénarios « invraisemblables ». En outre, les risques étaient étudiés de façon généralement isolée, et sur hypothèse d’un contexte lui aussi globalement stable, robuste, « rationnel » et pacifique. Cette cosmologie ne tient plus. La tâche est immense, et il n’y a pas de script. C’est le lot de toutes les périodes de transition historique. On en connaît les abîmes : se draper dans un optimisme de capitulation, avant de fuir la dénégation pour la désespérance ; attendre quelque prophète – « et c’est alors le Führer qui arrive » 2 . On en connaît les exigences : lucidité sur les enjeux, clarté sur les responsabilités à assumer, détermination dans l’invention collective. De façon très opérationnelle, trois questions s’imposent à nous : Qu’est-il arrivé ? Quels pièges éviter ? Comment inventer nos futurs, tout en tenant le présent ? Mon objectif sera d’ouvrir quelques pistes d’interrogation pour aider à penser ces défis colossaux – bien au-delà de la question classique « pour ou contre le nucléaire ». Il ne s’agit nullement, bien entendu, de nier la pertinence de cette question, mais rien de sensé ne pourra être fait si l’on se trompe de diagnostic général. Il serait aisé, notamment,
2
Karl Jaspers.
cycle à propos du nucléaire / LNA#61
de faire valoir que le coût d’un blackout énergétique continental de longue période aurait aussi des répercussions létales hors échelle, d’une autre nature bien évidemment, mais également extrêmement graves. Nous naviguons désormais dans des archipels à hauts risques, dans des mers inconnues. Il va nous falloir prendre la posture de l’explorateur, bien au-delà de celle du technicien ou du gestionnaire. Nos expertises, nos débats, nos processus sociaux sont à réinventer. Pour conduire la réflexion, et en tenant compte du fait que mon intervention s’inscrit dans un cycle de conférences, je proposerai un balayage très large, à partir de l’interrogation : où en sommes-nous de nos risques ? Comment penser, débattre, opérer des navigations collectives dans ce monde largement indéchiffrable du XXIème siècle ? Cela restera bien entendu partiel, mais j’ai la conviction que pareille approche peut apporter un éclairage utile. Et, sur des terrains aussi délicats, il est certainement plus judicieux de parler à partir de son terrain d’expertise 3, avec toutes ses limites, que de jeter des paroles qui auraient la prétention de couvrir l’ensemble des dimensions pour arriver à des conclusions faussement définitives. L’intervention restera donc marquée par le questionnement. Horizons pulvérisés Nous sommes comme les navigateurs de l’Âge des Découvertes. Quand ils s’aventurèrent sur le Grand Océan, au-delà des Colonnes d’Hercule, ils durent faire leur deuil de leur cosmologie de référence, héritée de l’Antiquité. Ils changeaient d’univers, ils devaient réinventer visions, trajectoires, boîtes à outils. De même aujourd’hui : sur tous les fronts, les repères sont délogés, les ancrages arrachés, les conditions générales transformées. Le hors-échelle. Ce fut le choc du 11 Septembre : on avait anticipé des missiles, non des cutters et des avions de ligne recyclés en armes de destruction massive. Ce fut l’aberration de Katrina : non un cyclone mais « une arme de
Ce texte emprunte notamment à un article rédigé pour le Conseil supérieur de la formation et de la recherche stratégiques : « Les Défis du nouvel Âge des Découvertes », in Horizons Stratégiques, publication en coopération avec Les Échos, 26 mars 2012, pages 35-37. Pour une réf lexion plus développée, voir : Patrick Lagadec, Des « Risques Majeurs » aux « Mégachocs », Groupe Préventique, Juin 2012. 3
destruction massive, sans dimension criminelle » (Amiral Thad Allen). Ce fut la surprise nucléaire de Fukushima : elle n’entrait ni dans nos épures ni dans nos échelles de référence. Ce fut le cyclone Irène (2011) qui menaça tout l’est du continent américain : nul n’aurait pu dessiner d’avance la carte des impacts. Il n’y a plus de loi naturelle voulant que tout phénomène soit par essence borné. Ce serait le coût d’un blackout continental de longue durée : plus de 30 milliards d’euros par jour pour un pays comme la Suisse (évaluation donnée par Swissgrid, mais le chiffrage conduit bien rapidement au non-sens tant on entre dans la démesure et l’impossibilité d’évaluer). Les interdépendances totales. À la fin du siècle dernier, nous avons beaucoup évoqué les « effets domino ». Cependant, il était entendu que la dynamique finissait par s’épuiser. Désormais, les principes d’interdépendances et de f lux tendus généralisés, le sacrifice de la résilience comme condition de l’efficacité maximale immédiate ont mis en place les conditions de pandémies foudroyantes. L’instantanéité. Les dernières décennies ont vu l’accélération générale de la vitesse, mais là aussi un seuil a été franchi. En mai 2010, Wall Street vit s’évaporer 700 milliards de dollars en 7 millisecondes ; et, aujourd’hui, on passe au fonctionnement à la microseconde. La nouvelle de l’intervention américaine sur la cache de Ben Laden était sur Twitter au moment même où l’exécutif US suivait l’opération depuis la war room de la Maison Blanche. Ce n’est plus de l’accélération, c’est l’écrasement du vecteur vitesse. Il faudrait quasiment opérer en temps négatif. Des socles en liquéfaction. C’est le plus décisif. Jusqu’à présent, toute action intervenait dans des milieux absorbants. Aujourd’hui, ce sont des caisses d’amplification explosive. Environnement naturel en proie à des désordres foisonnants, leucémie financière et immuno-dépression économique, retour stupéfiant de l’univers de la guerre, dissolution générale de la confiance en la démocratie et dynamiques collectives mortifères : nos murs porteurs ne tiennent plus. L’ ignorance. Nous étions devenus experts en maîtrise de l’incertitude à la marge. Désormais, des « trous noirs » s’installent au cœur de la connaissance. La colonne vertébrale de nos projets, de nos conquêtes, de nos pactes de confiance, apparaît soudain structurellement fragile, voire factice. 5
LNA#61 / cycle à propos du nucléaire
Nous voici finalement aux prises avec des « problèmes diaboliques » 4. Chaque problème est le symptôme d’un enchevêtrement de problèmes eux-mêmes difficiles à saisir, et même à définir. Il n’est plus possible de circonscrire des champs opératoires, d’isoler des causes, de distinguer des composantes, permettant des traitements techniques, spécifiques et séquentiels. La pensée probabiliste devient inopérante. Le jugement devient central – mais les critères et valeurs de référence font eux aussi partie de la question. L’intervention ne résout pas le problème, elle le fait muter. Les stratégies essai-erreur ne sont plus praticables : chaque action est à un coup. Surtout, ces wicked problems ne sont plus l’exception, mais le terreau universel. Depuis une décennie, un leitmotiv a prévalu dans le domaine du pilotage de nos systèmes : « Think out of the box ». C’était déjà éprouvant pour nos cultures. Il nous faut désormais aller bien plus loin encore. « There is no box anymore » (Mike Granatt). Le Grand Océan n’est décidé ment pas la Mare Nostrum, qui pouvait ignorer la démesure, l’inconnu, et les vagues scélérates. Impasses Le piège commun est de se replier derrière trois lignes de tranchées. Barrière intellectuelle. Il va nous falloir faire notre deuil de principes fondateurs : des champs clos et compartimentés ; des univers stables (« toutes choses égales par ailleurs ») ; des risques limités ; des incertitudes à la marge, mais des corpus de connaissances robustes ; une garantie d’additivité idyllique : « ce qui est bon pour General Motors est bon pour les États-Unis » ; un terrain de jeu assuré de continuité – la discontinuité comme la montée aux extrêmes relevant de l’aberration. Notre Grand Océan actuel ne répond plus qu’accidentellement à ces principes. Pareil changement de décor exige la production en urgence d’intelligences nouvelles. Or, comme l’a clarifié Thomas Kuhn 5, ce qui relève de l’invention n’est guère spontanément prisé, pour user de la litote, à commencer par la communauté scientifique – celle-ci se concentre sur les « anomalies résiduelles » à l’intérieur du paradigme convenu.
6
Barrière psychique. Cette dimension, taboue, est déterminante. Quitter les protections du connu déclenche de formidables angoisses. Quand, pour reprendre l’analyse de Nicole Fabre 6, la robustesse d’un système tient à ce qu’il ne laisse percevoir aucune faille, la sensation d’une perte de maîtrise provoque des replis d’une puissance inouïe, qui bloquent toute inventivité, et s’autorisent tous les comportements régressifs – au moment même où il n’y a pas de salut en dehors de l’invention partagée. Barrière de pilotage. Les temps de rupture sont gros de pathologies majeures. La tétanisation : chacun se replie sur ses bunkers, dans un « Ne pas déranger » pathétique. La rigidité : c’est l’application mécanique de règles funestes, mais qui rassurent par leur orthodoxie – le non-sens marche au pas. La démission : à l’inverse, on enlève toute règle et l’on assure que la main invisible saura assurer un optimum de rêve. La provocation : comme si la confrontation au difficile déclenchait des pulsions d’indécence irrépressibles, on pose des actes et on affiche des attitudes ciselées au scalpel par Gottfried Benn – « On sait bien que les hommes n’ont pas d’âme, si seulement ils avaient un peu de tenue ». La dislocation : on coupe les ponts, on détruit les liens, quand c’est l’inverse qui peut sauver. Le suicide, comme l’Europe l’accomplit lorsqu’elle eut à entrer dans le XXème siècle. La barbarie, dès lors que la perte de sens fait opter pour un « après moi le Déluge » où le tragique n’a plus de limite. Aujourd’hui, avec la montée des défis, on voit ces blocages se coaguler. Le pilotage use d’un étrange droit de retrait face à la multiplication des « trous noirs » : quartiers, industries, réseaux, villes, populations, pays qui sortent de la carte. Bientôt, on risque de devoir compter, à l’inverse, les oasis de normalité qui tiennent encore. Ce qui est en jeu, c’est la tenue de la texture même de nos pays. Comme le dit Cooper Ramo 7, « Kissinger et sa génération ont dû traiter la dissuasion, il nous revient à nous d’assurer la résilience ». Il est temps de percevoir l’impérieuse nécessité d’une nouvelle donne – stratégique – si l’on veut éviter de nouvelles Étranges défaites (Marc Bloch).
4
Rittel et Webber, wicked problems, 1973.
6
L’ inconscient de Descartes.
5
La structure des révolutions scientifiques.
7
L’ âge de l’ impensable.
cycle à propos du nucléaire / LNA#61
Routes inédites à ouvrir La force visionnaire des grands navigateurs va nous être nécessaire. Certes, il faut conserver certaines règles habituelles, tenir le lien entre un passé qui ne répond plus et un futur qui ne se discerne pas encore. Mais surtout, nous devons explorer au-delà des contrées connues. Requérir un leadership d’ invention, loin du simple management certifié. Que l’on bannisse la règle si courante : « Ne venez pas inquiéter nos responsables ! ». Au contraire, la vision, l’exemplarité deviennent cruciales. Cela exige des initiatives en urgence car, pour l’heure, le niveau de préparation et d’implication des étages stratégiques de nos organisations est souvent par trop décalé, pour dire le moins. La fonction DG est à réinventer. Tisser de nouvelles alliances, tendues vers de l’invention collective : au sein des organisations, avec les partenaires extérieurs, avec les maillages sociétaux, loin des simples énonciations de principes hiérarchiques, de règles réifiées. Cela exigera aussi des appuis, pour fortifier d’autres démarches en termes d’attitudes autant que de méthodes. La fonction RH, à revivifier, va devenir vitale. Susciter les innovations « par le bas » – la capacité des citoyens à inventer eux-mêmes des inédits viables (Michel Séguier). Joshua Cooper Ramo, toujours dans son livre L’ âge de l’ impensable, souligne qu’une bonne part de la réponse est précisément dans cette granularité qui nous est spontanément étrangère. Le rôle crucial du terrain devra être repensé, il sera de plus en plus souvent la clé de sortie et de réussite, dans tous les secteurs.
Kissinger. Sans attendre que les difficultés nous submergent. Comment vivifier ces dynamiques ? Nous allons avoir besoin de facilitateurs, pour aider à ces naissances délicates. Nous aurions tous les motifs de baisser les bras. Faisons plutôt ensemble le pari du positif. La gravité des enjeux ne laisse pas le choix de l’évitement. En reprenant peut-être ces lignes de Daniel Boorstin en introduction à sa fresque grandiose sur Les découvreurs : « Les mots les plus prometteurs jamais écrits sur les cartes de la connaissance humaine sont bien Terra Incognita – territoire inconnu ». À nous donc de nous mobiliser dans le registre de la connaissance comme celui de l’action, pour relever ce défi d’un nouvel Âge des Découvertes. L’intervention du 9 octobre aura ces pages pour repères de fond. Elle proposera un cheminement, éclairé par de multiples témoignages vidéo de grands témoins et de grands explorateurs. Nous ne ferons donc qu’ouvrir le champ de la réflexion, un domaine immense, marqué non pas par l’incertitude mais bel et bien par l’inconnu, un nouveau territoire qui va nous demander d’immenses efforts de créativité collective. Pour cartographier, pour ouvrir les itinéraires que, collectivement, nous choisirons de tracer.
Un formidable effort de connaissance et de savoir-faire : d’urgence, il nous faut explorer toutes les expériences pour repérer les meilleures initiatives créatrices. Il faut sortir de la logique « apporter des plans et des outils pour ne pas être surpris » et, à l’inverse, « se préparer à être surpris ». À commencer par les échelons dirigeants, les plus rétifs à la perspective, et qui, sauf exception et cela dans tous les pays, désertent tous les entraînements dans ce registre pourtant vital. C’est dans cette veine aussi qu’il faut rebâtir bien des enseignements et des formations prétendus d’excellence. Explorons, inventons, expérimentons des possibles. Sans nier les réalités – « Le timonier doit naviguer avec les vagues, sinon elles l’engloutiront », disait Chou En-lai à Henry 7
LNA#61 / cycle à propos du nucléaire
Les dimensions symboliques d’une catastrophe nucléaire * Par Jean-Pierre DUPUY Philosophe, professeur à l’Université Stanford, membre de l’Académie des technologies, président du comité d’éthique de l’Institut de Radioprotection et de Sûreté Nucléaire (IRSN)
E
n 1958, le philosophe allemand Günther Anders se rendit à Hiroshima et à Nagasaki pour participer au 4ème Congrès international contre les bombes atomiques et les bombes à hydrogène. Il tint pendant tout ce temps un journal. Après de nombreux échanges avec les survivants de la catastrophe, il note ceci : « La constance qu’ils mettent à ne pas parler des coupables, à taire que l’événement a été causé par des hommes ; à ne pas nourrir le moindre ressentiment, bien qu’ils aient été les victimes du plus grand des crimes – c’en est trop pour moi, cela passe l’entendement. » Et il ajoute : « De la catastrophe, ils parlent constamment comme d’un tremblement de terre, comme d’un astéroïde ou d’un tsunami. »1
À peu près en même temps que Hannah Arendt, sa condisciple, qui fut aussi sa femme, Anders tentait d’identifier un nouveau régime du mal. Arendt parlait d’Auschwitz, Anders d’Hiroshima. Arendt avait diagnostiqué l’infirmité psychologique d’Eichmann comme « manque d’imagination ». Anders montrait que ce n’est pas l’infirmité d’un homme en particulier, c’est celle de tous les hommes lorsque leur capacité de faire, qui inclut leur capacité de détruire, devient disproportionnée à la condition humaine. Alors le mal s’autonomise par rapport aux intentions de ceux qui le commettent. Anders et Arendt pointaient ce scandale qu’un mal immense peut être causé par une absence complète de malignité ; qu’une responsabilité monstrueuse puisse aller de pair avec une absence totale de méchanceté. Nos catégories morales sont impuissantes à décrire et juger le mal lorsqu’il dépasse l’inconcevable. Il faut se résoudre à dire alors qu’ « un grand crime est une offense contre la nature, de sorte que la terre elle-même crie vengeance ; que le mal viole l’harmonie naturelle que seul le châtiment peut rétablir. » Le fait que les juifs d’Europe aient substitué au mot « holocauste » celui de shoah, qui signifie catastrophe naturelle, et, singulièrement, raz de marée, tsunami, atteste cette tentation de naturaliser le mal lorsque les hommes deviennent incapables de penser cela même dont ils sont victimes ou responsables. Voici que la tragédie qui frappe le Japon semble inverser les termes de cette analyse et qu’un véritable tsunami, une onde * Article paru dans Le Monde le 20 mars 2011. jpdupuy@stanford.edu Auteur de Pour un catastrophisme éclairé (2002, 2004), Petite métaphysique des tsunamis (2005), Retour de Tchernobyl. Journal d’un homme en colère (2006), éd. du Seuil - L’Avenir de l’ économie, éd. Flammarion, 2012.
8
on ne peut plus matérielle, vient réveiller le tigre nucléaire. Certes, il s’agit d’un tigre en cage : un réacteur électronucléaire n’est pas une bombe atomique. Il en est, en un sens, la négation puisqu’il consiste à brider une réaction en chaîne qu’il a lui-même provoquée. Cependant, dans l’imaginaire, la dénégation affirme cela même qu’elle nie. Dans la réalité, et nous y sommes, il arrive que le tigre s’échappe de sa cage. Au Japon plus qu’ailleurs, le lien entre le nucléaire militaire et le nucléaire civil est dans tous les esprits. On rapporte les propos du premier ministre Naoto Kan : « Je considère que la situation actuelle, avec le séisme, le tsunami et les centrales nucléaires, est d’une certaine manière la plus grave crise en 65 ans, depuis la Seconde Guerre mondiale. » Il y a 65 ans, il n’y avait pas de centrales nucléaires, mais deux bombes atomiques avaient déjà été lancées sur des civils. En prononçant le mot « nucléaire », c’est à cela sans doute que pensait le Premier ministre. C’est comme si la Nature se dressait face à l’Homme et lui disait, du haut de ses rouleaux déferlants de vingt mètres : « Tu as voulu dissimuler le mal qui t’habite en l’assimilant à ma violence. Mais ma violence est pure, en deçà de tes catégories de bien et de mal. Je te punis en prenant au mot l’assimilation que tu as faite entre tes instruments de mort et ma force immaculée. Péris donc par le tsunami ! » Tandis que les destructions humaines et matérielles s’accroissent chaque jour, une grande partie du drame actuel se joue sur la scène des symboles et de l’imaginaire. Parmi les régions qui furent les premières à être évacuées figurent les îles Mariannes. Le nom de l’une d’entre elles, Tinian, évoque pour ceux qui se souviennent le lieu d’où décollèrent, au petit matin du 6 août 1945, les B29 qui allaient pulvériser Hiroshima en cendres radioactives suivis, trois jours plus tard, par la flottille qui allait faire de même à Nagasaki. Comme si la vague géante venait se venger de ces minuscules territoires qui avaient eu le tort d’abriter le feu sacré. La tragédie japonaise a ceci de fascinant qu’elle mêle inextricablement trois types de catastrophes que l’analyse traditionnelle distingue soigneusement : la catastrophe naturelle, la catastrophe industrielle et technologique, la catastrophe morale. Ou encore le tsunami, Tchernobyl et Hiroshima. Cette indifférenciation, dont j’ai tenté de comprendre la genèse dans mes ouvrages de ces dernières années, résulte de deux mouvements en sens inverse qui viennent se heurter aujourd’hui dans l’archipel nippon. Le plus récent, contemporain des horreurs du siècle précédent, est la naturalisation
cycle à propos du nucléaire / LNA#61
du mal extrême dont j’ai parlé, en citant deux de ses plus grands théoriciens, Hannah Arendt et Günther Anders. Pour parler de l’autre, il faut remonter au premier grand tsunami de l’histoire de la philosophie occidentale, celui qui suivit le tremblement de terre de Lisbonne, le jour de la Toussaint de l’an 1755. Des interprétations rivales qui tentèrent de donner sens à un événement qui frappa le monde de stupeur, celle qui devait l’emporter fut celle de Rousseau dans sa réponse à Voltaire. Non, ce n’est pas Dieu qui punit les hommes pour leurs péchés, oui, on peut trouver une explication humaine, quasi scientifique, en termes d’enchaînement de causes et d’effets. C’est dans l’Émile, en 1762, que Rousseau allait tirer la leçon du désastre : « Homme ne cherche plus l’auteur du mal : cet auteur c’est toi-même. Il n’existe point d’autre mal que celui que tu fais ou que tu souffres, et l’un et l’autre te vient de toi. » Que Rousseau ait gagné est évident dans la manière dont le monde a réagi à deux des plus grandes catastrophes naturelles de ces dernières années : le cyclone Katrina et le tsunami asiatique de Noël 2004. C’est précisément leur statut de catastrophe naturelle qui a été mis en doute. « A man-made disaster » (une catastrophe due à l’homme) titrait le New York Times à propos du premier ; la même chose avait été dite à propos du second avec de bonnes raisons. Si les récifs de corail et les mangroves côtières de Thaïlande n’avaient pas été impitoyablement détruits par l’urbanisation, le tourisme, l’aquaculture et le réchauffement climatique, ils auraient pu freiner l’avancée de la vague meurtrière et réduire significativement l’ampleur du désastre. Quant à la Nouvelle Orléans, on apprit que les jetées qui la protégeaient n’avaient pas été entretenues depuis de nombreuses années et que les gardes nationaux de Louisiane étaient absents parce qu’ils avaient été réquisitionnés en Irak. Et d’abord, qui avait eu l’idée saugrenue de construire cette ville dans un endroit aussi exposé ? On entend déjà dire que jamais le Japon n’aurait dû développer le nucléaire civil, puisque sa géographie le condamnait à le faire dans des zones sismiques exposées aux tsunamis. Bref, c’est l’homme, seulement l’homme, qui est responsable, sinon coupable, des malheurs qui l’accablent.
tragique. Il affirmait que les plus grandes menaces viennent aujourd’hui moins des méchants que des industriels du bien. On doit moins redouter les mauvaises intentions que les entreprises qui, comme l’Agence internationale pour l’énergie atomique, se donnent pour mission d’assurer « la paix, la santé et la prospérité dans le monde entier ». Les antinucléaires qui se croient tenus, pour mener leur combat, de dépeindre leurs ennemis de la façon la plus noire ne comprennent pas qu’ils affaiblissent ainsi leur critique. Il est beaucoup plus grave que les opérateurs des mégamachines qui nous menacent soient des gens compétents et honnêtes. Ils ne peuvent comprendre qu’on s’en prenne à eux. J’ai réservé pour la fin la catastrophe la plus monstrueuse et la plus grotesque : la catastrophe économique et financière. Qu’est-ce que le marché mondialisé sinon une grosse bête stupide et sans nerfs, qui s’affole au moindre bruit et réalise cela même qu’elle anticipe avec terreur. Le monstre s’est déjà emparé du Japon. Il le connaît bien. À la fin des années 80, la capitalisation boursière nippone représentait la moitié de la capitalisation boursière mondiale. On en vint à croire que le pays du soleil levant allait régner sur toute la planète. Le monstre ne le permit pas et il fallut deux décennies à sa victime pour redresser la tête. Aujourd’hui, il sent que l’industrie nucléaire, qui est peut-être la seule au monde à ne pouvoir se relever d’une catastrophe majeure, vacille sur ses bases. Il ne lâchera pas prise.
Entre les catastrophes morales et les catastrophes naturelles se trouvent les catastrophes technologiques et industrielles. Contrairement aux secondes, les hommes en sont de toute évidence responsables mais, contrairement aux premières, c’est parce qu’ils veulent faire le bien qu’ils produisent le mal. Ivan Illich appelait contreproductivité ce retournement 9
LNA#61 / cycle à propos du nucléaire
CEA et Pouvoir (1945 – 1983) Par Alain LERIDON Ancien chef de service au Commissariat à l’Énergie Atomique
En conférence le 11 décembre
D
ans l’ordonnance de création du Commissariat à l’Énergie Atomique par le Général de Gaulle en 1945, il y a trois particularités qui marqueront durablement cette institution : - le rattachement direct au Premier ministre ; - le bicéphalisme au sommet avec un Haut Commissaire qui assure la définition et le déroulement scientifique des programmes et un Administrateur Général qui contrôle l’utilisation des fonds attribués par le gouvernement ; - le flou sur la maîtrise des applications industrielles. Pour autant, l’équipe de « savants », sous la direction de Frédéric Joliot-Curie, se met au travail rapidement et efficacement puisque le premier réacteur nucléaire français (Zoé) démarre le 15 décembre 1948. En novembre 1949, le premier milligramme de plutonium (essentiel pour la fabrication d’une bombe) est séparé du combustible uranium. Sur le plan politique, c’est une autre affaire : le gouvernement découvre que laisser à un membre éminent du Parti Communiste la responsabilité de mener un programme dont les applications militaires sont possibles, alors que l’on est en pleine guerre froide, est vraiment très mal apprécié outre-Atlantique. Joliot est donc limogé en avril 1950. Il est remplacé par Francis Perrin. Mais la décision du Président du Conseil, Georges Bidault, est caractéristique de la politique schizophrène des gouvernements de la IVème République : on reproche à Joliot d’être l’agent publicitaire du Parti Communiste et de ne pas observer son devoir de réserve. La réalité est qu’on n’accepte pas que le Haut Commissaire conteste ouvertement le développement d’un armement nucléaire. Et pourtant, jusqu’en 1958, on le développera quand même, mais sans l’afficher. Même le Président du Conseil, Mendès France, qui affirme solennellement qu’il ne lancera pas un programme de fabrication d’engins nucléaires, laisse au CEA le soin de continuer des programmes sur un « socle » commun de recherche pouvant aboutir à des applications civiles ou militaires. Cependant, les dernières années de la IVème République seront marquées par des décisions importantes pour la suite des programmes nucléaires. - Le plan de développement de 1955-1957 : c’est un programme financièrement important qui vise à augmenter la production d’uranium, la puissance des réacteurs de Marcoule (pour produire des kWh selon Francis Perrin…, pour préparer la bombe selon Pierre Guillaumat qui jouera un rôle important par la suite) ;
10
- La création de la Commission PEON (Production d’Électricité d’Origine Nucléaire) : elle comprend des représentants du Commissariat au Plan, du Ministère de l’Industrie, d’EDF et du CEA. Cette commission de hauts fonctionnaires survivra largement à la IVème République et aura un poids important auprès des décideurs politiques ; - Le deuxième plan nucléaire, qui permettra l’achèvement du réacteur G3 à Marcoule, la création d’un nouveau centre du CEA à Grenoble, le lancement des réacteurs EDF de Chinon. Finalement, la IVème République s’achèvera avec un épisode curieux : Félix Gaillard, grand défenseur de l’énergie nucléaire, quoique président du Conseil démissionnaire, prend secrètement la décision de lancer le programme d’expérimentation des engins au Sahara. Nous sommes en mai 1958 ! Quand le Général de Gaulle arrive au pouvoir, tout est prêt… C’est au mois de novembre 1959 qu’il annonce que l’essentiel de la force de frappe sera évidemment un armement atomique. Cette annonce a été préparée par la décision, en juillet 1958, de construire l’usine d’enrichissement de l’uranium par diffusion gazeuse à Pierrelatte et, en septembre, la création de la Direction des applications militaires au CEA. On poursuit donc, en l’amplifiant, le programme préparé sous la IVème République, mais on ne cache plus ce que l’on fait, on l’annonce urbi et orbi. Quant au nucléaire civil, tel l’intendance, il suivra. Au début des années 1960, la priorité du Général de Gaulle est de mettre fin au conflit algérien qui affaiblit la France et de redonner aux Armées une autre perspective que celle de guerres perdues. Cette assertion est corroborée lors d’un débat à l'Assemblée Nationale sur un projet de loi programme de juillet 1960 « relative à certains équipements militaires ». Le projet est présenté en octobre. Compte tenu de la majorité gaulliste confortable, on peut s’attendre à une formalité ; il n’en est rien car beaucoup de députés pensent que le coût d’un tel programme risque d’être incompatible avec les engagements de l’armée française en Algérie. On peut même supposer que, pour certains députés, ce n’est pas uniquement une question de coûts mais bien un changement total de politique qui est entériné. Le gouvernement Debré doit utiliser l’article 49-3 de la Constitution pour faire passer ce programme. Cette loi permet au CEA d’augmenter considérablement ses moyens humains et financiers : 3 % du budget de la Nation dont les 2/3 vont aux applications militaires. Quant au développement de réacteurs électronucléaires, le Directeur
cycle à propos du nucléaire / LNA#61
des Piles Atomiques au CEA, Jules Horowitz, répond lors d’une audition par le Conseil Économique et Social en septembre 1963 : maintien de la filière Uranium naturel Graphite Gaz (UNGG), remplacement progressif par des réacteurs à eau lourde puis, à plus longue échéance, développement des réacteurs à neutrons rapides qui régleront le problème de la raréfaction de réserves d’uranium. Ces trois filières sont plutonigènes et nécessitent une usine de retraitement des combustibles usés, choses qui sont parfaitement compatibles avec le développement de l’armement nucléaire et qui ont donc l’assentiment du chef de l’État. Si le Président de la République a donc tout lieu de se féliciter de l’action du CEA, cela est moins vrai pour celle d’EDF à qui l’on reproche les retards du démarrage des centrales de Chinon et, plus généralement, de traîner les pieds sur l’accroissement du nombre de centrales UNGG, et de tendre une oreille attentive aux sirènes d’outre-Atlantique qui cherchent à imposer leurs modèles de centrales à uranium enrichi. Le débat qui commence notamment au sein de la commission PEON va s’amplifier avec l’arrivée de Marcel Boiteux à la direction d’EDF, en septembre 1967. Il n’y aura finalement pas d’arbitrage avant la démission du Général de Gaulle en avril 1969. L’arrivée au pouvoir de Georges Pompidou va rebattre les cartes : le 13 novembre 69, le gouvernement de ChabanDelmas autorise EDF à lancer un programme de diversification portant sur plusieurs centrales à uranium enrichi… le choix d’une filière n' intervenant qu’ à l’ issue d’une consultation très ouverte. Marcel Boiteux, le nouveau PDG d’EDF, ne retient que la première directive et abandonne de fait la filière UNGG. Framatome construira les deux premières tranches de Fessenheim sur le modèle Westinghouse. Reste le problème de l’enrichissement nécessaire à cette nouvelle filière : il est décidé dans un cadre européen avec une participation financière iranienne ! La commission PEON propose alors dans le cadre du 6ème Plan (1970-1975) un engagement allant de 3250 MW à 8000 MW (hypothèse forte). Comme il n’y a pas de débat politique, le gouvernement retiendra l’hypothèse haute avec un soutien au développement des réacteurs surgénérateurs.
longer la fameuse loi du doublement de la consommation électrique tous les dix ans… C’est alors le début d’une contestation qui porte, le plus souvent, non pas sur le recours à l’énergie nucléaire mais sur l’ampleur du programme « tout nucléaire ». L’argument du gouvernement et d’EDF est l’indépendance nationale et la limitation des coûts du combustible. L’argument des opposants réside surtout dans le risque d’une panne de mode commun : si tous les réacteurs sont identiques, un incident ou accident sur l’un d’entre eux ne risque-t-il pas – en plus de la contamination importante d’une région – de se reproduire sur tous les autres ? Pourtant, les chantiers se déroulent à peu près selon l’échéancier prévu. EDF réalise ce programme, ce qui est son travail, mais défend aussi son ampleur en lieu et place du gouvernement du Président Giscard d’Estaing qui ne donnera pas de contrôle réel au Parlement et n’accordera aux nouveaux Conseils Régionaux que des bribes de décisions. En 1981, année de changement politique, le programme est à plein régime : plus de 22 000 MWe de réacteurs à eau pressurisée ont été couplés au réseau. Peut-on stopper ou au moins ralentir le train ? La Gauche s’y emploie, un peu maladroitement, en gelant un certain nombre de sites nucléaires mais en laissant aux autorités locales la possibilité de les relancer. Pierre Mauroy tempérera les tentatives de certains députés du Parti Socialiste en arbitrant un peu à la hausse le nombre de réacteurs retenus. L’opposition de Droite contestera la réduction du programme lors du débat à l’Assemblée d’octobre 1981. On s’aperçoit alors que le gouvernement de Gauche aura, lui aussi, la peur du manque d’énergie électrique. C’est finalement le ralentissement de l’économie qui entraînera, deux ans plus tard, une vraie remise en cause du programme.
Le 6 mars 1974, le gouvernement Messmer lance le grand programme électronucléaire français : 14 réacteurs à eau pressurisée et 2 réacteurs à eau bouillante, le rythme de mise en service de ces réacteurs doit être de 6000 MW par an. On a l’impression que le gouvernement souhaite pro11
LNA#61 / cycle la méditerranée
Être pauvre au sud et à l’est de la Méditerranée ? * Par Bouziane SEMMOUD Géographe à l’Université Paris 8 Vincennes - Saint-Denis
En conférence le 4 décembre
L
e souci permanent de comparaisons internationales souligne plus les inégalités que la pauvreté elle-même. C’est l’IDH (indicateur de développement humain) qui a donné lieu aux indices de pauvreté humaine. Le titre du rapport annuel du PNUD 1 de 2008, « Le renforcement des capacités », est significatif du dépassement de la définition de la pauvreté réduite à la dimension monétaire au profit d’une mise en œuvre opératoire du concept des capabilités d’A. Sen, notamment l’accès et surtout la transformation des « ressources » en « fonctionnements » 2. L’Observatoire français des inégalités définit plus généralement trois approches de la pauvreté : l’approche monétaire ou le niveau de revenus, l’approche administrative qui renvoie aux aides apportées aux pauvres et l’approche sociologique qui appréhende les privations ou les incapacités à satisfaire certains besoins. L’intérêt porté à la pauvreté tient au souci des pouvoirs politiques d’assurer la cohésion sociale (France par exemple), la stabilité politique et sociale (Égypte), différentes expressions pour signifier le besoin de régulation des mécanismes du libéralisme généralisé aux deux rives, et – pour les institutions de Bretton Woods – l’atténuation, sur la rive sud, des effets sociaux désastreux des plans d’ajustement structurel (branchements sociaux aux réseaux techniques, résorption de l’habitat précaire). La comparaison entre les deux rives est délicate du fait même des très fortes différences qui affectent l’appréciation des privations par les populations elles-mêmes et la réalité des revenus nécessaires à leur satisfaction. En France, le seuil de pauvreté est fixé à 817 euros par personne et par mois en 2005, concernant 7,1 millions de personnes, soit 12 % de la population, contre 348 livres (LE) soit 60 $ 2005 en Égypte, affectant 36 millions et 52 % des Égyptiens, contre moins de 15 millions selon le gouvernement. La complexité de la notion de pauvreté, les formes diverses qu’elle revêt en fonction des niveaux de développement des contextes ont conduit le PNUD à multiplier les seuils de * Extrait d’un article intitulé Réflexions sur quelques indicateurs socio-économiques, publié en ligne sur le site Redamed, dossier « Des indicateurs statistiques et leur problématique dans l’espace méditerranéen ». Mis en ligne f in 2008 : http://www.redamed.com/indicadores.php 1
Programme des Nations Unies pour le développement.
« La pauvreté ne se résume pas aux difficultés financières dues à un manque d’argent : elle consiste également en un manque d’accès aux ressources essentielles et affecte la santé, l’éducation, la sécurité et les possibilités de participation à la vie politique des gens. » (PNUD, 2008).
2
12
pauvreté en distinguant, prioritairement, pays en développement (1 $, 2 $ et seuil national de pauvreté) et pays de l’OCDE et de l’Europe de l’Est (4 $, 11 $ et 50 % du revenu médian) et à compléter par la dimension de la pauvreté humaine au contenu là aussi différent, mobilisant divers critères. La comparaison de la pauvreté monétaire sur les deux rives en révèle les perceptions très différentes notamment des besoins à satisfaire : alors que, dans les pays du Sud, la satisfaction des besoins vitaux est en général limitée aux besoins caloriques, à l’accès à une eau saine et quelques services de base, en Europe, les privations retenues sont plutôt un chauffage correct du logement, l’achat de vêtements, le cabinet de toilette intérieur. Ces deux manières très contrastées d’apprécier la pauvreté ne rendent pas compte de la diversité au sein même de la grande masse des pays en développement, des plus pauvres à ceux qui disposent de ressources importantes et qui ont atteint très précocement les Objectifs du Millénaire en matière de lutte contre la pauvreté, du moins dans sa forme extrême. Elles consacrent surtout une inégalité des conditions d’existence des êtres humains. Les données sur la pauvreté monétaire sont lacunaires et souvent dépassées pour le Sud et l’Est de la Méditerranée et ne permettent guère une comparaison exhaustive. Les études faites dans les différents pays, sous les auspices de la Banque mondiale d’abord, puis avec l’aide quasi constante du PNUD, montrent que les seuils de cette dernière institution tendent à être adoptés. Ceux-ci apparaissent moins éloignés de la réalité de la pauvreté que le seuil de pauvreté nationale défini par les différents pays eux-mêmes qui tendent à le sous-évaluer avec le cas extrême de l’Égypte qui avance une proportion de 16,7 %, alors même que 44 % de ses habitants vivent avec moins de 2 $ en 2005. Certes, la pauvreté absolue ou extrême placée à 1 $ par personne a quasiment disparu, mais l’on est en droit de se poser la question de la pertinence de ce seuil au regard de la sévère contraction ou de la simple suppression des subventions publiques aux produits alimentaires et de la libéralisation généralisée des prix des produits de consommation. En Algérie, seuls le pain et le lait sont encore subventionnés. En Égypte, le prix du pain a presque doublé en un an avant les émeutes du même nom en avril 2008, comme la majorité des produits alimentaires de base ou les services essentiels tels que les transports collectifs. Là où un dispositif d’aide aux plus démunis, comme en Algérie où l’allocation forfaitaire de solidarité s’élevait à 33 DA en 2005 par jour et
cycle la méditerranée / LNA#61
par personne, montant légèrement supérieur à 1 $, il assure à peine d’échapper à la pauvreté extrême. Plus de 6 millions d’Algériens vivent désormais avec moins de 2 $ par jour. Il est une situation particulière, celle des territoires palestiniens occupés, en particulier du fait des bouclages répétés ou de l’arrêt de l’aide internationale, où la pauvreté concerne près de 60 % des foyers et 30 % dans sa forme extrême (257 $), une pauvreté plus prégnante à Gaza qu’en Cisjordanie et qu’à Jérusalem-Est. L’usage des seuils peut faire illusion dans la mesure où un léger changement peut substituer l’aggravation à la stabilité d’une situation : la pauvreté double en France quand on utilise le seuil de 60 % du revenu médian et non celui de 50 %. L’Observatoire national de la pauvreté et de l’exclusion sociale y montre que si, maintenant le seuil de 50 % du revenu médian, le nombre de pauvres n’a pas augmenté récemment, leur situation a empiré 3. Le seuil de pauvreté importe autant que la situation de ceux qui en sont captifs. L’approche monétaire reste difficile à cerner tant on peine à évaluer les revenus réels du fait de l’informalisation du champ économique qui rend la notion du chômage inopérante, notion qui fait par ailleurs l’objet de manipulations statistiques aisées de la part des organismes officiels. La baisse des taux de chômage officiels tient, là où elle intervient, à la création d’emplois temporaires et à temps partiels, ou encore à l’extension du travail indépendant 4. L’évaluation de cette transformation de l’emploi, productrice de travailleurs pauvres, également prégnante sur la rive nord, est à même de renseigner sur la précarisation et la détérioration des conditions de travail et de vie de la majorité de la population. L’emploi, tel qu’il est proposé, n’est plus une forme privilégiée de lutte contre le sous-développement : sur la rive nord, la France compte 4 millions de travailleurs précaires, 1,3 million d’actifs ont un revenu inférieur au seuil de pauvreté ; en vingt ans, l’emploi partiel y a plus que doublé. En Algérie, le secteur privé est désormais majoritaire dans l’activité économique hors hydrocarbures mais ne participe qu’à hauteur de 7 ou 8 % aux contributions sociales du fait des pratiques informelles généralisées. L’instituteur égyptien faisant le chauffeur de taxi n’est pas seulement anecdotique ; aujourd’hui, occuper un deuxième, voire un troisième
emploi informel devient fréquent. L’emploi informel concernait 1,9 million de Marocains au début des années 2000, soit plus du 1/5ème de l’emploi total. La cohabitation forcée (crise du logement, revenus faibles), ou traditionnelle résiduelle, permet difficilement d’isoler la part de chaque ménage, et a fortiori de chaque individu, dans les dépenses de consommation par exemple, masquant ainsi ou différant la manifestation de la pauvreté. L’évolution récente inquiète plus que les valeurs absolues et relatives, notamment par la rapidité et l’ampleur de la détérioration des niveaux de vie des catégories les plus vulnérables et des classes moyennes, le terme d’appauvrissement ne paraît plus déplacé pour qualifier l’évolution de ces dernières. En quelques années, près de 8 millions d’Égyptiens ont basculé en dessous du seuil de 2 $. L’évolution s’accompagne d’une inégalisation très forte de la répartition des revenus dans ce pays : 20 % des habitants les plus riches en concentrent 43,6 % contre 8,6 % aux 20 % les plus pauvres. Cette inégalisation est à peine plus marquée qu’en rive nord 5 mais elle est en réalité bien plus forte au regard de la faible valeur absolue des revenus. L’ouverture et l’extension des échanges internationaux ont démantelé en Algérie, ou mis à rude épreuve au Maroc et en Tunisie, les appareils productifs locaux et suscité l’élargissement des besoins de consommation désormais satisfaits à coup d’endettement 6. Trois Marocains sur quatre sont endettés, essentiellement des habitants des villes, ne conservant, pour la moitié d’entre eux, que 30 % de leurs salaires après paiement des traites ; en 2007, le taux d’endettement a atteint 45 % pour les Marocains dont le revenu est inférieur à 3000 Dirhams. La même boulimie de crédits s’empare des populations algériennes toutes catégories sociales confondues. Une nouvelle forme de pauvreté se profile avec un modèle de consommation qui privilégie les accessoires matériels de la modernité aux dépens de l’alimentation ou encore l’accès aux soins.
Il faut aller dans les pays du nord de l’Europe, notamment scandinaves, pour trouver des contrastes modérés.
5
Rapport pour 2007-2008 de l’Observatoire national de la pauvreté et de l’exclusion.
3
Et de la prise en compte partielle du travail informel, ce qui ne transparaît pas dans les sources officielles. 4
L’évolution du modèle de consommation est certes une réalité mais l’ampleur qu’elle prend est le produit d’un artifice en ce sens qu’elle est plus stimulée par l’ouverture des économies, notamment aux produits à bon marché, et la généralisation de l’accès au crédit qu’elle n’est engendrée par une véritable élévation du niveau de vie, du moins pour la majorité de la population.
6
13
LNA#61 / cycle la méditerranée
Florence et la naissance de la science moderne Par Bernard MAITTE Professeur émérite à l’Université Lille 1
En conférence le 18 décembre Florence Le Monte alle Croci. Par la promenade des collines, on gagne la terrasse Michelangelo. L’œil y découvre la ville. Au centre, le Duomo. Sa coupole de Brunelleschi, flanquée du campanile de Giotto, ordonne le panorama. Derrière, l’église San Lorenzo et la sacristie des Médicis. À gauche, la façade, due à Alberti, de Santa Maria Novella, qui abrite une fresque de Masaccio, puis la tour du Palazzo Vecchio, dans lequel on vient de découvrir les restes d’une fresque avortée – encore une – de Léonard de Vinci. En avant de la coupole, la « maison de Dante ». À droite, l’église Santa Croce... Les raidillons qui serpentent dans les cyprès mènent à San Miniato al Monte. Le poli de sa façade éblouit : habillée de marbres blancs et verts de Prato, dans le style toscan du XIIème siècle, elle se développe en trois registres. En bas, cinq panneaux construits sur le rectangle d’or et coiffés d’arcs en plein cintre posés sur des demi-colonnes corinthiennes : ils suggèrent la perspective, qui régule cette façade plane. Au dessus, un registre tripartite formé à nouveau de rectangles d’or et épaulé de deux triangles rectangles sur lesquels un quadrillage évoque le théorème de Pythagore ; sa partie centrale est ornée d’une fenêtre, dominée par une mosaïque où le Christ apparaît entre Marie et San Miniato. La façade se termine par un fronton triangulaire où sont figurés les chiffres neuf, cinq, un. Elle est surmontée non d’une croix, mais de l’aigle de la corporation des drapiers, qui a financé l’édifice. Pythagore, Platon, la perspective, le pouvoir économique, étonnamment présents dans la ville, bien avant le Quattrocento… Tournons le dos à la façade : la maison de Galilée est toute proche, puis, au-delà du viale Machiavelli, s’élèvent les murailles édifiées par MichelAnge. Tout est dit. Florence s’est construite d’échanges, d’affrontements entre les pouvoirs civils et religieux. La migration des savoirs Dante (1265 - 1321). Il joue d’abord un rôle politique, participe à la victoire des Guelfes sur les Gibelins, devient un des magistrats de la ville. Il lutte alors avec les Guelfes blancs, partisans de l’autonomie de Florence, contre les Guelfes noirs, alliés du pape. Ceux-ci triomphent. Dante est banni, écrit son œuvre en exil. Dans Il Convivio, face à l’enfermement et au déclin de l’Université et des ordres prêcheurs, à l’arrogance de la noblesse de lignage, il affirme le primat d’une autre noblesse : celle de l’intellectuel. La pensée n’est pas dans le sperme, « une race par soi-même n’a 14
pas d’ âme », n’est pas collective, héréditaire, transmissible, mais individuelle. Elle jaillit de la plume du poète qui, par son travail, ses lectures, se forme une pensée comme histoire, peut proposer une éthique de la destination intellectuelle de l’homme, former un projet culturel arabo-latin et s’en faire le médiateur. Pour cela, Dante utilise la « belle langue florentine » et non plus le latin. Les destinataires de l’œuvre sont les lettrés qui veulent bien se l’approprier. La philosophie se déprofessionnalise, la pensée se laïcise, une nouvelle culture, urbaine, naît. La naissance d’un espace unifié Giotto (1267 - 1337) participe à la migration des savoirs vers la cité et à la naissance de l’humanisme. Ses fresques de Santa Croce ne respectent pas la hiérarchie des valeurs de l’époque médiévale : il ne distingue plus deux Régions cosmiques, la Terre et le Ciel dans lequel étaient placés Dieu et les Saints, mais peint les scènes de la vie de François d’Assise dans l’espace des hommes, unifié et homogène. Bientôt Jean de Médicis (1360 - 1429) commerce avec toute la Méditerranée, développe des ateliers de tissage de laine et de soie, ouvre une banque et des filiales en Italie, à Avignon, Genève, Lyon, Bruges, Londres. Leur activité lui apporte, à la fin de sa vie, la quasi totalité de ses revenus. Son fils, Cosme l’Ancien (1389 - 1464), accroît la fortune, fonde la dynastie des Médicis, devient un grand mécène : à sa cour vivent des hommes spéculatifs, de grands techniciens, les artistes les plus renommés. Leur présence en un même lieu constitue un milieu intellectuel nouveau, une nouvelle « géographie de la pensée » où se construisent de nouvelles valeurs esthétiques. En 1459, Cosme fonde l’Académie Platonicienne de Florence. On s’y tourne vers Pythagore, Platon, l’astrologie, l’alchimie pour contester l’aristotélisme ambiant. Les artistes du Quattrocento italien nous ont laissé des œuvres qui marquent ce basculement. Brunelleschi (1377 - 1446), ingénieur, inventeur de machines, sculpteur, construit la coupole de Florence sans avoir recours à des cintres. Ce faisant, il donne un nouveau statut à l’architecte, capable de concevoir intellectuellement des projets en résolvant, avant la mise en œuvre, tous les problèmes de la construction, de la structure à l’ornementation. En lui se réalise la jonction entre la pratique et la théorie, des mondes du savoir technique et du savoir intellectuel, qui se fécondent mutuellement. Brunelleschi accomplit aussi l’acte inaugural de la perspective : dans la Tavoletta, il représente le baptistère de
cycle la méditerranée / LNA#61
Florence vu depuis le porche du Duomo voisin. Pour cela, il « invente » la représentation perspectiviste, qui organise l’espace pictural selon un point de fuite unique. Les éléments représentés sont ordonnés selon des proportions définies grâce à une formulation expérimentale des lois visuelles de la perspective. Celle-ci est construite pour l’œil du destinataire de l’œuvre : le spectateur. Masaccio (1401 - 1428) va plus loin : dans sa Trinité de Santa Maria Novella, il rend l’espace isotrope et continu, coiffe la figure de Dieu le père d’une architecture humaine : celle qu’invente au même moment Brunelleschi. Alberti (1406 - 1472), fin lettré et humaniste, écrit le De Pictura (1435) : après avoir vérifié avec une chambre noire imitée de Ibn al Haytham les constructions de ses deux prédécesseurs, il les systématise, les théorise, leur donne une base scientifique. Une seule relation fournit la rationalité entre tous les éléments représentés, entre les éléments et l’ensemble. Cette approche est dépassée par Piero della Francesca (1415 - 1492) : il recrée dans ses tableaux une harmonie absolue des proportions entre les hommes et la nature. Elles reflètent la perfection de la Création, correspondant avec tout l’Univers grâce aux « proportions divines » des rapports mathématiques. À la fin de sa vie, il écrit, en langue vernaculaire, son De prospectiva pingendi, qui ramène la variété de la nature à la régularité de la géométrie. À celle-ci s’ajoutent des valeurs numériques : elles marquent la naissance d’une science quantitative, sans que soient nettement séparées les pratiques « empiriques » et l’activité « théorique ». La « petite partie » de la peinture qu’est la construction graphique constitue le terreau préalable d’expériences duquel sortira la géométrie moderne et se dégagera une connaissance, qui pourra être qualifiée de scientifique sans qu’elle soit déduite de la métaphysique. Hermétisme et magie Fils d’un médecin de Cosme de Médicis, Ficin (1433 - 1499) exerce, lui aussi, une influence considérable par sa Théologie platonicienne. Il y emprunte à l’ancienne théologie astrale, aux conceptions chaldéennes, aux commentaires médiévaux, à l’hermétisme, pour écrire un hymne platonicien voulant englober l’Univers entier. La lumière est commune à tous. C’est le seul objet à la fois du regard et de la philosophie. Elle est métaphore de Dieu et de l’esprit, révèle le mode d’être des choses, donne naissance à l’esthétique. Non seulement cet hymne sert de fondement aux mythes solaires de la Renaissance, mais il montre que, dans le mouvement qui anime le milieu intellectuel florentin, la vision du cosmos comme réseau de forces magiques avec lesquelles l’homme va opérer n’est pas à négliger. Sur son lit de mort, Cosme ordonne à Ficin de traduire Hermès Trismégiste, dont tous croient à l’existence. Ficin s’exécute, ce qui renforce son héliolâtrie. Dans ce fonds hermétique apparaît donc la figure du
mage, incarnation d’une figure nouvelle de l’homme par rapport au Cosmos, un homme-mage que Pic de la Mirandole (1463 - 1494) vénère : il constitue une « grande merveille » car il possède des pouvoirs pour agir sur le cosmos ; c’est pour cela qu’il est admiré aussi par Léonard de Vinci (1452 - 1519). Celui-ci cite « Hermès le philosophe », définit la force comme une « essence spirituelle » : ses recherches mathématiques et mécaniques, sous-tendues par une vision animiste de l’Univers, constituent une étape par laquelle passe la « magie naturelle » pour devenir progressivement mécanique. Copernic Nicolas Copernic naît en 1473 à Torun. Son oncle le fait élire chanoine de Warmie. L’élection est contestée : en attendant que l’oncle règle le problème, Copernic part en Italie (1496), y reste jusque 1503. Il s’y familiarise avec l’espace unifié des peintres, s’y imprègne d’héliolâtrie, lit les pythagoriciens de l’Antiquité, qui plaçaient le Soleil au centre du monde. Rentré en Warmie, il rédige le Commentariolus (1509), y expose les idées formées au cours de son séjour. Plus tard, dans le De Revolutionibus (1543), il donne une forme achevée à ses conceptions. Dès la préface, les influences italiennes sont patentes : il s’adresse au pape dans des termes tirés d’Alberti ; dans le corps du texte, il montre son héliolâtrie. Le Soleil, si important pour les perspectivistes, pour les mages de la Renaissance, ne saurait être un mi-lieu, entre la Terre et la sphère des étoiles fixes. Copernic le place au Centre, décrit un monde où les planètes tournent sur des orbes disposés selon des proportions régulières, confère au monde une unité organiciste. Mais, en déplaçant le Soleil, si il s’attire l’adhésion des tenants du nouvel esthétisme, il pose plus de problèmes qu’il n’en résout : son travail reste, dans les calculs, fidèle à Ptolémée ; il ne « sauve pas les apparences » ; en faisant tourner la Terre, il ouvre un immense problème : la « théorie des lieux » d’Aristote, qui rendait compte de la chute des corps, n’est plus valide. Comment expliquer la chute d’une pierre sur une Terre en mouvement ? C’est toute la physique qu’il faudra rebâtir, ce à quoi s’emploiera un autre florentin : Galilée. Bibliographie. Marsile Ficin, Quid sit Lumen, traduction Bertrand Scheffer, Paris, éd. Allia, 1998. Fernand Hallyn, La structure poétique du monde : Copernic, Kepler, Paris, éd. du Seuil, Des Travaux, 1987. Alain de Libera, Penser au Moyen-Âge, Paris, éd. du Seuil, Points-Essais, 1991. Bernard Maitte, Histoire de l’arc-en-ciel, Paris, éd. du Seuil, Scienceouverte, 2005. Frances A. Yates, Science et tradition hermétique, trad. Boris Donné, Paris, éd. Allia, 2009.
15
LNA#61 / paradoxes
Paradoxes
Rubrique de divertissements mathématiques pour ceux qui aiment se prendre la tête * Laboratoire d’Informatique Fondamentale de Lille, UMR CNRS 8022, Bât. M3 extension
Par Jean-Paul DELAHAYE Professeur à l’Université Lille 1 *
Les paradoxes stimulent l’esprit et sont à l’origine de nombreux progrès mathématiques. Notre but est de vous provoquer et de vous faire réfléchir. Si vous pensez avoir une solution au paradoxe proposé, envoyez-la moi (faire parvenir le courrier à l’Espace Culture ou à l’adresse électronique delahaye@lifl.fr). LE PARADOXE PRÉCÉDENT : UN MONDE MATHÉMATIQUE IMMOBILE Le principe de récurrence est l’un des outils les plus puissants du raisonnement mathématique. Il consiste, pour établir une propriété générale du type « pour tout n, P(n) », à prouver deux affirmations : (i) P(0) est vrai ; (ii) si P(n) est vrai pour n = 0, 1, ... k alors P(k + 1) est vrai. Dans un raisonnement par récurrence, l’intuition est parfois un peu perdue. Des erreurs deviennent possibles. Voici un exemple de raisonnement par récurrence conduisant à une absurdité. Nous allons démontrer que toutes les fonctions x —> xn (n un entier fixé) sont des fonctions constantes. (i) C’est vrai pour n = 0 car x 0 = 1 (par convention) et que la dérivée d’une constante est la fonction nulle. (ii) Supposons que c’est vrai pour n = 0, 1, ..., k, c’est-à-dire que la dérivée de la fonction x —> xn est nulle : (xn)’ = 0 pour n = 0, 1, ..., k. Utilisons maintenant la formule de dérivation d’un produit (uv)’ = u’v + uv’. On a : (xk+1)’ = (x. xk )’ = x’.xk + x.(xk)’ On obtient 0 car, d’après l’hypothèse de récurrence, on a x’ = (x1)’ = 0 (on utilise l’hypothèse avec n = 1) et (xk)’ = 0 (on utilise l’hypothèse avec n = k). Nous avons donc (xk +1)’ = 0 ce que nous souhaitions. Qu’est-ce qui cloche ? Solution Merci aux lecteurs qui m’ont envoyé leurs réponses et qui sont dans l’ordre d’arrivée des courriers : Nicolas Vaneecloo, Virginie Delsart, Pascal Mariot et Hervé Moritz. Lorsque k = 0, l’hypothèse de récurrence donne uniquement (x 0)’ = 0 et non pas comme le raisonnement l’utilise que (x 0)’ = 0 et (x1)’ = 0. 16
Le passage de k à k + 1 fonctionne donc bien pour aller de 1 à 2, 2 à 3, de 3 à 4, etc., mais ne marche pas pour aller de 0 à 1. Le seul fait qu’une étape ne puisse fonctionner rend évidemment la conclusion fausse…, ce que nous savions par avance, mais dont il fallait comprendre la raison. La confusion provient de la notation n = 0,1, 2, ..., k qui laisse croire qu’à chaque étape on a au moins P(0) et P(1) vrais, alors qu’en fait lorsque k = 0, on a seulement P(0). NOUVEAU PARADOXE : LE PARADOXE DES FILES DE VOITURES Une section d’autoroute d’une longueur de 18 km possède deux voies R et L. À cause de trous dans la chaussée ou pour d’autres raisons, la voie L est lente, alors que la voie R est rapide. Les voitures ne sont pas autorisées à changer de file sur cette section. La voie L avance à 18 km/h (5 m par seconde). On mesure que les voitures sur la voie L sont séparées de 5 m et donc, en un point donné de la voie L, il passe une voiture chaque seconde. Une voiture engagée sur L y reste 1 heure avant d’arriver à l’extrémité de la section. À chaque instant, il y a donc 3600 voitures sur la voie lente L. La voie rapide R avance à 72 km/h (20 m par seconde). On mesure que les voitures sur la voie R sont espacées de 10 m, et donc, en un point donné de la voie R, il passe 2 voitures par seconde. Une voiture engagée sur R y reste 15 minutes. Puisque la section mesure 18 km, à chaque instant, il y a 1800 voitures sur la voie R. Il résulte aussi de ces données qu’une voiture sur la voie R double 3 voitures de L par seconde et qu’une voiture sur la voie L est doublée 3 fois toutes les 2 secondes. Ces données sont indiquées pour que chacun puisse refaire les petits calculs dont nous indiquons les conclusions. On pourrait bien sûr faire varier un peu ces données sans faire disparaître le paradoxe que nous allons rencontrer. Je suis sur cette autoroute, les yeux bandés. On m’indique qu’il se produit un dépassement. On me pose les questions :
paradoxes / LNA#61
- Quelle est la probabilité P1 que je sois celui qui double ? - Quelle est la probabilité P2 que je sois celui qui est doublé ? Je dois parier pour l’une des deux options. Bien évidemment, on suppose que je ne peux pas percevoir la vitesse de la voiture. Je veux mettre toutes les chances de mon côté. Je réfléchis soigneusement. Trois raisonnements sont possibles, que chacun vérifiera en détail avec les données numériques présentées quand elles interviennent. Raisonnement 1. La réponse aux questions Q1 et Q2 ne dépend pas des données précises du problème car, à chaque dépassement qui se produit, il y a une voiture dépassée et une voiture qui dépasse : j’ai donc autant de chance d’être dans l’une ou l’autre. La réponse est P1 = P2 = 1/2. Raisonnement 2. Sur les 18 kilomètres de la section d’autoroute, il y a 3600 voitures lentes et 1800 voitures rapides. J’ai donc 2 chances sur trois d’être dans une voiture lente et 1 chance sur trois d’être dans une voiture rapide. Si je suis dans une voiture lente, au prochain dépassement, je serai dépassé, si je suis dans une voiture rapide, je dépasserai. Sans information particulière, j’ai donc deux fois plus de chances d’être dans une voiture qui est dépassée que dans une voiture qui dépasse, et les réponses sont donc P1 = 1/3 et P2 = 2/3. Raisonnement 3. À l’entrée de la section d’autoroute concernée, il passe une voiture lente par seconde, et deux voitures rapides par seconde (c’est le cas en fait en chaque point du tronçon). En se présentant à l’entrée de cette section d’autoroute, une voiture ne sait pas quelle est la voie rapide et quelle est la voie lente. Les voitures se disposent donc au hasard et une voiture se retrouve donc 2 fois plus souvent sur la voie rapide que sur la voie lente. Cela est dû simplement au fait que la file rapide absorbe deux fois plus de voitures que la file lente. J’ai donc deux fois plus de chance d’être dans une voiture qui dépasse que dans une voiture qui est dépassée. Les réponses sont donc P1 = 2/3 et P2 = 1/3. C’est ennuyeux, les trois raisonnements qui sont absolument rigoureux – refaites les calculs – aboutissent à trois conclusions différentes. Comment se sortir du paradoxe ?
17
LNA#61 / mémoires de sciences : rubrique dirigée par Rémi Franckowiak et Bernard Maitte
Et voilà le travail !
La riche impureté de la naissance d’un concept Par Yannick FONTENEAU Docteur en histoire des sciences, Centre d’Histoire des Sciences et d’Épistémologie (UMR STL 8163), Université Lille 1 La physique est-elle réductible à son formalisme ? Exemple ici avec le travail mécanique. La raison d’être de sa création par Coriolis et ses collègues et sa substance même sont largement économiques. Il est l’aboutissement d’un long chemin : 130 ans avant, on observe l’émergence d’antécédents de ce concept répondant aux mêmes démarches et aux mêmes motivations économiques au sein de l’Académie Royale des Sciences.
L
a physique enseignée aujourd’hui en France se présente d’emblée comme un ensemble extrêmement mathématisé et formalisé, duquel on perçoit difficilement le sens physique et les concepts. Par bien des côtés, elle se réduit au dressage aux normes actuelles. Il serait pourtant important de montrer comment elle fonctionne, comment ses concepts ont été introduits et quelle est leur vie. Les étudiants constateraient alors que la science, dont la prétention est de viser à l’universel, part des contingences et, dans les réductions qu’elle opère, dépend fortement du contexte dans lequel elle se développe. C’est le cas de ce concept de la mécanique appelé « travail mécanique ». Voilà un concept bien négligé. Bien souvent les étudiants ne comprennent d’ailleurs pas à quoi il peut bien servir, puisqu’on le met constamment en rapport avec l’énergie, et qu’on lui donne la même unité que cette dernière. Une variation d’énergie, voilà tout. Une technique calculatoire pratique. Trois ou quatre lignes pour le définir sommairement : W =⌠F.dx, et roulez jeunesse. Mais derrière cette simple formule, c’est plus de 130 ans d’histoire qui se cachent, une histoire faite de machines grinçantes, d’hommes fatigués et de bêtes suantes. 1699 : un moulin à… feu L’histoire du concept débute en 1699, quand on commence à vouloir quantifier et rationaliser le travail des agents producteurs. Au crépuscule du Grand Siècle, le temps n’est plus à la science curieuse, mais à la science utile. Pour se légitimer, la science doit montrer au pouvoir qu’elle peut lui être bénéfique dans le jeu de concurrence européen, en lui apportant des avantages décisifs pour maintenir et augmenter sa puissance. C’est dans ce contexte qu’à l’Académie des Sciences Guillaume Amontons (1663 - 1705), bien oublié aujourd’hui, présente un projet original : un moulin… à feu ! Tout comme il existe des moulins à eau ou à vent, il s’agit de tirer de cet élément une force motrice dont l’effet pourra remplacer le travail de bien des hommes ou bêtes. Le principe ? De l’air emprisonné dans la roue se dilate par chauffage et communique avec des cellules pleines d’eau. L’eau est alors chassée plus haut dans la roue du moulin, faisant
18
ainsi contrepoids, et provoquant la rotation de la roue (voir figures). Mais Amontons ne s’arrête pas là. Il veut calculer l’effet de ce moulin et, mieux, le comparer au travail des hommes. Pour ce faire, il invente une mesure qu’il appelle puissance continuelle, dimensionnellement identique à ce que nous appelons aujourd’hui puissance (le travail par unité de temps). Amontons se rend alors dans des ateliers de polissage du verre, où il va mesurer la force mise en œuvre par les ouvriers pour faire agir leur polissoir, l’espace que parcourent leurs mains durant cet ouvrage, et le temps de travail effectif. Ce qui lui permet ensuite de calculer cette puissance continuelle, en multipliant la force par la distance et en divisant le tout par le temps. Il normalise ses résultats au temps de travail quotidien des ouvriers, ce qui le conduit à éliminer tout ce qui ne relève pas stricto sensu du polissage durant le travail et les temps de pause (2 heures sur… 14 heures de présence !). Faisant de même pour les chevaux et pour son moulin, il peut alors simplement calculer que le travail de son moulin est équivalent au travail de 39 chevaux, soit 234 hommes ! Mais cette mesure du travail des agents a un but : le calcul du coût économique de l’utilisation des chevaux, comparé à son moulin seul. En prenant en considération les coûts d’entretien de cette force de production et le temps de travail effectif sur l’année, il conclut qu’il faudrait dépenser 78 livres par jour pour obtenir des chevaux le même travail que son moulin. Soit le salaire quotidien de 312 valets d’écurie… Conclusion : tant qu’on ne dépense pas plus de 78 livres en bois pour alimenter le fourneau, le moulin est plus rentable que les chevaux. La raison d’être de son concept de puissance continuelle est donc de nature économique. Il est le reflet d’une notion économique tout autant qu’anthropomorphique. Il est au service d’une logique de maximisation : obtenir le plus de travail réalisé, en dépensant moins. La modernité d’Amontons ne tient pas spécifiquement à cette logique de maximisation, mais plutôt à ce qu’elle trouve à s’appuyer sur un indicateur scientifique représentatif de la force productive en général et du travail humain en particulier. La puissance continuelle permet la prévision comptable et unifiée des effets mécaniques et des coûts monétaires.
mémoires de sciences : rubrique dirigée par Rémi Franckowiak et Bernard Maitte / LNA#61
Ci-dessus : Moulin à feu d’Amontons. À droite : Principe de fonctionnement du moulin à feu d’Amontons.
XIXème siècle : le travail chez Coriolis et ses collègues Or, 130 ans séparent ce premier antécédent de l’entrée du concept dans la mécanique théorique. On attribue généralement ce mérite à Coriolis en 1829. En réalité, c’est tout un groupe d’ingénieurs-savants formés à l’École Polytechnique, dont Navier, qui a contribué à ce résultat 1. On le voit, le travail est antérieur de vingt ans à l’invention de l’énergie. Quel est l’intérêt d’un tel concept ? Pour Coriolis et ses collègues, comme pour Amontons, il réside dans son caractère pratique : le concept a une forte assise économique. Jugez plutôt ce qu’en dit Coriolis : « Cette quantité sert de base à l’ évaluation des moteurs dans le commerce ; […] c’est le travail qu’on doit chercher à économiser, et […] c’est à cette même quantité que se rapportent principalement toutes les questions d’ économie dans l’emploi des moteurs. » 2 « Les machines ne font qu’employer et économiser le travail, sans pouvoir l’augmenter ; dès lors la faculté de le produire se vend, s’achète, et s’ économise comme toutes les choses utiles qui ne sont pas en extrême abondance. » 3 La question de l’emploi du travail pour Coriolis est ni plus ni moins une affaire d’allocation optimale d’une ressource rare. Par ailleurs : « Ce nom ne fera confusion avec aucune autre dénomination mécanique ; il paraît être très propre à donner une juste idée de la chose, tout en conservant son acception commune de travail physique. » 4 La volonté de Coriolis est claire : dans son esprit, ce concept est la traduction dans la sphère théorique de l’idée de travail, travail exercé par un homme notamment. En passant
Pour une vision synthétique du travail chez Coriolis et Navier, cf. par exemple K. Chatzis, Économie, machines et mécanique rationnelle : la naissance du concept de travail chez les ingénieurs-savants français entre 1819 et 1829, Annales des Ponts et Chaussées, nouvelle série, n° 82, 1997, pp. 10-20. 1
du qualitatif au quantitatif par le biais de la définition qu’il en propose, Coriolis permet d’avoir une mesure qui, premièrement, a un sens économique pour comparer l’effet des agents producteurs entre eux (une « monnaie mécanique » disait Navier en 1819), peut ensuite servir à une optimisation des moyens de production et, troisièmement, peut se rattacher aux outils connus de la mécanique rationnelle. C’est donc un cadre productif, économique, qui amène à l’entrée de ce concept dans la mécanique rationnelle. Une réinterprétation économique de la nature Je viens de relater le début du chemin, Amontons, et la fin, Coriolis et ses collègues. Entre les deux, toute une tradition calculatoire du travail des agents producteurs et de tentatives d’arraisonnement de la mécanique pratique à la mécanique rationnelle 5. Alors pourquoi le travail n’entre-t-il pas plus tôt dans la mécanique théorique, malgré ce jeu incessant entre les deux ? Parce que, pendant longtemps, la nature n’est pas perçue comme une entité capable de fournir seule du travail, au contraire des hommes. Pour qu’un outil destiné en premier lieu à l’anticipation et la comparaison des effets des agents producteurs devienne un concept central de la mécanique, il faut que s’opère un renversement : celui faisant de la nature une entité laborieuse. Les forces de la nature peuvent donc fournir du travail au même titre que les hommes, les bêtes, et l’effet d’une machine. Derrière cette conceptualisation, on le voit, il a fallu réinterpréter économiquement la mécanique, en lui appliquant des concepts qui, jusque-là, n’avaient rien à faire avec la définition qu’on se faisait de la nature. Il a fallu appliquer à la nature des catégories de travail, de production, de rentabilité, de valeur, toutes catégories économiques, pour faire surgir une théorie mécanique nouvelle, faite de consumation de forces et de dépense de potentialité.
2 G. Coriolis, Du calcul de l’effet des machines, ou Considérations sur l’emploi des moteurs et sur leur évaluation, pour servir d’ introduction a l’ étude spéciale des machines, Paris, Éd. Carilian-Golury, 1829, art. 26.
Ibid.
3
Ibid., art 16, p. 17.
4
Cf. Y. Fonteneau, Les Antécédents du concept de travail mécanique chez Amontons, Parent et D. Bernoulli : de la qualité à la quantité (1699-1738), Dix-Huitième Siècle, n° 41, 2009, pp. 343-368.
5
19
LNA#61 / repenser la politique
Justice sociale et liberté Par Alain CAMBIER Docteur en philosophie, professeur en classes préparatoires, Faidherbe - Lille
Invoquer la justice sociale peut aujourd’hui paraître incongru. Lors de la dernière période électorale, certains n’ont pas hésité à stigmatiser l’assistanat, sous prétexte de s’attaquer aux tabous de la société française, tout en justifiant, dans le même temps, les effets d’aubaine socio-économiques les plus aberrants : rémunérations pharaoniques des patrons du Cac 40, exonération totale des droits de succession, défiscalisation des heures supplémentaires, etc. Exprimer le souci de l’équité tend à être considéré au mieux comme passéiste. Au pire, la revendication de justice sociale est accusée de remettre en cause les libertés et de nous engager sur la voie du totalitarisme. Le refoulement de la question de la justice dans le droit positif moderne Marquée par l’émergence du libéralisme, la modernité a créé un hiatus entre l’exigence de liberté et la recherche de la justice. La théorie moderne des droits naturels s’est référée non plus à un ordre social englobant, mais à des prérogatives inhérentes à la personne individuelle : chacun étant alors considéré comme le seul juge de soi-même 1. L’ancienne politeia était considérée comme une communauté politique fondée sur la réciprocité entre l’individuel et le collectif. Or, selon la définition qu’en donne Hobbes, le droit naturel moderne se résume à la liberté de chaque homme de se servir de sa puissance à son gré pour préserver sa vie. Dès lors, la règle de justice ne peut être que négative : elle se réduit à ne pas porter atteinte à autrui (neminem laedere). La recherche d’une justice commune est alors évacuée du problème politique : le seul bien commun est d’être sorti de l’état de nature, c’est-à-dire se réduit à la sécurité. L’État n’a plus alors pour fonction que de préserver, par la force des lois, la survie de chacun, sa liberté, sa propriété, mais non le « bien vivre » ensemble. Car la question des fins ne relèverait que des personnes individuelles. Ainsi, l’on comprend que le légicentrisme de l’État moderne se soit contenté d’un droit positif formel (jus strictum). La loi censée ne faire acception de personne vise exclusivement à établir l’ordre : la justice légale permet à la liberté de tout un chacun de coexister avec la liberté de l’autre. La légalité se contente ici de garantir les « droits de… », c’est-à-dire les droits-libertés, en sanctionnant tout délit. Le positivisme juridique a lui-même évacué volontairement le problème de la justice. Pour Kelsen, il s’agissait d’une question métaphysique qui sortait du cadre du droit positif dont l’unique but serait de faire respecter des normes 2 . Ce refoulement de la question de la justice se retrouve a fortiori dans le cadre du néolibéra-
Au contraire, Aristote affirmait : « On est mauvais juge s’il s’agit de soi-même », Politique, III, 1280a. 1
Cf. Hans Kelsen, Théorie générale du droit et de l’État, éd. LGDJ, 1997.
2
20
lisme contemporain qui substitue au modèle institutionnel normatif et formel un modèle exclusivement utilitariste visant l’optimisation tactique des conduites humaines pour les rendre encore plus rentables. Le repli de chacun sur ses intérêts égoïstes est alors légitimé, au mépris des autres. La justice distributive comme « vertu complète » Pourtant, dès l’Antiquité, Aristote avait souligné que la finalité du droit était la justice, et non simplement la conformité à la loi. L’usage le plus commun considère qu’est injuste celui qui viole la loi, mais Aristote distingue le légal et l’égal : le respect de la loi ne suffit pas encore pour garantir la justice. Le légal ne représente encore que « la moitié du juste total » et la recherche de l’égalité implique de prendre en compte les biens extérieurs, les situations concrètes, les valeurs des personnes… C’est pourquoi Aristote a fait de l’équité un correctif de la loi et jeté les bases de la justice distributive et redistributive, qui permet non seulement d’ordonner les individus ou les catégories d’individus au bien commun – comme pour la légalité – mais surtout d’ordonner le bien commun aux individus membres de la société. Ainsi, il ne serait pas juste de donner la même part d’un gâteau à celui qui est repu et à celui qui n’a pas encore mangé… Cette justice distributive assure donc une égalité proportionnée aux situations des uns et des autres (suum cuique tribuere). La justice est définie comme la vertu la plus complète, puisqu’elle tient compte de nos relations avec nos semblables 3. Elle est la condition de cette amitié élémentaire indispensable à toute vie sociale et à la concorde nécessaire pour l’unité politique d’une société. C’est pourquoi Aristote pouvait affirmer que la mesure d’une association humaine est celle de l’amitié et du juste qui y règnent 4.
3 « L’homme le plus parfait n’est pas l’homme qui exerce sa vertu seulement envers lui-même, mais celui qui la pratique aussi à l’égard d’autrui », Aristote, Éthique à Nicomaque, V, 3. 4
Aristote, Éthique à Nicomaque, VIII.
repenser la politique / LNA#61
Justice et État providence Par rapport au type de communauté historique auquel Aristote se référait, la modernité a semblé rompre totalement, en faisant de la personne individuelle l’atome social par excellence. Le libéralisme a fait de la compétition des intérêts particuliers l’aiguillon même du progrès de la société et de l’enrichissement des nations 5. Le droit positif tendit alors à n’être plus que le cadre strictement formel des échanges socio-économiques. Mais le paradoxe du libéralisme moderne est qu’en visant le progrès global d’une nation – par le biais du marché – il a conduit – dès la première moitié du XIXème siècle – à une paupérisation des classes les plus vulnérables. Ainsi a-t-il finalement favorisé l’inimitié entre les hommes et sapé l’unité de la société. C’est pourquoi l’apparition de l’État Providence – à la fin du XIXème siècle 6 – a été la réponse nécessaire pour corriger les phénomènes sociaux anomiques engendrés par les effets pervers du libéralisme sauvage. Comme l’a très bien souligné Karl Polanyi : « La conspiration antilibérale est une invention pure. La grande variété des formes prises par le contre-mouvement ‘collectiviste’ n’est pas due à quelque préférence pour le socialisme ou le nationalisme de la part d’intérêts concertés, mais exclusivement au registre plus large des intérêts sociaux vitaux atteints par le mécanisme de marché en expansion » 7. Quand le libéralisme économique est venu saper les conditions de la « survie » censée être pourtant garantie par le libéralisme politique, alors s'est imposée la reformulation par l'État-Providence du droit à la sécurité. Ce n’est pas un hasard si des régimes extrêmement différents comme l’Angleterre victorienne, la Prusse de Bismarck et la France de la Troisième République promulguèrent, à peu près à la même époque, des lois sociales allant à l’encontre du libéralisme orthodoxe. En un mot, tout comme il avait fallu l’interventionnisme de l’État pour établir l’économie de marché, il fallait nécessairement de nouveau faire appel à cet interventionnisme étatique pour limiter les conséquences dévastatrices d’une économie de marché livrée à elle-même. La confusion entre État Providence et totalitarisme Il y a donc une imposture de la part des pères spirituels du néolibéralisme et des partisans actuels de l’ultralibéralisme quand ils présentent l’État-Providence comme l’antichambre du système totalitaire. Pour reprendre la métaphore célèbre de Von Hayek 8 , si un individu veut
se rendre d’un lieu à un autre, il vaut certes mieux qu’il voyage librement en se soumettant aux règles strictes du code de la route (assimilé au droit positif formel), plutôt que de se voir imposer un itinéraire totalement planifié par une autorité tutélaire (censée figurer l’État totalitaire). Mais Von Hayek oublie qu’il est tout aussi légitime de voyager en autocar ou en train – a fortiori si l’individu n’a pas de voiture : on ne perd pas sa liberté à voyager en transports en commun (incarnant ici l’État-Providence) ! Répondre des droits-créances n’est pas nécessairement incompatible avec le fait de vouloir faire respecter les droits-libertés : chacun peut légitimement revendiquer les moyens de ses droits. Michel Foucault a dénoncé cet amalgame insidieux effectué entre système totalitaire et État-Providence : le totalitarisme ne correspond pas à une hypertrophie d’État, mais bien plutôt à un « dépérissement de l’État » dû au parti unique qui l’a phagocyté et a développé de manière tentaculaire une « gouvernementalité de parti ». Foucault a souligné, au contraire, les dangers de cette « phobie d’État », de la « critique inflationniste de l’État » 9. La « charité du sage » Il est scandaleux de faire croire aujourd’hui que vouloir la justice sociale équivaudrait à mettre en péril la démocratie, alors qu’en réalité l’impérialisme des marchés livrés à euxmêmes constitue pour elle la vraie menace. L’exigence de justice sociale a le mérite de rappeler à chacun ses obligations vis-à-vis des autres, puisque personne ne peut se targuer de s’être « fait » totalement lui-même. La solidarité n’est pas une question idéologique, mais un impératif de la raison pour garantir une vie en bonne intelligence avec ses semblables. Comme le suggérait déjà Leibniz, quand quelqu’un se noie dans la rivière, nous pouvons certes prétendre avoir la conscience tranquille si nous ne l’avons pas poussé dans l’eau et le droit formel ne nous sanctionnerait que dans le cas contraire ; mais si nous avons la possibilité de lui jeter une corde pour l’aider à s’en sortir et que nous ne le faisons pas, nous sommes légitimement condamnables. Leibniz définissait la justice comme la « charité du sage », et toute société humaine qui fait nécessairement de nous des partenaires ne peut s’en dispenser. C’est pourquoi ce penseur – contemporain de l’émergence du libéralisme – mettait déjà en garde contre toute conception restrictive du droit positif et présentait le souci de l’équité comme un « droit de société ». Avant l'heure, Leibniz érigeait la « politique du care » en « droit régalien » 10.
Cf. Adam Smith, Recherches sur la nature et les causes de la richesse des nations.
5
En France, l’adoption de la loi Nadaud sur les accidents de travail, en avril 1898, apparaît comme l’acte de baptême de l’État providence. 6
Karl Polanyi, La grande transformation, éd. Gallimard, 1983, pp. 196-203.
7
Cf. Von Hayek, La route de la servitude, éd. Quadrige/PUF.
8
9 Cf. Michel Foucault, Naissance de la biopolitique, éd. Gallimard, 2004, p. 115 & pp. 193-197.
Cf. Leibniz, Le droit de la raison, textes réunis par René Sève, éd. Vrin, 1994.
10
21
LNA#61 / à lire
Artistes de laboratoire *
Recherche et création à l’ère numérique Par Jean-Paul FOURMENTRAUX Sociologue, maître de conférences à l’Université Lille 3, Laboratoire GÉRiiCO, chercheur associé au centre de sociologie du travail et des arts (EHESS)
Depuis une dizaine d’années, le numérique bouscule les frontières entre des domaines de l’activité artistique qui étaient jusque-là relativement cloisonnés : arts plastiques, littérature, spectacle vivant, musique et audiovisuel. Nombre de projets artistiques en lien avec les technologies informatiques et multimédias mettent en œuvre des partenariats pluridisciplinaires où cohabitent le théâtre, la danse, le cinéma ou la vidéo et le son.
L
a création artistique et la recherche technologique, qui constituaient autrefois des domaines nettement séparés et quasiment imperméables, sont aujourd’hui à ce point intriqués que toute innovation au sein de l’un intéresse (et infléchit) le développement de l’autre. Les œuvres hybrides qui résultent de leur interpénétration rendent irréversible le morcellement des anciennes frontières opposant art et science. La manière inédite dont celles-ci se recomposent amène à s’interroger, d’une part, sur l’articulation qui, désormais, permet à la recherche et à la création d’interagir et, d’autre part, sur la redéfinition des figures de l’artiste ainsi que des modes de valorisation des œuvres spécifiques à ce contexte. Car, plus que de transformer seulement les modalités du travail de création, un enjeu tout aussi important de ces partenariats réside dans la nécessaire redéfinition de la (ou des) finalité(s) de ce qui y est produit. La question cruciale devenant alors celle de la clôture de l’œuvre et de ses mises en valeurs entre logiques artistiques (qualité esthétique, projet d’exposition) et technologiques (recherche et développement, transfert industriel). Le suivi d’ « affaires » de recherche-création en art numérique révèle ainsi des enjeux renouvelés – mutations du travail artistique, redéfinition des modes de production et de circulation des œuvres, outils et stratégies renouvelés de mise en public, en exposition ou en marché – et fait apparaître une transformation des modes d’attribution et de valorisation des œuvres, partagées entre art et science. Ce rapprochement des arts et de la recherche dans le domaine des technologies numériques interactives et de l’audiovisuel multimédia constitue aujourd’hui un enjeu dynamique d’innovation internationale. Depuis une dizaine d’années, de nombreux pays mettent en œuvre des interfaces originales pour favoriser ce rapprochement et en
22
faire le moteur d’une double innovation technologique et culturelle 1. Les cas de double réussite restent bien sûr encore rares, mais il en existe : qualité des productions artistiques et de leur rayonnement dans le milieu des arts, doublée d’une mise en marché efficace et rentable d’applications ou de procédés technologiques directement issus de la recherche artistique ou de la production d’œuvres culturelles. La France s’est par exemple dotée de deux dispositifs de soutien institutionnel à la création audiovisuelle multimédia (DICREAM) et à l’ innovation audiovisuelle multimédia (RIAM) qui constituent, depuis leur création en 2001, de nouveaux points d’appuis pour un croisement productif des objectifs et attentes artistiques et industrielles. L’exigence de « valeurs croisées » Dans ce contexte, la production de « valeurs croisées » ne présuppose pas une synergie de l’art et de la science ou de la recherche technologique. Au contraire, évitant les écueils de la fusion ou de l’instrumentalisation, il s’agit d’organiser la relation dans le sens d’un apprentissage réciproque et d’une production multicentrique. L’examen de ces croisements de l’innovation artistique et technologique met désormais en jeu une conception coordonnée, un développement agrégé et une valorisation fragmentaire de la production :
* Artistes de Laboratoire, éd. Hermann, novembre 2011 (préface de Pierre-Michel Menger). 1 Cf. S. Bianchini, JP. Fourmentraux, É. Mahé, « Recherche Développement » et création artistique, in Valeurs Croisées / Crossing value, éd. Les presses du réel, Dijon, 2009, pp. 136-145. Jean-Paul Fourmentraux, Governing Artistic Innovation : an interface among Art, Science and Industry, Leonardo Vol. 40, n° 5, 2007.
à lire / LNA#61
Roland Auzet, Oscar, Pièce de cirque, scénographie multimédia, 2005.
- le travail de conception doit y être coordonné dans la mesure où il met en relation les savoirs et savoir-faire hybrides de collectifs hétérogènes : artistes, chercheurs, entrepreneurs ; - la phase de développement doit agréger ces traductions de buts et d’intérêts en un programme de création homogène visant à garantir l’irréversibilité des résultats ; - mais la valorisation suppose in fine de fragmenter ces résultats pour les redistribuer entre les collectifs et les mondes hétérogènes dans lesquels ils pourront circuler. Autrement dit, chacun des partenaires – détenteurs de savoirs et de compétences hétérogènes, inscrits dans une culture ou un corps professionnel qui a ses propres valeurs, mais aussi ses instances de désignation et de légitimation spécifiques de ce qu’est le travail, l’œuvre, l’action – y est invité à renouveler le cadre et les modalités de la relation et de l’échange. Une recherche-création partagée La rencontre entre art et science suppose en effet la définition préalable des finalités d’une recherche-création commune. Cette rencontre ne doit pas être imposée par l’amont hiérarchique mais co-construite avec les différents acteurs parties prenantes du processus – artistes, chercheurs, entrepreneurs – dans un dialogue favorisé et constant. En résumé, la recherche-création introduit deux critères désormais essentiels : - le travail en équipes interdisciplinaires ; - l’impératif d’un programme de recherche transversal à plusieurs œuvres ou projets artistiques.
développement de logiciels ou d’outils novateurs ; - les « contributions théoriques », qui poursuivent une perspective analytique et critique d’accumulation de connaissances. Ce morcellement du travail créatif engendre donc des modes pluriels de désignation de ce qui fait « l’œuvre commune 2 ». Dans ce contexte, la création ne repose plus sur un schéma hiérarchique qui ferait intervenir une distribution réglée des apports en conception et en sous-traitance, selon des échelles de valeur et de rétribution enrôlant une longue chaîne de travailleurs, au service, à chaque fois, d’un créateur singulier. Le travail de création se voit au contraire distribué sur différentes scènes et entre plusieurs acteurs pour lesquels il est possible de préciser des enjeux de recherche distinctifs, suivant des expertises et des agendas variés. L’enjeu vise ainsi un dépassement du « conflit culturel » caractéristique des modèles antérieurs de convergences « arts - sciences - technologies » entre des acteurs (informaticiens, managers, artistes, industriels) dont les qualifications, compétences et finalités étaient a priori conçues comme opposées 3. À lire également : Art et Internet. Les nouvelles figures de la création, CNRS éditions, rééd. 2010. L' ère post-média. Humanités digitales et cultures numériques (dir.), éd. Hermann, 2011. L'œuvre commune. Affaire d'art et de citoyen, Les Presses du réel, 2012.
Il s’agit alors de favoriser une certaine « modularité » de la production, en même temps que des formes alternatives de distribution des activités de création et de leurs résultats. Trois types de projets phares peuvent être distingués : - les « créations artistiques », qui mènent vers la réalisation d’une œuvre, d’un dispositif ou d’une installation artistique ; - les « découvertes technologiques », qui impliquent le
Cf. Jean-Paul Fourmentraux, « Faire œuvre commune. Dynamiques d’attribution et de valorisation des co-productions en art numérique », Sociologie du Travail, Vol. 49, n° 2, 2007, pp. 162-179 et « Œuvrer en commun. Dilemmes de la création interdisciplinaire négociée », Négociations, 2008/2, n° 10, pp. 25-39. 2
Cf. Xavier Greffe, Arts et artistes au miroir de l’ économie, Paris, éd. Economica, 2003 ; Pierre-Michel Menger, Portrait de l’artiste en travailleur. Métamorphoses du capitalisme, Paris, éd. du Seuil, 2003.
3
23
LNA#61 / chroniques d'économie politique coordonnées par Richard Sobel
Les crises du logement Par Didier CORNUEL Professeur en économie, Faculté des Sciences Économiques et Sociales, Université Lille 1
Vu par les médias, le logement n’a l’air de fonctionner que sur le mode de la crise : crise des subprimes, crise des mal-logés ou des sans-logements. Du point de vue économique, le terme de crise a deux significations. Il correspond d’une part à un moment d’un cycle, par exemple en 2008-2009, où les volumes de transaction et les prix se contractent. Mais le terme exprime aussi une insuffisance de logements, plutôt durable. Ces deux significations sont antinomiques, l’une correspondant à un excès qui tend à faire baisser les prix, l’autre à un manque qui tend à les faire monter. Où en sommes-nous ? Que peut en dire l’économiste ?
P
our y répondre, il faut d’abord revenir aux mécanismes de fonctionnement de base du marché du logement, avant d’aborder les phénomènes observés. Le fonctionnement du marché du logement
À la différence des biens manufacturés que l’on peut fabriquer à l’identique, les logements sont des biens hétérogènes, quasiment tous différents, ne serait-ce que par leur localisation. Par conséquent, tout le monde ne peut pas avoir le même logement, indépendamment des différences de capacité de paiement. Sur cette base, les économistes conçoivent le marché du logement comme fonctionnant selon un mécanisme d’enchères où les biens (à louer ou à acheter) sont attribués au plus offrant, en commençant par les plus attractifs. Ce mécanisme est à la fois un mécanisme de détermination des prix mais aussi un mécanisme d’allocation des biens. Quand tous les ménages sont servis, il peut rester des logements durablement vacants, les moins attractifs. Inversement, quand tous les logements sont occupés, il peut rester des ménages sans logement ou ne pouvant accéder qu’à un logement inférieur aux normes sociales du moment. Ceci justifie que les pouvoirs publics interviennent pour les aider. Quand il reste durablement à la fois des logements vacants et des ménages non logés, il s’agit d’une défaillance du marché dont la correction par tout moyen est économiquement fondée. Il résulte de ce mode de fonctionnement du marché que c’est la demande qui détermine le prix. Les logements ne sont donc pas trop chers pour les ménages, sinon ils ne les achèteraient ou ne les loueraient pas. Par contre, pour certains ménages, certains logements sont trop chers parce que d’autres ménages ont une capacité de paiement plus élevée. Ceci peut être générateur de frustration et donner la perception d’une crise. Un phénomène structurel : l’accroissement de la demande du nombre de logements Au 1er janvier 2011, la population de la France métropolitaine est de 63,1 millions d’habitants pour lesquels il y avait 24
33,3 millions de logements, soit plus d’un logement pour 2 personnes en moyenne. La population vit en ménages, un ménage étant défini comme l’ensemble des personnes habitant un même logement. La formation des ménages est donc un élément constitutif de la demande de logement. Or, une tendance lourde est que le nombre de ménages croît à un rythme près d’une fois et demie supérieur au rythme de croissance de la population. Les phénomènes sont donc différents selon qu’on les observe au niveau de l’ensemble de la population ou au niveau des ménages. Ainsi, le pouvoir d’achat locatif de l’ensemble de la population, c’est-à-dire le revenu disponible global corrigé de l’indice des loyers, s’est accru de 40 % depuis 30 ans. Le pouvoir d’achat locatif par ménage, qui prend en compte le nombre de ménages, est resté à peu près stable sur la même période. Autrement dit, l’accroissement de pouvoir d’achat locatif global a été consacré quasi exclusivement à une fragmentation de la population en ménages de plus en plus nombreux et donc de plus en plus petits. Cette fragmentation s’est donc traduite par un accroissement de la demande de logement qui a pris la forme d’un accroissement du nombre de logements. Les perspectives démographiques laissent penser que ce phénomène va continuer encore pendant les années à venir. La tension sur le marché du logement va donc perdurer, ce qui peut être considéré comme une crise structurelle. À cette évolution tendancielle s’est ajouté un phénomène conjoncturel, un cycle, engagé à la fin des années 1990, dont nous ne sommes pas encore sortis. Le cycle des années 2000 - 2012 en France La dynamique du marché immobilier qui s’est mise en œuvre en France à la fin des années 1990 s’est manifestée par un doublement du prix des biens en moins de 10 ans. À quoi est dû ce phénomène ? On a vu que le prix des logements est fonction de la capacité de paiement des ménages. En ce qui concerne l’acquisition des logements, cette capacité de paiement est fonction du revenu et des conditions de prêt qui déterminent le montant
chroniques d'économie politique coordonnées par Richard Sobel / LNA#61
des annuités de remboursement. La période 1998-2007 a connu une amélioration des conditions de prêt qui, selon Axel Weber, le gouverneur de la Banque centrale allemande, n’ont pas été aussi favorables depuis Bismarck ! En France, de 2000 à 2006, la durée moyenne des prêts est passée de 13,8 ans à 19,9 et le taux d’intérêt est passé de 6,2 % à 3,5 %. Cette amélioration des conditions de prêt a permis aux ménages de doubler leur capacité d’emprunt avec un taux d’effort (mensualité sur revenu) faiblement augmenté. Le doublement de la capacité de paiement a été entièrement absorbé par l’augmentation des prix. C’est donc parce que les ménages pouvaient payer plus cher que les prix ont augmenté. Corrélativement, le nombre de propriétaires s’est accru de près de 3 points à plus de 58 %. Le cycle s’est manifesté également par un accroissement très sensible de la construction neuve sous forme d’acquisition de résidences principales, mais aussi de résidences secondaires et de logements locatifs. Les années 2008 et 2009 ont amené une dégradation des conditions de financement résultant de la crise des subprimes aux États-Unis. Cette dégradation a entraîné une contraction des prix. Depuis lors, les conditions de financement sont redevenues favorables en France. Cette contraction du marché est donc une crise conjoncturelle. La crise des subprimes aux États-Unis Aux États-Unis, dans les années 2000, les mêmes facilités d’endettement ont conduit les établissements bancaires à octroyer des prêts pour des opérations de plus en plus risquées. À la différence de la France, les établissements prêteurs attachent plus d’importance à la valeur de la garantie que représente le bien immobilier lui-même qu’à la capacité de l’emprunteur à faire face à ses mensualités avec son revenu. Plus précisément, la qualité des prêts se mesure essentiellement par le LTV, loan to value, rapport du montant du prêt à la valeur du bien. Un LTV élevé range le prêt dans la catégorie des prêts risqués, les plus risqués étant les subprimes. Ces prêts subprimes sont souvent contractés par des ménages modestes. Du côté des établissements prêteurs, ces prêts subprimes sont souvent octroyés par des banques hypothécaires. Ce sont des banques qui ne reçoivent pas de dépôts. Elles sont donc contraintes, pour poursuivre leur activité, de se refinancer en cédant leurs créances hypothécaires sur les marchés financiers. C’est le phénomène de titrisation. Ce faisant, elles transfèrent également le risque. Ces produits titrisés ne sont pas « toxiques » par nature. Ils ne génèrent pas plus de risques que la créance initiale. Ils répondent au contraire à une logique de mutualisation des risques, dans la mesure où ces créances titrisées sont réparties dans de nombreux fonds d’investissement de par le monde, dont des fonds européens. De ce fait, quand l’emprunteur initial fait défaut, c’est le détenteur total ou partiel de la créance qui en subit les conséquences. C’est de cette manière que la crise s’est transmise à d’autres pays dont la France. Les produits titrisés posent problème dans la mesure où la dynamique qu’ils mettent en mouvement ne rencontre pas de limite, à part la capacité du marché financier à absorber
les émissions de titre. Aucun intervenant dans le processus de titrisation n’a intérêt à ce qu’il s’arrête, à la différence d’une créance qui reste dans le bilan de la banque émettrice. Celle-ci a intérêt à ce que sa créance ne devienne pas irrécouvrable. La crise est venue de l’expansion excessive du crédit bancaire. On ne peut pas le reprocher aux banques, pas plus qu’on ne reproche aux constructeurs automobiles les embouteillages dus à un excès de voitures. Le contrôle de la masse de crédit relève des autorités publiques, en particulier les banques centrales. Leur action s’exerce par le contrôle de la masse monétaire qui est la contrepartie des crédits. Le doublement de la dette immobilière a donc été permis par le doublement de la masse monétaire. Pourquoi les banques centrales n’ont-elles pas réagi ? S’agissant de la Banque centrale européenne (BCE), son mandat ne concerne que la limitation de l’inflation. Or, celle-ci est restée modérée. C’est là un phénomène inhabituel. Une croissance de la masse monétaire excessive par rapport à la croissance de l’activité économique se traduit par une augmentation des prix des biens. Dans la période concernée, les prix des biens manufacturés ont été contraints par la concurrence des pays émergents. L’expansion de la masse monétaire s’est manifestée essentiellement sous la forme d’une augmentation des prix des actifs, notamment immobiliers. Mais ces prix ne rentrent pas dans le calcul de l’indice des prix. D’où le comportement des banques centrales. C’est donc moins grâce à leur gestion que malgré leur gestion de la masse monétaire que l’inflation est restée limitée. Et maintenant ? Outre les ménages, l’expansion de l’endettement a concerné également les États (dette souveraine). Dans certains cas, l’endettement des États est une résultante de la crise de la dette immobilière quand ils ont dû se porter au secours des banques et autres établissements affectés par la défaillance des emprunteurs. Dans d’autres cas, comme la Grèce, il s’agit d’un endettement indépendant de l’immobilier. Actuellement, pour éviter la défaillance des États ou des prêteurs, les banques centrales facilitent encore davantage l’accès au crédit en offrant des facilités de refinancement aux banques. Ce faisant, on soigne le mal par le mal. Quand les conditions de financement redeviendront normales, les effets inf lationnistes sur les prix de l’immobilier cesseront de se manifester et les prix baisseront. Cela entraînera peut-être une nouvelle crise du logement. La date à laquelle elle interviendra dépendra de la politique monétaire des banques centrales. Manifestement, ce n’est pas pour tout de suite.
25
LNA#61 / au programme / réflexion-débat
cycle
À propos du nucléaire Octobre 2012 - avril 2013 Espace Culture
RENDEZ-VOUS D’ARCHIMÈDE Risques et crises en Terra Inco gnita : nouveaux défis, nouvelles responsabilités Mardi 9 octobre à 18h30 Par Patrick Lagadec, Directeur de recherche à l’École Polytechnique, spécialiste des risques et crises hors cadres. Animée par Jean-Philippe Cassar, Vice-président chargé de la culture et du patrimoine scientifique, Université Lille 1. Tchernobyl, Fukushima. Le déf i, aujourd’hui, est de savoir comment penser, discuter, opter, opérer dans un monde aux vulnérabilités multipliées, aggravées, imbriquées, inconnues ; plus encore : un monde qui perd ses socles, ses textures, ses équilibres fondamentaux. L’intervention visera à ouvrir des questionnements, à partager quelques pistes de réflexion et d’action. En puisant dans de nombreux territoires du risque, aussi bien du nucléaire qu’en dehors du nucléaire. En écoutant de grands témoins. En ouvrant l’exploration avec les participants. Cf article p. 4 à 7
Systèmes énergétiques et sociétés Mardi 20 novembre à 18h30 En partenariat avec Citéphilo 2012 Par Jean-Paul Deléage, Physicien, militant et historien de l’écologie, directeur de la revue Écologie et politique. Animée par Céline Toubin, Maître de conférences, PHLAM, Université Lille 1. 26
Recherche nucléaire et pouvoir : histoire d’une institution, le Commissariat à l’Énergie Atomique Mardi 11 décembre à 18h30 Par Alain Leridon, Ancien chef de service au Commissariat à l’Énergie Atomique. Animée par Alain Vienne, Professeur d'astronomie, directeur de l'Observatoire de Lille.
Nucléaire et bonne santé Mardi 5 mars à 18h30 Par Xavier Marchandise, Professeur émérite à la Faculté de Médecine de l’Université Lille 2, expert du Groupe Permanent Médical de l’Autorité de Sûreté Nucléaire, médecin nucléaire à l’Hôpital Privé de Villeneuve d’Ascq.
La création du CEA par le Général de Gaulle, fin 1945, donne un signal fort pour la recherche nucléaire française. Le CEA en profitera au début pour prendre un pouvoir incontestable, assorti de moyens importants, qui permettra au Général de Gaulle de développer la force de frappe et un programme annexe de réacteurs civils auxquels EDF ne participe que modestement. C’est l’arrivée au pouvoir de Georges Pompidou qui, en séparant plus nettement les activités civiles et militaires, en désignant EDF comme unique responsable de la construction des centrales nucléaires, mettra fin à la guerre CEA-EDF. Le pouvoir a changé de main.
Transition énergétique et géopo litique du nucléaire Mardi 19 mars à 18h30 Par Bernard Laponche, Polytechnicien, docteur ès sciences en physique des réacteurs nucléaires, expert en politiques de l’énergie et de maîtrise de l’énergie, membre de l’association Global Chance.
Cf article p. 10-11
À suivre :
À noter : Journée d’études Sciences, technologie, démocratie Mardi 2 avril 2013 Comité scientifique : Jean-Philippe Cassar, Frédéric Dumont, Bruno Duriez, Rémy Fran ckowiak, Gautier Goormachtigh, Robert L o c queneu x, B er n a rd M a it te , Pat r ic k Picouet, Hervé Vautrelle, Alain Vienne. Retrouvez toutes nos conférences en vidéo sur le site : http://lille1tv.univ-lille1.fr/
Fukushima, quelles leçons ? Mardi 5 février à 18h30 Par Christophe Sabouret, Historien, spécialiste du Japon, ingénieur d’étude au CNRS. www.culture.univ-lille1.fr
au programme / réflexion-débat / LNA#61
www.culture.univ-lille1.fr
RENDEZ-VOUS D’ARCHIMÈDE u La Méditerranée et l’essor du monde moderne Mardi 13 novembre à 18h30 En partenariat avec Citéphilo 2012 Par Maurice Aymard, Historien, ancien directeur à l'École des Hautes Études en Sciences Sociales. Animée par JeanPhilippe Cassar, Vice-président chargé de la culture et du patrimoine scientifique, Université Lille 1. u Nord-Sud, question de regard(s) Mardi 4 décembre à 18h30 Par Bouziane Semmoud, Géographe à l’Université Paris 8 Vincennes - SaintDenis. Animée par Patrick Picouet, Professeur agrégé de géographie, Université Lille 1. Les soulèvements arabes ont infléchi les perceptions entre les deux rives de la Méditerranée. Les difficultés économiques et sociales n’apparaissent plus comme étant le seul lot de la rive Sud, comme l’aspiration à la démocratie l’apanage de la rive Nord. Les f lux Sud-Nord n’apparaissent plus comme exclusivement l’envoi de migrants ou de produits peu ou non élaborés ou encore la diffusion de l’intégrisme religieux... Certaines représentations restent toutefois prégnantes : un Nord qui représente l’Eldorado pour des jeunes déboussolés ou un Sud marqué par des conflits qui seraient exclusivement communautaires. Cf article p. 12-13
u Florence et la naissance de la science moderne Mardi 18 décembre à 18h30 Par Bernard Maitte, Professeur émérite à l’Université Lille 1. Animée par Robert Locqueneux, Professeur émérite, Centre d'histoire des sciences et d'épistémologie, Université Lille 1. Tout commencerait-il à Florence ? : Le Convivio de Dante avait été le premier manifeste humaniste. Depuis, les inf luences pythagoriciennes, platoniciennes, de la science en pays d’Islam contrent l’aristotélisme ambiant. Les rationalisations d’Archimède sont remises à la mode. La vie littéraire et artistique enrichit la cour des mécènes, où la « belle langue florentine » – qui se substitue au latin – est cultivée. Les échanges en Méditerranée, mais aussi avec les Flandres et Prague, nécessitent le développement des connaissances pratiques... L’œuvre de Galileo Galilei prend sens dans ce contexte d’effervescence intellectuelle. Elle donne l’élan décisif à la naissance de la science moderne. Cf article p. 14-15
À suivre : u Venise centre de médiation entre l’Est et l’Ouest au Moyen Âge Mardi 29 janvier à 18h30 Par Jean-Claude Hocquet, Historien, directeur de recherche émérite CNRS.
u La Méditerranée et l’Atlantique : de l’invasion de l’Europe du Nord aux débuts de la présence des ÉtatsUnis en Méditerranée (1776-1815) Mardi 12 février à 18h30 Par Sylvia Marzagalli, Professeur d’histoire moderne, directrice du Centre de la Méditerranée Moderne et Contemporaine, Université de NiceSophia Antipolis. u Circulation des techniques Mardi 12 mars à 18h30 Par Bruno Jacomy, Directeur exécutif du Musée des Confluences. u Penser le monde : les échanges de savoirs philosophiques entre les deux rives de la Méditerranée au Moyen Âge Mardi 26 mars à 18h30 Par Mohamed Deaif, Enseignantchercheur en sociologie, Université catholique de Lille. À noter : u Journée d’études La Méditerranée aujourd'hui, le « printemps arabe » Mardi 30 avril 2013 Comité scientifique : Jean-Philippe Cassar, Frédéric Dumont, Bruno Duriez, Rémy Franckowiak, Gautier Goormachtigh, Robert Locqueneux, Bernard Maitte, Patrick Picouet, Hervé Vautrelle. Retrouvez toutes nos conférences en vidéo sur le site : http://lille1tv.univ-lille1.fr/
27
LNA#61 / au programme / initiatives culturelles
Rencontres culturelles de sens 2012-2013
Vers une culture de sens au service des Droits fondamentaux Coordinateurs : Jean-Pierre Macrez et Daniel Poisson
I
l y a 10 ans démarrait, en lien avec la politique culturelle de notre université, le projet enseignant « Question de sens ». Dans le cadre de ce service public culturel humaniste, plus de 70 conférences, des journées d’études, des projections-débats et des expositions sur des thèmes à orientation humaniste ont été proposées aux enseignants et étudiants de Lille 1, mais aussi à un large public extérieur, en particulier du monde associatif. Les thèmes ont été divers et variés : Non violence, Vivre ensemble avec la laïcité, Altermondialisation, Survie et santé au Sud, Solidarité internationale et citoyenne active, Valeurs, Utopie, Chemins d’ humanisation, Résistances et Engagement. Nous vous proposons aujourd’hui un nouveau projet « Rencontres culturelles de sens ». Ce service public de sens, dans le cadre laïque de notre université et en lien avec l’Espace Culture, vise une auto-éducation-réflexion en milieu universitaire favorisant l’engagement pour un monde plus juste et plus solidaire. Nous proposons de structurer cet engagement et cette recherche de sens autour de la défense des droits fondamentaux, constitués des droits civiques mais aussi des droits économiques, sociaux, culturels et environnementaux. À partir d’une démarche VOIR JUGER - AGIR liée à l’actualité sur la défense des droits fondamentaux, il s’agit de regarder, de s’informer - discerner, comprendre les enjeux - puis
28
s’impliquer en conscience dans les actions, campagnes d’année et plaidoyers proposés par la richesse et la dynamique des associations et ONG. u Rencontres d’engagements et sens de la vie Jeudi 25 octobre à 18h30 Rencontre de quelques associations humanistes locales qui offrent aux étudiants la possibilité de s’engager ponctuellement et solidairement ; réflexion coopérative sur ce que l’engagement apporte dans la construction de la personnalité et le sens donné à la vie. Cette rencontre se poursuivra en novembre avec une conférence-atelier. u Le sens de la vie Jeudi 8 novembre à 18h30 Une vision de l’homme tirée d’une approche thérapeutique issue de la vie en camp de concentration. Aujourd’hui, comment se protéger des frustrations existentielles et de leurs manifestations ?
qu’est Jean-Marie Fardeau, Directeur France de Human Rights Watch depuis 2007. Il nous parlera de l’évolution du monde associatif au long de son parcours militant et professionnel et de la prise de conscience progressive par les ONG de l’importance de la défense des droits humains, notamment les droits économiques, sociaux et culturels. Aujourd’hui, quels sont les objectifs du travail de plaidoyer ? Quels en sont les enjeux ? Avec quelles stratégies de communication ? Pour quelle efficacité ? Quels sont les buts et les limites de ces campagnes de mobilisation citoyenne ? Jean-Marie Fardeau a été chargé de mission et directeur du service Solidarité internationale de la Cimade (19831988), puis secrétaire national d’Agir ici pour un monde solidaire (1988-1996). Il a été secrétaire général du CCFD-Terre solidaire jusqu’en 2007.
Cette présentation sera suivie d’un atelier interactif de réflexion collective sur la recherche des valeurs. Avec Christian Merle, Professeur émérite de l’Université de Nantes, président de l’association de logothérapie. En partenariat avec le Centre de santé de l’Université Lille 1. u Du militant associatif au lobbyiste pour la défense des droits humains Jeudi 13 décembre à 18h30 Agir sur les causes de la pauvreté et des injustices, mobiliser les citoyens à travers les médias, faire pression sur les décideurs politiques, voilà le travail actuel du lobbyiste dans l’âme
www.culture.univ-lille1.fr
au programme / patrimoine scientifique / LNA#61
« Les patrimoines cachés » de l’Université Lille 1 Dans le cadre des Journées européennes du Patrimoine Samedi 15 septembre * Les Journées européennes du Patrimoine sont nées, en 1991, d’une initiative du Conseil de l’Europe basée sur les Journées portes ouvertes dans les Monuments historiques initiées en 1984 en France. Depuis, les institutions et propriétaires, publics ou privés, désireux de faire découvrir leur patrimoine, peuvent ouvrir leurs portes à cette occasion. Chaque édition est marquée par une thématique : cette année, celle des « patrimoines cachés » est l’occasion pour l’Université Lille 1 de rendre accessible une partie de ses réserves d’appareils scientifiques et de paléobotanique, issues de l’histoire de l’Université.
N
ombreux ignorent que le patrimoine de l’Université Lille 1 est si riche ! Plusieurs opérations de mise en valeur ont eu lieu depuis 2003, comme des expositions des collections d’appareils scientifiques par l’Association de Solidarité des Anciens. Quant au laboratoire Géosytèmes 1, il possède et étudie les riches collections de paléontologie. D’autres collections sont encore présentes sur le campus : minéraux, herbiers, animaux empaillés… Autant de curiosités qui ont servi à la recherche et au développement scientifiques au sein de l’Université.
logie. Car, bien que le patrimoine scientifique et technique n’aura probablement jamais la place qu’occupe le patrimoine architectural et artistique, il est nécessaire d’en saisir la valeur patrimoniale, de le préserver et de le mettre en valeur comme témoin clé du passé et des évolutions spectaculaires et progressives de l’histoire de la recherche, de l’industrie et, bien entendu, de l’enseignement dans le cas des collections de l’Université Lille 1. Ainsi, nous vous invitons, le samedi 15 septembre, à découvrir ces trésors universitaires « cachés », conservés dans les sous-sols de l’Université et rarement visibles du grand public. Le rendez-vous est donné à l’Espace Culture – uniquement sur réservation – le samedi 15 septembre à 14h15, 15h15 et 16h15.
*
Renseignements et réservations : 03 20 43 55 75 (Office de tourisme de Villeneuve d’Ascq, Château de Flers).
Aujourd’hui, près de mille instruments scientifiques et plus de 50 000 plantes fossiles sont recensés. Au-delà de leur simple connaissance numérique, il faut les inventorier : déterminer leur nature, dénomination, datation, localisation et utilisation passée. Cet inventaire, fastidieux et nécessaire, est en cours pour les collections d’appareils scientifiques, dont nombre ont déjà été perdus par négligence et méconnaissance de leur valeur, et pour les collections de paléonto-
UMR 8217 CNRS - Université Lille 1.
1
29
LNA#61 / au programme / exposition
This is Major Tom to ground control Installation de Véronique Béland Du 2 octobre au 9 novembre
Vernissage : mardi 2 octobre lors du lancement de saison à partir de 19h Entrée libre « Le vide de la distance n’est nulle part ailleurs » Première phrase produite par le générateur de texte aléatoire, mars 2012 Sommes-nous seuls dans l’univers ? On serait prêt à parier que non. Trois possibilités s’offrent à nous pour repérer d’éventuelles formes de vie : envoyer des sondes, envoyer des ondes, recevoir des ondes.
E
nvoyer une sonde dans l’espace, c’est un peu comme envoyer une fourmi dans le Sahara en espérant qu’elle atteindra Tombouctou, dont elle ne connaît pas l’emplacement. Quatre disques contenant des dessins gravés et des messages enregistrés (voix, musique...) ont cependant été embarqués à bord de sondes spatiales. Mais pour qu’une civilisation parvienne à repêcher les sondes dans le vide interstellaire, il faudrait qu’elle soit bien plus dégourdie que la nôtre.
Envoyer des signaux radio est plus rapide, mais très hasardeux. En 1974, un premier message radio à grande puissance a quitté un radiotélescope terrestre en direction d’un amas d’étoiles, où il arrivera dans 24 000 ans. Nous pouvons dormir longtemps avant de recevoir une réponse. Pourquoi ne pas plutôt écouter les émissions radio que certaines civilisations pourraient diffuser étourdiment ? C’est l’idée du programme SETI : ouvrons les oreilles et écoutons ce que l’espace nous dit. Depuis son démarrage au début des années 1960, le programme n’a rien donné. Silence radio pour ce qui concerne les émissions « intelligentes ». Mais alors, pourquoi ne pas faire parler d’une autre façon 30
les émissions radio « non intelligentes » ? Tel est le projet de Véronique Béland : interpréter les données cueillies par les radiotélescopes de l’Observatoire de Paris à l’aide d’un générateur automatique de textes aléatoires. Grâce à une voix de synthèse qui le récite en temps réel, le texte devient alors la « voix de l’Univers ». On notera le côté « oulipien » de l’entreprise : un texte est généré à partir d’un algorithme, qu’il soit mathématique ou issu de données astronomiques retraitées par un logiciel. Comme l’écrivait le mathématicien François le Lionnais, fondateur de l’Oulipo, « il n’est jamais aisé de discerner à l’avance, à partir du seul examen de la graine, ce que sera la saveur d’un fruit nouveau ». Gageons que les pommes d’or du cosmos bientôt recueillies auront au moins la saveur de l’inattendu. Jean-Pierre Luminet, mars 2012 Ce projet a été réalisé en partenariat avec le groupe EU-HOU (HandsOn Universe Europe, Université Pierre et Marie Curie, Observatoire de Paris) et l’équipe de recherche Mostrare (Universités Lille 1 et Lille 3, LIFL UMR CNRS 8022, INRIA Lille Nord-Europe). Il a aussi bénéficié du soutien de la Ville de Tourcoing dans le cadre d’une bourse de production destinée à la réalisation d’une œuvre dans l’espace public.
au programme / exposition / LNA#61
Le cabinet de curiosités
Du 19 novembre au 21 décembre Vernissage : Lundi 19 novembre à 18h30 Entrée libre
Des instruments scientifiques aux plantes fossiles, des herbiers, des animaux naturalisés ou conservés dans le formol, des squelettes, des oiseaux, des végétaux, des minéraux… Du 19 novembre au 21 décembre : l’université ouvre son cabinet de curiosités et vous propose de découvrir ces objets insolites et surprenants. Mais qu’est-ce qu’un « cabinet de curiosités » ? C’est un espace de collection né au XVIème siècle en Europe qui présente des objets rares, parfois étranges, accumulés par un collectionneur, qu’il soit prince, savant ou amateur. Dans le cabinet de curiosités, on distingue les naturalia des artificialia. Les unes sont issues de la Nature, provenant du monde animal, végétal ou minéral. Les autres sont créées ou modifiées par l’Homme. Toutes renvoient cependant à une représentation sensible, esthétique et métaphysique du monde.
de mesure et d’observation [scientifica] et une multitude de spécimens, comme des minéraux et des fossiles [mineralia], des animaux naturalisés ou conservés dans le formol et des oiseaux [animalia], des herbiers et des végétaux [vegetalia] : une diversité qui fait écho à la richesse des disciplines enseignées à l’Université et qui ravira le contemporain, toujours avide de ce qui est curieux ! C’est toute la diversité du patrimoine scientifique de Lille 1 que l’Espace Culture dévoile avec cette exposition, mêlant ainsi sciences et arts, imaginaire et raison, émotion esthétique et désir de connaissance… Avis aux curieux !
Un cabinet de curiosités pour le contemporain Depuis ses origines, en 1854, la Faculté des Sciences de Lille a constitué de vastes et riches collections, dont les spécimens et objets étonnent et peuvent alors être redécouverts comme des « curiosités ». Elle a conservé de nombreux instruments 31
Octobre, novembre, décembre
Conférences : entrée libre dans la limite des places disponibles. * Pour ce spectacle, le nombre de places étant limité, il est nécessaire de retirer préalablement vos entrées libres à l’Espace Culture (disponibles un mois avant les manifestations).
Ag e nd a
Retrouvez le détail des manifestations sur notre site : http://culture.univ-lille1.fr ou dans notre programme trimestriel. L’ ensemble des manifestations se déroulera à l’Espace Culture de l’Université Lille 1.
Samedi 15 septembre Mardi 2 octobre
14h15 15h15 16h15 12h 19h
« Les patrimoines cachés » dans le cadre des Journées européennes du Patrimoine Lancement de saison 2012/2013 Exposition « This is Major Tom to Ground Control » de Véronique Béland - Vernissage le 2 octobre à partir de 19h
Du 2 octobre au 9 novembre Mardi 9 octobre
18h30
Rendez-vous d’Archimède : Cycle « À propos du nucléaire » « Risques et crises en Terra Incognita : nouveaux défis, nouvelles responsabilités » par Patrick Lagadec
Mercredi 10 octobre
18h30
Café langues avec la Maison des Langues (Lille 1)
Jeudi 25 octobre
18h30
Rencontre culturelle de sens : Rencontres d’engagements et sens de la vie
Jeudi 8 novembre
18h30
Rencontre culturelle de sens : Le sens de la vie avec Christian Merle
Mardi 13 novembre
18h30
Rendez-vous d’Archimède : Cycle « La Méditerranée » « La Méditerranée et l’essor du monde moderne » par Maurice Aymard
Mercredi 14 novembre
19h
Théâtre « Avenir radieux, une fission française » par la Cie Un Pas de Côté * Exposition « Le cabinet de curiosités » Vernissage le 19 novembre à 18h30
Du 19 novembre au 21 décembre Mardi 20 novembre
18h30
Rendez-vous d’Archimède : Cycle « À propos du nucléaire » « Systèmes énergétiques et sociétés » par Jean-Paul Deléage
Mercredi 21 novembre
18h30
Café langues avec la Maison des Langues (Lille 1)
19h
Théâtre « Riha » par la Cie La Fabrique *
Mardi 4 décembre
18h30
Rendez-vous d’Archimède : Cycle « La Méditerranée » « Nord-Sud, question de regard(s) » par Bouziane Semmoud
Mercredi 5 décembre
18h30
Café langues avec la Maison des Langues (Lille 1)
Mardi 11 décembre
18h30
Rendez-vous d’Archimède : Cycle « À propos du nucléaire » « Recherche nucléaire et pouvoir : histoire d’une institution, le Commissariat à l’Énergie Atomique » par Alain Leridon
Jeudi 13 décembre
18h30
Rencontre culturelle de sens : Du militant associatif au lobbyiste pour la défense des droits humains avec Jean-Marie Fardeau
Mardi 18 décembre
18h30
Rendez-vous d’Archimède : Cycle « La Méditerranée » « Florence et la naissance de la science moderne » par Bernard Maitte
Jeudi 20 décembre
21h15
Rencontre avec Johann Le Guillerm - Cirque Ici à la Gare Saint Sauveur (Lille) *
Espace Culture - Cité Scientifique 59655 Villeneuve d’Ascq Du lundi au jeudi de 9h30 à 18h et le vendredi de 10h à 13h45 Café : du lundi au jeudi de 9h45 à 17h45 et le vendredi de 9h45 à 13h45
Tél : 03 20 43 69 09 - Fax : 03 20 43 69 59 Mail : culture@univ-lille1.fr Site Internet : http://culture.univ-lille1.fr