l e s n o u v e l l e s
AV R MAI JUIN
la revue culturelle de l’Université Lille 1
# 6 6
d’A
rchimède
Les Rendez-vous d’Archimède Évaluer les richesses ? Corps et esprit Exposition Quelques mesures d’écart
2014
« La valeur d’un homme tient dans sa capacité à donner et non dans sa capacité à recevoir. » Albert Einstein
LNA#66 / édito
Évaluer ? Jean-Philippe CASSAR
Vice-président de l’Université Lille 1, chargé de la Culture et du Patrimoine Scientifique
1 http://lille1tv.univ-lille1.fr (À propos de l’évaluation (Cycle) / Rendez-vous d’Archimède)
Voir l’éditorial : « Les Nouvelles d’Archimède » n° 65 (janvier - mars 2014) 2
Voir programme de saison de l’Espace Culture p. 14-15
3
L’équipe Jacques LESCUYER directeur Delphine POIRETTE responsable communication Edith DELBARGE chargée des éditions et communication Julien LAPASSET graphiste - webmestre Audrey Bosquette assistante aux éditions Mourad SEBBAT chargé des initiatives culturelles Martine DELATTRE assistante initiatives culturelles Dominique HACHE responsable administratif Angebi Aluwanga assistant administratif Fathéa Chergui secrétaire de direction Sophie BRAUN chargée du Patrimoine scientifique Brigitte Flamand chargée d'accueil Jacques SIGNABOU régisseur technique Joëlle MAVET responsable café culture
2
D
ans cette période où notre université doit rendre compte de ses actions et de ses résultats, tous ceux qui doivent fournir rapports et données chiffrées peuvent se poser légitimement la question de l’intérêt, des risques et des limites de l’évaluation à laquelle ils participent.
La conférence « Qu’est-ce qui fait valeur dans notre société ? » 1, donnée par Albert Ogien en introduction du cycle de conférences « À propos de l’évaluation », a montré que le terme commun « évaluation » exprime différentes manières d’apprécier l’activité humaine. L’évaluation professionnelle – « organisation de praticiens qui désirent analyser la manière dont ils exercent leur métier pour réfléchir aux moyens d’améliorer leur travail collectif » constitue, avec « l’évaluation démocratique », « des méthodes d’organisation du jugement qui viennent former une décision ». Face à ces approches s’imposent « des techniques de gestion dans laquelle les données chiffrées viennent se substituer aux jugements et définissent la décision » qui se présentent comme une mesure de l’efficacité de l’action menée. Les conférences suivantes du cycle ont permis, dans différents champs professionnels – la formation, l’expertise, la recherche –, de montrer comment le choix entre ces types d’évaluation avait pour enjeu la maîtrise du processus d’évaluation lui-même par les personnes qui en sont les acteurs. Elles ont rappelé l’illusion et le danger d’une évaluation fondée sur l’accumulation de données chiffrées indépendamment des objectifs et des choix réalisés par les acteurs. La politique culturelle et sa mise en œuvre sont concernées par l’évaluation. Le bilan chiffré présente le nombre de manifestations organisées, leurs fréquentations… Que traduira-il de la qualité d’une conférence, de l’impact d’une installation, de l’implication dans l’organisation d’une proposition culturelle ? Pas grand-chose. Par contre, au quotidien, une confrontation constante a lieu entre les choix qui sont faits en termes d’organisation ou de propositions culturelles et les orientations de la politique culturelle. La manière d’élaborer la programmation annuelle traduit-elle l’ouverture visée ? Met-elle suffisamment en avant des collaborations et les co-productions avec d’autres structures ou organismes ? Comment la recherche d’une plus grande diversité des publics et d’une implication qui amène la culture à être un élément constitutif de la formation universitaire a-t-elle un impact sur notre manière de communiquer ? Comment nous amène-t-elle à proposer des médiations culturelles nécessaires pour accéder à certaines propositions ?... Ce questionnement permanent, à l’opposé de toutes les certitudes, et tendu vers des objectifs clairement affichés, participe de l’évaluation professionnelle. Le 10 avril 2014, dans la continuité de l’esprit de la convention signée le 12 juillet 2013 2, les ministères de l’enseignement supérieur et de la culture demandent aux universités d’organiser, pour la première fois cette année, une « Journée nationale des arts et de la culture à l’université ». Une journée de plus pourra-t-on dire ! Une journée qui peut masquer le fait que les arts et la culture sont présents de façon continue et variée sur le campus de la « Cité Scientifique » avec notamment plus de 150 propositions par an à l’Espace Culture. Nous avons décidé de saisir l’occasion de cette journée pour rendre plus visible la diversité et la richesse des propositions artistiques qui sont accessibles à l’ensemble de la communauté universitaire 3. Les personnes impliquées dans des ateliers ou des orchestres, les étudiants qui assureront la médiation culturelle de l’installation « Quelques mesures d’écart », l’équipe de l’Espace Culture et moi-même serons heureux de partager ce moment avec vous. Je vous invite donc ce jour-là à la découverte, au plaisir de la rencontre... Cela s’évalue-t-il ?
sommaire / LNA#66 Retrouvez le détail de nos manifestations dans notre programme trimestriel et sur notre site Internet : culture.univ-lille1.fr
Le corps 4-6 7 8-9
L’intelligence artificielle et le test de Turing par Jean-Paul Delahaye La Psychomotricité ou le soin à la jonction du corps et de l’esprit par Bernard Meurin Pourquoi l’ordinateur n’a-t-il pas de parole ? par Philippe Breton
À propos de l’évaluation 10-11 12
Le CNR a-t-il changé le partage ou la production de la valeur économique ? par Bernard Friot La critique de la mesure de la croissance doit déboucher sur une théorie politique de la démarchandisation par Bernard Perret
Rubriques 13-15 16-17 18-19 20-21 22-23 24-26
Sciences en société : La cryptographie réinvente la monnaie : le Bitcoin par Jean-Paul Delahaye Mémoires de sciences : Jean, Claude-Joseph, Johann… et les autres par Rémi Franckowiak Repenser la politique : Enjeux éthiques et politiques de l’évaluation de la recherche par Alain Cambier Chroniques d’économie politique : Faut-il mieux cibler les prestations sociales pour réduire les inégalités ? par Michaël Zemmour Paradoxes par Jean-Paul Delahaye À lire : Une histoire de l’énergie, les servitudes de la puissance par Bernard Maitte
Au programme 27-28 Rendez-vous d’Archimède : Cycles « Le corps » et « À propos de l’évaluation » 29 Exposition : Quelques mesures d’écart - œuvres de la collection du FRAC Nord-Pas de Calais
En couverture : Évaluer les richesses ? Mardi 8 avril à la MESHS Cf. page 28
Hommage 30-31 Pierre Glorieux (1947-2013), une figure marquante de l’Université Lille 1 par Daniel Hennequin et Marc Lefranc
LES NOUVELLES D’ARCHIMÈDE Directeur de la publication : Philippe ROLLET Directeur de la rédaction : Jean-Philippe CASSAR Comité de rédaction : Bertrand BOCQUET : Sciences en société Alain CAMBIER : Repenser la politique Jean-Paul DELAHAYE : Paradoxes Rémi FRANCKOWIAK : Mémoires de sciences Jacques LESCUYER : À lire Bernard MAITTE : Mémoires de sciences Richard SOBEL : Chroniques d’économie politique Rédaction - Réalisation : Delphine POIRETTE Edith DELBARGE Julien LAPASSET Impression : Imprimerie Delezenne ISSN : 1254 - 9185
LNA#66 / cycle le corps
L’intelligence artificielle et le test de Turing Par Jean-Paul DELAHAYE Professeur émérite à l’Université Lille 1 Chercheur au Laboratoire d’Informatique Fondamentale de Lille
En conférence le 15 avril En 1950, Turing proposa un test d’intelligence pour les machines. Il pensait que les progrès de l’informatique permettraient de le satisfaire en cinquante ans. Même si les avancées de l’Intelligence artificielle ont été remarquables, aujourd’hui, aucune machine ne passe le test.
E
st-ce qu’une machine avec laquelle nous échangeons des messages écrits sans contrainte de sujet peut tenir son rôle d’une façon telle qu’on ne réussisse pas à savoir si nous dialoguons avec un humain ou un système informatique ? C’est le test proposé par Alan Turing en 1950. Il pensait qu’on saurait construire de tels systèmes à la fin du XXème siècle. La réalité est qu’en 2014, malgré d’immenses progrès dans le domaine de l’Intelligence artificielle, on ne sait pas réaliser de programmes possédant une intelligence générale permettant de passer le test avec succès. Les progrès ont porté sur des capacités spécialisées (jeux d’échecs, traitement de problèmes mathématiques, dialogues en langue naturelle sur des sujets limités, etc.). Récemment, avec l’ordinateur Watson de la firme IBM, un pas a été franchi concernant ce qui était l’obstacle principal : la programmation du sens commun. Le jeu de l’imitation Définir l’intelligence est difficile et il n’est pas certain qu’on puisse y arriver un jour d’une façon satisfaisante. C’est cette remarque qui poussa le mathématicien britannique Alan Turing, il y a soixante ans, à proposer le jeu de l’ imitation qui fixait un objectif précis à la science naissante des ordinateurs qu’on n’appelait pas encore informatique.
Le jeu de l’ imitation consiste à mettre au point une machine impossible à distinguer d’un être humain. Précisément, Turing suggérait qu’un juge J échange des messages dactylographiés avec, d’une part, un être humain H et, d’autre part, une machine M, ces messages pouvant porter sur toutes sortes de sujets. Le juge J ne sait pas lequel de ses deux interlocuteurs (qu’il connaît sous les noms A et B) est la machine M et lequel est l’humain H. Après une série d’échanges, le juge J doit deviner qui est la machine et qui est l’être humain. Turing pensait que si un jour nous réussissons à mettre au point des machines rendant impossible l’identification correcte (c’est-à-dire conduisant le juge J à un taux de mauvaise identification de 50 % identique à ce que donnerait une réponse au hasard), alors nous pourrons affirmer avoir conçu 4
une machine intelligente ou – ce que nous considérerons comme équivalent – une machine qui pense. Sa procédure aujourd’hui appelée test de Turing a donné lieu à de nombreuses discussions intéressantes et est à l’origine d’une série de réalisations informatiques concrètes mises en compétition annuellement lors d’un prix organisé à l’initiative de Hugh Loebner. Les résultats des logiciels participant au jeu de l’imitation progressent chaque année..., mais assez lentement. Est-ce que le test de Turing caractérise l’intelligence ? Il faut mesurer à quel point réaliser un programme qui passe le test de Turing est difficile. Mettons-nous dans la peau du juge J dialoguant, par le biais d’un terminal d’ordinateur, avec les deux interlocuteurs A et B. Une première idée, pour reconnaître la machine, consiste à poser une question du type « quelle est la valeur de 429 à la puissance 3 ? ». Si A répond 78953589 au bout d’une seconde et que B refuse de répondre, ou attend trois minutes pour proposer un résultat, il ne fera pas de doute que A est la machine et B l’humain. Cependant, les spécialistes qui conçoivent les programmes pour passer le test de Turing ne sont pas idiots et ils prévoient cette ruse grossière. Leur programme, bien que capable sans mal de mener le calcul de 4293 en une fraction de seconde, refusera de répondre ou demandera dix minutes avant de fournir un résultat, ou même proposera une réponse erronée. Tout ce qu’un humain ne sait pas très bien faire et qu’un ordinateur réussit sans mal – la mémorisation d’une suite de cent chiffres aléatoires est un autre exemple – sera traité de la même façon : l’ordinateur fera semblant de ne pas réussir. Pour reconnaître l’humain, la méthode du juge doit donc s’appuyer sur des tâches que les humains traitent sans mal et sur lesquelles les ordinateurs buttent. L’humour est un point d’attaque envisageable : racontez une histoire drôle à vos interlocuteurs A et B et demandezleur d’expliquer où il faut rire et pourquoi ? Les questions d’actualités, sur lesquelles nous sommes tous informés, peuvent aussi servir de base à une tentative d’identification. L’association des deux difficultés sera obtenue, par exemple,
cycle le corps / LNA#66
en demandant un commentaire sur le titre de la première page du dernier numéro du Canard Enchaîné. Faire tenir à un ordinateur une conversation traitant de toutes sortes de sujets (de science, d’histoire, d’art, de spectacles, de musique, de gastronomie, etc.) est un objectif extrêmement difficile. L’idée de Turing semble bonne : si on réussit à tromper un juge avec un programme, cela signifie indubitablement qu’on a mis dans l’ordinateur quelque chose ressemblant à ce que nous appelons de l’intelligence. Aujourd’hui, nous sommes encore assez loin d’avoir réussi. Ce qui est obtenu avec les meilleurs programmes est un simulacre de conversation qui, malgré des progrès récents, ne réussit que rarement plus de quelques minutes à entretenir l’illusion. Le système informatique Watson de la firme IBM, qui a gagné au jeu Jeopardy (du même type que le jeu « Questions pour un champion »), marque un progrès vers une forme d’intelligence générale, mais il n’a pas été conçu pour passer le test de Turing. John Searle pense que réussir ne prouverait rien Malgré l’évidente difficulté et l’échec relatif dans lequel nous sommes tenus, certains philosophes, dont John Searle, pensent que, même si nous réalisons un programme réussissant le test de Turing, cela ne prouvera pas que nous avons mis de l’intelligence dans notre ordinateur. Son raisonnement peut se résumer de la façon suivante : - les programmes informatiques sont syntaxiques : ce ne sont que des outils à manipuler des symboles ; - les pensées humaines ont un contenu sémantique : un sens est attaché aux mots que nous utilisons, qui ne se réduisent pas à de la syntaxe, ce sens provient de propriétés biologiques particulières de nos neurones qu’un programme ne peut pas posséder ; - donc, les programmes ne penseront jamais et ne seront jamais intelligents. Cette façon de voir les choses permet, en dehors de toute tentative concrète, de conclure que les ordinateurs programmés ne penseront jamais, et qu’ils ne posséderont jamais aucune intelligence authentique. Et, cela, même si on réussissait à leur faire passer le test de Turing. Pour Searle, la réussite au Test de Turing n’est pas une condition suffisante pour qu’on puisse parler d’ordinateur intelligent. Nous n’entrerons pas dans les controverses qu’engendre ce type d’analyses. L’article original où Searle exposait en 1980 son point de vue était accompagné de 26 commentaires critiques et, depuis, une multitude d’autres discussions se sont déroulées. Remarquons cependant qu’il paraît un peu étrange de nier qu’un système que rien ne distinguerait, dans un dialogue, d’un être humain possède cette qualité – l’intelligence – qu’on accepte d’attribuer aux humains. Il y aurait comme un privilège accordé, par décret, à une catégorie particulière d’êtres – les humains – qu’on refuserait définitivement à une autre catégorie d’êtres – les ordinateurs.
On est tenté de dire que John Searle manque de fair-play : aujourd’hui, les ordinateurs sont incapables de nous imiter de manière satisfaisante, refuser de les qualifier d’intelligents se justifie mais, si un jour ils réussissent à nous imiter fidèlement, nous devrions alors avoir l’élégance de reconsidérer notre position. Trop difficile ? Une autre critique inattendue a été formulée par Robert French à l’encontre du test de Turing. Alors que Searle considère que le test de Turing n’est pas une condition suffisante pour qu’on puisse affirmer qu’un ordinateur pense, Robert French soutient que passer le test Turing n’est pas une condition nécessaire d’intelligence. Il imagine l’histoire d’un peuple qui ne connaîtrait qu’une seule espèce d’oiseaux : les mouettes. Ce peuple se poserait le problème de réaliser une machine volante et, pour savoir s’il a réussi, utiliserait le test de la mouette : une machine sera dite volante s’il est impossible de la distinguer d’une mouette dont le comportement est observé à l’aide d’un radar. Le radar limite la précision de la demande d’imitation comme le dialogue, par le biais d’échanges dactylographiés, limite la précision de la demande d’imitation dans la mise en œuvre du test de Turing. Bien sûr, les avions, les hélicoptères, les montgolfières et même les oiseaux autres que les Le jeu de Deep Blue ressemble à un jeu humain Le programme Watson d’IBM vainqueur au jeu Jeopardy Les succès de l’Intelligence artificielle ne sont pas négligeables et conduisent à des situations où des formes affaiblies du test de Turing peuvent être passées par des systèmes informatiques spécialisés. En 1997, l’ordinateur Deep Blue, conçu spécialement pour le jeu d’échecs, a battu Garry Kasparov alors champion du monde et, depuis, d’autres machines ont atteint des résultats comparables. Même les bons joueurs d’échecs reconnaissent que, face à ce genre de programmes et sans information particulière, il leur est impossible de savoir s’ils jouent contre une machine ou contre un être humain. C’est une forme de test de Turing (où le dialogue est limité à des échanges de coups) et donc, dans ce cas, la prédiction de Turing qu’on réussirait avant l’an 2000 a été réalisée. Plus récemment, en 2011, le programme nommé Watson, développé par la firme IBM, a réussi à gagner un concours contre les champions du jeu Jeopardy (où des questions générales sont posées en langage naturel). Cette victoire a été analysée comme la réussite d’un test de Turing partiel mais, cette fois, en s’approchant d’un peu plus près des conditions imaginées par Turing pour son jeu de l’imitation. 5
LNA#66 / cycle le corps
mouettes ne réussiront pas le test de la mouette et ne seront donc pas considérés comme capables de voler. Est-ce bien raisonnable ? Certes, non. Pour Robert French, le test de Turing est une condition suffisante d’intelligence, mais d’intelligence humaine. De plus, ce test est lié à la langue utilisée pour les dialogues, ce qui empêche de le considérer comme universel. French affirme qu’il se pourrait bien que nombre de nos comportements dépendent fortement de la façon particulière dont notre cerveau traite l’information au niveau le plus profond – il parle de processus subcognitifs. Imposer une imitation servile du comportement humain, c’est se protéger à trop bon compte du risque de devoir admettre que des machines intelligentes sont devenues nos concurrentes. Aujourd’hui, nous ne savons pas fabriquer d’oiseaux imitant une mouette, mais nous savons fabriquer des objets volants aux qualités remarquables, puisque certains avions sont plus rapides que les plus rapides des oiseaux et volent plus longtemps que les plus endurants des oiseaux. De même, nous ne savons pas concevoir des systèmes informatiques imitant vraiment les humains, mais nous savons en faire ayant des capacités de mémoire et de calcul bien supérieurs à nous. N’avons-nous pas déjà fabriqué une forme d’intelligence informatique ? Programmes de conversation C’est seulement dans la décennie 1960 que des programmes capables de dialogues en langues naturelles sont apparus (on les nomme chatbots ou chatterbots pour robots de conversation). Un de ces programmes est le célèbre ELIZA de Joseph Weizenbaum mis au point en 1964 au MIT. Le mécanisme interne du programme est assez simple. Les phrases de l’interlocuteur sont analysées et, à partir de leur structure grammaticale, une réponse est construite en utilisant certains des mots de l’interlocuteur. Des phrases passepartout, pour détourner la conversation ou pour esquiver les questions, sont aussi utilisées lorsque le programme se trouve embarrassé. Le but d’ELIZA était de jouer le rôle d’un psychanalyste attentif à ce que dit son interlocuteur et l’incitant à se confier. Bien qu’il fût conçu comme un amusement sans prétention, certaines personnes utilisant ELIZA et informées de sa véritable nature se prirent au jeu et se confièrent à lui comme s’il s’agissait d’un être humain. Des utilisateurs passionnés prétendirent même s’y être attachés. Le prix Hugh Loebner Depuis 1990, un concours annuel (le Prix Hugh Loebner) se déroule et détermine, sur la base d’une procédure inspirée du Test de Turing, le meilleur programme de conversation générale. Aujourd’hui, aucun candidat ne s’est révélé très intéressant et il semble qu’il manque quelque chose pour réaliser de bons systèmes informatiques de dialogue réellement susceptibles de tromper un juge. 6
Certains chercheurs ont jugé que l’organisation du prix Loebner était inutile et même nuisible au progrès des recherches en intelligence artificielle. En effet, disent-ils, en détournant les chercheurs d’objectifs plus raisonnables et en les incitant à accumuler des astuces dans leurs programmes, qui ne sont finalement que de simples bases de données conçues pour faire semblant d’être intelligent sans l’être vraiment, on ne fera pas avancer la véritable compréhension de l’intelligence. Même si certains chatbots sont conçus pour imiter – naïvement – des personnes humaines ayant existé (John Lennon, Elvis Presley, Jésus, etc.), aujourd’hui, les spécialistes les plus optimistes ne se risquent pas à parier pour un succès définitif avant 2030. Puisqu’il semble que les concurrents du prix Loebner en restent à faire des programmes qui, comme ELIZA en 1964, sont sans véritable ambition, la date réelle d’un succès définitif pour le test de Turing pourrait bien être plus lointaine encore. En fait, c’est sans doute ailleurs qu’il faut porter notre attention. Le programme Watson de la firme IBM est capable d’accéder à un très grand nombre de connaissances (historiques, géographiques, politiques, etc.) stockées dans ses énormes mémoires et il dispose de multiples outils de traitement du langage naturel. Watson l’a emporté sur les champions humains du jeu Jeopardy qui est du même type que le jeu « Questions pour un champion ». Ce jeu exige pourtant une sorte de sens commun et d’esprit d’analyse très fin pour résoudre les astuces et surmonter les pièges des énigmes soumises aux concurrents. Nous ne savons pas faire de machines passant le test de Turing, mais nous savons en faire disposant de compétences de plus en plus variées et aptes maintenant à manipuler de l’information et à prendre des décisions : il devient donc parfois difficile de ne pas les qualifier d’intelligentes. Bibliographie - Robert Epstein, Parsing the Turing Test : Philosophical and Methodological Issues in the Quest for the Thinking Computer, Springer, 2008. - Robert French, Subcognition and The Limits of the Turing Test, Mind, 1990, 99, pp. 53-66. - John Searle, Minds, Brains and Programs. Behavioral and Brain Sciences, 1980, 3, pp. 417-57. - Alan Turing, Computing Machinery and Intelligence, Mind, 59, 236, pp. 433-460, 1950. Pages du Prix Loebner. Documents sur le concours : http://www.loebner.net/Prizef/loebner-prize.html
cycle le corps / LNA#66
La Psychomotricité ou le soin à la jonction du corps et de l’esprit Par Bernard MEURIN Psychomotricien CHRU de Lille / CRA Nord-Pas de Calais
En conférence le 15 avril
D
ans les années 1950, Julian de Ajuriaguerra, psychiatre d’origine espagnole nommé Professeur au Collège de France en 1975, tisse des liens entre différentes disciplines jusqu’alors cloisonnées pour construire un modèle de soin novateur destiné aux enfants souffrant de troubles du comportement. Entremêlant ses connaissances issues de la neurologie, de la psychologie génétique, de la psychanalyse et de la philosophie phénoménologique, il trace la voie pour les premières pratiques psychomotrices rassemblées, depuis, au sein d’un corpus professionnel inscrit au livre IV du code de la santé publique : la Psychomotricité.
Dès l’origine, Ajuriaguerra inscrit sa réflexion dans une vision moniste de l’homme et, pour lui, le substratum organique ne peut être compris qu’en relation avec son environnement et les autres : « Plus l’enfant précise ses gestes et plus il rencontre l’autre », écrivait-il. La jonction qu’il propose entre les dimensions tonique, posturale, émotionnelle, affective et cognitive du sujet permet de dépasser les clivages pernicieux amenant à considérer le corps et l’esprit comme deux entités séparées, voire autonomes. Dans la continuité des travaux d’Henri Wallon, il propose le concept de dialogue tonico-émotionnel pour souligner la nécessité d’une approche plurifocale pour bien comprendre le développement de l’enfant. En psychomotricité, l’organisation des mouvements ainsi que la qualité de leur ajustement sont considérées comme participant de la capacité à penser. C’est en effet à partir des éprouvés corporels que nous construisons progressivement les représentations que nous avons de nous-mêmes et que nous pouvons habiter et penser le monde dans lequel nous sommes. Comme le proposait déjà Spinoza au XVIème siècle, nous pourrions dire que les thérapies psychomotrices considèrent que l’esprit est l’idée du corps vivant en acte et rien d’autre, et que tout ce qui augmente ou diminue les puissances d’agir du corps augmente ou diminue les puissances de penser ; inversement, tout ce qui augmente ou diminue les puissances de penser augmente ou diminue les puissances d’agir du corps. Le principe de l’action thérapeutique en psychomotricité s’appuie donc sur les potentialités du sujet et non seulement sur ses manques et ses faiblesses. Soutenir le désir, non pas en tant qu’il exprime le manque mais la force première qui nous anime, constitue l’un des axes thérapeutiques en psychomotricité.
C’est l’action qui médiatise la rencontre en psychomotricité. Elle se fait auprès des enfants par une invitation à jouer et, auprès des adolescents ou des adultes, par une invitation à renouer avec les éprouvés corporels. La rencontre pourra, selon l’âge et la difficulté du patient, prendre diverses formes. Il s’agira par exemple d’activités cognitives pour exercer ses connaissances, d’une activité motrice pour éprouver du plaisir dans les compétences corporelles, d’une activité sensorimotrice pour éprouver son corps ou encore d’une activité symbolique pour exprimer ses affects sur un mode imaginaire. Il s’agit, dans ce type de pratiques, d’engager autant le corps que l’esprit tout en respectant le sujet dans son cheminement personnel. Donner aux patients les moyens de pouvoir s’ajuster corporellement et de développer harmonieusement leur gestualité vise à engager un remaniement complet de l’être-sujet et de faire de chaque instant un moment en première personne, dans lequel corps et esprit ne sont pas perçus comme deux réalités distinctes, mais comme deux modalités expressives à part entière. Cela ne signifie pas que le mouvement est en soi thérapeutique, car nous pourrions dès lors rapidement tomber dans la simple agitation ; il s’agit de créer un espace dans lequel le sujet peut redevenir actif, dans sa double dimension corporelle et psychique. Comprises sous cet angle, les thérapies psychomotrices apparaissent comme des pratiques cliniques en appui sur les potentialités du sujet visant à promouvoir les affects joyeux au détriment des passions tristes : « L’Esprit humain est capable de percevoir un très grand nombre d’objets et il en est d’autant plus capable que son Corps peut être disposé selon un plus grand nombre de modalités » 1.
1
Spinoza, Éthique II - Proposition 14.
7
LNA#66 / cycle le corps
Pourquoi l’ordinateur n’a-t-il pas de parole ? Par Philippe BRETON Professeur des Universités Centre Universitaire d’enseignement du journalisme, Université de Strasbourg
En conférence le 15 avril
P
oser la question de savoir pourquoi l’ordinateur n’a pas de parole suppose qu’il puisse en avoir une. Le projet ultime de ce que l’on a longtemps appelé l’ « intelligence artificielle » est en effet de concevoir une machine capable de mettre en œuvre une parole chargée d’une identité propre et d’interagir de ce fait intelligemment avec son environnement. Le mathématicien anglais Alan Turing, principal concepteur de la notion de programmation moderne et donc co-inventeur à ce titre de l’ordinateur, est l’un de ceux qui, très tôt, dès 1936, ont conçu ce projet d’intelligence artificielle. Il avait, dans cet esprit, imaginé un dispositif expérimental, le test dit de Turing où, si ce projet aboutissait, il serait impossible à un observateur s’adressant aux deux entités, en aveugle, de déterminer si l’on s’adressait à un ordinateur ou un homme 1. Qu’en est-il aujourd’hui ? Cet article part d’un constat et d’une prédiction. Le constat est que tous les projets de transformer l’ordinateur en une machine douée d’une parole, au même titre que l’humain, ou même de façon supérieure à lui, n’ont pas connu jusqu’à présent le moindre commencement de réalisation. Ce fait n’est contesté par personne, même pas par ceux qui sont les acteurs de ce projet. La prédiction est que les paramètres de cet échec actuel ne sont pas modifiables et, donc, que ce projet est également voué à l’échec dans le futur. L’intelligence artificielle ne relève-t-elle pas en effet du champ de la croyance même si elle est actuellement logée dans un cadre scientifique ? Cette croyance, selon laquelle l’ordinateur est susceptible de parler comme l’humain, est d’ailleurs massivement relayée, voire initiée par des œuvres d’imagination, la science-fiction, la littérature et le cinéma par exemple 2 . Elle se réalise donc, mais uniquement dans le champ de la fiction, qui constitue son unique avenir. La rencontre de la science et de l’imaginaire On y assiste à la rencontre d’une très ancienne fiction, celle Curieusement (mais pas tant que ça pour qui connaît le milieu des concepteurs de robots et autres machines à penser), ce test devait, dans un premier temps, pour Turing, servir à déterminer, en aveugle, si l’on s’adressait à un homme ou à une femme… 1
Entre autres exemples de films : Stanley Kubrick, 2001, L’Odyssée de l’espace, réalisé en 1968 ou celui du réalisateur hollandais Dick Maas, L’Ascenseur.
de la créature artificielle à l’image de l’homme 3, avec une contingence technoscientifique, à un moment précis du développement des sciences où celles-ci imaginent pouvoir construire une machine au sein de laquelle seraient transférées toutes les propriétés humaines de l’intelligence et de la parole, transfert impliquant une disjonction totale entre le corps humain, surnuméraire dans cette opération, et le mind, terme générique utilisé dans les milieux technoscientifiques depuis Turing pour désigner cette instance supposée détachable du support biologique. L’inventeur de la cybernétique, ancêtre de l’informatique, de l’automatique et de l’intelligence artificielle, le mathématicien américain Norbert Wiener, se disait le descendant direct du créateur du Golem, à Prague, au XVIème siècle. De son côté, l’inventeur de l’ordinateur, le mathématicien John von Neumann, visait en fait, comme Alan Turing lui-même, à fabriquer un « cerveau artificiel » 4. Scientifiques et ingénieurs de ce domaine rêvent, depuis plus de cinquante ans, de construire un « robot intelligent » qui serait « à l’image de l’homme ». C’est ainsi toute la créativité d’une partie du monde scientifique qui est marquée de l’empreinte d’une fiction qui remonte loin dans le temps, celle des « créatures artificielles ». Le futur, ici, rejoint le passé, et la science se conjugue étroitement avec l’imaginaire. La question de la solitude humaine Le fait que le thème de l’être artificiel ait traversé les cultures, et qu’il soit passé de la théologie à la littérature et à la technoscience, nous met sur la piste d’un thème permanent sur le plan anthropologique. En même temps, le fait qu’il trouve son origine – outre quelques références dans la mythologie grecque – peu après les débuts de l’ère chrétienne, et surtout qu’il se soit développé à partir de la Renaissance, fournit peut-être un début de piste. Risquons ici une hypothèse : le thème de la créature artificielle entretient un lien étroit avec la problématique de la solitude de l’homme comme espèce. L’humanisme d’un Pic de la Mirandole, rappelons-le, organise cette nouvelle représentation autour de deux redéfinitions Philippe Breton, 1996.
3
2
8
Heims, 1982.
4
cycle le corps / LNA#66
cruciales. La première place l’homme au centre de l’univers et en fait le point d’aboutissement de l’évolution, la seconde pose la plasticité de l’humain comme formant sa nouvelle essence. Ce double mouvement accompagne une évolution sociale où l’individualisme, comme idéologie dominante 5, s’installe comme mode original d’organisation sociale et de distribution de la parole. C’est ainsi un double sentiment de solitude qui s’installe, solitude du sujet individuel qui voit la distance aux autres s’accroître chaque jour vertigineusement en même temps que ses espaces intérieurs lui offrent des replis toujours plus vastes, solitude du sujet de l’espèce qui découvre que, l’homme étant au centre du monde, il est le seul à le peupler à ce niveau. La découverte, par Giordano Bruno, de l’universalité de la notion de « lien » témoigne de la force de ce repositionnement de l’homme dans l’espace de la société. La conquête de la planète entière, même tempérée par la découverte d’exotismes intéressants (les Indiens dont on se demande s’ils ont une âme pour conclure que l’on peut malgré tout les convertir), renforce le sentiment que l’homme en est le seul habitant. La rupture avec certaines croyances primitives, qui avaient perduré jusque-là et qui ouvraient la possibilité d’un deuxième monde, celui de l’invisible, peuplé de non-humains, ainsi que les prémices d’une sécularisation généralisée closent cette série de révolutions qui laisse l’homme seul avec lui-même, dans une solitude peut-être plus insupportable qu’on ne se l’imagine. L’obstacle de la parole La part de croyance et de traditions fictionnelles est donc immense dans le projet initial de fabriquer une intelligence artificielle. Cela signifie-t-il pour autant qu’il ne peut aboutir ? L’intelligence artificielle bute sur deux obstacles qui, à y regarder de près, n’en forment qu’un. Le premier est l’impossibilité manifeste de tout ordinateur, quelque soit sa puissance, à avoir un comportement autre que celui pour lequel il a été programmé. L’espace formé par les instructions qu’il a reçues forme un horizon indépassable pour tout ordi-
Dumont, 1983.
5
nateur. Cela ne l’empêche pas de réaliser des performances remarquables (battre l’homme aux échecs par exemple), mais en restant toujours à l’intérieur de cet espace. Le deuxième obstacle est l’incapacité récurrente de l’ordinateur à passer avec succès le test de Turing mentionné au début de cet article. En résumé, la machine est incapable de mettre en jeu une parole telle qu’on ne la distinguerait plus de celle d’un être humain. Pour reprendre la tripartition classique de la linguistique 6, l’ordinateur a un langage, il peut même avoir une langue, mais il n’a pas de parole. Ces deux obstacles n’en font qu’un, car l’ordinateur est incapable de sortir de l’horizon de son langage programmé là où la parole est une réinvention permanente et évolutive du langage. La différence est de taille et pourrait bien constituer une frontière indépassable. Cela nous renvoie à la question de savoir si la parole humaine ne doit pas sa spécificité et son altérité radicale au fait que, précisément, elle s’ancre dans une corporéité biologique, celle-là même dont l’intelligence artificielle entend justement se débarrasser. Ce faisant, elle se prive peut-être de la seule véritable condition de possibilité de son projet initial. Bibliographie - Philippe Breton, Histoire de l’ informatique, éd. Seuil, 1990. - Philippe Breton, À l’ image de l’ homme, éd. Seuil, 1996. - Philippe Breton, L’utopie de la communication, éd. La Découverte, 1997. - John Cohen, Les robots humains dans le mythe et dans la science, éd. Vrin, Paris, 1968. - Louis Dumont, Essai sur l’individualisme. Une perspective anthropologique sur l’ idéologie moderne, éd. Seuil, Paris, 1983. - Jean-Pierre Dupuy, Ordres et désordres, enquête sur un nouveau paradigme, éd. Seuil, 1982. - Georges Gusdorf, La parole, éd. Puf, 1952. - Steve J. Heims, John Von Neumann and Norbert Wiener, MIT press, Cambridge, Mass, 1982. - Andrew Hodges, Alan Turing ou l’ énigme de l’ intelligence, Bibliothèque scientifique Payot, 1988. - John Von Neumann, L’ordinateur et le cerveau, éd. La Découverte, 1992.
6
Gusdorf, 1953.
9
LNA#66 / cycle à propos de l'évaluation
Le CNR a-t-il changé le partage ou la production de la valeur économique ? Par Bernard FRIOT Professeur émérite à Paris Ouest Nanterre, IDHES-CNRS 1
En conférence le 8 avril Que s’est-il passé en 1945 ? L’objet de ce texte est de dire qu’il s’est passé quelque chose d’anticapitaliste, contre l’opinion qui veut que les réalisations du Conseil National de la Résistance aient été fonctionnelles. L’argument essentiel portera sur l’historicité de la valeur économique. 1945 : des interprétations fonctionnelles1 Rappelons succinctement les faits. Pendant l’hiver 1943-44 est élaboré, dans les grandes difficultés de la clandestinité, le programme du CNR, dont des points essentiels seront mis en œuvre entre la libération progressive du territoire, dans le courant de 1944, et l’éviction des communistes du gouvernement en mai 1947 : la sécurité sociale, le statut de la fonction publique et ceux des salariés des entreprises publiques, la nationalisation des compagnies d’assurances, des banques et de quelques grandes entreprises, l’indépendance financière de la presse. Les interprétations savantes de ces changements les considèrent comme fonctionnels au capitalisme, qu’ils corrigent ou accompagnent dans ses mutations. Correction : pour des économistes orthodoxes, la justesse économique du marché est source d’injustices sociales que la stabilité politique commande de corriger par de la redistribution ; et des politologues vont argumenter sur un rapport de forces favorable au mouvement ouvrier qui lui a permis de modifier la répartition de la valeur économique entre capital et travail au bénéfice de ce dernier. Accompagnement : traditionnellement, la plupart des économistes orthodoxes reconnaissent que le marché n’est pas un allocateur optimum de certains biens qu’il s’agit donc de produire ou de distribuer, pour le bon fonctionnement même du marché, dans une logique non marchande. Et, s’agissant de 1945, les keynésiens et les marxistes vont développer deux thèses sur son caractère fonctionnel. Pour les premiers, le capitalisme connaît au lendemain de la guerre une période fordiste, c’est-à-dire de recherche du profit dans les économies d’échelle de la production de masse, une production que la redistribution des revenus, née d’un « compromis fordiste », va permettre d’écouler. Pour les seconds, le capitalisme, pour assumer l’impétueux développement des forces productives de l’époque, ne peut pas se contenter de distribuer les salaires du marché du travail, qui ne reconnaissent que les besoins de la force de travail strictement
1
10
Institutions et dynamiques historiques de l’économie, UMR CNRS.
nécessaires à la présence du travailleur sur le poste de travail : l’État va organiser une reproduction de la force de travail élargie aux besoins d’éducation des enfants, de formation, de santé, de repos, de culture, de loisir : c’est le « capitalisme monopoliste d’État ». Si, par histoire, on entend la capacité à modifier le cours des choses dans une mobilisation collective (« les hommes font l’histoire »), il n’y aurait donc pas eu histoire en 1945. Le capitalisme aurait suivi son cours, la crise étant l’occasion d’une nouvelle régulation. 1945 : les prémices d’une convention salariale de la valeur 1945 mérite une tout autre interprétation, qui montre la capacité populaire de faire histoire. Pour saisir la mise en cause radicale du capitalisme, qui prend alors naissance, il faut faire un détour par la valeur. Ce que nous faisons « vaut » dans deux sens à ne pas confondre. La valeur d’une activité peut être son utilité sociale : faire du café ou conduire des enfants à l’école sert à quelque chose. L’essentiel de notre vie éveillée consiste ainsi à produire des valeurs d’usage. Mais si l’on considère que, par exemple, s’agissant de la conduite d’enfants à l’école, quand cette activité est le fait des parents, elle ne sera pas payée, alors qu’elle le sera quand elle est le fait d’une assistante maternelle, on voit bien que ce que nous faisons vaut (ou ne vaut pas) selon un second sens : la valeur économique, aujourd’hui exprimée en monnaie, qui vient, dans certains cas, doubler la valeur d’usage. Le terme de « travail » est réservé aux activités qui produisent et de la valeur d’usage et de la valeur économique. Ainsi, un parent conduisant ses enfants à l’école ne travaille pas, alors que l’assistante maternelle faisant la même activité travaille. Il saute aux yeux que la valeur économique et, donc, le travail sont une convention sociale. Dans les années 1950, par exemple, les soins étaient une activité utile, mais pas du travail, ce qu’ils sont devenus depuis. Non pas parce qu’ils auraient changé de contenu (ce n’est pas le contenu de l’activité, le travail concret, qui fait qu’il y a travail ou
cycle à propos de l'évaluation / LNA#66
non, valeur économique ou non), mais parce qu’ils se sont inscrits dans une institution légitime pour changer l’activité en travail. Les religieuses, réputées simples productrices de valeurs d’usage parce qu’elles n’avaient pas d’emploi, ont été remplacées par des infirmières, réputées productrices de valeur économique, parce qu’elles avaient un emploi ou un grade. En inscrivant l’activité « soins » dans un emploi ou un grade, on l’a transformée en travail. La valeur économique n’est pas en soi contenue dans telle activité, il n’y a pas d’essence de la valeur. La valeur économique n’a pas d’autre fondement que politique, elle est le fruit des rapports sociaux : c’est une convention sociale qui s’exprime dans des institutions spécifiques. La valeur économique renvoie au pouvoir. Toutes les activités ont un usage social, mais elles n’ont de valeur économique que pour autant qu’elles assoient le pouvoir des dominants. On pourrait alors – et bien des projets de réforme sociale sont construits là-dessus – chercher le salut dans la suppression de la valeur économique, de la monnaie, du travail. La vie en société reposerait sur la transparence de la production des valeurs d’usage, chacun y contribuerait selon ses capacités et recevrait selon ses besoins. Disons-le tout net : ce rêve d’une activité débarrassée de la valeur économique est mortifère. Casser le thermomètre n’a jamais guéri de la fièvre. La valeur économique signale le pouvoir qui nous tient. Le mot « travail » n’existe pas dans toutes les langues, la monnaie n’a pas toujours existé pour exprimer la valeur, mais la valeur économique a toujours existé car elle renvoie à une dimension inhérente à toute société. La valeur est par définition historique, elle est l’enjeu décisif de la mobilisation des humains pour faire histoire. L’émancipation, cette dynamique au cœur du mouvement social, consiste à humaniser la convention de valeur, à se débarrasser de la violence de ses institutions, lorsqu’elles sont devenues à la fois intolérables et remplaçables, pour en construire d’autres qui seront un progrès en humanité mais qui seront encore expression du pouvoir. L’humanisation du pouvoir est une entreprise aussi décisive que celle de la nature, et elle est, comme cette dernière, toujours inachevée. Pour la résumer en quelques mots 2, la convention capitaliste de la valeur économique, telle qu’elle s’est construite dans la lutte de classes au cours d’un demi-millénaire, s’exprime dans la propriété lucrative, le marché du travail, la mesure de la valeur économique par le temps de travail, le crédit (pour le financement de l’investissement). Les propriétaires des moyens de production sont les seuls légitimes pour déci-
Je renvoie à L’enjeu du salaire, éd. La Dispute, 2012, pour l’exposé des deux conventions de valeur en conf lit aujourd’hui, la convention capitaliste et la convention salariale, et à Puissances du salariat, éd. La Dispute, 2012, pour l’invention de cette dernière.
2
der de l’objet, de la modalité et du partage de la production, en réduisant les non propriétaires à l’état de demandeurs d’emploi, en les soumettant à la dictature du temps et en les endettant. Se dégager de cet étau suppose donc conjointement l’expropriation des propriétaires lucratifs et la généralisation de la propriété d’usage de tous les outils de travail par ceux qui les mettent en œuvre, la suppression du marché du travail et son remplacement par le salaire à vie, le remplacement de la mesure de la valeur par le temps par sa mesure par la qualification des producteurs, la suppression du crédit et le subventionnement de l’investissement par une cotisation économique abondée par une création monétaire. Or, c’est précisément ce qui commence en 1945. La classe ouvrière commence à imposer des institutions anticapitalistes de la valeur économique : entre autres le salaire à vie des fonctionnaires, qui sera par la suite amplifié dans le salaire à vie des retraités, et la cotisation sociale, élément socialisé du salaire, qui subventionnera sans crédit l’investissement hospitalier et qui, en payant les parents, les soignants, les retraités ou les chômeurs, reconnaît leur contribution à la production et la mesure par leur qualification. Ces prémices de la convention salariale de la valeur sont si fortes qu’aujourd’hui, alors que la dynamique révolutionnaire de 1945 est en panne depuis trente ans, une part notable du PIB est produite sans marché du travail, sans crédit, sans actionnaire, sans dictature du temps. Voilà qui nous donne la boussole de mobilisations collectives victorieuses : le salaire à vie, la cotisation économique et la copropriété d’usage des entreprises par les salariés. Par exemple, tous les salaires, pensions et indemnités de chômage pourraient être pérennisés et portés à 1500 euros net mensuels s’ils sont inférieurs et ramenés à 6000 euros net s’ils sont supérieurs. Cette première étape du salaire à vie pour tous serait financée par une cotisation nouvelle, la hausse des prix induite étant annulée par la suppression du coût du capital : interdire les dividendes et les intérêts assèchera la propriété lucrative. La loi peut décider que les salariés d’une entreprise dont l’actionnaire se dégage en deviennent automatiquement les copropriétaires d’usage. Autre possible : créer pour les PME une cotisation économique, par exemple de 5 % de leur valeur ajoutée, qui ira à des caisses de subvention de l’investissement et se substituera donc, pour elles, au remboursement de prêts lucratifs souscrits auprès des banques. Et commencer l’attribution du droit du salaire à vie par les 18-25 ans, avec création d’une cotisation compensée par la suppression du coût du capital. C’est cette inventivité heureuse et déterminée qui est à l’ordre du jour.
11
LNA#66 / cycle à propos de l'évaluation
La critique de la mesure de la croissance doit déboucher sur une théorie politique de la démarchandisation Par Bernard PERRET Ingénieur et socio-économiste, membre du Conseil Général de l’environnement et du développement durable
En conférence le 8 avril
L
a définition de la richesse n’est pas une question académique. Elle renvoie à la question 1) de ce qui peut être socialement reconnu comme richesse et 2) de ce qui peut être explicitement mis en jeu dans des activités d’échange. La multiplication des travaux et initiatives autour des nouveaux indicateurs de richesse ne reflète pas seulement une avancée de la réflexion socio-économique ; c’est aussi, et surtout, la conséquence d’un ensemble d’évolutions sociales diffuses affectant en profondeur la représentation collective du bien-être et du progrès. Pour schématiser, les gens ne croient pas au retour de la croissance, tout en prenant conscience de ses effets pervers (notamment écologiques) et du fait qu’elle n’apporte pas toujours le bonheur. Quoi que l’on pense des travaux de la commission Stiglitz, il faut lui reconnaître le mérite d’avoir donné une caution académique à ces intuitions de plus en plus largement partagées.
Cependant, la critique de la croissance risque d’être sans portée si elle ne débouche pas sur de nouveaux modes d’évaluation des biens et des activités humaines ancrés dans le fonctionnement de la société, à tous les niveaux. Élaborer de nouveaux indicateurs est une étape indispensable, mais qui, en elle-même, ne résout rien. Le rôle de l’évaluation monétaire/marchande tire sa force de sa cohérence systémique et de sa congruence avec une multitude de pratiques, de comportements et de valeurs – que l’on pense, parmi bien d’autres exemples, à la marchandisation du sport de haut niveau. Il convient donc d’accorder la plus grande attention aux pratiques sociales émergentes qui suggèrent la possibilité d’une démarchandisation de l’échange social. On peut citer, ici, en vrac : le développement du troc, de l’auto-production, de la consommation collaborative et des monnaies parallèles ; l’économie sociale et solidaire, le développement du reporting extra-financier et de l’épargne socialement responsable et, plus largement, toutes les pratiques de partenariat et de coopération instaurant des rapports non exclusivement marchands entre les agents économiques. Dans un tout autre registre, les modèles productifs émergents de l’ « économie écologique », à savoir l’économie circulaire et l’économie de la fonctionnalité, reposent sur une rationalité écologique centrée sur l’optimisation de l’usage et l’économie des ressources qui s’écarte de la pure logique marchande. Ce qui peut apparaître comme un « inventaire à la Prévert » trouve sa cohérence dans la mise en jeu de formes d’évaluation en rupture avec l’évaluation marchande, ancrées de 12
manière substantielle dans les contextes social et écologique de l’économie. Par évaluation, il faut comprendre ici jugement social sur la valeur, ce dernier terme étant pris dans son sens le plus large. Ce ré-encastrement social du jugement sur la valeur peut résulter de plusieurs mécanismes : - la prévalence d’une évaluation politique (l’obligation juridique de prendre en compte des objectifs/critères non économiques fixés par l’autorité politique), - la prévalence d’une évaluation sociétale (le choix des acteurs eux-mêmes de tenir compte du contexte relationnel dans leurs décisions économiques), - la prévalence d’une logique d’usage, qui conduit les consommateurs à évaluer les biens à l’aune de leurs besoins réels et non des incitations publicitaires et/ou du désir mimétique, - la prévalence d’une logique de mutualisation, qui conduit les agents économiques à s’engager dans des coopérations à long terme, à partager des ressources ou à participer à la gestion collective de certains biens. La problématique de l’évaluation renvoie à celle de son institutionnalisation. C’est en effet à travers des modalités variées d’institutionnalisation que des jugements différents de ceux émanant du marché acquerront force et légitimité sociale. On peut, dès lors, esquisser les lignes de force d’une politique de la démarchandisation. Celle-ci passerait notamment par des mesures visant une réduction des besoins marchands, la promotion volontariste du pluralisme des formes d’échange, le développement de toutes les formes d’évaluation non financière et le renforcement des institutions qui produisent et socialisent des valeurs non marchandes (école, justice, etc.).
sciences en société / LNA#66
La cryptographie réinvente la monnaie : le Bitcoin Par Jean-Paul DELAHAYE Professeur émérite à l’Université Lille 1 Chercheur au Laboratoire d’Informatique Fondamentale de Lille En 2008, un événement important s’est produit qui sera un jour inscrit dans les livres d’histoire : une nouvelle façon de concevoir la monnaie a été proposée, qui remet en cause les anciennes idées sur cette institution. Comme pour le courrier électronique ou internet qui ne sont aux mains d’aucune autorité et conduisent donc une meilleure appropriation de l’information par tous, et des pratiques démocratiques nouvelles de communication entre citoyens, il semble que, dans le domaine de la monnaie, tout pourrait fonctionner sans autorité centrale dominante de contrôle.
E
n effet, fin 2008, l’énigmatique Satoshi Nakamoto – c’est un pseudonyme – publie sur internet un texte décrivant comment il est possible, grâce aux réseaux et à la cryptographie mathématique moderne, de mettre en place une monnaie qui n’a besoin d’aucun contrôle centralisé pour fonctionner, contrairement à toutes les monnaies et à tous les systèmes de paiement en ligne. Le 3 janvier 2009, les programmes nécessaires au lancement de cette crypto-monnaie, le Bitcoin, sont prêts et elle est créée. Après des débuts confidentiels où seuls quelques cryptologues avertis s’y intéressent, elle commence à prospérer et son cours, totalement dérisoire en 2009, prend alors son envol, lui donnant une réalité concrète. Début 2013, un Bitcoin vaut une dizaine d’euros. L’année 2013 est celle du décollage du Bitcoin qui acquiert alors une notoriété mondiale. Il voit son cours multiplié par 50 en un an, pour atteindre 580 euros le 1er janvier 2014. La capitalisation totale des Bitcoins atteint alors plus de 6 milliards d’euros. À partir de rien, la cryptologie mathématique vient de créer des devises numériques qui s’échangent contre de l’argent sonnant et trébuchant, permettant par exemple à un étudiant Norvégien – Christoffer Kock – qui avait acquis pour 25 euros de Bitcoins en 2009, de les revendre et de s’acheter un appartement au centre d’Oslo. Quelle est l’idée de cette monnaie ? En quoi est-elle une révolution ? Doit-on la craindre ou se réjouir de sa création ? Miraculeuses mathématiques L’idée de cette monnaie est que, grâce à un subtil agencement de protocoles cryptographiques, on peut émettre une monnaie dont le contrôle se fera collectivement sur le réseau internet, sans qu’aucune autorité ne dispose du pouvoir d’agir sur elle. Le protocole de Nakamoto a été rendu possible grâce aux progrès de la cryptographie mathématique qui a inventé, depuis cinquante ans, une multitude de primitives numériques inattendues. Primitives de chiffrages (transfor-
mations d’un message en un autre impossible à lire, sauf si on connaît une clef particulière qui peut être différente de la clef utilisée pour le chiffrage) ; primitives d’authentification (méthodes assurant qu’une personne agissant à l’autre bout du réseau est bien celle qui en a le droit, par exemple pour l’utilisation d’une carte bancaire) ; primitives de signatures (créations de traces numériques permettant de certifier qu’un message est bien émis par une personne donnée et interdisant que le message signé soit modifié) ; primitives de « preuve de travail » (défis soumis à un dispositif de calcul ne pouvant pas être exécuté rapidement et servant par exemple à lutter contre le « spam »), etc. Ces primitives, convenablement assemblées, autorisent la réalisation de dispositifs numériques qu’on pensait impossibles auparavant. La mise en place du protocole Bitcoin doit aussi son existence à la puissance informatique dont chacun dispose et qui fait qu’avec son ordinateur personnel il peut participer au contrôle de la monnaie Bitcoin au travers d’un réseau décentralisé, dit « P2P ». Tous ceux qui le souhaitent peuvent télécharger des logiciels (libres et ouverts, dont le code est accessible à tous) et participer à la surveillance de la monnaie Bitcoin, c’est-à-dire vérifier que personne ne crée de Bitcoins non prévus par le protocole, et que toutes les transactions se déroulent conformément aux règles définies. Comment avoir des Bitcoins ? Pour posséder des Bitcoins, il faut disposer d’un compte, mais il n’est pas besoin de donner son identité pour en créer un : l’anonymat des détenteurs de Bitcoins est l’une des caractéristiques de cette monnaie, nous y reviendrons. Chaque compte possède deux numéros. Le numéro secret (qu’il faut absolument garder pour soi, car quiconque en dispose peut dépenser le contenu du compte), et le numéro 13
LNA#66 / sciences en société
public que vous communiquerez et qui vous permet de recevoir des Bitcoins. On obtient des Bitcoins, soit en en achetant contre de l’argent usuel sur les plateformes de change : elles prennent vos euros et vous envoient en retour des Bitcoins qui s’inscrivent sur votre compte. On peut aussi en acquérir en faisant du commerce : vous vendez un livre à quelqu’un qui vous paie en versant des Bitcoins sur votre compte. Une troisième façon d’obtenir des Bitcoins est de participer activement à la surveillance de la monnaie. Les machines qui acceptent de consacrer une part de leur puissance à cette surveillance sont ce qu’on appelle les mineurs de Bitcoins. En effet, le travail qu’elles fournissent reçoit régulièrement une récompense (en Bitcoins) comme des mineurs dans une mine de métal précieux. Cette récompense est de 25 Bitcoins toutes les 10 minutes, mais elle n’est attribuée qu’à un seul mineur tiré au sort : il a la chance de trouver l’équivalent d’une pépite d’or. Aujourd’hui, un très grand nombre de mineurs travaillent à la surveillance de la monnaie. C’est très bien, car cela rend la monnaie plus solide, mais cela rend aussi très faible la probabilité que votre machine soit choisie pour recevoir les 25 Bitcoins distribués, d’autant plus que cette probabilité de gagner est proportionnelle à la puissance de votre machine et que des concurrents très puissants (utilisant même des puces spécialisées) sont apparus, diminuant encore plus vos chances de gagner avec votre petit ordinateur. Dureté et persistance des Bitcoins Les Bitcoins n’existent pas matériellement, ils n’existent que sur le réseau, et sont le résultat d’un consensus entre utilisateurs qui, grâce aux informations présentes sur le réseau et que chacun peut consulter et contrôler, indiquent quelles sommes d’argent se trouvent sur les comptes. L’ensemble des comptes et leurs soldes sont stockés dans un fichier – la blockchain – accessible à tous. Le protocole cryptographique de la monnaie assure que personne ne peut manipuler les comptes, fausser les transactions, ou émettre d’autres Bitcoins que ceux qui sont prévus. Il y en a 12 millions aujourd’hui et leur nombre ne dépassera jamais 21 millions (ce maximum est inscrit dans le protocole). La robustesse du protocole – confirmée par 5 ans de fonctionnement – rend l’existence virtuelle et purement numérique des Bitcoins aussi réelle et solide que celle des lingots d’or 14
ou des billets de banque que vous avez en poche. La cryptographie a réussi à créer des objets virtuels infalsifiables, aussi résistants et persistants que s’ils étaient faits de métal, et qu’on peut faire circuler à la vitesse de la lumière (c’est un des avantages des Bitcoins sur toutes les autres monnaies) sans coût, d’un endroit à l’autre du monde. Comme toute monnaie, le Bitcoin ne tient que par la confiance de ses utilisateurs mais, ici, celle-ci s’établit non pas parce qu’une banque centrale émettrice prétend se porter garante des devises qui circulent (on sait ce qu’il en est en cas de crise !), mais parce que le protocole cryptographique empêche quiconque de truquer les comptes et, en particulier, d’émettre sans retenue des masses de devises qui feraient s’effondrer sa valeur. La nouveauté principale de cette crypto-monnaie est que cet argent numérique n’est contrôlé par aucune banque centrale et qu’elle est gérée collectivement – démocratiquement disent certains – par tous ceux qui le souhaitent et qui se surveillent mutuellement. Les caractéristiques des Bitcoins ont des conséquences positives dont une protection des détenteurs de Bitcoins contre l’inflation. Celle-ci provient habituellement de l’émission massive, par les banques centrales, de devises créées à partir de rien : la fameuse planche à billets. Pour le Bitcoin, aucune émission en dehors de celle inscrite dans le protocole (et qui est de plus en plus faible, au cours du temps) n’est possible et, donc, a priori, il ne peut y avoir dévaluation de la monnaie. Certains prétendent que, par nature, le Bitcoin est déflationniste : il ne pourrait que prendre de la valeur. Incertitudes et risques Malheureusement, les propriétés de la monnaie Bitcoin ont aussi des conséquences négatives. Citons-en quelques-unes : - Il faut être très attentif lors de la manipulation informatique de son compte, et si un pirate réussit à trouver votre numéro secret de compte en s’introduisant sur votre ordinateur, il pourra en dépenser entièrement le contenu. C’est déjà arrivé ! N’effacez pas non plus votre porte-monnaie numérique par erreur, il serait définitivement perdu. C’est déjà arrivé !, - L’anonymat (partiel) des comptes intéresse toutes sortes de gens peu recommandables qui utilisent le Bitcoin pour échapper au fisc ou mener des trafics en tout genre, - Le fait qu’aucun contrôle centralisé ne soit opéré par une autorité centrale a pour conséquence que le cours des Bitcoins
sciences en société / LNA#66
est soumis à de fortes variations spéculatives. Certains affirment même que le cours du Bitcoin est manipulé par ceux qui en détiennent beaucoup. La valeur du Bitcoin varie de plusieurs pourcents par jour, et il est arrivé qu’elle varie de plus de 40 % dans une même journée. Cela rend difficile son usage pour le commerce ! , - Le fait qu’elle soit concurrente des monnaies des banques centrales a pour conséquence que les États lui sont souvent hostiles et que des réglementations existent, limitant son usage ou même l’interdisant. L’évolution de ces réglementations sera essentielle pour l’avenir du Bitcoin, - Le fait que tous les programmes contribuant au fonctionnement de la monnaie Bitcoin sont libres et publics entraîne qu’il est facile de concevoir et de faire fonctionner d’autres monnaies du même type. C’est d’ailleurs ce qui se produit : il existe aujourd’hui plus de 80 monnaies cryptographiques basées sur les mêmes principes que le Bitcoin et lui faisant concurrence. Légèrement différentes du Bitcoin, elles peuvent posséder des propriétés intéressantes pour certains usages (par exemple, celle d’assurer un anonymat total que n’assure pas le Bitcoin) qui feront se détourner du Bitcoin. Ces crypto-monnaies ont chacune une ambition globale et sont conçues prioritairement pour faire circuler le plus facilement possible de la valeur d’un endroit sur terre à un autre. Elles viennent s’ajouter aux « monnaies locales complémentaires » (MLC : le sol alpin à Grenoble, la graine à Montpellier, le miel dans le Libournais, etc.) qui fonctionnent selon des principes totalement différents en général dans le but de favoriser les échanges locaux et le troc (mais qui s’appuient toujours sur un contrôle centralisé). Il est remarquable, et sans doute significatif, de voir qu’aujourd’hui le fonctionnement monétaire imposé par les états, et qui semblait immuable, est contesté à la fois localement et globalement.
à l’abri de l’inflation, sous une forme discrète (vous pouvez mémoriser votre numéro de compte secret et tout effacer de votre ordinateur, il vous permettra partout dans le monde de retrouver vos Bitcoins) et, donc, que le Bitcoin persistera et que son cours ira en s’accroissant au fur et à mesure que les utilisateurs seront plus nombreux. Bibliographie - Banque de France, Dangers liés au développement des monnaies virtuelles, l’exemple du Bitcoin, 2013 : http://www.banque-france.fr/fileadmin/user_upload/banque_de_ france/publications/Focus-10-stabilite-financiere.pdf - Blockchain, Information et statistiques sur le cahier des comptes Bitcoin, https://blockchain.info/fr - Jean-Paul Delahaye, Bitcoin, la crypto-monnaie, Pour la science, pages 76-81, décembre 2013 : http://www.lifl.fr/~delahaye/pls/2013/241.pdf - Jean-Paul Delahaye, Blog SciLog, décembre 2013 : http://www.scilogs. fr/complexites/plaidoyer-pour-le-bitcoin/ - Jean-Paul Delahaye, Le Bitcoin, une monnaie révolutionnaire, janvier 2014 : http://www.lifl.fr/~delahaye/Bitcoin/Bitcoin.pdf - Michael Nilsen, How the Bitcoin protocole actually works, Data Diven Intelligence, décembre 2013 : http://www.michaelnielsen.org/ddi/howthe-bitcoin-protocol-actually-works/ - Pierre Noizat, Bitcoin Book, 2012 : ISBN-10: 2954310103. - Wikipedia, Bitcoin : http://fr.wikipedia.org/wiki/Bitcoin
Quel avenir ? On s’interroge sur ce que va devenir le Bitcoin né des mathématiques. Comme aucune monnaie de ce type n’a jamais existé auparavant, il est vraiment difficile de faire un pronostic et les avis sont partagés. Certains pensent que son cours élevé aujourd’hui est une bulle qui éclatera et fera perdre toute valeur aux Bitcoins : ceux qui en achètent finiront par perdre tout ce qu’ils y mettent. D’autres soutiennent que le Bitcoin possède des propriétés telles qu’il gardera toujours un certain intérêt pour mener des transactions rapides, sans coût et anonymes, ou pour conserver de l’argent 15
LNA#66 / mémoires de sciences
Jean, Claude-Joseph, Johann… et les autres Par Rémi FRANCKOWIAK Maître de conférences HDR en histoire des sciences et épistémologie SCité, Lille 1 - Sciences et Technologies
C
’est en référence au titre du film de 1974 de Claude Sautet, « Vincent, François, Paul… et les autres », avec entre autres Y. Montant, M. Piccoli, S. Reggiani, G. Depardieu, que celui de cet article a été donné. Hommage tout d’abord à un grand film qui fête ses 40 ans cette année, mais également réflexion sur l’intemporalité d’une histoire qui aurait pu tout aussi bien se dérouler près de deux siècles et demi plus tôt ; le film de Sautet n’en aurait alors été qu’un remake. Dans mon film, le casting est tout aussi impressionnant, toutefois les protagonistes de l’histoire y jouent leur propre rôle et sont Jean Hellot, Claude-Joseph Geof froy, Johann Grosse… et les autres : Charles François de Cisternay Du Fay, Henri Louis Duhamel du Monceau, Gilles-François Boulduc, René-Antoine Ferchault de Réaumur. Ils ne sont pas vraiment chef d’entreprise, écrivain, médecin ni boxeur, mais quelque chose d’approchant pour la société française de la première moitié du XVIIIème siècle, décor de ce drame ; drame qui est, ici aussi, une tranche de vie. Dans mon histoire, on ne joue pas forcément au football le dimanche à la campagne devant les yeux des épouses et petites amies avant de boire et de manger gaiement tous ensemble, mais l’amitié, les déjeuners – les femmes sans doute aussi – sont bien présents, ainsi que le moment peut-être de la désillusion. Tout comme Vincent dans le film, Jean a connu des revers de fortune ; tout comme Paul, Claude-Joseph doit peut-être lui aussi terminer la rédaction d’un texte jusque tard dans la nuit ; de manière générale, tout comme dans le film de Claude Sautet, on a affaire non pas uniquement à une histoire d’amitié mais plus certainement à l’histoire d’une bande de gens qui se fréquentent, qui sont ensemble – peut-être pas parce qu’ils partagent le sentiment d’avoir à moitié raté leur vie, comme commente Sautet à l’égard de ses personnages – mais parce que conscients de n’être qu’à moitié reconnus pour ce qu’ils font, à moitié présents sur la scène du théâtre des sciences d’alors. Ce qui réunit ces personnages est le croisement d’une reconnaissance au plus haut niveau de leurs activités et compétences scientifiques avec des pratiques alchimiques bien ancrées et
16
une puissante soumission aux intérêts de l’État. La permanence des thèmes alchimiques à cette époque n’a rien d’étonnant ; elle a même permis, surtout depuis la faillite en 1720 du système de Law, le développement de duperies que l’État souhaite désormais réduire dans le but de réorienter les investissements financiers des sujets du royaume au profit, par exemple, d’exploitations minières bien encadrées techniquement et législativement. Il s’agit, de manière générale pour l’État, d’asseoir une partie de ses efforts de développement de l’économie de la France sur les compétences des membres de l’Académie Royale des Sciences et, dans le cas de la métallurgie, sur celles de ses chimistes forts de leur expertise dans le domaine de l’alchimie. Dans l a bande de Jean, Claude-Joseph, Johann… et les autres, on consacre une part importante de son temps à ces activités, Jean le premier. On travaille à l’occasion ensemble, on s’entraide, on se prête des manuscrits et on se cite volontiers, mais on ne tient pas forcément à fréquenter ceux ne se dévouant pas assez pour l’État et le Public : les Lemery, Rouelle et autres Venel. Le héros de mon histoire, Jean Hellot, dont le physique n’a rien à voir avec celui de Vincent (Y. Montand), est petit, rondelet, le regard vif, parfois malicieux dans ses propos, jamais ironique. Destiné à une carrière ecclésiastique, le jeune Jean se consacre sans réserve à la chimie qu’il découvre dans les papiers et livres de son grand-père, traducteur d’un important ouvrage de chimie au siècle précédent ; ce qui l’amène à se rapprocher assez tôt de Claude-Joseph, lequel épousa d’ailleurs en deuxième noce sa nièce en 1729. Jean part ensuite quelque temps en Angleterre pour rencontrer les savants de la Royal Society. Cependant, très atteint par la banqueroute de 1720, il est contraint, pour gagner sa vie, de rester rédacteur de la Gazette de France de 1718 à 1732. Alors, se trouvant libre, ses amis, Claude-Joseph, Johann, Charles-François, Henri Louis et Gilles-François le poussent à postuler à l’Académie des Sciences, non sans avoir bien préparé le terrain. L’élection de Jean est validée le 2 mars 1735.
mémoires de sciences / LNA#66
Nous avons parlé de drame : Du Fay, inspecteur général des teintures, meurt le 16 juillet 1739 et Jean est désigné comme son légataire testamentaire. Il est alors – procédure exceptionnelle – nommé par le roi pensionnaire surnuméraire, sans avoir gravi l’échelon intermédiaire d’associé, à la place laissée vacante par son ami dont il reprend aussi la charge d’inspecteur. En échange, Jean s’engage entièrement au service des Contrôleur Général et Intendant des Finances. Il prendra même, par la suite, la responsabilité de la production de porcelaine à Sèvres. Sa position singulière, dans et hors de l’Académie, a entraîné quelques tensions avec son secrétaire perpétuel à qui il a pu refuser de remettre son rapport d’expertise (comme il est alors courant d’en rédiger sur ordre du directeur au sujet d’un mémoire, ouvrage, machine ou autres), préférant le communiquer directement au ministre Maurepas. Ou, encore, lorsque Jean conseille à Macquer de ne rien révéler à l’Académie de ses découvertes sur le bleu de Prusse, pensant qu’elles intéresseront l’État, et lui conseille d’en référer en priorité au Contrôleur Général des Finances. Jean l’avouera publiquement un peu plus tard, davantage pour assurer la paternité de Macquer sur ces découvertes que par remords vis-à-vis de ses pairs. Macquer, soit dit en passant, héritera à son tour des activités de Jean à sa mort, garantissant à l’État un suivi dans ses affaires au moins des années 1730, avec Du Fay, aux années 1780. Jean, Claude-Joseph, Johann… et les autres, tous réunis à l’Académie, tous investis pour une part en alchimie, participent, chacun à son niveau, à l’effort de développement économique de la France initié en particulier par le Régent, Philippe II Duc d’Orléans. Celui-ci, versé dans l’alchimie, avait fait de l’Académie des Sciences un instrument essentiel de ses projets de réforme et de rétablissement du royaume, à travers surtout l’enquête qu’il déclenche de 1716 à 1718 visant à créer une économie nationale au lieu des économies locales. Le Duc d’Orléans apparaît ainsi comme un personnage clé de l’évolution que connaît la chimie au XVIIIème siècle : il nomme des académiciens de son entourage portés sur l’alchimie, lesquels à leur tour proposent des candidats lorsqu’une place dans la classe de chimie se libère. Le résultat sera la constitution d’un noyau de chimistes alchimisants à l’Académie, lesquels se conformeront tous – un peu moins Johann, assez tôt gravement malade – à l’exigence d’utilité et de subordination aux intérêts d’investisseurs en quête de compétences scientifiques et techniques selon la volonté étatique. Mais Jean s’y consacre plus que les autres. Il passe le plus clair de son temps à étudier consciencieusement et avec zèle
tous les mémoires, toutes les requêtes adressées au Ministre des Finances ou au Garde des Sceaux pour en évaluer le bien-fondé, les coûts d’exploitation, les compétences scientifiques et techniques des demandeurs, pour analyser les échantillons de mines envoyés, déclencher des enquêtes, étudier les pratiques minières dans les pays étrangers, intervenir dans la formation d’ingénieurs, proposer des modifications dans la législation, développer la sécurité des ouvriers, leur assurer une caisse de solidarité en cas d’accident ou de décès, limiter les pollutions et la consommation de bois, lutter contre la fraude des produits manufacturés ou issus de l’artisanat, protéger la santé publique. Il rédige en outre un ouvrage sur les moyens techniques les plus efficaces à l’exploitation d’une mine, et un autre pour la diffusion des meilleurs savoirs techniques sur la teinture. Tout cela n’ayant qu’un seul but : œuvrer au développement de l’économie de la France. Par son implication, les procédures d’expertise tendent à se normaliser. Mais elles englobent sans distinction l’exploitation d’une mine de houille à Anzin et les préparations d’or ou d’argent artificiels. L’alchimie est une pratique encore assez répandue dans la société du second tiers du XVIIIème siècle et l’État, à la recherche de sources de profits, est loin de s’en désintéresser. L’État – par le recours à l’expertise de Jean – marque sa volonté de réglementer, de rationaliser les pratiques artisanales et manufacturières, y compris les entreprises les moins probables à nos yeux, lesquelles sont, dans le contexte d’alors, moins inquiétantes qu’une concession minière mal dirigée, donnée à un incapable, faisant courir le risque, par le discrédit alors jeté sur le travail des mines, d’anéantir quelque peu les encouragements de l’État. Le charlatanisme, quand il se présente, est bien du côté de l’incompétence industrieuse et non de doctrines scientifiques qui se révèleront erronées. L’exigence de développer l’économie de la France est très forte. Il est alors urgent de mettre de l’ordre, de réduire les projets et activités nuisant aux intérêts de l’État et du Public, de détourner les investissements hasardeux des sirènes des escrocs vers des entreprises métallurgiques et minières sûres, tout en mettant à l’occasion à l’épreuve des transmutations métalliques alors jugées à l’aune de leur rentabilité économique. Mon film se termine sur une note mélancolique : « Geoffroy, Claude-Joseph, mon ancien ami, meurt le 9 mars 1752 à 7h du soir », inscrit simplement dans son cahier Jean, qui reste seul avec quelques autres. 17
LNA#66 / repenser la politique
Enjeux éthiques et politiques de l’évaluation de la recherche Par Alain CAMBIER Docteur en philosophie, chercheur associé UMR 8163 « Savoirs, textes, langage » Professeur en classes préparatoires, Faidherbe-Lille « Aujourd’hui, je n’obtiendrais pas un poste universitaire. C’est simple : je ne pense pas que je serais considéré comme assez productif » : en faisant cette déclaration dans une interview au Guardian – le 6 décembre dernier – le prix Nobel de physique 2013, Peter Higgs, manifestait son scepticisme vis-à-vis des prétentions actuelles de l’évaluation de la recherche. Il faut dire qu’il lui avait fallu un quart de siècle pour faire admettre son hypothèse prédictive sur l’existence dans certaines circonstances d’une particule de masse nulle : le fameux boson baptisé aujourd’hui « de Higgs ». Vingt-cinq ans de recherches patientes malgré le scepticisme d’une bonne partie de la communauté scientifique... Vingt-cinq ans de recherches discrètes, avec pendant longtemps très peu de publications... Au vu des exigences actuelles du management de la recherche, et du rôle joué désormais par les indices bibliométriques, le cheminement professionnel de Peter Higgs aurait, pour le moins, été considéré comme improductif. L’absence de recul critique sur les critères aujourd’hui retenus pour évaluer les chercheurs conduit à un aveuglement sur les risques qu’ils font encourir au monde des sciences.
L
e système de la recherche en France est soumis à un profond bouleversement qui consiste 1 à imposer une gestion normative sur des critères strictement formels et quantitatifs, au nom d’une rationalisation économique des activités de recherche inspirée du New Public Management. La taylorisation des tâches intellectuelles
La stratégie de l’évaluation applique aux chercheurs les critères rationnels abstraits de l’homo œconomicus, conçu comme un acteur calculateur visant constamment la maximisation du profit et de l’utilité. Ainsi, le recours à des indicateurs formels, à des repères bibliométriques, à un système d’incitations financières devient l’instrument de cette « gouvernance rénovée », préoccupée de démystifier le champ de la recherche scientifique. Lucien Karpik a souligné le malentendu sur lequel repose cette approche néo-libérale : elle réduit à un traitement mécaniquement quantitatif un domaine éminemment qualitatif de l’activité humaine : « Le système de la recherche ne peut être assimilé à un échange et encore moins à un marché puisqu’il ne contient ni prix ni mécanismes d’auto-régulation » 2. Alors que la plupart des biens et services qui répondent à la loi du marché sont matériels, les productions scientifiques se caractérisent par une dimension symbolique essentielle (comme, par exemple, la construction de modèles) qui constitue leur qualité ou singularité irréductible : « Les singularités sont 1 Depuis la loi de programme de 2006 et sous le contrôle de l’Agence d’évaluation de la recherche et de l’enseignement supérieur (AERES). Cf. Isabelle Kustosz, « Comptes rendus de thèses soutenues » : « Institutionnalisation de l’activité de recherche à travers le cas du Programme Cadre de Recherche et de Développement Technologique de l’Union Européenne », Revue Française de Socio-Économie, 2013/1, n° 11, p. 259-266, ISSN 1966-6608.
Cf. « ‘Performance’, ‘excellence’ et création scientifique », Revue française de Socio-Économie, 2012/2 n° 10, p. 113-135.
des produits d’échange (biens et services) incommensurables » 3. Soulignons d’abord l’incommensurabilité – théorisée par Kuhn 4 – qui existe au cœur même du processus de recherche scientifique entre les différents paradigmes explicatifs. Mais l’incommensurabilité des productions scientifiques est plus profonde encore : elle est due à la pluralité des démarches d’analyses, à l’incertitude accompagnant les découvertes quant à leur envergure et à leur impact, aux effets de nouveauté à la marge ou de refonte globale, etc. La recherche implique donc une confiance inscrite dans la durée et la reconnaissance compréhensive des pairs, plutôt que le recours à un calcul opératoire mécanique. La logique économique des biens matériels, qui présuppose la possibilité d’établir une équivalence généralisée (d’ordre monétaire, en dernière instance), apparaît plutôt antinomique avec la logique symbolique (typiquement d’ordre qualitatif) qui caractérise les productions scientifiques. Ainsi, Lucien Karpik souligne l’écart qui peut se creuser entre les « motivations intrinsèques » du chercheur et les « motivations extrinsèques » : « les premières regroupent la poursuite du but pour lui-même, la forte implication au travail, l’importance de la curiosité et du plaisir intellectuel tandis que les secondes rassemblent les mobiles étrangers à la tâche proprement dite et plus particulièrement les récompenses matérielles. Parce qu’ils divisent l’attention, désagrègent les motivations intrinsèques, les mobiles externes affaiblissent la créativité » 5. Ce qui se joue avec le système d’évaluation quantitative mis en place aujourd’hui n’est autre que la taylorisation des tâches intellectuelles. Le taylorisme avait d’abord concerné les tâches d’exécution dans les usines, ainsi séparées des tâches Lucien Karpik, L’ économie des singularités, éd. Gallimard, 2007, p. 38.
3
Thomas Kuhn, La structure des révolutions scientifiques, éd. Flammarion, 1972.
4
2
18
Cf. Lucien Karpik, article cité, Revue française de Socio-Économie.
5
repenser la politique / LNA#66
de conception ; mais, avec le néo-libéralisme, ce sont désormais les activités intellectuelles qui sont soumises à la taylorisation, à leur réduction à des grandeurs comptables, à leur atomisation en tâches décomposables et chronométrées. Canguilhem pointait certains effets pervers de cette prétendue organisation scientifique du travail : « La rationalisation est proprement une mécanisation de l’organisme pour autant qu’elle vise à l’élimination des mouvements inutiles, du seul point de vue du rendement considéré comme fonction mathématique d’un certain nombre de facteurs. Mais la constatation que les mouvements techniquement superflus sont des mouvements biologiquement nécessaires a été le premier écueil rencontré par cette assimilation de l’organisme à la machine » 6. De même, la recherche scientifique implique un ensemble de facteurs qui peuvent sembler superflus du point de vue de l’analyse comptable (les motivations « intrinsèques », l’importance du plaisir intellectuel, l’inscription dans un imaginaire enraciné dans l’histoire des sciences, le sentiment de vocation, etc.), mais qui sont néanmoins qualitativement déterminants pour l’émulation. La méconnaissance profonde de la nature de la valeur Penser l’évaluation de la recherche dans le cadre d’un positivisme pragmatique, fondé sur le calcul effectué à partir d’indicateurs normatifs, relève d’une ignorance de la nature des valeurs. En effet, elle réduit l’estimation de celles-ci à l’établissement de rapports quantitatifs, de comparaisons comptables, au détriment d’une ontologie des valeurs. Car la valeur est d’abord de l’ordre de l’être : étymologiquement, ce substantif vient du verbe latin valere qui signifie se bien porter et connote l’idée de force ou de vigueur que l’on retrouve dans valide, voire valeureux. La valeur renvoie initialement aux propriétés intrinsèques d’un être, sur fond d’une comparaison qualitative. Considérer la valeur sous un angle exclusivement quantitatif et économique relève d’une attitude réductionniste. Le recours exclusif à la valeur monétaire entre tous les biens tend à gommer les caractères originaux des êtres humains et de leurs activités culturelles. Or, à l’encontre de ce que l’on peut souvent croire, reconnaître la dimension qualitative des valeurs ne conduit pas au relativisme arbitraire. Max Scheler a montré qu’une véritable hiérarchie des valeurs peut être fondée ontologiquement et objectivement 7. Ainsi, le critère de la divisibilité apparaît-il déterminant : Scheler oppose les biens « consommables » aux biens « spirituels », au sens où les premiers sont tout à fait divisibles, alors que les seconds sont indivisibles. Un bien matériel peut être divisible et sa valeur de satisfaction
sera alors elle-même divisée. Une pomme peut procurer le plaisir de la consommer, mais celui-ci sera lui-même divisé par quatre si je dois partager la pomme entre quatre personnes. Il n’en est pas de même de la joie que l’on éprouve à écouter une symphonie au concert : même si la salle est pleine, le plaisir ressenti n’est pas « divisé » selon le nombre de personnes présentes. Nous faisons donc l’expérience de valeurs indivisibles et la joie procurée par la recherche intellectuelle en fait partie : dès lors, vouloir quantifier la valeur de la recherche revient à méconnaître l’indivisibilité des valeurs les plus hautes. De même, le critère de la profondeur de satisfaction permet d’établir que l’on peut apprécier la valeur de la recherche intellectuelle, indépendamment de la perception d’autres valeurs – financières, par exemple – qui peuvent lui être partiellement concomitantes. Il faudrait, en outre, prendre en compte l’autonomie de certaines valeurs par rapport à la perception ou non que les individus peuvent en faire. Il y a des valeurs intellectuelles qui s’articulent sur des situations objectives de problèmes, indépendantes des états de conscience des individus ou de leurs desiderata, et qui grandissent en fonction de leur degré de résistance aux efforts des chercheurs : ces contenus de pensée disposent de leur propre logique et de leur temps propre, irréductible au calcul et au temps de la rentabilité économique. L’indépendance de certains « contenus objectifs de pensée », qui imposent leurs propres contraintes à la réflexion des chercheurs, fonde leur valeur intellectuelle et indique leur supériorité sur d’autres valeurs tributaires exclusivement des préoccupations de la vie immédiate. Le triomphe de l’évaluation quantitative, à partir d’indicateurs conventionnels, n’est pas synonyme d’une authentique rationalisation de la recherche. Elle correspond plutôt à une perte du sens des valeurs intrinsèques à la recherche intellectuelle. Elle dénote une démission sur la question de l’objectivité qualitative des valeurs et d’un manque dramatique de confiance en leur hiérarchie. De même que l’on ne peut confondre « avoir intérêt à faire quelque chose » et « prendre intérêt à faire cette chose », tous les indicateurs normatifs ne rendront jamais compte de la valeur intellectuelle qui motive les chercheurs dans leurs activités heuristiques et qu’ils s’efforcent de transmettre : l’évaluation strictement quantitative conduit, au contraire, à la corruption de l’éthos de la recherche.
Georges Canguilhem, La connaissance de la vie, éd. Vrin, 1969.
6
7 Cf. Le formalisme en éthique et l’ éthique matériale des valeurs, Max Scheler, éd. Gallimard, Paris, 1955.
19
LNA#66 / chroniques d'économie politique
Faut-il mieux cibler les prestations sociales pour réduire les inégalités ? Par Michaël ZEMMOUR Maître de conférences en économie, Clersé, Université Lille 1 Pour réduire les inégalités efficacement, on pourrait penser qu’il convient de cibler prioritairement les transferts sociaux sur les ménages les plus modestes. Pourtant, cette intuition est contredite par les faits : c’est dans les pays où la protection sociale est la plus universelle que les ménages les plus modestes bénéficient en définitive de la meilleure protection. Présentation d’un résultat central d’économie politique : « le paradoxe de la redistribution ».
S
i l’on aborde la question d’un point de vue purement économique, la réponse semble évidente : en concentrant les prestations sociales sur ceux qui en ont le plus besoin (par exemple, les ménages les plus modestes ou les malades avec les pathologies les plus lourdes), et en finançant ces dépenses par des prélèvements obligatoires (impôts et cotisations sociales) les plus progressifs possible, on peut s’attendre à une plus grande réduction des inégalités. C’est dans cette perspective que se multiplient les propositions pour cibler davantage les prestations sociales sur les plus démunis : mettre les allocations familiales sous condition de ressources pour en exclure les foyers les plus aisés, instaurer un « bouclier sanitaire » pour les plus modestes tout en augmentant le reste à charge pour les autres ménages, etc. Symétriquement se développent des propositions pour rendre plus progressifs les prélèvements qui financent la protection sociale (par exemple la CSG). Pourtant, trois décennies de recherche en économie politique montrent, sans ambiguïté, que c’est exactement la politique inverse qui réduit les inégalités : dépenser beaucoup, pour tous et avec des prélèvements faiblement progressifs.
20
fixe le niveau des prestations. Dans un tel système, les plus pauvres doivent donc compter sur les autres contribuables (ou les partis qui les représentent) pour fixer le montant des prestations sociales. Dans ce cas, la générosité atteint vite ses limites. Dans un système universel en revanche, fixer le niveau des prestations revient à définir le niveau de sécurité que les citoyens s’accordent à eux-mêmes. Et, dans ce cas, une large majorité de la population, y compris parmi les plus favorisés, préfère un système avec un haut niveau de prélèvements mais très protecteur. De même, un système appuyé sur des prélèvements proportionnels (comme les cotisations sociales) pourra bénéficier d’un soutien politique plus large qu’un système adossé à des prélèvements très progressifs (qui divisera la population entre catégories de contribuables).
Le montant dédié à la protection sociale n’est pas fixe. La limite du raisonnement purement économique est qu’il fonctionne à budget donné. Or, en pratique, la part des richesses que chaque démocratie décide de consacrer à la protection sociale procède d’une succession de décisions politiques : chaque année, en votant le budget, et à chaque « réforme », les parlementaires et les gouvernements sont amenés à décider une augmentation, une baisse ou un gel des ressources consacrées à la protection sociale.
Ainsi, parmi les pays de l’OCDE, on constate que plus la protection sociale est universelle et inclusive (comme en Suède) et plus les prestations sont généreuses (voir graphique). À l’inverse, les pays (comme les États-Unis) dont le système d’imposition est très progressif, et dont les prestations sont très ciblées, consacrent beaucoup moins de ressources à la protection sociale. Il y a donc deux mécanismes aux effets contradictoires : - le mécanisme économique : à ressources données, plus les prestations sont concentrées sur les pauvres, plus les inégalités sont réduites (effet de ciblage), - le mécanisme politique : plus les prestations sont concentrées sur les pauvres, moins les ressources consacrées à la protection sociale sont importantes et moins les inégalités sont réduites (effet volume).
Dans un article devenu une référence, Korpi et Palme (1998) montrent que ces décisions ne sont pas indépendantes du degré d’universalité de la protection sociale : il y a une forme d’arbitrage entre ciblage des prestations et ressources consacrées à la protection sociale. En effet, dans un système très ciblé, ceux qui peuvent bénéficier des prestations sociales sont toujours une minorité des électeurs. Or, c’est bien la majorité (des électeurs ou des députés) qui
Empiriquement, on constate que le deuxième effet domine le premier : la réduction des inégalités est plus forte dans des pays comme la Suède (voir graphique). S’il faut choisir, augmenter les dépenses sociales plutôt que la progressivité ! Il est certainement nécessaire de rendre le système fiscal français plus progressif, notamment en taxant les très hauts revenus comme y invitent Landais Piketty et Saez (2011) dans leur ouvrage Pour une révolution fiscale ; les dernières
chroniques d'économie politique / LNA#66
décennies ont été celles d’une évasion fiscale organisée de très grandes fortunes, sur laquelle il est urgent de revenir. Mais, on ne peut envisager de réduire durablement les inégalités par la seule progressivité de l’impôt ou par le redéploiement des prestations sociales. Lorsque les besoins sociaux augmentent (vieillissement, dépendance, dépenses de santé, etc.), la meilleure stratégie pour réduire les inégalités reste d’augmenter les dépenses sociales, pour tous, même si cela implique une augmentation des prélèvements. Bibliographie - C. Landais, T. Piketty, E. Saez, Pour une révolution fiscale, Un impôt sur le revenu pour le XXIème siècle, la République des idées, éd. Seuil, 2011. - W. Korpi & J. Palme, « The paradox of redistribution and strategies of equality : Welfare state institutions, inequality, and poverty in the Western countries », American sociological review, 1998, 661-687.
21
LNA#66 / paradoxes
Paradoxes
Rubrique de divertissements mathématiques pour ceux qui aiment se prendre la tête * UMR CNRS 8022, Bât. M3 extension
Par Jean-Paul DELAHAYE Professeur émérite à l’Université Lille 1, Chercheur au Laboratoire d’Informatique Fondamentale de Lille *
Les paradoxes stimulent l’esprit et sont à l’origine de nombreux progrès mathématiques. Notre but est de vous provoquer et de vous faire réfléchir. Si vous pensez avoir une solution au paradoxe proposé, envoyez-la moi (faire parvenir le courrier à l’Espace Culture ou à l’adresse électronique delahaye@lifl.fr). LE PARADOXE PRÉCÉDENT : LE VOTE PAR TÉLÉPHONE Cinq personnes dans cinq pays différents doivent voter pour ou contre une certaine motion. Il leur est impossible de se déplacer et donc elles doivent se débrouiller par téléphone (ou par courrier électronique). Elles ne veulent faire intervenir aucun tiers ni aucun calcul compliqué demandant l’usage d’un ordinateur (ou d’un smartphone ou d’une tablette) et souhaitent absolument que les votes restent confidentiels, comme lors d’un vote à bulletins secrets avec une urne, si cela avait été possible. Comment doivent-elles s’y prendre ? On fera l’hypothèse que les cinq personnes savent, lorsqu’un message leur parvient, qui l’a envoyé (aucun anonymat n’est donc possible dans les communications). Les personnes ne se voient pas, ne peuvent pas échanger de papiers et les mélanger (ce qu’elles feraient si elles se trouvaient au même endroit). Il semble donc impossible d’organiser ce vote. Le paradoxe est que cela est possible ! Solution Les lecteurs ont fait preuve d’une grande créativité et de beaucoup d’ingéniosité. Plusieurs bonnes réponses, utilisant des idées différentes, me sont parvenues. Dans l’ordre, j’ai reçu des réponses de Jef Van Staeyen, Jean-François Colin, Pierre Testard, Nicolas Vaneecloo, Virginie Delsart, Aurèle Morvan, Maxime Morge, Odon de Francqueville, Christophe Vuylsteker, Michaël Zemmour, Pierre-Antoine Raux, Renaud Silvestri, Guillaume Madelaine, Pierre-Arnaud Francioso. Voici une solution assez simple à mettre en œuvre : chacune des cinq personnes A, B, C, D et E choisit un nombre entier (a, b, c, d et e) qu’elle prend multiple de 6 si elle veut voter OUI ou multiple de 6 plus 1 (comme 31 = 6 x 5 + 1) si elle veut voter NON. La somme N = a + b + c + d + e sera donc de la forme « un multiple de 6, plus le nombre de voix NON » (par exemple 604 = 6 x 100 + 4, qui signifie que 4 personnes ont voté NON). Chaque participant choisit maintenant une décomposition arbitraire de son nombre sous la forme d’une somme de 5 nombres : 22
a = a1 + a2 + a3 + a4 + a5, b = b1 + b2 + b3 + b4 + b5, etc. Chacun communique quatre des termes de sa décomposition aux quatre autres. Par exemple, les nombres b1, c1, d1, et e1, sont communiqués à A, les nombres a2, c 2, d2, et e 2 sont communiqués à B, etc. La personne A (qui connaît a1) additionne a1 + b1 + c1 + d1 + e1 = N1 ; la personne B additionne a 2 + b 2 + c 2 + d 2 + e 2 = N 2 etc. Remarquez que N1 + N2 + N3 + N4 + N5 = a + b + c + d + e = N. Les participants se communiquent alors N1, N2, N3, N4 et N5 et calculent, chacun de leur côté, la somme N1 + N2 + N3 + N4 + N5 = N. Si N est « un multiple de 6 », c’est que tous ont voté OUI ; si N est « un multiple de 6 plus 1 » ; c’est qu’il y a eu 1 vote NON ; si N est « un multiple de 6 plus 2 », c’est qu’il y a eu 2 votes NON ; etc. Si toutes les opérations se déroulent normalement, aucun des participants au vote ne dispose d’informations sur le vote des autres en dehors de celles déduites normalement du résultat. En effet, connaître la valeur de b1 (ce qui est la seule chose que A connaisse du vote de B) ne fournit aucune indication sur le reste de la division par 6 de b = b1 + b2 + b3 + b4 + b5 et, donc, A ne connaît rien du vote de B. Par symétrie, aucun participant ne peut, avec les informations qu’il a eu, tirer quoi que ce soit concernant le vote des autres. Tout s’est passé comme avec des bulletins de vote. Il est intéressant de se poser la question de savoir si le système proposé est robuste aux tentatives de tricheries. Deux possibilités de tricherie sont à envisager. Lorsque les cinq personnes font connaître les nombres N1, N2, N3, N4 et N5, si l’une d’entre elles, par exemple E, connaît les quatre autres résultats avant d’indiquer le sien, elle peut tricher en choisissant d’indiquer, pour N5, un nombre qui donne une somme N = N1 + N2 + N3 + N4 + N5 conforme au résultat qu’elle souhaite. Ce risque est facile à écarter, il suffit, lors de l’échange des nombres N1, ..., N5, de procéder en deux temps. D’abord A communique N1 à B uniquement, B communique N2 à C uniquement... E communique N5 à
paradoxes / LNA#66
A uniquement. Ensuite, les nombres sont communiqués à tous. Personne, au moment où il divulgue son nombre, ne connaît tous les autres et, donc, personne ne peut forcer N à être comme il le désire. Une autre tricherie est à envisager : un des participants pourrait choisir un nombre qui soit « un multiple de 6 plus 2 », ce qui revient pour lui à voter deux fois NON. Toutefois, ce type de tricherie se retournera contre le tricheur si les quatre autres participants choisissent le NON, car il y a alors un total de 6 NON, apparaissant comme un vote à l’unanimité pour le OUI (puisque la somme N1 + N2 + N3 + N4 + N5 est un multiple de 6). Un tel résultat serait contraire au désir du tricheur (qui veut faire gagner le NON). De plus, cette tricherie serait détectée par chaque participant puisqu’ayant voté NON il s’attendra à découvrir, lors du dépouillement, un NON au moins. Lorsqu’une telle tricherie est découverte, les participants, s’ils acceptent de lever le secret du vote et donc de communiquer les nombres qu’ils ont utilisés, sont en mesure de savoir qui a triché. Cette tricherie est donc doublement risquée pour le tricheur : il peut faire gagner le OUI et il est susceptible de se faire repérer. On pourra donc raisonnablement faire l’hypothèse que personne ne se laisse tenter. NOUVEAU PARADOXE : 9 CHANCES SUR 10 DE GAGNER ET DE PERDRE Ce paradoxe demande un peu d’attention, mais il en vaut la peine car il est vraiment troublant. Il m’a été suggéré par des protocoles probabilistes décrits par le philosophe canadien John Leslie. Il y a un banquier et des joueurs. Chaque joueur engage 100 €. S’il gagne, il récupère ses 100 €, plus 100 € que lui donne le banquier. S’il perd, le banquier garde les 100 € engagés par le joueur. Le banquier utilise un dé équitable à 10 faces (de tels dés existent : il suffit d’accoler l’une à l’autre, par la base, deux pyramides à base pentagonale). Le banquier constitue des groupes de joueurs de la façon suivante : le groupe 1 est composé de 10 joueurs numérotés de 1 à 10. Le joueur 1 gagne toujours. Le groupe 2 comporte 90 joueurs numérotés de 11 à 100. Le groupe 3 comporte 900 joueurs numérotés de 101 à 1000. Etc. Il n’est pas nécessaire que les groupes soient constitués à l’avance.
Le banquier jette le dé à 10 faces. Si le résultat est un 10, les joueurs 2, 3, ..., 10 du premier groupe ont perdu, et la partie est terminée pour tout le monde. Dans un tel cas, 9 joueurs ont perdu et 1 joueur (le numéro 1) a gagné. Sinon – si le résultat du dé est 1, 2, 3, ..., ou 9 au premier lancer – les 10 joueurs du groupe 1 ont gagné, et le banquier jette le dé une deuxième fois. Si le résultat du second lancer est 10, les 90 joueurs du groupe 2 ont perdu et la partie est terminée pour tout le monde. Dans un tel cas, 90 joueurs ont perdu (ceux dont les numéros sont 11, 12, ..., 100) et 10 joueurs ont gagné. Sinon – si le résultat du second lancer est 1, 2, ..., ou 9 – les 90 joueurs du groupe 2 ont gagné, et le banquier jette le dé une troisième fois. Si le résultat de ce troisième lancer est 10, les 900 joueurs du groupe 3 ont perdu et la partie est terminée. Dans un tel cas, en tout 900 joueurs ont perdu et 100 = 10 + 90 joueurs ont gagné. Etc. Le jeu se prolonge jusqu’à ce qu’un 10 tombe. Remarquons que, quel que soit le moment de l’arrêt, quand la partie se termine, 9 joueurs sur 10 exactement ont perdu, et 1 sur 10 a gagné. Notons aussi que chaque partie du jeu « 9 sur 10 » est finie (car la probabilité pour qu’on ne tombe jamais sur un 10 est nulle). Le banquier cherche des joueurs. Il vous demande si vous acceptez de jouer (sans vous indiquer le numéro que vous aurez). Voilà deux raisonnements possibles. Raisonnement 1. Je vais risquer 100 €, on va jeter le dé. La probabilité pour que je perde est de 1/10 puisque seul le 10 me fait perdre (c’est même un peu moins puisque le joueur de numéro 1 est certain de gagner). Ayant donc plus de 9 chances sur 10 de gagner, j’accepte. Raisonnement 2. Parmi toutes les personnes à qui le banquier propose le jeu et qui participeront au jeu, quelle que soit la durée de la partie, il y a exactement 9 joueurs sur 10 qui perdent. Si j’accepte de jouer, je serai un joueur quelconque, en rien différent des autres, à qui le banquier a proposé le jeu. Comme 9 joueurs sur 10 perdent, j’ai 9 chances sur 10 de perdre. Donc, je refuse. Que pensez-vous de ce paradoxe : 9 chances sur 10 de gagner ou 9 chances sur 10 de perdre ? 23
LNA#66 / à lire
Une histoire de l’énergie Les servitudes de la puissance Par Bernard MAITTE Professeur émérite des Universités
Cette réédition, augmentée, de l’ouvrage de Jean-Claude Debeir, Jean-Paul Deléage et Daniel Hémery est particulièrement pertinente, alors que se pose avec acuité la nécessité d’un changement énergétique 1. Aucun citoyen, aucun étudiant, aucun responsable politique ne devrait ignorer ce livre qui, bien plus qu’une histoire de l’énergie, constitue une Somme très stimulante permettant de comprendre la société où nous vivons, de penser son avenir. Sociétés et systèmes énergétiques 1 L’ambition du livre est de nous montrer comment les groupes humains ont sans cesse inventé les conditions énergétiques de leur survie ou de leur croissance, de nous donner une compréhension historique, sur la longue durée, des problèmes énergétiques affrontés par les sociétés, de nous permettre de penser la crise actuelle et d’effectuer des choix productifs liés à des valeurs d’usage et non plus à des logiques de profits et d’accumulation. Pour remplir cet ambitieux programme, les auteurs rappellent d’abord que toute utilisation de l’énergie se fait au moyen de convertisseurs : biologiques, ils stockent l’énergie solaire dans leur propre structure (plantes), ou se nourrissent de celles-ci (ou des herbivores) pour produire leur propre énergie. Dans toutes ces transformations, le rendement est très faible, de même que celui des animaux lorsqu’ils produisent une énergie mécanique utile. Le meilleur convertisseur biologique est l’homme, ce qui explique l’utilisation et la permanence, encore aujourd’hui, de la servitude et de l’esclavage. L’homme a pu aussi amplifier les ressources énergétiques fournies par les convertisseurs biologiques grâce aux convertisseurs artificiels qu’il a mis au point, telles les roues hydrauliques, les machines à vapeur… Ainsi, toute société humaine dépend-elle de chaînes de convertisseurs. Celles-ci sont fonction des sources disponibles, de la nature des convertisseurs, de leurs rendements (donc des techniques mises au point), des structures sociales d’appropriation et de gestion, ensemble que les auteurs appellent système énergétique (S.E.). Toute l’histoire humaine peut donc se lire au travers des S.E. dont disposent les sociétés : esclavagisme, féodalisme, techniques mises au point, formes d’appropriations… Un des problèmes posés étant la manière dont évoluent les systèmes énergétiques d’une société, les raisons pour lesquelles on passe d’un S.E. à un autre. Les auteurs montrent qu’il n’y a pas de déterminisme énergétique, mais que les S.E. dont On peut regretter que les chapitres aient été inégalement revisités. Certains tableaux n’ont pas été mis à jour et leurs données datent des années 1980 - 1990.
1
24
disposent les groupes humains sont variés et élastiques (rendements et concurrences des convertisseurs disponibles), dépendent d’une aire d’approvisionnement en sources d’énergies brutes variables. Des chapitres concernent le cas particulier de la Chine : nous ne les analyserons pas ici. Pendant longtemps, hors du travail mécanique fourni par les hommes et les animaux, les convertisseurs énergétiques ont été édifiés là même où l’énergie hydraulique, le bois… étaient disponibles. Il s’agit alors d’apporter les matières premières (grains, minerais…) aux fours et aux moulins. Charretiers, bouviers sont alors plus nombreux autour de la forge que les forgerons ; la nourriture des bêtes mobilise des surfaces agricoles équivalentes à celles des bois nécessaires au feu. Les économies antiques et médiévales souffrent donc d’une dispersion ; le transport constitue la butée du S.E. médiéval, alors même qu’exploitation paysanne agricole, propriété des convertisseurs artificiels, extension des zones d’approvisionnement induisent des conflits. Ce sont dans les directions de l’intensification des filières existantes, de la recherche de nouvelles, d’extension des espaces de prélèvements que les solutions de développement sont recherchées. C’est d’une autre direction que viendra la rupture décisive : la mise au point de convertisseurs nouveaux, dont le premier fut la machine à vapeur. L’ère des réseaux Cette machine à vapeur bouleverse les rapports de l’homme à l’énergie : les moulins à eau, à vent laissent le milieu inchangé, la « machine à feu » consomme les matières dont elle tire son énergie. Certes, les premières utilisent du bois, renouvelable, mais bientôt le « charbon de terre » est utilisé, qui a un pouvoir énergétique de loin supérieur, déstocke l’énergie fossile accumulée, se transporte facilement sous un volume assez faible, dissocie le lieu d’extraction du combustible et son lieu d’utilisation (le convertisseur de sa source d’énergie), permet les concentrations, exige des investissements de plus en plus lourds, provoque les développements du capitalisme et de l’exploitation des ouvriers, maintenant que l’usine remplace la manufacture. Dès lors, l’énergie devient affaire d’investisseurs, d’ingénieurs, d’ouvriers, de
à lire / LNA#66
© Samuel Borges / iStock / Thinkstock
savants, se constitue en secteur indépendant et autonome, un secteur qui joue un rôle décisif dans la régulation de la nouvelle économie. Ce capitalisme, d’abord national, a besoin d’une expansion océanique et coloniale, voulue par de grandes compagnies. L’ère des réseaux commence. Cette transition énergétique ne se fait pas du jour au lendemain : les formes anciennes subsistent, tout S.E. étant fait de diversité et de pluralité. L’analyse des différences régionales ou sectorielles de la mise en valeur des ressources énergétiques permet de comprendre les rivalités qui opposent les nations industrielles à leurs débuts et leurs combats pour élargir leurs aires d’approvisionnements, le cadre commercial d’écoulement des marchandises qu’elles fabriquent. Sur la longue durée, différentes formes d’énergies sont utilisées, dont le développement repose sur la facilité de leur transport. Le gaz et le pétrole bénéficient d’un avantage : ils permettent le développement de compagnies qui sont en même temps d’extraction, de production, de transport et de distribution, comme l’est aussi l’électricité, dès son début. De vastes réseaux mondiaux centralisés se constituent. La production d’énergie acquiert une élasticité inconnue jusqu’alors par le recours au combustible fossile non renouvelable et le progrès des transports ; l’offre tend désormais à précéder la demande et les grandes compagnies exercent un quasi-monopole. Celui-ci leur permet d’agir, d’une part, sur la stratégie des prix : diminution de ceux-ci pour encourager industriels et particuliers à s’équiper en machines, puis hausses que les clients, captifs, sont obligés de subir. Les compagnies contraignent aussi, d’autre part, la politique des États, notamment ceux qui avaient fait, comme la France, de la production et de la distribution de l’énergie un bien commun. La rationalité du nucléaire C’est à ce stade que se situe la recherche d’une issue, celle du nucléaire. Le développement de cette filière obéit à une logique très rationnelle : minerai très peu encombrant pour un pouvoir énergétique important, maîtrise de la technologie par un pays comme la France, qui souffre d’un déficit de ressources patent, faible prix, centralisation du pays et de
sa compagnie de distribution des énergies correspondant à l’indispensable centralisation de la filière. Rien de fondamental ne change dans le mode de fonctionnement, mais rien ne sera plus comme avant. Ici, ce n’est plus l’empirisme de l’amélioration des techniques qui précède le développement, c’est la science qui devient opératrice, la science dont les résultats théoriques sont antérieurs à la mise au point des convertisseurs, la science qui a permis d’abord l’atome pour la bombe (les utilisations militaires ne peuvent jamais être dissociées de la production d’électricité nucléaire), la science qui préside à l’extraction, à l’enrichissement des minerais, au traitement des déchets. Les décisions à prendre pour mettre au point et développer cette filière électronucléaire, dont la cohérence est exceptionnelle, dépassent désormais les compétences des techniciens, des économistes, des politiques : elles appartiennent à des grands organismes de recherches. La filière est censée assurer l’indépendance énergétique nationale. Sa rentabilité économique suppose de consommer aux « heures creuses », de vendre à l’étranger électricité et centrales. Avec le nucléaire plus encore qu’avec le pétrole et le gaz, l’offre détermine la demande et la société doit obéir au mouvement de la production. On sait les difficultés rencontrées dans ce domaine : centralisation indispensable, déchets stockés à l’échelle des temps géologiques ou dont le recyclage doit être assuré, mévente des centrales, dérive des coûts provoqués par le renforcement des règles de sécurité dû à des accidents majeurs, durée de vie des convertisseurs faible, démantèlement onéreux… Nous voyons aujourd’hui, avec les guerres africaines et les contrats recherchés à l’étranger, le poids des contraintes géopolitiques et la dépendance par rapport aux circuits mondiaux du capital, où règne en maître le dollar, dont les fluctuations et la hausse des taux d’intérêt font que la filière, loin d’assurer une indépendance énergétique, contribue au gonflement de la dette extérieure de la France et incite à promouvoir une surconsommation intérieure d’électricité. Penser le changement du S.E. Le S.E., édifié depuis moins de deux siècles, connaît une expansion sans précédent, alors qu’il consomme les ressources 25
LNA#66 / à lire
© Samuel Borges / iStock / Thinkstock
fossiles et contribue fortement au dérèglement climatique. Dès lors, plusieurs logiques s’affrontent. Faut-il continuer ? Mais la planète supportera-t-elle la généralisation de notre S.E. aux pays émergents ? Faut-il le restreindre aux pays industrialisés ? Mais alors comment ? Et n’est-ce pas insupportable, pour le S.E. lui-même, fondé sur son expansion ? Faut-il rechercher d’autres sources non fossiles ? Mais l’oligarchie des grands groupes maintient et étend son pouvoir en s’adaptant : elle poursuit la même politique en investissant dans la fabrication des panneaux solaires et les agrocarburants, qui concurrencent les cultures vivrières. Cette adaptation renforce les réseaux centralisés, d’électricité ou d’hydrocarbures. L’injonction à laquelle on nous invite à nous plier, celle de la « transition énergétique », est l’affaire des grands groupes et des États les plus puissants de la planète : elle risque d’être porteuse de plus de dangers que ceux du S.E. actuel, que ce soit lorsque le capitalisme essaie de perfectionner les convertisseurs (surrégénérateurs), d’exploiter de nouveaux gisements (gaz de schiste ; Arctique), bref de garder la logique d’accumulation et du primat de l’offre. Les auteurs du livre démontrent, de manière convaincante, qu’aucune société dans l’histoire n’a échappé aux contraintes de la crise de son S.E. et que nous devons maintenant penser sa mutation d’ensemble. Nous ne pouvons faire table rase du système actuel : il constitue une infrastructure à partir de laquelle d’autres modes sont possibles. Mais nous pouvons, par exemple, en finir avec la logique d’accumulation, utiliser l’augmentation de la productivité du travail permise par les machines pour dégager du temps libre, et non plus assurer la dictature de la marchandise dont la valeur est celle d’échange et non, comme elle devrait l’être, de satisfaction des besoins. Certes, une telle vision relève de l’utopie. Mais n’est-ce pas le rêve et l’utopie qui nourrissent toute réflexion sur ce que devrait être une politique qui préparerait l’avenir au lieu d’essayer de replâtrer le présent, quand ce n’est pas de faire le jeu de l’oligarchie financière ? Les auteurs soulignent que « la mise en place de l’alternative énergétique ne relève pas de la seule technique. Les défis à relever sont moins scientifiques que politiques, moins technologiques que sociaux... Échapper à la spirale de la puissance et de la violence consiste à s’affranchir de la domination des firmes transnationales... 26
de l’ idée délirante d’une possible victoire sur la nature ». La politique énergétique d’un socialisme possible supposerait « la subordination du travail mort (les surplus énergétiques accumulés) au travail vivant, l’utilisation massive des sources d’ énergie renouvelables et décentralisées, l’adoption d’un autre modèle de consommation, le rejet de la logique de la marchandise... et, finalement, la recherche des économies dans les pays industrialisés, seule susceptible de réduire les tensions sociales et écologiques et de favoriser les investissements énergétiques indispensables aux pays de Sud ». On l’a compris, la force des analyses développées dans le livre permet de penser les mutations que nous vivons et d’imaginer des futurs possibles dans lesquels nous situer et entre lesquels choisir, en réveillant une démocratie bien endormie. J.C. Debeir, J.P. Deléage, D. Hémery, Une histoire de l’énergie, les servitudes de la puissance, édition revue et augmentée, Paris, Flammarion, 2013.
au programme / réflexion-débat / LNA#66
RENDEZ-VOUS D’ARCHIMÈDE, Cycle
Le corps
Octobre 2013 - avril 2014 Espace Culture CONFÉRENCE u Le don d’organes Mardi 1er avril à 18h30 Par Michel Castra, Professeur en sociologie, CERIES, Université Lille 3 Animée par Dominique Boury, Enseignant-chercheur au département d’éthique de l’Institut Catholique de Lille Journée d’études
Corps et esprit u Mardi 15 avril 2014 Entrée libre sur inscription * MATIN
10h30-11h45 : Conférence Pensée et corps : approche philosophique de la dichotomie entre pensée et corps Par Marc Parmentier, Maître de conférences en philosophie, Université Lille 3 L’union de l’âme et du corps apparaît comme une question centrale dans la philosophie classique. Nous présenterons quelques-unes des solutions apportées par les métaphysiciens du XVIIème siècle afin de repérer en quoi elles peuvent éclairer les problématiques contemporaines relatives au « Mind-body problem ». Animateur : Jean-Philippe Cassar suivie d’un débat
8h30 : Accueil
APRÈS-MIDI
9h : Introduction par Jean-Philippe Cassar, Vice-président Culture et Patrimoine scientifique, Université Lille 1
13h30 : Conférence Corps et â me da ns les religions monothéistes Par Simon Icard, Chargé de recherches au CNRS, Laboratoire d’Études sur les monothéismes
9h15-10h30 : Conférence Corps, soi et autrui : approche en robotique développemental Par Peter Dominey, Directeur de recherche CNRS, INSERM U846 Lyon Pour que les robots puissent communiquer avec les humains, ils doivent être capables d’entrer dans une relation entre « soi » et « autrui ». Cela nécessitera le développement de « soi » dans l’esprit du robot. Quelle est la nature de soi chez les humains, et comment peut-on développer cette notion de soi dans le robot ? Le corps est d’une importance cruciale dans l’établissement du soi chez l’homme. Nous décrirons nos premiers pas vers le développement de soi, via le corps, dans le robot.
On ne peut pas véritablement comprendre la manière dont l’Occident a pensé et pense encore aujourd’hui la relation entre corps et esprit sans prendre en compte les siècles de réflexion religieuse sur cette question. Les religions monothéistes ont largement contribué à en faire un enjeu fondamental pour la connaissance de l’homme dans sa totalité.
Bernard Meurin, Psychomotricien, CHRU de Lille/CRA Nord-Pas de Calais Animateur : Philippe Breton suivie d’un débat en présence de Marc Parmentier et Simon Icard 15h30 : Table ronde 2 Vers un cerveau artificiel ? Philippe Breton, Professeur des Universités, Centre Universitaire d’Enseignement du Journalisme, Université de Strasbourg Jean-Paul Delahaye, Professeur émérite à l’Université Lille 1, Chercheur au Laboratoire d’Informatique Fondamentale de Lille Philippe Gallois, Neurologue, Faculté Libre de Médecine, Lille Animateur : Dominique Boury suivie d’un débat en présence de Peter Dominey 17h : Conclusion par Jean-Philippe Cassar Avant le 7 avril : fathea.chergui@univ-lille1.fr
*
Comité d’organisation : Sylvain Billiard, JeanPhilippe Cassar, Laurent Grisoni, Jacques Lescuyer, Bernard Maitte, Sylvie Reteuna. Retrouvez toutes nos conférences en vidéo sur le site : http://lille1tv.univ-lille1.fr/
14h15 : Table ronde 1 Corps, âme et esprit Dominique Boury, Enseignant-chercheur au département d’éthique de l’Institut Catholique de Lille 27
LNA#66 / au programme / réflexion-débat
Un temps pour débattre
Évaluer les richesses ? UN TEMPS POUR
DÉBATTRE
Mardi 8 avril à la MESHS
ÉVALUER
LES RICHESSES ? MARDI 8 AVRIL 2014 Entrée libre sur inscription *
MESHS
Espace Baïetto, 2 rue des Canonniers, Lille
Espace Baïetto 2 rue des Canonniers, Lille Entrée libre sur inscription *
Organisée par l'Espace Culture - Université Lille 1 et la Maison européenne des sciences de l'homme et de la société (MESHS) DANS LE CADRE des Rendez-vous d’Archimède Cycle « À propos de l'évaluation » Lille 1 - Espace Culture
du Printemps des sciences humaines et sociales Thème « La richesse » MESHS
Organisée par l’Espace Culture - Université Lille 1 dans le cadre des Rendez-vous d’Archimède, cycle « À propos de l’évaluation » et la Maison européenne des sciences et de la société (MESHS) dans le cadre du Printemps des sciences humaines et sociales, thème « La richesse » 14h : Ouverture Par Martine Benoit, Directrice de la Maison européenne des sciences de l’homme et de la société et Jean-Philippe Cassar, Vice-président Culture et Patrimoine scientifique, Université Lille 1 14h15 : Conférence introductive Richesse et valeur Retour à la critique de l’ économie politique à l’occasion de la crise systémique du capitalisme contemporain Par Jean-Marie Harribey, Économiste, professeur à l’Université de Bordeaux 4 Animateur : Rémy Caveng, Maître de conférences en sociologie, Université de Picardie Les contradictions sociales et écologiques du capitalisme au début du X XIème siècle peuvent être analysées comme résultant de la difficulté : - de faire produire de la valeur à une force de travail trop exploitée pour absorber la totalité des marchandises - de lui en faire produire toujours plus sur une base matérielle en voie d’épuisement ou de dégradation. La crise financière ouverte en 2007 est l’éclatement de l’illusion entretenue pendant les dernières décennies, 28
selon laquelle la finance pouvait se dégager de la contrainte sociale et de la contrainte matérielle évoquées à l’instant et devenir une source endogène et auto-suffisante de nouvelle richesse pour poursuivre une accumulation infinie. Or, ces deux contraintes sont indépassables. C’est la raison pour laquelle les entreprises multinationales essaient de s’emparer à tout prix des biens communs de l’humanité, les ressources comme les connaissances, tentative qui est devenue le nouvel horizon d’un capitalisme cherchant la sortie de sa crise. Dans cette perspective, deux cibles principales sont visées : la sphère non marchande, considérée comme improductive et parasitaire de la sphère marchande, et la nature qu’il s’agit de plier aux impératifs capitalistes. On montrera ici que la matrice conceptuelle de la critique de l’économie politique, d’Aristote à Marx, distinguant richesse et valeur, valeur d’usage et valeur d’échange, permet de comprendre que le travail effectué dans la sphère non marchande est éminemment productif et que la nature est irréductible à du capital. suivie d’un débat 15h30 : Table ronde Définition et évaluation de la richesse : controverses Bernard Friot, Professeur émérite à Paris Ouest Nanterre, IDHE (Institutions et dynamiques historiques de l’économie) Henri Sterdynia k, Directeur du
département Économie de la mondialisation de l’Observatoire Français des Conjonctures Économiques, Paris Bernard Perret, Ingénieur et socioéconomiste, membre du Conseil Général de l’environnement et du développement durable Animateur : Richard Sobel, Maître de conférences en économie, Clersé, Université Lille 1 suivie d’un débat 18h-18h30 : Pause 18h30 : Conférence Au-delà des richesses Par Alain Caillé, Professeur émérite de sociologie, Université Paris 10 et coordinateur du « Manifeste convivialiste » Animateur : Jean-Philippe Cassar suivie d’un débat 20h15 : Conclusion * Avant le 28 mars : fathea.chergui@univ-lille1.fr Retrouvez toutes nos conférences en vidéo sur le site : http://lille1tv.univ-lille1.fr/
Retrouvez le programme détaillé sur : - le site de l’Espace Culture : http://culture.univ-lille1.fr - le site de la MESHS : http://www.meshs.fr
au programme / exposition / LNA#66
Quelques mesures d’écart Œuvres de la collection du FRAC Nord-Pas de Calais Jusqu’au 18 avril Espace Culture / Entrée libre
Des visites commentées vous sont proposées tout au long de cette exposition *
L’évaluation se distingue de la notion de goût. Elle cherche à réduire sa part de subjectivité, mais cette part reste importante en particulier dans l’évaluation des aptitudes humaines et de la créativité, par exemple. Le principe d’incertitude fait donc partie intégrante de l’évaluation et tend à être réduit par la définition de mesures, d’outils, de critères.
D
epuis Marcel Duchamp et l’avènement de l’art conceptuel, les artistes contemporains s’engouffrent dans l’espace indéfini, l’écart qui existe entre l’objectivité de l’évaluation et la subjectivité des critères. Ils créent ainsi leurs propres critères et mesures, ceci afin de mettre à l’épreuve le spectateur, afin de renverser les points de vue, afin de garder un esprit critique. Composée de trois courts chapitres, « Quelques mesures d’écart » vous invite à faire un pas de côté, à regarder de biais. Après une mise à l’épreuve de vos sens (Otto Berchem, Magdalena Fragnito di Giorgio) et la découverte d’œuvres qui utilisent la mesure pour mieux la détourner (Jean-Pierre Raynaud, Stanley Brouwn), vous effectuerez une plongée dans l’évaluation, la critique, les regards corrosifs de trois artistes sur l’art contemporain (BEN, Marcel Broodthaers, Présence Panchounette). À vous donc de vous sentir décomplexé afin d’évaluer la création contemporaine selon vos propres critères ! Évaluation du spectateur, mise à l’épreuve de celui-ci L’idée d’évaluer, c’est aussi mettre à l’épreuve, éprouver un sujet. Certaines œuvres de la collection du FRAC Nord-Pas de Calais éprouvent le spectateur à des niveaux différents : la perception, la connaissance, l’absurde. Otto Berchem, Do you know, 2011 Cette œuvre sonore souligne l’absurdité du « name-droping » par le long égrainage de tous les noms des artistes entrés dans la collection du FRAC Nord-Pas de Calais depuis 30 ans. Maddalena Fragnito di Giorgio, Taboo, 2009 Cette sculpture est un empilement de livres dont les titres débutent par « L’art de… » : « L’art de mourir », « L’art du questionnement »… « Je commence une collection de livres sur l’art de quelque chose, comme l’art du leadership, l’art de faire de l’argent, l’art de la guerre, l’art de la fête, l’art de la pendule… Me demandant quel genre de relation il y a entre le travail que je fais et ce qui est montré de moi, ce qui plaît au marché dans mon travail, essayant de comprendre combien cette relation influe sur les directions que je prends. »
La mesure, les critères : l’outil de l’évaluation La mesure est l’outil de l’évaluation qui permet de réduire l’espace incertain créé entre une évaluation objective et des critères subjectifs. Jean Pierre Raynaud, Mur aux deux anneaux, 1969 Les « psycho-objets » élaborés par l’artiste se présentent comme des assemblages d’objets, laqués de rouge ou de blanc, qui évoquent un univers stérilisé où la présence humaine ne se signale que par la géométrie, la codification, le chiffrage. La fréquence des numéros renvoie aux matricules, aux repères, à une volonté de classification universelle, pendant que les échelles, les chaînes, les poignées et les toises connotent un monde sans échappatoire. Stanley Brouwn, 1 m/1 step, 1985 Avec cette installation, l’artiste confronte une mesure corporelle (son pas) et une unité de mesure normée (le mètre). Évaluation de l’art contemporain par les artistes BEN, Et si l’art n’existait pas ?, 1984 / De cette toile on aurait dit…, 1974 Les deux tableaux évoquent l’évolution de la réception de l’art contemporain : l’artiste se replace dans l’histoire de l’art et évalue sa propre pratique. Marcel Broodthaers, Gedicht, 1973 Dans ces deux sérigraphies – un poème composé des initiales de l’auteur et une monétisation de ce dernier – on note l’importance accordée à sa signature dont il calcule le prix en faisant une somme de ses initiales apparaissant dans le poème. Présence Panchounette, Le lancement du refoulé, 1984 Par des citations sur l’art de diverses personnalités sur les assiettes virtuellement lancées par une reproduction en résine du Discobole de Mylon, cette installation replace l’art contemporain dans l’histoire de l’art. Le mot « art » est effacé dans les citations. * Du lundi au jeudi de 11h à 18h et le vendredi de 11h à 13h Réservation recommandée pour les groupes, d’autres créneaux peuvent être envisagés (tél : 03 20 33 61 12).
29
LNA#66 / hommage
Pierre Glorieux (1947-2013) Une figure marquante de l’Université Lille 1 Le décès accidentel de Pierre Glorieux, survenu brutalement en septembre dernier, a été un choc pour le laboratoire de Physique des Lasers, Atomes, Molécules (PhLAM) et pour notre université, mais aussi plus largement pour le monde de la recherche en France et au-delà.
Photo : La Voix du Nord
Q
ui aurait pu imaginer cela lors du symposium organisé en son honneur un an plus tôt, en novembre 2012 ? C’était une belle journée, une fête de l’esprit. Des physiciens de tout premier plan, dont le tout nouveau prix Nobel Serge Haroche ou encore Alain Aspect, prix Wolf 2010, étaient venus sur notre campus pour rendre hommage à Pierre à l’occasion de ses 65 ans. Devant une salle pleine à craquer de collègues et d’étudiants subjugués, ils nous avaient emmené dans les mondes extraordinaires qu’ils avaient été les premiers à explorer. Peu de choses auraient pu faire plus plaisir à Pierre que ce moment de partage du savoir, lui dont la curiosité était insatiable, pour qui réponses comme questions appelaient de nouvelles questions. Lui qui n’avait de cesse d’aller plus loin, et qui admirait profondément tous ceux qui nous y emmènent. Si ces scientifiques éminents avaient tenu à être là, ce n’était pas seulement pour saluer le chercheur et le responsable éminents, mais aussi par amitié pour Pierre, parce que, comme tous ceux qui l’avaient côtoyé, ils estimaient profondé-
30
ment ses qualités humaines. Pour eux, comme pour toute une communauté, c’est une perte immense. C’est que, quelles qu’aient pu être les brillantes réussites de sa carrière éblouissante, Pierre était quelqu’un qui avait le goût du dialogue, qui savait et aimait parler à chacun. Un grand modeste, pour qui un succès n’était pas un aboutissement, mais tout simplement un tremplin. Évoquer la mémoire de Pierre Glorieux, c’est raconter tout un pan de l’histoire de notre université et de la recherche française. En effet, Pierre a initié avec succès des voies de recherche nouvelles, qui constituent aujourd’hui un des axes du Labex CEMPI, mais a été également un grand acteur de la structuration de la recherche française. Il a assuré des responsabilités importantes dans les principales institutions de recherche françaises : le CNRS de 2000 à 2007, où il est successivement président de la section 04 du comité national, directeur scientifique adjoint du département Sciences Physiques et Mathématiques, directeur interrégional et chargé de mission auprès du directeur général ; il sera ensuite chargé de mission auprès de la directrice générale de l’ANR et, enfin, directeur de la section des unités de recherche de l’AERES en 2008, jusqu’à sa retraite en 2012. Au sein de cette dernière agence, Pierre a contribué à l’affinement et la rationalisation des évaluations, ainsi qu’à l’élaboration des outils de pilotage de la recherche. C’est tout naturellement qu’il avait été sollicité pour animer la conférence de Pierre Joliot, organisée le 21 janvier par l’Espace Culture dans le cadre du cycle « À propos de l’évaluation », et où il aurait pu nous faire profiter de son expertise dans ce domaine. Mais Pierre, avant d’être un grand administrateur de la recherche, était un grand chercheur, imaginatif, passionné, et qui savait communiquer cette passion à ses étudiants et à ses collaborateurs. Ce qu’il demandait à ces derniers, c’était d’ailleurs non pas de la soumission mais, au contraire, le don de le surprendre et de l’emmener dans des directions qu’il n’avait pas imaginées. Il disait que son rêve était celui de tout enseignant, d’avoir des étudiants meilleurs que lui et qui le dépassent. Professeur de Physique, Pierre Glorieux l’était dans tous les sens du terme. Aider à comprendre, faire progresser les
hommage / LNA#66
autres avec lui, c’est encore cela qui motivait ce formateur hors pair, dont les anciens étudiants se souviennent comme d’un enseignant brillant, original et marquant, qui les emmenait toujours plus loin. L’histoire de Pierre commence au printemps 1947, à Tourcoing. Après des études dans la région, il devient en 1968 assistant à Lille 1. Ses travaux dans le domaine de la spectroscopie l’amènent à faire un postdoc à l’institut Herzberg (Ottawa, Canada), dans l’équipe du professeur Takeshi Oka. Promu professeur en 1980, il commence peu après à s’intéresser à la dynamique non linéaire des lasers, tirant parti de ces dispositifs pour explorer des phénomènes complexes universels. Il réalise ainsi plusieurs premières expérimentales en y observant, caractérisant et contrôlant le « chaos déterministe », ce comportement irrégulier et turbulent qui peut survenir même dans des systèmes obéissant à des lois strictement déterministes. Pour cela, il sait établir un dialogue fructueux avec les théoriciens, en faisant lui-même l’effort nécessaire pour dégager un vocabulaire commun. Cela lui permet de concevoir des expériences permettant de tester les concepts les plus avancés de la dynamique non linéaire. Il entretient également de nombreux contacts avec le monde industriel, si bien que certains de ses résultats sont obtenus sur des prototypes industriels. Ces travaux lui valent de recevoir, en 1989, la médaille d’argent du CNRS, puis d’être admis, en 1994, comme membre senior à l’Institut Universitaire de France. L’impact international des recherches de Pierre est considérable et il obtient d’ailleurs, en 1997, la distinction « fellow » de l’Optical Society of America. Pierre Glorieux fut par ailleurs membre du comité scientifique des toutes premières éditions de la Rencontre du Non-Linéaire, la conférence annuelle de la communauté française de dynamique non linéaire, qui lui rendra d’ailleurs hommage lors d’un symposium le 18 mars 2014 à Paris. Cette notoriété en fait un membre influent de l’école française du chaos, puis de la recherche française en général, notoriété et influence qu’il mettra toujours au service de son laboratoire et de son université. Lors du symposium organisé en son honneur en novembre 2012, Philippe Rollet, Président de
Lille 1, le qualifiait de « grand constructeur de l’université » et, pour la même occasion, le prix Nobel Serge Haroche déclarait, lors d’une interview à Nord Éclair : « Pierre est un chercheur de grande valeur qui a contribué à faire de Lille un centre attractif et dynamique en recherche fondamentale ». Au début des années 90, Pierre devient directeur du Laboratoire de Spectroscopie Hertzienne. Il orchestre sa fusion avec le Laboratoire de Dynamique Moléculaire et Photonique, fusion qui deviendra effective en 1999 avec la naissance du Laboratoire PhLAM. Le PhLAM lui doit beaucoup. Il y a imprimé durablement sa pensée. Les thématiques qu’il a initiées et défrichées, qui visent à mieux comprendre le chaos et la complexité, sont encore aujourd’hui très vivantes et ont diffusé, comme Pierre en rêvait, vers des domaines très divers, de l’étude des vagues géantes, de la turbulence et des accélérateurs de particules aux atomes froids et à la biologie. Au sein du Labex CEMPI, elles constituent un point de rencontre entre physiciens du PhLAM et mathématiciens du laboratoire Painlevé. Pierre était quelqu’un qui relevait tous les défis et cherchait toujours à se dépasser, en science, mais aussi dans le sport. Il aimait surtout partager sa passion de la course à pied avec ses collègues et amis, dès que c’était possible, sur une plage de Rio, dans les rues de New York ou au sommet des terrils. C’est dans cet état d’esprit qu’il avait abordé sa retraite, ou plutôt son passage au statut de Professeur émérite : il comptait bien rester actif, et avait d’ailleurs de nombreux projets. Pierre était une des rares personnes qui, non seulement, nous donnent le meilleur d’elles-mêmes, mais également le meilleur de nous-mêmes. Parce qu’elles nous montrent que tout est possible. Ce qu’il nous a donné, nous nous devons maintenant de le donner à ceux qui sont avec nous et à ceux qui nous suivent. Daniel Hennequin Chercheur CNRS, Laboratoire PhLAM, Université Lille 1 Marc Lefranc Professeur, Laboratoire PhLAM, Université Lille 1 31
Avril, mai, juin 2014
Conférences : entrée libre dans la limite des places disponibles. * Pour ce spectacle, le nombre de places étant limité, il est nécessaire de retirer préalablement vos entrées libres à l’Espace Culture (disponibles un mois avant les manifestations).
Ag e nd a
Retrouvez le détail des manifestations sur notre site : http://culture.univ-lille1.fr ou dans notre programme trimestriel. L’ ensemble des manifestations se déroulera à l’Espace Culture de l’Université Lille 1 (sauf mention particulière). Initiatives culturelles
Jusqu’au 18 avril
Exposition « Quelques mesures d’écart » avec le FRAC Nord-Pas de Calais
Jusqu’au 20 avril
Exposition « La peau que j’habite » par l’association SPUL Rendez-vous d’Archimède : Cycle « Le corps » « Le don d’organes » par Michel Castra
Mardi 1er avril
18h30
Mercredi 2 avril
20h
Théâtre « Mary’s baby frankenstein 2018 » par le Théâtre Diagonale en coréalisation avec et à la Maison Folie Wazemmes - Lille
Mardi 8 avril
14h
Un temps pour débattre : Cycle « À propos de l’évaluation » « Évaluer les richesses ? » en partenariat et à la MESHS - Lille
Mercredi 9 avril
18h30
Jeudi 10 avril
Café langues avec la Maison des Langues (Lille 1) Journée nationale des arts et de la culture à l’université
Mardi 15 avril
14h
Journée d’études : Cycle « Le corps » « Corps et esprit »
Mercredi 16 avril
19h
Projection du film « Salto Mortale » de Guillaume Kozakiewiez *
Jeudi 17 avril
18h30
Concert commenté « Drumming stories Unplugged » par l’IREM de Lille (réservations à l’IREM)
Mercredi 21 mai
18h30
Café langues avec la Maison des Langues (Lille 1)
Mercredi 18 juin
19h30
Projection « Call me Dominik » dans le cadre des Journées Internationales de Sociologie du Travail
Espace Culture - Cité Scientifique 59655 Villeneuve d’Ascq Du lundi au jeudi de 9h30 à 18h et le vendredi de 10h à 13h45 Café : du lundi au jeudi de 9h45 à 17h45 et le vendredi de 9h45 à 13h45
Tél : 03 20 43 69 09 - Fax : 03 20 43 69 59 Mail : culture@univ-lille1.fr Site Internet : http://culture.univ-lille1.fr