POUR LA SCIENCE #563 • SEPTEMBRE 2024

Page 1


CHIMIE Quels procédés pour la transition énergétique ?

Archéologie LA ZÉROIÈME DYNASTIE ÉGYPTIENNE Art et science LE SECRET DE « LA DAME À L’HERMINE »

Biologie évolutive L’ESPÈCE HUMAINE, ACCÉLÉRATEUR DE LA SÉLECTION NATURELLE ?

SUPRÉMATIE QUANTIQUE

Avec les réseaux de tenseurs, les ordinateurs classiques reviennent dans la course

MENSUEL POUR LA SCIENCE

Rédacteur en chef : François Lassagne

Rédacteurs en chef adjoints : Loïc Mangin, Marie-Neige Cordonnier

Rédacteurs : François Savatier, Sean Bailly

Stagiaire : Caroline Barathon

HORS-SÉRIE POUR LA SCIENCE

Rédacteur en chef adjoint : Loïc Mangin

Développement numérique : Philippe Ribeau-Gésippe

Directeur marketing et développement : Frédéric-Alexandre Talec

Chef de produit marketing : Ferdinand Moncaut

Directrice artistique : Céline Lapert

Maquette : Pauline Bilbault, Raphaël Queruel, Ingrid Leroy, Ingrid Lhande

Réviseuses : Anne-Rozenn Jouble, Maud Bruguière et Isabelle Bouchery

Assistante administrative : Finoana Andriamialisoa

Directrice des ressources humaines : Olivia Le Prévost

Fabrication : Marianne Sigogne et Stéphanie Ho

Directeur de la publication et gérant : Nicolas Bréon

Ont également participé à ce numéro :

Marie Diquelou, Clémentine Laurens, Guy Libourel, Martin Renoult, Malvyne Rolli-Derkinderen, Pierre Tallet, Camille Testard

PUBLICITÉ France

stephanie.jullien@pourlascience.fr

ABONNEMENTS https://www.pourlascience.fr/abonnements/ Courriel : serviceclients@groupepourlascience.fr

Tél. : 01 86 70 01 76

Du lundi au vendredi de 8 h 30 à 12 h 30 et de 13 h 30 à 16 h 30

Adresse postale : Service abonnement groupe Pour la Science 20 rue Rouget-de-Lisle 92130 Issy-les-Moulineaux.

Tarif d’abonnement Formule Intégrale 1 an (12 numéros du magazine + 4 numéros Hors-Série + accès au site) : 99 euros

Europe / Reste du monde : consulter https://www pourlascience fr/abonnements/ DIFFUSION

Contact réservé aux dépositaires et diffuseurs de presse – TBS SERVICES

Tél : 01 40 94 22 23

DISTRIBUTION

MLP

ISSN 0 153-4092

Commission paritaire n° 0927K82079 Dépôt légal : 5636 – Septembre 2024 N° d’édition : M0770563-01 www.pourlascience.fr 170 bis boulevard du Montparnasse – 75 014 Paris Tél. 01 55 42 84 00

SCIENTIFIC AMERICAN

Editor in chief : Laura Helmuth

President : Kimberly Lau

2024. Scientific American, une division de Springer Nature America, Inc. Soumis aux lois et traités nationaux et internationaux sur la propriété intellectuelle. Tous droits réservés. Utilisé sous licence. Aucune partie de ce numéro ne peut être reproduite par un procédé mécanique, photographique ou électronique, ou sous la forme d’un enregistrement audio, ni stockée dans un système d’extraction, transmise ou copiée d’une autre manière pour un usage public ou privé sans l’autorisation écrite de l’éditeur. La marque et le nom commercial «Scientific American» sont la propriété de Scientific American, Inc. Licence accordée à «Pour la Science SARL». © Pour la Science SARL, 170 bis bd du Montparnasse, 75014 Paris. En application de la loi du 11 mars 1957, il est interdit de reproduire intégralement ou partiellement la présente revue sans autorisation de l’éditeur ou du Centre français de l’exploitation du droit de copie (20 rue des Grands-Augustins, 75006 Paris).

Origine du papier : Autriche Taux de fibres recyclées : 30 %

« Eutrophisation » ou « Impact sur l’eau » : Ptot 0,007 kg/tonne

Imprimé en France

Maury Imprimeur SA Malesherbes

N° d’imprimeur : 279 490

DITO

PRIMAUTÉ

À LA PHYSIQUE

«L

a physique » voudrait trouver la théorie ultime, faire se rejoindre la mécanique quantique et la théorie de la relativité, mais n’y parvient pas. À défaut d’une théorie englobante, pour des problèmes concrets, un autre chemin est envisageable : partir des équations de la mécanique quantique pour calculer le comportement de n’importe quel système physique. Sauf que c’est impossible : les calculs nécessaires sont bien trop longs, même pour des systèmes physiques très simples. C’est ce que les physiciens appellent le « problème à N corps quantique ».

En 2019, l’équipe de John Martinis, chez Google, accomplissait avec un prototype d’ordinateur quantique (Sycamore) une tâche bien plus modeste, mais suffisante pour que les chercheurs y voient la marque de la suprématie quantique (définie en 2012 par le physicien de Caltech John Preskill), c’est-à-dire l’exécution par une machine quantique d’un calcul qu’un ordinateur classique est incapable de conduire en un temps raisonnable. Pourtant, par la suite, d’autres équipes sont parvenues au même résultat que Sycamore, avec des ordinateurs classiques… et le recours à des algorithmes de compression démultipliant leurs capacités de calcul : les réseaux de tenseurs.

Un débat s’est installé entre physiciens : où placer le seuil de la suprématie quantique ? Un autre débat l’a suivi, sur la place publique, autour du mot « suprématie ». Fallait-il remplacer ce mot, trop connoté, accaparé par les « suprémacistes blancs », comme y insistèrent certains, en particulier aux États-Unis, et privilégier « avantage » ou « primauté » ? Fallait-il au contraire éviter le piège des interprétations politiques, conserver le terme en usage dans la communauté des physiciens ?

Nous avons choisi de donner la primauté à la physique – les phénomènes, les expériences et la logique nous intéressent ici davantage que la sémantique –, et de conserver le terme qu’emploient régulièrement les chercheurs travaillant sur le problème à N corps quantique. Un problème dont le physicien Antoine Tilloy estime, dans ce numéro, qu’il est « l’obstacle majeur qui empêche le réductionnisme de passer d’un triomphe théorique à un triomphe pratique ».

Les réseaux de tenseurs s’affirment aujourd’hui comme un outil puissant pour lever cet obstacle, dotant les ordinateurs classiques de capacités de calcul inespérées. Au passage, ils améliorent, aussi, les performances des ordinateurs quantiques. La suprématie quantique n’a pas fini de faire parler d’elle. n

s

OMMAIRE

ACTUALITÉS GRANDS FORMATS

P. 6

ÉCHOS DES LABOS

• Le meilleur chemin pour visiter un quasi-cristal

• H5N1 : faut-il s’inquiéter du saut d’espèce ?

• La formation des yardangs et du Sphinx simulée

• Il y a 21 000 ans, le Gulf Stream était plus puissant

• Désactiver les gènes des maladies à prions

P. 16

LES LIVRES DU MOIS

P. 18

DISPUTES

ENVIRONNEMENTALES

Objection à l’obstruction

Catherine Aubertin

P. 20

LES SCIENCES À LA LOUPE

En couverture :

© Yurchanka Siarhei/Shutterstock

Les portraits des contributeurs sont de Seb Jarnot

Ce numéro comporte un courrier de réabonnement posé sur le magazine sur une sélection d’abonnés.

Les limites des évaluations à l’aveugle

Yves Gingras

RENDEZ-VOUS

P. 84

ART & SCIENCE

Le secret de « La Dame à l’hermine » Loïc Mangin

P. 88

IDÉES DE PHYSIQUE

Que d’eau, que d’o… ptique

Jean-Michel Courty et Édouard Kierlik

P. 32

ÉCOLOGIE

L’ESPÈCE HUMAINE, ACCÉLÉRATEUR DE LA SÉLECTION

NATURELLE ?

Lee Alan Dugatkin

Les activités humaines ne modifient pas seulement l’environnement dans lequel vivent les espèces Elles modifient les espèces elles-mêmes, et influencent la sélection naturelle.

P. 46

ARCHÉOLOGIE

LETTRE D’INFORMATION

NE MANQUEZ PAS

LA PARUTION DE VOTRE MAGAZINE

GRÂCE À LA NEWSLETTER

• Notre sélection d’articles

• Des offres préférentielles

• Nos autres magazines en kiosque

Inscrivez-vous www.pourlascience.fr

P. 92

CHRONIQUES DE L’ÉVOLUTION

Le coup d’avance du coucou

Hervé Le Guyader

P. 96

SCIENCE & GASTRONOMIE

Le fin mot du risotto

Hervé This

P. 98 À PICORER

LA ZÉROIÈME DYNASTIE ÉGYPTIENNE

Joachim Willeitner

Qui a fondé le royaume égyptien ? Seule certitude : plus de 3 000 ans avant notre ère, le Sud a subjugué le Nord en quelques siècles, pendant lesquels des régentes ont contribué à mettre en place les traditions pharaoniques, ensuite immuables

P. 40

ASTROPHYSIQUE

LES RÉSULTATS

PROMETTEURS D’OSIRIS-REX

Robin George Andrews

La mission spatiale a rapporté sur Terre des échantillons de la surface de l’astéroïde Bennu. Les analyses préliminaires livrent déjà certains de leurs secrets

P. 54

ÉGYPTOLOGIE

« L’UNIFICATION A D’ABORD ÉTÉ

UN PROCESSUS DE PROPAGATION

CULTURELLE »

Entretien avec Béatrix Midant-Reynes

Les élites de Haute-Égypte de l’âge du Cuivre ont inventé un État responsable de la bonne marche de la société et du cosmos, moteur culturel qui a unifié le pays

P. 22

PHYSIQUE THÉORIQUE

RÉSEAUX DE TENSEURS : LES ORDINATEURS CLASSIQUES CONTRE-ATTAQUENT

Antoine Tilloy

Pour certains problèmes, les ordinateurs quantiques étaient supposés s’imposer face à leurs concurrents classiques au point d’atteindre une forme de suprématie. Mais grâce à une méthode efficace de compression des données, ces derniers n’ont pas dit leur dernier mot !

P. 56

MÉDECINE

CANCER DE LA PROSTATE : DES TRAITEMENTS

POUR TOUS LES STADES

Marc B. Garnick

Grâce à l’imagerie de pointe et à des protocoles affinés, le diagnostic de la maladie et la prise en charge des patients se sont considérablement améliorés ces dernières années, même pour les formes les plus avancées de la maladie.

P. 70

SCIENCE ET FICTION

SIMULATION TOTALE : LA THÈSE DE L’ILLUSION SE PRÉCISE

Jean-Paul Delahaye

De récents travaux reprennent et affinent les raisonnements du philosophe suédois Nick Bostrom, qui, il y a vingt ans, estimait probable que notre réalité soit en fait une simulation informatique menée par une civilisation avancée.

P. 62

CHIMIE

« LE DÉFI EST D’ALIMENTER SANS PÉTROLE NI GAZ

LA PART NON ÉLECTRIFIABLE DE NOS USAGES »

Entretien avec Marc Fontecave

Carburants issus du CO2, production d’hydrogène… Les chercheurs développent de nombreux procédés évitant l’emploi du gaz et du pétrole La plupart dépendent d’une production accrue d’électricité affranchie des énergies fossiles.

P. 78

HISTOIRE DES SCIENCES

« JE REVIENS AU VRAI MESMER, CELUI DU XVIIIe SIÈCLE »

Entretien avec Bruno Belhoste

Qui était Franz Anton Mesmer, ce médecin allemand qui fit sensation avec ses cures magnétiques, fondées sur la circulation d’un fluide universel ? Une nouvelle biographie présente son vrai visage. Rencontre avec son auteur

RÉSEAUX DE TENSEURS

Les ordinateurs classiques contre-a aquent

Pour certains problèmes, les ordinateurs quantiques étaient supposés s’imposer face à leurs concurrents classiques au point d’atteindre une forme de suprématie. Mais grâce à une méthode efficace de compression des données, ces derniers n’ont pas dit leur dernier mot !

ANTOINE TILLOY

L’ESSENTIEL

> Les réseaux de tenseurs sont un concurrent sérieux des ordinateurs quantiques sur certains types de calculs en lien avec le problème quantique à N corps.

> Ces algorithmes compriment la représentation de la fonction d’onde qui décrit le système étudié. Ils réduisent ainsi

Lle nombre de paramètres utilisés pour pouvoir stocker l’information dans la mémoire d’un ordinateur standard.

> Ces algorithmes ont résolu les problèmes intéressants en une dimension et continuent de progresser pour les cas en 2D et en 3D.

e 23 octobre 2019, Google marque les esprits dans la course à l’ordinateur quantique en annonçant avoir atteint la « suprématie quantique » (aussi nommé « avantage quantique »). D’un point de vue expérimental, l’équipe de John Martinis a réalisé un tour de force incontestable : elle a réussi à opérer de façon cohérente 53  qubits supraconducteurs du processeur quantique Sycamore . Ce dernier, refroidi à moins de 20  millikelvins ( une température 100  fois plus faible que celle du vide intersidéral), a été contrôlé grâce à des exploits d’ingénierie microonde. L’équipe a alors utilisé ce protoordinateur quantique pour faire de « l’échantillonnage de circuit quantique aléatoire », une tâche mathématique sans aucun intérêt pratique, mais très difficile pour un ordinateur classique La firme américaine estime alors que Frontier, le plus puissant supercalculateur du monde, installé au laboratoire américain

La firme américaine Google a-t-elle vraiment a eint la suprématie quantique ? £

d’Oak Ridge, aurait mis 100 000 ans pour venir à bout du calcul que Sycamore a effectué en seulement 200  secondes. C’est la suprématie quantique : il existe une tâche (fût-elle inutile) qu’une machine exploitant la mécanique quantique peut résoudre plus rapidement que les meilleurs ordinateurs classiques. Cet avantage préfigure, on l’espère, une accélération quantique pour des applications réelles

L’AUTEUR

ANTOINE TILLOY chargé de recherche au centre automatique et systèmes des Mines Paris, au sein de l’université Paris Sciences et Lettres

Rapidement, l’annonce de Google est critiquée La firme américaine a-t-elle vraiment atteint la suprématie quantique ? Dès l’année suivante , plusieurs groupes de chercheurs répliquent avec de nouvelles méthodes classiques optimisées pour l’échantillonnage de circuit quantique. Ils montrent qu’il est possible de simuler en quelques minutes l’expérience de Google de façon parfaite avec un supercalculateur, là où Sycamore y parvenait avec un taux d’erreurs important. Plus spectaculaire, Yiqing Zhou et Miles Stoudenmire, de l’institut Flatiron, à New York, et Xavier Waintal, du CEA à Grenoble, mènent la simulation d’un problème similaire en s’autorisant le même taux d’erreurs que Sycamore Résultat : le calcul est drastiquement simplifié et tourne sur un ordinateur de bureau Point commun de toutes ces approches classiques : elles utilisent le même type d’algorithme, les réseaux de tenseurs, une puissante méthode de compression

Les réseaux de tenseurs sont des concurrents sérieux pour l’ordinateur quantique sur les tests symboliques de suprématie, comme l’échantillonnage de circuit quantique aléatoire. Mais la vraie bataille ne se livre pas là. Pour comprendre ce qui se joue, il faut remonter au vrai problème utile et fondamental qu’ordinateur quantique et réseaux de tenseurs cherchent ultimement à résoudre : le problème à N corps quantique

Ce problème émerge quand on essaie d’exploiter les lois de la physique pour déterminer les propriétés d’un système constitué d’un grand nombre de particules quantiques

Certes, les physiciens théoriciens, dont je fais partie, aiment rappeler, non sans pédanterie, qu’on ne connaît pas exactement les lois fondamentales de la nature, puisqu’on ne sait pas décrire conjointement la force gravitationnelle et la matière quantique Si la question est difficile, c’est qu’on ne sait tout simplement pas ce que la théorie ultime devrait prédire : il n’y a jusqu’à maintenant aucune expérience réalisable sur Terre qui permette de tester cette intersection problématique entre gravité et

quantique Une autre manière plus positive (mais paradoxalement moins vendeuse) de présenter la situation est que l’on connaît suffisamment bien les lois de la physique pour pouvoir en principe prédire le résultat de n’importe quelle expérience raisonnable ! Dès lors, il devrait être possible de simuler et de calculer, in silico, les propriétés physiques de n’importe quelle molécule, de n’importe quel matériau, en partant d’équations quantiques que l’on sait facilement écrire

Ce graal de la physique théorique est malheureusement inatteignable aujourd’hui La résolution des équations est trop difficile , pour les humains comme pour les ordinateurs, dans la quasi-totalité des situations d’intérêt Pourquoi ? Parce que le nombre de paramètres nécessaires pour représenter l’état d’un système de N particules quantiques – la fonction d’onde – croît exponentiellement avec N Et, en dehors de systèmes ultrasimples et isolés,

comme celui d’un unique atome d’hydrogène dans le vide, tout phénomène physique intéressant met en jeu de nombreuses particules quantiques en interaction (par exemple les électrons d’une molécule complexe qui déterminent ses propriétés chimiques).

TROP DE PARAMÈTRES

Stocker les coefficients de la fonction d’onde d’un système d’une centaine de particules est impossible même en utilisant l’intégralité des ordinateurs et superordinateurs sur Terre (voir l’encadré ci-dessous) A fortiori, faire évoluer cette fonction d’onde dans le temps à l’aide des équations connues est totalement impensable Ainsi , toute la physique d’un système quantique constitué de nombreuses particules interagissant pour produire un phénomène collectif intéressant nous est a priori numériquement inaccessible Cette obstruction pratique, qui empêche de passer de lois

LE DIFFICILE PROBLÈME À « N » CORPS QUANTIQUE

Le problème quantique à N corps, comme son nom l’indique, ne vient pas du nombre d d’états accessible à chaque particule (sinon il s’appellerait le problème à d états !), mais principalement de la croissance avec N Considérons le cas d = 2, c’est-à-dire 2 états accessibles par particule (ce qui correspond à un qubit), qui est a priori le plus simple. Prenons un système tridimensionnel contenant 3 × 3 × 3 = 27, et la fonction d’onde qui le décrit. Si un coe cient de celle-ci est codé sur 64 bits, alors la fonction d’onde occupe (64 bits) × 227 soit 1 gigaoctet en mémoire. C’est faisable sans di culté sur un ordinateur personnel. Pour un système à peine plus gros de 4 × 4 × 4 = 64 particules quantiques, le stockage demande (64 bits) × 264 = 128 milliards de gigaoctets ou 128 exaoctets soit plus de 100 fois la capacité de stockage de

UNE PARTICULE QUANTIQUE

Une particule quantique isolée est, à elle seule, un système déjà riche, mais on peut simplifier sa description en supposant qu’elle n’a que d niveaux (par exemple d’énergie) accessibles.

Elle est alors entièrement caractérisée par sa fonction d’onde quantique, qui contient d nombres complexes c1,… cd

Frontier, le plus puissant supercalculateur du monde. Stocker la fonction d’onde d’un système de 5 × 5 × 5 est inimaginable avec les ressources disponibles sur Terre. Or les systèmes d’intérêt comme les modèles de matériaux supraconducteurs à haute température impliquent souvent des comportements collectifs d’un grand nombre d’électrons, ce qui rend impossible leur simulation par des techniques classiques usuelles.

UN SYSTÈME À « N » PARTICULES

Pour N particules ayant chacune d niveaux accessibles, on a dN états au total.

La fonction d’onde de l’ensemble est donc une collection de dN nombres complexes. d niveaux accessibles Énergie d N niveaux accessibles | Ψ > = c 1 | > + c 2 | > + c 3 | > +

Si le nombre complexe ci n’est pas simplement interprétable, le module carré |ci|2 fournit la probabilité d’être dans le niveau i si on mesure l’énergie.

fondamentales connues à des prédictions macroscopiques robustes, constitue le problème à N corps quantique

En pratique, on est contraint soit d’utiliser des modèles phénoménologiques approchés et pas toujours assez précis, soit de mesurer directement par l’expérience les propriétés qui nous intéressent. Au fond, le problème à N corps constitue l’obstacle majeur qui empêche le réductionnisme de passer d’un triomphe théorique à un triomphe pratique Ainsi, et d’un point de vue pragmatique, le problème à N corps quantique est un défi infiniment plus important pour l’humanité que l’unification de la gravité et de la mécanique quantique, puisqu’il nous empêche de répondre à des questions qui se posent naturellement, et ouvriraient la voie à des innovations et à des applications utiles, plutôt qu’à des questions qu’on a peine à trouver. Les physiciens théoriciens ont pris conscience du problème à N corps quantique dès 1929 et l’article fondateur de Paul Dirac sur la chimie quantique. Avec la mécanique quantique non relativiste connue à l’époque, il était a priori possible de décrire précisément les réactions chimiques Mais Dirac note que le nombre de variables mises en jeu étant colossal il est indispensable de trouver des méthodes approchées pour extraire des résultats concrets des équations

LES CAS DIFFICILES

Depuis , en suivant cette idée , les théoriciens ont développé une multitude de méthodes plus ou moins efficaces pour approcher les solutions du problème à N corps En chimie, par exemple, la méthode de la fonctionnelle de densité (DFT) a permis de prédire les propriétés d’un grand nombre de molécules simples En matière condensée, la théorie du champ moyen dynamique (DMFT), proposée par Antoine Georges et Gabriel Kotliar, a permis de comprendre les propriétés électriques d’un grand nombre de matériaux . Malgré tous ces progrès, un grand pan du problème à N corps reste difficile à approximer avec ces méthodes C’est en particulier le cas de tous les systèmes dits « fortement corrélés », où les particules quantiques sont intriquées de manière non triviale. L’intrication est une particularité quantique, synonyme de non-séparabilité, qui empêche de caractériser un système de particules en les décrivant chacune individuellement. Elle peut être vue schématiquement comme un lien entre les particules, forçant à distance une corrélation dans leur dynamique. Une grande partie de la physique nucléaire, de la physique des supraconducteurs à haute température et de la physique des catalyseurs tombent dans cette catégorie des systèmes fortement corrélés, pour lesquels l’intrication joue un rôle crucial

L’ordinateur quantique et les réseaux de tenseurs sont deux approches plus récentes et, de façon paradoxale, conceptuellement plus simples, qui s’insèrent dans cette longue tradition des efforts de résolution du problème à N corps. Dans les deux cas, l’objectif est d’attaquer le problème frontalement, en représentant directement la fonction d’onde quantique et son nombre astronomique de variables

L’idée des réseaux de tenseurs est de compresser la représentation de la fonction d’onde pour qu’elle puisse être enregistrée dans la mémoire d’un ordinateur

L’idée de l’ordinateur quantique est d’utiliser la mécanique quantique elle-même pour simuler un système de particules quantiques. Comme l’a observé Richard Feynman, la nature, elle-même, sait très bien simuler la mécanique quantique Cette observation d’apparence triviale mène à l’idée de simulateur quantique, qui consiste à émuler un système inconnu grâce à un analogue facilement configurable Par exemple, on peut utiliser des atomes piégés sur une grille bidimensionnelle par des pinces optiques pour simuler un problème de matière condensée. C’est ce type de machines que développent notamment l’entreprise française Pasqal et son concurrent américain Quera Computing

L’ordinateur quantique est un raffinement de cette idée : on remplace le système analogue par une version numérique utilisant des qubits, ce qui a l’avantage de permettre une précision arbitraire grâce aux codes correcteurs d’erreur L’ordinateur quantique est ainsi au même niveau de robustesse (en tout cas théoriquement) qu’un ordinateur classique, et ne souffre pas des objections que l’on peut faire aux calculateurs analogiques, dont la précision est par principe limitée.

LES PROMESSES QUANTIQUES

L’engouement pour l’ordinateur quantique a réellement décollé en 1994, quand le mathématicien américain Peter Shor a découvert un algorithme quantique permettant de factoriser rapidement de grands nombres, contenant potentiellement des milliers de chiffres Pour de si grands nombres, aucun algorithme classique connu n’est efficace L’algorithme de Shor représente ainsi une réelle menace pour de nombreux systèmes de cryptographie utilisés actuellement, dont la sécurité repose sur la difficulté de la factorisation Cette puissance inespérée pour une tâche « classique » sans lien avec la mécanique quantique a fait espérer d’autres applications hors de la physique. Néanmoins, elles sont pour le moment peu nombreuses et le problème à N corps quantique reste ainsi l’application principale de l’ordinateur quantique (et peut-être sa seule application utile). Là où l’ordinateur quantique apporte une solution « matérielle » au nombre gigantesque de variables de la fonction d’onde, les réseaux de tenseurs sont une solution « logicielle ». L’idée est de compresser la représentation de la fonction d’onde du système de particules,

c’est-à-dire de réduire son nombre de paramètres, pour qu’elle puisse être enregistrée dans la mémoire d’un ordinateur standard Les algorithmes de réseaux de tenseurs sont ainsi à la mécanique quantique ce que le format informatique courant jpeg est aux images : un moyen de compresser drastiquement la représentation, au prix d’une perte minimale (et contrôlable) de précision

LA COMPRESSION ET LA LOI DES AIRES

Les techniques de compression permettent de réduire le nombre de paramètres nécessaires pour décrire un objet, une image, une piste audio, une vidéo ou une fonction d’onde. Elles ne sont e caces que si l’objet est su samment structuré. Si l’objet est totalement générique, la compression ne sera pas e cace. Par exemple, pour une image où chaque pixel a une couleur aléatoire, la seule solution est d’enregistrer la couleur de chaque pixel. Dans une photo de chat, de nombreux sous-ensembles de pixels ont des couleurs similaires, et un encodage intelligent est possible (par exemple avec jpeg).

Dans un système quantique contenant N particules, un élément crucial pour la compressibilité est la structure de l’intrication quantique. De manière simplifiée, l’intrication peut être vue comme un lien entre deux particules quantiques. Pour un état quantique de N particules tiré aléatoirement, les liens se forment entre des parties arbitrairement éloignées. Si on considère un sous-ensemble de particules, la plupart de ces dernières sont alors connectées avec une particule à l’extérieur du sous-ensemble. L’entropie d’intrication, qui quantifie la densité d’intrication du système et qui correspond au nombre de liens qu’il faut couper pour séparer le sous-ensemble du reste du système, est élevée et suit une loi de volume (elle est proportionnelle au nombre de particules contenues dans le sous-ensemble).

Pour un système de particules quantiques à basse température, ces liens restent courts. Dans ce cas, les seules particules du sous-ensemble connectées avec le reste du système sont sur le bord du sous-ensemble. L’entropie d’intrication suit la loi des aires, elle est proportionnelle au nombre de particules sur le périmètre (pour un système bidimensionnel) et sur la surface (si le système est tridimensionnel). Ces configurations sont non génériques et laissent espérer qu’une compression est possible.

Avant de raconter l’histoire des réseaux de tenseurs, il faut rappeler qu’il n’y a jamais de compression magique Toute méthode de compression doit exploiter une structure sousjacente aux données à compresser Une image contenant uniquement des pixels aléatoires est impossible à compresser car totalement générique : la seule solution est de stocker la couleur de chaque pixel En revanche, une image de chat ou de paysage est extrêmement non générique (les pixels proches tendent à être de la même couleur par exemple ). Cette structure ( ou régularité) est exploitée par les algorithmes comme jpeg, qui peuvent ainsi drastiquement réduire la taille de l’image au prix d’une perte de qualité minimale De la même manière , si la fonction d’onde est totalement générique, comme une image faite de pixels aléatoires, alors il n’y a pas d’espoir de pouvoir la représenter de manière parcimonieuse, et seul l’ordinateur quantique sera capable de la représenter exactement C’est d’ailleurs ce qui permet de comprendre en creux les domaines où l’avantage quantique est atteignable : là où la compression est impossible. La question cruciale est donc de savoir si les fonctions d’onde qui apparaissent naturellement dans les instances intéressantes du problème à N corps quantique ont une structure, un caractère non générique, qui les rend compressibles, au moins en principe. La réponse est positive et leur structure est précisément celle que les réseaux de tenseurs représentent.

LE PREMIER PAS UNIDIMENSIONNEL

Intrication « générique »

Intrication locale (loi des aires)

En 1992, Steve White, de l’université de Californie à Irvine, fournit la première illustration qu’une compression efficace est possible À cette époque, les physiciens théoriciens s’intéressent au cas particulier du problème à N corps en une dimension d’espace (où les particules quantiques sont confinées sur une ligne). Il s’agit alors d’une première étape, on l’espère, vers la résolution du cas tridimensionnel. La réduction à une dimension permet de simplifier un peu les équations, et d’avoir quelques modèles dits « intégrables », c’est-àdire exactement solubles, qui servent de banc d’essai pour les méthodes de résolution générales De plus, les méthodes approchées existantes, qui donnent des résultats raisonnables en 3D, comme les méthodes de champ moyen, sont catastrophiques en une dimension. La 1D est ainsi le terrain de jeu idéal pour tester de nouvelles idées. Avec l’algorithme DMRG ( density matrix renormalization group , ou groupe de renormalisation de la matrice de densité) de Steve White, un large pan du problème à N corps 1D est résolu du jour au lendemain Pour une grande classe d’équations, incluant la plupart

Bruit générique
Photo de chat

UNE CONSTRUCTION INTUITIVE DES RÉSEAUX DE TENSEURS

Pour construire un réseau de tenseurs, l’idée est de tapisser l’espace avec de l’intrication locale virtuelle, puis de ramener cette intrication dans l’espace physique, ici des particules (en bleu clair) sur un réseau carré (A). Plus précisément, on pose des paires de particules virtuelles (en rouge)

intriquées sur chaque lien entre les nœuds du réseau (B)

Sur chaque nœud, on applique une transformation linéaire (en noir) qui fusionne les particules virtuelles et physiques présentes, soit pour construire des liens plus longs, soit pour se lier à la particule physique sur le

nœud (C). En ajustant la transformation sur chaque site (D), on peut reproduire n’importe quel schéma d’intrication su samment local (E)

La représentation compressée de l’état quantique est contenue dans ces choix de transformation, qui sont la seule chose que l’on doit stocker en mémoire.

des situations d’intérêt , cet algorithme est capable de calculer l’état du système à très basse température avec une précision que l’on peut fixer au niveau souhaité, sans même utiliser de supercalculateur C’est une révolution, car ce problème semblait alors difficilement soluble avec des méthodes classiques, sans ordinateur quantique . L’algorithme DMRG de Steve White est extrêmement efficace, et réduit le problème à N corps 1D à de l’algèbre linéaire élémentaire Mais de façon peut-être surprenante, on ne comprend pas bien à cette époque la raison de son efficacité

De l’autre côté de l’Atlantique, la même année et de façon indépendante de Steve White, trois mathématiciens – Mark Fannes, Bruno Nachtergaele et Reinhard Werner –introduisent une classe d’états quantiques qu’ils jugent intéressants à étudier : les états « produits de matrices » (dits MPS, pour matrix product states). Ceux-ci peuvent être décrits avec très peu de paramètres, et ils sont faciles à manipuler et à caractériser. Mathématiquement , la fonction d’onde d’un état quantique de N particules est représentable par un tenseur à N indices (un tableau de nombres en N dimensions), une généralisation des matrices (un tableau de nombres en deux dimensions). Si chaque particule a d états accessibles, alors ce tenseur contient dN nombres (qui prend une valeur astronomique dès que N est grand). L’idée de Fannes, Nachtergaele et Werner est de considérer des fonctions d’onde particulières où ce tenseur à N indices peut s’écrire comme un produit de

Le problème à « N » corps à une dimension d’espace est un succès £

matrices, chacune de petite taille Ces MPS sont un cas particulier de réseaux de tenseurs en 1D Il faut attendre trois ans pour comprendre le lien entre l’algorithme DMRG et les MPS. En  1995, les physiciens Stellan Östlund et Stefan Rommer, de l’université de technologie Chalmers , en Suède , montrent que l’algorithme DMRG de Steve White est en fait équivalent à une compression des états quantiques vers une représentation en MPS (voir les encadrés ci-dessus et page 30) Les deux chercheurs lèvent ainsi une partie du voile, mais il reste à comprendre pourquoi cette structure fonctionne aussi bien. Pourquoi ces réseaux de tenseurs assez simples, les états produits de matrices, qui ont si peu de paramètres, représentent-ils aussi bien les états quantiques des systèmes qui intéressent les physiciens ?

Au début des années 2000, les spécialistes suspectent , sans l’avoir prouvé dans le cas général, que les fonctions d’onde du problème à N corps partagent une propriété qui les rend

Plus les paires que l’on cherche à former sont éloignées, plus il faut de particules virtuelles sur les liens, plus les transformations peuvent être compliquées, et plus le coût de la méthode est élevé.

Dans le cas général, l’intrication peut être plus compliquée qu’un simple lien

E

entre deux particules (et connecter plusieurs particules en même temps de manière plus di use et complexe). Néanmoins, la même stratégie s’applique, et on peut toujours ajuster les transformations linéaires pour représenter une intrication générale, tant qu’elle est su samment locale.

ne tire pas les fonctions d’onde de façon aléatoire ! Au contraire, une fonction d’onde qui décrit un système physique, en l’occurrence un problème à N corps, obéit nécessairement à l’équation de Schrödinger et possède donc une certaine structure. Dès lors, elle possède quasi exclusivement des liens courts Ainsi , tout sous-ensemble de particules assez gros n’est connecté au reste du système que via ses bords Son entropie d’intrication est proportionnelle à la surface du bord (en 3D) ou au périmètre (en 2D) : c’est la loi des aires. Les fonctions d’onde intéressantes sont ainsi aux fonctions d’onde « génériques » ce que les images de chats sont aux pixels aléatoires

UNE PROPRIÉTÉ NON GÉNÉRIQUE DE LOI DES AIRES

non génériques (pas complètement aléatoires) et donc a priori compressibles. Dans ces fonctions d’onde qui intéressent les physiciens, l’intrication quantique respecte la « loi des aires » Le terme est apparu initialement dans le contexte des trous noirs, avec les travaux de Jacob Bekenstein et Stephen Hawking, pour souligner le fait que la quantité d’entropie d’un trou noir est théoriquement proportionnelle à l’aire de sa surface et non à son volume, comme on s’y attend pour un objet ordinaire Le problème à N corps est a priori sans lien avec la gravité, mais on y observe un phénomène similaire pour l’intrication (voir l’encadré page 27) Pour un système donné contenant un grand nombre de particules, ces dernières peuvent être plus ou moins intriquées les unes avec les autres Comment estimer cette propriété ? Une méthode assez naturelle consiste à diviser en deux le système et de se demander combien de liens d’intrication il faudrait couper pour séparer les deux parties : ce nombre est nommé l’entropie d’intrication.

Pour une configuration de particules aléatoire, les liens sont arbitrairement longs. Dès lors, si on ne regarde qu’un petit sousensemble de particules, la plupart des liens les connectent à des particules à l’extérieur Ainsi, dans une telle situation, l’entropie d’intrication est proportionnelle au nombre de particules du sous - ensemble considéré et donc à son volume : on dit que le système vérifie une loi de volume. C’est une propriété générique, à laquelle obéit presque sûrement une fonction d’onde tirée de façon aléatoire Mais la nature

En 2004, les physiciens Ignacio Cirac et Frank Verstraete, alors à l’institut Max-Planck d’optique quantique de Munich, comprennent que les réseaux de tenseurs 1D, utilisés dans l’algorithme de Steve White, possèdent par défaut cette propriété non générique de loi des aires. Mieux, ils parviennent à démontrer que si l’intrication d’un système de particules unidimensionnel est assez faible, vérifiant rigoureusement la loi des aires, alors les réseaux de tenseurs 1D en fournissent une compression dont l’erreur peut être rendue aussi faible que désiré pour un coût mémoire modéré. Matthew Hastings, alors au laboratoire national de Los Alamos, complète la preuve formelle de l’efficacité des réseaux de tenseurs en 2007 en démontrant que les systèmes quantiques 1D d’intérêt vérifient effectivement la loi des aires

Le problème à N corps à une dimension d’espace est un succès incontestable Le problème semblait hors d’atteinte pour les ordinateurs classiques Et quelques années plus tard, l’humanité dispose d’un algorithme qui permet de le résoudre, et une preuve rigoureuse de son efficacité Le tout sans avoir besoin d’ordinateur quantique. Néanmoins, même en 1D, la compression n’est pas sans limite. Lorsqu’on injecte beaucoup d’énergie dans un système de particules quantiques (par exemple en l’éloignant fortement de son point d’équilibre), fût-il unidimensionnel, la dynamique devient chaotique. L’intrication quantique explose et se délocalise, et la capacité à compresser la description du système disparaît Un tel système finit par se thermaliser, et redevient alors facile à décrire grâce à la physique statistique Mais pendant une phase transitoire, une complexité incompressible émerge C’est précisément dans ce régime que l’on trouve les pistes pour l’avantage quantique, qu’elles soient utiles ou non Les circuits quantiques aléatoires simulés par la machine de Google correspondent justement à des dynamiques engendrant le maximum d’intrication

Sans intérêt pratique, leur réelle raison d’être est de mettre en défaut le plus efficacement possible les méthodes de compression classiques Sur cette tâche où les ordinateurs quantiques montrent leurs muscles, les réseaux de tenseurs sont ainsi voués à perdre un jour (même s’ils résistent admirablement). Mais pour les problèmes utiles, les jeux ne sont pas faits.

AU-DELÀ D’UNE DIMENSION

Hors de situations exceptionnelles en laboratoire (comme dans les nanofils), les systèmes quantiques sont rarement confinés à une unique dimension d’espace. Ainsi, le succès des réseaux de tenseurs en 1D, aussi impressionnant qu’il soit, n’est a priori qu’un prélude aux dimensions supérieures, sans quoi la méthode restera confinée à l’étude de modèles jouets

La résolution du problème à N corps unidimensionnel était partie du domaine de

l’algorithmique, avant d’être plus tard justifiée par la théorie. L’attaque des dimensions supérieures emprunte le chemin inverse En 2004, alors qu’ils viennent de comprendre ce qui permet la compression unidimensionnelle et ainsi de cimenter la première révolution des réseaux de tenseurs, Ignacio Cirac et Frank Verstraete mettent en ligne une prépublication visionnaire , jamais formellement acceptée dans un journal. Ils y proposent une généralisation des états produits de matrice de Fannes, Nachtergaele et Werner aux dimensions supérieures Ces nouveaux états, qui correspondent aux réseaux de tenseurs modernes, sont en principe utilisables pour tous les problèmes physiques d’intérêt, en deux et trois dimensions d’espace Les deux chercheurs espèrent alors passer rapidement de la théorie à un algorithme utilisable pour résoudre une grande partie des instances utiles du problème à N corps

UNE CONSTRUCTION MATHÉMATIQUE DE RÉSEAUX DE TENSEURS

GÉNÉRALITÉS SUR LES TENSEURS

Le terme « tenseur » a de nombreuses significations subtilement di érentes en physique. On n’a besoin ici que d’une définition minimale, équivalente à celle d’un tableau multidimensionnel utilisée dans la plupart des langages de programmation. Là où un vecteur est un tableau à une dimension, une matrice un tableau à 2 dimensions, un tenseur est simplement la généralisation à 3 dimensions ou plus. De même que les vecteurs et les matrices peuvent être multipliés, les tenseurs ont une opération élémentaire, la contraction, qui consiste à multiplier les coe cients de deux tenseurs et sommer sur une paire d’indices fixés à l’identique. Par exemple, on peut contracter deux tenseurs tridimensionnels A et B pour en obtenir un troisième C :

On doit au physicien Roger Penrose une notation compacte pour les tenseurs et la contraction. On représente un tenseur à N dimensions par une boule d’où sortent N pattes. Pour représenter la contraction, on relie simplement les deux pattes correspondant à l’indice sommé. Sur l’exemple précédent cela donne :

Lorsque l’on contracte de nombreux tenseurs entre eux, selon un graphe quelconque, on obtient un réseau de tenseurs.

DÉCOMPOSITION D’UNE FONCTION D’ONDE EN RÉSEAU DE TENSEURS

L’état quantique |Ψ> d’un système de N particules ayant chacune d niveaux accessibles est la combinaison linéaire des dN niveaux accessibles à l’ensemble

où chaque indice ik se réfère au niveau occupé par la particule k. Les dN coe cients complexes Ci1,i2,…,iN sont des tenseurs à N indices qui déterminent l’état. En suivant la notation de Penrose, on peut représenter un tel tenseur ainsi : On peut compresser ce tenseur en le forçant à s’écrire sous la forme d’un réseau de tenseurs. En général il y a beaucoup moins de paramètres dans les tenseurs élémentaires. Le choix d’un réseau unidimensionnel donne les états produits de matrices (MPS), e caces pour le problème à N corps en 1D : Un réseau bidimensionnel ou tridimensionnel correspond aux états introduits par Cirac et Verstraete, e caces en 2 dimensions d’espace ou plus :

©

Mais les cas des dimensions 2 et 3 relèvent davantage de l’épopée que de la révolution. Dès le début, les spécialistes remarquent que les réseaux de tenseurs d’Ignacio Cirac et de Frank Verstraete sont plus difficiles à utiliser que les états produits de matrice unidimensionnels qu’ils généralisent Leur puissance de compression n’est pas mise en doute : on pense qu’ils représentent avec peu de paramètres les fonctions d’onde quantiques apparaissant dans le problème à N corps, c’est-à-dire précisément celles qui nous intéressent. Mais le problème est qu’il est beaucoup plus difficile d’extraire de l’information de la représentation compressée qu’en une dimension d’espace En 2007, les deux physiciens démontrent avec Norbert Schuch et Michael Wolf, alors eux aussi à l’institut Max - Planck d’optique quantique , que pour certains réseaux de tenseurs 2D ou 3D, décompresser la représentation pour extraire des prédictions peut être plus difficile que le problème à N corps lui-même ! Un tel résultat rend a priori impossible le passage de l’idée théorique à un algorithme efficace

Est-ce la fin des espoirs ? Non, car il n’est pas sûr que les réseaux de tenseurs qui apparaissent lorsqu’on compresse des fonctions d’onde physiques fassent partie de la classe difficile identifiée par les quatre chercheurs ! Peut- être que les réseaux de tenseurs qui émergent naturellement sont plus simples, et au moins approximativement décompressibles Sans preuve formelle d’impossibilité, il n’est pas interdit d’essayer

DES EFFORTS HÉROÏQUES

Après des efforts héroïques par de nombreux physiciens théoriciens, parmi lesquels on peut citer le suisse Philippe Corboz, on parvient à construire différents algorithmes de compression et décompression de réseaux de tenseurs en 2 et 3  dimensions , adaptés aux fonctions d’onde physiques Ces travaux culminent avec l’application de la méthode au modèle de Fermi-Hubbard bidimensionnel, un modèle simplifié de matériau supraconducteur à haute température L’algorithme n’est pas encore assez précis pour trancher certaines questions cruciales sur ces systèmes, mais on s’en rapproche progressivement.

Le problème à N corps est-il en passe d’être résolu ? Pas tout à fait, car malgré les progrès remarquables des théoriciens ces dernières années , les algorithmes de réseaux de tenseurs en 2D et 3D demandent trop de puissance de calcul pour atteindre une précision satisfaisante sur des problèmes physiques non idéalisés. On doit se contenter de réseaux de tenseurs avec peu de paramètres, et donc d’une compression un peu bruitée en 2D et pour le moment bien trop grossière en 3D Dans certains cas, les réseaux de tenseurs restent la

meilleure méthode, mais dans d’autres, ces limitations rendent des approches plus traditionnelles comme la DMFT ou la méthode de Monte-Carlo préférables. Le consensus est que la compression apportée par les réseaux de tenseurs reste en principe efficace, comme avec DMRG en 1D, mais qu’il faudrait accéder à des nombres de paramètres beaucoup plus grands pour commencer à le voir. Dans cette optique, il faudrait améliorer encore les algorithmes de compression et développer des codes massivement parallèles pour voir émerger une compression efficace Selon cette hypothèse , les réseaux de tenseurs seraient comme les réseaux de neurones juste avant la révolution des processeurs graphiques (GPU) : le bon outil théorique avant l’heure Une autre option est que la difficulté de la 2D et de la 3D soit plus fondamentale, et qu’il manque un ingrédient théorique à la proposition d’Ignacio Cirac et Frank Verstraete. Certains ont déjà proposé des extensions , comme les réseaux de tenseurs isométriques, qui sacrifient un peu de généralité pour intégrer certaines astuces responsables de l’efficacité numérique de DMRG en 1D

Alors que la 2D et la 3D résistent encore, les réseaux de tenseurs ont trouvé des applications dans d’autres domaines. Ils ont notamment été utilisés dans le domaine de l’intelligence artificielle, en apprentissage statistique théorique, soit pour remplacer des réseaux de neurones (ce qui a l’avantage de présenter une meilleure interprétabilité, on peut mieux comprendre comment on obtient un résultat à partir d’un jeu de données initiales ) soit comme une méthode de compression de réseaux de neurones existants Les réseaux de tenseurs aident aussi leur adversaire immédiat : ils sont désormais utilisés dans les codes correcteurs qui permettront aux ordinateurs quantiques d’être robustes aux erreurs. Ces dernières années, les investissements massifs dans l’ordinateur quantique ont remis sur le devant de la scène le problème à N corps, qui occupait les théoriciens depuis des décennies En 2023, IBM s’est essayé à l’avantage quantique sur un cas « utile » en résolvant une instance simple du problème à N corps en 2D (une version 2D du modèle d’Ising) sur Eagle, son meilleur processeur quantique à 127  qubits. À peine douze jours plus tard, l’équipe de Miles Stoudenmire a répondu en simulant le même modèle en quelques minutes grâce aux réseaux de tenseurs Les méthodes classiques gardent ainsi la tête dans la bataille pour faire tomber les instances utiles du problème à N corps quantique. Même si les ordinateurs quantiques progressent, les méthodes classiques continuent de se raffiner grâce à cet aiguillon, et rien ne dit qui sortira en tête de cette course n

BIBLIOGRAPHIE

Yiqing Zhou et al., What limits the simulation of quantum computers ?, Physical Review X, 2020.

F. Arute et al., Quantum supremacy using a programmable superconducting processor, Nature, 2019.

P. Corboz, Improved energy extrapolation with infinite projected entangled-pair states applied to the two-dimensional Hubbard model, Physical Review B, 2016.

F. Verstraete et J. I. Cirac, Matrix product states represent ground states faithfully, Physical Review B, 2006.

S. R. White, Density matrix formulation for quantum renormalization groups, Physical Review Letters, 1992.

MÉDECINE

L’ESSENTIEL

> Depuis quelques années, grâce à des diagnostics plus précis du stade de la maladie, on privilégie la surveillance active de la tumeur à l’intervention chirurgicale quand cela est possible.

> Lorsque les métastases sont en nombre limité et localisées près de la prostate, leur

traitement par radiothérapie ciblée conduit souvent à une rémission à long terme.

> Lorsque des métastases se sont développées dans d’autres parties du corps, des thérapies plus e caces, fondées sur une meilleure compréhension de la biologie de la maladie, sont désormais disponibles.

L’AUTEUR

MARC B. GARNICK professeur de médecine à la faculté de médecine de Harvard (HMS) et au centre médical des diaconesses Beth-Israel, à Boston

CANCER DE LA PROSTATE Des traitements pour tous les stades

Grâce à l’imagerie de pointe et à des protocoles affinés, le diagnostic de la maladie et la prise en charge des patients se sont considérablement améliorés ces dernières années, même pour les formes les plus avancées de la maladie.

Le diagnostic et le traitement du cancer de la prostate ont longtemps fait l’objet de controverses et d’incertitudes. Le test de l’antigène prostatique spécifique (PSA , pour prostatic specific antigen) en est un exemple Ce test, qui consiste à mesurer la concentration d’une protéine – le PSA – dans le sang, est capable de mettre en évidence un cancer même en l’absence de symptômes Après son introduction au début des années 1990, le dosage du PSA a été largement adopté : des millions de tests sont effectués chaque année aux États-Unis [son usage s’est développé de façon similaire en Europe à la même époque, ndlr]. En 2012, cependant, un groupe de travail gouvernemental américain a indiqué qu’il était susceptible d’entraîner, contre des cancers potentiellement peu dangereux, un surtraitement qu’il aurait mieux valu épargner au patient.

Depuis , les arguments pour ou contre le dosage du PSA continuent de s’affronter, mais on comprend mieux pourquoi certains cancers de la prostate progressent plus vite que d’autres, ce qui a permis d’améliorer le pronostic des patients à tous les stades de la maladie, même dans les cas les plus avancés. Un spécialiste du cancer de la prostate a aujourd’hui accès à un ensemble d’outils thérapeutiques élaborés et est capable d’estimer quand il est possible de différer un traitement en toute sécurité On ne saurait trop insister

sur l’importance de ces progrès Le cancer de la prostate reste l’une des tumeurs malignes les plus répandues Aux États-Unis, à l’exception de certains cancers de la peau, ceux de la prostate sont les plus fréquents chez les hommes : près de 270 000 d’entre eux en recevront le diagnostic cette année Il s’agit aussi du quatrième cancer le plus répandu dans le monde. Heureusement, la grande majorité des patients vivront des années après l’annonce de la maladie et mourront probablement de causes non liées à leur tumeur

Fondamentalement, ce cancer survient dans la prostate Située devant le rectum, sous la vessie et au-dessus du pénis, cette glande produit un liquide qui se mélange aux spermatozoïdes, issus des testicules, pour former le sperme. On distingue quatre stades principaux de cancer

Au début, les tumeurs, localisées, ne présentent aucun signe d’extension au-delà de la prostate. Une deuxième forme de la maladie, dite « localement avancée », reste proche de la glande. Une troisième est le cancer métastatique de la prostate , qui se propage vers d’autres parties du corps. Le traitement des tumeurs de cette catégorie a bénéficié de l’amélioration des tests d’imagerie diagnostique. En fait, grâce à eux, les cancérologues ont caractérisé une catégorie supplémentaire, le cancer oligométastatique de la prostate, un stade situé sur un continuum entre le cancer localisé et la maladie métastatique plus dispersée Les découvertes majeures des dix dernières années

Photo Library/ANNE
E. WESTON

ont transformé la façon dont nous abordons chaque type de cancer de la prostate, et ces progrès devraient se poursuivre durant les prochaines décennies.

Les premières étapes du traitement des personnes atteintes d’un cancer localisé sont fondées sur une stratification du risque Ce processus permet au médecin d’évaluer la probabilité que la tumeur soit éliminée et le patient guéri par un traitement local (généralement par chirurgie ou radiothérapie) et, si celle-ci diminue, la probabilité que le cancer reprenne. Le médecin détermine le risque en fonction des résultats du dosage du PSA , de l’examen physique de la prostate et de l’inspection des cellules issues d’une biopsie de la tumeur

La conduite à tenir face à un patient dont le taux de PSA est élevé fait continûment l’objet de révisions. Il y a encore cinq à sept ans, le médecin palpait la prostate à la recherche d’anomalies potentiellement cancéreuses. Invariablement, l’étape suivante consistait en une biopsie faite à l’aiguille – une procédure inconfortable au cours de laquelle le médecin prélève des fragments de tissu prostatique par le rectum.

Mais, à présent, on dispose d’un moyen d’effectuer la biopsie à travers le périnée , la zone située entre l’arrière du scrotum (le sac de peau qui contient les testicules) et la région anorectale Grâce à des améliorations techniques, il est possible de la réaliser en ambulatoire, sans anesthésie générale ni sédation. Cette technique réduit le risque d’infection et le besoin d’antibiotiques, car elle ne perturbe pas la flore bactérienne du rectum. Ce que des chercheurs ont confirmé dans une étude récente : ils ont comparé les résultats de patients ayant subi une biopsie transrectale et reçu des antibiotiques à ceux de personnes ayant subi une biopsie transpérinéale avec peu ou pas d’antibiotiques, et ont constaté qu’il n’y avait pas davantage de complications dues aux infections chez ces dernières

UN DIAGNOSTIC SANS BIOPSIE

Plus encourageante encore est la perspective de ne plus avoir besoin de biopsie Lorsqu’un patient présente un taux anormal de PSA mais aucun signe clair de dépôts cancéreux à l’examen rectal , les médecins ont désormais la possibilité d’utiliser l’imagerie par résonance magnétique (IRM) pour examiner la prostate et les tissus environnants L’IRM est le meilleur moyen d’identifier les cancers « cliniquement significatifs », c’est-à-dire ceux qui, s’ils ne sont pas traités ou diagnostiqués, risquent de se propager Elle met aussi en évidence la propagation d’un cancer ou encore des tumeurs situées dans des endroits inhabituels, par exemple à l’avant de la prostate. Un autre avantage de l’IRM est qu’elle identifie moins de cancers cliniquement non

significatifs – qui ne risquent pas de causer des problèmes et qu’il est préférable de ne pas traiter –, ce qui est une bonne chose, car cela évite des traitements inutiles. Dans certains centres médicaux aux États-Unis et dans nombre d’autres en Europe, un médecin ne pratique une biopsie que si l’IRM révèle des signes cliniquement significatifs. Des études qui ont comparé les deux approches diagnostiques – biopsie de routine pour tous les patients présentant un taux élevé de PSA et biopsie fondée sur des résultats anormaux de l’IRM – ont montré qu’elles sont aussi efficaces l’une que l’autre pour détecter les cancers cliniquement significatifs

Une fois le cancer de la prostate diagnostiqué, que se passe-t-il ? Pendant des décennies, la question du traitement a été tout aussi controversée que celle du diagnostic. Heureusement, de nouvelles recherches menées au RoyaumeUni et publiées en 2023 ont permis d’y voir plus clair L’urologue Freddie Hamdy et ses collègues ont étudié plusieurs centaines de personnes présentant un taux élevé de PSA et dont la biopsie de la prostate avait révélé la présence d’un cancer De façon aléatoire, ces patients ont soit subi une ablation chirurgicale de la glande, soit reçu un traitement par radiothérapie, soit fait l’objet d’un suivi complet sans traitement. Quinze ans plus tard, environ 3 % des patients de chaque groupe étaient morts d’un cancer de la prostate et environ 20 % de chaque groupe, de causes sans rapport avec le cancer. Sur la base des résultats de cette étude et d’autres, davantage de personnes se voient désormais proposer une « surveillance active » après un diagnostic de cancer de la prostate, dans le cadre de laquelle le traitement est soit retardé, soit totalement évité Le suivi soutenu de patients n’ayant pas subi d’intervention chirurgicale ou de radiothérapie est de plus en plus courant ; il est même étendu à présent aux patients porteurs de tumeurs plus inquiétantes. La surveillance comprend une série de mesures : le dosage du PSA tous les trois à six mois, l’examen physique de la prostate et l’évaluation des symptômes urinaires du patient Ces tests sont suivis de biopsies de plus en plus espacées dans le temps tant qu’aucun changement pathologique significatif n’apparaît. Si un cancer est identifié comme présentant un risque intermédiaire ou élevé , les médecins doivent suivre sa progression, généralement à l’aide de scintigraphies osseuses et de tomodensitométries abdominopelviennes, des examens qui visent à rechercher toute propagation du cancer dans les zones où il a tendance à métastaser. Malheureusement, ces techniques ne sont pas assez sensibles pour détecter de manière fiable sa propagation dans des structures de moins de 1 centimètre de diamètre, comme les ganglions lymphatiques

UN ENDROIT VULNÉRABLE

La prostate, siège de l’un des cancers les plus fréquents, est une glande de la taille d’une noix située dans la cavité pelvienne. Elle produit un liquide qui se mélange aux spermatozoïdes issus des testicules et au liquide que produisent les vésicules séminales pour former le sperme, qui sort du corps par l’urètre lors de l’éjaculation.

L’IRM est le meilleur moyen d’identifier les cancers cliniquement significatifs

Canal déférent

Urètre

Par conséquent, il arrive que de petites zones métastatiques passent inaperçues. On dit de ces cas qu’ils sont « sous-estimés »

En général, les patients dont la maladie est sous-estimée ne sont pas traités jusqu’à ce que le cancer devienne détectable par des symptômes comme des problèmes de miction ou des douleurs La maladie nécessite alors parfois des thérapies intensives et les chances de rémission à long terme sont moindres Aujourd’hui, cependant, des diagnostics plus précis devraient aider à résoudre ce problème C’est ce que permet, en particulier, une technique d’imagerie de pointe – nommée PET-CT – qui combine tomographie par émission de positons et tomodensitométrie. Cette technique détecte des molécules présentes dans les cellules cancéreuses, comme l’antigène membranaire spécifique de la prostate (PSMA). Si le PSMA est repéré en dehors de la prostate, par exemple dans les ganglions lymphatiques pelviens, les zones touchées sont identifiables et il est alors possible de planifier une radiothérapie ciblée ou une ablation chirurgicale.

DES THÉRAPIES PLUS CIBLÉES

Voyons de plus près comment on utilise le PET-CT en pratique. L’un de mes patients, un homme de 68  ans, s’était vu diagnostiquer un cancer de la prostate localisé, mais avec

Vésicule séminale

Rectum (zone d’accès pour une biopsie)

Périnée (zone d’accès pour une biopsie)

Testicule

des caractéristiques à haut risque La scintigraphie osseuse et la tomodensitométrie traditionnelles n’avaient révélé aucun signe de propagation du cancer hors de la glande. Pourtant, la recherche du PSMA par PET-CT a mis en évidence plusieurs petits dépôts de cellules cancéreuses dans des zones bien définies du bassin, ce qui indiquait que le cancer s’était propagé aux ganglions lymphatiques Cette découverte a déclenché un traitement comprenant une radiothérapie de la prostate et des ganglions lymphatiques cancéreux ainsi qu’une hormonothérapie antiandrogénique, un traitement qui réduit la quantité de testostérone dans le corps – l’hormone qui stimule le développement du cancer de la prostate L’identification de dépôts tumoraux dans un nombre limité de ganglions lymphatiques pelviens (on parle de « cancer oligométastatique de la prostate ») a permis une nouvelle utilisation d’une ancienne technique en oncologie appelée « radiothérapie stéréotaxique des métastases », qui cible de façon précise [grâce à de nombreux faisceaux convergents, ndlr] les ganglions lymphatiques ou les zones osseuses touchés Parfois, on associe à cette technique l’ablation chirurgicale des ganglions lymphatiques anormaux Des études récentes sur l’utilisation de la radiothérapie stéréotaxique en

Ce texte est une adaptation de l’article Treating prostate cancer at any stage publié par Scientific American en mai 2024.

Prostate Vessie
Scrotum

La technique d’imagerie PET-CT, qui combine la tomographie à émission de positons (PET) et la tomodensitométrie (CT), permet de détecter des métastases invisibles à l’aide de la seule tomodensitométrie. À gauche, une image de PET montre l’absorption normale du traceur radioactif dans les tissus sains (en noir) et sa concentration, liée au cancer, dans des ganglions lymphatiques métastatiques et la prostate (en rouge). À droite, la même région a été observée par CT seule (en haut) ou par PET-CT (en bas) ciblant l’antigène membranaire spécifique de la prostate (PSMA). Avec le PET-CT, on distingue l’absorption du traceur par des métastases de ganglions de faible volume (flèche orange) qu’il serait impossible de repérer sur les images de CT seules (flèche jaune)

conjonction avec les traitements conventionnels montrent, dans certains cas, une rémission à long terme se prolongeant sur des années de suivi. Jusqu’à récemment, un tel scénario était impensable Mon patient a suivi une thérapie de ce type accompagnée d’une hormonothérapie relativement courte Il est actuellement en rémission.

L’identification précise des petits dépôts métastatiques présente d’autres avantages. Depuis des décennies, l’hormonothérapie est le traitement de base de nombreuses formes de cancer de la prostate Les patients doivent poursuivre cette thérapie pendant des années, parfois toute leur vie Ses effets secondaires sont similaires à ceux de la ménopause En fait, l’« andropause » est le terme qui les décrit le mieux : la baisse du taux de testostérone s’accompagne d’une multitude de symptômes comme la perte de libido, des troubles de l’érection, la prise de poids, des bouffées de chaleur, de l’ostéoporose, des troubles cognitifs, des changements d’humeur, une baisse d’énergie et l’aggravation de problèmes cardiaques et vasculaires préexistants. Or des études sur l’utilisation de la radiothérapie stéréotaxique dans le cas d’un cancer oligométastatique de la prostate suggèrent des pistes pour retarder l’hormonothérapie , l’administrer pour une durée plus courte ou même l’omettre chez des patients qui, auparavant, auraient été diagnostiqués comme en ayant besoin

En déployant de façon stratégique les formes classiques de traitement localisé – la chirurgie d’ablation de la prostate ou la radiothérapie – et la radiothérapie stéréotaxique, les

médecins raccourcissent la durée de l’hormonothérapie, voire l’éliminent chez des patients atteints d’un cancer oligométastatique Une telle approche aurait été difficile à imaginer il y a cinq ans Des études de suivi à plus long terme aideront les scientifiques à déterminer si certaines personnes traitées de cette manière connaissent une rémission prolongée.

UNE HORMONOTHÉRAPIE PLUS EFFICACE

L’hormonothérapie antiandrogénique a longtemps été le principal traitement contre les formes avancées de cancer de la prostate, avec métastases dans d’autres parties du corps

Historiquement, les médecins recommandaient l’ablation chirurgicale des testicules – la principale source de testostérone – ou l’administration d’autres hormones qui bloquent sa production et son action Au milieu des années 1980, j’ai ainsi participé à des recherches sur des médicaments appelés « analogues de l’hormone lutéinisante ». Cette hormone réduit la production de testostérone en interrompant le signal cérébral qui ordonne aux testicules de fabriquer cette molécule Mais aujourd’hui, de nouveaux agents sont disponibles, qui réduisent encore l’action de la testostérone, voire la bloquent L’objectif du traitement des formes avancées du cancer de la prostate est d’éliminer les sources multiples de cette hormone. Celle-ci provient principalement des testicules, mais les glandes surrénales en produisent aussi une petite quantité De plus, il arrive que les cellules cancéreuses elles-mêmes évoluent et se mettent à produire leurs propres androgènes

Or la testostérone et sa forme active, la dihydrotestostérone, traversent la membrane des cellules cancéreuses et interagissent avec les récepteurs des androgènes présents dans leur cytoplasme ( le milieu intracellulaire ). Les récepteurs transportent ensuite la dihydrotestostérone jusqu’au noyau, où elle ordonne à la cellule cancéreuse de croître, de se répliquer et de se propager

L’hormonothérapie classique affecte peu la production de testostérone par les glandes surrénales et par les cellules cancéreuses, et elle ne bloque pas l’activité des récepteurs d’androgènes. Mais de nouvelles variantes de cette thérapie pourraient remédier à ces lacunes Les combinaisons de médicaments qui agissent sur ces processus ont considérablement amélioré la survie des personnes atteintes d’un cancer métastatique de la prostate et, plus important encore, les patients tolèrent ces traitements plus intensifs. Les nouvelles normes prescrivent donc des combinaisons de deux, voire trois molécules. Des médicaments comme le docétaxel, utilisé en chimiothérapie, et d’autres nouveaux, bloquent la production de testostérone par les glandes surrénales ou les cellules cancéreuses, ou interfèrent avec l’activité des récepteurs androgéniques Combinés à l’hormonothérapie classique, ils ont considérablement amélioré la survie des patients

Une autre thérapie consiste à identifier les cellules cancéreuses exprimant le PSMA et à les détruire à l’aide d’une molécule pharmaceutique radioactive injectable qui cible spécifiquement le PSMA présent à leur surface et laisse intactes la plupart des cellules saines L’Agence américaine des produits alimentaires (FDA) et médicamenteux a approuvé cette molécule, le lutécium 177 (commercialisée sous le nom de Pluvicto), pour le traitement du cancer de la prostate devenu résistant à d’autres formes d’hormonothérapie et de chimiothérapie [en France, la molécule a obtenu l’autorisation de mise sur le marché en 2022, ndlr]. Il est probable qu’elle deviendra une thérapie importante même pour les stades plus précoces de la maladie.

LA PISTE GÉNÉTIQUE

L’analyse du génome des patients et des tumeurs a également contribué à la réduction des symptômes et à l’allongement de la durée de vie. En effet, certaines mutations génétiques connues pour augmenter le risque de cancer du sein et de l’ovaire sont aussi associées à un risque accru de cancer de la prostate Le dépistage de ces mutations est de plus en plus courant, et on ajoute au traitement des patients qui en sont porteurs des thérapies spécifiques qui bloquent leurs effets délétères, ce qui améliore les résultats obtenus. Il est par ailleurs essentiel de comprendre le type de mutation impliqué , tant pour

les patients que pour les membres de leur famille . Les mutations dites « germinales » sont celles que le patient a héritées de ses parents biologiques. Elles touchent toutes les cellules de l’organisme et sont transmissibles à ses enfants. Une mutation « somatique », en revanche, n’est pas héritée et se développe dans le cancer lui-même. Les thérapies ciblées conçues spécifiquement pour corriger les effets des unes ou des autres ont amélioré la longévité des patients de façon notable

Des mutations liées au cancer du sein sont aussi associées à celui de la prostate £

Les mutations des gènes BRCA, associées à l’apparition précoce de cancers du sein et de l’ovaire, sont parmi les plus connues de celles qui favorisent la genèse de tumeurs. Lorsque des chercheurs ont étudié la survenue de cancers dans des familles présentant de telles mutations, ils ont découvert de nombreux cas de cancer de la prostate. Ce constat a conduit à la découverte qu’elles apparaissaient à la fois chez les hommes et chez les femmes de ces familles Ces mutations modifient la façon dont l’ADN est réparé, ce qui introduit des défauts susceptibles d’entraîner la formation d’un cancer

BIBLIOGRAPHIE

F. C. Hamdy et al., Fifteen-year outcomes after monitoring, surgery, or radiotherapy for prostate cancer, N. Engl. J. Med., 2023.

K. Fizazi et al., Rucaparib or physician’s choice in metastatic prostate cancer, N. Engl. J. Med., 2023.

K. Zhang et al., Prostate cancer screening in Europe and Asia, Asian Journal of Urology, 2017.

Depuis, des médicaments ont été mis au point pour traiter les cancers liés aux mutations de gènes BRCA. Plusieurs de ces médicaments, appartenant à une classe de molécules appelée « inhibiteurs de l’enzyme Parp », ont récemment reçu l’approbation de la FDA pour être utilisés comme traitement chez les personnes porteuses d’une telle mutation [ en France, la Haute autorité de santé a émis un avis favorable en 2021, ndlr]. Cette recherche a permis de généraliser les tests génétiques chez les patients atteints de cancer de la prostate et, lorsque des mutations germinales sont détectées, d’offrir un conseil génétique aux familles

Toutes ces avancées ont eu lieu au cours de la dernière décennie, une période incroyablement courte en oncologie. Et les nouvelles stratégies mises en œuvre ont déjà commencé à transformer le cancer de la prostate, autrefois rapidement mortel, en une maladie chronique avec laquelle les patients vivent pendant des années, voire aussi longtemps que le prévoit leur espérance de vie n

L’ESSENTIEL

> Des chercheurs se penchent sur l’hypothèse que notre monde ne serait qu’une simulation informatique, créée par des êtres situés dans une réalité supérieure.

> Certains arguments tirés de la physique tendent à confirmer

cette hypothèse… alors que d’autres mènent à la conclusion opposée.

> Physiciens, informaticiens et philosophes explorent des pistes pour tenter de formaliser ce questionnement de manière rigoureuse.

SIMULATION TOTALE

L’AUTEUR

JEAN-PAUL DELAHAYE professeur émérite à l’université de Lille et chercheur au laboratoire Cristal

La thèse de l’illusion se précise

De récents travaux reprennent et affinent les raisonnements du philosophe suédois Nick Bostrom qui, il y a vingt ans, estimait probable que notre réalité soit en fait une simulation informatique menée par une civilisation avancée.

Sommes - nous des marionnettes dont les fils sont tenus par des êtres supérieurs, qui nous auraient programmés dans leurs superordinateurs ? La question est bien plus sérieuse qu’on ne l’imagine, et au-delà des nouvelles, livres ou films de science - fiction , des dizaines d’articles ont traité le sujet, écrits par des philosophes ou des scientifiques, y compris les plus prestigieux Des travaux présentés récemment par de très sérieux chercheurs canadiens et prenant en compte la nature quantique de notre monde reformulent les raisonnements développés il y a vingt ans par le philosophe suédois Nick Bostrom Les premiers raisonnements aboutissaient à une évaluation proche de 100 % pour la probabilité que nous soyons dans une simulation conduite au sein d’ordinateurs

appartenant à une civilisation avancée. La nouvelle étude du problème produit des formules plus précises, mais malheureusement, selon la valeur des paramètres qui y apparaissent, elles confirment les conclusions de Nick Bostrom ou s’y opposent franchement Le problème est devenu plus scientifique et riche, et s’il reste pour l’instant difficile d’en tirer une conclusion définitive, le travail entrepris est fascinant et donne à réfléchir Bien entendu, la nature proprement scientifique des discussions autour de cette question est parfois discutable Il faut accepter, pour se plonger dans cette littérature, de concevoir l’exercice comme un jeu intellectuel entremêlant la physique, la philosophie et les romans de science-fiction

La question posée est : quelle est la probabilité que nous vivions dans une simulation qui serait menée sur les machines d’une civilisation

Certains indices concrets pourraient nous aider à déterminer si nous vivons dans une simulation informatique engendrée par des êtres supérieurs. Par exemple, des « défauts » au sein de notre réalité (comme des dysfonctionnements difficilement explicables sur des écrans d’ordinateurs) pourraient faire partie de ces indices.

supérieure ayant atteint la capacité technique de produire et de faire fonctionner des modèles informatiques de l’univers entier avec ses éventuels habitants ? L’utilité de ces simulations dont nous serions les jouets et qui feraient du monde que nous percevons une illusion serait, pour cette civilisation, de mieux comprendre et résoudre certains problèmes de physique, de théorie de l’évolution, de psychologie ou de sociologie. Ou peut-être ces expériences seraient-elles liées à des questions que nous ne pouvons même pas imaginer. Les êtres à l’origine de notre existence seraient analogues aux chercheurs qui, ici, sur Terre, étudient la circulation routière en créant des logiciels qui la simulent, dans le but de comprendre comment surviennent les embouteillages ou l’effet d’une réduction des vitesses maximales autorisées sur les risques d’accidents.

UN PROBLÈME ANCIEN

L’idée que notre monde serait une illusion n’est pas nouvelle. On en trouve une première forme chez Platon avec le mythe de la caverne et plus récemment chez René Descartes qui, dans

À LIRE

Dans le roman Simulacron 3 de Daniel Galouye (1964), Douglas Hall travaille sur un projet de simulation si réaliste que les êtres virtuels qui y évoluent pensent vivre dans un monde réel. Mais en raison d’événements troublants advenant autour de ce projet, le héros commence à soupçonner que son propre monde n’est qu’une simulation, créée dans un niveau supérieur de réalité.

la première de ses Méditations métaphysiques, parue en 1641, émet l’hypothèse que tout ce qui est autour de nous pourrait être une tromperie créée par un « diable ». Ce « doute radical » s’impose et plaît à Descartes car il en déduit qu’« il n’est en [son] pouvoir de parvenir à la connaissance d’aucune vérité » Il explique qu’il imagine « un mauvais génie, non moins rusé et trompeur que puissant, qui a employé toute son industrie à [le] duper » et qui fait que « le ciel, l’air, la terre, les couleurs, les figures, les sons et toutes les choses extérieures [qu’il voit] ne sont que des illusions dont il se sert pour surprendre [sa] crédulité ». La science-fiction, bien évidemment, s’est aussi emparée de ce thème, et dès 1964 l’auteur américain Daniel Galouye en fait le sujet central de son excellent roman Simulacron 3, où le héros comprend progressivement qu’il n’est pas dans un vrai monde, mais dans un univers fictif créé par un ordinateur Bien d’autres récits et films , dont la fameuse trilogie Matrix, explorent cette idée d’une réalité totalement illusoire. Plus étonnant peut-être, cette hypothèse et éventuellement sa réfutation sont l’objet d’une discussion

acharnée dans le monde de la philosophie, et ce depuis un étonnant article de Nick Bostrom de 2003. Le philosophe, actuellement chercheur à la Macrostrategy Research Initiative, s’intéresse, outre l’hypothèse de la simulation, à un certain nombre de thèmes en lien avec les sciences fondamentales, comme l’intelligence artificielle ou encore le principe anthropique. Son article de 2003 a été cité plus de 1 500 fois, et la discussion qu’il a lancée se poursuit aujourd’hui sans relâche, avec de nombreux articles publiés chaque année sur ce thème. En particulier, il est remarquable que Gilles Brassard, l’un des co-inventeurs de la cryptographique quantique, dont le nom circule depuis plusieurs années pour le prix Nobel de physique, se soit penché de près sur ces questions En 2021, il a cosigné, avec son collègue de l’université de Montréal Alexandre BibeauDelisle, un article publié dans les Proceedings de la Royal Society de Londres, dans lequel les deux chercheurs réexplorent le raisonnement probabiliste de Nick Bostrom en 2003. Ils prennent en compte la possibilité des ordinateurs quantiques, et formulent leur raisonnement dans un cadre de physique théorique plus précis. Ils ajoutent aussi l’idée d’éventuelles « simulations récursives », c’est-à-dire créées par des êtres qui seraient eux-mêmes déjà dans une simulation Nous allons rappeler le raisonnement de Nick Bostrom, puis nous présenterons brièvement les idées d’Alexandre Bibeau-Delisle et Gilles Brassard.

LE RAISONNEMENT DE BOSTROM

Conçu par Nick Bostrom en 2001 et publié en 2003, le raisonnement suivant, que nous présentons succinctement , est le point de départ des nouveaux travaux probabilistes et physiques sur le problème de la simulation

Si toute civilisation dans le cosmos ne finit pas par s’autodétruire avant d’avoir acquis une technologie suffisante pour mener des simulations globales incluant des êtres intelligents et conscients de la même nature que nous, alors il est possible que des civilisations disposant de tels moyens procèdent à un très grand nombre de simulations de ce type, donnant « naissance » à des êtres fictifs, intelligents et conscients, en très grand nombre Dans ce cas, ces êtres fictifs des réalités simulées seront bien plus nombreux que les êtres réels de la réalité de base Si l’on accepte ces hypothèses, il en résulte donc que la probabilité que nous soyons dans une simulation est très élevée, et sans doute proche de 100 % Ainsi, nous sommes presque certainement dans une simulation. Suivant cet argumentaire, il n’y aurait alors qu’une alternative, dont les deux issues sont aussi troublantes l’une que l’autre : soit notre civilisation se détruira elle-même parce que

LA FORMULE DE GILLES BRASSARD ET ALEXANDRE BIBEAU-DELISLE

Dans une nouvelle étude du problème de la simulation, les deux physiciens canadiens Alexandre Bibeau-Delisle et Gilles Brassard adoptent l’idée que les phénomènes quantiques ne peuvent être simulés e cacement qu’en exploitant des ressources informatiques quantiques. Ils y ajoutent les hypothèses suivantes :

(a) À une certaine échelle, l’espacetemps devient discret.

(b) La densité d’information dans le monde est finie.

(c) La gravité ne remettra pas gravement en cause la mécanique quantique.

Dans un premier calcul, ils envisagent qu’il existera des systèmes de calculs d’une puissance de 1050 OPS/kg (opérations par seconde et par kilogramme) – une valeur classique due au physicien spécialiste des systèmes complexes Seth Lloyd, qui résulte de considérations de physique fondamentale. Ils estiment que la masse utilisée pour simuler les cerveaux d’un monde virtuel sera un milliard de fois plus faible que celle des cerveaux réels ; une valeur plus grande renforcerait la conclusion. Sachant qu’un cerveau réel a une puissance d’environ 1016 OPS et une masse d’environ 1,4 kg, il en résulte que pour chaque cerveau réel, on pourrait simuler jusqu’à 1050 × 1,4 / (109 × 1016) = 1,4 × 1025 cerveaux fictifs, en ordre de grandeur. La proportion de cerveaux simulés parmi tous les cerveaux serait alors d’environ 1,4 × 1025 / (1,4 × 1025 + 1), soit un nombre très proche de 1 Ce résultat conforte l’idée de Nick Bostrom selon laquelle nous sommes plus probablement dans une

Réalités simulées

Réalités simulées de niveau 2

Etc.

simulation que dans un monde réel. Plus précisément, la formule générale donnant cette probabilité est : RCal = (MBraMUseDMat/PBra ) / ((MBraMUseDMat / PBra ) + 1) où :

– RCal est la proportion de cerveaux virtuels par rapport à tous les cerveaux existants (réels et virtuels confondus), c’est-à-dire la probabilité que nous soyons dans une simulation ; – MUse est le rapport de la quantité de matière utilisée pour simuler les cerveaux du monde virtuel sur la quantité de matière des cerveaux réels ; – MBra est la masse moyenne d’un cerveau humain ; – DMat est la puissance maximale de calcul par kilogramme ; – PBra est la puissance de calcul moyenne d’un cerveau humain. Dans des ra nements supplémentaires, les chercheurs ont introduit l’idée que seule une fraction des êtres réels accède à la puissance de calcul nécessaire pour faire des simulations, et ont intégré plusieurs autres paramètres. Ils ont aussi et surtout pris en compte la possibilité qu’à l’intérieur d’une simulation, on en fasse d’autres. Tout ceci conduit à des formules générales complexes, dont il n’est plus vrai qu’elles confirment la thèse de Nick Bostrom. Comme dans le cas de la formule de Drake, qui fournit une manière d’estimer le nombre de civilisations extraterrestres que doit contenir notre galaxie, les paramètres des équations de Brassard et BibeauDelisle sont aujourd’hui impossibles à évaluer sérieusement.

Réalité de base

Représentation schématique de simulations imbriquées : dans une réalité de base, on effectue plusieurs simulations, au sein desquelles les êtres simulés vont à leur tour faire des simulations, etc.

c’est le destin inévitable de toute civilisation ; soit il est très probable que nous sommes dans une simulation – car avec les informations dont nous disposons, nous ne pouvons pas distinguer entre « vivre dans une réalité de base » et « vivre dans une réalité simulée ».

De nombreuses objections ont bien sûr été formulées, donnant lieux à une volumineuse littérature, principalement due à des philosophes. Le rejet de ce raisonnement se fonde sur plusieurs idées, dont nous ne cherchons pas à faire la liste exhaustive. L’une d’entre elles est qu’il existe peut-être des obstacles technologiques fondamentaux à ce que nous réalisions des simulations d’êtres « équivalents à nous » Si c’est le cas, il n’y a pas de mondes simulés aussi riches et complexes que le nôtre avec en son sein des êtres qui nous ressemblent Peutêtre , aussi , qu’une civilisation avancée qui acquerrait la technologie pour entreprendre de telles simulations ne le ferait pas, par exemple pour des raisons éthiques , en considérant qu’il est moralement inacceptable de « créer » des êtres intelligents et conscients Peut-être, encore, nos civilisations se stabiliseront-elles technologiquement, pour des raisons écologiques ou autres, et adopteront des politiques aboutissant à une croissance nulle ou à une décroissance, interdisant à jamais de disposer de la capacité de procéder à de telles simulations massives. Peut-être, également, que cette faculté de mener des simulations globales ne survient que très tardivement dans le développement d’une civilisation technologique, et qu’il existerait donc un très grand nombre d’êtres conscients véritables avant qu’on puisse en simuler, ce qui contredirait l’hypothèse qu’il y aurait davantage d’êtres conscients simulés que d’êtres conscients réels

Une autre objection s’appuie sur l’idée que notre univers serait infini : même si seule une partie finie de l’univers nous est accessible, rien n’interdit de croire qu’il est infini

Si tel est le cas, alors il y a peut-être des êtres analogues à nous en nombre infini dans la réalité de base. Pour en déduire une probabilité qu’un être soit réel, il faudrait pouvoir comparer deux ensembles infinis dénombrables –  celui des êtres réels et celui des êtres simulés – et faire leur rapport, chose à laquelle il est ici difficile de donner un sens mathématiquement car il n’existe pas de mesure de probabilité naturelle sur l’ensemble des entiers

NOUVELLES FORMULES

Le raisonnement de Nick Bostrom n’est pas conduit en tentant de calculer explicitement la probabilité , affirmée proche de 100 %, que nous soyons dans une simulation Pourtant, même si c’est difficile, il est intéressant de rechercher une telle formule , à la manière de l’astrophysicien Frank Drake

quand il a tenté d’évaluer le nombre de civilisations extraterrestres dans notre galaxie . C’est exactement le projet entrepris par Alexandre Bibeau-Delisle et Gilles Brassard. La première étape de leur travail a donc consisté à écrire la formule correspondant à l’argument de Nick Bostrom ( voir l’encadré page 73). Grâce à elle, on retrouve numériquement la conclusion du raisonnement exposé ci - dessus , qui indique que nous sommes très probablement dans une simulation Les chercheurs canadiens proposent alors deux raffinements : (a)  Le premier est que, pour qu’un être conscient se trouve dans une situation comparable à la nôtre, il ne suffit pas de simuler le fonctionnement de son cerveau : il faut aussi simuler son environnement Pour que ce dernier soit cohérent et crédible, cela exige bien plus de calculs que la simulation du seul cerveau. Simuler d’une manière détaillée notre perception du monde et ses réactions en fonction de ce que nous y faisons –  par exemple : des expériences de physique quantique ; la programmation d’un ordinateur qui calcule cent mille milliards de décimales de π, etc. – exige de simuler le monde dans sa totalité, ce qui est d’une grande difficulté… a fortiori dans la mesure où il faut que la simulation soit compatible avec la mécanique quantique !

(b) Dès lors que le monde simulé est vraiment comparable au nôtre, il peut se produire

INUTILE COMPLEXITÉ ET INDICES DE SIMULATION

Le physicien et cosmologue britannique John Barrow s’est beaucoup intéressé aux questions de multivers et au principe anthropique. Il a formulé un avis ouvert et original sur l’idée de la simulation, dont voici un résumé. Des êtres intelligents créant une simulation évitent nécessairement la prise en compte complète des lois identifiées de la nature, se contentant au contraire de lois simplifiées. Ainsi, lorsqu’une société d’animation réalise un film mettant en scène la réflexion de la lumière sur la surface d’un lac, elle n’utilise pas les lois de l’électrodynamique quantique et de l’optique pour calculer la di usion de la lumière – cela exigerait une trop grande puissance de calcul – mais des règles plausibles et simples, donnant des résultats satisfaisants à condition qu’on n’y regarde pas de trop près. D’un point de vue économique et pratique, de telles simplifications sont inévitables pour d’hypothétiques simulateurs d’univers, même si elles produisent nécessairement de petites incohérences, peut-être perceptibles « de l’intérieur » de la simulation. Dans cette hypothèse, le bon fonctionnement d’une simulation n’est pas complètement empêché par ces simplifications, mais sur une longue période les petites failles peuvent s’accumuler. Leurs e ets faisant boule de neige, la simulation risque alors de cesser de fonctionner. Le seul moyen de l’éviter est que les programmeurs interviennent pour régler les problèmes un par un, au fur et à mesure qu’ils se présentent. Comme les simplifications, ces interventions entraînent des incohérences logiques ou physiques, et la réalité simulée est donc victime de ratés ressentis de l’intérieur. Les êtres vivants dans une réalité simulée observeront donc inévitablement des anomalies, en particulier de petits écarts dans la stabilité des lois supposées de la nature. Ainsi, si nous souhaitons déterminer si oui ou non, nous vivons dans une simulation, la recherche de défauts et d’incohérences dans ce que nous observons est aussi importante que la recherche même des lois de la nature.

que les êtres fictifs qui l’habitent mettent en œuvre à leur tour une simulation du même type, c’est-à-dire de second niveau Il y en aura même certainement plusieurs différentes, et au sein de chacune d’elles des simulations de troisième niveau qui engendreront des simulations de quatrième niveau , etc ., tout cela augmentant le coût en calcul de n’importe quelle simulation réaliste.

La prise en compte des éléments (a) et (b) dans la formule qui évalue la probabilité que nous soyons dans une simulation en change radicalement la forme, et la rend assez complexe Elle laisse alors la porte ouverte à pratiquement toutes les options, selon les valeurs des paramètres qu’on y place

Nous ne détaillons pas la nouvelle formule , réellement délicate , d’Alexandre Bibeau - Delisle et Gilles Brassard , mais son enseignement rejoint celui de la « formule de Drake » pour les civilisations extraterrestres : trop d’hypothèses, trop de paramètres inaccessibles empêchent finalement d’aboutir à une conclusion ferme Il faudra attendre de nombreuses années , sinon des siècles , avant de connaître des valeurs crédibles pour les paramètres de la formule et en tirer des

Si certaines civilisations réalisent des simulations, il est possible qu’elles-mêmes soient déjà le fruit d’une simulation engendrée par des êtres supérieurs. Autrement dit, il est possible qu’il existe différents niveaux de réalités imbriquées, et autant de possibilités d’erreurs s’y manifestant subrepticement.

conclusions fiables, soit dans le sens de Nick Bostrom soit en contradiction avec sa thèse. C’est un peu décevant , mais plus sérieux Notons quand même qu’Alexandre BibeauDelisle et Gilles Brassard formulent des hypothèses assez naturelles qui, combinées avec leur formule, conduisent à la conclusion que la probabilité que nous soyons dans une simulation est en fait plutôt faible. Cette approche fondée sur la difficile mise en évidence d’une formule ne donne rien de définitif, pourtant le problème posé est important… pour quiconque aime spéculer Pour tenter d’avancer et pour le plaisir du jeu nous allons donc poursuivre le recensement des arguments et indices, produits par de nombreux chercheurs, d’une part en faveur de la conclusion que nous sommes dans une simulation , et d’autre part en faveur de la conclusion opposée

DES ARGUMENTS POUR…

L’argument le plus simple appuyant les conclusions de Nick Bostrom en appelle aux progrès technologiques du numérique ces dernières décennies Le bond de réalisme fait, par exemple, dans l’industrie du jeu vidéo pourrait

inciter à penser que les technologies de demain nous permettront, à coup sûr, de créer des simulations ultraréalistes comportant des êtres fictifs. Même si cet argument est séduisant – il est par exemple invoqué par l’entrepreneur Elon Musk , lequel a d’ailleurs contribué à financer les travaux du philosophe suédois –, il reste faible, et il est nécessaire d’examiner des raisonnements plus fins

Le suédois Max Tegmark , cosmologiste reconnu, également chercheur en apprentissage automatique et professeur à l’institut de technologie du Massachusetts ( MIT ), formule un autre argument indirect en faveur de la thèse de Nick Bostrom : « Si nous étions des personnages dans un jeu d’ordinateur, nous finirions par découvrir que les règles sont totalement rigides et mathématiques , car elles seraient le résultat d’un programme informatique, or justement nous découvrons que les règles qui régissent le monde physique sont rigides et mathématiques » Ces propos sont rapportés par William Poundstone dans son livre The Doomsday Calculation : How an Equation that Predicts the Future Is Transforming Everything We Know About Life and the Universe, paru en 2019.

Un argument amusant avancé par Alexandre Bibeau-Delisle et Gilles Brassard, qu’ils considèrent comme très puissant, repose sur le fait que nous n’avons pas découvert de vie extraterrestre autour de nous C’est surprenant, car si la vie est apparue sur Terre, c’est qu’elle est suffisamment probable : elle doit donc exister ailleurs en grand nombre, et sans doute proche de la Terre C’est le paradoxe de Fermi Une explication simple de cette situation étonnante, qui constituerait donc une solution au paradoxe, est qu’il est plus facile à un programmeur de simuler un univers où une seule vie est présente que de simuler un univers où un grand nombre de vies diverses seraient présentes.

Un autre argument auquel on pourrait penser s’appuie sur le principe qu’un monde simulé est basé sur du traitement d’informations discrètes, et possède donc une réalité pixélisée Or, contrairement aux méthodes continues de la physique classique, la physique moderne décrit un certain nombre de phénomènes comme discrets et reposant sur des quantas de lumière, d’énergie, etc Certaines théories de gravité quantique (qui tentent de concilier la mécanique quantique et la relativité générale) prévoient même que l’espace-temps, lui-même, serait discret N’est-ce pas un indice en faveur de la conclusion de Nick Bostrom ?

Un second argument lié à la mécanique quantique fait quant à lui écho à une idée présentée en 2022 par le physicien Melvin Vopson, médiatique défenseur de la thèse de la simulation, chercheur à l’université de Portsmouth, en Angleterre L’intrication quantique veut que

UN TEST CONCRET ?

Comme John Barrow, Alexandre Bibeau-Delisle et Gilles Brassard insistent sur l’idée que, pour savoir si nous vivons dans une simulation, il faut prêter attention aux éventuelles incohérences que nous pouvons observer dans le monde physique. Les chercheurs notent que, dans les jeux informatiques que nous connaissons, lorsque deux objets qui doivent entrer en collision passent l’un à travers l’autre, le trouble qui en résulte rompt le sentiment d’immersion du joueur. L’erreur inverse d’une trajectoire bloquée en l’absence d’obstacle est tout aussi gênante. À l’intérieur d’une simulation, ce type de défauts trahiraient des lois physiques instables et/ou contradictoires, laissant percevoir le caractère artificiel du monde. La cohérence de ce que nous observons serait donc le premier test pouvant aider à déterminer si nous vivons ou non dans une simulation. Melvin Vopson, chercheur à l’université de Portsmouth et auteur du livre Reality Reloaded : The Scientific Case for a Simulated Universe, publié en 2023 et consacré à l’hypothèse de la simulation, évoque dans la continuité de cette idée un argument pratique. Pour lui, le fait que la lumière ait, dans notre Univers, une vitesse finie trahirait les contraintes techniques auxquelles font face les êtres supérieurs à l’origine de la simulation dans laquelle nous vivons : cette vitesse indépassable serait liée au débit maximal d’informations de la machine qui nous simule.

À VOIR

Dans la trilogie de films Matrix des Wachowki, Neo, un jeune hacker, découvre que son univers est en fait une simulation créée par des machines intelligentes qui exploitent les humains inconscients, plongés dans leur monde virtuel, pour produire de l’électricité. Avec un groupe de résistants, il combattra cette « Matrice » pour tenter de libérer les humains de cette condition.

les propriétés de deux particules, même éloignées, puissent être très fortement liées, d’une manière que la physique classique ne peut pas expliquer. Ainsi, en effectuant une mesure sur l’une des particules d’un couple de particules intriquées, on impose immédiatement à l’autre une contrainte sur son état… et cela quelle que soit la distance qui sépare les deux particules ! L’effet est instantané Ces phénomènes, révélés par les expériences d’Alain Aspect dans les années 1980, démontrent en réalité la nature non locale de la mécanique quantique Mais comment expliquer que dans notre Univers qui, lui, est local (les informations s’y propagent de proche en proche, avec la vitesse de la lumière comme limite), un phénomène non local comme l’intrication quantique puisse exister ? Une explication assez simple de cette situation est l’hypothèse d’un monde simulé, car dans ce cas, deux points distants l’un de l’autre dans l’Univers peuvent être proches dans la machine qui les simule

En 2008, Brian Whitworth, de l’université Massey, en Nouvelle-Zélande, remarque que certaines difficultés graves rencontrées en physique cesseraient de l’être avec l’hypothèse de la simulation : « Si la matière, la charge, l’énergie et le mouvement sont des formes indirectes d’information, les nombreuses lois de conservation s’unifieraient en une seule loi de conservation de l’information plus simple à concevoir ; la création de l’univers lors du Big Bang ne serait plus paradoxale, car tout système virtuel doit avoir un début De plus, l’idée d’une réalité virtuelle pourrait éviter les difficultés à concilier théorie de la relativité et la théorie quantique » Plus généralement, et même si c’est un argument un peu trop facile, toute chose incompréhensible ou difficile à

expliquer dans notre monde – la matière noire, l’énergie sombre, l’inflation cosmique, etc. –pourrait être vue comme un défaut de la simulation que les êtres qui ont écrit le programme n’ont pas vu, ont été indifférents à corriger ou incapables de le faire (voir l’encadré page 74).

… ET DES ARGUMENTS CONTRE

On peut trouver aussi de nombreux arguments contredisant l’hypothèse que nous serions dans une simulation Il y a plus de cent ans, le philosophe et logicien Bertrand Russell en a repoussé l’idée en utilisant le principe du rasoir d’Ockham, selon lequel les théories les plus simples sont toujours préférables Pour lui, « il n’y a pas d’impossibilité logique à supposer que toute notre vie est un rêve [...], pourtant, même si c’est logiquement possible, il n’y a aucune raison de présumer que c’est vrai, car c’est une hypothèse moins simple, si on cherche un moyen de rendre compte des faits de notre propre vie, que l’hypothèse de bon sens selon laquelle il y a réellement des objets indépendants de nous, dont l’action sur nous est la cause de nos sensations ».

L’argument est cependant un peu trop général, et doit être renforcé. Le physicien américain Frank Wilczek, lauréat du prix Nobel de Physique en 2004, en propose une version intéressante en 2020 : il considère très improbable que nous soyons dans une simulation à cause de l’inutile complexité de notre Univers Pour lui : « Notre monde contient beaucoup de complexité cachée sans intérêt Nous pouvons calculer les propriétés d’un proton sur la base des lois fondamentales, mais ces calculs sont extrêmement compliqués . Concevoir un monde simulé à partir d’ingrédients aussi difficiles à calculer serait une mauvaise stratégie » L’idée peut être largement développée, et d’ailleurs l’utilisation du paradoxe de Fermi, évoqué plus haut pour argumenter en faveur de la thèse selon laquelle nous sommes dans une simulation, se trouve alors retourné. En effet, si les concepteurs de la simulation n’ont pas introduit d’autres formes de vies ailleurs que sur Terre parce que cela simplifiait les calculs, pourquoi donc ont-ils conçu un univers avec notre Soleil au milieu de plus d’une centaine de milliards d’autres étoiles composant notre galaxie, elle-même une galaxie parmi les au moins deux mille milliards d’autres galaxies de l’univers observable ? Que de complications autour et loin de nous, qui exigeraient une puissance de calcul colossale pour les êtres à l’origine de notre simulation ! Une simulation comportant un univers observable plus petit n’aurait-elle pas pu fournir un résultat similaire pour la Terre, à moindre coût ?

Autre élément : l’hypothèse que notre espace-temps serait discret, mentionnée plus haut, ne fait pas l’unanimité La physicienne

Dans certains cas, les raisonnements reposent sur trop de paramètres inconnus £

allemande Sabine Hossenfelder, en particulier, souligne dans un papier de 2017 qu’avec cette hypothèse, on s’attendrait à observer des violations des symétries continues dans les équations de la relativité restreinte En effet, une structure discrète de l’espace-temps ne peut être conciliée avec certaines symétries (de Lorentz), intimement liées à la relativité restreinte d’Einstein Des indices de violations des symétries de Lorentz pourraient donc être un signe que l’espace - temps est discret. Or des astrophysiciens ont utilisé les données d’observatoires spécialisés dans les rayons cosmiques, comme l’observatoire spatial Fermi, ou HESS, en Namibie, pour tenter de mettre en évidence ces violations de symétries… sans succès Cette absence d’observation constitue un argument contre l’idée que notre monde serait discret, et donc contre la thèse de la simulation

En conclusion, on remarquera que quelle que soit la rigueur qu’on a tenté de mettre dans les raisonnements tentant de décider si nous sommes ou non dans une simulation, on ne peut éviter de les fonder sur une multitude d’hypothèses, faciles à retourner pour aboutir à la conclusion opposée à celle qu’on prétendait défendre Il est amusant d’explorer toutes les questions possibles qu’on peut se poser sur la nature de notre réalité, surtout si l’on s’impose de rester le plus près possible de l’état de l’art des divers domaines scientifiques concernés Mieux : c’est parfois en adoptant une telle attitude que la science progresse Dans certains cas, cependant, il est prématuré de le faire, car les raisonnements reposent sur trop de paramètres inconnus, qui ne peuvent être rigoureusement évalués Les considérations sur le discret et le continu, sur le coût inutile de la simulation d’autres vies ou des parties éloignés de la Terre, l’introduction de l’idée des simulations imbriquées les unes dans les autres sont, parmi d’autres, des points qui enrichissent le jeu, mais ils rendent impossible aujourd’hui toute conclusion n

BIBLIOGRAPHIE

M. Vopson, The second law of infodynamics and its implications for the simulated universe hypothesis, AIP Advances, 2023.

M. Vopson, How to test if we’re living in a computer simulation, The Conversation, 2022.

A. Bibeau-Delisle et G. Brassard, Probability and consequences of living inside a computer simulation, Proceedings of the Royal Society, 2021.

F. Wilczek, Are we living in a simulated world ?, The Wall Street Journal, 2020.

S. Hossenfelder, No, we probably don’t live in a computer simulation, article du blog Backreaction, 2017.

J. Barrow, Living in a simulated universe, Cambridge University Press, 2014.

B. Whitworth, The physical world as a virtual reality : a prima facie case, arXiv preprint, 2008.

N. Bostrom, Are we living in a computer simulation ?, The Philosophical Quarterly, 2003.

BRUNO BELHOSTE est historien des sciences, professeur émérite d’histoire moderne et contemporaine à l’université Paris I Panthéon-Sorbonne.

Je reviens au vrai Mesmer, celui du XVIIIe siècle

Escroc pour les uns, précurseur des psychothérapies pour d’autres, qui était Franz Anton Mesmer, ce médecin allemand qui fit sensation dans les salons parisiens du XVIIIe siècle avec ses cures magnétiques, fondées sur la circulation d’un fluide universel ? Une nouvelle biographie présente son vrai visage. Rencontre avec son auteur.

Tout au long de votre carrière, vous vous êtes principalement penché sur les sciences des XVIIIe et XIXe siècles en France, et en particulier sur les mathématiques et les institutions savantes de cette époque. Quel a été l’élément déclencheur qui vous a conduit à vous intéresser à Mesmer, inventeur du magnétisme animal et du mesmérisme, la doctrine associée ?

J’ai découvert Mesmer il y a une quinzaine d’années, au cours de mes recherches sur le Paris savant de cette période Depuis un moment, je développe un projet d’histoire sociale et culturelle des sciences et, dans ce cadre, j’ai écrit un livre sur Paris en tant que lieu de sciences au XVIIIe siècle C’est comme cela que j’ai rencontré Mesmer J’en avais entendu parler en 1980 lors d’une conférence d’un historien des sciences américain très connu dans le milieu, Charles Gillispie, professeur à Princeton, mais ce sont surtout mes recherches sur Paris qui me l’ont fait connaître, à travers la condamnation du mesmérisme par l’Académie des sciences, au XVIIIe siècle. C’est à partir de là que je m’y suis intéressé

De là à écrire un livre sur lui ?

Ma rencontre avec Nicole Edelman, une collègue de l’université de Nanterre qui travaillait sur l’hypnose au XIXe siècle, a renforcé mon intérêt pour le personnage Nous avons organisé un colloque et, de fil en aiguille, a mûri l’idée d’écrire un livre sur lui En fait, en travaillant sur Mesmer et le mesmérisme aux XVIIIe et XIXe siècles, je me suis aperçu qu’il existait beaucoup de biographies sur lui, mais que toutes contenaient pas mal de légendes Sans doute à cause de mon esprit systématique, il me paraissait impossible de travailler sur le mesmérisme sans commencer par le début : replacer Mesmer de façon correcte dans son contexte C’est ce que j’ai essayé de faire dans mon livre : revenir au vrai Mesmer, celui du XVIIIe siècle

Son écriture a duré cinq ans En fait, elle a coïncidé avec le début de ma maladie, une amylose héréditaire, une maladie génétique évolutive rare due au mauvais repliement d’une protéine, la transthyrétine Le corps la dégrade mal, si bien qu’au fil du temps, elle se dépose un peu partout dans l’organisme, en particulier sur les nerfs et le cœur. J’étais condamné, mais, par un miracle de la médecine, j’ai pu intégrer un essai clinique visant à tester un traitement révolutionnaire fondé sur l’utilisation d’une molécule (un petit ARN) pour bloquer l’expression du gène codant la protéine défectueuse. L’essai clinique s’est révélé concluant : le traitement stoppe l’évolution de la maladie et me permet de vivre aujourd’hui. Le livre sur Mesmer a accompagné cette période J’avais à cœur de le finir, comme un défi lancé à la maladie Sa dédicace à tous les soignants est donc très personnelle

Quel portrait dressait-on de Mesmer avant que vous ne vous penchiez sur sa vie ?

Les biographies qui existaient étaient très insatisfaisantes. En fait, il n’y a pas eu un Mesmer, mais toute une série, produite après sa mort. D’abord, il est allemand, mais il a aussi été très actif en France et a écrit principalement en français, si bien que les biographes en France et en Allemagne ne traitent pas des mêmes aspects. De plus , beaucoup de biographies sont romancées Actuellement, par exemple , il existe cinq romans disponibles en poche, consacrés soit à Mesmer, soit à un épisode de sa vie –  presque toujours l’affaire Paradis, l’histoire d’une cure magnétique qui a tourné au scandale, racontée aussi dans un film, Mademoiselle Paradis, en 2017. Il existe donc un Mesmer construit par les romanciers, à commencer par Alexandre Dumas. À côté de cela, une tradition historiographique , en France en particulier, décrit le médecin comme un charlatan C’est le Mesmer des vulgarisateurs, en particulier Louis Figuier, dont la biographie très à charge, Histoire du merveilleux dans les temps modernes, tome 3 : Le

QUELQUES DATES

1734

Franz Anton Mesmer naît à Iznang, petit village au bord du lac de Constance, dans une principauté ecclésiastique allemande. Son père est garde forestier.

1758

Après des études de théologie délaissées au profit des sciences juridiques, Mesmer s’installe à Vienne, où, assez vite, il abandonne le droit pour la médecine.

1766

Il soutient sa thèse de doctorat sur l’influence des astres sur le corps humain, puis exerce à Vienne comme médecin.

1768

Il épouse Maria Anna von Posch, une riche veuve de dix ans son aînée. Le couple (qui se séparera dix ans plus tard) s’installe dans un palais viennois, où il organise fêtes et spectacles de théâtre et de musique. Les Mozart y viennent souvent.

1775

Après avoir expérimenté une cure magnétique sur Franzl, une jeune malade vivant chez lui, Mesmer publie Écrit à un médecin étranger, texte fondateur du magnétisme animal. Il sort de l’anonymat et son approche suscite des controverses.

1777

L’échec de la cure de la jeune Maria Theresia Paradis fait sensation. Profondément marqué, Mesmer s’installe à Paris quelques mois plus tard, où, après des débuts di ciles, ses thérapies collectives rencontrent le succès.

1783

Il crée la Société de l’harmonie, au sein de laquelle il enseigne sa doctrine. Un an plus tard, deux commissions académiques condamnent le magnétisme animal.

1789

Mesmer quitte Paris pour Vienne. Depuis quelques années, il rédige son grand-œuvre, Mesmerismus, où il explique en détail sa doctrine. Bien qu’écrit en français, celui-ci ne paraîtra qu’en allemand, en 1814, et suscitera peu d’intérêt.

1815

Depuis 1802, Mesmer a retrouvé son pays natal après un bref retour à Paris. Il y vit presque oublié et s’éteint le 5 mars 1815 à l’âge de 81 ans.

Franz Anton Mesmer (1734-1815).

magnétisme animal (1860), est longtemps restée la plus complète. Et puis il y a une tradition plus récente, plutôt du XXe siècle , de biographies écrites par des médecins, des psychiatres, des gens influencés par la psychanalyse. La plus célèbre, La Guérison par l’esprit  (1931), écrite par Stefan Zweig, n’est elle-même qu’une adaptation d’une étude biographique menée par un médecin allemand quelques années plus tôt. D’autres ont suivi, y compris en français L’une d’elles, écrite par le psychiatre français Jean Thuillier avec un certain talent de plume, est facile d’accès, sauf que tout est inventé sans que l’auteur ne le précise

On disposait donc de tout un massif biographique issu d’auteurs aux profils très variés Au milieu, une seule étude biographique, parue en Allemagne en 1941, est l’œuvre d’un historien professionnel L’auteur, Karl Bittel, est allemand… et communiste. Il est devenu plus tard historien officiel de l’Allemagne de l’Est Sa biographie de Mesmer est un travail très sérieux, du moins pour la partie allemande de sa vie La partie française est de seconde main. Au fond, il n’existait donc aucune biographie sérieuse en dehors de celle de Karl Bittel, très ancienne.

Les biographies écrites par les médecins le traitaient-elles de charlatan ou l’encensaient-elles ?

Cela dépend Frank Pattie, par exemple, un psychiatre américain qui a publié une biographie en 1994, ne va pas jusqu’à dire que Mesmer était un charlatan, mais il ne le voit pas honnête pour autant Il rejette complètement le magnétisme animal et considère que la thèse de doctorat où Mesmer l’introduit est un plagiat

Il existe aussi, dans l’historiographie, un genre d’essais centrés sur l’histoire de l’hypnose, du magnétisme animal et de la psychiatrie , plus vaste que celle de Mesmer, mais où il est abordé au passage. Ces ouvrages le présentent plutôt comme un précurseur des psychothérapies. Dans les années  1970, le psychiatre d’origine suisse Henri Ellenberger a ainsi écrit une fresque qui a eu un impact énorme, racontant l’histoire des origines des psychothérapies. Son idée est qu’avec Mesmer et, dans une certaine mesure, le marquis de Puységur, un de ses disciples qui s’est éloigné de lui en développant le « somnambulisme magnétique », on passe de quelque chose qui relevait auparavant de la magie, de la sorcellerie, de l’exorcisme, du religieux, à la médecine et à la science Pour lui, Mesmer cristallise une sorte de rupture épistémologique. Donc, finalement, Mesmer avait toujours été présenté soit comme un charlatan, soit comme un précurseur et, même à la fin du XXe siècle , aucun consensus n’avait émergé

À LIRE

Que sait-on réellement de l’inventeur du magnétisme animal ? Dans son ouvrage Franz Anton Mesmer, le magnétiseur des Lumières, paru chez Armand Colin en juin 2024, l’historien Bruno Belhoste nous livre, au terme d’une longue recherche pour réunir des sources très diverses dispersées dans les bibliothèques et les archives, un portrait inédit et passionnant de cette mystérieuse figure de la médecine du XVIIIe siècle.

parmi les historiens Charles Gillispie, notamment, pensait que Mesmer était un charlatan. Lors de sa conférence en 1980, il a eu d’ailleurs une discussion animée avec Jean-Pierre Peter, un historien de la médecine de l’EHESS qui s’était intéressé aux disciples de Mesmer. Ce fut un vrai dialogue de sourds semblable à celui qui a eu lieu à la fin du XVIIIe siècle entre ceux qui condamnaient Mesmer et ceux qui trouvaient ses idées intéressantes.

Oui, parce qu’il a été condamné dès cette époque, malgré son succès… Sa condamnation en 1784, par des commissions académiques, a été un coup de tonnerre, car il était alors au sommet C’est le moment où, avec quelques disciples, il avait créé la Société de l’harmonie pour enseigner sa doctrine, expliquer comment pratiquer le magnétisme animal et ainsi le diffuser Ce fut un succès mondain. Des gens très importants se sont inscrits , dont des courtisans C’est devenu une affaire politique et le gouvernement a donc décidé de mener une enquête, qu’il a confiée à deux commissions. La plus importante était composée de médecins de la Faculté de médecine et, surtout, de membres de l’Académie des sciences Elles ont rendu un terrible rapport qui condamnait le magnétisme animal en disant que c’était un pur produit de son imagination, sans aucun fondement, que c’était dangereux pour la santé, qu’il y avait des aspects sexuels répréhensibles… Puis l’Académie de médecine l’a condamné à son tour au XIXe siècle. Mais toujours, des gens ont continué à s’y intéresser, y compris des médecins. C’est une histoire très riche et complexe À un moment, des médecins ont décidé qu’il fallait renommer le magnétisme animal, déconsidéré, et l’ont appelé « hypnose » ou « hypnotisme » En fait, c’est la même chose, il y a continuité Plus tard encore, un grand neurologue français, JeanMartin Charcot, a repris ces idées et relancé l’hypnose lors de séances publiques qui ont eu un impact énorme et auxquelles Freud est venu assister…

Vous arriviez donc dans un paysage complexe. Quelle a été votre approche ?

Je suis un historien , spécialiste du XVIIIe siècle, j’ai donc fait une histoire comme je sais faire, documentée et contextualisée, sans porter de jugement sur Mesmer, ce n’est pas mon propos J’ai essayé de comprendre le personnage et ce qu’il a fait, mis en contexte dans son époque et son milieu, en revenant sur les faits et en m’appuyant sur des sources souvent nouvelles Cela m’a permis de beaucoup progresser sur les zones d’ombre. Le résultat est à présent bien plus solide et fait apparaître beaucoup de choses que l’on ignorait.

Quel Mesmer avez-vous rencontré ?

C’était un homme des Lumières, qui n’a rien à voir avec un charlatan Un médecin formé dans une très bonne université pour l’époque Il avait certes une personnalité un peu hors norme, mais sans plus. Et si la théorie et la pratique qu’il a développées sont très particulières, elles s’inscrivent néanmoins dans la médecine de son temps

En disant cela, je me détache de toute une historiographie née à l’époque de Mesmer et qui s’est prolongée jusqu’à nos jours, selon laquelle il se serait inspiré d’une tradition médicale remontant aux XVIe-XVIIe siècles, qui était celle de la magie naturelle, du médecin, astrologue et alchimiste suisse Paracelse Mes recherches suggèrent que Mesmer avait probablement une certaine connaissance de cette tradition, mais que ce n’est pas sa source d’inspiration principale Celle-ci était essentiellement la médecine de son temps, où la neurologie jouait un rôle important S’y ajoutait une vision très originale fondée sur l’idée que l’homme est en lien avec son environnement et avec l’Univers Il croyait en effet en l’existence d’un fluide universel hypothétique agissant sur tous les corps vivants, en particulier sur les humains.

Cette vision a eu un très grand succès au XIXe siècle, au moins en Allemagne, car elle correspondait tout à fait aux idées romantiques du

rapport de l’homme à la nature qui s’y développaient à l’époque et que l’on appelait « naturphilosophie » au début du XIXe siècle Mais cela n’en fait pas plus un Naturphilosopher avant la lettre qu’un disciple de Paracelse

Quelles ont été ses autres inspirations ? Ce sont plutôt des influences exercées par des gens de son temps, comme le philosophe Jean-Jacques Rousseau et le naturaliste Georges-Louis Leclerc, comte de Buffon, qu’il a pu lire même s’il n’était pas un grand lecteur. En fait, Mesmer était un original qui pensait par lui-même. Ce n’était pas un érudit. Il lisait peu mais faisait du théâtre et de la musique Il avait reçu une bonne formation, mais n’était pas non plus un savant On peut dire que sa théorie est sortie de son esprit En revanche, c’était un causeur qui a appris énormément de choses par le contact et la discussion Il gravitait dans le milieu intellectuel et artistique viennois de la fin du XVIIIe siècle, ce que personne n’avait étudié. C’est là qu’il a subi l’influence de Rousseau, avec l’idée que le sentiment joue un rôle très important aux côtés de la raison – et surtout ce que Mesmer appelle « l’instinct »

Quelle a été l’influence de Buffon ?

L’instinct, justement. Tout le monde, ou presque, est passé à côté C’était un peu le

Cette gravure intitulée Mesmer a tous les diables fait partie de la campagne anti-mesmérienne de 1784-1785, qui utilisa principalement le ridicule pour combattre le magnétisme animal. On distingue Franz Anton Mesmer tentant de magnétiser le diable, qui l’emporte, et perdant les sous que ses séances lui ont rapportés, tandis que des malades mécontents jettent les accessoires de Mesmer dans le grand baquet qu’il utilisait pour les cures collectives.

secret de Mesmer Pour lui, l’homme dispose de deux facultés fondamentales du point de vue de son esprit (et même du point de vue neurologique, car Mesmer était très matérialiste) : sa raison et son instinct Avec la première, Mesmer s’inscrit tout à fait dans la théorie du XVIIIe siècle du sensualisme, selon laquelle la raison, qui est le propre de l’homme, ne fait que coordonner les idées à partir des sensations qui viennent du monde extérieur, le tout organisé par le système nerveux Mais il pensait que l’homme est aussi un animal et que, en tant qu’animal, il dispose d’un instinct C’est là que Buffon est important, car il a beaucoup insisté sur l’importance de l’instinct chez les animaux

Les animaux sont des êtres sensibles Ils ont des sentiments, ils souffrent et sont affectueux Ce sont des facultés liées à leur instinct Selon Buffon, l’instinct donne aux animaux une certaine connaissance du monde, qui leur permet de se conserver : ils savent comment manger, se reproduire, etc Mesmer adapte ces idées aux humains : l’homme aussi a un instinct, qui lui donne une connaissance du monde bien supérieure à ce que l’on croit, une connaissance que la civilisation a mise sous le boisseau Cet instinct passe par le fameux fluide universel, via ce que Mesmer appelle le « sixième sens » ou « sens interne ». En donnant ainsi accès au monde extérieur, il assure à l’homme dans l’état de nature – on retrouve Rousseau – les moyens de sa subsistance et de sa conservation Mesmer était favorable au développement chez l’homme de toutes ses facultés instinctives, affaiblies par la civilisation, comme il l’expose dans ses écrits politiques à la fin de sa vie

C’était là le secret de Mesmer. Il faut lire toute son œuvre pour appréhender l’importance de l’instinct dans sa doctrine Ce n’est qu’en 1784 qu’il a commencé à la dévoiler, et personne ne l’a alors compris Finalement, il a fallu attendre son dernier ouvrage, une sorte de grand traité publié en allemand un an avant sa mort , pour qu’il s’explique entièrement. Mais mon hypothèse est que tout ce qu’il a écrit dans cet ouvrage, il l’a mûri bien plus tôt, dès ses années à Vienne C’est pour cela que dans mon livre, j’essaye de retrouver des traces de cette réflexion

Quels indices avez-vous trouvés ?

Il y en a plusieurs. Par exemple , j’étudie les relations de Mesmer avec le sculpteur Franz Xaver Messerschmidt, très connu des historiens de l’art Messerschmidt, qui était un peu fou, a réalisé une série de bustes qu’on appelle « têtes de caractères », aux expressions grimaçantes. Toute une littérature a tenté de les expliquer, jusqu’à aujourd’hui J’ai suivi les traces de quelques historiens de l’art qui en ont proposé une interprétation mesmérienne : j’ai sélectionné pour cela dans le corpus des têtes

Tout porte à penser que Franz Anton Mesmer et le sculpteur Franz Xaver Messerschmidt étaient amis, et que les expériences du médecin ont très probablement influencé l’artiste lorsque ce dernier a créé plusieurs séries de bustes représentant son ami avec différentes expressions, comme celui-ci, nommé Un moteur au nez pointu.

une série particulière que j’explique en essayant de montrer qu’elles expriment l’influence du magnétisme animal et le rôle de l’instinct J’interprète aussi la composition que Mesmer a commandée à Messerschmidt en 1770 pour orner le bassin de son jardin, à Vienne , comme une allusion à l’ Émile de Rousseau. Elle représentait des enfants tombant dans l’eau et que leur mère aide à ressortir. Ils sont mis ainsi à l’épreuve, le but étant de leur apprendre les moyens de conservation, un thème cher à Rousseau et une grande idée de Mesmer, liée à la médecine néohippocratique de l’époque, selon laquelle c’est la nature qui soigne, et non les hommes

Aux sources du magnétisme animal, il y a aussi l’influence des astres sur le corps humain, sujet de sa thèse de doctorat. Était-il alors féru d’astrologie ?

Je pense que non. Il avait plutôt une vision très physique du magnétisme animal Dans sa thèse de médecine, en 1766, il précise qu’il ne s’agissait pas d’astrologie Il a commencé d’ailleurs par une partie où il expose les théories de Newton Ces idées sur l’influence des astres

©
Musée du Belvédère,
Vienne
(CC
BY-SA
4.0)

sur la santé n’étaient pas considérées comme farfelues à l’époque, même si elles étaient un peu à la marge

Après il y a eu les aimants. Certains y ont vu le magnétisme de Paracelse, mais c’est une reconstruction de penser que Mesmer s’en est inspiré Les méthodes de cure par aimant étaient alors revenues à la mode. C’était l’époque de l’électricité médicale et on se disait qu’on allait pouvoir agir avec les aimants comme avec l’électricité Pour Mesmer, on tombait malade à cause d’un blocage de l’action d’un fluide universel, qu’il comparait aux fluides lumineux et électriques étudiés par les physiciens. Son idée était donc que les aimants pouvaient stimuler l’action du fluide universel En fait, il les a vite abandonnés, mais cela l’a aidé à forger le nom de « magnétisme animal »

Pourquoi a-t-il abandonné les aimants ?

Il s’est dit qu’il pouvait en fait doter de magnétisme animal n’importe quoi – pas seulement du fer, mais aussi un morceau de papier, de l’eau… En disant cela, il révélait que, pour lui, le magnétisme animal n’avait rien à voir avec celui des aimants Ceux-ci étaient juste un moyen de stimuler l’action du fluide universel. Il pensait que toute personne peut concentrer en lui du fluide et le transmettre à un patient en le touchant avec la pointe d’une baguette ou simplement à distance. Il avait donc une vision très physique de ce qu’on appellera plus tard l’hypnose, mais il disposait aussi – ce qu’il cache jusqu’en 1784 – d’une explication « neuropsychologique » (en termes modernes) de ses effets liée aux facultés instinctives que possèdent les hommes comme les animaux.

Quel est le rôle de l’harmonie dans sa théorie ?

Pour lui, fondamentalement, quand on est en bonne santé, c’est que les organes fonctionnent de manière harmonieuse Quand on tombe malade, les organes ne sont plus en harmonie. Cette harmonie est liée à l’action du fluide Donc il y a une relation entre l’harmonie intérieure – celle du corps – et celle, générale, du monde, par l’intermédiaire de ce fluide qui baigne l’ensemble de l’Univers. Là encore, on pourrait penser que ces idées sont inspirées de Paracelse, qui voyait en l’homme un microcosme en harmonie avec l’Univers –  le macrocosme. Mais je pense plutôt que c’est la musique, si importante pour Mesmer, qui l’a inspiré et l’a amené à accorder de l’importance à la notion d’harmonie Cette importance a grandi encore à la fin de sa vie, car ce n’est plus alors seulement à l’harmonie du corps et du monde qu’il s’attache, mais aussi à l’harmonie sociale, l’harmonie entre les hommes, fondement de la théorie politique qu’il propose. Dans cette théorie, il imagine une société naturellement harmonieuse Cela passe par

l’éducation : les enfants doivent être éduqués en développant leur instinct, de façon qu’ils soient pleinement en harmonie avec l’Univers Il faut aussi que la société elle-même soit harmonieuse : bien organisée, avec des lois, ce qui l’amène d’ailleurs à devenir républicain sous la Révolution française

Finalement, Mesmer était-il un bon médecin ?

La médecine ne soignait personne à l’époque C’est anachronique, mais on pourrait dire que toute la discipline était charlatanerie La médecine actuelle en a retenu très peu de choses, que ce soient des théories, des

Mesmer avait une vision

très physique de ce qu’on appellera plus tard l’hypnose £

méthodes de soins ou la définition d’une maladie… Dans ce contexte, oui, Mesmer était un assez bon médecin au sens néohippocratique, par son idée de laisser agir la nature, mais aussi parce que le magnétisme animal pouvait aider à déclencher des crises Or, dans la théorie d’Hippocrate, pour se soigner il fallait passer par une crise , c’était un processus naturel Mesmer avait par ailleurs été bien formé et connaissait très bien les théories médicales, dont il était capable de discuter avec les autres médecins Il avait aussi un don de suggestion et était visiblement très bon pour gagner la confiance de ses patients

BIBLIOGRAPHIE

B. Belhoste, Franz Anton Mesmer, le magnétiseur des Lumières, Armand Colin, 2024.

B. Belhoste, Paris savant. Parcours et rencontres au siècle des Lumières (2e édition), Armand Colin, 2022.

B. Belhoste, Franz Anton Mesmer : magnétiseur, moraliste et républicain, Annales historiques de la Révolution française, 2018.

B. Belhoste et N. Edelman (dir.), Mesmer et mesmérismes. Le magnétisme animal en contexte, Omniscience, 2015.

Mesmer n’était pas un escroc Ses théories étaient sans doute inexactes, mais on ne peut pas le lui reprocher, ce serait un anachronisme complet. Il a fait apparaître des phénomènes qui se sont parfois confirmés comme exacts, notamment autour de l’inconscient, car l’instinct est une façon de prendre celui - ci en compte : pour lui, de multiples phénomènes comme le somnambulisme, la folie, les rêves, l’hypnose sont liés et sont des manifestations des facultés instinctives Quand on est éveillé, on est en relation avec le monde par nos cinq sens, liés à la capacité de raison Mais quand on dort, les cinq sens ne fonctionnent plus de la même manière, et le sixième sens, qui était caché pendant l’éveil, prend le dessus et nous fait entrer différemment en contact avec le monde. Ces explications sont assez grossières, mais elles ont inspiré des savants n Propos recueillis par Marie-Neige Cordonnier

L’AUTEUR

HERVÉ LE GUYADER professeur émérite de biologie évolutive à Sorbonne Université, à Paris

LE COUP D’AVANCE DU COUCOU

Les coucous parasitent la nichée d’autres oiseaux, mais ces derniers se défendent… au point d’accélérer la spéciation des premiers.

Tout le monde a entendu le coucou, mais rares sont ceux qui l’ont vu Et pour cause , l’oiseau préfère la pénombre En France, on n’en connaît que deux espèces, le coucou gris (le plus répandu) et le coucou geai en climat méditerranéen Et même si les mâles chantent à tue-tête à leur retour de migration, au début du printemps, marquant ainsi leur territoire et appelant les femelles, ils restent cachés dans les feuillages. Mettraient-ils toutes les chances de leur côté pour installer leur progéniture ? Les deux espèces de coucou pratiquent en effet le parasitisme de couvée : la femelle pond un œuf dans le nid d’un oiseau d’une autre espèce –  un petit passereau (pipit maritime, rousserolle effarvatte, rougegorge , accenteur mouchet , troglodyte mignon…) pour le coucou gris, un corvidé (corneille, pie…) pour le coucou geai

Tous les oiseaux de la famille des cuculidés, dont font partie les coucous, ne procèdent pas de cette façon. Certains

ne sont pas parasites, d’autres le sont occasionnellement, comme le géocoucou de Californie (Geococcyx californianus), rendu célèbre par le dessin animé américain où Bip Bip fait des misères au coyote. Le parasitisme de couvée varie et impose des coûts différents à l’hôte. Les coucous expulseurs – ceux dont l’oisillon chasse du nid l’ensemble de la couvée de l’hôte – infligent des dommages bien plus importants que les non-expulseurs, dont l’oisillon est élevé avec la couvée de l’hôte. Naturellement, l’espèce parasitée tente de se défendre et se met en place une coévolution hôte-parasite. Les biologistes considèrent que de telles coévolutions sont susceptibles d’accélérer la diversification et de participer à la richesse de la biodiversité. Différents modèles le prouvent, mais peu de données de terrain permettent d’étudier une coévolution en cours. C’est pourquoi le récent travail de Naomi Langmore, de l’université nationale

Malgré leur apparence très différente, un mâle mérion superbe apporte de la nourriture à un coucou de Horsfield juvénile. Difficile de lutter en effet contre les leurres que les coucous du genre Chrysococcyx ont développés pour parasiter les nids d’autres espèces…

australienne, à Canberra, et ses collègues sur des coucous australiens dépasse le strict intérêt zoologique : on y assiste à une évolution en cours entre hôtes et coucous expulseurs.

IMITATEUR-NÉ

Pour comprendre l’originalité des coucous australiens, revenons au coucou gris. La femelle pond un œuf dans un nid contenant une ponte en l’absence des parents. Elle enlève un œuf de l’hôte, si bien que le nombre d’œufs du nid reste constant. La taille de l’œuf du coucou, minuscule par rapport à celle de l’animal, égale celle des œufs des passereaux, et son ornementation, très variable – on

©
Mark Lethlean

EN CHIFFRES

92

Les cuculidés, famille d’oiseaux qui comporte entre autres les coucous, comptent 148 espèces réparties en 5 sous-familles. Parmi elles, les cuculinés – les oiseaux pratiquant le parasitisme de couvée – rassemblent 92 espèces, dont 13 du genre Chrysococcyx.

3 000

Les coucous gris hivernent dans les savanes tropicales au sud du Sahara et dans l’est de l’Afrique. Lors de leur migration printanière vers l’Europe, ils parcourent de longues distances d’une seule traite pour franchir le Sahara, atteignant parfois 3 000 kilomètres.

20 À 30 %

Sur les 10 à 30 œufs pondus par une femelle coucou gris en un printemps, seuls 20 à 30 % atteindront l’âge adulte.

Coucou de Horsfield (Chrysococcyx basalis)

Longueur du bec à la queue : jusqu’à 17 cm

Mérion superbe (Malurus cyaneus)

Longueur du bec à la queue : jusqu’à 15 cm

observe jusqu’à quinze types différents en Europe –, imite souvent celle d’un des hôtes courants. Le coucou éclôt très tôt et expulse les autres oisillons en les repoussant au bord du nid. Les hôtes, qui n’ont plus de petits pour comparer, nourrissent alors l’intrus même s’il ne ressemble pas à leur progéniture. Mais tout ne se passe pas toujours aussi bien. Dès que les hôtes soupçonnent une quelconque intervention, ils abandonnent la portée. En fait, le succès reproducteur du coucou est faible. Il y a donc bien une contre-sélection des hôtes, et le coucou gris mise sur la diversité de ces derniers.

Le genre étudié par l’équipe australienne, Chrysococcyx , présente une

stratégie toute différente : il perfectionne le mimétisme non seulement des œufs, mais aussi des oisillons en réponse au rejet par les hôtes. Le mimétisme de l’œuf (taille, forme, ornementation) dépend génétiquement de la femelle. Mais celui des poussins porte sur des traits complexes (taille, couleur de la peau, du duvet, du bec, distribution des plumes, appel…) hérités des deux parents. Il ne peut donc se stabiliser que si mâles et femelles spécialisés sur un même hôte s’apparient. À l’inverse, les appariements d’oiseaux spécialisés sur des hôtes différents aboutissent généralement à un échec reproducteur.

Une telle sélection conduit à une diversification génétique du coucou parasite selon les espèces hôtes respectives, chaque sous-groupe mimant les œufs et les poussins de son hôte. On devrait donc assister à une genèse d’espèces spécifiques de l’hôte, ce que suggère le fait que, chez les cuculinés – la sous-famille des cuculidés qui pratique le parasitisme de couvée –, la fréquence de spéciation des coucous expulseurs est bien plus élevée que chez les non-expulseurs. C’est ce que l’équipe australienne a voulu tester.

Elle s’est intéressée au coucou menu (Chrysococcyx minutillus) , un cuculiné qui parasite plusieurs espèces de gérygones, de petits passereaux courants en Australie et dans l’ouest du Pacifique qui rejettent de leurs nichées les oisillons étrangers. Le mimétisme des petits des coucous a donc été sélectionné.

UNE SPÉCIATION EN DIRECT

En Australie, deux sous-espèces du coucou menu se partagent le même territoire, mais ne parasitent pas les mêmes nids. La sous-espèce Chrysococcyx minutillus russatus s’en prend à la gérygone enchanteresse,

Le coucou menu présente treize sousespèces avec, en Australie, trois morphes reconnaissables par de subtiles différences du plumage. L’équipe s’est focalisée sur deux de ces morphes dont les territoires se recouvrent et, par un travail de terrain d’une grande difficulté, a déterminé leurs hôtes préférentiels.

LA FEINTE DU COUCOU MENU

La sous-espèce C. m. russatus parasite la gérygone enchanteresse, à dominante jaune, tandis que la sous-espèce C. m. minutillus parasite la gérygone à bec fort, plutôt brune. Les oisillons de ces hôtes suivent ces différences de coloration et, comme attendu, les poussins des sousespèces du coucou menu font de même (voir l’encadré ci-dessus). De plus, une écoute attentive des chants fait émerger une subtile différence entre les deux sousespèces. C’est la preuve que, bien qu’elles partagent le même territoire, elles ne s’hybrident pas ou peu. Comme leurs ADN mitochondriaux sont très proches (l’ADN contenu dans les mitochondries, les compartiments qui fournissent de l’énergie aux cellules), la séparation des deux sousespèces paraît récente et réversible. Les défenses de l’hôte conduisent donc à une spécialisation du coucou

à dominante jaune, un peu comme une mésange charbonnière, tandis que la sous-espèce C. m. minutillus se concentre sur la gérygone à bec fort, plutôt brune comme une fauvette des jardins. Les oisillons de ces hôtes

Oisillons

suivent ces di érences de coloration : ceux du premier ont la peau et le duvet pâles, ceux du second, la peau et le duvet sombres. Les petits des deux sous-espèces du coucou aussi !

expulseur, aux prémices d’une spéciation. Comprendre de tels processus de diversification coévolutive est crucial aujourd’hui, alors que le changement climatique brise des relations interspécifiques fortes et engendre de nouvelles interactions. Ainsi, en 2006, Alan Pounds, écologue à la réserve biologique de Monteverde, au Costa Rica, et ses collègues ont découvert l’une des principales causes de l’hécatombe de grenouilles arlequins (genre Atelopus) au Costa Rica et en Colombie : un champignon pathogène est devenu plus virulent car, sous l’effet du réchauffement climatique, sa température optimale de croissance a été atteinte. On pensait alors que les deux tiers des 110 espèces de grenouilles arlequins avaient disparu. Pourtant, il y a deux ans, l’équipe de Luis Coloma, directeur du centre Jambatu de conservation des amphibiens, à Quito, en Équateur, en a retrouvé des spécimens, prouvant que les grenouilles résistent au champignon et n’ont pas complètement perdu cette course aux armements. Pour autant, la diversité du genre Atelopus a beaucoup diminué. Réussira-t-il à l’accroître, par exemple en utilisant différentes stratégies de défense ? Sinon, il risque de ne pas être assez résilient face à une nouvelle attaque pathogène… n

Hervé Le Guyader a notamment publié : Ma galerie de l’évolution (Le Pommier, 2021).

BIBLIOGRAPHIE

N. E. Langmore et al., Coevolution with hosts underpins speciation in brood-parasitic cuckoos, Science, 2024.

K. E. Jaynes et al., Harlequin frog rediscoveries provide insights into species persistence in the face of drastic amphibian declines, Biol. Conserv., 2022.

J. N. Thompson, The coevolving web of life, Am. Nat., 2009.

Gérygone enchanteresse
Coucou menu
Gérygone à bec fort
Karyne Wee/Shutterstock (coucou menu)
© Naomi Langmore, Hee-Jin Noh, Rose Thorogood, Alfredo Attisano
(oisillons)
© Imogen Warren/Shutterstock (gérygones)

La science expliquée par ceux qui la font

MAGAZINE / HORS-SÉRIE / DIGITAL / 25+ ANS D’ARCHIVES

Choisissez votre formule d’abonnement pourlascience.fr/abonnements/

Édition française de Scientific American

La simulation multiphysique favorise l’innovation

Pour innover, les ingénieurs ont besoin de prédire avec précision le comportement réel de leurs designs, dispositifs et procédés. Comment ? En prenant en compte simultanément les multiples phénomènes physiques en jeu.

scannez-moi pour en savoir plus comsol.fr/feature/multiphysics-innovation

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.