« Eutrophisation » ou « Impact sur l’eau » : Ptot 0,007 kg/tonne
Imprimé en France
Maury Imprimeur SA Malesherbes N° d’imprimeur : 279055
François Lassagne Rédacteur en chef
QUESTIONS EXISTENTIELLES
Depuis 1960, le célèbre programme Seti (Search for extra-terrestrial intelligence) darde l’oreille de ses radiotélescopes vers le ciel, à l’écoute d’hypothétiques signatures électromagnétiques de civilisations extraterrestres avancées. Parmi les astronomes poursuivant cette quête, certains s’attendent à ce que de telles signatures émanent non pas d’êtres de chair, mais de créatures artificielles, l’évolution (biologique, puis technologique et culturelle) devant tendanciellement mener à un univers « postbiologique ».
Une autre hypothèse, vivace dans la communauté du programme Seti, dont l’historienne des sciences Rebecca Charbonneau retrace les liens avec les angoisses existentielles de la guerre froide, est celle du Grand Filtre. Des transitions évolutives hautement improbables devraient se produire pour engendrer une civilisation repérable par sa signature technologique. L’humanité a-t-elle déjà franchi ce filtre évolutif, ou est-il devant elle (et avec lui le risque de ne pas y survivre, par autodestruction – nucléaire, climatique…) ?
Nul ne sait ce que nous réservera notre évolution. « Je ne suis pas capable de dire où va l’évolution », reconnaît le systématicien Guillaume Lecointre. À qui nous avons exposé les étonnants travaux de recherche présentés dans ce numéro, qui s’attachent à mettre en évidence comment les processus évolutionnaires – sur Terre comme ailleurs – sont susceptibles de se mettre en place. Des expériences de microfluidique, d’un côté, des automates cellulaires de nouvelle génération analysés par l’IA, de l’autre, font apparaître des processus de diversification et de sélection. À propos de ces derniers travaux, Guillaume Lecointre estime qu’il est probable que se manifeste bien là « une forme d’évolution non biologique ». Ces recherches originales nous éclairent assurément sur les prémices des mécanismes primordiaux du vivant et, par là, sur l’origine de la vie. Laissent-elles entrevoir, par extension, la possibilité de l’émergence d’intelligences non biologiques ? La réponse viendra peut-être d’un discret signal présent dans les données reçues par un radiotélescope… n
s
OMMAIRE
ACTUALITÉS
P. 6
ÉCHOS DES LABOS
• Un pas vers un système de traduction universel ?
• Les moustiques envahissants coûtent cher
• La vraie naissance de l’équitation
• Titan fait des vagues
• Une nouvelle forme de lymphocytes T identifiée
• De l’ordre chez les choux
P. 16
LES LIVRES DU MOIS
P. 18
DISPUTES
ENVIRONNEMENTALES
El Niño a bon dos
Catherine Aubertin
P. 20
LES SCIENCES À LA LOUPE
Les « intermédiaires » de la recherche
Yves Gingras
GRANDS FORMATS
P.
50
GÉOLOGIE MARINE
DES TSUNAMIS DANS UN GRAIN DE SABLE
Éric Chaumillon
Certains tsunamis sont provoqués par des séismes de périodicité connue. Retrouver les traces d’un tsunami ancien et du séisme associé permettrait donc d’évaluer sa période de retour L’analyse de grains de sable dans les Petites Antilles ouvre aujourd’hui cette perspective…
Les portraits des contributeurs sont de Seb Jarnot
Ce numéro comporte un encart Pure Pepper posé sur le magazine et diffusé sur l’ensemble des abonnés et un courrier de réabonnement posé sur le magazine, sur une sélection d’abonnés
SUPERLOURDS BOXENT HORS CATÉGORIE
Stephanie Pappas
Avec plus de cent protons, les atomes extrêmes bousculent l’ordre établi par le tableau périodique des éléments. Le défi d’étudier leurs propriétés chimiques révèle de nombreuses surprises
P. 64
ÉCOLOGIE
AGRICULTURE ET POLLINISATEURS : VERS UNE NOUVELLE ALLIANCE ?
Emmanuelle Porcher, Clélia Sirami et Thibault Gandara
La conservation des pollinisateurs est susceptible de largement bénéficier à l’agriculture. C’est ce que prouvent de récents travaux, qui révèlent les multiples interactions de ces animaux et des productions agricoles.
P. 72
HISTOIRE DES SCIENCES
SETI : ENTRE GUERRE FROIDE ET QUÊTE
EXISTENTIELLE
Rebecca Charbonneau
La recherche d’intelligence extraterrestre a incarné, à bien des égards, les tensions des années 1960. La course aux armements nucléaires a fortement imprégné ses réflexions
N° 562 / Août 2024
P. 22 COMMENT L’ÉVOLUTION A ÉMERGÉ
P. 24
CHIMIE
LES PREMIERS PAS DE L’ÉVOLUTION
EN LABORATOIRE
Philippe Nghe et Grégoire Danger
Recréer sur une puce de quelques centimètres les conditions minimales pour qu’émerge une évolution de type darwinien, mission impossible ? Pas sûr…
P. 34
INFORMATIQUE
QUAND L’IA EXPLORE LES PRÉMICES
D’UNE VIE ARTIFICIELLE
Clément Moulin-Frier, Gautier Hamon et Pierre-Yves Oudeyer
Comment les éléments d’un environnement, interagissant localement, peuvent-ils s’autoorganiser pour former de premiers individus, puis se diversifier ? Une nouvelle génération d’automates cellulaires, couplée à des algorithmes d’IA , ouvre des pistes inédites de réponse.
P. 44
ÉPISTÉMOLOGIE
« IL FAUT PENSER L’ÉVOLUTION
AU SENS LARGE »
Entretien avec Guillaume Lecointre
Qu’est-ce que l’évolution et comment l’appréhende-t-on aujourd’hui, avec le recul ? Portrait d’un phénomène dont on ne cesse de renouveler les contours
RENDEZ-VOUS
P. 80
LOGIQUE & CALCUL L’HYPERCALCUL
EST-IL
PARADOXAL ?
Jean-Paul Delahaye
Les mathématiques autorisent des calculs infinis, et certains champs de la physique semblent, eux aussi, en avoir besoin
Mais quel sens donner à de telles opérations ?
P. 86
ART & SCIENCE
Des stèles d’exception
Loïc Mangin
P. 88
IDÉES DE PHYSIQUE
Le secret du chant des sirènes
Jean-Michel Courty et Édouard Kierlik
P. 92
CHRONIQUES DE L’ÉVOLUTION
D’où viennent les baobabs ?
Hervé Le Guyader
P. 96
SCIENCE & GASTRONOMIE
Des roux et des couleurs
Hervé This
P. 98
À PICORER
COMMENT L’ÉVOLUTION A ÉMERGÉ
Comme le suggère le systématicien Guillaume Lecointre (p. 44), il n’y a pas de vivant sans évolution, car celle-ci contribue à le définir. Comprendre comment les processus évolutionnaires se sont mis en place, c’est donc comprendre, aussi, comment la vie a émergé. De nouveaux outils facilitent aujourd’hui l’exploration de ces mécanismes primordiaux. Des expériences de microfluidique (p. 24), d’un côté, des automates cellulaires de nouvelle génération analysés par l’IA (p. 34), de l’autre, font apparaître des processus de diversification et de sélection. Ces prémices d’une évolution non biologique éclairent le vivant.
Les premiers pas de l’évolution en laboratoire
Recréer sur une puce de quelques centimètres les conditions minimales pour qu’émerge une évolution de type darwinien, mission impossible ? Pas sûr…
C’ est un fait. Trouver de la matière organique dans notre galaxie et dans notre Système solaire n’est pas un problème Qu’il s’agisse d’analyses de météorites, comètes ou astéroïdes, ou d’expériences en laboratoire recréant des mélanges moléculaires primitifs pour reconstituer la matière provenant de ces corps, la conclusion est sans appel Plusieurs millions de molécules organiques – c’est-àdire comportant des atomes de carbone et d’hydrogène, voire d’autres comme l’oxygène ou l’azote – sont produites lors des réactions ayant cours durant la formation d’un système planétaire Et les observations de différents environnements astrophysiques montrent que la matière organique est bien présente dans de nombreux objets de notre galaxie, des nuages moléculaires denses à l’origine des systèmes planétaires jusqu’à la surface de planètes de notre Système solaire et de leurs satellites
Du fait de cette abondance de matière organique, on pourrait penser que la vie telle qu’on la connaît sur Terre – à savoir la capacité de se reproduire et d’évoluer –devrait être répandue. Cependant, les missions spatiales qui sont allées à la rencontre de différents objets de notre Système solaire n’ont rapporté ni preuve ni même indice de la présence de systèmes vivants ailleurs que sur notre planète. Nous essayons donc de comprendre, en alliant nos compétences, si d’autres environnements sont susceptibles d’avoir mené à l’émergence de systèmes chimiques présentant les mêmes propriétés que la vie terrestre Et ainsi, enfin, de répondre à cette question fondamentale : la vie existe-t-elle ou a-t-elle existé ailleurs que sur Terre, ou apparaîtra-t-elle un jour sur une autre planète ?
L’abondance de matière organique dans notre galaxie suggère que celle-ci est insuffisante, à elle seule, pour produire la vie Même si, essentiellement, les systèmes vivants l’utilisent, la vie n’est pas que la somme des éléments organiques qui la composent Elle requiert qu’un ensemble de molécules interagissent pour constituer des systèmes chimiques présentant une forme d’organisation, en interaction forte avec leur environnement proche C’est pourquoi nous pensons que la question qui se pose véritablement n’est pas de comprendre comment des briques
L’ESSENTIEL
> Un organisme vivant est un système chimique autoentretenu capable d’évolution au sens darwinien du terme.
> Pour comprendre comment celle-ci est apparue, une piste consiste à rechercher les conditions minimales nécessaires à son émergence.
> La microfluidique permet de tester une multitude d’hypothèses en parallèle dans des milliers d’espaces microscopiques confinés mimant des milieux prébiotiques.
> Des expériences commencent ainsi à produire des formes rudimentaires d’évolution.
LES AUTEURS
PHILIPPE NGHE maître de conférences à l’ESPCI Paris - PSL
GRÉGOIRE DANGER professeur de chimie à l’université d’Aix-Marseille
BIOGRAPHIE
Grégoire Danger dirige l’équipe Astro du laboratoire de Physique des interactions ioniques et moléculaires (Piim) à l’université d’Aix-Marseille. Avec ses collègues, il recrée des mélanges moléculaires et étudie leurs propriétés pour essayer de comprendre l’origine des objets de notre Système solaire et de leur matière organique.
Philippe Nghe dirige l’équipe Biophysique et évolution du laboratoire Chimie biologie innovation de l’École supérieure de physique et chimie industrielles de la ville de Paris. Il tente d’appréhender l’émergence de l’évolution en partant de molécules déjà relativement complexes, issues des processus étudiés au laboratoire Piim.
Réseau de microcanaux permettant d’alimenter des chambres de réactions chimiques en continu. Chaque chambre mesure quelques millimètres de côté.
du vivant se forment, mais plutôt comment des mélanges moléculaires d’une grande diversité réagissent pour présenter des caractéristiques de systèmes vivants, c’est-à-dire la capacité de se reproduire et d’évoluer au sens darwinien du terme.
QUELLES CONDITIONS POUR ÉVOLUER ?
Cette forme d’évolution se met en place lorsqu’une combinaison de facteurs est présente : la reproduction avec transmission, les variations héritables et la sélection fondée sur ces variations , qui entraîne la domination , dans les populations, des entités les plus aptes à résister et à se multiplier Puisque la matière organique est susceptible de se former dans de nombreux environnements, notre hypothèse centrale est que ce sont les conditions physiques de ces environnements qui orientent la chimie. C’est ce que nous voyons dans notre laboratoire à Marseille , où les expériences simulant les environnements sur Titan , un satellite de Saturne , montrent une chimie riche, mais différente de celle des océans ou des simulations de la surface d’Europe, une lune de Jupiter, ou encore des comètes ou astéroïdes de notre système planétaire Nous pensons que l’environnement de la Terre primitive était particulier, en ceci qu’il abritait non seulement des conditions nécessaires à la présence de matière organique, mais aussi d’autres qui permettaient une autoorganisation de cette matière et l’émergence d’une chimie propice à l’apparition d’une évolution de type darwinien
Une condition essentielle est, selon nous, la présence d’une source d’énergie – par exemple
des photons dans le domaine du visible ou de l’ultraviolet – qui active les molécules organiques , augmentant ainsi leur réactivité et donc leur capacité d’autoorganisation. Dans cette vision , les réactions produites maintiennent ou augmentent le niveau d’organisation des molécules tout en libérant des déchets chimiques dans l’environnement. Une telle dynamique est compatible avec les principes de la thermodynamique, la branche de la physique qui décrit l’évolution des grands ensembles de molécules à l’aide de grandeurs macroscopiques, comme la température ou la pression En particulier, elle est en accord avec le second principe, qui stipule que tout système voit son désordre – mesuré par une grandeur physique, l’« entropie » – augmenter au fil du temps Certes, prise seule, l’organisation de molécules en systèmes chimiques semble aller à l’encontre de ce principe, car organiser les molécules augmente l’ordre. Mais il est tout à fait plausible que le couplage de tels systèmes avec l’environnement assure une augmentation globale de l’entropie du couple : le système chimique consomme de l’énergie pour son fonctionnement et le maintien ou l’augmentation de son organisation (diminution de l’entropie), mais il rejette des produits plus stables dans l’environnement (augmentation de l’entropie).
Une autre condition essentielle est la capacité des systèmes à se reproduire En termes chimiques, on parle d’« autocatalyse ». Lors d’une catalyse simple, un catalyseur extérieur à la réaction accélère celle-ci et est récupéré à la fin Le nombre total de catalyseurs est donc conservé Dans un processus autocatalytique, les produits de la réaction sont les catalyseurs : ce sont eux qui favorisent leur propre formation à partir de ressources, si bien que leur nombre augmente C’est pour cette raison qu’il s’agit de l’analogue chimique de la reproduction.
Un système autocatalytique ouvert , qui consomme des composés présents dans l’environnement et y rejette des produits de réaction, est ainsi capable de maintenir son état constant, grâce à un équilibre dynamique entre dégradation et régénération , mais aussi de croître si les conditions le permettent, voire de se diviser si sa géométrie le structure en un compartiment physique Or c’est en croissant, c’est-à-dire en restant dans un état hors équilibre où il consomme et produit continûment des composés chimiques, qu’il est susceptible d’entrer en concurrence avec d’autres systèmes pour l’utilisation des ressources. Une nouvelle question se dessine donc quant à la quête des origines de la vie Quels environnements permettraient l’apparition de systèmes chimiques capables de rester loin de leur équilibre et de se reproduire, deux caractéristiques susceptibles de mener à l’émergence
Chacune est constituée de petites gouttes d’eau (dans l’huile) contenant une combinaison unique de fragments ARN WXY et une étiquette ARN unique.
DES RÉACTIONS AUTOCATALYTIQUES
DANS DES GOUTTES
Pour comprendre quels types de réseaux de réactions autocatalytiques seraient susceptibles de faire émerger des propriétés de variation, reproduction di érentielle et hérédité, les auteurs ont créé plus de 16 000 mélanges distincts d’ARN dans des gouttes d’eau en suspension dans de l’huile. Chacune servait de microréacteur reconstituant une sorte de soupe primitive miniature, isolée des autres. En séquençant les ARN produits, ils ont retracé la dynamique de chaque réaction, goutte par goutte, grâce à un système d’étiquetage.
Incubation
WXY
ARN WXY avec terminaisons aléatoires
WXY
Fusion des gouttes
Toutes les gouttes sont injectées dans un dispositif microfluidique. Un champ électrique déclenche la fusion de une à cinq petites gouttes avec une grosse, par électrocoalescence.
Production d’une émulsion Z
Ses gouttes d’eau (dans l’huile), plus grosses, contiennent des fragments d’ARN Z.
Préparation d’une émulsion de codes-barres
Division des gouttes WXYZ
Les gouttes passent dans un dispositif microfluidique qui les scinde en petites gouttes.
De grosses gouttes d’eau (dans l’huile) sont produites. Chacune contient une bille d’hydrogel recouverte d’une molécule d’ADN spécifique, le « code-barres », ainsi que des substances qui déclenchent la transcription inverse des ARN en ADN.
Association d’un code-barres à chaque petite goutte WXYZ
Par électrocoalescence, chaque petite goutte WXYZ fusionne avec une autre portant un code-barres.
ARN WXYZ et étiquettes ARN spécifiques de la goutte
Les gouttes obtenues incubent pendant une heure à 48 °C. Dans chacune, des ARN WXYZ se forment et catalysent la formation d’autres ARN WXYZ.
Transcription et identification
Dans chaque goutte obtenue, les ARN WXYZ et les ARN étiquettes sont convertis en ADN et le code-barres s’associe à chaque brin obtenu.
Séquençage et analyse
Toutes les gouttes sont rassemblées et l’émulsion est brisée. L’ADN libéré est séquencé et analysé. Les combinaisons uniques de codes-barres et d’étiquettes permettent de déterminer dans quelle goutte un ARN WXYZ a été produit.
Goutte 1
Goutte 2
Goutte 3
ADN WXYZ et étiquettes ADN spécifiques de la goutte
ARN
ARN
ARN WXY
ARN Z
d’une sélectivité, et donc d’une évolution de type darwinien ? Cette question, ce sont deux chimistes, Robert Pascal, alors à l’université de Montpellier, et Addy Pross, à l’université BenGourion du Néguev, en Israël, qui l’ont formulée au début des années 2010 en s’appuyant sur une approche théorique de l’origine de la vie et sur les dernières découvertes en chimie des systèmes Elle a complètement modifié notre vision du problème.
LES PROCESSUS, PLUS IMPORTANTS QUE LES MOLÉCULES
À l’époque – et aujourd’hui encore –, la plupart des recherches en astrobiologie et notamment en chimie prébiotique se focalisaient sur la compréhension de l’émergence des biomolécules (par exemple les protéines, les ARN ou les lipides), des fonctionnalités qu’on leur connaît et de leurs possibles interactions Nous-mêmes nous intéressions alors à comprendre comment, dans un environnement aqueux représentatif de ceux de la Terre primitive, nous pouvions activer les acides aminés (les constituants des protéines) pour obtenir une première phase d’autoorganisation et mener à la formation de premiers peptides ( des chaînes d’acides aminés ). Cependant , nombre de ces recherches – y compris les nôtres – tendaient à diriger les conditions environnementales pour mener à des résultats répondant aux questions posées.
Nous nous focalisons sur les conditions nécessaires à l’émergence d’une sélectivité £
L’approche théorique de Robert Pascal et Addy Pross nous a poussés à aller au-delà des simples formations de molécules et des conditions propices à leur apparition. Depuis, nous pensons que la notion de molécule prébiotique ne doit pas être définie uniquement vis-à-vis de sa nature (s’agit-il ou non d’une brique du vivant ?), mais doit aussi prendre en compte son environnement et la capacité de celui-ci à amorcer un processus d’autoorganisation Reste à
déterminer quels sont, concrètement, les paramètres minimaux nécessaires à un environnement pour qu’une chimie prébiotique y émerge C’est pourquoi nous développons une nouvelle approche expérimentale visant à comprendre l’émergence des propriétés qui caractérisent les systèmes vivants, à savoir la reproduction des entités et leur capacité d’évolution Notre point de départ est la diversité moléculaire qui a été et est présente dans de nombreux environnements, mais nous inversons le problème. Nous nous focalisons non plus sur la chimie qui aurait mené aux biomolécules , mais sur les conditions environnementales nécessaires à l’émergence d’une sélectivité au sein de leur diversité susceptible de conduire à l’apparition de systèmes chimiques particuliers En effet, il est tout à fait possible que des molécules et des conditions environnementales distinctes mènent à l’émergence d’une sélectivité par des processus identiques. Pour comprendre comment les conditions d’un environnement impactent l’évolution d’une diversité moléculaire, il faut tester un nombre important de paramètres. Pour cela, nous utilisons la microfluidique, qui nous permet de paralléliser les expériences. La microfluidique est la science des écoulements à des échelles caractéristiques allant du micromètre au millimètre Les techniques de microfabrication, issues de la microélectronique, offrent la possibilité de réaliser des dispositifs de canaux et de chambres microfluidiques à façon. Sur une même puce de quelques centimètres de côté, on est ainsi capable de produire des milliers, voire des millions de « réacteurs chimiques » miniaturisés – des espaces séparés les uns des autres, comme de petites chambres, des canaux, ou encore des gouttelettes, connectés à diverses sources de composés chimiques d’intérêt prébiotique et où se produiront parallèlement des réactions. Il devient alors possible d’introduire des variations d’acidité, de salinité, de concentration de certains composés simples, comme le dioxyde de carbone, et d’examiner l’impact de ces variations sur chaque réacteur.
DES MILLIERS DE MONDES À ARN DANS DES GOUTTES
À l’École supérieure de physique et de chimie industrielles de la ville de Paris, nous avons utilisé cette technique pour avancer dans notre quête des conditions propices à l’apparition de capacités évolutives à partir de réactions autocatalytiques Pour cela, nous avons fait un petit bond dans le temps prébiotique et la complexité moléculaire en partant non pas de petites molécules organiques comme des acides aminés, mais de petites chaînes d’ARN déjà formées
Une hypothèse majeure pour l’apparition de la vie, en effet, est celle d’un « monde à ARN », qui stipule que les processus d’autoreproduction
ont plutôt commencé avec des molécules d’ARN catalytiques et non avec de l’ADN ou des protéines Présents dans toutes les branches de l’arbre du vivant , les ARN ( acides ribonucléiques) ont diverses fonctions – supports temporaires de l’information génétique, régulateurs de l’expression des gènes, catalyseurs de réactions… – qui en font des candidats idéaux pour ce premier rôle
À l’heure actuelle, la formation et la polymérisation d’ARN à partir de petites molécules organiques constituent une question activement étudiée par d’autres groupes de recherche, et nous avons donc fait ici l’hypothèse que des processus chimiques ont, à un moment du temps prébiotique, conduit à leur apparition Ce qui nous offrait un grand avantage : disposer d’un système autocatalytique En effet, certains ARN sont capables de catalyser leur propre formation par le biais de
réseaux de réactions catalytiques ne faisant intervenir que des ARN. En fusionnant aléatoirement des gouttes d’eau dans l’huile, chacune contenant différents cocktails d’ARN, nous avons créé plus de 16 000 mélanges distincts d’ARN réagissant entre eux Chaque goutte servait de microréacteur reconstituant une sorte de soupe primitive miniature, isolée des autres Nous avons ensuite séquencé l’ensemble des ARN produits dans ces microréacteurs et, grâce à un système d’étiquetage, nous avons retracé la dynamique de chacune des réactions, goutte par goutte (voir l’encadré page 27) Ainsi, nous avons pu déduire des lois régissant les réseaux de réactions autocatalytiques En particulier, nous avons montré que si, dans une même goutte, plusieurs réactions conduisent à la synthèse d’un même ARN, alors cet ARN se reproduit plus vite En d’autres termes, la redondance
UNE FORME DE SÉLECTION AMORCÉE
DANS DES GOUTTES
Les premières réactions autocatalytiques se sont probablement produites dans des microcavités de roches ou dans des protocellules. En encapsulant dans des gouttes d’eau en suspension dans l’huile la réaction formose, une réaction autocatalytique qui produit des sucres à partir de formaldéhyde, les auteurs ont tenté de mimer de telles conditions. Dans ce système, les gouttes échangeaient les petites molécules, comme le formaldéhyde, mais pas les sucres. Celles où la réaction formose s’est amorcée ont pris le dessus sur les autres.
Goutte A Goutte B
La réaction formose s’amorce dans les gouttes porteuses de glycolaldéhyde, comme la goutte A.
Au début de l’expérience, les gouttes de type A (en gris) et de type B (en vert) ont toutes la même taille.
Glycolaldéhyde (sucre, 2C)
Aldotétrose (sucre, 4C)
La réaction a formé des sucres, donc la goutte A contient moins de formaldéhyde. Cela entraîne un flux de formaldéhyde de B vers A.
Puis la taille des gouttes A augmente et celle des gouttes B diminue. Les exceptions visibles sont dues à la fusion accidentelle de deux gouttes A et B.
(molécule à 1 atome de carbone C)
Dihydroxyacétone (sucre, 3C)
La réaction formose est autocatalytique : à chaque fois qu’elle utilise une molécule de glycolaldéhyde, elle en produit deux.
Les sucres ne s’échangent pas, car ils sont trop gros. Donc le nombre de molécules carbonées augmente dans la goutte A. Par conséquent, de l’eau de la goutte B la rejoint, ce qui équilibre la concentration totale de molécules (osmose).
50 µm
Toutes les gouttes passent ensuite dans un dispositif microfluidique qui scinde les plus grosses en deux et réunit toutes les gouttes ensuite. La population de gouttes A double ainsi par rapport à celle des gouttes B.
H2O
Formaldéhyde
Fragments complémentaires de l’ARN A’
Ligase
ARN « modèle » A
des chemins de synthèse favorise une reproduction plus rapide des ARN prébiotiques. De plus, cette redondance augmente aussi leur résilience aux perturbations environnementales (lorsqu’on ajoutait un ARN supplémentaire dans les gouttes, celui-ci perturbait moins le réseau de réactions dans celles où il y avait redondance des chemins de synthèse).
Cela illustre un nouveau type d’approche pour l’étude des origines. Plutôt que d’essayer de contraindre un scénario très ciblé à partir de données géologiques localisées (par exemple l’apparition de métabolismes primordiaux par oxydoréduction dans des cheminées hydrothermales), nous explorons de très nombreuses conditions avec aussi peu d’a priori que possible afin d’identifier celles qui sont propices à l’autoorganisation chimique Ce n’est qu’une fois ces conditions identifiées qu’on se demande si elles correspondent à des environnements de la Terre primitive ou d’une exoplanète. Ce type d’approche nous semble indispensable, car la marge d’incertitude sur les conditions primordiales terrestres est très grande Cela est d’autant plus vrai lorsqu’on élargit la question à celle de la vie sur une autre planète De plus, même si on fixe un scénario planétaire, la diversité géographique des milieux reste potentiellement très grande : cheminées hydrothermales, volcans, océans, roches souterraines ou en surface, et les interfaces entre ces milieux.
DES ROCHES
AUX PROTOCELLULES
Nous utilisons d’ailleurs aussi la microfluidique pour reconstituer des conditions physiques proches des milieux naturels pertinents pour les origines Les éprouvettes et dispositifs habituels de laboratoire restent éloignés des milieux prébiotiques que sont ,
2-Des molécules d’ARN interagissent avec la ligase.
Fragments complémentaires de l’ARN A
1-Le milieu contient divers fragments d’ARN, dont A et des fragments complémentaires de A.
Une base nucléique est éliminée lors de la réaction
par exemple, les pores dans les roches ou les cheminées hydrothermales, qui confinent les réactions à l’échelle typique du micromètre
Les réactions chimiques y ont lieu de manière radicalement di ff érente , et ce pour de multiples raisons. Tout d’abord, les parois jouent un rôle prépondérant à ces échelles du fait de l’adsorption de certains composés chimiques, ou encore de la catalyse de certaines réactions par des minéraux exposés à leur surface Le confinement modifie aussi la physique des écoulements : il n’y a pas de turbulence Le mélange s’effectue donc uniquement par diffusion, de manière beaucoup plus lente que dans une éprouvette
Par ailleurs, des milieux comme les cheminées hydrothermales sont le lieu de forts gradients de température et de concentration qui, à ces échelles, tendent à séparer les composés et à créer spontanément de nombreuses niches chimiques. Ainsi, en 2024, des collègues de l’université Louis-et-Maximilien, à Munich, ont montré qu’un milieu poreux ouvert, lorsqu’il est soumis à un gradient de température , engendre de telles niches chimiques, où chaque pore contient un mélange distinct Cela est dû à la migration différentielle des molécules dans ce gradient confiné Par conséquent, les roches servent en quelque sorte de laboratoire naturel dans lequel une grande variété de soupes primitives sont testées. Ce qui soulève la question d’un possible continuum entre ces milieux géologiques organisés et les cellules telles qu’on les connaît Existe-t-il des compartiments non vivants qui montreraient certaines propriétés des cellules vivantes, de la façon la plus rudimentaire qui soit ? Schématiquement, une cellule biologique est un réacteur ouvert, avec des flux entrants et sortants, qui transforme la matière première
4-La ligase et les ARN se séparent.
3-L’ARN A et deux fragments complémentaires de cet ARN finissent par se retrouver dans le centre catalytique de la ligase, qui lie alors les deux fragments selon le modèle A.
ARN A’
5-Le milieu contient désormais deux exemplaires d’ARN A (et un exemplaire de son complémentaire A’).
amenée par les flux entrants en de nouveaux produits – un processus assimilable au métabolisme, dans son sens le plus large De manière similaire, on peut imaginer un milieu abiotique où des écoulements viendraient nourrir en continu une cavité qui serait le siège de réactions chimiques, dont les produits se déverseraient dans une autre cavité ou un milieu ouvert.
Pour nous rapprocher encore plus du vivant, nous avons imaginé non pas une cavité, mais une protocellule artificielle, munie d’un métabolisme primordial modèle – une réaction autocatalytique Notre hypothèse était qu’un tel système était susceptible, sous certaines conditions physicochimiques , de conduire directement aux étapes suivantes, c’est-à-dire à la croissance des protocellules et à leur sélection Nous avons encapsulé dans des gouttes d’eau la réaction « formose », une réaction autocatalytique produisant des sucres à partir de formaldéhyde , une molécule disponible en quantité dans l’espace (voir l’encadré page 29)
Ces gouttes sont elles-mêmes plongées dans un milieu liquide huileux, à travers lequel elles échangent les molécules de petite taille telles que le formaldéhyde, mais pas les sucres plus gros. Les gouttes constituent alors des réacteurs semi-perméables, de la même manière que les membranes des cellules laissent entrer certains composés mais pas d’autres
Nous avons montré que les gouttes contenant des réactions autocatalytiques efficaces croissent au détriment des autres en pompant leurs ressources et leur solvant par osmose
Ainsi, par le simple couplage d’une réaction chimique et d’un transport différentiel de molécules, on voit émerger une dynamique similaire à la sélection naturelle, où certaines entités croissent au détriment d’autres par compétition pour les ressources Nous avons
6-Des molécules d’ARN interagissent avec la ligase. 8-La ligase et les ARN se séparent.
7-L’ARN A’ et deux fragments complémentaires de cet ARN finissent par se retrouver dans le centre catalytique de la ligase, qui lie les deux fragments selon le modèle A’.
même montré comment des forces d’écoulement, telles celles qui existent dans des environnements naturels, divisent les plus grosses gouttes mais pas les plus petites. Cela induit une multiplication des protocellules les plus efficaces, ce qui réalise finalement une propriété fondamentale de l’évolution darwinienne : la multiplication différentielle des entités les mieux adaptées
Cette expérience est une preuve que de nouvelles méthodes d’étude des origines sont possibles. Elle montre que des conditions hors équilibre sont susceptibles de donner des processus d’autoorganisation analogues au métabolisme et d’induire par là même des propriétés nécessaires à l’évolution
L’ÉMERGENCE DE L’ÉVOLUTION
On vient de décrire comment de simples réactions chimiques acquièrent des propriétés similaires à celles des cellules, à condition d’être compartimentées dans des réacteurs ouverts et de posséder des dynamiques intrinsèques comme l’autocatalyse. L’étape majeure est ensuite de comprendre comment l’évolution darwinienne a commencé. Toute la difficulté réside dans le fait qu’au début, ce mécanisme devait être différent de l’évolution telle qu’on la connaît En effet, cette dernière requiert des molécules organisées de manière extrêmement élaborée, comme les polymérases de l’ADN, des enzymes qui recopient l’ADN. Jusqu’à présent, les recherches s’étaient concentrées sur la réalisation de polymérases primitives de l’ARN, dont l’apparition aurait marqué le début de l’évolution avant même que l’ADN devienne le support du génome Force est de constater que ces objets sont trop complexes pour être apparus spontanément
9-Le milieu contient désormais deux exemplaires d’ARN A, et un exemplaire de son complémentaire A’.
DE L’HÉRÉDITÉ PAR LIGATURE
Comment dupliquer un ARN dans une soupe primitive ne contenant pas de molécule complexe ? Un ARN est une molécule constituée d’un enchaînement de quatre constituants (des bases nucléiques). Le dupliquer est simple quand on dispose d’une polymérase, une molécule élaborée qui construit le brin « complémentaire » de l’ARN (elle associe à chaque base sa complémentaire : une des trois autres bases, avec qui elle a une affinité particulière). Sans polymérase, une autre piste consiste à supposer la présence d’une ligase dans la soupe primitive : un petit fragment d’ARN capable de lier deux fragments d’ARN. Les auteurs espèrent y parvenir, notamment en imposant des cycles de température pour séparer ou assembler les ARN complémentaires.
( par « spontanément », on entend ici qu’une séquence spécifique parmi une myriade de séquences aléatoires d’ARN déclenche un processus de polymérisation autoentretenu). De plus , on n’a pas encore découvert de telles molécules, ni dans la nature ni par l’ingénierie. Notre parti pris est donc d’envisager des formes d’évolution plus graduelles, qui se seraient mises en place à partir de mélanges complexes Nous envisageons même un scénario plus extrême, où l’évolution aurait commencé avec la présence de chaînes d’ARN, ADN ou peptides.
Dès la fin des années 1970, le biologiste américain Stuart Kauffman et d’autres chercheurs avaient formulé des hypothèses d’autoorganisation collective pour l’origine de la vie, mais celles-ci étaient restées théoriques Étant donné les nouveaux moyens expérimentaux à disposition aujourd’hui, nous nous donnons désormais pour tâche de formuler concrètement des étapes graduelles d’autoorganisation chimique et de les tester Pour cela, nous proposons d’envisager des modes évolutionnaires plus rudimentaires que l’évolution au sens darwinien, où seulement certaines de ses propriétés (la reproduction avec transmission, les variations héritables et la sélection) sont à l’œuvre. Si par exemple nous découvrons des réactions autocatalytiques à partir de petites molécules, nous pourrons envisager un processus cumulatif où une première réaction s’entretient, puis où, au hasard des réactions, une molécule rare apparaît et met en route une nouvelle réaction autoentretenue, et ainsi de suite. On connaît déjà très bien une réaction autocatalytique susceptible de se produire dans l’espace : la réaction formose Mais aucune réaction autocatalytique amorcée à partir de ses produits n’a encore été décrite Dans un réacteur nourri en continu par les composés permettant entre autres la réaction formose, nous cherchons l’apparition de nouveaux systèmes autocatalytiques analogues Ceux - ci s’accumuleraient alors ou entreraient en compétition pour des ressources, conduisant à la disparition de l’un au profit de l’autre. Cette dynamique serait une forme rudimentaire d’évolution dans un réacteur chimique , où
diff érents mélanges autoentretenus se succèdent au cours du temps. Une telle découverte serait une véritable percée, car pour l’instant, la réaction formose est la seule connue qui fasse croître des molécules par ajouts successifs d’atomes de carbone, à l’instar du métabolisme On saurait alors si la notion de métabolisme est spécifique au vivant ou assez universelle pour que des formes primitives aient évolué vers celles que
Notre but ultime : nous rapprocher d’un scénario où une soupe chimique s’organise elle-même £
Les coacervats, des sortes de protocellules constituées d’ARN (ci-dessous en gris) et de peptides (en ocre) autoassemblés, forment des gouttes partiellement perméables assez denses pour héberger des réactions entre ARN et préserver la composition chimique en leur intérieur.
l’on connaît aujourd’hui Si au contraire on ne trouvait aucune alternative autocatalytique à celles déjà identifiées, cela suggérerait d’étudier des conditions initiales différentes, mais irait aussi dans le sens d’un début de l’évolution centré sur la génétique. D’ailleurs, parallèlement, nous étudions aussi ce scénario en partant de petits fragments d’ARN Cette approche se situe à mi-chemin entre l’autoorganisation à partir de petites molécules organiques et l’hypothèse classique d’apparition d’un grand ARN catalytique ayant une activité polymérase. Pour amorcer l’évolution, nous avons besoin de combiner plusieurs ingrédients : une dynamique particulière des réactions entre fragments d’ARN – qui doivent démontrer des propriétés de variation, reproduction, hérédité – et des populations de protocellules dont la survie dépend des réactions qu’elles contiennent
UNE HÉRÉDITÉ
SANS POLYMÉRASE
?
En l’état, nous disposons d’ARN capables d’autocatalyse, sous la forme d’un système où des ARN catalytiques déjà formés favorisent leur propre production à partir d’autres fragments d’ARN, un peu comme dans l’expérience décrite plus haut. De plus, nous avons récemment montré que ces ARN sont capables de diversifier d’autres ARN en les recombinant entre eux Nous arrivons donc à implémenter deux caractéristiques de l’évolution
darwinienne – la reproduction et la variation –, mais il nous manque l’hérédité
L’hérédité est une propriété relativement évidente si on peut recopier des séquences à l’aide d’une polymérase. Mais elle est bien moins facile à obtenir dans les systèmes plus rudimentaires que nous étudions, sans polymérase. Nous nous attelons actuellement à réaliser des amplifications de séquences par ligature de fragments d’ARN (voir la figure pages 30-31) Nous n’y parvenons pas encore, car nous devons cibler la bonne fenêtre de conditions de réaction et comprendre quels mélanges de séquences se prêtent à une telle amplification, mais nous avons bon espoir d’y arriver bientôt
Pour achever la mise en place d’une évolution rudimentaire, il ne restera alors plus qu’à encapsuler ces réactions dans des protocellules, puis à les mettre en compétition Dans un premier temps, nous utiliserons la microfluidique pour recréer artificiellement des populations de gouttes, qui seront incubées, divisées, triées et alimentées en nouveaux substrats Cette approche nous permettra de comprendre les conditions pour intégrer des propriétés évolutives dans de grandes populations de protocellules Mais notre but ultime est de nous rapprocher d’un scénario où une soupe de composés chimiques s’organise elle-même, sans intervention expérimentale autre que les variations de conditions ou les flux qui pourraient venir d’un environnement naturel. Pour ceci, nous testons actuellement des coacervats, qui sont des protocellules constituées de peptides et de fragments d’ARN autoassemblés
Les coacervats pourraient être une étape intermédiaire entre des compartiments formés par l’environnement, comme les pores dans les
Des coacervats, observés en microscopie optique à transmission (à gauche) et à fluorescence (à droite). On voit que les molécules d’ARN (ici repérées à l’aide d’un marqueur fluorescent) sont uniformément réparties dans ces assemblages.
BIBLIOGRAPHIE
H. Lu et al., Small-molecule autocatalysis drives compartment growth, competition and reproduction, Nat. Chem., 2024.
A. Garcia et al., Molecular diversity and amino acid evolution in simulated carbonaceous chondrite parent bodies, ACS Earth Space Chem., 2024.
P. Pavlinova et al., Abiogenesis through gradual evolution of autocatalysis into templatebased replication, Febs Letters, 2023.
S. Ameta et al., Darwinian properties and their trade-o s in autocatalytic RNA reaction networks, Nat. Commun., 2021.
A. Pross et R. Pascal, The origin of life : What we know, what we can know and what we will never know, Open Biol., 2013.
roches, et les cellules avec des membranes. En effet, ils forment des gouttes partiellement perméables, sans membrane, mais suffisamment denses pour abriter des réactions entre ARN et préserver la composition chimique locale . Nous avons déjà des indices prometteurs sur leur capacité à réaliser une dynamique de sélection naturelle , car nous observons que certains conservent leur intégrité alors que d’autres disparaissent en fonction des ARN qu’ils contiennent lorsque la concentration en sels augmente sous l’effet de l’évaporation, par exemple sous l’effet de l’ensoleillement
En intégrant les propriétés darwiniennes de reproduction, d’hérédité, de variation et de sélection à partir de petits ARN, nous espérons apporter la preuve que des formes primitives d’évolution existent . Sur cette base , nous aurions la possibilité d’un côté de chercher à estimer la probabilité d’apparition de tels systèmes en déterminant les séquences d’ARN permettant les réactions sous-jacentes à l’évolution et, de l’autre, d’étudier comment cette évolution rudimentaire peut conduire à l’évolution biologique
Là encore, cette quête se révélera peut-être infructueuse Cela indiquerait la nécessité de considérer des mélanges plus complexes, où l’ARN est couplé à des acides aminés et à des peptides dès les premiers stades de l’évolution, par autoassemblage comme dans les coacervats et par des réactions chimiques croisées qui augmenteraient leur diversité et leur efficacité. Dans tous les cas, que nous soyons amenés à restreindre ou, au contraire, à élargir le spectre des possibles , nous saurons mieux répondre à la question : la vie ailleurs doit-elle ressembler à la nôtre ? n
Des tsunamis dans un grain de sable
Certains tsunamis sont provoqués par des séismes se produisant de manière cyclique. Dès lors, retrouver la trace d’un tsunami ancien, et celle du séisme associé, offrirait la possibilité d’évaluer sa période de retour en un lieu donné. L’analyse de grains de sable dans les Petites Antilles ouvre aujourd’hui cette perspective…
Environ 900 millions de personnes, soit plus d’un terrien sur dix, résidaient en 2023 dans des zones littorales basses. Ces littoraux, de moins de 10 mètres d’altitude par rapport au niveau de la mer, sont particulièrement sensibles à l’élévation lente et globale du niveau des mers liée au réchauffement climatique Ils sont aussi les plus touchés par les submersions rapides et locales produites par les tempêtes et les tsunamis Or ces aléas naturels catastrophiques provoquent parfois la mort de centaines de milliers de personnes en quelques heures, comme le rappellent de triste mémoire les 500 000 morts en 1970 après le cyclone Bhola dans le golfe du Bengale et les 250 000 disparus en 2004, à la suite du grand tsunami de l’océan Indien. Ravageant notamment les plages de Phuket, en Thaïlande, celui-ci fit l’objet d’une large couverture médiatique et même d’un film, Hereafter (Au-delà), en 2010. Immenses vagues susceptibles d’atteindre
plusieurs dizaines de mètres de haut sur la côte et se propageant jusqu’à 800 ou 900 kilomètres/ heure au large, les tsunamis sont aussi spectaculaires que dévastateurs. Anticiper l’arrivée de ces catastrophes , longtemps à l’avance, donnerait la possibilité de limiter les coûts humains L’idée peut sembler paradoxale : brefs, brutaux, les tsunamis ne sont- ils pas justement parmi les plus imprévisibles des fléaux naturels ? Sauf que… au cours des dernières décennies, les tsunamis les plus ravageurs ont été provoqués par des mégaséismes – comme en 2004 à Sumatra , en 2010 au Chili et en 2011 au Japon –, et ces séismes peuvent se produire de manière cyclique (lire l’encadré page 52).
ARCHIVES SÉDIMENTAIRES
Si tel est le cas, mieux connaître la période dite « de retour », c’est-à-dire le temps moyen séparant un événement du suivant, permettrait de postuler le prochain événement probable Mais pour ce faire, il faut bien entendu disposer d’un grand nombre d’occurrences Or les tsunamis de grande ampleur ne sont – heureusement – pas fréquents… Et les archives historiques, limitées à environ cinq cents ans en Europe, à mille ans en Chine, et absentes dans bien des régions, ne couvrent généralement pas d’assez longues périodes
L’ESSENTIEL
> Les tsunamis les plus dévastateurs des dernières décennies ont été provoqués par des séismes susceptibles de se produire de manière cyclique. Mais les archives historiques sont trop limitées pour tenter d’évaluer leur période de retour.
> Les carottes prélevées dans le sol, « archives » sédimentaires, peuvent aider. La violente submersion marine que provoque un tsunami laisse en e et un dépôt singulier sur les littoraux.
Mais il est di cile de le distinguer de ceux liés aux submersions dues à des tempêtes.
> Dans les Petites Antilles, des chercheurs ont prélevé une carotte dont l’analyse par microtomographie 3D – donnant accès jusqu’à l’orientation des grains de sable ! – semble fournir un inespéré sésame pour distinguer tempêtes et tsunamis et, peut-être, compléter le catalogue de ces vagues mortelles et de leur potentiel retour.
Il faut donc se tourner de manière plus systématique vers les sédiments, « archives » utilisées depuis longtemps pour reconstituer l’histoire de la Terre. En charriant gravillons grossiers et autres fragments (de coquillages, par exemple) dispersés dans un mélange de sable et de boue, les tsunamis laissent en effet une trace de leur passage par des dépôts singuliers au sein de l’empilement des sédiments littoraux. Les carottes sédimentaires, prélèvements pouvant atteindre plusieurs mètres de profondeur, en témoignent. La potentielle régularité des grands tsunamis y est donc inscrite… mais de manière peu lisible. Et pour cause : la violence des tempêtes est elle aussi susceptible de provoquer des submersions marines laissant des dépôts similaires à ceux des tsunamis. Pour faire la part des choses, une nouvelle discipline a donc émergé : la sédimentologie des submersions marines.
L’AUTEUR
ÉRIC CHAUMILLON géomorphologue, professeur à l’université de La Rochelle et chercheur au laboratoire Littoral environnement et sociétés (CNRS), à La Rochelle
Pour mieux comprendre ces différents types de raz-de-marée, reprenons pas à pas le mode opératoire des « usual suspects » qui les provoquent. Dans le cas des tempêtes, trois causes principales conduisent à une élévation rapide du niveau de la mer de plusieurs mètres. La plus connue est la chute de pression qui accompagne la tempête et fait s’élever la surface de l’eau Il y a aussi le frottement du vent sur la mer. Plus la profondeur d’eau est petite, plus le vent entraîne l’eau dans sa direction Et enfin, il y a les vagues : leur déferlement induit une force vers la côte qui conduit à une élévation de la mer. En s’étalant sur la côte, elles contribuent encore aux submersions Les
vagues dites « infragravitaires » (de fréquence basse, avec des crêtes séparées de 25 secondes au moins), peuvent également provoquer des élévations du plan d’eau de plusieurs minutes, tels de petits tsunamis Ce sont elles qui surprennent les estivants en inondant la plage… Dans le cas des tsunamis de grande ampleur, comme ceux de Sumatra et du Japon, il faut plutôt aller voir du côté de la lithosphère Cette enveloppe rigide, qui forme la couche rocheuse la plus superficielle de notre planète, est subdivisée en une mosaïque de plaques, les plaques tectoniques Celles-ci bougent les unes par rapport aux autres en réponse aux mouvements de convection de l’épais manteau terrestre sur lequel elles reposent Des forces considérables s’accumulent parfois à leurs limites durant des siècles ou des millénaires. Ces plaques « encaissent » en effet les déformations de manière élastique… jusqu’à ce qu’elles atteignent un seuil de rupture : c’est le séisme. S’il a lieu au fond de la mer, il est à même d’entraîner le déplacement brutal du plancher océanique et la formation d’une vague
VAGUES DE 25 MÈTRES
Au large, cette vague se caractérise par une très grande longueur d’onde (distance entre deux crêtes successives), qui peut atteindre des centaines de kilomètres, et une faible amplitude (demi-hauteur entre la crête et le creux), dépassant rarement le mètre Un navire en pleine mer la percevra à peine… Mais, en se rapprochant de la côte, les eaux devenant peu profondes, la vague est freinée, elle se comprime, sa longueur d’onde diminue, et son amplitude augmente brutalement Un « mur » d’eau progresse alors à grande vitesse : c’est le tsunami Le niveau de la mer à la côte a par exemple atteint une hauteur de 25 mètres au-dessus du niveau normal lors du grand tsunami de l’océan Indien de 2004. Qu’il s’agisse d’un tsunami ou d’une tempête, que deviennent les sédiments lors d’une
TEMPÊTE
Terme général désignant une perturbation atmosphérique importante caractérisée par un vent violent, souvent accompagné de précipitations et, en mer ou sur un lac, par de fortes vagues. On parle plutôt de cyclone si le phénomène sévit dans l’océan Indien et le Pacifique sud ; d’ouragan en Atlantique nord et dans le Pacifique nord-est ; de typhon dans le Pacifique nord-ouest.
TSUNAMI
Terme japonais qualifiant une série de vagues de période extrêmement longue se propageant à travers l’océan, engendrées par des mouvements du sol essentiellement dus à des séismes sous-marins. Ils peuvent aussi être provoqués par des éruptions volcaniques sous-marines, des glissements de terrain, ou même par la chute d’objets extraterrestres comme les météorites.
submersion marine ? Lors de la phase d’inondation (uprush), ils sont transportés vers le continent et se trouver piégés dans des dépressions topographiques comme les lagunes (voir la figure page 53, en haut) Quand l’eau se retire (backwash), ils sont au contraire entraînés vers le large et se retrouvent dans la zone d’avantcôte , plus ou moins calme , où ils risquent d’être ultérieurement remaniés par les vagues (voir la figure page 53, en bas). À cet égard, les lagunes littorales offrent donc une situation idéale pour préserver les archives sédimentaires En temps normal, seuls s’y déposent de fines poussières et particules, transportées par les petits affluents côtiers ou par le vent, ainsi que de la matière organique issue de plantes, des coquilles de mollusques ou de microorganismes Cette sédimentation lagunaire ordinaire se distingue ainsi nettement des sédiments déposés quand une submersion marine inonde brutalement la lagune
Issus de la plage, de la plage sous-marine et de la dune, ceux-ci sont en effet composés de grains plus grossiers, s’avèrent parfois riches en coquilles et en restes de faunes marines, et montrent une signature marine dans leur composition chimique Pour dater ces différentes couches sédimentaires, qui « enregistrent » le passage des submersions marines, on utilise principalement des méthodes radiochronologiques Le carbone 14, pour les périodes remontant à plusieurs siècles ou plusieurs millénaires Le plomb 210 et le césium 137, pour celles remontant au XXe siècle Mais pour achever de les identifier, il reste à résoudre le problème le plus épineux : comment distinguer parmi ces dépôts ceux issus de tsunamis de ceux issus de tempêtes ? Quelques spécialistes s’y sont essayés Citons notamment les travaux de Futoshi Nanayama (2000), de James Goff (2004) et de Robert A Morton (2007). Grâce à l’observation de dépôts récents dont on connaît la cause (tsunami ou tempête), ils ont ébauché des critères
CYCLES SISMIQUES
Alternance entre les périodes d’accumulation de contraintes et les périodes de rupture le long d’une faille (fracture de la croûte terrestre où s’accumulent des contraintes). Dans un cas idéal, la quantité de contrainte cumulable avant que ne se produise une rupture (seuil supérieur) est toujours la même avant de retomber à un même niveau initial (seuil inférieur) : c’est le modèle périodique. Mais souvent, le fonctionnement d’une faille est bien plus complexe avec des ruptures en clusters périodiques ou des super-cycles englobant plusieurs cycles.
de différenciation ( voir la figure page 55) Ceux-ci sont notamment liés à l’intervalle de temps qui sépare le passage de deux crêtes d’une vague (la période). Beaucoup plus grand dans le cas des tsunamis que dans celui des tempêtes , il implique une inondation plus longue et une masse d’eau bien plus importante. Les vagues de tsunami ont donc un pouvoir érosif plus important, donnant une eau plus turbide, avec plus de sédiments remis en suspension, et impliquant l’arrachage de fragments de la surface sur laquelle se propage l’impressionnant « mur » d’eau De fait, dans les dépôts de tsunamis, les chercheurs ont observé des débris de vase consolidée arrachés par la vague, puis redéposés en une sorte de galet avec les autres sédiments Ils ont aussi constaté la présence fréquente de lits de boue (constituée de limons) intercalés entre les lits sableux déposés par les vagues successives Ces traits caractéristiques ont nourri quelques espoirs et hypothèses Mais ils n’ont in fine pas fourni de critère universel pour distinguer les dépôts de tsunamis de ceux des tempêtes
Ce qui nous semblait le plus prometteur, c’était d’aller comparer sur un même site des dépôts de sédiments issus des deux types de phénomènes Une telle situation permet en effet d’écarter des différences qui pourraient être liées à l’environnement Pour ce faire , notre équipe a misé sur l’archipel des Petites Antilles, longue chaîne insulaire qui borde la mer des Caraïbes. Sujet aux cyclones et aux tempêtes, il est constitué de nombreuses îles volcaniques en raison de l’enfoncement de la plaque nord - américaine sous la plaque caraïbe ( phénomène de subduction ). À la di ff érence des autres zones de subduction , comme le Japon, l’Indonésie, le Chili ou les îles Aléoutiennes (au sud-ouest de l’Alaska), il n’y avait pas de preuves historiques de grands tsunamis dans cet archipel . Est- ce parce que les archives historiques sont trop courtes ? Ou parce que cette zone présente un fonctionnement singulier ? Peu probable ,
UN PAL ÉOTSUNAMI EN SAVOIE
Il y a environ 11 700 ans, juste après la dernière glaciation, un glissement subaquatique dans le paisible lac d’Aiguebelette, en Savoie, aurait déclenché un tsunami de près de 3,5 mètres de haut. C’est le récent résultat de Muhammad Naveed Zafar, doctorant ( laboratoires Lama et Edytem), et de Pierre Sabatier (Edytem également), avec le concours d’une équipe internationale mêlant géologie et maths appliquées. Après avoir étudié la bathymétrie du lac (mesure des di érentes profondeurs), les chercheurs ont cartographié le glissement, prélevé une carotte et localisé son origine. L’analyse du dépôt associé, d’environ un mètre, et sa datation au carbone 14 ont confirmé l’origine sismique de l’événement. Une modélisation, permettant de simuler le glissement et la potentielle vague associée, a ensuite permis de valider la thèse du paléotsunami, rare dans des eaux intérieures. D’autres grands lacs périalpins, comme celui du Bourget, où d’autres paléotsunamis ont été identifiés, font actuellement l’objet d’études du même type. Elles devraient aider à anticiper de futurs risques similaires.
CHARLINE ZEITOUN, journaliste scientifique
Lorsque l’eau déferle, à la suite d’une tempête ou d’un tsunami, les sédiments sont transportés vers le continent lors de la phase d’inondation (en haut) et sont susceptibles d’être piégés dans des dépressions topographiques, comme les lagunes. Quand l’eau se retire, ils sont au contraire entraînés vers le large et se retrouvent dans la zone d’avant-côte, plus ou moins calme, où ils risquent d’être ultérieurement remaniés par les vagues (en bas).
Sédiments (grossiers/fins)
Érosion
Lagune Dune Plage Avant-côte
quand on considère certains indices évocateurs de vagues extrêmes sur l’île d’Anegada, une des îles Vierges britanniques, dites Îles du Vent… À cet égard, que penser des deux cents blocs de coraux, datés d’une période allant environ de l’an 1200 à l’an 1480, dispersés jusqu’à des centaines de mètres du rivage de cette île ?
Selon une étude réalisée par le géologue américain Brian Atwater et ses collègues, en 2017, l’un d’eux affiche un volume de près d’un mètre cube… Pour les fragmenter et les transporter de la mer jusqu’à l’île, les cyclones étaient-ils vraiment les seuls responsables ? Ou bien étaitce l’œuvre de tsunamis ?
Pour le savoir, notre équipe a organisé plusieurs campagnes aux Antilles Nous avons opéré en domaine offshore, au large, à bord d’un navire océanographique, et en domaine côtier, dans les lagunes et les mangroves, à partir de plus petites embarcations dont un catamaran et une barge de carottages. Depuis 2018, nous avons ainsi conduit quatre campagnes de terrain du nord au sud de l’archipel, d’Anguilla jusqu’aux Grenadines Le but était de prélever des carottes sédimentaires et, quand c’était possible, de réaliser des mesures sismiques pour identifier les meilleurs sites à carotter. Bien que localisées dans des îles qui semblent idylliques , nos opérations se sont souvent heurtées à de grandes difficultés Pénétrer dans les mangroves s’est parfois avéré impossible. Certaines lagunes étaient couvertes de croûtes de sel. Des débris de bois et des déchets anthropiques entravaient aussi notre progression et le transport des petites embarcations d’où nous réalisions les carottages Les vents, parfois violents, empêchaient la prospection géophysique ou l’accès par la mer aux lagunes Il fallait donc transporter à la main le matériel qui, même
allégé, devait être suffisamment conséquent pour pouvoir échantillonner des sédiments sur plus d’un mètre
LE TRÉSOR DE SCRUB
Une lagune, située sur l’île de Scrub, s’est révélée particulièrement intéressante… Cette île, déserte, située au nord-est de l’île principale d’Anguilla, est l’une des plus septentrionales des Petites Antilles. Nous avons dû mouiller notre catamaran sous le vent de cette île très exposée aux vagues. Une fois sur la plage, il ne restait plus qu’à acheminer le matériel à pied dans les différentes lagunes et à y réaliser les prélèvements Dans ces conditions, la pénétration comme l’extraction de la carotte se fait à la main, ce qui suppose une équipe qui n’a pas peur de se mouiller, de marcher dans la vase et de faire beaucoup d’efforts physiques. Mais ce fut payant ! La carotte sédimentaire que nous avons prélevée dans la lagune occidentale a révélé la chronique des submersions marines sur les 1 600 dernières années. Résultat : il y en eut vingt-cinq, qui ont chacune laissé un lit de sable marin attesté par la présence de microorganismes marins carbonatés, des foraminifères
Le plus récent de ces lits de sable est associé au violent cyclone Donna qui a frappé les Îles du Vent en 1960. Deux autres, que nous avons appelés L17 et L14, ont retenu notre attention Le second, qui contient un galet de vase et semble donc être lié à un tsunami, est daté entre 1652 et 1810. Il correspondrait donc au tsunami transatlantique qui a ravagé Lisbonne le 1er novembre 1755, faisant jusqu’à 100 000 victimes et décimant ainsi plus du tiers de la population de la riche cité portuaire du XVIIIe siècle. Déjà décrit par des récits historiques depuis la Barbade jusqu’à Cuba, nous savons qu’il a été produit par un séisme en dehors de la zone de subduction des Antilles (voir la figure ci-contre)
Restait l’étrange lit sableux L17, encore plus ancien, daté entre 1365 et 1470. Son épaisseur, bien plus grande que celles des autres lits mis au jour dans notre carotte sédimentaire, suggère une submersion d’une ampleur exceptionnelle. En fait, il contient deux lits de vase qui impliquent une forte érosion et la remise en suspension des sédiments Il est donc lié à un phénomène de grande énergie, avec des alternances de vagues séparées par des périodes calmes pendant lesquelles se dépose la vase. Et s’il s’agissait de la même submersion que celle qui a arraché et transporté les fameux blocs de coraux dispersés autour de l’île d’Anegada ? Avait-on là trouvé la trace d’un tsunami exceptionnel et inédit ?
La découverte potentielle était d’importance. Nous avons donc entrepris une modélisation des tsunamis susceptibles d’être produits par les plus grands séismes capables d’affecter la zone de subduction des Petites Antilles Seules deux configurations produisent des
vagues suffisamment hautes pour inonder à la fois l’île de Scrub et celle d’Anegada, située à une bonne trentaine de kilomètres au nord-est La première est un séisme le long de failles superficielles dues au fléchissement de la plaque nord - américaine qui plonge sous la plaque caraïbe Mais elle correspondrait à une submersion peu importante, incompatible avec l’épaisseur du dépôt La seconde est un mégaséisme le long de la zone de frottement entre les deux plaques Selon nos modélisations, une rupture profonde de 9 kilomètres , avec un déplacement de 20 mètres, le long d’une faille de 100 par 200 kilomètres entre les deux plaques, suffisait pour engendrer des vagues assez hautes (environ 5 mètres) pour inonder plusieurs fois l’île de Scrub. Toutes ces grandeurs sont cohérentes et réalistes avec les caractéristiques des lieux Ce scénario-là était plausible. Notre carotte sédimentaire de l’île de Scrub matérialisait donc la situation idéale et exceptionnelle que nous étions venus chercher Nous avions en effet dans un même enregistrement millénaire à la fois des dépôts de tempêtes, un dépôt de grand tsunami, celui de Lisbonne, et très probablement celui d’un tsunami ancien, précolombien , inconnu jusqu’alors . Nous avons donc saisi cette opportunité pour tester une technique innovante en sédimentologie : la microtomographie, système d’imagerie en 3D par tomographie à rayons X . Ses images en trois dimensions offrent une telle résolution qu’il devient possible de distinguer les grains de sable et même leur orientation dans l’espace , les grains n’étant en e ff et nullement sphériques et présentant le plus souvent un allongement (voir la figure page suivante)
Île de Scrub
Océan Atlantique
Océan Pacifique
Une carotte sédimentaire prélevée dans la lagune occidentale de l’île déserte de Scrub, l’une des plus septentrionales des Petites Antilles, a révélé la chronique des submersions marines sur les 1 600 dernières années.
Submersions
Ouragan Donna
Faciès riche en matière organique
Tsunami de Lisbonne
Tsunami précolombien
Il est possible de relier les différents types de sédiments observés aux différents types de submersions survenues sur l’île de Scrub (ci-contre). La caractérisation de l’orientation des grains de sable (ci-dessus, reconstituée en 3D) donne la possibilité de discriminer tempêtes et tsunamis.
+ – Faciès riche en grains carbonatés
de bois ou feuilles
Qu’allaient révéler les trois dépôts scrutés à si haute résolution ? Des différences proprement spectaculaires… Dans le dépôt associé au cyclone Donna, les grains sont dispersés et se succèdent selon des orientations différentes, suggérant une mise en place par une succession de vagues (probablement infragravitaires). En revanche, la fabrique sédimentaire (orientation des grains dans le dépôt) observée dans les deux dépôts de tsunami est beaucoup plus homogène , montrant une orientation bien marquée, imprimée par une vague longue et puissante. Un autre échantillon lié au supposé tsunami précolombien, découvert par notre équipe en 2019 sur l’île de Saint-Martin et dont nous avons publié l’analyse en avril dernier, confirme cette disposition spatiale. Elle atteste d’un dépôt rapide, après l’inondation causée par une vague de tsunami, avec des grains alignés dans le sens du courant, en toute cohérence avec de précédentes analyses de dépôts de tsunamis aux îles Marquises réalisées par tomographie par Raphaël Paris et ses collègues, en 2020. Il en va de même en ce qui concerne quatre autres dépôts de tsunami similaires que nous avons par ailleurs mis en évidence à SaintMartin sur les 3 500 dernières années, rallongeant d’autant le calendrier des paléotsunamis dans cette partie de l’arc antillais. Ces résultats sont bien sûr préliminaires Mais la tomographie par rayons X pourrait bien
Faciès riche en coquilles Tapis algaire
Coquilles entières
constituer une méthode clé pour fournir un précieux critère de distinction entre les dépôts sédimentaires liés aux tempêtes et ceux liés aux tsunamis. Cela contribuerait à compléter et affiner le catalogue des tsunamis dont les archives sédimentaires sont encore largement parcellaires pour nombre de raisons Parmi elles, citons les incertitudes dans les datations, les lacunes liées à l’érosion des sédiments anciens par les événements les plus violents, la rareté des sites propices aux enregistrements, et, bien sûr, les confusions possibles avec les enregistrements des cyclones. Il est donc urgent de multiplier ces études pour pouvoir faire des corrélations entre différents sites et montrer des convergences dans les enregistrements sédimentaires. Les tsunamis étant censés toucher des zones géographiques plus larges que les tempêtes, à l’instar de celui de l’océan Indien en 2004, la corrélation d’enregistrements de submersions à de grandes distances pourrait par exemple confirmer leur origine tsunamigénique . À partir d’archives plus complètes et en partie redondantes , nous pourrions disposer enfin de chroniques robustes permettant d’estimer avec plus de précision les périodes de retour des tsunamis de grande ampleur dans différents contextes Il deviendrait alors plus réaliste d’anticiper leur survenue à l’avance Et de mieux se préparer à une catastrophe future n
BIBLIOGRAPHIE
S. C. Fabbri et al., Deciphering the sedimentary imprint of tsunamis and storms in the Lesser Antilles (Saint Martin) : A 3500-year record in a coastal lagoon, Marine Geology, 2024.
M. Biguenet et al., Distinguishing between tsunamis and hurricanes in the same sedimentary record using X-ray tomography, Marine Geology, 2022.
L. Cordrie et al., A Megathrust earthquake as source of a Pre-Colombian tsunami in Lesser Antilles : Insight from sediment deposits and tsunami modeling, Earth-Science Reviews, 2022.
M. Biguenet et al., A 1600 year-long sedimentary record of tsunamis and hurricanes in the Lesser Antilles (Scrub Island, Anguilla), Sedimentary Geology, 2021.
L’ESSENTIEL
> La structure du tableau périodique des éléments permet en principe de prévoir les propriétés des atomes. Mais les éléments superlourds ne semblent pas se plier à ses règles. En cause, des e ets relativistes sur les électrons qui entourent les noyaux.
> Les chercheurs essayent de repousser les limites de la physique
et de la chimie en produisant des éléments toujours plus lourds ou en essayant de mesurer les propriétés de ceux qui émergent dans les accélérateurs.
> En astrophysique, les éléments superlourds laissent peut-être aussi une signature dans les collisions d’étoiles à neutrons.
L’AUTRICE
STEPHANIE PAPPAS journaliste scientifique pour, notamment, Scientific American
Les éléments superlourds boxent hors catégorie
Avec plus de cent protons, les atomes extrêmes bousculent l’ordre établi par le tableau périodique des éléments. Le défi d’étudier leurs propriétés chimiques révèle de nombreuses surprises.
Àl’extrémité du tableau périodique se trouve une région où les éléments ne se comportent pas comme prévu À partir du numéro atomique 104 ( le rutherfordium, qui contient donc 104 protons), on pénètre dans le domaine des éléments dits « superlourds » . Après le rutherfordium viennent le dubnium, le seaborgium, le bohrium et d’autres éléments plus étranges les uns que les autres, jusqu’au plus lourd jamais créé, l’oganesson, l’élément 118. Ces poids lourds n’ont jamais été observés dans la nature, tant ils sont instables. Leurs noyaux, gorgés de protons et de neutrons, se brisent par des phénomènes de fission ou de désintégration radioactive en une infime fraction de seconde après leur formation. Dès lors, pour les étudier, les scientifiques les synthétisent dans des expériences contrôlées en laboratoire La patience est cependant de mise : depuis 2002, après la première création réussie d’un noyau d’oganesson (nommé d’après Iouri Oganessian, qui dirigeait l’équipe liée à sa découverte), les chercheurs ont déclaré en avoir fabriqué en tout et pour tout cinq exemplaires
Ils n’en continuent pas moins de développer des techniques destinées à l’exploration de cette région si mal connue du tableau périodique Ces éléments présentent une multitude de propriétés étranges remettant parfois en question les règles de la chimie. Le tableau périodique a, de ce point de vue, joué un rôle historique et structurant pour interpréter les caractéristiques des éléments La place de l’un d’eux, en fonction de sa ligne et de sa colonne, permet d’anticiper ses propriétés chimiques et donc sa façon de réagir avec d’autres éléments. Mais, aux confins du tableau, des anomalies émergent. « Quelles sont les limites conceptuelles du tableau ? Quelles sont les limites de la physique atomique et de la chimie telles que nous les connaissons ? » s’interroge Witold Nazarewicz, physicien nucléaire et responsable scientifique de la FRIB (Facility for rare isotope beams, l’Installation pour les faisceaux d’isotopes rares, de l’université d’État du Michigan).
Les éléments superlourds sont produits dans des accélérateurs à raison de quelques atomes par semaine, voire beaucoup moins.
Dans un couloir du laboratoire américain Lawrence-Berkeley (LBNL), à quelques pas de l’une des rares infrastructures dans le monde capables de produire des atomes superlourds, une affiche imprimée représente chaque élément (comme dans le tableau périodique), accompagné de ses isotopes (c’est-à-dire tous les noyaux ayant le même nombre de protons, mais un nombre différent de neutrons). Ce graphique regroupe toutes les informations connues sur la structure nucléaire et la désintégration des éléments et de leurs isotopes. Ce document est « vivant » : il y a une faute de frappe dans le titre et les bords de l’affiche sont déchirés ; il a été enrichi avec des annotations au feutre pour ajouter toutes les découvertes ayant eu lieu après son impression en 2006. Dans un domaine où il faut parfois une semaine pour créer un seul exemplaire de l’atome qui intéresse les chercheurs, il est important de pouvoir consigner les progrès réalisés. « Tout le monde aime ces notes manuscrites, explique Jacklyn Gates, qui dirige le groupe des éléments lourds du LBNL Si nous devions imprimer ce document à partir de 2023 », « … ça ne serait pas aussi amusant », finit Jennifer Pore, une de ses collègues. Avec son équipe, Jacklyn Gates synthétise des éléments superlourds en fracassant des atomes ordinaires dans un cyclotron large de 2,2 mètres – un accélérateur de particules en forme de tambour La construction du cyclotron a commencé en 1958, après que les retombées
des premières explosions de bombes nucléaires ont fait apparaître de nouveaux éléments radioactifs tels que le fermium (numéro atomique 100). Une grande partie du cyclotron d’origine subsiste aujourd’hui : dans la salle de contrôle, des cadrans argentés qui n’auraient pas dépareillé dans un film de l’époque de la guerre froide côtoient des panneaux beiges des années 1980 et des pavés de boutons bleus installés lors des mises à jour les plus récentes. À partir de la fin des années 1950, la compétition pour découvrir de nouveaux éléments est devenue aussi brûlante que les faisceaux d’ions utilisés pour les fabriquer En 1969, le cyclotron du LBNL synthétisait son premier élément superlourd, le rutherfordium (nommé d’après le physicien Ernest Rutherford, qui a contribué à expliquer la structure des atomes). Cet élément avait déjà été créé quelques années auparavant au JINR (l’Institut unifié russe de recherche nucléaire), à Doubna. Les nombreux conflits pour attribuer la primeur sur les nouveaux éléments , principalement entre le laboratoire de Berkeley et le JINR , sont aujourd’hui connus sous le nom de « guerre des transfermiens »
LA COURSE AUX ÉLÉMENTS
Projectile
Calcium
20 protons
28 neutrons
PRODUIRE UN ÉLÉMENT SUPERLOURD
Disque cible
Faisceau d’ions Fusion Cible
protons
neutrons
Noyau instable
protons
2 neutrons
Élément superlourd
114 protons
L’Allemagne est entrée dans la danse dans les années 1980 avec son institut de recherche nucléaire, le GSI (Gesellschaft für Schwerionenforschung, ou Centre de recherche sur les ions lourds). Les nombres atomiques ont continué de croître et les trois équipes se sont partagé les droits de nommer ces éléments jusqu’au copernicium (élément 112, en l’honneur de Nicolas Copernic), découvert en 1996. En 1999, des chercheurs du LBNL ont annoncé l’identification de l’élément 118, avant de se rétracter après avoir constaté que l’un de leurs scientifiques avait fabriqué des preuves En 2004, l’Institut japonais de recherche physique et chimique (Riken) a synthétisé l’élément 113, le nihonium, qui veut dire « Japon » en langue nipponne Bien que l’élément 118 soit le plus lourd jamais produit, l’élément le plus récemment découvert est en fait le 117, le tennesse, par le JINR en 2010. Les scientifiques à l’origine de cette découverte l’ont baptisé en référence à l’État américain du Tennessee, où se trouvent plusieurs instituts ayant joué un rôle clé dans ces expériences. La course à la synthèse d’éléments toujours plus lourds se poursuit encore aujourd’hui, et pas seulement parce que les chercheurs qui y parviennent ont le droit de nommer le nouvel entrant dans le tableau périodique Une autre motivation est théorique : certains isotopes formeraient un hypothétique « îlot de stabilité » dont les représentants ne se désintégreraient pas aussitôt « Certaines théories prévoient des demi-vies d’un an, voire de 1 000 jours »,
DES ÉLÉMENTS SUPERLOURDS AU GANIL
Le Ganil (Grand accélérateur national d’ions lourds), à Caen, lancera en 2026 une nouvelle installation parmi les plus performantes du monde pour la recherche des éléments superlourds. L’étude de ces éléments, et plus généralement des événements rares en physique nucléaire, requiert des performances expérimentales spécifiques de très haut niveau. Et en premier lieu un faisceau d’ions lourds très intense, de manière à maximiser le nombre de réactions de production. En e et, la grande majorité des interactions entre le faisceau et la cible ne produisent pas le noyau d’intérêt : dans le cas de l’oganesson, il faut envoyer en moyenne un milliard de milliards de noyaux de calcium sur la cible de californium pour espérer former un noyau d’oganesson par fusion nucléaire. L’accélérateur linéaire supraconducteur de l’installation Spiral2 fournira dans ce but des faisceaux très intenses avec plus de 1013 ions par seconde, ce qui donnerait environ un
atome d’oganesson par jour, par exemple. Pour prendre en charge des faisceaux aussi intenses, il faut un dispositif capable de sélectionner les rares noyaux d’intérêt et de rejeter l’immense majorité des noyaux parasites. C’est avec ces objectifs qu’a été conçu le Super Séparateur Spectromètre S3, en cours de construction. Il sera équipé d’une cible rotative tournant à 3 000 tours par minute, pour supporter l’impact du faisceau incident, suivie, sur 30 mètres de longueur, de deux étages de séparation : le premier bloque la majeure partie du faisceau qui a traversé la cible sans produire de réaction nucléaire ; le second réalise une sélection fine des noyaux d’intérêt pour les transmettre avec une grande e cacité tout en rejetant les noyaux non désirés qui auraient franchi le premier niveau. Dans cette partie, la combinaison d’un dipôle électrique et d’un dipôle magnétique détermine en vol la masse des ions. S3 est le premier dispositif du monde à utiliser ce type de mesure pour l’étude des noyaux superlourds. Cette mesure de masse
explique Hiromitsu Haba, physicien et directeur du groupe de chimie nucléaire au Riken, qui traque l’élément 119.
Pour l’instant, les rivages de l’îlot de stabilité n’ont pas été atteints Le défi réside dans la fabrication des éléments superlourds, qui est loin d’être simple Les chercheurs y parviennent en bombardant un matériau cible avec un faisceau d’ions lourds (dans ce cas, de gros noyaux atomiques dépourvus d’une partie de leurs électrons ) dans l’espoir de surmonter la répulsion électrostatique entre deux noyaux chargés positivement et de les forcer à fusionner Au LBNL , la source du faisceau d’ions combine des microondes et des champs magnétiques puissants de sorte à arracher des électrons à un élément choisi ( souvent du calcium ou de l’argon dans les expériences de Jacklyn Gates). Les ions qui en résultent sont acheminés vers le cyclotron, qui les accélère et augmente progressivement l’énergie du faisceau
À la sortie de l’accélérateur, les techniciens de la salle de contrôle dirigent le faisceau grâce à des champs électrostatiques vers différentes salles où sont installés les dispositifs expérimentaux. Ces derniers sont équipés de cibles qui prennent parfois la forme de fines feuilles de métal d’un diamètre équivalent à celle d’une petite assiette « Les cibles sont mises en rotation pour éviter que le faisceau ne frappe toujours le même point pendant trop longtemps Elles fondraient sous l’intensité du bombardement par
de haute résolution combinée à une transmission élevée des noyaux superlourds est possible grâce à des aimants supraconducteurs innovants qui assurent la focalisation des noyaux tout au long de la ligne. Ce sont des aimants quadripolaires très larges (30 centimètres de diamètre), munis d’aimants de corrections sextupolaires et octupolaires. En bout de ligne, deux instruments sont prévus pour étudier les noyaux transmis : le détecteur Sirius, a ecté à la mesure précise des décroissances radioactives des noyaux superlourds, ou bien S3-LEB pour l’analyse de ces noyaux par spectroscopie laser ou par mesure de masses d’ultra-haute résolution. Enfin, à partir de 2030, le projet Newgain dotera l’accélérateur linéaire de Spiral2 d’une nouvelle source d’ions et d’un nouvel injecteur permettant d’accélérer des faisceaux d’ions lourds – jusqu’à l’uranium –parmi les plus intenses du monde.
ANTOINE DROUART physicien au CEA
les ions arrivant à grande vitesse », explique Jacklyn Gates. La composition de la cible dépend de la quantité de protons que les chercheurs souhaitent obtenir dans le produit final Par exemple, pour fabriquer du flerovium (114 protons, du nom du physicien russe Gueorgui Fliorov, fondateur du JINR), ils doivent bombarder du plutonium (94 protons) avec du calcium (20 protons). Pour fabriquer l’oganesson, les scientifiques projettent du calcium sur du californium (98 protons). Plus il y a de neutrons dans les ions du faisceau, plus il y en a dans le produit final, ce qui permet de créer des isotopes encore plus lourds.
DES ÉVÉNEMENTS RARES
La plupart du temps, les particules du faisceau traversent la cible sans aucune interaction nucléaire Mais avec 6 000 milliards de projectiles arrivant sur la cible par seconde, une collision entre noyaux est inévitable Lorsque les conditions sont réunies, la collision rapproche assez les deux noyaux pour conduire à leur fusion et à la création d’un nouvel atome superlourd, se déplaçant à près de 600 000 mètres par seconde. Pour ralentir ce bolide, les chercheurs le font pénétrer dans de l’hélium gazeux et des champs électriques qui composent un piège où les propriétés de cet élément seront mesurées. Les physiciens injectent parfois d’autres gaz pour voir quels types de réactions chimiques le
nouveau venu réalise avant de se désintégrer « Mais cela n’est possible que si l’élément a une demi-vie assez longue, de l’ordre d’une demiseconde par exemple » , précise Christoph Düllmann, chef du groupe de recherche sur la chimie des éléments superlourds au GSI. Quand l’élément superlourd se désintègre, il émet typiquement des particules alpha , c’est-à-dire des paquets de deux protons et deux neutrons liés ensemble. C’est en analysant la trajectoire des particules alpha dans les détecteurs et les autres produits de la désintégration que les chercheurs déterminent la composition de l’atome d’origine et les réactions que ce dernier a effectuées
Du point de vue des propriétés chimiques, l’élément le plus lourd que les physiciens ont étudié est le flerovium (114), car les éléments suivants ne sont pas créés en assez grande quantité ou présentent des durées de vies trop courtes pour réaliser des expériences adéquates « Nous sommes en mesure de produire du flerovium à raison d’environ trois atomes par jour, raconte Christoph Düllmann Une expérience typique prend environ un mois pour collecter assez de données, car tous les atomes fabriqués ne parviennent pas au détecteur où sont menées les réactions chimiques, et tous les atomes qui y parviennent ne sont pas toujours détectés »
NI NOBLE NI GAZEUX
Une poignée d’atomes suffit parfois pour révéler beaucoup de choses Avant que le flerovium ne soit synthétisé, certains théoriciens prévoyaient qu’il se comporterait comme un gaz noble, c’est-à-dire qu’il serait inerte et non réactif, tandis que d’autres suggéraient qu’il se comporterait comme un métal En 2022, une équipe a observé quelque chose de plus étrange À température ambiante, le flerovium forme une liaison forte avec l’or, ce qui est très différent du comportement d’un gaz noble Il se lie aussi à l’or à la température de l’azote liquide (– 196 °C). Mais, curieusement, à des températures intermédiaires, l’élément ne réagit pas. Quant à l’oganesson, il se retrouve dans le tableau périodique avec les gaz nobles, mais les chercheurs pensent qu’il n’est ni noble ni gazeux. Peter Schwerdtfeger, de l’université Massey, en Nouvelle-Zélande, et ses collègues postulent qu’il s’agit probablement d’un solide à température ambiante , qui passe à l’état liquide vers 52 °C. Tous ces comportements atypiques s’expliqueraient grâce à la dynamique des électrons dans ces atomes Cette dynamique est expliquée par la mécanique quantique qui indique que les électrons occupent des niveaux d’énergie connus sous le nom de « couches », chacune pouvant contenir un nombre différent de particules (2 électrons sur la couche la plus
interne, puis 8, 18, 32, etc.). Chaque couche représente une distance spécifique par rapport au noyau, bien que l’électron ne suive pas une trajectoire circulaire autour du noyau. Si on prend en compte la nature ondulatoire des électrons, ceux-ci sont décrits par une fonction de probabilité de présence (nommée « orbitale ») dont la forme ressemble à un haltère, un beignet, une goutte d’eau, etc
Plus un noyau est lourd, plus les électrons – notamment ceux des couches internes – sont attirés près du noyau et sa surabondance en protons chargés positivement L’espace dont les électrons disposent pour circuler est donc plus faible En raison du principe d’incertitude, qui stipule que la position et la vitesse d’une particule ne peuvent être connues avec précision au même moment, cette réduction de l’espace des électrons signifie que leur vitesse augmente par une sorte de bascule des lois physiques fondamentales. Pour les gros atomes, les électrons voyagent presque à la vitesse de la lumière . Comme le suggère la théorie de la relativité restreinte d’Einstein, les objets qui se déplacent aussi vite gagnent en masse, ce qui a des conséquences bizarres sur les propriétés de l’élément.
Ces effets relativistes se manifestent même dans les éléments plus connus du tableau périodique L’or est jaune parce que ces effets réduisent l’écart entre deux de ses couches électroniques, ce qui modifie légèrement les longueurs d’onde de la lumière que l’élément absorbe et réfléchit
Les effets relativistes ne jouent cependant pas un rôle important dans le comportement chimique de la plupart des éléments légers En effet, les électrons des couches externes (où il peut ne pas y avoir assez d’électrons pour remplir complètement la couche) sont responsables de l’établissement de liaisons chimiques avec d’autres atomes. Or ils sont moins soumis aux effets relativistes Dans le tableau périodique, les éléments d’une même colonne ont la même composition sur leurs couches externes,
QUELQUES EXEMPLES DE FORMES D’ORBITALES ÉLECTRONIQUES
ce qui permet de prévoir qu’ils ont les mêmes comportements chimiques.
« Le tableau périodique est censé vous indiquer les tendances chimiques », explique
Jennifer Pore Or pour les éléments les plus lourds , dans lesquels les e ff ets relativistes commencent à dominer, ce n’est plus nécessairement vrai . En 2018, l’équipe de Peter Schwerdtfeger a découvert qu’en raison de ces effets, le nuage d’électrons de l’oganesson ressemble à une grande tache floue sans distinction majeure entre les couches.
Même en dehors du territoire des superlourds, les chimistes s’interrogent sur la place de certains éléments dans le tableau périodique
Depuis 2015, un groupe de travail de l’Union internationale de chimie pure et appliquée arbitre un débat sur les éléments qui devraient figurer dans la troisième colonne du tableau : le lanthane et l’actinium (éléments 57 et 89) ou le lutécium et le lawrencium (71 et 103). Le débat est centré sur les électrons qui se comportent mal : en raison d’effets relativistes, les électrons les plus externes en orbite autour de ces éléments ne sont pas là où ils devraient être selon le tableau périodique Après neuf ans d’examen officiel , il n’y a toujours pas de consensus sur la manière de regrouper ces éléments. Ces problèmes deviennent de plus en plus pressants pour les éléments les plus lourds du tableau. « Nous essayons de déterminer où cette organisation commence à s’effondrer et où le tableau périodique cesse d’être utile », explique Jacklyn Gates
Outre une fenêtre sur les limites de la chimie, la danse des électrons donne aussi un aperçu de la dynamique du noyau dans les situations les plus extrêmes Dans un noyau gorgé de protons et de neutrons, les interactions entre ses particules déforment souvent sa forme, qui s’écarte de la représentation stéréotypée de la boule homogène. Selon Michael Block, physicien au GSI, la plupart des éléments superlourds étudiés jusqu’à présent ont un noyau oblong en forme de ballon de rugby En théorie, les éléments plus lourds qui n’ont pas encore été synthétisés pourraient avoir des noyaux en forme de soucoupes volantes ou même de bulles, avec une densité très faible au centre Les scientifiques « voient » ces formes en mesurant les minuscules changements dans les orbitales des électrons : celles-ci sont affectées par la distribution des charges positives dans le noyau « Cela nous permet de déterminer la taille et la forme du noyau », explique le chercheur
Au-delà de sa forme, la structure du noyau est la clé pour savoir s’il sera possible un jour de synthétiser un élément superlourd stable. Certains nombres de protons et de neutrons ( collectivement appelés « nucléons » ) sont connus sous le nom de « nombres magiques », car les noyaux qui en sont dotés présentent
QUELQUES EXEMPLES DE FORMES DE NOYAUX
une durée de vie exceptionnellement longue Comme les électrons, les nucléons occupent des couches, et ces nombres magiques représentent les valeurs pour lesquelles les couches nucléaires sont remplies, ce qui confère une relative stabilité . L’îlot de stabilité , que les chercheurs espèrent trouver avec un isotope superlourd encore inconnu, serait le résultat d’une « double magie » – des nombres complétant des couches à la fois pour les protons et les neutrons
MIRAGE OU RÉALITÉ ?
La question de savoir si l’îlot de stabilité existe vraiment reste ouverte, car les noyaux les plus lourds préfèrent peut-être se fragmenter que s’accommoder de nombres magiques de nucléons La fission pourrait briser le rêve des physiciens Alors qu’avec la désintégration alpha, les noyaux se délestent progressivement de leurs nucléons, avec la fission, c’est une perte soudaine et radicale « Selon les modèles, les prédictions diffèrent quant au nombre de nucléons qui peuvent s’accumuler dans un noyau avant que la fission ne devienne inévitable », explique Witold Nazarewicz Les théoriciens tentent d’évaluer cette limite pour déterminer la taille maximale des noyaux Les limites s’explorent également dans une autre direction Pour être considéré comme un élément, un noyau doit survivre pendant au moins 10 – 14 seconde, le temps nécessaire pour que les électrons s’y accrochent et forment un atome Mais en théorie, la durée de vie d’un noyau peut être aussi courte que 10 – 21 seconde. « Dans l’intervalle infinitésimal entre ces deux définitions , on trouverait des noyaux sans nuages d’électrons, incapables de faire de la chimie, précise Witold Nazarewicz L’ordre du tableau périodique se brise avec les éléments les plus lourds La question est de savoir où l’on rompt complètement avec la chimie »
Ce texte est une adaptation de l’article Superheavy Elements Are Breaking the Periodic Table, publié par Scientific American en juin 2024.
Une tout autre façon d’aborder la question des éléments superlourds est de les chercher dans l’espace Les éléments plus lourds que le fer (numéro atomique 26) se forment dans la nature par un processus appelé « capture rapide de neutrons » , qui se produit souvent lors d’événements cataclysmiques tels que la collision de deux étoiles à neutrons.
Selon Gabriel Martínez-Pinedo, astrophysicien au GSI , si des éléments superlourds sont apparus naturellement dans l’Univers, ils l’ont probablement été dans la fusion d’étoiles à neutrons, et par la capture rapide de neutrons ( également connue sous le nom de « processus r »). Dans cette réaction, le noyau de départ s’empare des neutrons libres à proximité de lui , il gagne rapidement en nucléons et forme un ion lourd. Ce processus se déroule dans des environnements où les neutrons circulent librement, ce qui explique
AUX CONFINS DU TABLEAU
Le chimiste russe Dmitri Mendeleïev en propose une première version en 1869. Les éléments sont organisés par leur nombre de protons et, sur une colonne, ils ont le même nombre d’électrons disponibles pour établir des liaisons chimiques, ce qui leur confère des propriétés communes. Depuis quelques années, les scientifiques ont synthétisé des éléments superlourds. Ces derniers ne respectent pas toujours les règles du tableau et de la chimie. Certains, qui devraient être des gaz inertes, se révèlent finalement être des solides qui interagissent.
Élements superlourds
pourquoi les fusions d’étoiles à neutrons sont des endroits propices
En 2017, les scientifiques ont observé pour la première fois une fusion d’étoiles à neutrons en détectant les ondes gravitationnelles émises par cet événement « Avec ces données, nous avons eu la toute première confirmation que le processus r s’opère effectivement lors de la fusion de deux étoiles à neutrons », explique Gabriel Martínez-Pinedo Les chercheurs ont détecté des isotopes de lanthanides (numéros atomiques 57 à 71) lors de cet événement, mais sans pouvoir les identifier avec plus de précision Pour reconnaître la présence d’éléments superlourds, les chercheurs devront d’abord déterminer leur signature, c’est-à-dire les longueurs d’onde qu’ils absorbent ou émettent, puis être en mesure de les extraire de ce que Gabriel Martínez-Pinedo appelle la complexe « soupe d’éléments » qui se forme lors d’une collision d’étoiles à neutrons
En décembre 2023, cependant, des astronomes ont signalé que certaines étoiles contenaient des quantités anormalement élevées de plusieurs éléments plus légers , tels que le ruthénium, le rhodium, le palladium et l’argent. Ces éléments pourraient être surreprésentés parce qu’ils résultent de la fission d’éléments lourds ou superlourds Ce scénario suggère que des noyaux comportant jusqu’à 260 protons et neutrons pourraient se constituer par le biais du processus r.
TRAQUE COSMIQUE
Même si les éléments superlourds créés lors des fusions d’étoiles à neutrons se désintègrent très vite, le fait de savoir qu’ils existent aiderait les scientifiques à écrire l’histoire de la matière dans l’Univers , souligne Gabriel Martínez-Pinedo. De nouveaux observatoires, tels que le télescope
Numéro
Symbole Nom de l’élément
Masse atomique (en unités de masse atomique unifiée)
Année de découverte
examineront d’autres événements cosmiques capables de produire des éléments superlourds . Et de nouveaux détecteurs d’ondes gravitationnelles porteront leur regard sur des distances beaucoup plus grandes et avec une plus grande précision
Dans l’installation d’isotopes rares de l’université du Michigan, un nouveau faisceau à haute énergie promet d’apporter de nouvelles informations sur le processus r en introduisant plus de neutrons dans les isotopes qu’il n’a jamais été possible de le faire auparavant . Il ne s’agit pas de nouveaux superlourds , mais de versions renforcées d’éléments plus légers. En février 2024, les chercheurs ont annoncé qu’ils avaient créé des isotopes lourds de thulium, d’ytterbium et de lutécium en n’utilisant qu’une fraction de la puissance maximale prévue pour leurs faisceaux Avec leur dispositif lancé à plein régime , ils devraient être en mesure de
produire le type d’isotopes qui se désintègrent finalement en métaux stables plus lourds, tels que l’or. « Cela devrait ouvrir la voie à la fabrication de certains isotopes intéressants pour l’astrophysique », déclare Brad Sherrill, coauteur de l’étude
Entre-temps, d’autres scientifiques dans le monde cherchent également à augmenter la puissance de leurs faisceaux d’ions et de leurs cibles pour dépasser l’élément 118. Le GSI disposera bientôt d’un accélérateur de nouvelle génération pour la synthèse des superlourds Enfin, au LBNL, Jacklyn Gates et son équipe mettent en place des instruments pour mesurer avec une plus grande précision la masse d’un seul atome
Ces nouveaux outils devraient permettre de mieux cerner les contours de la chimie des éléments superlourds . « Dans ce domaine , déclare Peter Schwerdtfeger, nous sommes constamment surpris » n
BIBLIOGRAPHIE
I. U. Roederer et al., Element abundance patterns in stars indicate fission of nuclei heavier than uranium, Science, 2023.
A. Yakushev et al., On the adsorption and reactivity of element 114, flerovium, Frontiers in Chemistry, 2022.
O. R. Smits et al., Oganesson : A noble gas element that is neither noble nor a gas, Angewandte Chemie, 2020.
C. Düllmann et M. Block, La course aux superéléments, Pour la Science n° 496, 2019.
L’AUTEUR
LOÏC MANGIN
rédacteur en chef adjoint à Pour la Science
IDES STÈLES D’EXCEPTION
Le musée Fenaille, à Rodez, met à l’honneur le spectaculaire mégalithisme éthiopien, en présentant notamment des œuvres de l’artiste allemand Alfons Bayrle.
maginez un paysage vallonné, où des collines arborées se succèdent à perte de vue… L’Aveyron ? Non, presque, l’Éthiopie, dans le sud du pays, sur les contreforts orientaux de la vallée du Rift Là , un homme , assis sur un tabouret , manie ses pinceaux et ses pastels pour représenter un bloc de pierre taillée récemment découvert L’artiste en question est l’Allemand Alfons ( dit Alf ) Bayrle, qui séjourna notamment à Paris à la fin des années 1920, où il fréquenta Giorgio de Chirico, Raoul Dufy, Aristide Maillol, Henri Matisse, Pablo Picasso… Son style, résolument figuratif, se situe entre le cubisme et le « cézanisme ». Et en 1934, il embarqua avec l’ethnologue Adolf Ellegard Jensen, pour une mission d’exploration de la région, la deuxième après celle du découvreur, le père Azaïs En effet, une dizaine d’années plus tôt, celui-ci, soutenu notamment par le ras Tafari, qui deviendra l’empereur Hailé Sélassié, parcourut ces régions de ce qui était encore un empire pour y rendre compte du patrimoine archéologique En quoi consiste-t-il ?
Rien de moins qu’environ 10 000 stèles, pour ne parler que de celles qu’on a mises au jour. Elles sont réparties en quelque 130 sites (mais la région n’a pas encore été entièrement prospectée), qui forment l’extrémité méridionale d’un « corridor mégalithique » traversant tout le pays et dont les vestiges phares, patrimoine mondial de l’humanité, sont les grands obélisques d’Aksum (à la frontière avec l’Érythrée) ou encore les stèles à épées de Tiya, dans le centre du pays.
L’équipe de Jensen rapporta du pays Gedeo, à l’est du lac Abaya, notamment
du site de Tuto Fela, plus de 500 photographies, plusieurs dessins de Bayrle et 17 stèles aujourd’hui conservées au musée des cultures du monde, à Francfort. Une dizaine d’entre elles a fait le voyage jusqu’à Rodez, dans l’Aveyron, où le musée Fenaille consacre une exposition d’ampleur à ce mégalithisme éthiopien, en présentant également clichés, objets locaux et, donc, de nombreuses œuvres de Bayrle (voir la reproduction page cicontre). Sur celles-ci, on distingue des caractéristiques communes, comme les orifices marquant les yeux et les narines, et un nombril protubérant. Que sait-on de ces stèles ?
D’abord, essentiellement taillées dans de l’ignimbrite (une roche d’origine volcanique née de la compression des rejets d’une nuée ardente), elles se répartissent en deux types, les phalliques, largement majoritaires, et les anthropomorphes. Les premières, disposées en lignes simples ou doubles, forment en certains endroits des « champs de stèles ». Les secondes sont regroupées sur de grands entassements de pierres (des cairns) et marquent l’emplacement de sépultures, des restes osseux étant enfouis sous leur base.
Des datations au carbone 14 de ces vestiges ont révélé que ces stèles anthropomorphes ont été érigées entre le XIIe et le XVIe siècle. Quant aux mégalithes phalliques, en l’absence de restes à dater, l’incertitude demeure. Quelques analyses, notamment d’échantillons de charbon, suggèrent une période comprise entre le IIe et le VIIIe siècle, mais rien ne permet de conclure définitivement. En 2023, la fouille du site de Soditi a resserré la période entre le Ve et le VIIe siècle.
C’est que depuis le voyage de Bayrle, les expéditions se sont poursuivies tant le patrimoine est exceptionnel et les questions en suspens nombreuses. Francis Anfray, directeur de l’Institut éthiopien d’archéologie, le visita en 1965 tandis que l’archéologue Roger Joussaume y mena d’importantes fouilles entre 2002 et 2010. Et depuis 2018, la mission pluridisciplinaire Abaya, coordonnée par Vincent Ard (CNRS) et Anne-Lise Goujon (CFEE), et à laquelle l’institution ruthénoise participe, a pris le relais.
L’une des questions brûlantes, et non des moindres, est d’identifier les populations qui ont érigé ces mégalithes, car leur trace se perd au XVIe siècle, quand des bouleversements sociopolitiques, notamment la guerre entre les sultanats musulmans et le royaume chrétien, ont altéré les identités culturelles et effacé de la mémoire collective l’origine de ces sites.
Le prochain départ est prévu pour février 2025, alors qu’en septembre 2023, le paysage culturel du Gedeo a été inscrit sur la liste du patrimoine mondial. Peutêtre y aura-t-il à nouveau un artiste, comme Bayrle, dont les œuvres conservent à ce jour une importance capitale d’un point de vue aussi bien scientifique qu’artistique. n
« Éthiopie, la vallée des stèles », au musée Fenaille, à Rodez (12), jusqu’au 3 novembre 2024. musee-fenaille.rodezagglo.fr
L’auteur a publié : Pollock, Turner, Van Gogh, Vermeer et la science… (Belin, 2018)
LES AUTEURS
JEAN-MICHEL
COURTY ET ÉDOUARD KIERLIK professeurs de physique à Sorbonne Université, à Paris
LE SECRET DU CHANT DES SIRÈNES
Pour éme re des sons, plusieurs dispositifs, notamment les sirènes d’alarme, sont fondés non pas sur des vibrations ou des oscillations, mais sur des rotations ingénieusement exploitées.
Àchaque premier mercredi du mois retentit le son caractéristique des sirènes du système d’alerte et d’information des populations que l’on déclenche pour en vérifier le bon fonctionnement Mais comment ce son est-il généré ? Le dispositif très particulier fait partie d’une famille d’appareils qui ont comme point commun de produire des sons au moyen de roues percées ou dentées. Inventés à l’origine pour effectuer des mesures de fréquences sonores à partir de la vitesse de rotation des roues, ils sont aussi capables d’émettre des sons très puissants
Si nous associons spontanément la notion de note et de hauteur aux sons émis par des instruments de musique ou à la voix, nous pouvons aussi le faire pour de nombreux sons que nous rencontrons dans notre vie quotidienne, par exemple ceux que produisent des insectes volants, des moteurs où même le bruit d’une râpe
LA RÉPÉTITION FAIT LA NOTE
La note pure d’un diapason correspond à une variation sinusoïdale de la pression de l’air. Mais point besoin d’avoir des oscillations sinusoïdales pour entendre une note : il suffit de la répétition périodique d’un même motif sonore Plus la répétition est rapide et plus le son est aigu. Celui, grave, du hanneton correspond à des battements de ses ailes avec une fréquence de 50 hertz (Hz), c’est-à-dire 50 fois par seconde ; le vrombissement de la mouche
est entre 200 et 300 Hz, tandis que celui désagréablement aigu du moustique s’étale de 600 à 2 300 Hz selon les espèces. Dès qu’un bruit est répété à une fréquence qui dépasse quelques dizaines de hertz, notre oreille et notre cerveau perçoivent une note. Et nous y sommes tellement entraînés qu’il suffit même de quelques bruits identiques très rapprochés pour que l’association se fasse Vous pouvez l’expérimenter en tapant sur une table avec vos ongles Pour ce faire, la paume de la main est dirigée vers le bas et les doigts sont relâchés et fléchis pour courber les dernières phalanges à la verticale. On abaisse alors la main de sorte que les ongles tapent sur la table les uns après les autres Selon l’inclinaison et la rapidité du geste, on entendra des notes différentes. Une autre expérience particulièrement simple permet de produire sur le même
Pour faire une note, rien de plus simple ! Un écrou dans un ballon (à droite) ou bien, comme Félix Savart le proposa, des roues dentées en rotation contre lesquelles s’appuie un morceau de carton (à gauche).
principe une grande variété de notes Il suffit de placer un écrou dans un ballon de baudruche dégonflé puis de le gonfler et de le fermer (voir la figure ci-dessus) En donnant un mouvement circulaire suffisamment ample au ballon, on peut faire rouler l’écrou sur sa tranche. À chaque fois qu’il bascule sur une de ses arêtes, il vient frapper la surface du ballon et émet un clac La répétition rapide de ces clacs engendre un son qui peut couvrir toute la hauteur de la gamme, des plus graves aux plus aigus, en choisissant des écrous de tailles différentes et en ajustant la vitesse de rotation. C’est cette idée d’utiliser des claquements successifs qu’a eue le physicien anglais Robert Hooke pour générer des sons de fréquence connue. Avec son dispositif, il va démontrer en 1681 à la Royal Society la relation entre la hauteur d’une
Écrou
Compteur
UN BRUIT DE CAGNIARD
Dans la sirène de CagniardLatour, un flux d’air comprimé met en rotation un disque perforé placé au-dessus d’un autre, fixe celui-là. Le gaz, en étant alternativement bloqué ou libre de s’écouler, crée des variations de pression de l’air qui ne sont pas autre chose que des sons. Les compteurs placés au-dessus du dispositif indiquent le nombre de tours, et donc la fréquence. Air comprimé
note et sa fréquence Ce système sera repris dans les années 1830 par le physicien Français Félix Savart, qui lui donnera son nom : la roue de Savart L’appareil est constitué de roues dentées (voir la figure ci-dessus, à gauche) Pour émettre une note, on maintient un morceau de carton fort contre l’une de ces dernières en rotation. Cette carte est repoussée par les dents, elle ploie et, une fois relâchée, elle revient frapper la dent suivante.
LA BASE DU TELHARMONIUM
Pour des expériences de démonstration, le diamètre des roues est de 5 à 6 centimètres Un dispositif a en général plusieurs roues dont le nombre de dents varie typiquement de 48 à 90. En les faisant tourner à une vitesse de rotation connue, on détermine la fréquence des clacs. Félix Savart, en fabriquant des roues
Disque en rotation
Disque fixe
de laiton de grand diamètre et finement dentées, a réussi à produire des sons de fréquences allant jusqu’à 24 000 Hz, c’està-dire dans le domaine des ultrasons
Si au lieu de mettre une carte sur les dents de la roue, on place un électroaimant à proximité, on réalise une roue phonique, inventée en 1896 par l’américain Thaddeus Cahill pour son instrument de musique, le telharmonium L’idée est la même que pour les micros des guitares électriques. On fait passer un courant dans l’électroaimant Lorsque la dent de la roue s’approche du
Les auteurs ont notamment publié : En avant la physique !, une sélection de leurs chroniques (Belin, 2017).
Ballon
noyau de l’électroaimant, elle change par induction le comportement électrique de ce dernier et provoque une modulation de la tension électrique à la même fréquence que celle du défilement des dents Dans ce dispositif, l’extrémité des dents est aplatie et ce sont un moteur électrique et une boîte de vitesses qui permettent de contrôler la vitesse de rotation Il faut alors transformer la modulation du signal électrique en signal sonore et avoir suffisamment de roues et de vitesses de rotation pour couvrir, comme un piano, sept octaves. Hélas , l’instrument qui en a résulté mesurait une vingtaine de mètres de long et pesait 200 tonnes Il n’a guère rencontré de succès
EN QUÊTE DE PUISSANCE
Tous ces dispositifs ne produisent pas des sons très puissants. Pour y remédier, on peut utiliser une sirène, c’est-à-dire un appareil avec un disque tournant percé de trous qui ont pour effet de laisser passer et de bloquer périodiquement un jet d’air comprimé Les modulations de pression associées au signal sonore sont ici créées directement à l’aide d’air comprimé et non pas par le mouvement périodique d’une surface comme avec un hautparleur. C’est ce qui permet d’avoir très facilement une intensité sonore importante, en jouant sur le débit d’air. C’est en 1819 que l’ingénieur et physicien français Charles Cagniard de La Tour invente ce mécanisme , nommé « sirène de Cagniard-Latour », dans le but de mesurer les fréquences acoustiques Dans son invention, la partie centrale est composée de deux disques, percés tous deux de trous équidistants, et superposés sur un axe qui passe par leurs centres (voir la figure page précédente) L’un des disques , le stator, est fixe tandis que l’autre disque, le rotor, placé au-dessus, tourne. Le stator ferme la partie supérieure d’un cylindre alimenté par-dessous par de l’air sous pression. La rotation du rotor provoque l’ouverture et la fermeture périodique des trous et c’est la variation périodique de la pression à l’orifice de ces trous qui produit la note. Petite astuce : les trous sont percés en biais. Par conséquent, le passage de l’air provoque et accélère la rotation du disque. Le rotor est relié mécaniquement à un compte - tour afin de mesurer la vitesse de rotation du disque et d’en déduire la fréquence émise Fâcheuse contrepartie : comme la rotation est engendrée par le passage de l’air, il est difficile de fixer très précisément la
LES SIRÈNES DU MERCREDI
L’alarme qui retentit chaque premier mercredi du mois résulte de la rotation d’un cylindre usiné, doté de palettes, dans un autre ajouré. L’air est ainsi, comme dans la sirène de Cagniard-Latour ou la sirène à main ci-dessous, périodiquement bloqué puis libéré. Pour se faire entendre d’un bout à l’autre de la ville, le dispositif est complété par des cônes qui font fonction de haut-parleurs.
Poignée
Ouverture
vitesse de rotation. De plus, on crée une corrélation entre l’intensité sonore et la vitesse de rotation : plus la pression de l’air comprimé est importante, plus le disque tourne vite. Autrement dit, plus le son est aigu, plus il est intense C’est d’ailleurs cette propriété qui a donné l’idée d’en faire le dispositif d’alerte des populations tel que nous le connaissons aujourd’hui
LE « CHANT » DES SIRÈNES
Dans ces sirènes d’alarme, le son est produit par deux cylindres concentriques, avec le rotor à l’intérieur et le stator à l’extérieur (voir la figure ci-dessus) Ces deux cylindres sont percés d’ouvertures rectangulaires L’air est bloqué quand ces fenêtres sont face aux parties pleines de l’autre cylindre et il passe quand les fenêtres sont en vis-à-vis Le cylindre central a une face ouverte vers l’extérieur, tandis que l’autre est muni de palettes qui entraînent l’air, le mettent en rotation et créent ainsi une pompe centrifuge Ce rotor est mis en rotation par un moteur pour les sirènes puissantes ou une manivelle pour les alarmes à main. Dans ce dernier cas, un mécanisme d’engrenages permet de multiplier typiquement par 25 la vitesse de rotation de la main Si on a des cylindres à huit ouvertures chacun, faire un tour par seconde produira une note à 200 Hz, parfaitement audible. Pour les sirènes d’alarme à moteur, pour amplifier le son, chaque ouverture du stator est munie d’un haut-parleur à pavillon Effet garanti : toute la ville peut l’entendre n
Palette
BIBLIOGRAPHIE
H. Bouasse, Acoustique générale : ondes aériennes, Delagrave, 1926.
SUR LE WEB
J.-M. Courty et E. Kierlik, « Des bruits et des sons » , spectacle scientifique disponible sur la chaîne YouTube du CNRS, 2023. youtu.be/RFVmcV_2TWM
J.-M. Courty, « L’incroyable secret du chant des sirènes » , chaîne YouTube Merci la physique, 2023. youtu.be/p3mjIxxwsI4
Cet encart d’information est mis à disposition gratuitement au titre de l’article L. 541-10-18 du code de l’environnement. Cet encart est élaboré par CITEO.
TRIONS SYSTÉMATIQUEMENT
Abonnez-vous formule intégrale
à partir de 8,90 € / mois sans engagement
Le magazine (12 numéros / an)
Tout
• Le téléchargement Pdf
• Les archives depuis 1996
• L’application (disponible sur l’app store et le google play store)
Le Hors-Série (4 numéros / an)
Pour s’abonner et découvrir toutes nos o res, flashez ici.