N1_

Page 1

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro1

Revue d’information scientifique

De l’atome...

Équinoxe du Printemps 2005

.. e?... 67 !! . o r u p mé e rev voir u t n . er i cet er?. i t c em o Pr urqu onta Po us c No

...au noyau


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Bien que nous soyons, pour la plupart, spécialisés en physique nucléaire ou en physique des particules, plusieurs des textes écrits pour ce numéro portent sur l’histoire de nos disciplines. Certains remontent même jusqu’à l’antiquité. Comment est-on passé d’une vision continue de notre environnement à celle d’un assemblage de petits objets, appelés atomes ? Par l’observation et la pensée, comme d’habitude. En effet, les Anciens avaient remarqué qu’une même matière pouvait se retrouver sous différentes formes : par exemple le calcaire qui est présent dans les os ou dans les pierres. On pouvait donc imaginer des cycles suivant lesquels les objets organisés se désagrégeaient en petits éléments primordiaux qui pouvaient, une fois rassemblés, donner naissance à d’autres objets plus complexes.

Les chimistes du XVIIIe siècle firent un pas de plus en remarquant que les quantités de matière (les masses) entrant dans une réaction n’existaient que dans des proportions simples, par exemple 1/8 entre l’hydrogène et l’oxygène pour produire de l’eau. Au XIXe siècle, l’étude des propriétés des gaz montra qu’elles pouvaient s’expliquer en considérant qu’ils étaient formés de petits objets en agitation incessante. Mais quels étaient la taille et le nombre de ces objets élémentaires, les atomes ? Il fallut attendre le début du XXe siècle pour que la technologie permette de les mesurer et de les dénombrer. Les « vrais » atomes n’ont aucune ressemblance avec ceux imaginés par les philosophes antiques. Leur taille est infiniment petite à notre échelle : un gramme d’eau en contient environ trente mille milliards de milliards ! À peine eût-on le temps d’obtenir une description cohérente des atomes, que tout était à revoir. On découvrit qu’ils pouvaient être dissociés en objets plus élémentaires : un noyau entouré d’un nuage d’électrons.

Le nom d’«atome» qui signifie «que l’on ne peut pas couper» était donc inapproprié. Néanmoins il fut conservé car il était entré dans le langage scientifique.

Dans ce numéro, nous expliquons comment le noyau a été découvert et indiquons certaines de ses propriétés. L’étude du noyau de l’atome a permis de grandes avancées et notamment la maîtrise de l’énergie contenue en son sein. Le lien entre la masse et l’énergie, qui est à la source de ces retombées, est l’objet de la rubrique « La question qui tue ». L’étude des propriétés des noyaux est une activité en plein essor; ainsi nous décrivons le Grand Accélérateur National d’Ions Lourds, situé à Caen, où se poursuivent ces recherches. L’interview nous a été accordée par Claude Détraz qui a été, notamment, directeur de ce centre. ©S. Castelli-Kérec

Ça y est, c’est parti, le premier numéro est terminé !

Certains noyaux naturels sont instables, ils ont été à l’origine de la découverte de la radioactivité. Ce phénomène montre que le noyau, à son tour, peut-être décomposé en objets plus élémentaires. Étudier des noyaux instables nécessite de pouvoir les préparer, ce qui se fait en utilisant des accélérateurs de particules. Nous parlons dans ce numéro des premières machines qui ont été construites dans les années 1930. Qu’est-ce qu’un noyau instable et à quoi peut-il servir ? Un noyau radioactif ne vieillit pas mais soudain il se désintègre ; paradoxalement cela sert à mesurer l’âge de vieux objets. Nous expliquons comment et pourquoi. Le fil rouge, qui porte sur l’avancement du programme LHC et de ses expériences au CERN, démarre, dans ce premier numéro, par une présentation générale de l’accélérateur. Cher lecteur, il ne nous reste plus qu’à espérer que des atomes crochus se manifestent entre vous et ce que nous avons écrit dans ce numéro. Bonne lecture !

Revue d’information paraissant deux fois par an, publié par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex Tél. : 0164468522 - Fax : 01 69 07 15 26. Directeur de la publication : Patrick Roudeau Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, A.-I. Etienvre, F. Fulda-Quenzer, M.-P. Gacoin, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, I. Quinkal, P. Roudeau, J.-A. Scarpaci, M.-H. Schune, J. Serreau, A. Stocchi Illustrations graphiques : S. Castelli, B. Mazoyer. Maquette : H. Kérec. Ont participé à ce numéro : S. David, D. Froidevaux, O. Méplan. Remerciements : M. Bex, C. Volpe et nos nombreux relecteurs.` Site internet : http://elementaire.web.lal.in2p3.fr/ Prix de l’abonnement : 6 euros pour 2 numéros (voir p.67) Imprimeur : Imprimerie Vincent, 26, av. C. Bedaux 37042Tours Numéro ISSN : en cours avril 2005


Apéritif p. 4 Origine des atomes Visions de l’atome

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Accélérateurs p. 36 Les premiers accélérateurs

Histoire

p. 6 L’atome : une idée vieille de 2500 ans La renaissance de l’atomisme De l’atome au noyau

Interview p. 18 C. Détraz

Découvertes p. 42 La radioactivité

Théorie p. 46

Ondes et particules

Centre de recherche p. 21 Le laboratoire GANIL

Expérience p. 25

Le détecteur INDRA

La question qui tue p. 52

Qu’est-ce que la masse ?

Énergie nucléaire p. 55 Contexte actuel et futur

Détection p. 28

Comment reconnaître un noyau

Le LHC p. 59

Nouvelles du LHC

Retombées p. 30 Datation

Analyse p. 32 Loi exponentielle

ICPACKOI

p. 62 Toroïde d’Atlas Violation de CP directe

Pour en savoir plus p. 65 Échelle des distances


Apéritif L’origine des atomes

© FORS Team/VLT/ESO

D’où venons-nous ? D’où viennent les noyaux des atomes dont nous - et la matière qui nous entoure - sommes faits ? La réponse à cette question nous emmène aux confins de l’espace... et du temps. En effet, les éléments les plus légers, comme par exemple l’hélium, ont été synthétisés une centaine de secondes après le Big-Bang, lorsque l’univers s’est suffisamment refroidi pour que des neutrons et des protons, jusqu’alors libres, puissent s’assembler dans des structures stables : les premiers noyaux. Il faut attendre l’apparition des premières étoiles, à des époques beaucoup plus tardives de l’histoire de l’univers, pour obtenir des éléments plus lourds, comme le carbone ou l’oxygène, qui constituent l’essentiel de la matière organique. En fait, la plupart des éléments chimiques que nous connaissons sont synthétisés dans les étoiles très massives. Les plus légers d’entre eux, jusqu’au fer - le plus stable de tous les noyaux, sont produits lors de réactions de fusion nucléaire et les éléments plus lourds, comme l’or ou le plomb, sont produits par capture de neutrons lents. Ces noyaux sont ensuite expulsés dans l’espace intersidéral par exemple lors de l’explosion des étoiles à la fin de leur vie : les supernovae. Mentionnons enfin que la production des noyaux les plus lourds, tels que l’uranium ou encore le plutonium, nécessite des flux de neutrons très intenses : on parle de capture rapide de neutrons. Le mécanisme détaillé de ce processus ainsi que le site où il se déroule sont encore des questions ouvertes. Selon une des hypothèses avancées, il pourrait avoir lieu lors de l’explosion spectaculaire de certaines étoiles : les supernovæ de type II. Pour conclure, les noyaux d’atomes desquels nous sommes constitués proviennent des quatre coins de notre univers et ont été synthétisés à diverses époques de l’histoire de celui-ci : on peut dire que chaque chose, chaque être vivant, est un petit morceau d’univers ...

© B. Mazoyer

Supernova (Nébuleuse du Crabe)

page 4

Création de l’hélium-4 à partir d’un proton (p) et d’un neutron (n) qui s’associent pour former un deutérium. Le deutérium capture un proton pour former un hélium 3 qui à son tour capture un neutron pour donner l’hélium 4.

ÉLÉMENTAÍRE


Atome de Bohr.

Actuellement cette vision a changé. Les électrons occupent toujours des niveaux d’énergie bien définis mais ne sont pas situés en des endroits précis autour du noyau. On sait seulement calculer la probabilité qu’un électron se trouve à une certaine distance et dans une certaine direction par rapport au noyau. Dans le cas du carbone, deux électrons occupent une zone sphérique centrale et les quatre autres se répartissent dans les régions indiquées en forme de pétales de fleur.

ÉLÉMENTAÍRE

Atome de Rutherford.

Dans les années qui suivirent, on essaya de comprendre ce qui déterminait la taille de l’atome et comment les électrons étaient disposés autour du noyau. Niels Bohr, un théoricien danois qui avait séjourné à Cambridge dans le laboratoire dirigé par J-J. Thomson et qui était en contact avec E. Rutherford, alors à Manchester, proposa un modèle où les électrons occupaient des orbites bien définies, autour du noyau. Chaque orbite était associée à une énergie précise et les sauts des électrons d’une orbite à l’autre permettaient d’expliquer les spectres lumineux émis par les atomes.

Atome «moderne». page 5

© B. Mazoyer

En 1909, cette vision de l’atome changea. Sous l’impulsion de E. Rutherford, une expérience conduite avec H. Geiger et E. Marsden montra que la masse et la charge positive de l’atome sont concentrées dans une minuscule région située en son centre. Le rayon de cette région est environ un dix millième de celui de l’atome (voir la rubrique « Histoire »). Ici, à nouveau, le point bleu n’est pas dessiné à l’échelle, il devrait être beaucoup plus petit.

© B. Mazoyer

En 1903, William Thomson, plus connu sous le patronyme de Lord Kelvin, émit l’hypothèse que l’atome était formé d’électrons répartis au sein d’une sphère chargée, positive, ayant la taille de l’atome (soit 10-10 m environ). Ce modèle, dit du «plum-pudding», fut repris en 1906 par J-J. Thomson, le découvreur de l’électron - sans lien de parenté avec le précédent. Sur le dessin, nous avons représenté six électrons, ce qui correspond à l’atome du carbone. La taille des électrons est encore inconnue, même à l’heure actuelle, aussi ce dessin ne saurait les représenter de façon réaliste. La sphère Atome de Thomson. bleue correspond à une répartition de charges positives, compensant les charges négatives des électrons, de manière à ce que l’atome soit neutre.

© B. Mazoyer

© B. Mazoyer

Visions de l’atome


Histoire Avant-propos

DR

Dans les premières pages de ce numéro, nous suivrons l’évolution de l’idée d’atome, depuis l’antiquité jusqu’à nos jours. Cette présentation, loin d’être exhaustive, survolera quelques dates importantes de cette histoire. Nous parlerons d’abord de nos ancêtres... les Grecs! Nous verrons comment les anciens philosophes, Grecs et Romains, décrivirent la Nature en termes de minuscules particules invisibles et insécables : les atomes. Puis, après le Moyen-Âge, la Renaissance favorise l’émergence de nouveaux courants de pensée qui s’intéressent à l’origine des éléments, au cosmos et aux constituants de la matière. Mais la méthode change, toute théorie doit être validée par l’expérience. Comme nous le verrons dans «La renaissance de l’atomisme» la vision d’une structure atomique revient en force au XVIIe siècle et se développe avec les études systématiques des éléments réalisées par les «Chimistes». Cette époque culmine avec la classification périodique proposée par Mendeleïev. Finalement, dans «De l’atome au noyau» nous décrirons les avancées décisives du début du XXe siècle. Nous suivrons les observations qui ont conduit aux premières mesures de la taille des atomes et à la découverte de leur sous-structure, ce qui a donné naissance à la physique du noyau et de ses composants.

Démocrite (Ve siècle avant notre ère).

Platon et Aristote, extrait de l’Ecole d’Athènes, peint par Raphaël (Salles du Vatican, Rome).

© Biot, MNHN

John Dalton (1766-1844)

© Vatican

DR

© DSB

Galileo Galilei (1564-1646)

DR

DR

Gay-Lussac dans un ballon

page 6

Isaac Newton (1642 - 1727)

Marie et Irène Curie, au front, pendant la 1ère guerre mondiale.

ÉLÉMENTAÍRE


L’atome:une idée vieille de 2500 ans

DR

De quoi le monde est-il fait ? L’explication de l’existence de la nature a d’abord été traitée par les religions qui répondaient à ce type de question en faisant appel au surnaturel : des êtres exceptionnels, dieux, titans, esprits... donnent naissance, forme et vie au monde actuel. Au VIe siècle avant notre ère, les philosophes de Milet (une colonie grecque en Asie Mineure) Thalès, Anaximandre et Anaximène tentèrent, pour la première fois, de proposer une explication différente, poussés par la curiosité et l’observation de la nature (physis en grec), qui allait conduire à l’idée de l’atome.

Thalès de Milet

Les pionniers

C’est Aristote qui attribua à Thalès le postulat suivant: « l’eau est la cause matérielle de toutes les choses ». Nietzsche remarqua que cette déclaration contenait trois idées fondamentales. Primo, la question de la cause matérielle de toutes choses est posée. Secundo, on exige qu’elle soit résolue conformément à la raison et Tertio, on postule qu’il doit être possible de tout réduire à un principe unique. Comme le remarqua ensuite Heisenberg, illustre physicien du XXe siècle : « (…) Cette affirmation de Thalès a été la première expression de l’idée d’une substance fondamentale dont toutes les autres choses ne seraient que des formes passagères »

© JSZW

Thalès de Milet affirma que « l’eau est la cause matérielle de toutes les choses », choix sans doute dicté par son intérêt pour les phénomènes météorologiques. Son élève Anaximandre suggéra que le monde avait été créé à partir d’une substance qu’il nomma « to apeiron » (l’indéterminé ou l’infini en grec). Ensuite Anaximène affirma que le principe premier était plutôt l’air. Toujours sur la côte d’Asie Mineure, à Ephèse, Héraclite imagina le concept du Devenir (d’évolution) comme étant au centre des choses : « Ta panta rei, ouden menei », fameuse phrase en grec qui signifie « tout varie, rien ne perdure ». Il considérait le feu comme élément primordial, à la fois matière et force motrice. La position de Héraclite s’opposait de façon substantielle à celle de Zénon et de Parménide d’Élée (colonie grecque du sud de l’Italie), selon qui tout ce qui existe a toujours existé et ne peut pas disparaître : tout est fait d’« être » et le « néant » n’existe pas. C’est Empédocle, d’Agrigente, colonie de la Magna Grecia, au sud de la Sicile, qui proposa une solution à multiples acteurs : l’univers est conçu comme une combinaison de constituants fondamentaux : la terre, l’eau, le feu et l’air, gouvernés par deux forces fondamentales, la haine et l’amour. Enfin, selon Anaxagore d’Athènes toutes les choses sont composées de « graines indivisibles ». Ce sont des graines d’une diversité infinie, perpétuellement mélangées puis séparées pour produire tout changement. Anaxagore disait « (...) il y a quelque chose de chaque chose dans toutes les choses ». Les graines se trouvent dans tout, seule leur proportion change d’une chose à l’autre et la force qui organise et crée la matière est le « nous » (l’intellect en grec).

ÉLÉMENTAÍRE

Carte de la Magna Grecia vers le Ve siècle avant JC

page 7

© A. Stocchi

Théâtre ancien de Milet. Construit au IIIe siècle avant notre ère, il avait une capacité de 15 000 places.


L’atome: une idée vieille de 2500 ans De là au concept d’atome, il n’y avait qu’un pas qui fut franchi par Leucippe et son élève Démocrite d’Abdère, au Ve siècle avant notre ère, siècle propice à la cristallisation des courants intellectuels sur la nature : l’être est constitué de minuscules parcelles invisibles et insécables, « atoma » en grec, les atomes. C’est le début de ce qu’on appelle l’école atomiste, créée par une série (essentiellement un trio) de philosophes de l’antiquité gréco-romaine, Démocrite, Épicure et Lucrèce, dont les enseignements s’étendent du Ve au Ie siècle avant notre ère.

Les savants de l’Asie Mineure L’école de Milet, ou école ionienne est apparue au VIe siècle avant notre ère sur les côtes d’Asie Mineure, fondée par Thalès, Anaximandre et Anaximène auxquels on ajoute souvent Héraclite d’Éphèse (ville proche de Milet). Il s’agit là du premier groupement de philosophes et savants de l’Antiquité. Thalès, leur père fondateur, était mathématicien, astronome et philosophe, auteur de travaux très importants en géométrie et en observation des étoiles. Sa compréhension du mouvement des astres lui a permis, selon Hérodote, de prédire l’éclipse solaire de l’année 585 avant notre ère. Diogène Laërte rapporte que Thalès a calculé les dimensions des pyramides d’Égypte en utilisant la proportionnalité entre leur hauteur et celle d’un bâton planté verticalement (le fameux théorème de Thalès). Thalès était aussi un ingénieur doué, puisqu’il détourna le cours d’une rivière pour faciliter le passage de l’armée du roi de Lydie. W. Heisenberg écrit dans son livre « Physique et Philosophie » (1958) à propos de Héraclite qui voyait le feu comme étant à l’origine de Tout : « si nous remplaçons le mot feu par le mot énergie nous pouvons répéter les paroles de Héraclite mot pour mot… en fait, l’énergie est la substance dont sont faites toutes les particules élémentaires, tous les atomes et, par conséquent, toutes les choses, et l’énergie est ce qui fait mouvoir. L’énergie est une substance puisque sa quantité totale ne change pas et les particules élémentaires peuvent effectivement être produites à partir de cette substance, comme le montrent de nombreuses expériences sur la création des particules élémentaires. L’énergie peut se changer en mouvement, en chaleur, en lumière et en électricité. L’énergie peut être appelée la cause fondamentale de tous les changements dans le monde»

L’atomisme Dans cette théorie, les atomes sont petits, multiformes, élémentaires et pleins, puisque le cas contraire impliquerait une sous-structure. En dehors des atomes, il n’existe que du vide qui n’est pas le néant, puisque les atomes s’y meuvent. Les atomes soumis à la pesanteur commencent à tomber comme les gouttes de pluie, parallèles les unes aux autres. Si rien ne les dévie de leur parallélisme ils ne se rencontrent jamais. Mais justement, chaque atome peut avoir une certaine inclinaison (clinamen) ce qui lui permet de dévier des trajectoires droites et de pouvoir entrer en collision avec ses voisins. Lors de ces rencontres, un assemblage peut en découler, un peu comme un puzzle : les atomes peuvent s’agréger, ou pas, suivant leurs formes, les positions et le mouvement, suivant ce qu’on appelle « symmetria », la symétrie. Les atomes «crochus» et «pointus» donneront naissance aux matériaux durs, les atomes ronds composeront les liquides et les plus

page 8

Démocrite d’Abdère Démocrite naquit vers 460 avant notre ère à Abdère en Thrace, dans le Nord de la Grèce contemporaine. On a peu d’information sur sa vie, essentiellement par les récits des poètes et historiens qui ne l’ont pas directement connu. En quête de connaissances, il aurait beaucoup voyagé et a écrit une cinquantaine d’ouvrages sur la nature, dont on n’a hérité malheurement que de fragments rapportés par des auteurs comme Aristote, qui ne partageaient pas sa vue du monde. Démocrite lance la théorie atomiste de la matière, influencé par les dires de Leucippe qu’il considère comme son maître. En véritable philosophe, il écrit aussi sur l’éthique. Certains affirment qu’il avait délaissé sa fortune pour se consacrer à la réflexion. Plutarque rapporte qu’il se serait ôté la vue pour ne pas être perturbé par le monde extérieur et en particulier par la vision des femmes ! D’autres racontent qu’il était joyeux et rieur et pour cela il était connu comme « le philosophe souriant ». Après ses longs voyages il regagne Abdère et il y fonde sa propre école où il enseigne jusqu’à sa mort.

ÉLÉMENTAÍRE


L’atome:une idée vieille de 2500 ans légers contribueront à la formation de l’air et du feu. Si les atomes sont sans saveur ni odeur, leurs agrégations en ont : les assemblages d’atomes pointus seront amers ou salés, ceux d’atomes ronds seront au contraire doux ou sucrés. Les atomes légers sont aussi à l’origine de l’âme (anima en latin), caractéristique des êtres vivants. Parmi les vivants, seul l’homme est doté d’esprit (animus en latin), localisé dans la poitrine et fabriqué par des atomes encore plus légers et plus mobiles. Après un certain temps, il arrive que les ensembles se défassent et que les atomes s’éloignent les uns des autres : c’est alors la mort de l’être, provoquée par rupture de la symétrie. Les atomes repartent alors dans le vide dans des mouvements toujours aléatoires et imprévisibles. Ils peuvent recréer des structures à la faveur d’une rencontre : on peut ainsi avoir une succession de mondes très différents dans le temps.

Lucrèce ou l’atomisme latin

Suivant les atomistes, le monde est alors matériel, l’esprit et l’âme aussi. Les dieux, s’ils existent, n’interviennent en rien ni dans la nature, ni sur la destinée des hommes. La nature peut mourir et renaître suivant le mouvement des atomes qui la composent. On comprend bien pourquoi à partir du IVe siècle de notre ère, lorsque le christianisme a été établi comme religion d’état de l’empire romain, cette théorie fut vouée à l’oubli, au profit d’autres courants philosophiques.

Lucrèce est né vers 98 avant notre ère. Il nourrit une admiration sans bornes pour Épicure dont il explicite les pensées dans son long poème (De Rerum Natura). Il développe l’Épicurisme en y ajoutant des idées nouvelles concernant surtout l’éthique. Dans De Rerum Natura on peut lire : « (…) les corps que nous voyons durs et massifs doivent leur cohésion à des atomes plus crochus, plus intimement liés et entrelacés en ramifications complexes (...). Ce sont au contraire des atomes ronds qui forment les corps de nature liquide et fluide. Car les atomes de forme sphérique ne peuvent pas se maintenir unis et, sous un choc, tout roule aisément comme sur un plan incliné... ». Plus loin « …les atomes sont privés de toute couleur (...). Ils sont doués d’une diversité de formes au moyen desquelles ils produisent toutes les teintes et les varient (…). D’ailleurs, il ne peut pas y avoir de couleur sans lumière (…). La couleur change avec la lumière elle-même suivant que la frappent des rayons directs ou obliques(…), la couleur est inutile aux atomes et seules leurs formes variées produisent la variété des nos sensations colorées. »

ÉLÉMENTAÍRE

page 9

Épicure naquit sur l’île de Samos en 341 avant notre ère. Il suivit à Athènes l’école de l’Académie fondée par Platon. Après de nombreux voyages, il s’installa à Athènes où il fonda en 306 avant notre ère son école, appelée le Jardin. Celle-ci était ouverte non seulement aux personnes célèbres mais aussi à des esclaves, des femmes et des hétaïres (courtisanes de l’Antiquité), contrairement aux autres écoles destinées exclusivement aux élites. Épicure fut l’auteur de nombreux ouvrages décrivant sa doctrine profondément influencée par Démocrite. Seules trois lettres ont été conservées (Lettre à Hérodote, Lettre à Pythoclès, Lettre à Ménécée) et Pensées Maîtresses, un ensemble de maximes. Épicure s’est intéressé à la nature par des chemins détournés : ayant observé que les malheurs des hommes provenaient souvent des frustrations imposées par les règles religieuses et par les coutumes de la société, il s’était efforcé de démontrer que le monde se meut indépendamment de toute intervention divine. Il a développé l’atomisme en insistant sur la « réalité » du monde créé par les atomes et le mouvement. En essayant d’expliquer la nature, il pensa montrer aux gens qu’ils pouvaient vivre en harmonie avec elle, s’ils la connaissaient, loin des superstitions et des craintes inutiles. Ceci devait pouvoir rendre aux personnes toute la sérénité nécessaire à la réflexion et au vrai bonheur intellectuel. L’école d’Épicure a eu une immense célébrité et fut réactualisée deux siècles plus tard par les Romains (Lucrèce), pour lesquels Épicure fut l’objet d’un véritable culte.


Histoire La renaissance de l’atomisme L’atomisme fait un « come-back » grâce à un homme d’église, Pierre Gassendi. En 1624, Gassendi écrit « Excercitationes Paradoxicae Adversus Aristoteles » attaquant les théories d’Aristote et en 1647 il publie un livre considéré comme étant à l’origine de la renaissance de l’atomisme, « Sur la vie et le caractère d’Epicure ». Cette vue des choses était, à l’époque, contraire au dogme ecclésiastique qui suivait les enseignements d’Aristote, de Saint Augustin et de Saint Thomas d’Acquin concernant la création, l’immobilité du Cosmos et le système géocentrique. À partir de Galilée et de Newton, la science est basée sur l’étude détaillée de la Nature mais aussi sur le principe qu’on ne peut croire en rien qui ne puisse être vérifié. Ce besoin de vérification expérimentale est un concept nouveau : il était absent chez les philosophes grecs, qui posaient leurs idées sous forme de postulats ne nécessitant pas de démonstration.

Pierre Gassendi, est né en 1592 à Champtercier en France. Ayant obtenu un doctorat en théologie à Avignon en 1614, il enseigne à l’Université d’Aix en même temps qu’il officie à l’église de Digne. Il est chassé de l’Université lorsqu’en 1622 les Pères Jésuites en prennent la direction. En 1645, il est nommé professeur de Mathématiques au Collège Royal de Paris sur les recommandations d’Alphonse de Richelieu. Avec un télescope galiléen, Gassendi a fait de multiples observations du ciel nocturne, toutes rapportées dans un carnet de notes de 400 pages. Le rôle de Gassendi dans le changement des mentalités scientifiques de l’époque, en particulier en astronomie, a été reconnu par Isaac Newton qui le classe parmi les «géants».

L’époque des chimistes

page 10

© Peter v. Sengbusch

Antoine-Laurent Lavoisier (17431794) est considéré comme le père de la chimie moderne. Après des études de droit, il devint avocat au Parlement tout en poursuivant sa carrière de chimiste. Il révolutionna les idées de son époque sur la composition de la matière. Il fut fait prisonnier en tant qu’ancien fermier général et guillotiné sous la Terreur, l’année suivante. Le mathématicien Louis de Lagrange dira au lendemain de son exécution: «Il ne leur a fallu qu’un moment pour faire tomber cette tête et cent années, peut-être, ne suffiront pas pour en reproduire une semblable.»

À partir du XVIIe siècle les chimistes préparent le terrain pour une nouvelle conception de la structure de la matière basée sur les atomes. Tout d’abord Robert Boyle, physicien et chimiste irlandais, pose les bases des méthodes scientifiques modernes en affirmant qu’aucune théorie ne peut être considérée comme valable si elle n’est pas confirmée par l’expérience. Son œuvre « The Sceptical Chemist » peut être considérée comme la première publication scientifique moderne. Le chimiste français Antoine-Laurent Lavoisier montre, à l’aide de balances de précision, que les « composés » (aujourd’hui appelés molécules) sont en réalité constitués de plusieurs éléments. Il postule également sa célèbre loi qui affirme que la quantité de matière est égale avant et après toute réaction chimique. À la même époque, un autre chimiste français, Joseph Gay-Lussac fait la découverte suivante : lorsque l’hydrogène (découvert par le chimiste anglais Henry Cavendish en 1766) et l’oxygène se lient pour former de l’eau, ils suivent toujours les mêmes proportions. Les éléments chimiques sont donc des constituants de base, à l’origine de tous les corps composés. Au début du XIXe siècle, l’anglais William Prout émet l’hypothèse que la masse de tout atome est un multiple entier de celle de l’hydrogène. Poursuivant dans cette direction, John Dalton associe la notion d’atomes et d’éléments chimiques: chaque élément est formé d’un seul type d’atome, tous identiques. Cette hypothèse permet de mesurer le poids de différents atomes. Dalton publie pour la première fois le tableau des « poids atomiques » des éléments. À l’époque de Dalton on en connaît environ une vingtaine. Si des expériences, toujours plus précises, permettent de mieux connaître leurs propriétés, elles soulèvent également un certain nombre de questions. La principale interrogation est la suivante : pourquoi des éléments ayant des poids très différents ont-ils un comportement chimique très similaire ?

ÉLÉMENTAÍRE


La renaissance de l’atomisme Le tableau périodique de Mendeleïev Le chimiste russe Dimitri Mendeleïev, en 1869, propose comme réponse un nouveau système de classification : «la table périodique» des éléments. Dans ce tableau les éléments sont ordonnés selon leur poids atomique. L’adjectif «périodique» provient de son organisation qui prend en compte diverses observations expérimentales faites aux XVIIIe et XIXe siècles, montrant que certaines propriétés physiques et chimiques reviennent «périodiquement» quand on suit la liste des éléments chimiques ainsi classés. Les éléments d’une même colonne forment une famille ; leur point commun est d’avoir un nombre identique d’électrons sur la couche la plus faiblement liée au noyau ce qui explique – a posteriori – pourquoi ces éléments sont très proches d’un point de vue chimique. Sur une même ligne du tableau, on parle de période : on passe d’un élément au suivant en ajoutant un électron dans la couche la plus externe. Ce qui est remarquable, c’est que Mendeleïev a proposé sa classification en lignes et colonnes en se basant simplement sur des observations expérimentales, bien avant que l’explication de ces comportements en termes d’électrons ne soit découverte ! Depuis cette époque, le tableau de Mendeleïev s’est enrichi de dizaines de nouveaux éléments, naturels ou artificiellement créés en laboratoire. Le 101ème , synthétisé en 1957, s’appelle mendélévium. Le tableau décore encore les murs des classes de nos écoles et continuera de grandir aussi longtemps que les scientifiques découvriront des noyaux de plus en plus extrêmes (voir rubrique «Centre de recherche»). La fin du XIXe siècle marque le début d’une nouvelle ère : celle de l’exploration interne de l’atome.

Nombre de masse A Le nombre de masse A (A=12 pour le carbone) donne le nombre total de nucléons, c’est-à-dire la somme du nombre de protons (Z) et de neutrons (N, particules neutres) dans le noyau : A = Z + N. Tout comme le numéro atomique, c’est un nombre entier – on ne peut pas avoir de « demi proton » ni de « tiers de neutron ». Ces briques de matière se comptent une par une, ce qui est un exemple de la quantification de la nature au niveau subatomique.

C

12 6

Le numéro atomique Z Le numéro atomique Z (Z=6 pour le carbone) indique le nombre de protons présents dans le noyau d’un élément. Il le caractérise : à chaque élément chimique correspond une valeur donnée de Z. Comme le proton est chargé positivement (charge +e, où e est la charge élémentaire), le noyau a une charge +Ze. Il est entouré de Z électrons (chacun de charge -e), de sorte que l’atome est neutre. À travers les Z électrons, c’est le nombre atomique qui définit le comportement chimique des noyaux et des liaisons moléculaires. page 11

Classification périodique. Le numéro atomique de chaque élément a été indiqué.

ÉLÉMENTAÍRE

Dimitri Ivanovich Mendeleïev né à Tobolsk, en Sibérie en 1834, mort en 1907 à Saint-Petersbourg.


Histoire De l’atome au noyau © Peter v. Sengbusch

Si la notion d’atome remonte à l’Antiquité, ce n’est qu’au début des années 1900 que l’on a su mesurer leur taille et déterminer combien une quantité donnée de matière en contenait. Cependant, alors que l’on commençait à mesurer ses propriétés, on s’aperçut que l’«atome» ne portait pas bien son nom puisqu’il était formé d’objets plus élémentaires. L’électron et la radioactivité venaient d’être découverts. Actuellement les constituants élémentaires s’appellent «quark» et «lepton» et toute la matière (ou presque) résulte de l’association de ces objets. Dans ce qui suit nous allons nous intéresser aux atomes, puis à leur noyau.

Robert Brown (1773-1858)

Mouvement brownien La distance moyenne de parcours d’un granule, pendant une durée t, et projetée suivant une direction donnée, obéit à la relation : <X2> = 2 D t Le signe <..> indique que l’on effectue de nombreuses fois la mesure et que l’on calcule la moyenne des carrés des distances observées. D est le coefficient de diffusion que l’on peut par ailleurs calculer en connaissant les propriétés du fluide et celles des granules. Pour des sphères de rayon r, se déplaçant dans un milieu de viscosité connue, η :

où T est la température absolue du milieu et R la constante des gaz parfaits. Il reste une inconnue, le nombre d’Avogadro N, que l’on peut ainsi mesurer à partir d’une mesure de D. En modifiant les conditions de l’expérience (viscosité du milieu, température, diamètre des grains et temps d’observation) on a vérifié que des valeurs similaires de N étaient obtenues.

page 12

Mole et nombre d’Avogadro Une mole (mol) correspond à la quantité de matière formée par un ensemble d’objets élémentaires, qu’il convient de préciser (atomes, molécules, électrons, ions…), et dont le nombre est égal au nombre d’Avogadro. Par définition, ce nombre est celui des atomes de carbone contenus dans 12 grammes de cet élément. Il est égal à : N = 6,02214199... × 1023 Comme nous l’expliquons dans la rubrique «La question qui tue», la masse est liée à l’énergie interne de l’objet considéré. Aussi a-t-il été précisé (1980) que les atomes de carbone, considérés ici, doivent être non liés, au repos et dans leur état fondamental. Ils doivent en outre correspondre à l’isotope stable 12C de cet élément.

Voir les atomes Depuis les travaux des chimistes du XIXe siècle, la notion d’atome était bien établie ; encore restait-il à les compter, à les «voir». Nous allons parler ici des observations - le mouvement brownien et la diffusion des rayons X - qui ont permis d’affirmer que la matière était constituée d’atomes et surtout d’en déterminer la taille et le nombre.

Voir des petits avec des gros

Le mouvement brownien a peut-être été observé à la fin du XVIIIe siècle par de nombreux naturalistes, mais on attribue à Robert Brown, un botaniste écossais, une étude systématique de son origine, en 1827. Alors qu’il s’intéressait aux mécanismes de fécondation des plantes à fleurs, il nota le mouvement erratique de particules situées à l’intérieur de grains de pollen en suspension dans de l’eau. Ce type de mouvement était déjà connu et attribué à une propriété générale de la matière vivante (ou bien à des artefacts de la mesure comme par exemple des mouvements du fluide). R. Brown montra que ce mouvement d’agitation de particules, dont la taille doit être suffisamment petite (de l’ordre d’un micron) pour être observé, se produisait aussi bien avec des tissus organiques vivants ou morts, qu’avec des particules minérales. Les premières explications de cette agitation incessante et infatigable, comme résultat de collisions des particules en suspension avec les molécules du milieu, furent données indépendamment par A. Einstein (1905) et M.V. Smoluchowski (1906). Une théorie plus complète fut

Amedeo Avogadro (1776-1856). Juriste accompli, Avogadro poursuivit ses études en mathématiques et en physique à Turin. Il démontra la différence entre atomes et molécules et il postula qu’un volume de gaz, à une température et une pression données, contient le même nombre de molécules, indépendamment de sa nature.

ÉLÉMENTAÍRE


De l’atome au noyau © Boursorama

élaborée par P. Langevin en 1908. On peut remarquer qu’en 1900, le mathématicien L. Bachelier avait, dans un tout autre contexte, obtenu également la loi du mouvement brownien dans sa thèse intitulée: « La théorie de la spéculation ». Le prix d’une action évolue en effet à la suite des mouvements indépendants à la baisse ou bien à la hausse causés par les nombreux possesseurs d’actions (voir figure 1).

© Pour la Science

figure 1 : évolution du prix d’une action. Aux variations globales liées au contexte En 1912, Jean Perrin dessina la trajectoire économique se superposent des hausses et des baisses erratiques provoquées par les de tels grains (voir figure 2) en repérant leur comportements indépendants des petits porteurs. position à intervalles de temps réguliers. Il obtint une ligne brisée, sans direction privilégiée. En fait, même si on augmente la fréquence des mesures, on trouve toujours une trajectoire ayant la même complexité, pleine de changements de direction, sans régularité ni périodicité : c’est une courbe fractale. Si l’on repère la position d’un corpuscule à partir d’une position origine, on observe que la distance parcourue est, en moyenne, proportionnelle à la racine carrée du temps d’observation. Il s’agit d’une propriété, maintenant classique, des phénomènes de diffusion. C’est l’analyse d’Einstein du mouvement brownien qui a permis de définir quelle était la « bonne » quantité à mesurer, à savoir cette distance de parcours. Jusqu’alors les physiciens s’intéressaient à la vitesse des particules, opération sans espoir puisque l’on ne peut pas la définir pour ce type de mouvement (on dit encore que la trajectoire n’est pas régulière). À partir de ces mesures, ainsi que par d’autres approches (voir encadré sur la sédimentation), J. Perrin obtint la figure 2 : le mouvement brownien valeur du nombre d’Avogadro qui correspond au nombre de molécules d’une particule microscopique en présentes dans une mole de matière. suspension dans l’eau. (d’après

ÉLÉMENTAÍRE

Description d’une des mesures de J. Perrin utilisant la sédimentation de granules. Dans son étude du mouvement brownien, ainsi que pour d’autres mesures, J. Perrin utilisa des granules sphériques de petite taille qui lui ont servi d’intermédiaire entre notre échelle et celle du domaine atomique. Encore lui a-t-il fallu montrer que les propriétés de ces granules, en suspension dans un liquide, étaient similaires à celles des atomes ou des molécules, dans des gaz. Il fallait aussi fabriquer ces granules dont la taille devait être calibrée et connue. Voici quelques extraits de sa recette. « J’ai fait sans résultat quelques essais sur les solutions colloïdales. En revanche j’ai pu utiliser les émulsions que donnent deux résines, la gomme-gutte (figure 3) et le mastic (…). Une fois l’émulsion obtenue on la soumet à une centrifugation énergique (…). Les sphérules se rassemblent en formant une boue épaisse (…). On délaie cette boue dans de l’eau distillée, et l’on recommence page 13

figure 3 : La gomme-gutte est une résine produite par Garcinia Hanburyii, un arbre résineux du Nord-Est asiatique. Son utilisation en Occident remonte au XVIIe siècle. Sa couleur jaune-orangé l’a fait utiliser comme pigment en peinture, mais il a été maintenant abandonné car il se dégradait avec le temps. Elle servait aussi à la fabrication des fameuses boules de gomme. Le terme « gutte » provient de la méthode d’extraction consistant à inciser l’écorce de l’arbre ce qui provoquait des… gouttes.

© 1995-2003 Missouri Botanical Garden

un dessin de Jean Perrin ).


De l’atome au noyau

© H. Roger-Viollet

Jean Perrin (18701942) physicien français qui eut le prix Nobel de physique en 1926 pour ses travaux sur la nature discontinue de la matière. Il contribua à la fondation du Centre National de la Recherche Scientifique (CNRS) et créa à Paris le Palais de la Découverte.

Quelques unités de taille

Une des premières figures de diffusion de rayons X obtenues par Friedrich et Knipping en 1912 en suivant la proposition de Max von Laue. La tache centrale correspond à l’image des rayons ayant traversé le cristal sans déviation. Les autres taches proviennent de rayons diffusés dans des directions privilégiées. page 14

© The Nobel Foundation

Le mètre est une unité de mesure adaptée à notre vie quotidienne mais n’est pas très commode pour décrire des objets très petits. On utilise alors des sous-multiples du mètre comme : - le micron qui vaut 1 millième de millimètre (10- 6 m) et est bien adapté au monde microscopique (spores, microbes, cellules, …) - l’Ångström qui vaut 1/10 000ème de micron (10-10 m). Unité adaptée au monde atomique, il doit son nom au physicien suédois Anders Jonas Ångström (1814-1874), un des fondateurs de la spectroscopie. - le Fermi qui vaut 1/100 000ème d’ Ångström (10-15 m). C’est une distance caractéristique du monde nucléaire qui tire son nom du physicien italien Enrico Fermi (1901-1954).

jusqu’à ce que le liquide intergranulaire soit de l’eau pratiquement pure (…) Mais l’émulsion ainsi purifiée contient des grains de tailles très diverses, et il faut préparer une émulsion uniforme. » Il utilise alors une méthode de centrifugation et finalement :« J’ai traité dans mon fractionnement le plus soigné un kg de gomme-gutte, pour obtenir après quelques mois une fraction contenant quelques décigrammes de grains dont le diamètre était sensiblement égal à celui que j’avais désiré obtenir. » S’ensuivent différentes méthodes pour mesurer le diamètre des grains (typiquement entre 0,1 et 0,5 microns) et leur densité. La mesure consiste à compter le nombre de granules en fonction de leur hauteur (inférieure à un dixième de mm) dans une petite cellule contenant de l’eau. Sous les effets conjugués de la pesanteur et de l’agitation, un équilibre stable apparaît, la densité de granules diminuant lorsque l’on s’élève dans la cellule de mesure. Laissons de nouveau la parole à J. Perrin : « Considérons, par exemple, des grains tels qu’une élévation de six microns suffise pour que la densité devienne deux fois plus faible. Pour obtenir la même raréfaction dans l’air, il faudrait faire un bond de six km, un milliard de fois plus grand. Si notre théorie est bonne, le poids d’une molécule d’air serait donc le milliardième du poids que pèse, dans l’eau, un de nos grains . »… Et ça marche. La répartition des granules, en fonction de la hauteur (h) a une variation exponentielle (voir rubrique sur la loi exponentielle) :

Dans cette expression, d et D sont les densités respectives du milieu et des grains, mg est le poids d’un grain, T la température absolue du milieu (en Kelvin) et R la constante des gaz parfaits. Tous ces paramètres peuvent être mesurés, ainsi que la répartition des grains en fonction de la hauteur, ce qui permet de mesurer N. Les extraits sont tirés du livre «Les atomes» de J. Perrin.

Voir des petits avec des petits

La diffusion des rayons X par des cristaux a été le premier moyen direct de « voir » que ces derniers étaient formés par des arrangements réguliers d’objets plus petits : les atomes. Max von Laue, spécialiste des ondes lumineuses, eut l’idée d’utiliser des cristaux pour faire office de réseau de points avec lesquels devraient interagir les rayons X. En effet, si ces rayons étaient de même nature que les ondes électromagnétiques, leur longueur d’onde, qui avait été évaluée par Wien et Sommerfeld, correspondait aux distances inter-atomiques dans les cristaux. Les atomes du cristal forment un réseau régulier de points sur lesquels est diffusée l’onde lumineuse. Suivant les orientations respectives de l’onde incidente et des plans du réseau cristallin, certaines directions de l’onde réfléchie sont privilégiées. En 1912, une première expérience fut réalisée à l’Institut de Physique Théorique de Munich, avec des cristaux de sulfate de cuivre et montra que les rayons transmis s’accumulaient bien dans des directions privilégiées. William et Lawrence Bragg, respectivement père et fils, reprirent et développèrent les travaux de von Laue. Ils définirent des méthodes pour reconstruire la structure cristalline à partir des diagrammes de diffusion des rayons X. Le prix Nobel de physique fut attribué à von Laue en 1914 et à la famille Bragg en 1915, pour ces recherches.

ÉLÉMENTAÍRE


De l’atome au noyau © B. Mazoyer

θ

z A

θ

θ C

© The Hebrew University of Jerusalem

B

d

Loi de diffusion de Bragg On considère une onde lumineuse incidente sur la surface d’un cristal sous un angle θ. Les atomes du cristal sont représentés par des points. La lumière diffusée par un atome sera en phase avec celle diffusée par l’atome situé immédiatement en-dessous si la différence des trajets, pour ces deux situations, est un multiple de la longueur d’onde lumineuse : 2 d sin(θ) = n λ, où n est un nombre entier On peut généraliser ce raisonnement en considérant qu’un cristal est formé d’un réseau d’atomes à trois dimensions. Certaines directions vont ainsi être privilégiées et correspondre à des maxima d’intensité lumineuse.

Exemples de diagrammes de diffusion de rayons X à travers des cristaux de types différents à partir desquels la structure cristalline peut-être reconstituée.

ÉLÉMENTAÍRE

Arrangements d’atomes de silicium mesurés avec un microscope à effet tunnel au Département de recherche sur le rayonnement synchrotron de Lund (Suède). Chaque atome est visible et l’on peut observer leur disposition régulière ainsi que quelques défauts.

page 15

La découverte du noyau de l’atome est attribuée à Ernest Rutherford, Hans Geiger et leur étudiant Ernest Marsden. Leurs mesures eurent lieu en 1909 à Manchester. L’expérience consistait à mesurer la diffusion des particules alpha (c’est-à-dire des noyaux d’hélium) par une feuille d’or. Rutherford avait observé que l’image, enregistrée sur une plaque photographique d’un faisceau de particules alpha passant à travers une feuille mince, était diffuse. Il pensait que l’étude de ce phénomène le renseignerait sur des propriétés des atomes. Or, Rutherford et Geiger avaient développé un nouveau type de détecteur constitué d’un écran recouvert de sulfure de zinc qui émettait une faible lumière à l’endroit où passait une particule alpha. Produites par une source radioactive, les particules alpha devaient traverser une fente et formaient ensuite un faisceau étroit. La feuille d’or était placée au niveau de la fente et l’écran, une cinquantaine de centimètres plus loin. Le trajet des particules alpha devait s’effectuer dans le vide car quelques centimètres d’air suffisent à les arrêter. Pour observer les scintillations, Geiger examinait l’écran à travers un microscope qu’il déplaçait afin de compter le nombre de particules diffusées à une distance donnée de l’axe du faisceau (voir figure 4). Ces mesures indiquaient que l’angle moyen de diffusion était faible, inférieur à 1°, signe que la plupart des particules étaient peu déviées. Survint alors E. Marsden, étudiant de H. Geiger. Ce dernier demanda à Rutherford un sujet d’étude. Rutherford lui dit alors de chercher s’il y avait des particules alpha qui étaient diffusées à plus de 90°, c’est à dire qui repartaient « à l’envers ». Quelques jours plus tard, Geiger rapporta que Marsden avait observé de telles particules.

© Lund University

Les noyaux : petits mais costauds


© John L. Park

La mesure des particules alpha par scintillation Chaque particule alpha provoque une légère émission lumineuse en frappant l’écran de sulfure de zinc, placé à l’extrémité du microscope. Cette dernière ne peut être perçue que par des yeux adaptés à l’obscurité. Une même personne ne peut compter correctement les éclairs que pendant une minute et encore faut-il que la cadence ne dépasse pas 90 à la minute. Certains ont écrit que le fait de passer de nombreuses heures dans ces conditions a incité Geiger à trouver un meilleur moyen de compter ces particules…

H. Geiger (à gauche) et E. Rutherford (à droite) à côté de l’appareillage ayant permis de montrer la présence d’un noyau petit et massif au centre des atomes.

© B. Mazoyer

De l’atome au noyau

figure 4 : Schéma de principe de l’expérience de Geiger, Marsden et Rutherford.

Rutherford en fut sidéré : en ayant extrapolé les résultats précédents il s’attendait à ne pas en trouver plus d’une pour un milliard. Les mesures suivantes montrèrent que les diffusions à grands angles se produisaient avec une probabilité de 1/8 000. Rutherford en conclut que certaines particules alpha rebondissaient sur quelque chose de petit et de lourd situé à l’intérieur des atomes. En effet, lorsqu’un projectile repart dans la direction opposée, après collision, sa masse est nécessairement inférieure à celle de la cible (voir figure 5). Geiger et Marsden complétèrent leurs mesures allant jusqu’à dénombrer plus de 100 000 scintillations et Rutherford en déduisit que la taille du noyau était environ 1/10 000 de celle de l’atome. Pour expliquer ces résultats il proposa un mécanisme selon lequel les particules alpha, qui ont une charge positive, sont déviées par le champ électrique créé par la charge, également positive, du noyau atomique. La trajectoire de la particule alpha est alors une hyperbole et l’angle de déviation est directement lié à la distance d’approche de la particule au noyau (voir figure 6). À partir de ce modèle, Rutherford fut aussi à même de prédire la variation du nombre de particules alpha en fonction de leur angle de déviation. Ces prédictions étaient en parfait accord avec les mesures. Ceci impliquait que le rayon du noyau des atomes d’or était plus petit que la distance minimale d’approche accessible à l’expérience.

© B. Mazoyer

Avant cette date Jean Perrin, remarquant qu’il était difficile pour des atomes d’argon d’entrer en rotation lors de chocs, en avait déduit que la masse de l’atome devait être concentrée dans une très petite région. « En définitive, je présume qu’on reste au-dessous de la vérité en admettant que la matière des atomes est contractée dans un volume au moins un million de fois plus faible que le volume apparent qu’occupent ces atomes… »

page 16

figure 5 : Choc frontal entre deux billes de masses différentes, l’une étant à l’arrêt.

Personne n’eut, semble-t-il, de prix Nobel pour la découverte du noyau atomique…

ÉLÉMENTAÍRE


De l’atome au noyau

© B. Mazoyer

figure 6 : La particule alpha, de charge électrique 2e, est d’autant plus déviée par le noyau atomique, de charge Ze, qu’elle passe plus près de lui. La distance d’approche, entre les deux objets est mesurée par la valeur de la quantité b appelée le paramètre d’impact. Si l’on mesure l’angle de diffusion (θ) de la particule alpha et si l’on connaît son énergie (E), on peut calculer la valeur de b sachant que les deux charges se repoussent avec une force inversement proportionnelle au carré de leur distance:

En supposant que les particules alpha arrivent de manière uniforme dans l’espace au voisinage du noyau, l’expression ci-dessus permet d’évaluer la probabilité d’observer une particule diffusée dans une direction fixée. On trouve qu’elle est inversement proportionnelle au carré de l’énergie de la particule et à la puissance quatrième de sin (θ/2). Cette loi a été vérifiée par les mesures de Rutherford et de ses collaborateurs ce qui indiquait que le noyau de l’atome était plus petit que le paramètre d’impact minimal accessible. L’expérience de Rutherford est le prototype de nombreuses expériences ultérieures destinées à sonder la matière à des distances de plus en plus faibles.

ÉLÉMENTAÍRE

page 17

Ernest Rutherford (1871- 1937) est né en Nouvelle-Zélande. Il y débuta ses recherches qu’il poursuivit en 1894 à Cambridge sous la direction de J-J. Thomson. En 1898, il partit pour Montreal afin d’occuper un poste de professeur. Il retourna en Angleterre en 1907, d’abord à Manchester puis à Cambridge où il succéda comme professeur à J-J. Thomson. Ses talents d’expérimentateur furent remarqués très tôt. En 1898, il rapporta l’existence des rayons alpha et bêta émis par l’uranium et indiqua certaines de leurs propriétés. Il reçut le prix Nobel de chimie en 1908 pour ses travaux sur les particules alpha dont il montra, notamment, qu’il s’agissait de noyaux d’hélium. Il utilisa ces particules pour étudier la structure de l’atome et conclut qu’il fallait abandonner le modèle de J-J. Thomson, dit du « plumpudding », dans lequel les charges positives et négatives sont mélangées au sein du volume atomique.

© ACJC-- Archives Curie et Joliot-Curie

Il s’agit de l’atome le plus simple dont le noyau est constitué d’un proton autour duquel s’agite un électron. Il est impossible de donner à un instant précis la position de l’électron, autour du noyau. Par contre on sait calculer la probabilité de trouver cet électron à une distance quelconque de ce noyau. La représentation ci-contre montre cette distribution, que l’on doit encore multiplier par l’élément de volume 4 π r2 dr. Elle est nulle au centre, est maximale lorsque r = r0 (le rayon de Bohr) et décroît de manière exponentielle lorsque l’on s’éloigne du noyau. Le rayon d’un atome est donc une notion un peu floue qui dépend de la manière dont l’atome va interagir avec ses congénères, en échangeant des électrons. Le rayon r0 = 0,53 × 10-10 m est gigantesque (60 000 fois plus grand) par rapport à celui du proton, situé au centre de l’atome, qui vaut 0,87 × 10-15 m. Sachant que la masse d’un proton vaut 1,67 × 10-27 kg on peut évaluer la densité de la matière nucléaire constituant le proton. On trouve la valeur impressionnante de 610 millions de tonnes/cm3. Tout le reste de l’atome est occupé par l’électron, animé d’un mouvement incessant et imprédictible, qui échange en permanence de nombreux photons avec le proton. La masse de l’électron n’étant que de 9,11 × 10-31 kg, la densité de l’atome, en dehors de son noyau, est de 1,46 mg/cm3.

© GNU Free Documentation License

À quoi un atome ressemble-t il ? L’exemple de l’hydrogène.


Interview Claude Détraz Pourquoi avez-vous fait de la physique ?

Uniquement pour de mauvaises raisons, des raisons très superficielles en tout cas ! Le nom de Joliot m’a attiré. Je suis entré dans un laboratoire en 1960 et j’étais très ignorant des perspectives de la physique. Je ne pense pas être le seul dans ce cas-là.

Pour vous, qu’est-ce qu’une particule ?

Un assemblage d’autres particules aussi loin que je peux voir. Elles ne se ressemblent pas, à chaque niveau de la matière il y a toujours une nouvelle physique. En ce sens, ce ne sont pas des poupées russes.

© HK

Quels sont les aspects qui vous ont le plus marqué dans votre vie professionnelle ?

L’interaction avec les gens fut passionnante, ce fut là le bonheur. Sur le plan scientifique, j’étais attiré par l’aspect ludique : par exemple, explorer les noyaux exotiques. Jamais je ne me suis posé la question de savoir si c’était fondamental. C’était la nouveauté que je trouvais passionnante. C’est là mon meilleur souvenir.

Claude Détraz a été chercheur au CNRS de 1962 à 1998 en tant que spécialiste de la physique des noyaux. Il a dirigé le Grand Accélérateur National d’Ions Lourds (GANIL) de 1982 à 1990, puis il fut nommé directeur de l’Institut National de Physique Nucléaire et de Physique des Particules (IN2P3) de 1992 à 1998. En 1999, il a pris en charge le programme d’expériences sur cibles fixes au CERN, à Genève, jusqu’à fin 2003.

Et vos regrets ?

On mesure ses limites lorsque l’on fait de la recherche. Mes regrets, ce sont les choses que j’aurais dû trouver et que je n’ai pas trouvées par manque d’acharnement, d’engagement personnel. Je ne suis pas allé jusqu’au bout de ma réflexion. À la fin des années 60, avec Robert Klapisch, nous imaginions une réaction nucléaire avec les noyaux exotiques que l’on fabriquait. Nous y avons renoncé, pensant qu’il en faudrait des millions voire des milliards de fois plus. Par anémie de la pensée, j’en suis resté à cette intuition fausse au lieu d’approfondir. D’autres l’ont fait, ils ont fait preuve de plus de conviction dans leur travail. J’ai énormément travaillé par périodes, par exemple lors de prises de données mais parfois avec un engagement de pensée pas assez fort. Il ne faut pas se satisfaire de demimesures. Cet esprit d’exigence, je ne l’ai pas eu. C’est un vrai regret.

Matière hadronique Matière constituée de hadrons qui sont des particules sensibles à l’interaction forte. Ces hadrons sont constitués de quarks liés entre eux par des gluons.

© CPEP Berkeley

Quel avenir voyez-vous pour la physique nucléaire fondamentale ?

page 18

Les trois familles de fermions

La matière hadronique peut se décliner sous un très grand nombre d’aspects, la nature et le nombre des hadrons variant à l’infini. Le noyau a cette propriété particulière d’être stable, ce qui le rend propice à l’étude, mais n’en fait pas le spécimen nécessairement le plus intéressant. Pourquoi ne pas s’intéresser à des ensembles de neutrons ? Ou à des combinaisons très dissymétriques de protons et de neutrons ? Ou introduire dans ces ensembles des hadrons contenant d’autres quarks que u et d ? Que deviendront, dans ces ensembles exotiques, les effets de Van der Waals des quarks confinés ? Concernant les noyaux, qu’on connaît bien maintenant, on peut argumenter qu’il reste des choses à découvrir. Cela seul ne peut constituer un critère. Il faut d’abord aller renifler là où sont les plus grandes ignorances, les plus dérangeantes. Pour la matière hadronique comme pour autre chose, c’est vers ce qu’on ignore le plus qu’il faut avancer.

ÉLÉMENTAÍRE


Claude Détraz © HK

Quelles applications à venir imaginez-vous ?

Elles se font d’elles-mêmes, je ne les imagine pas. On ne peut pas faire de politique volontariste des applications. Je préfère de beaucoup le mot interface au mot application. La physique nucléaire est riche d’interfaces. C‘est à la capacité à vivre l’existence de ces interfaces comme des chances plutôt que comme des spoliations que se juge la qualité d’une communauté scientifique. L’attitude de rejet de ces interactions avec le monde extérieur est mortifère. Toute science qui vit dans un champ clos qu’elle s’est auto-délimité nie la dialectique des problèmes scientifiques qui se posent et qui nous obligent sans arrêt à aller chercher ailleurs. Dans les années 60, la physique nucléaire consistait à chercher le modèle du noyau le plus statique possible, en partant des principes les plus premiers. La fascination pour la complexité qui est arrivée avec l’étude des ions lourds a été un enrichissement pour ce que l’on appelle toujours la physique nucléaire, mais elle a été vécue par certains comme une dérive, une aberration. J’ai des souvenirs très précis de colloques franco-français où certains collègues proposant d’envoyer de gros noyaux sur de gros noyaux étaient incapables de se faire entendre. J’ai même entendu dire que l’«on n’a jamais rien appris en envoyant une montre suisse contre une autre montre suisse ». Il faut reconnaître la complexité comme un problème légitime et une source de savoir.

C. Détraz durant l’entretien

Physique des ions lourds On utilise des ions obtenus à partir d’atomes de numéro atomique élevé (par exemple le plomb) pour faire des collisions et étudier le comportement de la matière nucléaire dans des conditions extrêmes.

Supersymétrie C’est une théorie qui associe à chaque particule élémentaire du modèle standard un partenaire beaucoup plus massif. La présence de ces partenaires supersymétriques permettrait d’expliquer de manière simple l’origine de la masse des particules, en conjonction avec le(s) boson(s) de Higgs. Ces «super-partenaires» n’ont encore jamais été observés dans des expériences.

D’après vous, que va apporter le LHC ?

Toute la compréhension du mécanisme de la masse ! Un formalisme très riche, très savant qui donne une grille de lecture pour ce que l’on va observer (y compris pour le mettre en défaut). J’appelle cela grille de lecture plutôt que théorie. Cela permet le dialogue. On va aussi voir la supersymétrie. Tout indique qu’elle va se manifester au niveau du TeV. Cette aventure est légitime. Tout ce que l’on a appris nous dit que c’est là qu’il faut chercher. Ce consensus témoigne d’une grande maturité de la communauté de la physique des particules.

Comment êtes-vous passé de la recherche fondamentale à vos tâches de direction ?

ÉLÉMENTAÍRE

page 19

J’ai fait beaucoup de syndicalisme, de politique. J’ai toujours eu plaisir à convaincre. Ce plaisir est très fort dans la recherche, le travail de direction prolonge naturellement cela. Je suis passé d’une interaction avec 5 ou 6 personnes à une autre avec 50 ou 100 personnes. J’ai pris plaisir à cela. Il existe toujours en arrière plan le désir d’accomplir, de transformer quelque chose, de faire émerger quelque chose d’une pâte sociale. La direction scientifique c’est la même chose, c’est de la politique. On fait des choix en interagissant beaucoup avec les personnes. J’ai tendance à beaucoup parler : je crois que c’est mieux de dire les choses, même au risque de changer d’idée par la suite. Il n’y a rien de pire qu’un directeur silencieux. Lorsque l’on m’a proposé la direction du GANIL, j’ai beaucoup hésité, car je connaissais peu de technique et mal la physique des ions lourds, j’ai dit oui car j’ai eu envie d’aller jouer dans une cour plus grande !


Claude Détraz Et votre rêve de physicien ?

Que la physique devienne une culture pour tous. Ce qui est le plus intéressant, c’est la connaissance. On a toujours peur de ce que l’on ne connaît pas. La physique est une connaissance insuffisamment partagée, malgré de nombreuses actions remarquables telles que La main à la pâte. L’ignorance est toujours dommageable. L’apport culturel que l’on peut avoir en tant que physicien est considérable. C’est une des raisons qui me rendent favorable à un statut unique du personnel scientifique, un seul grand corps qui mélange recherche fondamentale, diffusion et valorisation des connaissances, et donc le monde universitaire. La séparation actuelle est mauvaise.

La main à la pâte est une association créée par Georges Charpak (prix Nobel de physique en 1992), dont la vocation est d’expliquer aux enfants des écoles primaires la démarche scientifique. En partant d’une question simple, les animateurs laissent les enfants formuler des hypothèses puis les aident à réaliser une expérience qui tranchera parmi les idées qu’ils ont proposées. Enfin, les élèves rédigent un compte-rendu sur leur «cahier d’expérience». Le site internet de cette association : http://www.inrp.fr/lamap/ Voir aussi la chronique hebdomadaire de France Info sur ce sujet : http://www.radiofrance.fr/ chaines/france-info/chroniques/ experience/

Que diriez vous aux jeunes physiciens ?

Ne vous spécialisez pas trop tôt. Changez de laboratoire, de thème. On a la chance en France d’avoir une structure de fonctionnaires qui est excellente. On a donc un devoir de mobilité et d’audace. Profitez-en en cherchant des choses qui vous interpellent.

Et aux étudiants ?

page 20

© SFP

Il existe plein de problèmes inconnus à résoudre. Il y a une vraie vie collective dans la physique, on y vit des choses fortes. Des gens qui travaillent et qui ont du talent y mènent une vie scientifique heureuse.

Les deux Claude Claude Détraz en compagnie de Claude Allègre (Ministre de l’Education Nationale, de la Recherche et des technologies de 1997 à 2000), dessinés par Mérel pour l’affiche des Rencontres des Jeunes Chercheurs de la SFP (Société Française de Physique) en 1998.

ÉLÉMENTAÍRE


Centre de recherche Le laboratoire du GANIL GANIL : un grand instrument au service de la recherche

© Carte-France

Le Grand Accélérateur National d’Ions Lourds (GANIL) est un équipement commun au Département des Sciences de la Matière (DSM) du Commissariat à l’Énergie Atomique (CEA) et à l’Institut de Physique Nucléaire et de Physique des Particules (IN2P3) du CNRS, associés à parts égales dans un Groupement d’intérêt économique créé en 1976. Il est en exploitation depuis 1983 et est reconnu Grande Installation Européenne depuis 1995. Situé à Caen, il emploie directement 250 physiciens, ingénieurs et techniciens. La communauté des physiciens travaillant au GANIL est constituée de 500 utilisateurs, issus de 130 laboratoires provenant de 30 pays. Sa mission première est d’offrir à la communauté scientifique les moyens de conduire des recherches fondamentales en physique nucléaire, c’est-à-dire la physique du noyau de l’atome. Toute matière est constituée d’atomes, eux-mêmes constitués d’électrons s’agitant autour d’un noyau formé de nucléons : les neutrons et les protons. L’agencement et la cohésion de cet ensemble de nucléons sont étudiés dans les expériences effectuées au GANIL ainsi qu’à travers l’activité d’un groupe de physique théorique.

© culture.gouv

La deuxième mission du GANIL est le développement d’utilisations des ions lourds (atomes ayant perdu quelques électrons) par d’autres domaines de recherche fondamentale ou appliquée, susceptibles de répondre à des enjeux de société. Par exemple des études de physique atomique y sont menées ainsi que des expériences de radiobiologie sur les effets des fortes densités d’ionisation sur les organismes vivants.

ÉLÉMENTAÍRE

Vue aérienne du GANIL page 21

Au GANIL une multitude d’éléments est accélérée, depuis le carbone jusqu’à l’uranium, à des vitesses pouvant atteindre le tiers de la vitesse de la lumière. GANIL est constitué d’une succession de trois cyclotrons, voire même quatre dans certains cas, qui permettent tour à tour de sélectionner les ions à extraire de la source (C01 ou C02 sur la figure 1), de les accélérer une première fois (CSS1) puis de les amener à leur vitesse finale (CSS2) avant de les envoyer sur une cible de matière. Lorsqu’un noyau du faisceau heurte un noyau de la cible, des rayonnements et des fragments

© GANIL

Dans le domaine d’énergie du GANIL, seuls cinq autres accélérateurs existent de par le monde : AGOR en Hollande, le cyclotron de Catane en Italie, NSCL-MSU aux Etats-Unis, GSI de Darmstadt et le cyclotron du RIKEN au Japon.


Le laboratoire du GANIL sont émis. Des détecteurs spécifiques situés au voisinage de la collision détectent les produits et génèrent ensuite des signaux électriques. Plusieurs milliers de collisions ont lieu chaque seconde ! On procède alors à un enregistrement de ces signaux pour une analyse ultérieure. Les chercheurs analysent ces indices, tels des Sherlock Holmes de l’infiniment petit, reconstituent l’historique de la collision et caractérisent les propriétés fondamentales des noyaux atomiques.

CSS2 CSS1

© J.M. Schuller

L’exotisme de la Basse - Normandie

Au GANIL il est également possible d’étudier des noyaux très instables. En envoyant un faisceau d’ions stables sur une cible (constituée elle-même d’atomes et donc de noyaux), on Le GANIL en cours de construction. On distingue les deux peut créer des espèces très exotiques qui n’existent pas à l’état cyclotrons accélérateurs CSS1 et CSS2. En service, l’ensemble est naturel car leurs nombres respectifs de neutrons et de protons entouré et recouvert d’épaisses poutres de béton qui protègent font qu’ils ont une durée de vie très courte (voir rubrique le personnel des rayonnements produits par la machine lors de «Analyse»). Ces noyaux sont produits dans les explosions son fonctionnement. des supernovae, ces morts violentes d’étoiles qui ont lieu à des années-lumière de chez nous (voir rubrique «Apéritif»). Cher alchimiste ! Les mêmes noyaux sont créés à Caen, et y sont étudiés en détail. Ces Au GANIL on sait faire de l’or. Il noyaux sont produits au GANIL par la méthode dite de fragmentation. «suffit» d’arracher quelques protons et quelques neutrons à un autre élément Ils peuvent être créés soit sur la ligne LISE, soit sur l’ensemble SISSI. Ce par exemple le plomb. En effet, ce dernier est un système de focalisation des noyaux exotiques, situé à la dernier est constitué de 208 nucléons sortie de CSS2 (voir figure 1) et qui permet de diriger le faisceau créé (82 protons et 126 neutrons) alors que directement vers les différentes lignes expérimentales mais également

© GANIL

le noyau d’or possède 197 nucléons (79 protons et 118 neutrons). Quoi de plus facile que d’envoyer un faisceau de carbone sur une cible de plomb pour « spolier » le plomb de ces trois protons et huit neutrons de trop qui font toute la différence. Cependant la probabilité pour que cela arrive est très faible et pour « fabriquer » un gramme d’or à partir d’un morceau de plomb il faudrait plusieurs années de fonctionnement du GANIL ! Et à 2000 euros de l’heure de fonctionnement… Finalement l’or n’est pas si cher que ça dans le commerce!

page 22

figure 1 : Plan des différentes salles expérimentales du GANIL. En haut à gauche les sources d’ions alimentent de petits cyclotrons injecteurs (CO1 et CO2) fonctionnant en alternance. Les deux gros cyclotrons (CSS1 et CSS2) accélèrent les ions qui sont ensuite conduits dans les salles d’expériences (VAMOS, EXOGAM, INDRA...). En haut à droite on distingue l’accélérateur d’ions exotiques SPIRAL qui possède sa propre ligne d’injection.

ÉLÉMENTAÍRE


Le laboratoire du GANIL sur l’ensemble SPIRAL (Système de Production d’Ions RAdioactifs en Ligne) depuis l’année 2001. SPIRAL fonctionne de la manière suivante : le faisceau d’ions lourds stables produit par les trois premiers accélérateurs C0, CSS1 et CSS2 est dirigé sur une cible épaisse de carbone. Les ions se fragmentent alors en un grand nombre de noyaux radioactifs qui sont ensuite extraits de la cible chaude (2000°C), ionisés et réaccélérés dans un quatrième cyclotron, CIME, jusqu’à des énergies de 25 MeV par nucléon, avant d’être envoyés vers les différents halls expérimentaux.

Nombre magique La liaison nucléaire est systématiquement plus forte lorsque les noyaux possèdent des nombres spécifiques de protons ou de neutrons (2, 8, 20, 28, 50, 82, 126). Cette propriété étonnante a valu à ces configurations le qualificatif de « magique ». Pour comprendre ce phénomène, il faut imaginer qu’à l’instar des électrons dans l’atome, les nucléons s’ordonnent en couches successives dans le potentiel qu’ils génèrent eux-mêmes. Ces dernières années on a cherché en vain un état lié d’oxygène 28, pourtant magique en nombre de protons (8) et en nombre de neutrons (20). Cela contredit les prévisions de la «magicité» pour les noyaux très exotiques pour lesquels de nouveaux nombres magiques semblent apparaître.

LISE, une ligne de production et d’analyse de noyaux exotiques issus de la fragmentation du faisceau sur une cible où les fragments produits sont triés par des champs magnétique et électrique.

INDRA, un multi-détecteur de particules chargées, composé de plus de 600 modules et couvrant quasiment toutes les directions d’émission. Il a été principalement conçu pour étudier l’équation

ÉLÉMENTAÍRE

La ligne de production LISE

page 23

Différents détecteurs existent au GANIL permettant d’étudier les diverses caractéristiques des noyaux par l’intermédiaire des rayonnements émis lors des collisions. Chaque ensemble de détection est situé dans l’une des huit salles d’expérience (voir figure 1). Citons :

© M. Désaunay GANIL

Au GANIL, plusieurs centaines de noyaux ont ainsi été découverts et étudiés. Cette exploration met en évidence de nouvelles formes de cohésion, de nouvelles stabilités, de nouvelles structures. De nouveaux noyaux très exotiques, mais au temps de vie mesurable, ont été observés, tels ces noyaux doublement magiques : l’étain 100 composé de 50 protons et de 50 neutrons ou le nickel 48 composé de 28 protons et de 20 neutrons. Dans ce bestiaire, on a observé une forme de radioactivité nouvelle où deux protons sont émis simultanément. Lors de collisions entre ions lourds, des températures dépassant 100 milliards de degrés ont été atteintes : le noyau se fragmente alors puis se vaporise. Cette transition de phase, de type liquide-gaz, a pu être observée grâce au multidétecteur INDRA (voir rubrique «Détection»). Des états vibrationnels de grande énergie, les multiphonons, ont également été mis en évidence pour la première fois au GANIL. Parmi les noyaux exotiques, certains se trouvent entourés d’un large nuage de neutrons (le halo) les rendant incroyablement gros. Par exemple, le 11Li peut être décrit comme un cœur de 9Li entouré d’un halo de deux neutrons. Ces noyaux occupent un volume aussi grand que celui de l’uranium qui contient 235 nucléons et est un des plus gros noyaux. La manière dont ce halo se casse nous renseigne sur la structure du noyau.


Le laboratoire du GANIL

© GANIL

d’état de la matière nucléaire. Ce détecteur est plus amplement décrit dans la rubrique «Détection».

Le détecteur ExoGam

SPEG, un spectromètre très performant permettant de connaître la variation d’énergie cinétique du faisceau (l’énergie dissipée dans la collision) au 10 millième près.

ExoGam est un détecteur de rayons gamma conçu pour la spectroscopie des noyaux exotiques issus du cyclotron SPIRAL (voir figure 1 page 22).

VAMOS est un spectromètre magnétique permettant l’identification des produits de réaction générés par les faisceaux exotiques ; il est utilisé en tandem avec le détecteur ExoGam.

SPIRAL aujourd’hui et demain

Le cyclotron CIME accélère les fragments produits par la collision du faisceau du GANIL avec une cible de carbone et délivre des faisceaux d’atomes n’existant pas à l’état naturel sur terre.

De par le processus de fragmentation qui les produit, les faisceaux exotiques actuellement disponibles avec SPIRAL sont limités à des nombres de masse inférieurs à 80. Pour obtenir des noyaux exotiques plus lourds il faut changer de mécanisme de production et utiliser les réactions de fission. C’est le but du projet SPIRAL 2 qui pourrait démarrer en 2009. Un accélérateur linéaire bombardera une cible de carbone avec un faisceau intense de deutons (formés d’un proton et d’un neutron) qui en se cassant, produiront une forte intensité de neutrons. Les neutrons seront alors envoyés sur une cible d’uranium qui fissionnera en donnant des fragments très excédentaires en neutrons et dont le nombre de masse peut varier de 60 à 160. Ceux-ci seront ensuite accélérés par le cyclotron CIME.

Dipôles de l’ensemble SPEG

Faisceau

Ensemble de détection des ions lourds Le spectromètre SPEG

page 24

© GANIL

© GANIL

Chambre à réaction où ont lieu les collisions

Le spectromètre VAMOS

ÉLÉMENTAÍRE


Expérience INDRA INDRA (Identification de Noyaux et Détection avec Résolutions Accrues) est un détecteur utilisé au GANIL pour la physique nucléaire (voir la rubrique «Centre»). Sa construction a été une collaboration entre les laboratoires du DAPNIA du CEA/Saclay, du GANIL et de deux laboratoires de l’IN2P3 (CNRS) : l’IPN d’Orsay et le LPC de Caen.

DAPNIA Département d’Astrophysique, de physique des Particules, de physique Nucléaire et de l’Instrumentation Associée CEA Commissariat à l’Énergie Atomique IN2P3 Institut National de Physique Nucléaire et de Physique des Particules CNRS Centre National de la Recherche Scientifique IPN Institut de Physique Nucléaire d’Orsay LPC Laboratoire de Physique Corpusculaire GANIL Grand Accélérateur National d’Ions Lourds

Pourquoi INDRA ? Les ions lourds sont des objets privilégiés de la physique nucléaire. Leur noyau rassemble un grand nombre de protons et de neutrons (appelés génériquement nucléons) liés entre eux par la force nucléaire – voir la rubrique «La question qui tue». Cette force reste mal comprise : ses effets sont déjà difficiles à calculer pour des systèmes simples comme le noyau de deutérium constitué d’un proton et d’un neutron... Le cassetête n’en est donc que plus redoutable dans le cas d’ions lourds qui contiennent plusieurs dizaines de nucléons. Mais est-il insoluble ?

�����������������

© M. Désaunay GANIL

Iodure de césium

Silicium

Chambre à ionisation

En fait, nous rencontrons le même problème face à un simple verre d’eau : un liquide est constitué d’un grand nombre de molécules (plus de 1024) qui interagissent d’une manière très compliquée entre elles et avec les parois du verre. Il est pourtant possible «d’oublier» cette complexité pour se concentrer sur des grandeurs globales, comme la pression, la température ou le volume. «Étudier les propriétés de l’eau» revient à relier ces grandeurs grâce à une équation d’état, afin d’obtenir une description du liquide à grande échelle (macroscopique). On peut aussi déterminer sous quelles conditions ce liquide change d’état et, par exemple, se transforme en vapeur. Il sera toujours temps ensuite de comprendre l’origine (microscopique) de ces relations à l’aide d’une théorie plus fondamentale qui décrira toutes les interactions (électriques...) entre les molécules d’eau.

page 25

ÉLÉMENTAÍRE

Le détecteur INDRA constitué de chambres d’ionisation (en vert), de silicium (en rouge) et de cristaux d’iodure de césium (en bleu).


INDRA Le détecteur INDRA INDRA est constitué de plus de 600 éléments de détection qui couvrent 90% des directions d’émission possibles. Il permet l’étude des propriétés globales pour la matière nucléaire en recueillant les débris issus de collisions d’ions lourds accélérés à des énergies allant de 20 à 100 MeV par nucléon. À basse énergie (autour de 20 MeV par nucléon), ces collisions créent des noyaux chauds et excités. Ces noyaux perdent l’énergie acquise au cours de la collision en émettant des particules légères ou en se désintégrant par fission en noyaux plus légers. Ces processus permettent d’étudier l’équation d’état de la matière nucléaire et le comportement de cette dernière sous des contraintes thermiques et mécaniques (compression, déformation, rupture). Ces résultats sur la matière nucléaire dans des conditions extrêmes fournissent aussi des informations inédites sur les réactions thermonucléaires qui régissent la vie et la mort des étoiles (effondrement des étoiles à neutrons, explosion des supernovae). Aux énergies intermédiaires (autour de 50 MeV par nucléon), les noyaux se fragmentent en de nombreux noyaux plus ou moins massifs ; c’est le début du mécanisme appelé « multifragmentation ». Aux énergies les plus élevées (100 MeV par nucléon et au-delà), les noyaux commencent à se vaporiser en un grand nombre de particules légères. La multifragmentation est de plus en plus présente.

Énergie par nucléon Le GANIL étudie des collisions d’ions lourds, c’est-à-dire de noyaux atomiques rassemblant un grand nombre de protons et de neutrons (appelés génériquement nucléons). Ces ions sont accélérés pour augmenter l’énergie disponible, que l’on a coutume d’évaluer en la rapportant au nombre de nucléons présents lors de la collision. En effet, ce sont ces nucléons qui vont interagir entre eux lors des chocs entre noyaux.

Équation d’état Une équation d’état relie différentes grandeurs macroscopiques qui décrivent un système complexe. Un exemple simple est fourni par la loi des gaz parfaits : PV = nRT où P est la pression du gaz, V son volume, T sa température absolue, n le nombre de molécules du gaz (mesuré en mol, unité de quantité de matière) et R=8,31 J/mol/K est une constante dite des gaz parfaits. Cette loi fournit une bonne approximation du comportement des gaz à basse pression et haute température. Dans le cas de la matière nucléaire, on cherche une équation d’état susceptible de relier température, pression et densité. Cette équation fournira des renseignements utiles sur la force forte responsable de la cohésion des noyaux.

Ce mécanisme, mis en évidence pour la première fois grâce à INDRA, est un phénomène complexe encore mal compris par les théoriciens, car il met en jeu un nombre important de nucléons soumis à des transformations violentes (cette discipline porte le nom de « physique statistique hors d’équilibre des systèmes finis »). L’analyse détaillée de la « multifragmentation » par INDRA a fourni des informations utiles sur les transitions qui se produisent au cours de collisions à haute énergie : en effet, on passe de noyaux stables, qui obéissent à des lois thermodynamiques suivies par les liquides, à un grand ensemble de particules légères, dont les caractéristiques globales se rapprochent de celles d’un gaz. Une telle transition s’apparente donc au cas plus familier de l’eau que l’on fait bouillir pour la transformer en vapeur.

Comment ce détecteur fonctionne-t-il ?

page 26

INDRA est composé de trois types de détecteurs dont les principes de base sont similaires. Quand une particule pénètre dans l’un d’entre eux, elle entre en collision avec les atomes et les molécules qui le composent. Ces collisions, qui affectent la trajectoire ultérieure de la particule, sont converties en un signal reçu et analysé par des appareils de mesure. La nature de ces informations varie selon l’appareil : les détecteurs scintillants émettent une onde lumineuse, tandis que les détecteurs solides ou gazeux envoient une impulsion électrique. Dans tous les cas, le signal est finalement transformé en un courant électrique enregistré par un ordinateur.

ÉLÉMENTAÍRE


INDRA 1. Les détecteurs à gaz (chambres d’ionisation)

Le passage d’une particule chargée ionise le gaz présent dans la chambre, c’està-dire qu’elle arrache des électrons aux atomes de ce gaz. Un champ électrique pousse ensuite ces électrons vers des électrodes qui les collectent pour les transformer en signal électrique. Ce dernier est proportionnel à l’énergie déposée. Cet appareil possède l’avantage de n’opposer que peu de matière à la particule détectée, de sorte que la trajectoire de cette dernière n’est guère perturbée par la mesure ce qui permet d’avoir un seuil de détection plus bas que pour les deux types de détecteurs suivants.

2. Les détecteurs solides (semi-conducteurs)

Il en existe deux grands types, à base de silicium ou de germanium. L’interaction d’une particule dans le détecteur arrache des électrons au semi-conducteur. Sous l’effet d’une différence de potentiel, ces électrons migrent vers les extrémités du détecteur où ils sont ensuite recueillis. La charge ainsi détectée est proportionnelle à l’énergie déposée par la particule initiale.

3. Les scintillateurs

2.

3. Ces détecteurs émettent de la lumière au passage d’une particule. Ils doivent donc être transparents pour que le signal lumineux puisse être collecté et converti en courant électrique à l’aide d’un photomultiplicateur (voir rubri1. que «Détection»). Dans certains cas, par exemple les scintillateurs à cristaux d’iodure de césium (CsI), les caractéristiques du signal dépendent de la particule détectée : l’étude de l’évolution de l’intensité lumineuse avec le temps permet alors d’identifier la particule. INDRA utilise ces trois types de détecteurs, empilés en sandwich (voir la figure cicontre). Dans la majorité des cas les particules traversent une chambre d’ionisation, puis un détecteur de silicium, et s’arrêtent enfin dans un scintillateur (cristal de CsI). Les informations fournies par ces trois détecteurs sont complémentaires et elles permettent d’identifier précisément les produits de collision.

ÉLÉMENTAÍRE

page 27

Le programme scientifique élaboré autour d’INDRA a abouti à une abondante moisson de résultats obtenus grâce aux excellentes caractéristiques de ce détecteur. Actuellement, on cherche à améliorer encore ses performances pour mieux comprendre le comportement de la matière nucléaire dans des conditions extrêmes.

Un module d’INDRA, constitué de la succession de trois détecteurs. Les particules traversent d’abord une chambre à ionisation, puis un détecteur silicium, et s’arrêtent enfin dans un cristal d’iodure de césium (CsI).


Détection Comment reconnaître un noyau Dans la rubrique « Expérience », nous avons vu qu’INDRA étudiait les noyaux en détectant les particules produites lors de collisions d’ions lourds, grâce à plusieurs types de détecteurs. Chacun d’eux associe le passage d’une particule à un signal lumineux ou électrique. Maintenant nous allons voir comment, en associant plusieurs détecteurs traversés successivement par un même noyau, il est possible de connaître la nature de ce dernier.

L’intensité de ce champ est inversement proportionnelle au carré de la distance entre la particule et l’électron. L’électron peut être extrait de l’atome : il s’agit du même type de collision que celui que nous avons décrit dans la rubrique « Histoire » à propos de l’expérience de Rutherford. Lors de cette dernière, des noyaux d’hélium étaient déviés par des noyaux d’or. Dans le cas présent, les électrons étant beaucoup plus légers que les particules incidentes, (ellesmêmes le plus souvent des noyaux), ce sont les électrons qui sont déplacés alors que les trajectoires des noyaux sont peu perturbées.

Lorsque des noyaux traversent de la matière, ils l’ionisent, c’est-à-dire qu’ils arrachent des électrons aux atomes du milieu par l’intermédiaire du champ électrique qui les accompagne. Pour un électron donné, l’intensité de ce champ dépend non seulement de la charge (Z) du noyau mais aussi de la distance d’approche entre les deux objets et, pour des distances suffisamment faibles, l’électron peut être extrait de l’atome. Ce phénomène se déroule pendant un instant bref, durant lequel le noyau est suffisamment proche de l’électron. Ainsi, plus le noyau est rapide, moins il restera au voisinage de ce dernier et moins il sera capable d’ioniser le milieu. Par ce mécanisme, une partie de l’énergie cinétique du noyau est ainsi transférée au milieu traversé et l’énergie déposée par unité de longueur est proportionnelle à AZ2/E. Pour une même valeur de l’énergie totale (E), le signal mesuré dans le premier détecteur va changer de manière discontinue lorsque A ou Z varient d’une unité. Il est alors possible de distinguer les différents noyaux à condition que la précision de mesure des signaux soit meilleure que les «sauts» attendus.

Ioniser le milieu : le modèle simple que nous avons décrit s’applique à des particules relativement lentes. Dans ce cas, plus la particule est énergétique plus sa perte d’énergie lors la traversée d’un détecteur est faible. Lorsque leur vitesse augmente, des corrections relativistes sont nécessaires. Le dépôt d’énergie, par ionisation, passe par un minimum puis augmente et se stabilise aux vitesses très élevées.

page 28

Les noyaux émis lors de collisions entre ions lourds et détectés par INDRA traversent tout d’abord des chambres à ionisation ou bien des plaquettes de silicium. Ces détecteurs mesurent la perte d’énergie de ces noyaux (ΔE). L’énergie résiduelle (Eres), l’énergie totale moins l’énergie laissée dans le détecteur précédent, est alors mesurée par des cristaux d’iodure de césium (CsI), dopés au thallium, dans lesquels les noyaux vont perdre progressivement toute leur énergie cinétique par ionisation et s’y arrêter. Dans ces cristaux, l’énergie déposée excite le cristal qui se dés-excite en émettant de la lumière. Pour chaque cristal, cette lumière est recueillie sur la face d’entrée d’un photomultiplicateur et transformée en un courant qui est détecté. Le signal délivré par le photomultiplicateur

le photomultiplicateur L’utilisation des scintillateurs est rendue possible grâce aux photomultiplicateurs capables de transformer la faible lumière émise en un courant mesurable. Une vue schématique d’un photomultiplicateur est présentée sur la figure ci-contre. Elle consiste en une photocathode qui convertit par effet photo-électrique les photons en électrons. Ces électrons sont ensuite accélérés vers une série de dynodes par un champ électrique. Chaque dynode permet de multiplier par plusieurs dizaines le nombre d’électrons qu’elle reçoit. Après des multiplications successives, l’électron du départ correspond à quelques 107 ou 1010 électrons à l’arrivée sur l’anode, ce qui est suffisant pour produire un signal électrique mesurable. La lumière émise par le scintillateur ayant détecté l’arrivée d’une particule est ainsi convertie en une impulsion électrique dont les caractéristiques temporelles reproduisent la durée du flash lumineux.

ÉLÉMENTAÍRE


Comment reconnaître un noyau est proportionnel à la quantité de lumière engendrée dans le cristal, mais sa forme peut dépendre du noyau incident.

Pour identifier des noyaux plus lourds, on combine les mesures de E et de ΔE. Si l’on reporte sur un graphique les énergies déposées dans chacun des détecteurs, il est alors possible d’identifier la nature de la particule jusqu’à des charges (nombre de protons) aussi grandes que 54. Cependant, chacune des lignes correspondant à un élément donné comporte plusieurs isotopes (élément identique ayant une masse différente). Ceci est montré sur la figure 2 pour des particules traversant un détecteur de silicium puis un détecteur de CsI.

figure 1 : Identification des ions légers en utilisant un cristal de CsI. La quantité de lumière émise dans les premiers instants constitue la composante appelée « Rapide » et celle émise à la fin du signal est la « Lente ». Sur ce graphique, on observe que tous les protons, par exemple, se placent sur une ligne distincte des autres éléments ce qui permet leur identification.

figure 2 : Identification dans le plan E-ΔE, où la perte d’énergie ΔE est celle laissée par la particule dans un silicium et l’énergie E est celle déposée dans le CsI. Chaque courbe correspond à un noyau différent. Cette identification est montrée pour la réaction d’un faisceau de xénon sur une cible d’étain à 45 MeV par nucléon.

ÉLÉMENTAÍRE

Thallium : les cristaux d’iodure de césium (CsI) utilisés contiennent une proportion d’atomes de thallium qui varie entre deux pour mille et deux pour dix mille (c’est le «dopage»). Ces atomes de thallium sont nécessaires pour que l’émission de lumière ait lieu dans un domaine de longueurs d’onde détectables par le photomultiplicateur.

page 29

La variation temporelle du signal lumineux généré dans le cristal contient une composante rapide dont la décroissance varie comme une loi exponentielle (voir rubrique «Analyse»), de valeur moyenne voisine d’une microseconde , et une composante plus lente ayant quelques microsecondes de valeur moyenne. L’importance relative de ces deux composantes est directement reliée au type de particule détecté comme illustré sur la figure 1. Chacun de ces intervalles est plus ou moins sensible à l’importance respective de l’une et de l’autre composante. Ce comportement est illustré sur la figure 1. À partir de ces deux informations, il est possible, à la fois, de déterminer l’énergie totale déposée et de distinguer les différents types de noyaux, s’ils sont suffisamment légers. Les différentes sortes de particules se répartissent le long de courbes distinctes. Ainsi, les protons sont séparés des deutons (un proton plus un neutron), des tritons (un proton et deux neutrons) et des particules alpha (deux protons et deux neutrons). Cette identification est possible jusqu’au noyau du carbone.


Retombées Datation Les éléments chimiques radioactifs sont de véritables chronomètres permettant, d’une certaine façon, de remonter le temps. Ces chronomètres utilisés par les archéologues ou les géologues, sont en fait plutôt comparables à des sabliers. Le haut du sablier qui se vide, ce sont les noyaux radioactifs qui se désintègrent. Le bas qui se remplit, ce sont les noyaux issus des désintégrations. Selon le type de noyaux considéré et donc selon leur période de désintégration, on peut par exemple estimer l’âge de la Terre ou bien celui de vestiges historiques ou préhistoriques. En effet, la période de désintégration de l’élément suffit à caractériser l’évolution temporelle de la fraction d’éléments radioactifs non encore désintégrés. Pour dater des objets anciens, il faut donc soit disposer d’éléments avec une grande période de désintégration, soit être capable de détecter des petites quantités d’éléments.

La datation au carbone 14

Période : À chaque instant, un noyau radioactif a une probabilité non nulle de se désintégrer. Le nombre de noyaux radioactifs présents dans un échantillon décroît avec le temps selon une loi exponentielle (voir la rubrique «Analyse»). Selon cette loi, ce nombre diminue d’un facteur 2,7 chaque fois qu’un laps de temps caractéristique de l’isotope, appelé période, s’écoule.

Cette méthode est utilisée depuis maintenant une cinquantaine d’années, puisque c’est en 1950 que fut effectuée une des premières datations de ce type sur des charbons de bois trouvés sur le sol de la Grotte de Lascaux.

© Claire Schune

Grâce au carbone 14 (14C), on peut remonter jusqu’à trente ou quarante mille ans dans le passé. Le carbone (C) entre dans la composition de la molécule de gaz carbonique (dioxyde de carbone CO2) présente dans l’atmosphère, et il est très répandu dans notre environnement. Ce carbone est constitué principalement de carbone 12, qui est stable, et d’une très faible proportion de carbone 14 (un millionnième de millionnième environ) qui est radioactif avec une période de 5 730 ans. Le carbone 14 est produit en permanence par interaction de l’azote de l’air avec le rayonnement cosmique. Les divers échanges (respiration, photosynthèse, alimentation) qui se produisent entre l’atmosphère et le monde «vivant» ont pour effet d’équilibrer le rapport entre les quantités de carbone 14 et de carbone 12 contenues dans un organisme vivant. Mais, dès qu’un organisme meurt, le carbone 14 qu’il contient n’est plus renouvelé puisque les échanges avec le monde extérieur cessent. Sa proportion se met alors peu à peu à diminuer. La mesure du rapport carbone 14 / carbone 12 permet donc de connaître la date de la mort d’un organisme bien après que celle-ci a eu lieu. Moins il reste, proportionnellement, de carbone 14 dans un échantillon à dater, et plus la mort est ancienne. Ceci est schématisé sur la figure 1. On peut ainsi dater certaines fresques rupestres comme celle représentée figure 2.

page 30

figure 1 : Dessin de gauche : lorsque l’animal est vivant son organisme contient une certaine quantité de carbone 12 (stable, symbolisé par les ronds bleus) et une quantité plus faible de carbone 14 (instable, symbolisé par les ronds rouges). Après la mort (autres dessins) le carbone 14 qui n’est plus renouvelé disparait progressivement et son taux par rapport à celui du carbone 12 devient donc de plus en plus faible.

ÉLÉMENTAÍRE


Datation

© CEA

Toutefois il faut noter que cette méthode repose sur l’hypothèse que la production naturelle du 14C dans l’atmosphère est restée constante, au moins au cours des 40 000 dernières années. Cependant, cela n’est pas tout à fait vrai. Le taux de 14C dans l’atmosphère et dans les autres réservoirs naturels (océans et biosphère), et donc le taux initial des échantillons à dater, a varié dans le temps. Une courbe d’étalonnage est nécessaire pour convertir les âges mesurés par cette technique de datation en années réelles. En déterminant l’âge d’arbres très anciens (des séquoias en particulier) par la méthode du carbone 14 et en le comparant à celui obtenu par le comptage des cernes de croissance, il a été possible d’étalonner toutes les années postérieures à 7 890 avant notre ère par tranches de 10 à 20 ans.

figure 2 : Bison de la grotte ornée de Niaux (Ariège) dessiné il y a environ 13000 ans. La datation directe de la fresque au carbone 14 a été effectuée dans un laboratoire de Gif-surYvette, par une méthode qui permet de mesurer de très faibles teneurs de l’isotope radioactif recherché.

La datation avec la chaîne uranium -> plomb En utilisant d’autres éléments chimiques, on peut également déterminer l’âge de roches aussi anciennes que la Terre, de coraux, de laves volcaniques… Ainsi le produit de désintégration ultime de l’isotope 238 de l’uranium (période de 4,47 milliards d’années) est le plomb 206 stable. Il est donc possible de déterminer l’âge des roches anciennes par la mesure du rapport plomb 206 / uranium 238, à condition de connaître la quantité de plomb présente à l’origine. Dans tous les cas, plus il y a de plomb, plus la roche est vieille. C’est donc grâce à l’uranium 238 qu’on peut aujourd’hui affirmer que la Terre est âgée d’environ 4,55 milliards d’années. Isotope : Le mot « isotope » vient du grec (iso=même, topos=place) ; en effet, deux isotopes occupent la même case dans la table périodique des éléments ; ce sont différentes formes d’un même élément chimique. Deux isotopes d’un même élément possèdent le même nombre de protons, mais pas le même nombre de neutrons. Par exemple, le 12 C, le 13C et le 14C sont trois isotopes du carbone, car ils possèdent tous 6 protons. Tous ces isotopes ont le même comportement chimique car celui-ci est contrôlé par le nombre d’électrons et donc de protons. Cependant, leurs nombres de neutrons diffèrent ; le 12C en a six, le 13C sept, et le 14C huit.

ÉLÉMENTAÍRE

Francis William Aston (1877-1945) Prix Nobel de Chimie 1922. page 31

Certains isotopes sont naturels : ils sont produits dans la nature (par exemple, les trois isotopes du carbone mentionnés ci-dessus), alors que d’autres sont artificiels, ils sont créés en laboratoire (par exemple, le cobalt 60, dont les rayonnements sont utilisés pour traiter des tumeurs cancéreuses). Certains isotopes, naturels ou artificiels, sont instables. Ils peuvent alors se désintégrer en émettant des rayonnements. On dit qu’ils sont radioactifs. Par exemple, le 12C et le 13C sont stables alors que le 14C est radioactif.

Quelques mots d’histoire sur les isotopes Au début du XXe siècle J.-J. Thomson essaya de déterminer le rapport entre la masse et la charge du néon ; à sa grande surprise, il trouva deux valeurs différentes pour la masse de ce gaz, dans des rapports 22/1 et 20/1 par rapport à celle de l’hydrogène. La composante de masse 20 était présente en quantité plus importante dans le néon que celle de masse 22. Puisque la masse atomique du néon à l’état naturel est de 20,2 environ, Thompson en conclut que le néon naturel était constitué de deux espèces atomiques de poids différents – deux isotopes –, 90% du poids atomique provenant de l’espèce de masse 20 et 10% de l’espèce de masse 22. En 1919, F. W. Aston montra que la plupart des éléments naturels ont plusieurs isotopes. Des recherches plus récentes ont montré que les éléments naturels n’ont pas toujours la même composition isotopique : celle-ci dépend de l’âge de la croûte terrestre d’où ils proviennent. De plus, quelques éléments n’ont pas d’isotope naturel, par exemple le fluor, le sodium, l’or et le thorium.


Analyse La loi exponentielle Un élément radioactif est caractérisé par le type de rayonnement qu’il émet – on parle par exemple de radioactivité α, β ou γ – et par sa durée de vie. Intéressons-nous plus en détail à cette dernière quantité. Bien vite, nous nous rendrons compte que cette notion a un sens très différent de celui qui lui est attribué couramment. En effet, bien qu’ayant une durée de vie précise, un noyau radioactif n’a pas d’âge et personne ne peut prédire à quel moment il va se désintégrer ! Par contre, on verra qu’on peut déterminer l’évolution moyenne d’un grand nombre de noyaux radioactifs, considérés comme un tout.

Fonction exponentielle Le nom «exponentielle» vient du latin «exponere» qui signifie «mettre à l’écart, mettre en évidence, étaler, exposer» et serait dû à Jakob Bernoulli (1654 - 1705). La notation ex - ou exp(x) - aurait été introduite, un peu plus tard par Leonhard Euler (1707-1783) ; la variable x est appelée « exposant ». La fonction «exponentielle» permet de transformer un produit de nombres en une somme car elle possède la propriété suivante : exp (a+b) = exp (a) X exp (b) Considérons maintenant une quantité Y fonction d’une variable x et qui varie de δY lorsque x passe de x à x + δx. Si l’on a : δY = K × Y × δx où K est une constante, alors Y est une fonction exponentielle : Y(x) = Y0 × exp (K × x) avec Y0 la valeur de Y à l’origine, lorsque x=0.

Mourir ? Oui ! Vieillir ? Non ! Intéressons nous à la manière dont disparaît un élément radioactif. Ces corps sont instables et se désintègrent en objets qui, à leur tour peuvent être stables ou non, la chaîne de désintégration se poursuivant alors jusqu’à l’obtention d’espèces toutes stables. Supposons maintenant que nous ayons préparé initialement N0 noyaux d’une substance instable. Comment ce nombre évolue-t-il au cours du temps ? Une propriété essentielle d’un noyau radioactif est qu’il n’a pas d’âge : un physicien doit donc tirer les mêmes enseignements, qu’il examine un lot de noyaux radioactifs qu’il vient de produire, ou bien qu’il étudie cette même substance extraite d’un minerai terrestre formé depuis des millions d’années. Ceci peut s’exprimer en disant que la probabilité pour un noyau de ne pas se désintégrer pendant un certain laps de temps, est indépendante du fait que le noyau vienne juste d’être produit ou bien existe déjà depuis un temps quelconque. Ceci s’écrit : de survie Probabilité de survie Probabilité de survie [Probabilité après la durée t + ∆t]=[ après la durée t ]×[ après la durée ∆t ] On constate que cette relation est vérifiée par la fonction exponentielle. Une manière plus concrète d’étudier ce phénomène consiste à calculer la variation du nombre de noyaux radioactifs en fonction du temps écoulé. Si l’environnement jouait un rôle, on pourrait par exemple penser que le comportement d’un noyau dépend du nombre de noyaux situés à son voisinage; mais cela n’est pas le cas ici. Comme le mécanisme qui conduit à la désintégration d’un noyau est indépendant de l’environnement, le nombre de noyaux qui disparaît pendant un certain intervalle de temps est simplement proportionnel au nombre de noyaux présents et au temps d’observation. C’est assez intuitif : plus on attend et plus il y a de chances que quelque chose se passe.... De façon générale, une grandeur qui varie à un taux proportionnel à sa valeur suit une loi de probabilité exponentielle. D’autres exemples où

page 32

Leonhard Euler (1707-1783)

ÉLÉMENTAÍRE


La loi exponentielle intervient la loi exponentielle sont donnés en encadré. Dans notre cas, le nombre de noyaux radioactifs présents à l’instant t s’écrit :

(τ)

N (t) = N0 × exp − t−

Le paramètre τ est appelé durée de vie moyenne de la substance radioactive considérée.

Loi de probabilité On parle de probabilité lorsque l’on ne peut pas prévoir le résultat exact d’un événement. Par exemple, quand on tire à pile ou face, on ne sait pas avec certitude si «pile» va sortir lorsqu’on lance la pièce. On sait, cependant, que « pile » a 50% de chances d’apparaître. Si on lance la pièce un grand nombre fois, la proportion des tirages avec « pile » sera voisine des 50% attendus et serait exactement égale à cette valeur si l’on pouvait effectuer un nombre infini de lancements. On peut envisager des situations où le nombre de résultats possibles d’un tirage est plus varié. Par exemple, en utilisant un dé, on aura six possibilités, également probables. Il se peut aussi que ces résultats correspondent à un nombre dont les valeurs varient continûment sur un certain intervalle. Le temps de désintégration d’une substance radioactive, compris entre zéro et l’infini, entre dans cette catégorie. On appelle loi de probabilité la fonction p(x) qui est telle que la probabilité d’obtenir, lors d’un tirage ou d’une expérience, une valeur de la variable x comprise entre x et x+δx soit égale à p(x) δx.

Exemples de lois exponentielles

© Claire Schune

Pour une population de lapins, si nous supposons que leur capacité à se reproduire est intrinsèque à l’espèce (c’est-à-dire qu’elle ne dépend pas du fait qu’il y a plus ou moins de lapins dans un même endroit), le nombre de lapins va augmenter de façon exponentielle avec le temps. Dans la réalité, les choses sont un peu plus compliquées : des lapins vont finir par mourir et la nourriture n’est pas présente en quantité infinie. Néanmoins, en l’absence de prédateur, la croissance d’une population de lapins peut être très rapide. Ainsi, en Australie, 24 lapins furent importés en 1859 pour pouvoir être chassés dans un second temps. En 1875, une loi fut promulguée qui incitait à les empoisonner tellement ils étaient nombreux ! Puis, en 1883, 125 hommes reçurent la mission de les chasser et ils en abattirent plus d’un million dans l’année... Aucune mesure de protection ne put freiner la prolifération anarchique des rongeurs avant les années 1950 où ils furent finalement décimés par la myxomatose, après avoir causé beaucoup de ravages...

ÉLÉMENTAÍRE

page 33

Dans un tout autre domaine, un objet légèrement chauffé qu’on laisse refroidir revient à température ambiante en suivant une loi exponentielle. En effet, les échanges de chaleur entre l’objet et l’environnement dépendent de la différence de leurs températures.


La loi exponentielle Temps de désintégration et durée de vie moyenne Comme le montre la figure 1 sur laquelle est représentée l’évolution de N(t), le nombre de noyaux radioactifs vaut N0 à t = 0, puis décroît vers 0, sans jamais l’atteindre. Par exemple, au bout d’un temps égal à la durée de vie de l’élément, t = τ, on a : N (t = τ) = 0,368 = 36,8% N0 c’est-à-dire que 63,2 % des noyaux se sont désintégrés en moyenne. Le tableau ci-dessous montre la fraction d’éléments non désintégrés au bout de durées particulières, multiples de la durée de vie τ de l’élément considéré. t/τ

0,5

1

2

5

10

N(t)/N0

60,7%

36,8%

13,5%

0,7%

0,005%

Lorsque le temps écoulé atteint 5 fois τ, il reste moins de 1% des noyaux initiaux. Si on double cette période (t = 10 τ), seule une très faible fraction des noyaux ne s’est pas encore désintégrée - 5 parmi 100 000. Pour mieux apprécier le comportement de la loi de désintégration à petits et grands t, la fonction N(t) est représentée sur la figure 1, tout d’abord avec une échelle verticale linéaire, ensuite avec une échelle logarithmique. La figure 1 est universelle : pour un noyau radioactif donné, il suffit de multiplier les valeurs de l’axe des temps par la durée de vie de l’élément chimique considéré.

figure 1 : Graphes d’une fonction exponentielle avec une échelle verticale linéaire (haut) et logarithmique (bas).

Au lieu de compter combien de noyaux se désintègrent en fonction du temps, supposons maintenant que nous pouvons suivre chaque noyau séparément et donc enregistrer l’instant de sa désintégration. Divisons ensuite le temps écoulé en un grand nombre d’intervalles Échelle logarithmique

page 34

Jakob Bernoulli (1654-1705)

Lorsqu’une quantité Y prend à la fois des valeurs très grandes et très petites au cours de son évolution, la représentation classique (dite « linéaire ») de son graphe est inadaptée : ❍ Si on dilate l’axe des Y pour voir ses variations autour de 0, les grandes valeurs de Y seront tellement éloignées que l’on ne pourra pas les représenter, à moins de tracer une figure très grande. ❍ D’un autre côté, si on privilégie les grandes valeurs de Y, on écrase complètement la région des petits Y et rien n’est visible dans cette partie du graphe. Donc, « pour réconcilier les grands et les petits », on choisit d’utiliser comme variable le logarithme de Y, Z = log (Y), plutôt que Y lui-même. En effet, la fonction logarithme évolue très lentement et permet ainsi de ramener des variations très importantes à un intervalle plus raisonnable : log(1 milliard) = 9 et log(1 milliardième) = -9. En échelle logarithmique, une multiplication de Y par un facteur 1018 (un milliard de milliards) revient simplement à ajouter 18 à la variable Z ! La figure 1 est une bonne illustration de ces situations : comme le logarithme est la fonction réciproque de l’exponentielle, la courbe exponentielle devient une droite en échelle logarithmique.

ÉLÉMENTAÍRE


La loi exponentielle consécutifs et comptons le nombre de noyaux qui se sont désintégrés dans chacun d’eux : on obtient ainsi un histogramme de la distribution des temps de désintégration, représenté en rouge sur la figure 2. Son profil suit aussi la courbe exponentielle de la figure 1, qui représente donc également la distribution des temps de désintégration pour des noyaux pris individuellement. On voit que l’instant de désintégration d’un noyau radioactif particulier peut être très variable : si la majorité (63%) des noyaux vont disparaître au bout d’un temps inférieur à leur durée de vie, certains, en nombre beaucoup plus restreint, auront une « vie » bien plus longue. C’est la moyenne de l’ensemble de ces temps de désintégration, effectuée sur un grand nombre (idéalement infini) de noyaux, qui correspond à ce que nous avons appelé la durée de vie moyenne (le paramètre τ de la loi exponentielle). Ainsi, il existe une grande différence entre la durée de vie d’une personne et celle d’un noyau radioactif. Supposons par exemple que ces deux durées de vie (moyennes) soient de 80 ans. Alors que très peu de personnes seront décédées avant 50 ans, environ 40% des noyaux auront déjà disparu. Par contre alors qu’il n’y aura quasiment plus d’êtres humains au-delà de 120 ans, il restera un peu plus de 20% des noyaux au bout de cette durée. Une autre différence importante entre le comportement des noyaux et celui des êtres humains est que l’on ne peut pas prédire à quel instant un noyau donné va « mourir », c’est-à-dire se désintégrer : il ne montre aucun signe de « vieillissement » ou de « maladie ». Un noyau radioactif ne change pas jusqu’au moment où il se désintègre : l’instant d’avant il est encore semblable à ce qu’il a toujours été ; l’instant d’après, il n’existe plus. Nous avons touché là une propriété générale du monde des particules : leur comportement obéit à des lois précises mais il est impossible de prédire quelle sera l’évolution d’une particule donnée. On ne peut calculer que des probabilités ! Pour remonter aux lois de la physique il faut observer un grand nombre de particules et mesurer leur comportement moyen qui, lui, est parfaitement défini. Un problème similaire se rencontre dans le cas des gaz : à l’échelle microscopique, chaque molécule a un comportement erratique (c’est le mouvement Brownien, voir la rubrique «Histoire»). Par contre, à l’échelle macroscopique (la nôtre !), on peut obtenir des lois d’évolution très simples, connues depuis le XVIIe siècle, bien avant que les idées de structure moléculaire et atomique ne s’imposent.

figure 2 : À des instants aléatoires, les noyaux rouges se désintègrent (produisant un noyau bleu et un noyau vert) ; à chaque désintégration, on augmente d’une unité la valeur de la colonne qui correspond au temps de désintégration. Si on cumule les mesures à partir d’un grand nombre de noyaux, l’évolution du « compteur de désintégrations » suit la loi exponentielle, rappelée en bleu sur la figure.

© SCGwiki

ÉLÉMENTAÍRE

page 35

La variation de la pression atmosphérique dans la basse atmosphère en fonction de l’altitude obéit aussi à une loi exponentielle.


Accélérateur Les premiers accélérateurs électrostatiques Pour observer le monde qui nous entoure, nous nous servons en priorité de nos yeux. Que nous regardions une fleur près de nous ou une étoile par un télescope, la vision est fondamentale pour ces études qui utilisent la lumière comme principale source d’information. Or, les particules élémentaires n’émettent pas de tels rayonnements : comment les «voir» quand même ? Dans l’obscurité, il faut utiliser d’autres sens comme l’ouÏe ou le toucher. Ainsi, pour étudier une cloche dans le noir, on pourrait imaginer de la faire sonner ; l’analyse de ses vibrations nous renseignerait ensuite sur sa structure. Le même raisonnement est valide pour l’étude de l’infiniment petit : pour étudier la matière atomique et subatomique, les physiciens secouent, font vibrer et même cassent ses consituants. Pour cela, ils utilisent des accélérateurs de particules. Une fois accélérées, ces dernières entrent en collision et, plus l’énergie délivrée est importante, plus l’échelle de distance à laquelle on pourra examiner la matière sera courte. On pourrait, en simplifiant à l’extrême, dire que les accélérateurs de particules sont des microscopes géants. Cependant, s’ils servent bien à observer «l’infiniment petit», ils sont basés sur des principes très différents. Ce besoin de chocs de plus en plus violents entre particules a donné naissance à une discipline à part entière, appelée la physique des accélérateurs. Dans ce numéro et dans les suivants, nous souhaitons présenter les principaux développements dans ce domaine en les reliant aux découvertes qu’ils ont permises. Cette perspective historique nous conduira aux accélérateurs actuels et... futurs, de véritables bijoux technologiques, bien loin de simples «casse-particules». L’accélération et le guidage, à des énergies toujours plus importantes, de particules ou de noyaux chargés repose sur l’utilisation de champs électrique et magnétique. Dans cet article, nous allons décrire les principes de l’accélération des particules par des champs électriques, ce qui nous permettra d’évoquer les accélérateurs «électrostatiques».

Louis de Broglie (1892-1987) (prononcer « De Breuil ») s’est d’abord orienté vers les Lettres. Licencié en Histoire en 1910, il s’est ensuite intéressé aux sciences, et plus particulièrement à la physique théorique, sur les conseils de son frère aîné Maurice – physicien autodidacte qui fonda un laboratoire dans son propre hôtel particulier ! Sa thèse, publiée en 1924, « Recherche sur la Théorie des Quanta », postule l’existence d’une longueur d’onde associée à chaque particule et il la relie à l’énergie cinétique de celle-ci. D’abord accueillie avec scepticisme par la communauté scientifique, sa théorie est confirmée de manière éclatante par des expériences menées en 1927. Pour ses travaux, il reçoit le prix Nobel de Physique en 1929.

Du tube de Crookes à la télévision

La science des accélérateurs s’appuie beaucoup sur l’électromagnétisme, en particulier sur ses développements fulgurants au XIXe siècle, de Volta à Pourquoi toujours chercher à augmenter l’énergie des accélérateurs ? Maxwell en passant par Faraday, Oersted et Ampère. On s’intéressait beaucoup Augmenter l’énergie des particules accélérées dans les accélérateurs a deux avantages : alors à la production d’étincelles entre • plus l’énergie E est grande, plus on peut créer des particules de masses M deux plaques métalliques chargées. élevées – c’est la célèbre relation d’Einstein montrant l’équivalence masse – énergie William Crookes construisit en 1875 (voir la rubrique «La question qui tue») : E = M × c2 un appareil – voir figure 1 – pour étudier • en optique, la longueur d’onde de la lumière (proportionnelle à l’inverse l’influence de la densité d’air sur la de sa fréquence) donne l’ordre de grandeur des détails que l’on peut discerner avec différence de potentiel à appliquer entre cet éclairage particulier. L’un des grands succès initiaux de la Mécanique Quantique les plaques pour créer une décharge a été de postuler, puis de démontrer l’existence d’une longueur d’onde associée à électrique. En un certain sens, il s’agissait une particule en mouvement – ce résultat est dû en particulier aux travaux de Louis du premier accélérateur. de Broglie. Cette longueur d’onde varie comme l’inverse de l’énergie, c’est « l’effet page 36

microscope ».

ÉLÉMENTAÍRE


Sous l’effet de la différence de potentiel, des charges négatives (des électrons) sont émises à la cathode et attirées par l’anode. Lorsque le voltage est suffisamment élevé, une circulation continue d’électrons se met en place : c’est comme si le circuit était «fermé» par un «vrai» fil métallique : l’air est devenu conducteur. Aujourd’hui, on utilise toujours une cathode pour obtenir des faisceaux d’électrons mais ceux-ci sont maintenant produits par chauffage. La pompe à vide permit à Crookes de faire varier la pression de l’air contenue dans le tube ; il trouva que moins il y avait d’air, moins il fallait créer de différence de potentiel – appelée également tension de claquage – pour «fermer» le circuit. Ce phénomène est dû à l’ionisation des molécules composant l’air par les électrons accélérés entre les deux plaques : la circulation de charges qui se met en place est alors similaire à celle qui a lieu dans un fil conducteur. C’est pour éviter cette interaction entre l’air résiduel et les faisceaux de particules que les accélérateurs fonctionnent aujourd’hui dans un vide presque parfait. Cela permet de contrôler au mieux l’énergie et la trajectoire des particules lors de leur trajet dans l’accélérateur. Plus tard, on se rendit compte qu’on pouvait modifier un peu l’expérience de Crookes pour visualiser les «rayons cathodiques» (le faisceau d’électrons) – voir figure 2. En donnant à l’anode la forme d’un anneau, on permit aux électrons de passer à travers et d’aller taper sur un écran recouvert d’une surface sensible : un point lumineux apparaissait alors, signant la présence des électrons. Ce principe est à la base de l’oscilloscope, un instrument permettant de visualiser la tension et l’intensité d’un courant, mais également de la… télévision cathodique ! Chacun des bons vieux écrans bombés, que nous connaissons tous, contient en effet un canon à électron qui balaye toute sa surface à haute fréquence, générant ainsi 24 images par seconde.

© B. Mazoyer

Les premiers accélérateurs électrostatiques

figure 1 : Schéma d’un tube de Crookes.

Pour conclure sur les tubes de Crookes, on peut rappeler qu’un dispositif similaire, couplé à un aimant, permit à Joseph John Thomson (1856-

William Crookes (1832-1919)

Encadré 1 Pourquoi des particules chargées sont-elles accélérées dans un champ électrique ? La relation fondamentale de la dynamique relie la variation de la quantité de mouvement -> -> p=m×v -> -> à la force exercée sur une particule de charge électrique q : F = q × E -> -> Cette relation s’écrit : dp —=F

dt

Un champ électrique E uniforme est par exemple créé par une différence de potentiel ∆V entre deux plaques métalliques situées à une distance D. L’intensité du champ électrique est alors donnée par : ->

∆V D

|E|= —

© B. Mazoyer

La variation d’énergie de la particule->correspond au->travail de la force électrique à laquelle elle est soumise, soit : ∆E=|F| × D=|q| × |E| x D = |q| × ∆V

ÉLÉMENTAÍRE

page 37

Pour obtenir une variation d’énergie cinétique de 1 GeV (1 MeV) pour une particule de charge ± e, il faut donc une différence de potentiel ∆V de 1 milliard (million) de volts.


Les premiers accélérateurs électrostatiques Qu’est qu’un électron-volt ? Pourquoi utilise-t-on des unités particulières en physique des particules ? A notre échelle, le kilogramme et le joule sont des unités bien adaptées pour mesurer des masses et des énergies. Il en va tout autrement dans le monde des particules élémentaires. Par exemple, les masses de l’électron et du proton exprimées en kg sont ridiculement faibles, respectivement me = 9,1 × 10-31 et mp = 1,7 × 10-27 kg. La situation est similaire pour les énergies. Donc, pour éviter d’avoir en permanence à gérer des grandeurs aussi petites, il est d’usage d’utiliser un autre système d’unités. L’unité de base pour l’énergie est l’électron-Volt (en abrégé eV) défini par : 1 eV = 1,6 × 10-19 J C’est l’énergie d’un électron (de charge électrique -e = -1,6 × 10-19 coulomb) accéléré par une différence de potentiel de 1 Volt. D’après la formule d’Einstein liant masse et énergie (E = m × c2), une quantité exprimée en « eV / c2 » est donc homogène à une masse (voir rubrique «La question qui tue»). C’est cette unité qui est utilisée dans notre discipline pour « peser » les particules ; le facteur de conversion entre eV / c2 et kg est : 1 eV / c2 ≈ 1,8 × 10-36 kg

figure 2 : Tube de Crookes modifié : l’ancêtre de la télévision ! Entre deux plaques parallèles soumises à une différence de potentiel, un champ électrique est créé dans la direction perpendiculaire. On obtient un champ de même nature en remplaçant la plaque anode par un anneau. Dans ce cas-là, les électrons émis par la cathode ne sont pas absorbés par l’anode mais la traversent.

© B. Mazoyer

Cette fois-ci, c’est un peu « faible » par rapport aux masses des particules : on parlera donc le plus souvent de Méga-eV (« MeV », un million d’eV), de Giga-eV (« GeV », un milliard d’eV) voire de Téra-eV (« TeV », mille milliards d’eV) en divisant ou non par le facteur c2 selon que l’on parle de masse ou d’énergie. Avec ces unités, on a : me = 0,511 MeV / c2 et mp = 938 MeV / c2. Généralement on omet d’écrire «/ c2» dans le cas des masses, qui sont donc exprimées en MeV ou TeV.

page 38

1940) de découvrir en 1897 que le faisceau émis de la cathode vers l’anode était formé de particules de charge négative qui furent baptisées « électrons » – terme forgé de toutes pièces. La déviation du faisceau cathodique sous l’action de l’aimant montra d’abord qu’il s’agissait de particules de charge négative, puis Thomson l’utilisa pour en déduire le rapport entre la charge et la masse de l’électron. Ce n’est qu’en 1909 que la charge de l’électron fut mesurée par Robert Millikan (1868-1953) en observant la chute de gouttelettes d’huile chargées négativement. Tous deux reçurent le prix Nobel pour leurs travaux, Thomson en 1906 et Millikan en 1923.

ÉLÉMENTAÍRE


Les premiers accélérateurs électrostatiques

© B. Mazoyer

Champ électrique E

Sir John D. Cockcroft (à gauche) et Ernest T. S. Walton (à droite) dans leur laboratoire à Cambridge dans les années 1930.

figure 3. Schéma d’un accélérateur électrostatique Cockcroft-Walton : les particules créées (par exemple des protons) sont accélérées par la différence de potentiel régnant dans le tube à vide avant d’entrer en collision avec une cible (par exemple du lithium).

Les accélérateurs électrostatiques

Transmutation Lors de réactions chimiques «classiques», on retrouve toujours les mêmes quantités d’éléments avant et après la réaction. Par exemple, dans : H2 + ½ O2—> H2O il y a autant d’atomes d’hydrogène (H) et d’oxygène (O) à la gauche et à la droite de la flèche symbolisant la réaction, ici la formation de l’eau (H2O). Au contraire, une transmutation est une réaction dans laquelle on transforme les éléments : les produits de la réaction ne contiennent pas les mêmes éléments chimiques que les réactifs ! C’est par exemple le cas de la réaction : p + 73Li—> 42He + 42He L’idée de transmutation est très ancienne : de l’antiquité aux temps modernes, la motivation principale des alchimistes fut la recherche de la « pierre philosophale », substance capable en particulier de changer le plomb en or. Si leur quête fut infructueuse, leurs rêves plutôt « intéressés » sont aujourd’hui devenus réalité grâce aux physiciens nucléaires – pour rencontrer les alchimistes d’aujourd’hui, voir la rubrique «Centre ». Dans ces réactions, le nombre de protons et de neutrons sont séparément conservés.

Dans les premiers accélérateurs, l’énergie acquise par une particule chargée est proportionnelle à la différence de potentiel établie entre une anode et une cathode. Grâce à ces accélérateurs, dits électrostatiques (ou de Cockcroft-Walton du nom de leurs inventeurs, voir figure 3 pour un schéma), plusieurs découvertes furent possibles. Ainsi, en 1931, des particules alpha (noyaux d’hélium) de 17 MeV furent produites à partir d’un faisceau de protons de 0,125 MeV envoyés sur une plaque de lithium. La réaction était la suivante : p + 73Li—> 42He + 42He

Pour la première fois, un phénomène de transmutation avait eu lieu dans un accélérateur !

Accélérateurs de Cockcroft-Walton

ÉLÉMENTAÍRE

page 39

Un accélérateur électrostatique Cockcroft-Walton est chargé par l’intermédiaire d’une chaîne complexe de condensateurs reliés par des systèmes ne permettant le passage du courant que dans un seul sens. Ainsi, bien que la source initiale de tension soit alternative – comme notre « secteur » – les condensateurs se chargent mais ne se déchargent pas. Le fait d’avoir plusieurs condensateurs consécutifs permet de multiplier la charge finale de l’accélérateur qui, en première approximation, est directement proportionnelle au nombre de condensateurs. En fait, des effets d’oscillation limitent la longueur de la chaîne ; typiquement, on utilise une dizaine de niveaux de condensateurs.


Les premiers accélérateurs électrostatiques Accélérateurs de Van de Graaff

Un autre type d’accélérateur électrostatique, dit « Van de Graaff » utilise une méthode de charge différente : les charges sont émises par un générateur de courant continu sous une tension de quelques dizaines de kilovolts. Ensuite, elles sont capturées par une courroie isolée et emportées jusqu’à l’une des électrodes de l’accélérateur, exactement comme des pierres amenées par un tapis roulant sur un chantier de génie civil. On pourrait dire que, dans un « Van de Graaff », les charges prennent l’escalier roulant alors que, dans un Cockcroft-Walton, elles passent plutôt par l’escalier ! Néanmoins, cette image est imparfaite car, dans les deux cas, les efficacités sont similaires et les technologies très avancées !

L’accélérateur original construit par Cockcroft et Walton. Le tube à vide visible ici mesure 2,50 m de long pour un potentiel accélérateur de l’ordre de 800 kV.

page 40

Dispositif créant la différence de potentiel nécessaire à l’accélération des particules dans un accélérateur de type Van de Graaff. En particulier, on peut voir la courroie qui transporte les charges du générateur au dôme métallique où elles sont amassées. Celui-ci a une forme sphérique pour éviter les «effets de pointe»: un champ électrique est toujours plus intense au voisinage d’une pointe et la présence d’un tel défaut pourrait provoquer des décharges intempestives du conducteur. Cet «effet de pointe» se vérifie en particulier lors des orages : la foudre frappe préférentiellement les éléments en relief : arbres, pylônes, toits, etc...

© B. Mazoyer

En physique nucléaire, l’accélérateur « Van de Graaff » a été considérablement amélioré par la technologie « Tandem » qui présente deux étapes d’accélération. On part d’un faisceau d’ions positifs (dont les sources sont plus intenses que celles des ions négatifs) que l’on fait passer au travers d’un gaz à faible pression dans lequel les ions capturent un ou deux électrons. Ensuite, un aimant permet de séparer les particules neutres ou chargées positivement des nouveaux ions négatifs qui pénètrent alors dans un premier accélérateur « Van de Graaff » où ils sont accélérés. Au bout du dispositif, les ions traversent une fine couche de carbone ; comme ils ont une énergie élevée – de l’ordre de quelques MeV – la plupart de leurs électrons sont éjectés lors de ce passage. Les ions ainsi

ÉLÉMENTAÍRE


« épluchés » acquièrent une charge très positive et entrent dans un second accélérateur « Van de Graaff » dont le champ électrique est orienté en sens contraire du précédent. Lors de sa traversée, ils sont à nouveau accélérés et atteignent finalement une énergie bien plus élevée que dans la première phase puisque, comme nous l’avons vu précédemment, le gain d’énergie d’une particule chargée est proportionnel à sa charge. Depuis ces travaux pionniers, les études menées dans la recherche des constituants fondamentaux de la matière ont nécessité l’exploration de domaines d’énergie de plus en plus élevée. Pour les accélérateurs électrostatiques la possibilité d’atteindre des valeurs de l’ordre du GeV nécessite la réalisation et la stabilisation des différences de potentiel très importantes, de l’ordre du milliard de volts. Ces décharges électriques formidables représentent la principale limitation de ces appareils et expliquent pourquoi ils ne sont presque plus utilisés dans les complexes accélérateurs actuels – une exception notable est l’accélérateur de Fermilab, situé près de Chicago aux États-Unis, qui utilise toujours un Cockcroft-Walton comme injecteur.

© Nobelprize

Les premiers accélérateurs électrostatiques

Sir John Douglas Cockcroft (18971967) et Ernest Thomas Sinton Walton (1903-1995) ont partagé le prix Nobel de Physique 1951 «pour leurs travaux pionniers sur la transmutation des noyaux atomiques au moyen de particules artificiellement accélérées».

© IPN

L’accélérateur tandem installé à l’Institut de Physique Nucléaire à Orsay. Sa tension maximale est de 15 MV. On pourra consulter le site web animé http:// ipnweb.in2p3.fr/activitech/frame_actech.html pour avoir plus de détails sur la technologie Tandem.

page 41

ÉLÉMENTAÍRE

© Fermilab

L’accélérateur électrostatique Cockcroft-Walton de Fermilab, utilisé comme première étape d’accélération du faisceau d’ions hydrogène négatifs (un proton et deux électrons) à partir duquel les protons sont produits. Le dôme électriquement chargé contient la source des particules injectées dans l’accélérateur : des atomes d’hydrogène sont ionisés (gain d’une charge négative) puis injectés dans la ligne de transfert du Cockcroft-Walton. À la sortie de cet accélérateur, les ions ont une énergie (750 keV) trente fois supérieure à celle des électrons d’un tube de télévision.


Découvertes La découverte de la radioactivité Il y a 2 milliard d’années : la 1ère centrale nucléaire

À Oklo, au Gabon, les ancêtres des dinosaures mettent au point le premier réacteur nucléaire… Plus sérieusement, à cette époque, la concentration d’éléments radioactifs était suffisante sur ce site pour qu’une réaction de fission nucléaire – similaire à celle maîtrisée aujourd’hui dans les centrales nucléaires – s’amorce spontanément et perdure sans intervention extérieure pendant un demi million d’années. La puissance produite était modeste, de l’ordre de 20 kW, à peine de quoi allumer quelques centaines de lampes.

8 novembre 1895 : découverte des rayons X

Site d’Oklo

© UCAR

À l’université de Würzburg, Wilhelm Röntgen (1845-1923) découvre les rayons X émis par un tube de Crookes qu’il utilisait pour étudier les rayons cathodiques – des électrons. Ces rayons X ont le pouvoir de traverser un papier opaque enveloppant le tube de Crookes et font scintiller un écran fluorescent situé sur une table voisine. Rapidement, Röntgen met en évidence d’autres propriétés des rayons X. «Éclairée» par ces derniers, la main de sa femme projette sur un écran en arrière plan l’image nette de ses os et de son alliance. Après quelques semaines, Röntgen, qui recevra en 1901 le premier prix Nobel de Physique pour sa découverte, envoie ses «clichés radiographiques» à plusieurs confrères en Europe. Le 20 janvier 1896, Henri Poincaré les présente à Paris lors d’une séance à l’Académie des Sciences et fait l’hypothèse que ce rayonnement pénétrant accompagne la fluorescence du tube de Crookes. Dans l’assistance se trouve Henri Becquerel, fils et petit-fils de physicien, spécialiste des phénomènes de fluorescence et de phosphorescence.

1er mars 1896 : découverte de la radioactivité naturelle

© Musée des archives de l’institut Radium

Wilhelm Röntgen (1845-1923)

page 42

Henri Becquerel (1852-1908)

Henri Becquerel (1852-1908) s’intéresse à la découverte de Röntgen et décide de faire des recherches sur les liens entre rayons X et fluorescence à l’aide d’une préparation de sel phosphorescent d’uranium. Déposant ce sel sur des plaques photographiques enveloppées dans du papier noir, il expose le tout au soleil puis développe les plaques. Les photographies révèlent l’image des cristaux de sel d’uranium, que Becquerel suppose créée par les mystérieux rayons X de Röntgen. Becquerel pense alors que l’énergie solaire est absorbée par l’uranium avant d’être réémise sous forme de rayons X. Il a tort et, comme souvent en science, la chance lui donne un coup de pouce inattendu. Les 26 et 27 février, le temps est tellement couvert sur Paris que Becquerel renonce à ses expériences d’exposition : il range ses plaques photographiques imprégnées de sel d’uranium dans un placard. Le 1er mars, il les ressort et décide, par acquis de conscience, de les développer bien qu’il s’attende à les trouver vierges. À sa grande surprise, les plaques sont quand même impressionnées et Becquerel distingue même l’image négative d’une croix de cuivre qui se trouvait entre l’uranium et les plaques photographiques. En l’absence de source d’énergie extérieure (comme le soleil), une substance inerte se montre capable d’émettre des rayons qui traversent le papier mais sont arrêtés par le métal. Grâce aux aléas de la météo (et au choix, par hasard, de sels fluorescents à l’uranium !) Becquerel vient de

ÉLÉMENTAÍRE


La découverte de la radioactivité

© AIP

découvrir la radioactivité, c’est-à-dire l’émission spontanée de radiation par un matériau. Au cours des années suivantes, Becquerel montre que la radiation émise par l’uranium a certaines propriétés communes avec les rayons X de Röngten. Par contre, les « rayons uraniques » sont déviés par un champ magnétique et sont donc formés de particules chargées alors que les rayons X sont neutres. Pour tous ces résultats, Becquerel partage le prix Nobel de Physique en 1903 avec les époux Curie.

1898 : découvertes du polonium et du radium

Pierre Curie (1859-1906)

© NIST Physics laboratory

Pierre (1859-1906) et Marie (1867-1934) Curie se lancent sur les traces des « rayons U » de Becquerel. Travaillant sur la pechblende (un minerai d’uranium), ils découvrent qu’il est bien plus radioactif que l’uranium pur dont ils disposent. De cette observation, ils déduisent que la pechblende doit contenir une source inconnue de radioactivité. Pour l’isoler, ils sont contraints de traiter et de purifier plusieurs tonnes de résidu de minerai de pechblende qu’ils font livrer dans leur laboratoire. En juillet 1898, ils découvrent le polonium – baptisé en l’honneur du pays natal de Marie, la Pologne – puis en décembre le radium, deux millions de fois plus radioactif que l’uranium. Ensuite, plusieurs années de travail seront nécessaires pour obtenir une quantité suffisante de ces éléments pour mesurer leurs propriétés chimiques. Ces recherches leur vaudront de partager le prix Nobel de physique en 1903 (avec Henri Becquerel). Après la mort accidentelle de Pierre Curie en 1906 Marie reprend sa chaire – elle est la première femme à occuper un tel poste – et continue ses recherches. En particulier, elle isole le radium, travail pour lequel elle reçoit le prix Nobel de Chimie en 1911 ; ainsi, elle est la première à obtenir deux prix Nobel. Concluons en rappelant que Pierre et Marie Curie ont inventé le terme de « radioactivité » et qu’ils ont chèrement payé leurs découvertes. Marie Curie est morte d’une leucémie, certainement provoquée par les substances radioactives qu’elle manipula sans protection pendant des années afin de les purifier. En reconnaissance de ces deux parcours exceptionnels, les restes de Pierre et Marie Curie ont été transférés au Panthéon en 1995.

© Musée des archives de l’institut Radium

Marie Curie (1867-1934)

Bol contenant du radium et émettant de la lumière .

1899-1911 : Rutherford explore la structure de l’atome

Ernest Rutherford (1871-1937)

page 43

ÉLÉMENTAÍRE

© AIP

En un peu plus d’une décennie, Ernest Rutherford (1871-1937) révolutionne la connaissance des atomes et réalise des avancées considérables dans la compréhension de la radioactivité : partout où il passe, il réalise des expériences décisives qui, prises individuellement, suffiraient à faire le bonheur d’un physicien ambitieux. En 1899, à Cambridge, il identifie et nomme les rayons alpha (noyaux d’hélium) et bêta (électrons). Puis, en 1902, maintenant installé à l’université Mc Gill au Canada, il montre avec Fredérick Soddy que la radioactivité s’accompagne d’un phénomène de transmutation : en se désintégrant, un noyau devient un autre élément chimique. Pour la première fois, le vieux rêve des alchimistes devient


La découverte de la radioactivité réalité ... On imagine la révolution scientifique que cette découverte a représentée ! Pour tous ces travaux, E. Rutherford obtient le prix Nobel de chimie en 1908. Rutherford part ensuite à l’université de Manchester où, avec Hans Geiger et Ernest Marsden, il découvre le noyau atomique dans les années 1909-1911 (voir la rubrique «Histoire»). Enfin, en 1919, alors qu’il est le directeur du Cavendish Laboratory à Cambridge, Rutherford réalise la première transmutation artificielle. En bombardant de l’azote avec des particules alpha, il obtient un autre élément chimique : l’oxygène. Pour résumer l’impact de Rutherford sur la science de son temps, il suffit de préciser qu’il est enterré dans l’Abbaye de Westminster à Londres, aux côtés d’Isaac Newton, notamment.

Le compteur Geiger Inventé en 1928 par Hans Geiger, le compteur Geiger détecte le passage de particules ionisantes émises par les substances radioactives situées à proximité. Il se compose d’un tube métallique rempli d’un mélange de gaz rares (argon, krypton et xénon) à basse pression, et d’un fil conducteur. La différence de potentiel entre le fil (l’anode) et le tube (la cathode) est élevée, de l’ordre de 1000 volts. La pression du gaz, sa composition et l’intensité du champ électrique sont choisis de manière à ce que toute particule ionisante qui traverse le compteur produise un signal similaire. Compter le nombre d’impulsions permet ainsi d’estimer le nombre de particules ionisantes reçues en un temps donné, et donc le taux de radioactivité au voisinage du détecteur. Parfois, les détecteurs sont reliés à un haut-parleur qui transforme les signaux électriques en son : c’est le crépitement caractéristique des compteurs Geiger.

1928 : invention du compteur Geiger

Hans Geiger, un ancien collaborateur de Rutherford met au point le « compteur Geiger », toujours utilisé de nos jours pour quantifier la radioactivité d’une substance.

Début des années 1930 : premiers accélérateurs de particules

Il a suffit de quelques années pour concevoir et faire fonctionner les premiers accélérateurs de particules (voir la rubrique «Accélérateurs»). Ils permettent d’atteindre des énergies plus élevées que celles obtenues par la radioactivité naturelle, et de faire des collisions variées entre particules en changeant soit la nature des projectiles, soit celle de la cible. Ainsi, les propriétés des noyaux peuvent être étudiées de manière plus systématique.

1934 : découverte de la radioactivité artificielle

© Nobelprize

La fille de Pierre et Marie Curie, Irène, et son mari Frédéric Joliot découvrent la radioactivité artificielle. En bombardant une feuille d’aluminium avec des particules alpha, ils obtiennent du phosphore radioactif, un isotope du phosphore stable qui n’existe pas dans la nature. Rutherford avait ouvert la porte à « l’alchimie nucléaire » tout en restant spectateur des réactions de transmutation qui avaient lieu. Avec les Joliot-Curie, un pas supplémentaire est franchi : on peut maintenant contrôler la création de noyaux radioactifs, ce qui sera bien vite exploité, pour le meilleur et pour le pire. Les deux époux reçoivent le prix Nobel de Chimie en 1935 pour leur découverte.

1938 : des avancées scientifiques lourdes de menaces

En 1938, Otto Hahn, Fritz Strassmann et Lise Meittner découvrent la fission du noyau d’uranium. Quelques mois plus tard, Frédéric Joliot et ses collègues H. Von Halban et L. Kowalski mettent en évidence la

page 44

Irène et Frédéric Joliot-Curie dans leur laboratoire.

ÉLÉMENTAÍRE


La découverte de la radioactivité

© Nobelprize

production de neutrons lors de la réaction de fission. Ils démontrent la possibilité d’une réaction en chaîne : les neutrons libérés lors d’une fission viennent frapper d’autres noyaux pour provoquer de nouvelles fissions. Ils imaginent les applications de ce processus pour la production d’énergie. Frédéric Joliot construit également le premier cyclotron européen au Collège de France à Paris. Dans le même temps, Edward Orlando Lawrence et son frère démontrent l’intérêt de l’iode radioactif pour l’exploration de la glande thyroïde, une des premières applications de la radioactivité en médecine.

16 juillet 1945 :

Dans le désert du Nouveau Mexique, l’équipe du projet Manhattan, basée à Los Alamos et dirigée par Robert Oppenheimer, fait exploser la première bombe atomique.

Otto Hahn (1879-1968)

6 août 1945 :

© AIP

Une bombe atomique à l’uranium est lâchée sur Hiroshima au Japon : elle tue 45 000 personnes instantanément et 120 000 dans l’année qui suit à cause des rayonnements radioactifs. Le 9 août, une seconde bombe atomique, au plutonium cette fois-ci, est larguée sur Nagasaki et fait 30 000 victimes le premier jour, 80 000 sur un an. Dans les deux cas, le bilan s’est ensuite considérablement alourdi au cours des années. Les deux bombes atomiques tuent encore aujourd’hui parmi les survivants irradiés et leurs descendants. Si le Japon, assommé par ces deux catastrophes a capitulé le 2 septembre 1945, mettant ainsi fin à la Seconde Guerre Mondiale, la physique nucléaire avait définitivement perdu son innocence…

Robert Oppenheimer (1904-1967)

La 1ère pile de Fermi

ÉLÉMENTAÍRE

page 45

© DR

Le 2 décembre 1942, aux États-Unis, le directeur du « National Defense Research Committee » (Comité de Recherche sur la Défense Nationale) reçut un message codé en provenance de Chicago : « le navigateur italien vient d’atterrir dans le nouveau monde ». Que signifiait cette phrase énigmatique ? Rien de moins qu’un bouleversement considérable, tant pour la conduite de la guerre que pour le futur du monde ! En effet, sous les gradins d’un complexe sportif de l’Université Stagg Field de Chicago, le physicien italien Enrico Fermi et son équipe du laboratoire de métallurgie venaient de réaliser la première pile atomique. Son « allumage » fut effectué avec une grande précaution en se fiant aux calculs – purement théoriques ! – de Fermi sur la masse critique d’uranium nécessaire pour engager et entretenir une réaction nucléaire contrôlée. Plusieurs dispositifs avaient été prévus pour stopper brutalement la pile si les compteurs (de type Geiger) montraient qu’elle s’emballait : l’ultime parade était une « équipe-suicide » de trois physiciens chargés en dernier recours de recouvrir le dispositif expérimental de sulfate de cadmium, un absorbeur de neutrons ! Tout se passa bien et la pile fonctionna vingt-huit minutes en délivrant quelques centaines de watts. C’était suffisant pour démontrer la faisabilité d’une réaction en chaîne – et donc, à terme celle d’une bombe atomique – et pour prouver qu’il était ainsi possible de fabriquer du plutonium, un élément radioactif artificiel utilisable comme combustible nucléaire.


Théorie Ondes et particules La physique des particules cherche à comprendre les détails les plus fins de la matière en isolant et en étudiant ses constituants ultimes. Au cours du XXe siècle, cette quête a conduit les physiciens à étudier des objets de taille infime dont le comportement défie le sens commun. Ainsi, les lois de la mécanique classique doivent être abandonnées au profit de celles de la mécanique quantique. Pour cette dernière, les constituants élémentaires de la matière sont des objets situés à mi-chemin entre des ondes et des particules, au sujet desquels notre savoir est par essence limité. Même avec une connaissance parfaite de la situation de départ, il n’est parfois pas possible de déterminer «le» résultat d’une expérience, mais seulement de calculer la probabilité d’observer un résultat donné parmi tous ceux envisageables. Nous allons voir ce qui a poussé les physiciens à adopter une vision si déroutante des détails les plus fins de la nature.

Qu’est-ce qu’une particule ? Et une onde ? Une particule élémentaire, c’est ce qui reste une fois qu’on a tout cassé en petits morceaux... En d’autres termes, on n’a pas su, ou pas pu, décomposer ces particules qui apparaissent expérimentalement comme de simples points, sans structure et sans extension spatiale. Évidemment, la vision de ces briques fondamentales a évolué au cours du temps avec le progrès des techniques et des idées (voir rubrique «Histoire»). L’atome, qu’on croyait initialement insécable, s’est avéré être un noyau entouré d’un nuage d’électrons. Ensuite, on a découvert que les noyaux sont formés de protons et de neutrons, puis que protons et neutrons sont constitués de quarks liés par des gluons. Puisque personne n’a vu de sous-structure dans les quarks, les gluons et les électrons, ils sont considérés à présent comme des particules élémentaires... jusqu’à plus ample information.

page 46

© Claire Schune

Comment caractérise-t-on une particule ? Tout d’abord, certaines grandeurs permettent de les identifier et de les distinguer : par exemple, leur masse, mais aussi leurs charges qui mesurent leur sensibilité aux différentes forces de la nature, telle la charge électrique pour la force électromagnétique. Intuitivement, nous pensons aussi pouvoir attribuer aux particules d’autres caractéristiques « cinématiques » (du grec κινημα, le mouvement) : une position, une vitesse, une trajectoire... quantités que nous espérons déterminer expérimentalement avec toute la précision souhaitée. Ce point de vue rejoint la mécanique classique formulée par Isaac Newton, selon laquelle les particules sont des petites billes de rayon négligeable, des points matériels précisément localisés dans l’espace et le temps. Si nous connaissons parfaitement les caractéristiques cinématiques d’une particule à un moment donné et les forces qui lui sont appliquées, les équations de la mécanique classique doivent nous permettre de connaître sa position à tout instant ultérieur.

ÉLÉMENTAÍRE


Ondes et particules

Comment caractérise-t-on une onde ? On considère la hauteur de la vague en chaque point, en prenant pour référence le niveau moyen de l’étang. Cette grandeur, l’amplitude de l’onde, varie suivant

A(x0 , t)

t

A(x, t 0) a

λ x

A(x,t) = a cos 2� −t - −x = a cos φ T λ

( )

Nous avons pris l’exemple d’une onde sinusoïdale car une onde ayant une forme plus compliquée peut toujours se ramener à une somme de sinusoïdes ayant des fréquences variées. Sur le dessin du haut, nous nous sommes placés à une position fixée x0 et sur celui du bas à un instant fixé t0. T et λ sont respectivement les périodes temporelle et spatiale de l’onde.

où T et λ sont respectivement les périodes temporelle et spatiale. L’amplitude de l’onde est identique pour tous les points (x) et tous les instants (t) pour lesquels la phase φ=2π(t/T-x/λ) a la même valeur. Les vagues qui constituent l’onde progressent à une vitesse constante égale à λ/T.

Quand deux ondes se rencontrent... ... que se racontent-elles ? Des histoires... d’interférences ! Jetons deux pierres en deux points relativement éloignés de notre étang. Les belles ondes concentriques issues des deux jets vont finir par se rencontrer. La hauteur de la vague résultante, l’amplitude totale, est alors la somme des amplitudes des deux ondes. Tantôt deux bosses (ou deux creux) se rencontrent, et la vague résultante sera encore plus haute (ou plus creuse) que chacune des vagues initiales : ce sont des interférences constructives. Tantôt un creux et une bosse se compensent pour former une vague de faible amplitude : on parle alors d’interférences destructives. Les motifs complexes ainsi formés sont appelés figures de diffraction.

a

© B. Mazoyer

Pour calculer plus précisément ce phénomène, on peut représenter l’onde par une aiguille tournant sur un plan, c’est-à-dire un vecteur de longueur égale à a faisant un angle φ avec l’axe horizontal. Pour obtenir l’amplitude de l’onde A, on projette ce vecteur le long de l’axe horizontal et on mesure la longueur de cette projection. Ce vecteur tourne en fonction de la phase φ et dépend donc de la position et de l’instant choisi. Ainsi, si l’on se place en un point donné, ce vecteur tourne en fonction du temps comme l’aiguille d’un chronomètre. Et si l’on se déplace sur l’image photographique d’une onde prise à un instant donné, le vecteur tourne en fonction de la distance parcourue comme l’aiguille d’un compteur kilométrique. L’angle φ varie de 2π, et l’aiguille fait donc un tour complet, pendant un intervalle de temps égal à une période (T) ou sur une distance égale à une longueur d’onde (λ).

φ a cos φ

Le vecteur tournant (l’aiguille de chronomètre) qui représente l’évolution d’une onde. Cette construction fut proposée par Augustin Fresnel dans son analyse des caractéristiques ondulatoires de la lumière. page 47

ÉLÉMENTAÍRE

T

a

© B. Mazoyer

Une onde représente une vibration ou une oscillation : des sons se propageant dans l’air, des vagues à la surface de la mer... Imaginons que nous jetons un caillou dans un étang. La surface de l’eau se creuse de vaguelettes qui s’éloignent de l’endroit où le caillou a coulé. Si nous prenons une photographie de l’étang, afin d’en avoir une image à un instant fixé, nous voyons que la surface de l’eau n’est pas plane. Elle présente des creux et des bosses, des modulations d’amplitude qui dépendent de la distance au point de chute du caillou. Si nous observons le bouchon d’une canne à pêche, ce qui matérialise le niveau de l’eau en un point fixé, nous constatons que la surface de l’eau se déplace de haut en bas et de bas en haut en fonction du temps.


Ondes et particules

© Collection Ecole polytechnique

a

a

φa

φ

© B. Mazoyer

Comment déterminer la somme de deux ondes ? En ajoutant les vecteurs les représentant ! Cela peut aboutir à un vecteur résultant de longueur plus grande ou plus petite que les deux vecteurs initiaux, ce qui correspond à des interférences constructives ou destructives.

Cette représentation est utile pour déterminer 2 la somme de deux ondes d’amplitudes respectives a1 et a2 et 1 de phases respectives φ1 et φ2. Il suffit 1 de faire la somme des deux vecteurs correspondants et de projeter ! On constate que la somme de deux ondes peut donner des résultats variés. La valeur absolue de l’amplitude résultante (a) peut être au maximum égale à a1 + a2 (interférences constructives) et au minimum à |a1 - a2| (interférences destructives). Jusqu’à présent nous avons considéré la somme de deux ondes à un instant donné, mais pour identifier une onde il faut la voir se propager sur une certaine durée. Pour qu’on puisse associer à la somme des deux ondes les caractéristiques d’une onde (périodes temporelle et spatiale T et λ), il faut que les vecteurs a1 et a2 tournent à la même vitesse. Cela signifie que des interférences stables dans le temps apparaissent seulement lorsque les deux ondes initiales ont la même fréquence.

φ2

La lumière, onde ou particule ? En mécanique classique, ondes et particules sont des objets bien distincts aux propriétés incompatibles : les premières sont étendues et peuvent s’annihiler ou se renforcer en se rencontrant, les secondes sont ponctuelles et restent en nombre constant quand elles interagissent. Il était naturel de s’interroger sur la nature de la lumière : est-ce un phénomène ondulatoire ou corpusculaire ? Les atomistes comme Pierre Gassendi préféraient l’idée de grains minuscules de lumière. Isaac Newton soutint cette idée en remarquant en particulier que la lumière se déplace en ligne droite alors que les ondes se déforment à proximité d’obstacles. Son prestigieux traité d’optique imposa la théorie corpusculaire de la lumière durant tout le XVIIIe siècle.

Augustin Fresnel (1788-1827) Fils d’un architecte, il entra à l’Ecole Polytechnique à 16 ans, puis devint ingénieur des Ponts et Chaussées. Membre de l’Académie des Sciences et de la Royal Society of London, il étudia en détail les phénomènes optiques : aberration des lentilles, polarisation, diffraction et interférences. Il proposa aussi des lentilles sophistiquées pour améliorer l’efficacité des phares maritimes.

page 48

Mais les tenants des ondes lumineuses n’étaient pas inactifs. Christiaan Huygens et Leonhard Euler au XVIIIe, puis Augustin Fresnel au XIXe, remédièrent à plusieurs problèmes de la théorie ondulatoire. Ils remarquèrent également que certains phénomènes optiques étaient mal compris dans le cadre corpusculaire, en particulier la diffraction. Plus précisément, en 1805, Thomas Young étudia les figures obtenues en plaçant un plan percé de deux fentes minces entre une source lumineuse et un écran. Les deux fentes se comportent comme des sources de lumière qui interfèrent entre elles et créent des figures de diffraction sur l’écran. Un tel phénomène est une conséquence immédiate de la théorie ondulatoire de la lumière, ce qui conduisit les scientifiques à délaisser la théorie corpusculaire de Newton. Ces découvertes incitaient à décrire la lumière comme une onde. James Clerk Maxwell, qui avait formulé entre 1864 et 1873 les équations unifiant les phénomènes électriques et magnétiques, suggéra que la lumière visible était

ÉLÉMENTAÍRE


Ondes et particules

© DR

un type particulier d’onde électromagnétique. Par diverses mesures, on établit que la longueur d’onde λ associée à la lumière visible est comprise entre 0,4 et 0,8 μm. Sachant que la vitesse de la lumière vaut environ 300 000 km/s, cela correspond à des fréquences d’oscillation d’environ ν = 1/T = c/λ ~ 300 000 000/ (0,6 10-6) ~ 5 x 1014 Hz Une telle fréquence d’oscillation est particulièrement élevée (environ un million de fois plus rapide que n’importe quel processeur d’ordinateur !). En fait, la lumière visible ne couvre qu’une toute petite partie du spectre électromagnétique. Celui-ci est divisé en plusieurs régions décrites dans le tableau suivant. On peut remarquer que, plus la longueur d’onde est faible, plus la fréquence et l’énergie sont élevées comme nous allons l’expliquer dans ce qui suit.

Motif d’interférences à la sortie d’une expérience de fentes de Young.

Les différents rayonnements électromagnétiques

Domaine

Longueur d’onde (centimètres)

Fréquence (Hz)

Énergie (eV)

Radio

> 10

< 3 x 109

< 10-5

Micro-onde

10 - 0.01

3 x 109 - 3 x 1012

10-5 - 0.01

Infrarouge

0.01 - 7 x 10-5

3 x 1012 - 4.3 x 1014

0.01 - 2

Visible

7 x 10-5 - 4 x 10-5

4.3 x 1014 - 7.5 x 1014

2-3

Ultraviolet

4 x 10-5 - 10-7

7.5 x 1014 - 3 x 1017

3 - 103

Rayons X

10-7 - 10-9

3 x 1017 - 3 x 1019

103 - 105

Gamma

< 10-9

> 3 x 1019

> 105

© Brock University

La lumière en grains Mais l’aventure n’était pas finie... Durant la deuxième moitié du XIXe siècle de nombreuses études portaient sur les liens possibles entre la chaleur et la lumière. Un dispositif particulièrement approprié était le «corps noir» qui peut être modélisé par une enceinte fermée dont les parois sont portées à une température constante. À l’intérieur de l’enceinte, la chaleur fournie est convertie en un rayonnement pour lequel un équilibre s’établit entre le flux émis par les parois et celui absorbé par ces mêmes parois. En ménageant un petit orifice dans l’une d’entre elles, il est possible d’extraire une mince fraction de ce rayonnement et de l’analyser. On peut en particulier mesurer son spectre, c’est-à-dire son intensité en fonction de la fréquence (voir encadré 2).

ÉLÉMENTAÍRE

page 49

En 1861, Gustav Kirchhoff avait établi que les propriétés de ce rayonnement ne dépendaient que de la température de l’enceinte. Durant la dernière décennie du XIXe siècle, Heinrich Hertz avait confirmé expérimentalement l’existence des ondes électromagnétiques prédites par James Maxwell, et il avait développé la théorie de leur production à partir des oscillations de dispositifs électriques. On pouvait donc envisager que les ondes émises

James Clerk Maxwell (1831-1879) est probablement le physicien du XIXe siècle qui a eu le plus d’influence sur la physique du XXe siècle. Il a proposé d’unifier électricité et magnétisme grâce aux équations qui portent son nom. En outre, Maxwell a formulé la théorie cinétique des gaz (en même temps que Ludwig Boltzmann), il a expliqué la stabilité des anneaux de Saturne en supposant qu’ils étaient formés d’une multitude de petits astéroïdes, et il a étudié la perception de la couleur par l’œil humain... avec une application pratique : les premières photographies en couleur !


Ondes et particules

© B. Mazoyer

encadré 2 : Le spectre du rayonnement du corps noir Le spectre du rayonnement du corps noir décrit la puissance rayonnée en fonction de la longueur d’onde. Il ne dépend que de la température de la source, et le maximum de la courbe correspond à une longueur d’onde inversement proportionnelle à la température. Cette propriété est utilisée pour connaître la température des étoiles à partir de leur couleur, car leur spectre est grossièrement celui d’un corps noir. La température du Soleil, voisine de 6000°K, correspond à un maximum d’émission dans le domaine de la lumière visible. Ceci n’est sans doute pas dû au hasard : l’évolution de la vie a encouragé des dispositifs de vision sensibles aux longueurs d’onde les plus généreuses.

Dimanche 7 octobre 1900 : Max Planck, professeur de physique théorique à l’université de Berlin, reçoit des mesures de Heinrich Rubens portant sur le rayonnement du corps noir. Les résultats confirment les domaines de validité des lois de Rayleigh-Jeans et de Wien. Ce même jour, M. Planck conçoit une formule qui interpole les deux lois et qui est en accord avec les mesures. En décembre 1900, après plusieurs semaines du travail «le plus acharné de [sa] vie», il découvre l’interprétation physique de sa loi. Le spectre observé est créé par un grand nombre d’oscillateurs - les électrons des parois - qui échangent de l’énergie avec le rayonnement ambiant de manière discontinue. Plus précisément, l’énergie échangée par un oscillateur de fréquence ν doit être un multiple entier d’une quantité élémentaire : E=n×hν où n est un entier et h désigne la constante de Planck que ce dernier détermina afin de reproduire les spectres mesurés. Pour nommer cette étrange quantité élémentaire d’énergie hν, Max Planck choisit le mot «quantum d’énergie», du latin signifiant... quantité.

Couleur des étoiles de la croix du Sud.

Un corps noir dans le ciel Tout l’Univers est empli d’un rayonnement électromagnétique quasi-uniforme. On considère ce dernier comme un reste des phénomènes très énergétiques liés au Big-Bang, refroidi par l’expansion de l’Univers. Ce rayonnement fossile est un exemple quasi parfait de spectre de corps noir dont la température actuelle est de 2,725°K (-270°C).

On considère souvent que cette découverte marque le commencement de la mécanique quantique : la nature se montre discontinue, constituée d’unités insécables. C’est aussi le retour des idées corpusculaires au beau milieu d’une expérience ondulatoire ! M. Planck reçut le prix Nobel de Physique en 1918 pour sa découverte des quanta élémentaires, mais il participa assez peu aux développements ultérieurs de ce domaine. page 50

Stefan Seip

dans la cavité provenaient du mouvement d’agitation de charges électriques situées sur les parois. Pour les faibles fréquences, le spectre obéissait à la loi de Rayleigh-Jeans issue des lois de la thermodynamique classique. Mais le spectre s’écartait violemment de cette prédiction dans le domaine des fréquences élevées, pour lesquelles Wien avait établi une loi empirique en 1893.

ÉLÉMENTAÍRE


Ondes et particules À suivre... En 1905, A. Einstein développa les idées de M. Planck en postulant que la lumière elle-même était constituée de quanta. Cette hypothèse lui permit d’expliquer un phénomène aux caractéristiques alors incompréhensibles : l’effet photo-électrique. Ce résultat allait valoir à Einstein le Prix Nobel de Physique en 1921. Ces premiers succès scientifiques encouragèrent d’autres physiciens à étudier ces mystérieux objets pour bâtir la mécanique des quanta... encore appelée mécanique quantique.

DR

La mécanique quantique parvient à réconcilier les deux concepts antagonistes d’onde et de particule. En particulier, elle postule que la lumière est composée de quanta appelés photons dont elle décrit le comportement de façon à expliquer à la fois l’expérience des fentes de Young, le rayonnement du corps noir et l’effet photoélectrique. Nous verrons comment un tel tour de force est possible dans le prochain numéro d’Elémentaire. Mais nous pouvons déjà dire que le prix à payer est élevé, car la mécanique quantique nous demande d’abandonner les intuitions déterministes issues de notre expérience quotidienne. Ainsi, les photons n’ont pas une trajectoire unique et parfaitement déterminée. Nous ne pouvons plus prédire avec certitude l’évolution d’un photon, mais simplement calculer la probabilité de l’observer en un point donné avec certaines caractéristiques... ce qui aboutit à des prédictions surprenantes mais vérifiées expérimentalement. À courir après la nature de la lumière, nous voici arrivés au seuil du monde bizarre des constituants élémentaires de la matière !

Max Planck (1858-1947) a donné son nom à la Max Planck Gesellschaft. Cette «Société pour l’avancement de la science» rassemble 80 instituts de recherche fondamentale dans des domaines scientifiques variés, et elle joue en Allemagne un rôle similaire à celui du CNRS en France.

L’effet photo-électrique Lorsqu’on éclaire une plaque de métal avec un rayonnement ultraviolet intense, on parvient à en éjecter des électrons. D’après la théorie ondulatoire de la lumière, seule l’intensité de l’onde électromagnétique détermine la quantité d’électrons ainsi émis et leur vitesse initiale. En effet, l’énergie d’une onde ne devrait dépendre que de son intensité. Expérimentalement, il s’avéra que les électrons étaient produits seulement si la fréquence du rayonnement dépassait un certain seuil. Au-dessus de ce seuil, des électrons étaient toujours éjectés, même pour une lumière de très faible intensité ! Pour expliquer ceci, Einstein postula l’existence de quanta lumineux, les photons. Un photon de fréquence ν porte une énergie bien précise et égale à hν (voir texte). Lors de l’effet photoélectrique, chaque photon interagit individuellement avec les électrons de la plaque métallique. Un rayonnement de forte intensité mais de basse fréquence contiendra beaucoup de photons peu énergétiques : chacun d’entre eux sera trop faible pour arracher un électron du métal. Inversement, une lumière de basse intensité mais de haute fréquence contiendra seulement quelques photons, mais chacun portera assez d’énergie pour éjecter au moins un électron.

ÉLÉMENTAÍRE

page 51

Selon la théorie d’Einstein, l’énergie de ces électrons devait être directement proportionnelle à la fréquence de la lumière. R. Millikan vérifia expérimentalement cette prédiction en 1915 : les quanta de Planck quittaient le corps noir pour entrer dans la lumière...


La question qui tue ! Qu’est-ce que la masse? La réponse qui achève Dans la vie courante, le terme de masse recouvre différentes notions : on dit de quelqu’un qu’il est massif s’il est volumineux, on dit de l’or qu’il est massif lorsqu’il titre 24 carats, on dit d’une essence de bois qu’elle est massive (comme l’orme massif) lorsqu’elle est non-agglomérée, etc... Mais de façon intuitive, on associe la masse d’un objet à l’inertie qu’il présente à toute modification de son mouvement : plus un objet est massif, plus il sera difficile de modifier sa trajectoire. Ainsi, un simple coup de pied dans un ballon de football le fera s’envoler vers les buts. Le même geste sur une voiture n’aura comme effet que de provoquer de grosses douleurs au pied. Ceci s’explique évidemment par le fait que le ballon est suffisamment léger pour qu’un coup de pied le mette en mouvement, tandis que la voiture est beaucoup trop massive par rapport à la force du même geste. Mais, en termes scientifiques, qu’est-ce que la masse ? Comment peut-on se représenter la masse des atomes, ou celle des particules élémentaires ? D’où provient-elle ? Est-elle altérée par le mouvement de ces mêmes particules?

C’est à la suite d’une étude sur l’électrodynamique qu’Albert Einstein (1879-1955) réalisa qu’un corps émettant une énergie E (par exemple sous forme de lumière) devrait voir sa masse diminuer

La masse : un immense réservoir d’énergie

d’une quantité égale à E/c2. Il proposa d’essayer d’observer cet effet avec le radium récemment découvert et qui émettait un rayonnement intense. Le coefficient de proportionnalité (c2) entre la masse et l’énergie est une conséquence du principe de relativité.

© B. Mazoyer

La masse correspond à l’énergie interne des objets et elle ne varie pas avec leur vitesse. Cette équivalence entre la masse et l’énergie d’un corps au repos a été découverte par Albert Einstein en 1905 lors de la formulation de la théorie de la relativité restreinte. Il s’agit de l’expression célèbre : E=mc2 où l’énergie d’un objet au repos, E, est égale à la masse m multipliée par le carré de la vitesse de la lumière c. Tout le monde a l’expérience de ce qu’est la masse d’un objet à travers son poids. La masse est alors considérée comme étant additive. Par exemple, si vous vous pesez avec vos chaussures vous trouvez que l’indication de la balance correspond bien à votre poids, augmenté de celui de vos souliers. Cependant, pour des objets plus petits, formés de constituants plus élémentaires et en interaction, la masse totale n’est plus simplement la somme des masses des constituants mais elle contient aussi les énergies correspondant aux différents mouvements internes au système (rotations, vibrations, …). Prenons l’exemple d’un atome d’hydrogène (H), qui est un système lié formé d’un proton (p) et d’un électron (e), la masse vaut : MH = mp + me - énergie de liaison On observe ici que l’énergie de liaison se soustrait de la somme des masses des composants. Le fait que l’hydrogène ait une masse plus petite que ses constituants est à l’origine de sa stabilité : telle une bille qui ne s’arrête de rouler que si elle atteint le bas de la colline (où l’énergie potentielle est minimale), un atome fraîchement créé ne sera stable que si son énergie est plus faible que celle du noyau et des électrons qui le composent. page 52

Schéma de la sous-structure d’un atome.

ÉLÉMENTAÍRE


Qu’est-ce que la masse ? Si l’on remplace les différents termes par leur valeur, on trouve que l’énergie de liaison ne correspond qu’à une correction d’une partie pour cent millions (1/100 000 000) environ. Certains vont sans doute penser que tout cela correspond à beaucoup de bruit pour pas grand-chose, puisque cette énergie minime est de l’ordre de quelques électron-Volts par atome (13,6 précisément pour l’hydrogène). Bien que correspondant à une différence de masse très faible, cette énergie de liaison est tout à fait conséquente puisqu’elle produit à elle seule toute l’énergie libérée lors des réactions chimiques (chauffage, explosion de dynamite…). Le fait que de très faibles différences de masse puissent conduire à de grandes variations d’énergie provient du terme de la vitesse de la lumière élevée au carré dans l’équation d’Einstein. Numériquement, on trouve qu’un kilogramme de matière contient autant d’énergie que celle produite, pendant une année, par une centrale fournissant 3GW ! De fait, de si faibles différences de masse étaient passées inaperçues aux yeux des chimistes qui avaient noté que le poids des substances de départ, dans une réaction chimique, était égal au poids des substances résultantes. C’était le célèbre : « Rien ne se perd, rien ne se crée, tout se transforme » de Lavoisier. Passons maintenant aux noyaux qui sont des états liés formés de protons (p) et de neutrons (n). Le plus simple d’entre eux est celui du deutérium (D) constitué d’un proton et d’un neutron. Dans ce cas : MD = mp + mn- 2,2 MeV La correction est maintenant voisine de 1/1 000, soit cent mille fois plus grande que dans le cas des atomes. Ceci donne une idée de la différence d’ordres de grandeur entre l’énergie chimique et l’énergie nucléaire. Cette possibilité de libérer de l’énergie à partir de réactions entre noyaux fut remarquée dans les années 30 par les scientifiques allemands Lise

La première bombe nucléaire appelée « Trinity » a été testée dans le désert du Nouveau Mexique le 16 Juillet 1945. Cet essai faisait partie du projet Manhattan qui a mené à la construction de « Little Boy » et de « Fat man », les bombes atomiques qui ont détruit un mois plus tard Hiroshima et Nagasaki, les 6 et 9 août respectivement. Ces deux bombes qui utilisaient près d’un kilo d’uranium pour l’une et un kilo de plutonium pour l’autre, ont libéré en explosant une énergie équivalente à 15 000 et 20 000 tonnes de TNT respectivement.

ÉLÉMENTAÍRE

page 53

Variation de l’énergie de liaison d’un nucléon au sein d’un noyau, en fonction du nombre atomique. Le point rouge correspond au cas du Fer (Z=56) pour lequel cette valeur est maximale. En dessous du fer, la cohésion augmente avec Z, ce qui montre que de l’énergie peut-être libérée si deux noyaux légers se combinent pour former un seul noyau de masse moyenne (c’est la fusion nucléaire). Au contraire, à grand Z, la liaison entre nucléons diminue quand Z augmente : de l’énergie peut ainsi être libérée par la fission d’un noyau lourd en deux noyaux plus petits (c’est la fission nucléaire, utilisée dans les centrales nucléaires pour produire de l’énergie, voir la rubrique «Énergie»).


Qu’est-ce que la masse? Meitner, Otto Hahn et Fritz Strassmann. Elle a été exploitée pour la production d’énergie nucléaire civile mais aussi –malheureusement– pour la fabrication des bombes nucléaires.

Prix Nobel 2004 En octobre 2004, le prix Nobel de physique a été décerné à D. Gross, H. D. Politzer et F. Wilczek pour leur contribution décisive à la description théorique de la force forte. Cette théorie, connue sous le nom de Chromodynamique Quantique (QCD), explique l’attraction augmentant avec la distance entre les quarks par la «liberté asymptotique»

Mais que se passe-t-il dans le proton ?

D. Gross : directeur de l’Institut de Physique Théorique KAVLI, Université de Californie, Santa Barbara, USA.

© The Nobel Foundation

Notre voyage se termine au niveau des quarks et des leptons (électron, neutrino..) dont on pense actuellement que ce sont des objets fondamentaux (non constitués de briques plus élémentaires). D’où vient alors leur masse ? Répondre à cette question est un des objectifs principaux du programme LHC, actuellement en cours de construction au CERN. Pour expliquer la variété des masses de particules, il existe des modèles théoriques qui postulent l’existence d’une (des) particule(s) qu’il resterait à découvrir : le(s) boson(s) de Higgs, du nom du physicien écossais qui l’a proposé. Il faut retenir ici, que son existence éventuelle constitue la source génératrice des masses de toutes les particules qui remplissent l’Univers.

H. D. Politzer, Institut de Californie, CALTECH, Pasadena, USA.

© CERN

© © WGBH/NOVA

Poursuivant notre progression vers l’intérieur du noyau, nous arrivons maintenant au proton. Celui-ci n’est pas élémentaire : il est composé de trois quarks et doit son existence à la force dite «forte» qui retient les quarks ensemble. Cette interaction est différente des autres forces connues (électromagnétique, faible et gravitationnelle) puisqu’elle augmente avec la distance ! Pour cette raison on ne peut pas disposer de quarks libres pour mesurer leur masse : plus on essaie de les éloigner les uns des autres afin de les séparer, plus ils s’attirent. Si on arrive à casser le proton en lui envoyant un projectile, on libère les quarks qui «s’habillent» immédiatement en particules plus complexes. On arrive néanmoins à mesurer la masse des quarks par des moyens indirects et à l’aide de calculs théoriques. On trouve alors que la somme des masses des quarks composant le proton représente à peine 5% de sa masse. Le reste provient des médiateurs de la force forte responsable de la cohésion du proton, les gluons, qui pourtant sont sans masse ! Mais alors : pourquoi le proton ne cherche-t-il pas à se casser en trois quarks qui ont une énergie (masse) totale plus faible comme dans le cas d’un atome ? C’est à cause du caractère très particulier de la force forte qui retient les quarks collés ensemble (voir encadré Prix Nobel 2004)

Peter Higgs

© Donna Coveney

Mécanisme de Higgs

page 54

F. Wilczek, MIT, Cambridge, USA.

La masse d’une particule élémentaire proviendrait de son interaction permanente avec un champ bien particulier, le champ de Higgs (du nom de Peter Higgs, physicien écossais, qui l’a proposé) qui remplirait tout l’espace. C’est parce que cette interaction est plus ou moins forte que la particule qui baigne dans ce champ est plus ou moins massive. Ce mécanisme peut se visualiser à travers des phénomènes bien connus : un électron traversant un morceau de cristal subit le champ cristallin et sa masse apparente se trouve multipliée par un facteur allant jusqu’à 40 ! De même, une bille posée à la surface d’un liquide coule plus ou moins vite suivant la viscosité de celui-ci comme si sa masse initiale en était affectée.

ÉLÉMENTAÍRE


Énergie nucléaire Contexte actuel et futur Dans le contexte de limitation de l’utilisation des combustibles fossiles, l’énergie nucléaire pourrait être amenée à jouer un rôle important dans le futur. Les scénarios les plus «nucléaires» prévoient une augmentation de la production d’énergie nucléaire d’un facteur 10 dans les 50 ans qui viennent. Même si on observe les prémices d’une relance au niveau mondial (USA, Chine, Japon, Inde, …), certains pays (Allemagne, Italie, Suède, …) ont décidé d’abandonner rapidement cette source d’énergie, et il est par conséquent difficile aujourd’hui d’avoir une vision claire de l’évolution du nucléaire dans les prochaines années. Pourtant, si cette demande augmente significativement dans le futur, de nouvelles technologies devront être mises en place, ce qui nécessite souvent des dizaines d’années de recherche et développement avant d’atteindre le stade industriel.

Principales sources de l’électricité dans le monde.

Contrairement à toutes les formes de production d’énergie chimique (combustion notamment), où les énergies mises en jeu sont de l’ordre de grandeur des énergies de liaison des électrons autour du noyau, c’est-àdire de quelques électron-Volts (1eV = 1.6 10-19 J), l’énergie nucléaire vient du noyau de l’atome. Dans le noyau, les énergies de liaison sont de l’ordre du million ou de quelques dizaines de millions d’eV (MeV) (voir rubrique «La question qui tue»). L’énergie nucléaire telle qu’on l’utilise aujourd’hui provient de la fission de noyaux lourds ; lorsqu’un tel noyau fissionne, c’est-à-dire se casse en deux, il libère une énergie d’environ 200 MeV. Il s’agit là d’une énergie extrêmement concentrée : pour fixer un ordre de grandeur, une personne en France consomme en moyenne 1000 W d’électricité en permanence, ce qui correspond à la fission d’un gramme de matière par an, ou à la combustion de deux tonnes de gaz naturel.

© AIEA

D’où vient l’énergie nucléaire ?

Quels noyaux utilise-t-on ? Il existe dans la nature seulement trois noyaux qui sont susceptibles de fissionner. Il s’agit de deux isotopes de l’uranium (235U et 238U) et du thorium (232Th). Parmi ces noyaux, seul l’235U fissionne facilement lorsqu’il est bombardé par des neutrons, c’est donc lui qui est utilisé dans la quasi totalité des réacteurs actuels. La durée de vie (voir la rubrique «Analyse») de l’235U étant de 700 millions d’années contre 4,5 milliards pour l’238U, la proportion d’235U dans le minerai d’uranium a diminué depuis la formation originelle de ces noyaux, et elle est seulement de 0,7% aujourd’hui.

Pourcentage de l’électricité produite par l’énergie nucléaire dans différents pays.

Électrogène : qualifie un système produisant de l’électricité.

ÉLÉMENTAÍRE

page 55

La plupart des types de réacteurs utilisent un combustible enrichi en 235U. Pour les filières de réacteurs électrogènes, on utilise un combustible enrichi à 4% environ en 235U. D’autres types de réacteurs, comme certains de ceux utilisés pour la recherche, brûlent un combustible très enrichi, pouvant aller jusqu’à 95% en 235U. Un réacteur de 1GW


Contexte actuel et futur Phase d’enrichissement : Les méthodes chimiques utilisées pour extraire un élément ne permettent pas de distinguer entre ses différents isotopes. Le minerai d’uranium naturel est donc un mélange d’238U et d’ 235U. Or seul l’235U est fissile et il est nécessaire d’augmenter sa proportion au sein du combustible utilisé dans les réacteurs nucléaires : on doit enrichir le minerai en 235U. Pour cela on utilise des différences de propriétés physiques entre les isotopes. Plusieurs méthodes sont employées ; certaines (diffusion gazeuse, centrifugation) reposent sur la différence de masse entre les isotopes. Comme il s’agit de différences faibles (inférieure à 1%) des installations industrielles importantes sont nécessaires pour préparer les tonnes de combustible utilisées dans les centrales.

électrique contient environ 90 tonnes d’uranium enrichi, et chaque année on renouvelle le tiers du cœur du réacteur : il consomme donc une trentaine de tonnes de combustible par an. Lors de la phase d’enrichissement, on produit le combustible, qui sera utilisé dans le réacteur, et aussi une certaine quantité d’uranium dit «appauvri», contenant moins que 0,7% d’235U. Plus cette proportion résiduelle est faible, moins on consomme d’uranium naturel pour produire une quantité donnée de combustible, mais plus le prix de l’enrichissement est élevé. La concentration d’235U restant dans l’uranium appauvri est donc le résultat d’un compromis entre le prix de l’uranium à l’extraction et le prix de l’enrichissement. Cette concentration vaut aujourd’hui environ 0,3%. Ainsi, pour produire 30 tonnes d’uranium enrichi (c’est-à-dire la consommation annuelle d’un réacteur standard), on utilise environ 200 tonnes d’uranium naturel. La France importe son uranium naturel de plusieurs pays, comme le Gabon, le Canada, les Etats-Unis ou encore l’Australie, à raison d’environ 8 200 tonnes par an. Le prix de l’uranium naturel représente moins de 5% du prix de revient total de l’électricité produite.

© COGEMA : Ph. Lesage

Quel est le potentiel de production des filières actuelles ?

Usine d’enrichissement Georges Besse d’Eurodif – Pierrelatte. Étape clé de la transformation de l’uranium, avant la fabrication du combustible nucléaire, l’enrichissement consiste à modifier la composition isotopique de l’uranium naturel.

Les réserves en uranium sont difficiles à évaluer précisément, car elles dépendent du prix qu’on est prêt à payer pour extraire ce minerai. En effet, la quantité d’uranium présent dans la croûte terrestre dépasserait le milliard de tonnes par mètre d’épaisseur ! Mais tout cet uranium n’est pas exploitable. Les réserves prouvées sont de l’ordre de quatre millions de tonnes, à un prix d’extraction inférieur à 80$/kg (contre 40$/kg actuellement). Au delà de ces quatre millions de tonnes, il s’agit d’estimations. L’OCDE évalue, par exemple, à environ 17 millions de tonnes les ressources en uranium récupérables dans du minerai. Il existe aussi une grande quantité d’uranium dans les océans, environ 4,5 milliards de tonnes, mais sa faible concentration rend très difficile son extraction, et nécessiterait des moyens gigantesques pour satisfaire une demande d’énergie nucléaire massive basée sur les filières actuelles.

Si on prend comme référence la valeur de 17 millions de tonnes, on obtient un potentiel de production des filières actuelles de 300 ans environ au rythme actuel. Mais si le nucléaire est amené à se développer massivement, ces réserves seront épuisées avant la fin du siècle.

page 56

OCDE : Organisation de coopération et de développement économiques. L’OCDE regroupe 30 pays membres et a des relations de travail avec plus de 70 autres pays, des ONG et la société civile.

ÉLÉMENTAÍRE


Contexte actuel et futur Il est possible d’optimiser l’utilisation du minerai avec les filières actuelles. En diminuant le taux d’235U présent dans l’uranium appauvri, on consomme moins d’uranium naturel pour produire une masse de combustible donnée. On peut également augmenter le taux de combustion et réutiliser l’uranium appauvri pour récupérer l’235U qu’il contient encore. Enfin, une fois sorti du réacteur, le combustible contient encore environ 0,7% d’235U, et il est envisageable d’enrichir à nouveau cet uranium. En combinant toutes ces solutions, on pourrait dans le meilleur des cas doubler le taux d’utilisation du minerai. Certes, on n’obtiendrait toujours pas une filière qui soit durable audelà du siècle, mais ces optimisations permettraient d’opérer plus facilement une transition vers des filières innovantes basées sur le principe de régénération.

Copyright 1954 by D. Van Nostrand Company, Inc. New York

Comment optimiser le potentiel des filières actuelles ?

Quelques exemples de minerais contenant des éléments radioactifs.

Comment utiliser tout le minerai d’uranium et de thorium ? Les deux principaux noyaux lourds naturels sont l’238U et le 232Th mais ils ne peuvent être utilisés directement comme combustible nucléaire. Cependant, lorsqu’ils capturent un neutron, ils produisent de nouveaux noyaux qui sont aisément fissiles. L’238U et le 232Th sont dits fertiles. Noyaux fertiles 238U + n 232Th + n

→ →

Noyaux fissiles 239U (23’) → 239Np 233Th (22’)→ 233Pa

(2,4j) → (27j) →

239Pu (24 000 ans) 233U (160 000 ans)

Usine de traitement du minerai de COMINAK à Akouta, Niger. Avant d’être transformé en combustible, l’uranium passe par plusieurs étapes. Au sortir de la mine, le minerai est concassé et broyé avant d’être plongé dans un bain d’acide qui produit un concentré appelé «yellow cake» d’une teneur moyenne en uranium de 750 kg par tonne..

page 57

ÉLÉMENTAÍRE

© L.Bezia

Une fois la capture du neutron effectuée, les deux décroissances naturelles pour passer aux noyaux finals sont très rapides (les durées de vie correspondantes sont indiquées entre parenthèses dans les réactions ci-dessus) et il se produit ainsi une transformation de la nature du combustible, au sein du réacteur. Ce dernier est dit régénérateur quand, à chaque fois qu’un noyau fissile est consommé, un autre noyau fissile est régénéré suite à la capture d’un neutron par un noyau fertile. Dans ce cas, la totalité du minerai d’uranium ou de thorium peut être consommée. Un réacteur régénérateur de 1GW électrique nécessiterait donc environ 1 tonne de minerai par an, contre 200 aujourd’hui. Dans ces conditions, le potentiel d’une masse donnée de minerai est multiplié par


Contexte actuel et futur 200 environ et il est possible d’envisager une production massive et durable (sur plusieurs millénaires) à partir de filières régénératrices. De plus, le prix du minerai deviendrait dans ce cas quasiment négligeable dans le prix de revient global de l’énergie produite, et il serait envisageable d’utiliser de l’uranium ou du thorium très difficile à extraire, ce qui augmenterait encore le potentiel de production de ces filières. La production de 239Pu a déjà lieu dans les réacteurs actuels, mais ses propriétés neutroniques rendent impossible la régénération : à chaque fois qu’un noyau de plutonium disparaît on en régénère moins de 0,65, et il est toujours nécessaire de consommer de l’235U. Pour obtenir la régénération, il faut changer de technologie, développer de nouvelles filières de réacteurs, utilisant des neutrons rapides pour le cycle uranium ou un combustible liquide pour le cycle thorium.

En conclusion

page 58

© DRIRE Champagne Ardennes

Il est difficile de définir l’avenir du nucléaire d’ici 2050. Certains pays ont décidé de se passer de cette énergie, d’autres lancent des programmes ambitieux. L’évolution de la production d’énergie nucléaire dépendra des décisions de la société vis-à-vis de l’utilisation des combustibles fossiles, responsables d’une émission massive de gaz à effet de serre qui dérèglent notre climat. Le nucléaire de son côté devra répondre aux problèmes de la gestion des déchets, de la sûreté des centrales, de la prolifération des matières radioactives et de l’optimisation des ressources en uranium et en thorium. Nous tenterons d’aborder ces différents thèmes dans les futurs numéros de cette revue.

La centrale de Chooz dans les Ardennes.

ÉLÉMENTAÍRE


Le LHC Nouvelles du LHC Le projet CERN : Organisation Européenne pour la Recherche Nucléaire LEP : grand collisionneur d’électrons et de positrons 1TeV = 1012 eV = 1000 GeV (T=téra, G=giga)

© CERN

Le Large Hadron Collider est l’accélérateur de particules de nouvelle génération qui doit entrer en fonctionnement au CERN (figure 1) en Avril 2007. Il est en cours d’installation dans le tunnel de 27 km de circonférence occupé jusqu’en 2002 par le LEP. Deux faisceaux de protons (ainsi que d’ions dans certains cas), circulant en sens contraires, seront accélérés jusqu’à l’énergie de 7 TeV. L’énergie ainsi disponible – 14 TeV – sera colossale : à l’heure actuelle, l’énergie maximale atteinte dans un accélérateur de particules est de 2 TeV (collisionneur proton anti-proton installé au laboratoire Fermilab près de Chicago). Ces faisceaux, contenant chacun 300000 milliards de protons regroupés dans 2835 paquets, entreront en collision en quatre points de l’anneau, 40 millions de fois par seconde. Afin de confiner les protons au sein de l’anneau circulaire on installera dans le tunnel plus de 1 200 aimants dipolaires supraconducteurs de 15 m de long, produisant un champ magnétique intense (8,4 Teslas) et portés à une très basse température (1,9 K, soit -271,3°C). S’y ajoutent 500 aimants quadripolaires supraconducteurs dont le but est de refocaliser les faisceaux. En effet les particules des faisceaux sont tellement petites que, malgré leur grand nombre, elles doivent être concentrées au maximum pour que les collisions souhaitées aient effectivement lieu. Le collisionneur et le génie civil nécessaire aux zones expérimentales avaient été acceptés en 1996 au prix de 1 700 M€. Une révision de cette estimation s’avéra

ÉLÉMENTAÍRE

page 59

figure 1 : Vue générale du site du CERN où le LHC est en construction. La ligne pointillée représente le passage de la frontière entre la France et la Suisse. En arrière plan, se devinent les monts du Jura ; au premier plan, on voit l’aéroport de Genève-Cointrin. Le cercle indique l’emplacement du tunnel dans lequel est installé l’accélérateur de particules.


Nouvelles du LHC nécessaire en 2002 quand des prix plus proches de la réalité furent disponibles, notamment pour les aimants. Le devis actuel est de 2 100 M€. Il inclut les sommes dépensées (90 M€) pour concevoir les aimants supraconducteurs et pour développer les techniques de production industrielle. Quatrevingts pour cent des contrats étaient signés en décembre 2002.

Les expériences © CERN

Une expérience sera installée sur chacun des quatre points de rencontre des deux faisceaux, afin d’étudier les particules produites au cours des collisions (figure 2). Ces expériences auront été le fruit de près de vingt années de travail : travail d’évaluation du potentiel de physique depuis 1984, travail de conception et d’optimisation des détecteurs depuis 1988, travail de recherche et développement dans tous les domaines technologiques requis depuis 1989. Ces travaux ont abouti en décembre 1994 à l’approbation de la construction de l’accélérateur LHC et à la soumission des propositions techniques pour les deux détecteurs «universels», ATLAS et CMS. Environ une année plus tard, des propositions techniques pour les deux détecteurs plus spécialisés, ALICE et LHCb, furent présentées à la direction du CERN.

figure 2 : Sur ce schéma sont indiqués les emplacements des quatre expériences qui sont en construction pour enregistrer des données sur le collisionneur LHC. L’anneau est situé à une profondeur moyenne de 100 mètres. L’anneau marqué SPS, qui n’est pas situé dans le même plan que le précédent, est utilisé pour injecter des protons dans l’anneau principal. Ces protons sont injectés dans deux directions opposées en utilisant des lignes de transfert.

Ces travaux «préliminaires» ont permis de rassembler autour de ces quatre grands projets d’expérience des milliers de physiciens, ingénieurs et techniciens, provenant de plusieurs centaines d’instituts situés dans une cinquantaine de pays. Depuis 1996, après la signature des accords de collaboration définissant les tâches et responsabilités de chaque équipe, la période de construction de ces expériences a réellement démarré. Elle est loin d’être terminée, mais elle est suffisamment avancée pour pouvoir s’attaquer aux phases finales d’intégration, d’installation et de mise en œuvre des différents éléments de détecteurs. Ces phases s’achèveront lorsque les premiers faisceaux de protons ou d’ions lourds entreront en collision dans les zones expérimentales.

page 60

ATLAS : A Toroidal Lhc ApparatuS (un détecteur toroïdal pour le LHC) CMS : Compact Muon Solenoid (Solénoïde à muons, compact) ALICE : A Large Ion Collider Experiment (un grand détecteur pour la collision d’ions lourds) LHCb : Large Hadron Collider beauty (beauté au grand collisionneur de hadrons)

Il n’est pas exagéré de dire que les deux années 2003 et 2004 auront été excellentes pour le moral des équipes travaillant depuis tant d’années sur la construction des détecteurs. En effet, elles ont été le témoin des premières livraisons au CERN de nombreux éléments-clés de détecteurs et elles ont vu le démarrage de l’installation d’équipements variés dans les cavernes expérimentales, ainsi que des progrès spectaculaires dans la construction de l’accélérateur lui-même. Les chercheurs du CERN ont ainsi le sentiment de s’approcher du «bout du tunnel», après la plus longue période de préparation expérimentale jamais connue en physique des particules. Les physiciens peuvent dès lors se laisser gagner par l’excitation qui accompagne toujours le début d’une nouvelle expérience.

ÉLÉMENTAÍRE


Les expériences ATLAS et CMS, ont été conçues en priorité pour rechercher des pistes de nouvelle physique à l’échelle d’énergie du TeV. Elles ont également pour mission de découvrir le (ou les) boson(s) de Higgs, prévu (s) dans le cadre du Modèle Standard ou par d’autres modèles théoriques plus exotiques, et d’étudier encore plus précisément que dans les collisionneurs précédents (LEP au CERN, Tevatron à Fermilab, et usines à beauté à SLAC et figure 3 : Ensemble d’aimants dipolaires supraconducteurs du LHC en cours de test au à KEK) la manière dont les interactions CERN. La réalisation de ces aimants, qui vont guider les faisceaux de protons autour de entre particules ont lieu. l’anneau, est une des principales difficultés du projet. Les deux autres expériences, LHCb et ALICE ont des objectifs plus ciblés. La première se concentre sur l’étude du quark b, abondamment produit au LHC, et visera à poursuivre le programme en cours actuellement, dans les usines à beauté. La seconde étudiera les collisions usines à beauté : il s’agit de d’ions lourds et espère observer la formation d’un nouvel état de la matière appelé collisionneurs d’électrons et de plasma de quarks et de gluons.

Le LHC en ligne À l’heure actuelle, 35% des aimants dipolaires supraconducteurs (figure 3) ont été livrés au CERN, afin d’être testés un par un puis installés progressivement dans le tunnel du LHC ; 5 à 7 jours sont nécessaires, en moyenne, pour mener à bien un test complet de l’aimant placé dans les conditions de son fonctionnement ultérieur (champ magnétique et température). Les résultats sont jusqu’à présent concluants. Par ailleurs, deux de ces aimants ont été descendus sans dommage dans le tunnel en janvier 2004, afin de valider la procédure mécanique d’installation des différents éléments de l’accélérateur. Vous pouvez suivre l’évolution jour après jour du programme LHC en vous connectant sur la page publique du CERN à l’adresse suivante : http://lhc-new-homepage.web.cern.ch/lhc-new-homepage/

positrons qui ont été conçus pour produire abondamment des particules contenant le quark b (dit de beauté). Il en existe une au Japon (KEK) et une aux États-Unis (SLAC). boson de Higgs : c’est une particule qui devrait être à l’origine de la masse de toutes les particules. Prédite théoriquement, aucune expérience n’a encore réussi à la mettre en évidence.

ÉLÉMENTAÍRE

page 61

La physique des particules s’appuie sur une théorie bien établie, communément appelée le Modèle Standard. Celui-ci décrit en détail (et souvent avec une bonne précision par rapport aux mesures expérimentales) les réactions et désintégrations entre particules étudiées dans la nature ou dans les grands accélérateurs. Malgré ses immenses succès lors des vingt dernières années, le Modèle Standard n’est pas la théorie ultime des interactions entre constituants élémentaires de la matière, car il laisse un certain nombre de grandes questions sans réponse : citons de manière schématique l’origine des masses, l’unification des interactions électrofaible et forte avec la gravitation et la très faible proportion d’antimatière dans notre univers. Même si l’ample moisson de données expérimentales accumulées à ce jour ne donne aucun indice sur la nature de la physique au-delà de ce Modèle Standard, de multiples raisons théoriques, et même quelques résultats expérimentaux indirects, permettent de penser que celle-ci devrait se manifester aux énergies disponibles au LHC. Peut-être cela se produira-t-il de manière éclatante dès les premiers mois de prise de données avec une production abondante de nouvelles particules prédites par l’une ou l’autre des extensions théoriques du Modèle Standard ! Plus vraisemblablement, la mise en évidence de ces nouveaux effets fins prendra longtemps et nécessitera l’analyse détaillée d’immenses quantités de données accumulées au cours des années de fonctionnement des détecteurs.

© CERN

La physique étudiée


ICPACKOI ? [isepasekwa] ? L’hiver commence tôt chez ATLAS ! Mardi 7 septembre 2004 à 1h30 du matin, au premier essai, la première bobine composant l’aimant toroïdal (c’est-à-dire en forme d’anneau) d’ATLAS a été parcourue par un courant de 22 000 A (c’est-à-dire 1 500 A de plus que le courant de fonctionnement prévu). Au préalable, le matériau supraconducteur avait été descendu à une température de -269 °C (cette opération de mise en froid a duré 10 jours). À cette température – proche de celle de l’espace intersidéral – le supraconducteur conduit le courant sans aucune résistance, c’est-à-dire sans perte ni dégagement de chaleur ce qui permet d’atteindre de telles intensités. Cet aimant, imaginé et conçu au DAPNIA (CEA Saclay), est une partie cruciale du détecteur ATLAS. En effet, le champ magnétique ainsi créé agira sur les particules formées lors des collisions proton-proton en courbant d’autant plus leurs trajectoires qu’elles seront peu énergétiques. Les déviations mesurées renseigneront donc sur l’énergie des particules produites.

page 62

P. Védrine CEA-Saclay

Hall expérimental au CERN où les bobines de l’aimant toroïdal d’ATLAS sont testées. Chaque bobine mesure 25 m de longueur, 5 m de hauteur et le diamètre du tube est de 1,3 m pour un poids de 80 tonnes !

ÉLÉMENTAÍRE


[isepasekwa] ? BaBar : cet acronyme indique que l’expérience étudie des événements dans lesquels sont produits une particule belle, c’est-à-dire contenant un quark beau, et son anti-particule correspondante (notée habituellement par un « B » avec une barre au-dessus).

Découverte de la violation de CP directe chez les particules belles par les expériences BABAR et BELLE À toute particule élémentaire (c’est-à-dire sans sous-structure) correspond une anti-particule de même masse mais de charge opposée. Ainsi, à l’électron chargé négativement (-e), est associé le positron de charge +e. Par contre, le photon est identique à son anti-particule. Pour des particules composites comme le proton ou le neutron, le passage aux anti-particules s’effectue en remplaçant les quarks qui les composent par les anti-quarks correspondants ; on obtient alors par

Belle : Détecteur «concurrent» de BaBar, situé au Japon.

© SLAC

Détecteur BaBar lors de sa construction en Californie (USA).

exemple l’anti-proton ou l’anti-neutron. Cependant, les choses ne sont pas aussi simples : on s’est aperçu dans les années 60 qu’il y avait, outre les charges, une petite différence supplémentaire entre une particule et son anti-particule. Bien que faible et difficile à mesurer, elle est d’une grande importance puisque suivant le scénario actuel de création de l’univers (le « Big-Bang »), matière et anti-matière devaient initialement être présentes en quantités égales. Or il semble que nous ne soyons constitués et entourés que de matière. La responsable de cette dissymétrie résiduelle entre matière et anti-matière pourrait être due à ce que les physiciens appellent la «violation de CP».

ÉLÉMENTAÍRE

page 63

L’été dernier, les expériences BaBar et Belle ont annoncé la découverte de la violation directe de CP dans le secteur des mésons beaux (ou B). Grâce aux excellentes performances des « usines à B » PEP-II (en

PEP-II : Positron Electron Project II. Il s’agit d’un collisionneur entre des faisceaux d’électrons et de positrons ayant des énergies différentes.


[isepasekwa] ? Californie) et KEK-B (au Japon), ces détecteurs ont pu enregistrer une énorme quantité de données : près de 250 millions de paires particule  pour BaBar et déjà plus de 300 millions pour Belle ! anti-particule (BB) Seule une telle statistique a permis la mesure de ce phénomène qui n’est attendu que dans des désintégrations rares. KEK-B : machine similaire à PEP2, installée au Japon.

La violation de CP a été découverte en 1964 en étudiant les désintégrations des kaons. Plusieurs méthodes existent pour l’étudier. Dans l’analyse «directe», on compare les taux de désintégration d’une particule vers un état final donné et « l’anti-processus » correspondant qui voit l’anti-particule associée se désintégrer en un état final formé des « anti-produits » de la première réaction. Dans le cas des expériences BaBar et Belle il s’agit de comparer les transitions B0 —› K+π–  0 —› K–π+. En l’absence de violation de et B CP, les taux devraient être identiques.

© KEK

Pour donner une idée de la difficulté de ce travail, il suffit de remarquer que, pour l’analyse BaBar, moins de 2000 événements parmi plus de 200 millions ont été sélectionnés. En combinant les résultats des deux expériences BaBar et BELLE on peut conclure qu’il y a environ 12% de  0 —› K-π+. plus de désintégrations B0 —› K+π- que de désintégrations B L’incertitude sur cette mesure est de l’ordre de 2% en valeur absolue, ce qui «authentifie» cette découverte.

Détecteur BELLE lors de sa construction au Japon.

page 64

Une différence entre les taux de désintégration des K0 et des K0 avait déjà été mesurée de façon précise ces dernières années par les expériences NA48 (au CERN) et KTeV (près de Chicago). Il s’agissait de différences infimes, 100 000 fois plus faibles que celles annoncées par BaBar et BELLE cet été. S’agit-il du même phénomène ? Sans doute, bien qu’actuellement on ne sache pas le démontrer.. À suivre !

Cette figure montre graphiquement la différence entre les désintégrations  —›K¯π+ Bº —› K+π¯ (en bleu) et Bº (en rouge). C’est la violation de CP directe. Sur le graphique, le nombre d’événements identifiés pour chacun des deux canaux est représenté en fonction d’une variable qui permet de séparer le signal cherché, des désintégrations parasites.

ÉLÉMENTAÍRE


Pour en savoir plus http://web.ccr.jussieu.fr/radioactivite/ Le site du centenaire de la découverte de la radioactivité.

http://mendeleiev.cyberscol.qc.ca/Carrefour/ historique.html Un site québécois sur la classification périodique des éléments.

http://www.laradioactivite.com/ Pour en savoir plus sur la datation.

http://www.interactions.org

http://lhc-new-homepage.web.cern.ch/lhc-new-homepage/ Le LHC en ligne

ÉLÉMENTAÍRE

page 65

http://www.ganil.fr/ Le site du GANIL


Échelle des distances 10-1m = 0,1 m

une mouche de 1 à 10-15 mètre 10-2m = 0,01 m

© CERN

10-3m = 0,001 m

10-4m = 0,0001 m © CERN

10-5m = 0,00001 m

10-6m = 0,000 001 m

© CERN

L’œil de la mouche est composé de centaines de facettes ressemblant à un nid d’abeille.

© CERN

© CERN

Dans le jardin, on voit une mouche sur une des feuilles du rosier.

10-7m = 0,000 0001 m Entre les facettes (petites lentilles tapissées de cellules sensibles à la lumière) se trouvent des cils qui donnent à la mouche des 10-10m = 0,000 000 informations tactiles sur la surface de l’œil. 0001 m

© CERN

© CERN

? page 66

© CERN

Les protons et neutrons du noyau sont composés de 3 quarks.

<10-18m. = 0,000 000 000............1 m

© CERN

Au centre de la cellule se trouve une molécule enroulée sur elle-même, l’ADN. Elle contient les informations génétiques nécessaires à la reproduction de la mouche.

10-15m = 0,000 000 000 000 001 m

10-14m = 0,000 000 000 000 01 m

L’atome de carbone, ingrédient essentiel à la vie, n’est presque composé que de vide. Un nuage de six électrons chargés négativement tourne en orbite autour du noyau chargé positivement.

On ne dispose actuellement que d’une limite supérieure sur la taille des quarks ( à 10-18m).

© CERN

© CERN

10-8m. = 0,000 000 01 m

Au milieu de l’atome de carbone se trouve le noyau, composé de six protons et de six neutrons. 99,95% de la masse de l’atome est concentrée dans ce minuscule espace.

ÉLÉMENTAÍRE


Pourquoi cette revue ? La physique des particules est née du désir de comprendre la structure ultime de la matière et des forces qui la transforment. Elle touche par là aux aspects fondamentaux de la connaissance. En avril 2007 doit démarrer le grand collisionneur du CERN, LHC (Large Hadron Collider), couronnement d’un programme lourd qui mobilise des milliers de physiciens. Nous voudrions, par une publication périodique, suivre, tel un fil rouge, l’évolution de la construction de la machine LHC et des expériences qui y seront installées et en particulier : * Expliquer l’aspect universel de ces recherches : structure de l’espace, d’où vient la matière, ... * Donner des bases, de façon simple, pour comprendre ces recherches, * Parler du développement des idées et des découvertes en les plaçant dans le cadre historique, * Parler des grandes expériences et présenter les centres de recherche, * Parler des détecteurs et des accélérateurs, * Expliquer comment on passe de la mesure à la publication, * Donner les retombées de ces recherches pour la vie courante, * Parler des découvertes actuelles. Nous avons ainsi défini des rubriques qui seront récurrentes durant les deux numéros annuels et qui devraient nous conduire, en 2007, à pouvoir apprécier notamment les découvertes du LHC.

Abonnement

Abonnez-vous à la revue ÉLÉMENTAIRE, pour comprendre l’infiniment petit et appréhender l’infiniment grand, Offre pour deux numéros de la revue sur un an (frais de port inclus) : 6 euros Pour un nombre d’exemplaires de 5 à 9 (frais de port inclus) 2,5 euros du numéro, pour plus de 10 exemplaires : 2 euros du numéro (frais de port inclus).

Bulletin d’abonnement Faites votre demande d’abonnement à l’adresse sur le serveur internet : http://elementaire.web.lal.in2p3.fr/

ou à l’adresse : Groupe ÉLÉMENTAIRE LAL Bât 200 BP 34 91898 ORSAY CEDEX (Chèque libellé à l’ordre de l’AGENT COMPTABLE PRINCIPAL DU CNRS)

ÉLÉMENTAÍRE

page 67

Pour nous contacter à propos du contenu de cette revue ou pour d’autres raisons: - Email: elementaire@lal.in2p3.fr - ou bien à l’adresse postale ci-dessus.

Le comité de rédaction


page 68

ÉLÉMENTAÍRE


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.