N3_

Page 1

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Revue d’information scientifique

Solstice d’été 2006

Les rayons

Numéro 3

cosmiques


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

La Terre est bien protégée contre les rayons cosmiques grâce à son atmosphère et à son champ magnétique. Les aurores boréales (rubrique « Retombées ») en sont une illustration. L’énergie des rayons cosmiques est dégradée par leur interaction avec l’atmosphère : au niveau du sol il reste essentiellement des muons qui représentent environ 10% de la radioactivité naturelle. Les neutrons, produits également dans ces gerbes, sont domestiqués pour nous renseigner sur les réserves en eau des massifs montagneux (rubrique « Retombées »). Les rayons cosmiques ont permis la découverte de nombreuses particules (rubrique « Histoire ») : le muon, un cousin lourd de l’électron ; le pion, qui est lié à l’interaction forte ; le kaon, une particule contenant le quark étrange ; etc... Cependant ces études n’étaient pas de tout repos. Il fallait travailler dans des sites en altitude afin que l’atmosphère ne puisse dégrader totalement l’information contenue dans les rayons cosmiques incidents. Il fallait aussi rechercher, au sein de multiples traces, celles qui présentaient un intérêt (rubrique « Analyse »). En parallèle aux études sur les rayons cosmiques, se sont développées celles auprès des premiers accélérateurs, qui pouvaient produire des particules à la demande. Une de ces machines fut d’ailleurs appelée le « cosmotron » pour cette raison (rubrique « Accélérateur »). Une des principales découvertes récentes, en physique des particules, a été celle de l’oscillation des neutrinos (rubrique « Découvertes »). Ces neutrinos sont produits dans les gerbes de particules induites par les rayons

cosmiques lors de leur interaction avec l’atmosphère.

Il existe des rayons cosmiques d’énergie bien plus grande que celle accessible aux accélérateurs de particules, actuels ou en projet. De tels rayons sont très rares et, pour les étudier, des détecteurs ont été déployés sur plusieurs milliers de km2, en Argentine, c’est l’expérience AUGER (rubrique «Expériences»). Son porte parole, le prix Nobel Jim Cronin, a eu la gentillesse de nous accorder une interview.

© J. Serreau

Avec ce numéro nous atteignons la mi-parcours de ce projet de revue ; le sixième numéro devant, courant 2007, coïncider avec le démarrage du LHC. Nous en avons profité, ici, pour prendre de la hauteur en essayant de donner un panorama de l’apport des rayons cosmiques à notre discipline et de la place que leur étude y occupe aujourd’hui.

L’énergie de ces rayons est mesurée à partir des particules secondaires qu’ils engendrent lors de leur entrée dans l’atmosphère. Des dispositifs plus compacts, basés sur le même principe, ont été conçus pour mesurer l’énergie des particules produites lors de collisions auprès des accélérateurs. Le fonctionnement de ces « calorimètres » est expliqué dans la rubrique « Détection ». La collaboration CMS, au LHC, comporte plusieurs de ces dispositifs dont l’un est constitué de dizaines de milliers de cristaux (rubrique « LHC»). Vous trouverez aussi les rubriques habituelles abordant d’autres thèmes. Celle sur les « Méthodes d’analyse » présente la loi de Poisson qui s’applique à l’observation d’événements rares. Celle sur l’« Énergie nucléaire » parle des déchets qui ont été dans l’actualité ces derniers mois, suite à des discussions de la loi qui leur est consacrée. Enfin la rubrique « ICPACKOI » parle d’oscillations entre neutrinos de différents types et aussi entre des particules belles-étranges. Elle évoque également une tuile... Quant à la rubrique « Théorie », elle explique la relativité restreinte dont certaines conséquences sont indispensables pour plusieurs de nos études : la durée de vie d’une particule instable en mouvement nous paraît plus longue que lorsqu’elle est au repos, ce qui permet de l’étudier plus aisément. Enfin, si la plupart des particules vont plus vite que la musique, il leur est impossible de dépasser la vitesse de la lumière (rubrique « Question qui tue »). En conclusion, pour ce numéro comme pour la physique, heureusement que le ciel nous est tombé sur la tête !

Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex Tél. : 0164468522 - Fax : 01 69 07 15 26. Directeur de la publication : Patrick Roudeau Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, F. Fulda-Quenzer, M.-P. Gacoin, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.-H. Schune, J. Serreau, A. Stocchi. Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec. Ont participé à ce numéro : S. David, A.-I. Etienvre, O. Méplan, P. Royole-Degieux. Remerciements : nos nombreux relecteurs.` Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/ Prix de l’abonnement : 6 euros pour 2 numéros (par site internet ou par courrier) Imprimeur : Imprimerie . Numéro ISSN : 1774-4563


Apéritif p. 4 La pluie céleste

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Accélérateurs p. 39 Du cyclotron au synchrotron

Histoire p. 7

Un feu d’artifice de particules

Découvertes p. 43 Oscillation des neutrinos

Interview p. 14 Jim Cronin

Théorie p. 49

La relativité restreinte

Centre de recherche p. 18

Station Spatiale Internationale

Expérience p. 22 AUGER

La question qui tue p. 65 Peut-on dépasser la vitesse de la lumière ?

Énergie nucléaire p. 68 Les déchets nucléaires

Détection p. 27 Calorimétrie

Le LHC p. 56

CMS, petit mais costaud

Retombées p. 32 Les aurores boréales Les neutrons à la neige

Analyse p. 35 La loi de Poisson

ICPACKOI p. 59

Les neutrinos sous l’oeil de Minos PEP-II, la tuile ! Les oscillations de la beauté étrange

Abonnement

: faites votre demande d’abonnement sur le serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Deux numéros par an (port inclus) : 6 euros au total, chèque libellé à l’ordre de «AGENT COMPTABLE SECONDAIRE DU CNRS». Pour les administrations les bons de commande sont bienvenus. Contact : elementaire@lal.in2p3.fr


Apéritif La pluie céleste La Terre est constamment arrosée par une pluie de particules provenant de l’espace... Non, il ne s’agit pas d’un canular d’Orson Welles, mais bien d’une réalité ! En effet, le cosmos est traversé par d’innombrables particules de différents types (photons, neutrinos, particules chargées, etc...), produites lors de phénomènes plus ou moins violents dans notre univers, souvent au sein même de notre galaxie, voire de notre propre Soleil. Cette pluie céleste, c’est le rayonnement cosmique.

DR

La physique des rayons cosmiques a bientôt un siècle. En 1912, le physicien autrichien Viktor Franz Hess démontre l’existence de radiations dont l’intensité augmente avec l’altitude. Il conclut à l’origine extraterrestre de ce rayonnement et reçoit le prix Nobel en 1936 pour cette découverte. On sait aujourd’hui que ce phénomène est provoqué par l’arrivée de particules énergétiques dans la haute atmosphère, principalement des protons (87%) et des noyaux atomiques (12%, essentiellement de l’hélium), mais aussi des électrons (1%), qui entrent en collision avec les noyaux des molécules de l’atmosphère. Les produits de ces collisions primaires heurtent à leur tour d’autres noyaux, produisant ainsi une gerbe de particules secondaires. Certaines parviendront jusqu’au sol, d’autres seront absorbées par l’atmosphère, et d’autres encore induiront de nouvelles réactions qui donneront naissance à des particules tertiaires, etc... Une seule particule cosmique très énergétique peut ainsi générer une gerbe contenant plusieurs milliards de particules. Ce phénomène a été mis en évidence pour la première fois en 1938 par le physicien français Pierre Auger.

O. Welles et H. G. Wells : alerte aux extra-terrestres Le 30 octobre 1938, veille d’Halloween, Orson Welles et la troupe du Mercury Theater présentent une adaptation radiophonique du célèbre roman de Herbert George Wells « La guerre des mondes » (1898), retransmise à travers tous les ÉtatsUnis. L’adaptation est si bonne que de très nombreux auditeurs sont persuadés qu’une invasion martienne a véritablement lieu, ce qui génère des scènes de panique dans certaines villes. Plus encore : de nombreuses personnes restent convaincues de l’invasion extraterrestre les jours suivant l’émission, malgré les démentis publiés dans les journaux.

Mais pas la peine de sortir son parapluie cosmique : une grande partie de ce rayonnement est dévié par le champ magnétique terrestre et, de plus, il s’atténue considérablement en traversant l’atmosphère. Malgré Pierre Auger (1899-1993) Entré à l’Ecole Normale Supérieure en 1922 en section Biologie, Pierre Auger se passionne pour la physique corpusculaire. Dans les vingt années qui suivent, il travaille successivement sur l’effet photoélectrique en physique atomique, les neutrons lents en physique nucléaire et les rayons cosmiques. En particulier, il découvre les gerbes de rayons cosmiques en 1938 à l’observatoire de la Jungfrau (Suisse). Pendant la guerre, il fait partie des « Forces Françaises Libres » et préside un département franco-anglo-canadien de recherche sur l’énergie atomique à Montréal. En 1945, devenu directeur du Département des Universités en France, il participe à la création du Commissariat à l’Énergie Atomique (CEA). De 1948 à 1959, il est directeur du département des Sciences à l’UNESCO. Là, il travaille à la création d’organismes de recherche internationaux ; en particulier, il est un des pères fondateurs du CERN en 1953. En 1959, il créé le Centre National d’Études Spatiales (CNES) dont il est le premier président. Pour rendre hommage à son travail pionnier dans le domaine des rayons cosmiques, une expérience porte aujourd’hui son nom. La collaboration AUGER, dont les détecteurs se trouvent dans la pampa argentine étudie en particulier les rayons cosmiques de très haute énergie (voir rubrique « Expérience »). page 4

DR

Rayons, rayonnement et particules cosmiques On appelle rayons ou particules cosmiques les particules qui voyagent dans le cosmos. Certaines de ces particules atteignent la Terre et entrent en collisions avec les noyaux atomiques de l’atmosphère, produisant ainsi de nombreuses particules secondaires. On dénomme rayonnement cosmique tantôt les rayons cosmiques eux-mêmes (on parle alors de rayonnement primaire), tantôt l’ensemble des particules secondaires qui constituent la gerbe.

ÉLÉMENTAÍRE


La pluie céleste

© J. Serreau

cette protection, notre corps est traversé par des centaines de particules chargées par seconde (le flux de ces particules est, en France, de 240 par m2 et par seconde). Ces nombres augmentent lorsqu’on prend de l’altitude, par exemple lors d’un voyage en avion (c’est probablement la raison pour laquelle les pilotes portent toujours une casquette ). Aux particules chargées qui constituent en fait 10% de la radioactivité naturelle au niveau du sol, s’ajoutent des millions de milliards de neutrinos qui n’interagissent que très faiblement avec la matière et sont totalement inoffensifs. Les rayons cosmiques proviennent de diverses sources et leur énergie varie dans de très grandes proportions. Nous savons aujourd’hui que le Soleil est en partie responsable du rayonnement observé sur Terre. Pendant les moments de grande activité – et surtout d’éruption – solaire, on remarque une hausse du taux de radiation sur des périodes pouvant aller de quelques heures à plusieurs jours, voire plusieurs semaines. Les particules d’origine solaires ont des énergies cinétiques allant de la dizaine à la centaine de MeV. Les rayons cosmiques les plus énergétiques sont d’origine extrasolaire, la majorité ayant des énergies cinétiques allant d’environ 100 MeV (ce qui correspond, pour des protons, à 43% de la vitesse de la lumière, soit 129 000 km/s) jusqu’à une dizaine de GeV (correspondant à 99,6% de la vitesse de la lumière). On pense que ces particules chargées sont accélérées par des champs magnétiques résultant d’explosions de supernovae dans notre galaxie. Cependant, on observe aussi des rayons cosmiques d’énergie beaucoup plus élevée, pouvant atteindre jusqu’à 1011 GeV... de quoi projeter une balle de tennis, autrement plus massive, à 85 kilomètres à l’heure. L’origine de ces particules de ultra-haute énergie – de loin supérieure

Départ de Viktor F. Hess pour un vol en ballon.

La découverte des rayons cosmiques

ÉLÉMENTAÍRE

page 5

DR

Les rayons cosmiques furent découverts par hasard en remarquant qu’un bruit parasite affectait tous les détecteurs d’ionisation – laquelle est produite par le passage de particules chargées – et ce quelles que soient les précautions prises pour leur isolation, indiquant l’existence d’une radiation extrêmement pénétrante d’origine inconnue. En 1907, le père Théodore Wulf mit au point un nouveau détecteur permettant de rechercher l’origine de ce mystérieux rayonnement en dehors des laboratoires. En réalisant des mesures au sommet de la Tour Eiffel, il constata que le taux de radiation était réduit de deux tiers par rapport au niveau du sol, signe que la fraction émise par la Terre avait disparu, absorbée par l’atmosphère. Cependant, le taux n’était pas nul, indiquant qu’une partie de ce rayonnement provenait de l’espace. Pour le confirmer, Viktor Franz Hess effectua une série de vols en ballon à haute altitude à partir de 1911. Le 12 août 1912, il atteignit une altitude de 5350 mètres. Il démontra que, si le taux du mystérieux rayonnement continuait de diminuer jusqu’à une Viktor F. Hess altitude de 1500 mètres, il se mettait ensuite à augmenter considérablement, jusqu’à atteindre, à une altitude de 5000 mètres, une valeur deux fois plus importante qu’au niveau du sol. Il conclut à l’existence « d’une source extra-terrestre de radiation pénétrante ». Cette interprétation demanda encore quelques années avant d’être acceptée par l’ensemble de la communauté scientifique ; en 1926, Robert Millikan – auteur de la première mesure du rapport entre la charge et la masse de l’électron – baptisa ce rayonnement « rayons cosmiques ». Viktor F. Hess partagea le prix Nobel de physique 1936 avec Carl Anderson, découvreur quelques années auparavant du positron, la première particule d’antimatière. Pour lui rendre hommage, l’expérience HESS porte aujourd’hui son nom : située dans le désert de Namibie elle étudie les photons de haute énergie provenant de l’espace.


La pluie céleste

DR

Noyaux actifs de galaxies et quasars La région centrale de certaines galaxies est particulièrement lumineuse : on parle de noyau actif de galaxie («Active Galactic Nucleus» : AGN). Il existe des noyaux actifs lointains dont la luminosité est si grande que la galaxie hôte n’est presque plus visible : avec un télescope ordinaire, on ne peut observer qu’un point lumineux semblable à une étoile. Ces objets, découverts en 1963, sont appelés des « quasars » (contraction de « quasistar »). Les quasars sont parmi les objets les plus lumineux de l’Univers : leur luminosité peut atteindre mille fois celle de notre Galaxie toute entière, ou environ cent mille milliards de fois la luminosité du Soleil.

Représentation schématique d’une gerbe cosmique au desssus du Mont Blanc.

à ce que peuvent produire les vestiges de supernovae – ainsi que le ou les mécanismes responsables de leur accélération, restent encore des mystères que les physiciens tentent de percer. Elles pourraient provenir de sources extra-galactiques, comme des noyaux actifs de galaxies ou des quasars. On pense aussi qu’elles pourraient avoir une origine commune avec les sursauts gamma, qui sont parmi les phénomènes astrophysiques les plus violents observés à l’heure actuelle dans l’Univers. Une autre piste possible est que ces particules soient produites lors de phénomènes physiques nouveaux, comme par exemple, la désintégration de particules hypothétiques ultra-lourdes, dont l’existence est prédite par certaines théories. Ainsi les rayons cosmiques sont une source potentielle d’information très précieuse non seulement pour l’étude d’objets astrophysiques exotiques, mais aussi pour la compréhension de questions fondamentales concernant les interactions élémentaires. En effet les rayons cosmiques ont été à l’origine de nombreuses découvertes... parfois très inattendues (voir « Histoire »).

Sursauts gamma Les sursauts gamma sont des émissions de photons très brèves et très intenses. Certains sont associés avec les explosions de supernovae, mais les plus intenses ont des énergies bien supérieures à celle libérée lors de tels cataclysmes. Leur durée varie de quelques millisecondes à quelques minutes et leur luminosité peut atteindre jusqu’à un million de milliards de fois celle du Soleil. Les sursauts gamma sont donc la source la plus brillante observée dans l’Univers. On en détecte environ un par jour.

page 6

Mais pour conclure, n’oublions pas que les tout premiers rayons extraterrestres observés par l’Homme et, avant lui, par les premiers êtres vivants, sont... les photons provenant du Soleil qui, le jour, chauffent la surface de notre planète. Si on nous avait dit un jour qu’on pouvait bronzer sous la pluie...

ÉLÉMENTAÍRE


Histoire Un feu d’artifice de particules

DR

Au début des années 30, les physiciens pouvaient croire qu’ils avaient enfin percé les secrets de la matière. On avait en effet décomposé l’atome en ses différents constituants : les électrons (observés par J. J. Thompson en 1897) circulent autour d’un noyau atomique (découvert en 1911 par Rutherford, Geiger et Marsden), noyau qui contient des protons (Rutherford, 1919) et des neutrons (Chadwick, 1932). La quête de l’infiniment petit était-elle achevée ? À la même époque, les physiciens se tournèrent vers les rayons cosmiques qui s’avérèrent d’excellents pourvoyeurs de particules élémentaires, jusqu’au développement des grands accélérateurs de particules après la seconde guerre mondiale. Surprise ! En étudiant le contenu des rayons cosmiques, ils découvrirent que la matière était bien plus riche et diverse que le trio électron-proton-neutron ne le laissait présager. Apparut tout d’abord le positron, la première particule d’antimatière jamais observée et dont l’existence fut en fait prédite théoriquement avant sa découverte expérimentale ! Puis vinrent le muon, un « cousin » très lourd de l’électron, et deux particules d’un genre nouveau, le pion et le kaon. Une aventure parsemée de rebondissements... et de prix Nobel !

Né de parents suédois installés à New York, Carl Anderson effectua l’essentiel de sa carrière à Caltech où il passa son doctorat avant d’y être professeur. Après avoir travaillé sur les rayons X, il s’intéressa aux rayons cosmiques à partir de 1930 avec R. Millikan. Il découvrit en 1932 le positron prédit par Dirac, et l’année suivante, il montra qu’en traversant la matière, des rayons gamma peuvent conduire à la création d’électrons et de positrons. Enfin, il participa à la découverte du muon. Il reçut le prix Nobel de Physique en 1936.

Le positron

ÉLÉMENTAÍRE

Carl Anderson devant sa chambre à brouillard à Caltech.

page 7

En 1932, une photo attire particulièrement l’œil de Carl Anderson. Elle comporte une trajectoire fine et courbée, semblable à celle d’un électron d’énergie assez élevée... à une différence, essentielle, près. En effet, la trajectoire s’infléchit sous l’effet du champ magnétique dans le sens contraire de celle des électrons, signe que la particule est chargée positivement ! L’électron positif, ou positron (identique en tout point à l’électron, hormis sa charge électrique opposée) n’était jusqu’alors qu’une spéculation théorique de Paul A. M. Dirac : ce cliché prouvait son existence. Pour avoir mis en évidence la première particule d’antimatière, Anderson reçut le prix Nobel de physique en 1936... qui récompense ainsi une unique photographie !

© California Institute of Technology

Notre première découverte nous emmène en 1932 aux États-Unis, plus exactement au California Institute of Technology (« Caltech » pour les intimes) à Pasadena. Carl Anderson veut détecter des rayons cosmiques à l’aide d’une chambre de Wilson qu’il modifie pour l’occasion. En premier lieu, Anderson tourne sa chambre à brouillard de 90 degrés de manière à ce que sa plus grande dimension soit verticale. La trajectoire des particules venant du ciel peut ainsi être observée sur une distance plus importante, ce qui améliore la qualité des mesures. De plus, Anderson installe une plaque métallique horizontale (quelques millimètres de plomb) au milieu de la chambre. Une particule chargée traversant cette épaisseur de métal va interagir avec elle, ce qui informe le chercheur sur la nature de la particule et sa direction d’origine. Enfin, il ajoute un champ magnétique perpendiculaire au plan de la chambre de Wilson. Ce dispositif permet de courber les trajectoires des particules chargées, de déterminer ainsi leur masse et leur direction.


Un feu d’artifice de particules La chambre à brouillard, ou chambre de Wilson C.T.R. Wilson (1869-1959) était passionné par l’étude du brouillard, fréquent dans son Écosse natale, et par tous les phénomènes induits par la présence de gouttelettes d’eau en suspension dans l’atmosphère. Cette vapeur d’eau a la propriété de se condenser – c’est-à-dire de devenir liquide – au contact d’une surface : c’est la formation de buée, bien connue des automobilistes et des plongeurs. Il établit qu’un phénomène similaire se produit lorsqu’une particule chargée traverse de la vapeur d’eau placée dans les bonnes conditions de température et de pression obtenues en procédant à une diminution brutale de la pression du gaz. Des gouttes d’eau se forment alors sur le passage de la particule, ce qui permet de visualiser sa trajectoire. On pouvait ainsi photographier les événements intéressants pour les étudier ensuite en détails. C.T.R. Wilson reçut le prix Nobel de physique pour son invention en 1927, alors que tous les laboratoires spécialisés en physique nucléaire possédaient au moins un exemplaire de sa « chambre à brouillard ».

© The Cavendish Laboratory, University of Cambridge

Un inconvénient majeur de la chambre de Wilson était son cycle utile limité : chaque prise de clichés nécessitait une série d’actions mécaniques amenant l’appareil à son point de fonctionnement. En 1936, Alexander Langsdorf inventa la « chambre à diffusion », opérationnelle en permanence. Basée sur une technologie légèrement différente, le bas de cette chambre doit être refroidi en dessous de 0° C et la vapeur d’eau est remplacée par de l’alcool.

Chambre de Wilson conservée au musée du laboratoire Cavendish à Cambridge (Angleterre). Sur la gauche de l’image, la chambre à brouillard proprement dite est le cylindre de verre (A) dont les parois sont opaques pour offrir un arrière-plan sombre aux photographies. Le fond de la chambre est fixé à un piston de cuivre qui coulisse verticalement. L’ensemble est placé dans une enceinte dont le fond est rempli d’eau afin de saturer l’atmosphère d’humidité. Lors des phases de détente, une valve est ouverte entre le piston et le globe de verre transparent (à droite de l’image) où règne un vide poussé. L’air se précipite alors dans le globe (C), ce qui abaisse le piston et provoque la détente, c’est-à-dire l’expansion, du gaz souhaitée.

Le muon Quatre ans plus tard, en 1936, nous retrouvons Carl Anderson dans un laboratoire situé sur le Pike’s Peak, à 4300 mètres d’altitude. Là, il travaille avec Seth H. Neddermeyer sur une chambre de Wilson placée dans un fort champ magnétique. Ensemble, ils identifient une nouvelle particule fortement pénétrante qui est beaucoup plus lourde qu’un électron. L’année suivante, J.C. Street et E.C. Stevenson confirment ces observations à Harvard, et ils estiment la masse de la nouvelle particule, appelée muon. Elle est environ 200 fois plus importante que celle de l’électron, ce qui place le muon entre l’électron (léger) et le proton (lourd).

page 8

Cette découverte eut un retentissement très important. En effet, pour expliquer la cohésion des noyaux atomiques, le physicien théoricien japonais Hideki Yukawa avait justement postulé l’existence d’une nouvelle particule, munie d’une masse à mi-chemin entre électron et

ÉLÉMENTAÍRE


Un feu d’artifice de particules Cliché de la chambre à brouillard d’Anderson. La barre horizontale noire correspond à la plaque de plomb installée au centre de la chambre. On distingue la trajectoire d’un positron venant du haut de l’image et se déplaçant vers le bas. La courbure est causée par un champ magnétique perpendiculaire au plan de la feuille et elle dépend donc de la charge électrique de la particule (deux particules de charges opposées verront leurs trajectoires courbées dans des sens opposés). On remarque que la courbure est plus importante une fois que le positron a perdu de l’énergie (et donc de la vitesse) en traversant la plaque métallique. Cette dernière observation permet de savoir avec certitude le sens de parcours de la particule ; dans le cas présent, elle prouve que le positron est bien un rayon cosmique venant « du ciel » (et non un électron, de charge électrique opposée, surgissant du bas de l’image).

© J. Serreau

proton. Cette particule fut appelée « méson » d’après le préfixe grec « meso » signifiant intermédiaire. On espérait bien reconnaître le méson de Yukawa dans la particule observée par Anderson et Neddermeyer : le nom même de cette dernière venait de la lettre grecque « mu », en référence à l’initiale du mot « méson ». Néanmoins on se rendit assez vite compte que le muon n’était pas le candidat idéal. En tant que méson de Yukawa, le muon aurait dû interagir avec les noyaux qu’il ne manquait pas de rencontrer en traversant l’atmosphère : comment pouvait-on alors l’observer sur Terre ? On s’aperçut par la suite que le muon était en fait un cousin très massif de l’électron. Mais l’enquête sur le mystérieux méson de Yukawa continuait. Elle allait subir de nombreux rebondissements après la guerre.

ÉLÉMENTAÍRE

page 9

Paul A.M. Dirac (1902-1984) Paul Adrien Marie Dirac est né à Bristol d’un père suisse et d’une mère anglaise. Après des études à Bristol et à Cambridge, il fut nommé professeur de Mathématiques dans cette dernière université. Ses travaux principaux portèrent sur l’étude mathématique de la mécanique quantique. Il réalisa une avancée décisive dans l’unification de la relativité restreinte et de la mécanique quantique en proposant « l’équation de Dirac », une équation ondulatoire décrivant l’évolution de l’électron. Sa théorie l’amena à postuler l’existence du positron, l’anti-particule associée à l’électron, avant sa découverte expérimentale. Il reçut le prix Nobel de Physique en 1933.

© The Nobel Foundation

© The Nobel Foundation

Hideki Yukawa (1907-1981) Hideki Yukawa fit ses études à Kyoto puis à Osaka avant d’être nommé professeur à Kyoto en 1939. Physicien théoricien, il a particulièrement étudié la physique des particules élémentaires. En 1935, il proposa une nouvelle théorie de l’interaction nucléaire qui le conduisit à prédire l’existence d’une nouvelle particule, le « méson de Yukawa». Des particules de ce type furent découvertes peu après dans les rayons cosmiques, ce qui le conduisit à développer sa théorie des mésons. Yukawa reçut le prix Nobel de Physique en 1949.


Un feu d’artifice de particules Le pion Le muon ne pouvait pas être le méson prédit par Yukawa : ce dernier existait-il donc vraiment ? En 1942-1943, trois Japonais, Yasutaka Tanikawa, Shoichi Sakata et Takeshi Inoue, furent les premiers à répondre par l’affirmative. Ils proposèrent de réconcilier théorie et observations en supposant qu’il existait deux particules, l’une (le méson de Yukawa, encore à découvrir) se désintégrant en l’autre (le muon, déjà observé). À cause de la Seconde Guerre Mondiale, leur idée ne fut pas diffusée avant 1946, et elle n’atteignit les États-Unis qu’à la fin de l’année 1947... Trop tard ! En effet, en juin 1947, lors d’une conférence à Long Island, Robert Marshak présenta une hypothèse similaire, développée de façon indépendante, qu’il publia peu après en collaboration avec Hans Bethe. Mais Marshak était lui aussi en retard... Bien que personne aux États-Unis n’en fut encore averti, du fait de la lenteur des communications, la désintégration proposée une première fois par les Japonais et une seconde fois par les Américains avait déjà été observée en Angleterre quelques semaines plus tôt ! Un cliché de chambre à brouillard avec une gerbe impressionnante de pions chargés, qui provient de la désintégration visible, en bas de la photographie en rouge, d’un antiproton ¯p. En bas à droite, on voit un pion π+ chargé positivement qui se désintègre en un neutrino ν (invisible) et un antimuon μ+.

Contrairement aux particules précédentes, la nouvelle découverte ne fut pas faite dans une chambre de Wilson mais à l’aide de plaques photographiques. Lorsqu’une particule chargée traverse une émulsion photographique au bromure d’argent, elle produit une réaction chimique similaire à celle causée par la lumière. Une fois la plaque développée, la trajectoire de la particule est bien visible sous la forme d’une ligne de petits points argentés. Mais cette technique n’était pas sans défaut : il fallait une émulsion épaisse dont la sensibilité n’était pas très bonne. Un physicien de Bristol, Cecil Powell, s’appliqua à améliorer ces émulsions au point que les performances de ses plaques dépassèrent celles d’une chambre à brouillard pour les expériences de diffusion (lorsqu’une particule traverse un matériau et interagit avec les molécules qui le composent). Powell avait un collaborateur italien, Giuseppe Occhialini, qui était venu en Angleterre pour travailler sur la bombe atomique anglaise. Mais sa nationalité l’empêchait d’avoir accès à ces recherches secrètes, ce qui l’avait poussé à se lancer sur la piste des rayons cosmiques. Occhialini emporta plusieurs dizaines de plaques dans les Pyrénées, à l’observatoire du Pic du Midi (2867 mètres) qu’aucun téléphérique ne desservait alors. Heureusement, Occhialini n’était pas seulement physicien mais aussi guide de haute montagne !

page 10

© J. Serreau

D’autres émulsions voyagèrent à plus de 9 000 mètres d’altitude dans un avion de la Royal Air Force avec Donald Perkins, un physicien de l’Imperial College à Londres. Il publia en janvier 1947 la première observation du méson de Yukawa dans une émulsion ; la plaque montrait également la désintégration de la particule, provoquée par son interaction avec des

ÉLÉMENTAÍRE


Un feu d’artifice de particules © The International Foundation High Altitude Research Stations Jungfraujoch and Gornergrat

molécules de bromure d’argent. Selon lui, sa masse se situait entre cent et trois cents fois celle de l’électron. Deux semaines plus tard, Occhialini et Powell présentèrent six événements du même type. Au printemps, deux nouveaux événements magnifiques furent découverts, montrant la chaîne de désintégration en deux mésons : un premier méson arrivait sur l’émulsion, interagissait avec celle-ci pour donner naissance à une seconde particule (un muon) qui se propageait ensuite. L’observation était tellement convaincante que le résultat fut immédiatement publié dans Nature, le 24 mai 1947. Quant à l’identification de ce méson avec celui prédit par Yukawa, rien n’était clair et l’article restait prudent. « Comme nos observations indiquent un nouveau mode de désintégration des mésons, il est possible qu’elles contribuent à résoudre ces difficultés ». Il fallait d’autres observations pour aboutir à un diagnostic définitif mais aucune nouvelle chaîne de double désintégration ne fut observée dans les émulsions exposées au Pic du Midi. Que faire ? Cesare Lattes, un étudiant brésilien d’Occhialini, parla alors d’un observatoire météorologique bolivien, situé près de La Paz, à 5 600 mètres d’altitude. On décida de l’envoyer là-bas avec de nouvelles plaques photographiques. Alors qu’on lui conseillait de prendre le vol BOAC pour Rio de Janeiro, il préféra la compagnie brésilienne Varig qui s’était récemment dotée d’avions SuperConstellation neufs. Un choix judicieux : l’appareil anglais s’écrasa à son escale de Dakar – il n’y eût aucun survivant…

Vue du sommet de la Jungfrau en Suisse : en haut à droite, l’observatoire Sphinx construit en 1937 et en bas la station de recherche qui sert de base à toutes les expériences. Le bâtiment sur la gauche est la gare d’arrivée du train à crémaillère.

En France, de nombreux physiciens se sont intéressés aux rayons cosmiques. Parmi eux se détache la figure de Louis Leprince-Ringuet (1901-2000). Dans les années 1930, ses recherches le conduisent fréquemment hors de son laboratoire. Ainsi, en 1933 il fait la traversée Hambourg - Buenos-Aires en bateau avec Pierre Auger pour étudier l’influence de la latitude sur les rayons cosmiques : les deux compères ont réservé plusieurs cabines dans lesquelles ils ont installé leurs détecteurs. Ensuite, il fait de fréquents séjours à l’observatoire de la Jungfrau (dans l’Oberland bernois) pour traquer les rayons cosmiques en altitude. Pendant la guerre, il replie en Rhône-Alpes le laboratoire de l’École Polytechnique (où il occupe la chaire de physique depuis 1936 après y avoir été élève) et il fait construire un observatoire au sommet de l’Aiguille du Midi. Parmi ses observations, une nouvelle particule chargée dont il estime la masse et qu’on identifiera par la suite comme étant un « kaon ».

ÉLÉMENTAÍRE

page 11

Après la guerre, il comprend que les accélérateurs vont détrôner les rayons cosmiques dans l’étude des particules élémentaires. Son équipe joue alors un grand rôle dans le développement du CERN, organisme dont il sera président du conseil entre 1955 et 1966. Grand sportif (il jouait notamment au tennis avec son ami polytechnicien Jean Borotra, l’un des quatre « mousquetaires » de la coupe Davis), peintre et musicien à ses heures, Louis Leprince-Ringuet fut également membre de l’Académie française. En 1939, il a contribué au décret fondateur de l’organisme qui deviendra le CNRS.

DR

L’ épopée des rayons cosmiques : un exemple français, Louis Leprince-Ringuet


Un feu d’artifice de particules

© J. Serreau

Émulsion montrant une chaîne de désintégration mettant en jeu le pion et le muon. Chaque ligne représente la trajectoire d’une particule, tandis que les coudes correspondent à des désintégrations 1) Un pion vient du coin gauche inférieur et se dirige vers le haut de la figure. 2) Dans le coin gauche supérieur, le pion se désintègre en un antineutrino (qu’on ne détecte pas) et un muon. 3) Le muon traverse l’émulsion de la gauche vers la droite. 4) Arrivé près du bord droit, il se désintègre en un électron, un neutrino muonique et un antineutrino électronique (ces deux derniers ne sont pas détectés). 5) L’électron créé repart vers le haut de l’émulsion.

À son retour, Lattes rapporta dix nouvelles doubles désintégrations pour lesquelles le second méson s’immobilisait dans l’émulsion. Le premier méson fut appelé « pion », d’après la lettre grecque π ou « pi », en référence à l’initiale du mot « pseudo-scalaire » qui décrit, dans le jargon physicien, certaines caractéristiques de la particule. Le second méson fut identifié comme étant le muon. Les masses des deux particules furent mesurées avec une bonne précision : 260 fois celle de l’électron pour le pion et 205 fois pour le muon (les valeurs actuelles sont 273,3 et 206,8 respectivement). Le pion était bien la particule prédite par Yukawa... bien que sa théorie atteignît vite ses limites lorsqu’on étudia plus en détails l’interaction nucléaire forte, responsable de la cohésion des noyaux atomiques.

La découverte du pion selon Powell et Occhialini

Powell reçut le prix Nobel de physique en 1950, tant pour la conception d’émulsions photographiques de haute sensibilité que pour la découverte du pion. Les observations qui suivirent permirent de conclure que la plupart des particules venant de rayons cosmiques et arrivant sur terre, étaient des muons énergétiques, issus de la désintégration de pions dans les hautes couches de l’atmosphère. À peine un an plus tard, des pions furent produits au grand cyclotron de Berkeley en bombardant des atomes de carbone à l’aide de particules α (noyaux d’hélium). L’étoile des rayons cosmiques commença à pâlir, et les physiciens se tournèrent de plus en plus vers les accélérateurs pour percer les mystères de toutes ces particules récemment découvertes... page 12

Powell : « [Les émulsions nous révélèrent] un nouveau monde complet. C’était comme si, soudain, nous nous étions introduits dans un verger muré où des arbres protégés fleurissaient et où toutes sortes de fruits exotiques avaient mûri avec abondance. » Occhialini : « Pas rasés, parfois j’en ai peur pas lavés, travaillant sept jours sur sept jusqu’à deux voire quatre heures du matin, absorbant du café inhabituellement fort à toute heure, courant, hurlant, nous querellant et riant, nous étions observés avec une sympathie amusée (…). C’était une réalité de travail intense, dur et continu, d’excitations profondes et de rêves incroyablement exaucés. C’était la réalité de la découverte (…) »

ÉLÉMENTAÍRE


Un feu d’artifice de particules Le kaon En 1947, à l’université de Manchester, on travaillait également sur les rayons cosmiques en utilisant des chambres de Wilson. La plupart des particules identifiées étaient des protons ou des pions, ces nouvelles particules justes découvertes. Mais Georges Rochester et Clifford Butler découvrirent deux traces qu’ils appelèrent « étranges » car elles ne correspondaient à rien de connu. Ces deux traces présentaient un coude très prononcé, un peu comme un V inversé. Bien vite, ils se rendirent compte qu’à l’articulation du coude se produisait la désintégration d’une particule inconnue et indétectable donc neutre : deux nouvelles particules, chargées, étaient alors créées et observées.

Deux clichés illustrant la découverte des kaons dans des chambres à brouillard. À gauche, un kaon neutre (invisible) venu du haut de l’image, se désintègre en deux pions chargés, dont les trajectoires forment un V inversé juste en dessous de la barre centrale, légèrement sur la droite. À droite, un kaon chargé apparaît en haut à droite du cliché. Sa trajectoire s’infléchit soudain lorsqu’il se désintègre en un neutrino (invisible) et un muon, dont la trajectoire verticale traverse la bande centrale et se prolonge dans la partie inférieure de la chambre.

Les trajectoires de ces deux particules ne correspondaient pas au cas assez banal d’une paire électron/positron. Finalement, ces produits de la diffusion furent identifiés comme étant des pions et on appela la particule mère « kaon ». Un drôle de nom qui venait de la classification utilisée alors pour identifier les types de clichés suivant la masse des particules présentes : « L » pour les particules légères comme le pion et le muon, et « K » pour les particules plus lourdes. Du K au kaon, le pas fut vite franchi ! On s’aperçut vite qu’il existait non seulement des kaons neutres mais aussi des kaons chargés, de mêmes masses, bien plus lourds que l’électron. La première estimation de leur masse était très grossière, environ six cents fois celle de l’électron. D’après les mesures les plus récentes, la masse des kaons est en fait 964 fois celle de l’électron. Le kaon était le premier représentant d’un nouveau type de particules qu’on observa ensuite en quantité dans les accélérateurs. Elles méritèrent bien leur surnom « d’étranges » car leurs propriétés différaient de celles des particules connues jusqu’alors. On comprit plus tard que cela était dû à leur composition en quarks : les particules « ordinaires » (comme les protons, les neutrons et les pions) ne comportent que deux types de quarks (« up » et « down »), alors que le kaon et les autres particules « étranges » contiennent un autre quark, appelé lui aussi quark « étrange » (ou quark « s » pour « strange »). Après les découvertes du pion et du kaon, la physique des particules européenne subit la loi des laboratoires américains qui monopolisèrent les grandes découvertes pendant vingt-cinq ans. Ce n’est qu’en 1973 que l’Europe retrouva une place importante avec l’expérience Gargamelle au CERN. Et il faudra attendre les années 90 pour que les rayons cosmiques reviennent au centre des préoccupations des physiciens, après quatre décennies d’un règne sans partage des accélérateurs de particules. page 13

ÉLÉMENTAÍRE

Gargamelle Nom d’une expérience utilisant une chambre à bulles qui a permis la découverte, en 1973, des courants neutres impliquant l’existence du boson Z, médiateur de l’interaction faible.


Interview Jim Cronin Pourquoi avez-vous fait de la physique ?

© M.-H. Schune

Difficile de donner une réponse concise. On pouvait étudier la physique dans mon lycée et je songeais à devenir ingénieur quand j’étais à l’Université. Mon père, qui enseignait les lettres, m’a dit : « Fais d’abord des études générales de physique, tu pourras devenir ingénieur par la suite ». J’ai donc étudié la physique, ça m’a plu, et j’ai finalement décroché une thèse en physique nucléaire en 1954 à Chicago. À cette époque, l’âge d’or de la physique des particules débutait. J’ai obtenu un poste au laboratoire de physique subatomique de Brookhaven, où se trouvait un synchrotron de 3 GeV. On y faisait des expériences avec des petites équipes de deux ou trois personnes : on pouvait contrôler tout ce qui se passait en jouant un rôle essentiel dans l’expérience. Ces débuts m’ont vraiment plu. Jim Cronin est né le 29 Septembre 1931 à Chicago. Il a fait une thèse en physique nucléaire qu’il a soutenue en 1954. Puis il a commencé à s’intéresser à la physique des particules, après avoir suivi des cours donnés par le physicien théoricien M. Gell-Mann, l’« inventeur » des quarks. De 1955 à 1965, J. Cronin a travaillé à Brookhaven, Berkeley et Princeton sur des expériences de plus en plus complexes concernant les particules contenant un quark étrange. Une expérience menée à Princeton pour comprendre le phénomène appelé «violation de CP» lui vaudra le prix Nobel de Physique en 1980 avec son collaborateur V. L. Fitch. J. Cronin a continué ce type de recherches jusque dans les années 1980, puis il s’est progressivement tourné vers l’étude des rayons cosmiques. Il est actuellement porte-parole de l’expérience AUGER (voir «Expérience »).

Quels sont les aspects qui vous ont le plus marqué dans votre vie professionnelle ?

© Brookhaven Lab.

En dehors de l’expérience phare sur la violation de CP, il y a eu d’autres événements qui m’ont marqué tout en passant probablement inaperçus. Je suis un physicien expérimentateur, moins motivé par la vérification de telle ou telle théorie que par l’instrumentation. Un épisode qui m’a particulièrement marqué ? Mon travail sur les chambres à étincelles. Nous avons amélioré techniquement ces dispositifs pour les utiliser avec des faisceaux comprenant des millions de particules par seconde et en tirer un événement particulier. Je n’oublierai jamais la beauté de cette réalisation. C’est à la suite de ces avancées expérimentales que l’on a pu observer la violation de CP, presque par hasard... Nous cherchions à comprendre un autre phénomène et nous avons découvert, avec René Turlay, la violation de CP. Les découvertes se font souvent ainsi !

page 14

Le laboratoire de Brookhaven, fondé en 1947 sur l’île de Long Island, près de New-York.

Quels sont vos regrets ? Après l’expérience sur la violation de CP, on savait qu’on pouvait étudier le même phénomène grâce à un autre processus de désintégration du kaon : KL → π0π0. Nous avions des idées très astucieuses pour étudier cette désintégration en exploitant les caractéristiques cinématiques des événements. Nous avons réalisé l’expérience, et nous avons mis en évidence un excès d’événements KL → π0π0. Il nous a fallu travailler énormément pour réduire le bruit de fond qui dominait largement le signal avant la mise en place de critères de sélection appropriés. Nous avons fait beaucoup de tests pour comprendre et contrôler ce bruit de fond... et nous nous sommes trompés ! Le taux d’événements que nous

ÉLÉMENTAÍRE


Violation de CP

J‘ai compris ensuite comment modifier les critères de sélection pour supprimer ce bruit de fond et corriger notre mesure. Mais je n’ai eu le temps de revenir sur cette analyse que deux années plus tard. À ce moment-là, les fichiers de données avaient été détruits… et je n’ai donc pas pu refaire l’analyse ! Heureusement, nous avons effectué une nouvelle expérience quatre ans plus tard et nous avons pu corriger ce résultat erroné. Il s’agit donc d’un regret scientifique très privé ! En revanche, je ne regrette pas mes choix scientifiques : j’ai pu participer à toutes les expériences qui m’intéressaient.

Quel avenir voyez-vous pour les rayons cosmiques ? L’énergie fournie par certains rayons cosmiques est bien supérieure à celle du LHC. On travaille donc dans un régime où de la nouvelle physique peut - ou non ! - se manifester. Le futur de cette physique dépend beaucoup de ce que l’expérience AUGER trouvera. C’est une expérience exploratoire : elle ne va pas faire de mesure de précision mais elle nous fournira une meilleure compréhension des phénomènes d’accélération des rayons cosmiques dans l’Univers. Il ne s’agit pas uniquement de savoir s’il y a des rayons cosmiques avec une énergie au-delà de 1019 eV. S’il y en a, cela veut simplement dire qu’il y a plus de sources proches que prévu, ou bien qu’il y a des phénomènes physiques que nous ne comprenons pas ! Il faut construire des expériences qui supposent aussi peu de choses que possible sur leurs résultats, afin de s’assurer qu’on ne va rien rater. Nous construisons ces appareils merveilleux en espérant que la Nature nous sera favorable !

© J. Serreau

avions obtenu était plus de quatre fois supérieur au taux véritable. Quand vous réalisez que vous vous êtes trompé, vous vous sentez tellement stupide !

Pourquoi êtes-vous passé de la physique des particules à la physique des rayons cosmiques ?

C’est dans ce contexte que je me suis lancé dans l’étude des rayons cosmiques. Je suis arrivé dans ce domaine avec l’état d’esprit d’un physicien des particules : penser en grand, c’est-à-dire construire une expérience d’une taille suffisante pour observer assez d’événements.

ÉLÉMENTAÍRE

page 15

C’était au milieu des années 80, on me proposait de participer à diverses expériences de physique des particules « classiques ». Mais je voulais que ma présence dans une expérience fasse une différence, que je puisse lui apporter quelque chose… On pourrait qualifier ce que je vous dit d’arrogance, je l’admets ! Bien des années plus tôt, juste après ma thèse, lorsque je travaillais à Princeton, j’avais utilisé des rayons cosmiques pour calibrer des appareils et j’avais trouvé cela si pratique. Pas besoin d’aller sur un faisceau test ; il fallait juste attendre un peu et les rayons cosmiques étaient là, toujours présents pour nos besoins ! Parallèlement, vers 1985, il y avait une grande effervescence scientifique car on observait de nombreux signaux en provenance de Cygnus-X3.

René Turlay (19322002) a participé en 1963 et 1964 (durant un séjour post-doctoral) à la découverte de la violation de CP dans les interactions faibles, avec Christenson, Cronin et Fitch, ce qui leur a valu une notoriété mondiale. Dans les années 70, il a travaillé au sein d’expériences sur les désintégrations des mésons K au synchrotron Saturne à Saclay. Il a travaillé ensuite au CERN, dans une expérience sur les neutrinos auprès du SPS, puis dans l’expérience ALEPH au LEP. Dans les années 80, il s’est intéressé à nouveau à la physique des mésons K à Fermilab (ÉtatsUnis), puis au CERN.

© FNAL

Jim Cronin

On note CP la combinaison de deux opérations. La «conjugaison de charge» C transforme une particule en son antiparticule. De façon schématique la «parité» P transforme un système physique en son image dans un miroir. Si l’on compare un processus causé par l’interaction électromagnétique et son « reflet » par les opérations C et P, ils ont la même probabilité de se produire : on dit que l’interaction électromagnétique est invariante par CP. C’est aussi le cas de l’interaction forte qui assure la cohésion des noyaux atomiques. Dans les années 50, on pensait que c’était aussi vrai pour l’interaction faible, responsable de la radioactivité β. Mais en 1964, à Brookhaven aux États-Unis, J. Christenson, J. Cronin, V. Fitch et R. Turlay ont montré que ce n’était pas le cas en étudiant certaines désintégrations des mésons K dues à l’interaction faible : celle-ci n’est pas invariante par CP (on dit que CP est violée par l’interaction faible). Cette découverte a valu à J. Cronin et V. Fitch le prix Nobel de physique en 1980. La violation de la symétrie CP par l’interaction faible a été depuis l’objet d’études expérimentales très détaillées.


Jim Cronin Avec quelques collègues, j’ai conçu CASA (Chicago Air Shower Apparatus), un ensemble de détecteurs capables de détecter les rayons cosmiques d’énergie de l’ordre de 1014 à 1015 eV en utilisant les gerbes qu’ils créent dans l’atmosphère. Cette expérience de grande taille pour l’époque (elle s’étendait sur cinq cents mètres et comprenait plus de mille détecteurs !) se plaçait à la pointe de la technologie : elle utilisait des microprocesseurs spécifiques pour chaque détecteur, combinés à un système d’acquisition de données novateur pour réduire les problèmes de câblage. Quelques années plus tard, nous avons mis au point une expérience encore plus grande, qui a montré que les résultats des autres expériences sur Cygnus-X3 n’étaient que des fluctuations statistiques et non de vrais signaux.

Cygnus-X3 est une source de rayons cosmiques de haute énergie située dans la constellation du Cygne. Elle fut nommée de la sorte car elle est la troisième source de rayons X la plus brillante dans cette constellation. Elle fait partie d’un système binaire : il s’agit d’un objet compact tournant autour d’une étoile ordinaire, ce qui explique le caractère cyclique de ses émissions de rayons X, selon une période proche de cinq heures. Cygnus-X3 pourrait être une étoile à neutrons (voir Élémentaire 2), ou bien un objet encore plus exotique… Fluctuations statistiques Quand on effectue plusieurs fois la mesure d’une grandeur physique, on obtient des valeurs dispersées autour d’une valeur centrale. Cette dispersion est intrinsèquement liée au caractère aléatoire de la mesure (souvent issue d’un comptage d’évènements). Il peut ainsi arriver qu’un excès ou un manque d’évènements ne soit dû qu’au hasard, et non à un véritable phénomène physique. On parle alors de fluctuation statistique. Pour se prémunir contre de telles déconvenues, il faut accumuler un ensemble suffisamment vaste d’évènements.

C’était bien sûr un peu décevant : construire une expérience et ne rien voir ! Mais c’est aussi une découverte scientifique, puisque cela permet de déterminer la validité de telle ou telle théorie. C’est ainsi que je me suis lancé dans la physique des rayons cosmiques. Et suite à ces premières tentatives, lors d’une conférence sur les rayons cosmiques à Dublin en 1991, j’ai commencé à fédérer des physiciens du monde entier pour créer l’observatoire Pierre Auger afin d’explorer le domaine des énergies extrêmes.

Le projet AUGER relève-t-il de l’astrophysique ou de la physique des particules ? Sa justification est vraiment astrophysique. Cette expérience pourra fournir des réponses sur la nature des sources de rayons cosmiques : s’agit-il d’objets matériels, comme des galaxies en collision, des trous noirs, ou autre chose encore ? Il est difficile de trouver des objets astrophysiques fournissant l’accélération observée dans les rayons cosmiques de très haute énergie. Bien sûr, cette accélération peut se produire sur des dimensions plus grandes par le biais de champs électriques et magnétiques étendus... Qui sait ? Répondre à ce genre de questions est la justification principale d’AUGER. Toutefois, la collaboration AUGER pourra peut-être aussi relier certains aspects de la cosmologie de l’Univers primordial à la physique des particules.

La supersymétrie C’est un cadre théorique qui associe à chaque particule élémentaire du Modèle Standard un partenaire beaucoup plus massif. Ces « super-partenaires » n’ont encore jamais été observés expérimentalement.

Que va apporter pour vous le LHC ?

page 16

Je crois que la réponse est une très belle réponse : on ne sait pas. J’ai vécu assez longtemps pour savoir qu’il y a toujours des découvertes inattendues lorsque l’on pénètre dans un domaine d’énergie inexploré jusque là. D’ailleurs, c’est un point qu’il faut mettre en valeur au LHC. Je trouve un peu réducteur de ne parler que de la supersymétrie ou du boson de Higgs. Les événements produits dans les machines hadroniques sont

ÉLÉMENTAÍRE


complexes. Au SPS, dans les années 80, on pouvait identifier les signaux issus des bosons W et Z0 de l’interaction faible en dépit de cet environnement complexe. Mais au LHC, il me semble que la situation sera beaucoup plus difficile. Le bruit de fond sera probablement encore plus difficile à contrôler, en particulier si le boson de Higgs est léger. Et puis… peut-être n’existe-t-il pas, qui sait ? On dit aussi que le LHC élucidera l’origine de la masse, mais la masse du boson de Higgs ne permet pas de prédire les masses des autres particules puisqu’elles dépendent du couplage de ces particules au boson de Higgs, qui, lui, ne sera pas mesuré. Le boson de Higgs n’apportera qu’une réponse bien partielle, il faudra étudier bien plus de choses au LHC !

Quel est votre rêve de physicien, y a-t-il quelque chose qui vous comblerait au plus haut point ?

© M.-H. Schune

Jim Cronin

Jim Cronin interviewé par notre collègue Jean-Antoine Scarpacci .

Les idées qui me viennent à l’esprit sont presque de l’ordre du religieux... Sans être croyant, lorsque vous regardez le monde, avec tous ces êtres humains, ces animaux, ces millions d’espèces d’insectes… C’est tout simplement merveilleux ! En tant que physicien, vous savez que si seulement quelques constantes fondamentales étaient légèrement différentes, il n’y aurait rien de tout cela. D’ailleurs, pourquoi existe-t-il quelque chose ? Je ne suis pas sûr que je pourrais imaginer une réponse au fait que nous soyons ici, conscients. Évidemment, des événements horribles se déroulent sans cesse dans le monde, mais d’un autre côté, cette créativité qui est la nôtre n’est-elle pas merveilleuse, en musique, en littérature, dans les arts ? La quantité de choses apprises durant ces cinq derniers millénaires, tout ce que nous avons compris... Voilà ce dont nous devons être conscients ! Et face à cela, étudier les rayons cosmiques n’est pas si important. Mon rêve est de reconnaître le miracle de l’existence de l’Homme… même si c’est une réponse oblique à la question posée.

������������������

Le boson de Higgs Dans le Modèle Standard de la physique des particules, cette particule est responsable de deux phénomènes distincts. D’une part, elle permettrait de considérer les interactions faible et électromagnétique, apparemment très dissemblables, comme deux aspects d’une unique interaction appelée électrofaible. D’autre part, elle serait responsable des masses des particules. Les variantes supersymétriques du Modèle Standard ont besoin de plusieurs bosons de Higgs de masses différentes. Cependant, une telle particule n’a jamais été observée. À ce jour, seules existent des contraintes expérimentales très fortes sur sa masse, obtenues au LEP (CERN). Le LHC devrait être en mesure d’observer ce boson de Higgs... s’il existe !

Que souhaiteriez-vous dire aux jeunes qui débutent dans la recherche ? Les temps ont beaucoup changé. Quand j’ai commencé à faire de la physique, la guerre venait de finir, l’économie était en pleine croissance, il y avait toutes sortes d’opportunités. Maintenant c’est beaucoup plus difficile. Le mot d’ordre est simple : il faut être bon et surtout avoir de la passion. Dans la collaboration AUGER, lors de nos réunions bi-annuelles, de nombreux jeunes sont passionnés et c’est très stimulant de les voir participer avec autant d’enthousiasme à ces recherches.

Avez-vous une question à laquelle vous auriez aimé répondre, quelque chose que vous souhaiteriez ajouter ?

ÉLÉMENTAÍRE

page 17

Je voudrais dire que je suis ravi que des chercheurs comme vous consacrent du temps à expliquer la physique des particules et ses questions actuelles au grand public. J’espère que ce journal va connaître un bel avenir !


Centre de recherche Station spatiale internationale

© NASA

L’étude des rayons cosmiques dans l’espace

La station spatiale internationale.

Europe

Une fois démontrée l’origine extra-terrestre des rayons cosmiques, les physiciens ont cherché à s’affranchir des perturbations de l’atmosphère. Pour cela, ils ont d’abord construit des observatoires au sommet de montagnes et utilisé des ballons pour prendre des données à plus haute altitude encore. Puis, naturellement, ils ont imaginé des expériences menées lors de vols spatiaux. Ces dernières ont plusieurs avantages : les rayons cosmiques n’ayant subi aucune perturbation, on peut plus facilement identifier leur nature (photon, électron, proton, noyau ou autre) ; de plus, les mesures peuvent durer plusieurs années, aussi longtemps que le vaisseau qui contient le détecteur reste en orbite. Ce sera par exemple le cas pour l’expérience AMS (Alpha Magnetic Spectrometer) dont une première version, AMS-01, a fait l’objet d’un vol préparatoire en 1998, et qui devrait être lancée en 2008 dans sa version finale, en fonction des disponibilités de la navette spatiale.

La station spatiale internationale Après plus de vingt ans d’études, la construction de la station spatiale internationale a débuté en 1998 par la mise en orbite de son premier module, lancé par une fusée russe depuis Baïkonour. L’accident de la navette Columbia, en 2003, a considérablement ralenti son montage qui devrait néanmoins être terminé dans les prochaines années. Son programme scientifique a ainsi été redéfini à plusieurs reprises alors que

Les principales contributions des pays européens participant à la Station Spatiale Internationale. La station spatiale internationale (SSI) en chiffres C’est en 1983 que l’administration de R. Reagan demanda à la NASA un projet de station orbitale. L’Europe s’y associa, ainsi que le Japon en 1985. L’explosion de la navette Challenger, au début de l’année suivante, ralentit le programme et augmenta son coût. En 1993, la Russie, qui avait une longue expérience des vols habités grâce à sa station MIR, fut invitée à rejoindre le projet alors rebaptisé « Alpha ». 16 nations y étaient associées en 1998, date à laquelle le premier module « Zarya » fut lancé, au moyen d’une fusée russe, depuis Baïkonour. Dans la foulée, la station prit pour nom « Station Spatiale Internationale », car les Russes n’aimaient pas le nom « Alpha », estimant que c’étaient eux qui avaient conçu la véritable première station orbitale. Si la NASA est le maître d’œuvre de la construction de la SSI, chaque pays y contribue. Par exemple, l’Agence Spatiale Européenne (ESA) construit le module COF (Columbus Orbital Facility) qui accueillera un laboratoire à usages multiples. Il sera le lieu privilégié des chercheurs et astronautes européens. Notons qu’AMS sera situé à l’extérieur de la navette, amarré sur la poutrelle principale. Le détecteur prendra des données pendant quelques années avant d’être redescendu sur Terre.

page 18

La station est située à 386 km du sol. Avec 108 m de long et 74 m de large, son poids est de 415 tonnes. Les 7 astronautes de permanence peuvent se déplacer dans 1200 m3. Le budget de fonctionnement annuel de l’ISS est d’environ de 2 milliards de dollars par an jusqu’en 2011, auxquels on doit ajouter une partie du budget des vols de navette (5 milliards de dollars pour les 5 missions prévues en 2006), qui est financé pour la même période.

ÉLÉMENTAÍRE


Station spatiale internationale Le rayonnement spatial « Partir c’est mourir un peu » (Edmond Haraucourt), mais point trop n’en faut. Un aller retour vers Mars nécessite plusieurs mois de trajet et les cosmonautes seraient soumis à un intense rayonnement cosmique puisque l’atmosphère terrestre ne joue plus le rôle d’écran protecteur et que les parois des vaisseaux actuels ne sont pas suffisantes pour les arrêter. On a évalué qu’un astronaute sur 10 développerait un cancer, sans compter des cataractes, des troubles de la fertilité, ou même des troubles neurologiques. Un programme de recherche permettant de protéger ou même de « réparer » les voyageurs spatiaux au long cours est donc nécessaire si l’on ne veut pas que les rayons cosmiques nous clouent sur le plancher des vaches.

son budget explosait, passant de huit (en 1984) à cent milliards de dollars actuellement. Suivant la nouvelle orientation de la NASA (National Aeronautics Space Administration) visant à l’exploration habitée du système solaire, les activités de recherche des équipes américaines se sont recentrées sur le développement de méthodes de protection contre le rayonnement spatial et sur les études des effets à long terme de la quasi-absence de gravité. L’achèvement de la construction de la station spatiale reste néanmoins parmi les priorités affichées de la NASA.

L’expérience Alpha Magnetic Spectrometer (AMS) Disons, pour simplifier, qu’AMS est une expérience classique de physique des particules que l’on envoie dans l’espace. Le détecteur, d’un poids de six tonnes, est capable d’identifier et de mesurer précisément l’énergie des électrons, photons, protons, noyaux légers ainsi que de leurs antiparticules. L’expérience sera environ 10 000 fois plus sensible que celles qui l’ont précédée pour l’étude de deux phénomènes.

Rechercher des anti-mondes

© MIR

Un des grands mystères de la physique actuelle est l’écrasante prépondérance de la matière sur l’antimatière dans l’Univers observable. En effet, il parait naturel de supposer qu’une telle asymétrie n’était pas présente dans les premiers instants de l’Univers. Elle a donc été créée lors de son évolution jusqu’à nos jours. Cependant, on ne comprend toujours pas quel est le mécanisme responsable de ce phénomène. S’il existait des îlots d’antimatière, des réactions d’annihilation devraient se produire à leur frontière avec la matière, conduisant, notamment, à l’émission de photons d’énergies caractéristiques. L’absence de telles émissions lumineuses a permis d’exclure une présence notable d’antimatière, dans le système solaire, la galaxie, les galaxies voisines, les amas de galaxies. Les mesures récentes du rayonnement fossile n’ont pas non plus détecté de distorsion imputable à une éventuelle présence d’antimatière dans les premiers instants de l’Univers. Des mesures fines sont alors nécessaires pour détecter des sources infimes d’antimatière. Cependant, observer un antiproton ou un positron n’apporte pas grand-chose concernant l’existence possible de telles sources. En effet ces particules peuvent être créées lors de collisions (on fabrique ces particules en laboratoire tous les jours !). De même, des positrons peuvent être produits par des photons lors de leur passage dans des champs électromagnétiques intenses, ce qui engendre des paires électron-positron. En revanche, la détection d’un seul antinoyau (au delà de l’antihélium) serait le signe indubitable que, quelque part, il existe page 19

ÉLÉMENTAÍRE

Le détecteur AMS-01 dans la soute de la navette spatiale (le plus à gauche) lors du vol de préparation. Cette photo a été prise depuis la station MIR.


Station spatiale internationale des étoiles d’antimatière, seules capables de créer ces antinoyaux par le biais de réactions nucléaires.

Noir c’est noir, mais il y a de l’espoir

© CERN

Une série d’expériences va également porter sur la mesure de l’énergie des positrons (antiélectrons) et des antiprotons arrivant dans les détecteurs. En effet, il est possible que des particules assez massives forment ce que l’on appelle « la matière noire », dont on pense qu’elle représenterait 25% de la masse de l’Univers. Au centre des galaxies cette matière noire pourrait se concentrer sous l’effet de la gravitation. On peut alors imaginer que des particules et des antiparticules de matière noire interagissent et, en s’annihilant, donnent lieu à une émission de matière et d’antimatière « ordinaire » en quantités égales. Comme l’antimatière est une denrée rare dans l’Univers, sa détection (par exemple sous l’apparence de positron ou d’antiproton) serait un signal de ces phénomènes. Pour détecter un signal issu de l’annihilation de particules de matière noire, AMS devra contrôler tous les autres mécanismes engendrant positrons ou antiprotons. Une autre manière de détecter la présence de matière noire consiste à rechercher des photons d’énergie bien définie qui résulteraient de l’annihilation de deux de ces particules encore inconnues.

Montage du détecteur AMS .

La masse de l’Univers Parlons plutôt de l’énergie contenue dans l’Univers. Elle semble bien cachée puisque sa partie « visible » (galaxies, nuages de gaz, …) n’en représente que 5%. On estime aujourd’hui que 25% proviendraient de particules neutres, lourdes interagissant très peu avec la matière ordinaire (un peu comme des neutrinos lourds), que l’on espère produire et découvrir lors des collisions enregistrées au LHC. Cette composante est habituellement désignée sous le nom de matière noire, faute d’en savoir plus sur sa nature. Les 70% restants sont eux aussi de nature inconnue, mais différente de la matière noire. On parle « d’énergie noire » qui est responsable d’une accélération de l’expansion de l’Univers, récemment observée.

Des mesures de précision

page 20

© CERN

AMS va mesurer avec une précision inégalée la composition et l’énergie des particules constituant le rayonnement cosmique, dans le domaine allant de 1 à 100 GeV, ce qui permettra de tester les calculs correspondants en astrophysique.

Photomontage indiquant la position prévue d’AMS, à l’extérieur de la station spatiale internationale

ÉLÉMENTAÍRE


Station spatiale internationale

© N. Arnaud

© J. Serreau

Pour en savoir plus : http://www.nasa.gov/mission_pages/ station/main/index.html

La salle de contrôle de la NASA à Houston d’où sont suivis les vols de la navette spatiale.

Les résultats d’AMS-01

Une version simplifiée du détecteur a fait un séjour dans l’espace en juin 1998 lors d’une mission de la navette américaine vers la station MIR. Ce vol avait pour but de prouver la faisabilité du détecteur AMS. Les résultats obtenus ont permis, par exemple, d’exclure la possibilité qu’il y ait plus d’un noyau d’antihélium pour un million de noyaux d’hélium dans le rayonnement cosmique.

Et la suite ?

© NASA

Le lancement du détecteur final, AMS-02 aurait dû avoir lieu depuis plusieurs années. Les accidents de la navette, les restrictions budgétaires et les changements de stratégies scientifiques de la NASA ont fait que la date de 2008 est maintenant envisagée mais n’est pas officiellement fixée. Dans l’intervalle il est possible que d’autres expériences concurrentes, comme PAMELA, dont le lancement à Baïkonour est prévu au printemps 2006, aient répondu aux questions précédentes.

Photo du panneau solaire largué dans l’espace en 1993 par les astronautes qui réparèrent le télescope Hubble.

Le ménage dans la station spatiale internationale

ÉLÉMENTAÍRE

page 21

Il n’est pas question pour les astronautes d’échapper aux corvées quotidiennes de la vie sur Terre. Au contraire, ils doivent, sans relâche, entretenir la station spatiale : il leur faut faire le ménage à des centaines de kilomètres au-dessus de la Terre. Ils doivent notamment passer l’aspirateur avec un appareil qui, somme toute, n’est pas très différent des modèles domestiques. Mais sur la station spatiale, l’aspirateur doit souvent aspirer des poussières et des déchets qui ne se trouvent pas uniquement sur le « plancher »; il doit également attraper des choses qui flottent en toute liberté dans l’air des cabines. Comme les poussières viennent se « coller » sur les parois, les astronautes passent leur temps à nettoyer les surfaces avec des désinfectants. Ils n’utilisent l’aspirateur que pour accéder à des endroits cachés. Il n’y a pas d’eau courante à bord. Pour se laver, on utilise du savon sans rinçage et du shampoing à sec puis on se frotte le corps avec de petites quantités d’eau. Pour laver la vaisselle, les astronautes utilisent des chiffons humides. Les emballages d’aliments vides, tous les déchets et le contenu des toilettes sont entreposés dans des vaisseaux russes inhabités (vaisseaux Progress, dérivés des vaisseaux Soyouz) qui sont restés amarrés à la station après la livraison des provisions. Quand ces vaisseaux sont pleins, ils sont largués puis vont se désintégrer dans l’atmosphère, l’incinérateur spatial a ainsi été inventé. Il y a aussi des déchets non contrôlés. On compte plus de 100 000 débris spatiaux de plus de 1 cm de diamètre, en orbite autour de la Terre. Des morceaux de satellites, des étages de fusée errants en sont quelques exemples. En décembre 1993, les astronautes de la mission STS-61 réparèrent le télescope spatial Hubble. Le vieux panneau solaire était si endommagé qu’il ne pouvait pas être replié et placé dans la soute de la navette. Il est devenu un déchet spatial que les astronautes ont largué dans l’espace.


Expérience AUGER Le spectre en énergie des rayons cosmiques est relativement bien mesuré sauf à très haute énergie, domaine que la collaboration AUGER ambitionne d’étudier. La tâche n’est pas aisée car les rayons cosmiques les plus énergiques sont aussi les plus rares : une surface de 1 km2 ne reçoit en moyenne qu’une particule cosmique d’énergie supérieure à 1018 eV par semaine. Au-delà de 1020 eV, ce n’est plus qu’une par siècle ! Cette rareté oblige à enregistrer les événements sur une très grande surface. Le détecteur AUGER s’étale ainsi sur 3000 km2 (soit trente fois la superficie de Paris intra muros) en Argentine, à Malargüe, de façon à observer le ciel austral. Son installation a débuté en 2000 et devrait se terminer en 2006.

L’observatoire Pierre Auger c’est… 250 chercheurs répartis dans 50 instituts situés dans 15 pays : Allemagne, Argentine, Australie, Bolivie, Brésil, Espagne, France, Italie, Mexique, Pologne, République tchèque, RoyaumeUni, Slovénie, USA, Vietnam.

L’effet GZK L’expérience AUGER s’intéresse aux particules cosmiques de haute énergie et espère être sensible à l’effet de la « coupure GZK ». De quoi s’agit-il ? En 1965, Kenneth Greisen, Vadim Zatsepin et Georgiy Kouzmin prédisent que les rayons cosmiques ne peuvent dépasser une certaine énergie, qu’ils évaluent à quelques 1019 eV. Au-delà de cette valeur les particules ont une forte probabilité d’interagir avec les photons du rayonnement fossile à 3K, relique du Big Bang. Fortement absorbées par ce rayonnement, les particules énergétiques ne peuvent se propager sur de longues distances. Des rayons cosmiques d’énergie supérieure à 1019 eV ne pourraient donc provenir que de sources « proches ». Comme nous ne connaissons, dans notre environnement immédiat, aucune source capable de produire des particules avec de telles énergies, K. Greisen, V. Zatsepin et G. Kouzmine (ou GZK pour Le spectre en énergie des rayons cosmiques La gamme d’énergie couverte par les rayons cosmiques est considérable : de 106 à quelques 1019 eV. Le flux de particules, c’est-à-dire le nombre de particules d’énergie donnée arrivant par seconde et par m2 suivant une direction donnée, est à première vue très régulier sur une très grande gamme dynamique. Mais, en y regardant de plus près, on voit quelques décrochements dans la courbe. À basse énergie (jusqu’à 1010 eV), le flux est modulé par l’activité solaire. En effet, le Soleil émet aussi des particules (protons, électrons, noyaux d’hélium, etc...) : c’est le vent solaire. Ce plasma émis à la surface du Soleil crée un champ magnétique dans lequel baigne le système solaire et qui dévie une grande partie des rayons cosmiques de basse énergie venant de la Galaxie, ce qui nous protège de ce rayonnement intense. Au-delà de 1010 eV le flux de particules suit «une loi de puissance», c’est-à-dire que le flux peut être décrit par la courbe f(E)=1/Eγ (γ = 2,7) jusqu’à 1015 eV, énergie à laquelle apparaît une première structure appelée le « genou ». Le flux décroît alors plus fortement jusqu’à 1018 eV, où apparaît une deuxième structure que l’on nomme la «cheville ». Au-delà de ces énergies, le faible nombre d’événements limite l’interprétation des résultats.

page 22

Il est admis que la majorité des rayons cosmiques de basse énergie provient de notre galaxie, et ce jusqu’à quelques 1018 eV (cheville) mais on ignore toujours quelle est leur source exacte. On pense que les ondes de choc produites par l’explosion de supernovae dans notre galaxie pourraient être à l’origine de l’accélération de particules dans le gaz interstellaire ambiant. Les particules diffusent sur des ondes magnétiques situées de part et d’autre de l’onde de choc, ce qui leur permet de traverser cette dernière un très grand nombre de fois. À chaque traversée, elles gagnent de l’énergie un peu comme une balle de tennis qui est accélérée en rebondissant sur une raquette en mouvement. Ce mécanisme peine cependant à accélérer des particules aux énergies correspondant à la cheville. Les «superbulles» pourraient alors jouer un rôle important. Ces grandes structures de gaz très chaud et très raréfié rassemblent des dizaines d’étoiles très massives, dont l’explosion successive pourrait fournir l’accélération observée. D’autres explications ont été aussi avancées mettant en jeu des sursauts gamma ou des étoiles à neutrons très jeunes. Au-delà de 1018 eV, il semble qu’une autre composante domine le flux. Elle est supposée d’origine extra galactique en raison de l’isotropie du rayonnement (identique dans toutes les directions). La partie finale du spectre, autour et au-delà de la coupure « GZK », reste encore à mesurer de manière précise.

ÉLÉMENTAÍRE


AUGER La coupure GZK L’espace est rempli d’un rayonnement cosmique diffus de photons, rayonnement « fossile », trace lointaine des premiers instants de l’Univers, découvert en 1965 par Penzias et Wilson, prix Nobel 1978. Les photons de ce rayonnement sont actuellement très peu énergiques (environ 3 K en température, soit 10-3 eV en énergie). Un proton cosmique peut rencontrer certains de ces photons. Si son énergie est suffisante, c’est-à-dire supérieure à 6×1019 eV, il pourra interagir en produisant des pions, ce qui lui fait perdre, à chaque collision, environ 15 % de son énergie. La probabilité qu’un proton interagisse ainsi avec un photon est très faible : environ une réaction toutes les 15 millions d’années. Cependant si ces protons voyagent sur une distance suffisamment longue (plusieurs centaines de millions d’années lumière), les collisions GZK font retomber leur énergie au-dessous du seuil. Cet effet est représenté sur la figure ci-contre où l’on montre l’évolution de l’énergie d’un proton en fonction de la distance parcourue, et ceci pour différentes énergies initiales du proton. On doit donc s’attendre à une raréfaction nette des particules ayant une énergie supérieure à 6×1019 eV, la « coupure GZK ». Si, en revanche, on observe des rayons cosmiques à des énergies supérieures à celle de la coupure GZK, on ne peut qu’en conclure qu’ils proviennent de sources proches de la Terre… La question serait alors de comprendre quel mécanisme est responsable de l’accélération de particules à de telles énergies.

Énergie d’un proton en fonction de la distance parcourue dans le rayonnement fossile à 3 K. Les distances sont exprimées en millions de parsecs (Mpc). On constate que, quelle que soit l’énergie de départ, l’énergie mesurable après un parcours d’au moins 100 Mpc, reste inférieure à 1020 eV.

les intimes) en ont déduit l’existence d’une limite supérieure à l’énergie des rayons cosmiques atteignant la Terre. Les expériences effectuées jusqu’à présent (en particulier, AGASA au Japon et HiRes aux États-Unis) ont fourni des résultats contradictoires concernant les événements de haute énergie. Comme les deux expériences utilisent des techniques expérimentales différentes, il est possible que ce désaccord soit dû aux méthodes de mesure. La collaboration AUGER utilise ces deux techniques, simultanément, dans l’espoir de comprendre l’origine du désaccord. Par ailleurs elle observera un nombre d’événements plus important en raison de sa taille.

Lorsqu’un rayon cosmique de haute énergie arrive de l’espace, il peut interagir avec un noyau de l’atmosphère. D’une telle rencontre naissent de nombreuses particules secondaires qui vont à leur tour interagir un peu plus bas avec d’autres molécules, pour produire d’autres particules, etc... Une « galette » de particules de quelques mètres d’épaisseur descend ainsi jusqu’au sol avec une vitesse proche de celle de la lumière. Ce phénomène est appelé gerbe cosmique. En détectant ces gerbes, on remonte aux caractéristiques des rayons cosmiques arrivant sur Terre, c’est-à-dire que l’on mesure leur énergie, leur direction ainsi que la nature de la particule primaire. Nous allons maintenant décrire les deux techniques de détection qui sont combinées dans AUGER. Comme les proportions des différents types de particules (électrons, photons, muons et autres hadrons) évoluent au cours du développement de la gerbe, les deux techniques mesurent des composantes différentes.

ÉLÉMENTAÍRE

page 23

Comment les rayons cosmiques sont-ils détectés ? Parsec Le parsec dont le nom vient de la contraction de « parallax second angle » est une unité astronomique de longueur. C’est la distance à laquelle on observe la séparation de la Terre au Soleil (1 unité astronomique) sous un angle de 1 seconde d’arc. 1 parsec vaut 2,26 années-lumière ou trente mille milliards de kilomètres. La Terre est à 0,0086 Mpc du centre de notre galaxie qui a pour diamètre 0,015 Mpc.


AUGER 2 4 6 8 10 12

La technique « œil de mouche »

nombre de particules

Xmax

2 4 6

rayon cosmique de grande énergie nombre de particules

Xmax

rayon cosmique de faible énergie

page 24

son développement, et les caméras visant plus près du sol voient la fin de son développement. Lorsque la gerbe atteint son développement maximal, la quantité de lumière de fluorescence émise est aussi maximale et les caméras qui ont détecté ce maximum indiquent alors sa direction dans le ciel. Il faut toutefois noter que ces événements représentent au mieux un dixième de tous les événements accumulés par AUGER. Comme on ne peut pas se permettre de rejeter 90% des événements, il est impératif de trouver un moyen de déduire Xmax à partir des résultats fournis par les cuves. Pour ce faire, à partir d’événements simulés dont on connaît exactement la valeur de Xmax, on sélectionne les paramètres qui peuvent être mesurés avec les cuves et qui présentent de fortes corrélations avec Xmax. Une fois mesurés sur les données réelles, ces paramètres donneront accès à Xmax et à la nature du rayon cosmique.

© B. Mazoyer

quantité de matière traversée

quantité de matière traversée

Mise au point dans les années 80, et utilisée par la collaboration HIRes, elle consiste à collecter la lumière de atmosphère fluorescence qu’émettent les atomes d’azote de l’air lorsqu’ils sont excités par le passage de la gerbe cosmique. Plus cette lumière est intense et plus il y a de particules chargées (surtout des sol électrons) dans la gerbe. En mesurant au sol différentes caractéristiques de la Les principales caractéristiques d’une gerbe de particules sont : son énergie, sa direction lumière de fluorescence, on peut estimer et la profondeur de l’atmosphère traversée au moment où la galette contient le maximum de particules. la forme et la direction de la gerbe, ainsi Dans la première partie du développement d’une gerbe, les particules produites interque l’énergie du rayon cosmique initial. agissent avec les noyaux de l’atmosphère tant que leur énergie est suffisamment grande. L’inconvénient de cette méthode est que La gerbe grossit et le nombre de particules augmente jusqu’à atteindre un maximum. la lumière émise est très faible et qu’il faut Dans un deuxième temps, les particules secondaires commencent à « s’essouffler » éviter d’être noyé par toute autre source et certaines, d’énergie trop faible pour voyager plus longtemps, sont absorbées par de photons. Cette observation ne peut l’atmosphère. Ainsi, de moins en moins de particules survivent dans la « galette » durant donc se faire que lors de nuits sans lune, le reste du voyage. La profondeur de l’atmosphère déjà traversée au moment où la ce qui limite la durée d’observation, et galette contient le maximum de particules est décrite par un paramètre que l’on note dans des régions désertiques comme la Xmax. Ce paramètre dépend du type du rayon cosmique et de son énergie, il s’exprime généralement en g/cm2. pampa argentine. Cette technique de détection doit son nom à l’aspect des détecteurs, formés de capteurs réunis Variable Xmax : cette variable ne peut être déterminée en « œil de mouche » pour être sensibles à la lumière arrivant depuis qu’à partir des détecteurs « œil de mouche » car les cuves ne détectent que les particules arrivant au sol. différentes directions du ciel. Lorsqu’elle sera complète, l’expérience Dans les détecteurs « oeil de mouche », les caméras AUGER comptera quatre bâtiments contenant chacun six télescopes de pointées vers le haut « voient » la gerbe au début de ce type.

Les cuves d’eau La deuxième technique consiste à étudier la galette de particules lorsqu’elle atteint le sol. La galette a alors un diamètre considérable (de l’ordre de 10 km) et plus l’énergie du rayon cosmique est grande plus sa densité en particules est forte. Il suffit donc de mesurer cette densité en quelques points pour en déduire la direction et l’énergie du rayonnement cosmique initial. La détection se fait en plaçant au sol des cuves remplies d’eau. Les particules chargées qui pénètrent dans la cuve (essentiellement des muons) provoquent une émission de lumière dans l’eau : la lumière Cerenkov, produite par les particules traversant la cuve à une vitesse plus grande que la vitesse de la lumière dans ce milieu (voir « La question qui tue »). Cette lumière est détectée par des tubes photomultiplicateurs. L’avantage de cette méthode est qu’elle peut

ÉLÉMENTAÍRE


AUGER fonctionner de jour comme de nuit et par n’importe quel temps. L’expérience AGASA a utilisé des scintillateurs à la place des cuves remplies d’eau mais c’est essentiellement le même principe.

L’expérience AUGER combine ces deux approches pour mesurer les gerbes cosmiques. Sur 3000 km2, elle dispose de 1600 cuves de 10 tonnes d’eau chacune, réparties tous les 1,5 km selon une maille hexagonale. Chaque station est autonome car elle est alimentée en énergie par des capteurs solaires. Quand une station détecte des particules, un calculateur local communique par radio avec un ordinateur central. Celui-ci vérifie que le signal coïncide avec d’autres impacts repérés par un nombre suffisant d’autres stations, ce qui caractérise une galette. L’ensemble des données est alors enregistré. Ce dispositif devrait observer environ 30 000 événements d’énergie supérieure à 1019 eV en 5 ans (si ces événements existent et sont dans le prolongement de la courbe mesurée à plus basse énergie). Sur le Détecteurs « œil de mouche ». On aperçoit, au premier plan, les miroirs pourtour de la surface couverte par les cuves sont d’un télescope qui focalisent les rayons de lumière sur la caméra montée disposés quatre détecteurs de type « oeil de mouche ». sur un pied. La caméra est formée de nombreuses zones sensibles qui Les événements observés simultanément par les deux ont la configuration d’un œil de mouche. On aperçoit au second plan la techniques ne représentent que 10% des événements caméra d’un deuxième télescope. enregistrés, mais ils sont bien sûr extrêmement intéressants. Grâce à ces événements hybrides, les physiciens espèrent améliorer la précision sur la mesure de l’énergie et pourront comprendre l’influence de la méthode utilisée sur les caractéristiques du spectre mesuré. Grâce à ces

ÉLÉMENTAÍRE

page 25

Événements hybrides Ces événements permettent d’améliorer la mesure des caractéristiques de la gerbe : par exemple son énergie et sa direction. Pour ces événements, on mesure l’énergie de la gerbe par deux méthodes. D’une part, les détecteurs « œil de mouche » sont sensibles à la lumière de fluorescence qui est due principalement aux électrons et aux photons de la gerbe. Le nombre de ces particules, qu’il faut connaître afin de reconstituer l’énergie du rayon cosmique, est estimé à partir de modèles de développement de gerbes encore assez incertains. D’autre part, à l’aide des cuves, on détecte des muons ainsi que les électrons et les photons qui ont survécu à la traversée de l’atmosphère jusqu’au sol. Là encore la détermination de l’énergie de la gerbe à partir de l’énergie déposée dans les cuves fait intervenir des phénomènes physiques imparfaitement maîtrisés. Dans les deux cas les physiciens sont tributaires des incertitudes inhérentes aux modèles. Bien entendu, en toute rigueur, les deux valeurs trouvées pour l’énergie devraient être identiques. Ce sont justement les écarts observés dans les événements hybrides, et dus aux différences dans les hypothèses de calcul, qui permettront de mieux comprendre la réponse des deux types de détecteurs. La mesure de la direction d’origine du rayon cosmique est aussi plus précise pour ces événements hybrides puisqu’elle est déterminée à partir de plus d’information. Il est un troisième point pour lequel la reconstruction hybride des gerbes joue un rôle très important. Il s’agit de déterminer un paramètre qui pourrait être décisif dans l’identification de la nature de la particule primaire à l’origine de la gerbe : le maximum de développement de la gerbe (Xmax).

Le site de l’expérience AUGER. Chaque point rouge représente une cuve d’eau qui est éloignée de sa voisine de 1,5 km. Les télescopes, sensibles à la lumière de fluorescence, sont indiqués en jaune. On a indiqué en vert les lignes de visée des 24 miroirs répartis sur ces 4 télescopes.

© S. Ranchon

Et AUGER dans tout ça ?


AUGER La nature de la particule primaire 1- On mesure le maximum de développement de la gerbe (Xmax) à l’aide de détecteurs « oeil de mouche », si cette information est disponible. 2- On détermine, à partir des résultats obtenus à l’aide des cuves, les caractéristiques des signaux . 3- Pour les événements hybrides on trace les valeurs des paramètres mesurés en fonction de Xmax et on regarde les corrélations sur les données. Lorsque les corrélations sont excellentes, à une valeur donnée du paramètre correspond une valeur assez précise de Xmax. 4- Dans les événements reconstruits à l’aide des cuves seules (soit 90% des événements enregistrés) on estime la valeur de Xmax, en utilisant les courbes obtenues avec des événements hybrides. 5- Connaissant l’énergie et le Xmax, on en déduit la nature du rayon cosmique primaire. Les premiers résultats de la collaboration AUGER Avant la fin de l’installation complète des détecteurs de l’expérience AUGER, les physiciens ont commencé à analyser une année de données enregistrées par les détecteurs opérationnels (60%). Ils ont ainsi publié à l’été 2005 une première estimation du flux des rayons cosmiques de haute énergie. Les erreurs expérimentales de mesure de l’énergie, indiquées par deux segments horizontaux, sont encore trop grandes pour conclure quoi que ce soit concernant la coupure GZK.

améliorations, la collaboration AUGER sera capable de mesurer la région encore mal connue du spectre des rayons cosmiques de très haute énergie.

Une expérience nature…

au

coeur

de

la

Pour en savoir plus http://www.auger.org/

page 26

Une des cuves d’AUGER (diamètre 3,6 m). On peut voir la Cordillère des Andes en arrière-plan.

© S. Ranchon

© J. Serreau

© S. Ranchon

L’expérience AUGER est située près de Malargüe, petite ville au cœur de la pampa. La ville la plus proche est à 250 km ! L’expérience doit être totalement opérationnelle fin 2006. Actuellement plus de 1000 cuves, sur les 1600 prévues au final, sont installées. La pampa contient peu d’arbres et les clôtures sont quasi-inexistantes, ce qui a été source de quelques surprises lors de l’installation des premières cuves. Les vaches tout d’abord, qui ont adoré se gratter le dos sur leur rebord et ont arraché sans vergogne les câbles reliant les panneaux solaires aux piles… l’apparence des cuves a donc dû être modifiée ! Il ne reste maintenant que le problème des araignées qui raffolent des coins secrets des cartes d’électronique et de l’ombre agréable qu’elles offrent. Mais là, attention danger : elles mordent et sont venimeuses.

Une des cuves d’AUGER entourée de vaches.

ÉLÉMENTAÍRE


Détection Calorimétries Étymologiquement « calorimétrie » signifie mesure de la chaleur. Par abus de langage, les physiciens utilisent le mot calorimètre pour désigner tout appareil qui mesure l’énergie d’une particule, que ce soit un photon, une particule d’origine cosmique ou bien créée dans un accélérateur. De quel type de calorimètre, se servent-ils dans ce cas ? Ils font passer la particule à travers un matériau qui l’absorbera complètement et qui transformera une fraction de son énergie en une quantité mesurable, telle que courant électrique, chaleur ou encore lumière. C’est tragique, mais pour mesurer l’énergie d’une particule avec un calorimètre, il faut la détruire !

Schéma de calorimètre homogène : le même milieu permet le développement de la gerbe ainsi que la mesure de son énergie. À l’arrière du détecteur, des photomultiplicateurs (PMT) collectent le signal.

Chronique d’une mort annoncée Suivons de près les derniers moments d’une telle particule : lors de son entrée dans le calorimètre, elle interagit avec les atomes du matériau en créant des particules secondaires qui, après un court instant de vol, vont à leur tour interagir et générer des particules tertiaires, et ainsi de suite. Rapidement, toute une gerbe de particules se développe en s’étalant latéralement et le long du trajet de la particule primaire. Chaque interaction avec la matière coûte de l’énergie aux particules et après quelques générations, le développement de la gerbe ralentit faute de « carburant » : les dernières particules produites n’ont plus assez d’énergie pour en créer de nouvelles. La gerbe passe alors à sa phase finale, où toutes les particules existantes sont finalement capturées par le milieu. La particule initiale n’existe plus, mais voyons ce que nous pouvons apprendre des traces qu’elle a laissées.

Schéma de calorimètre à échantillonnage qui alterne modules détecteurs et modules absorbeurs. GeV

L’étalement et la longueur de la gerbe, ainsi que la distribution spatiale des particules, dépendent fortement de la nature de la particule primaire et de son énergie. En effet, les processus d’interaction avec la matière ne sont pas les mêmes pour les photons, les électrons ou les hadrons (pions, kaons, protons, etc). Ainsi, selon la précision de mesure recherchée et la nature des particules incidentes, de nombreux choix sont possibles pour la conception du calorimètre. Le long de la gerbe, une multitude de particules secondaires est créée. Il suffit donc de placer dans le calorimètre un milieu sensible qui récupérera une partie plus ou moins grande de leur énergie. Dans certains cas, la matière traversée joue ce double rôle en ralentissant et absorbant les particules tout en transformant leur énergie en une quantité mesurable : on parle alors de matériau ou de calorimètre homogène. Nous en verrons une application dans le cas du calorimètre à cristaux de CMS.

ÉLÉMENTAÍRE

Hadron Particule formée de quarks et sensible à l’interaction forte (par exemple les protons et les neutrons). page 27

Dans d’autres cas, la matière qui freine et absorbe les particules ne peut pas être utilisée simultanément pour la mesure de l’énergie. On a alors besoin d’ajouter un élément supplémentaire, par exemple un scintillateur qui va

Exemple des gerbes développées par des particules de différentes énergies. Chaque point correspond au signal mesuré lors du passage d’une particule (venant de la droite) au niveau d’un plan détecteur. Ci-dessus on a des gerbes générées par des hadrons et cicontre par des électrons. Dans le cas des hadrons les gerbes peuvent varier de forme pour une même énergie initiale donnée, comme on le voit dans les deux cas correspondant à des particules initiales de 20 GeV.


Calorimétries

À gauche, gerbe électromagnétique générée par un photon. À droite, une gerbe créée par un hadron (un proton par exemple).

page 28

Segmentation d’un calorimètre Ce schéma représente l’énergie déposée par une particule pénétrant dans un calorimètre segmenté latéralement en 8 cellules. À gauche, le calorimètre est segmenté aussi en profondeur, en trois compartiments. À droite, le calorimètre est uniquement segmenté latéralement. Sur les deux figures, les rectangles représentent les cellules et les couleurs indiquent la quantité d’énergie déposée. Pour reconstruire le chemin de la particule primaire on combine les cellules en tenant compte de l’énergie de chacune. À gauche, la segmentation longitudinale (ou en profondeur) permet d’avoir une « photographie » de la gerbe en trois dimensions (deux dimensions dans le cas de notre dessin) et à en déduire sa direction. En absence de segmentation en profondeur, le calorimètre ne possède pas assez l’information pour déterminer la direction de la particule incidente ni le point exact de son impact sur la surface d’entrée, comme on le voit sur le dessin de droite.

émettre de la lumière au passage de la gerbe. Une autre méthode consiste à collecter une partie du courant électrique que ces particules créent lors de leur passage. C’est le principe des calorimètres à échantillonnage, composés de deux milieux, un premier dit passif, qui sert à la production de la gerbe ; et un second appelé actif, qui est utilisé pour la mesure de l’énergie. Le calorimètre électromagnétique de l’expérience ATLAS, composé de plaques de plomb (partie passive) baignant dans de l’argon liquide (partie active) en est un exemple. Dans tous les cas, les calorimètres sont segmentés en cellules, présentant à la particule incidente une surface en « échiquier ». Chaque gerbe dépose de l’énergie dans plusieurs de ces cellules, ce qui rend possible la détermination du point d’impact de la particule primaire. Souvent le calorimètre est également segmenté en profondeur en 2 ou 3 compartiments. Ainsi, on peut mesurer les fractions d’énergie de la gerbe déposées en deux ou trois profondeurs, ce qui permet de déterminer sa direction et d’étudier son développement. En fin de compte, un calorimètre ne sert pas seulement à la mesure de l’énergie d’une particule. Suivant sa conception, il peut aussi déterminer le point d’impact et la direction de la particule primaire, contribuer à l’étude de sa nature (électromagnétique ou hadronique) et aussi à la mesure de l’instant d’arrivée dans le détecteur.

Vous avez dit « électromagnétique » ou « hadronique » ?? On se sert d’un calorimètre électromagnétique lorsqu’il s’agit de mesurer des photons et des électrons. Dans les autres cas, on construit des calorimètres dits hadroniques. Pourquoi a-t-on besoin de matériaux différents suivant le cas ? La réponse tient au type d’interactions auquel chaque particule est sensible. Un photon ou un électron va interagir électromagnétiquement avec les atomes du calorimètre et leurs noyaux. Le type exact de processus d’interaction dépend de l’énergie mise en jeu. On obtient une cascade de particules secondaires, essentiellement composées d’électrons, de positrons et de photons. Pour effectuer la mesure de l’énergie contenue dans la gerbe on a le choix entre les calorimètres homogènes et des ceux à échantillonnage. Les probabilités d’interaction augmentant avec le numéro atomique du matériau, on utilise des matériaux de Z élevé : plutôt du plomb (Z=82) que du carbone (Z=6). En revanche, les hadrons développent leurs gerbes selon des processus variés faisant intervenir l’interaction forte. Suivant l’énergie de la particule primaire, une fraction de 30% à 50% se transformera en particules électromagnétiques (électrons, photons), tandis que le reste de la gerbe sera constitué de fragments de noyaux ou encore de muons et de neutrinos. Ces gerbes sont longues, larges et irrégulières, ce qui les différentie des gerbes électromagnétiques. Souvent, elles possèdent des ramifications multiples à cause des neutrons qui interagissent seulement après un

ÉLÉMENTAÍRE


Calorimétries certain temps de vol. Ainsi, de petits dépôts d’énergie peuvent s’étendre assez loin du cœur de la gerbe ce qui rend souvent la détermination de l’énergie totale de celle-ci assez difficile. Pour absorber efficacement et le plus localement possible les gerbes hadroniques, on utilise des calorimètres à échantillonnage très denses, contenant souvent du fer, de l’uranium ou du tungstène.

© LAL

En pratique dans les expériences, on place les calorimètres après les détecteurs permettant de mesurer les trajectoires des particules chargées. On place le calorimètre électromagnétique avant l’hadronique. En effet alors que photons et électrons sont totalement absorbés par le premier, les hadrons ne font qu’y démarrer leur gerbe.

Carte électronique permettant la calibration de la chaîne de lecture d’environ 1700 voies du calorimètre électromagnétique d’ATLAS. Elle mesure 40 × 50 cm2 et elle contient environ 8000 composants. Cent trente cartes similaires sont nécessaires pour lire l’ensemble des cellules.

L’étalonnage de la réponse

Le thermomètre au fond du placard à pharmacie de la maison est construit pour mesurer fidèlement la température du corps humain ; ses graduations ont été disposées pour refléter précisément les variations du volume du liquide en fonction de la température ambiante. C’est ce qu’on appelle l’étalonnage du thermomètre. De manière analogue, le signal produit par le passage d’une particule dans un calorimètre doit être étalonné ou, dans le jargon du physicien, « calibré » avant son utilisation : la correspondance entre ce signal (courant électrique par exemple) et l’énergie de la particule doit être établie par une méthode expérimentale. Ceci se fait habituellement en plaçant une partie du détecteur sous un faisceau de particules d’énergie donnée. On étudie alors le signal issu du calorimètre, à la sortie de toute la chaîne électronique de lecture. Comme les particules incidentes ont la même énergie, on peut effectuer l’étalonnage de l’ensemble, c’est-à-dire déterminer la relation entre l’énergie de la particule et le signal recueilli. Cette relation dépend de l’ensemble des étapes depuis la production du signal jusqu’à la détermination d’une énergie. En particulier, elle tient compte des effets intrinsèques au détecteur, liés par exemple à la fraction d’énergie effectivement absorbée par le milieu actif. Elle décrit aussi le traitement du courant par l’électronique utilisée. Finalement, elle tient compte de l’efficacité Distribution d’énergie obtenue avec un faisceau des algorithmes de reconstruction du signal qui fournissent la d’électrons de 120 GeV traversant un calorimètre valeur estimée de l’énergie de la particule primaire. La prise des homogène (en rouge) et un calorimètre à échantillonnage données en faisceau test, répétée à plusieurs énergies, est une étape (en bleu). Elle présente, en abscisse, les énergies mesurées nécessaire pour l’évaluation des caractéristiques d’une technique des électrons du faisceau et en ordonnée, le nombre d’électrons mesurés à une énergie donnée. calorimétrique. Pendant ces périodes, on estime la précision de la Les deux distributions sont centrées autour de 120 réponse en énergie, la similarité de cette réponse d’une cellule à GeV, preuve que les calorimètres ont été bien étalonnés. une autre (connue sous le nom d’uniformité), etc. Dans le cas du calorimètre homogène, on obtient une distribution plus étroite, signature d’une meilleure résolution pour ce détecteur.

ÉLÉMENTAÍRE

page 29

L’étape d’étalonnage est très importante dans la vie d’un détecteur. En calorimétrie elle constitue souvent un des critères pour le choix d’une technique plutôt qu’une autre : la facilité de calibration, la stabilité de l’ensemble avec le temps ou sous l’effet de radiations, la sensibilité aux variations de température, ou les performances de


Calorimétries

© CERN

l’électronique associée sont des arguments qui pèsent lourd lors des discussions préparatoires au choix du meilleur type de détecteur pour une expérience. Un suivi périodique de la réponse de la chaîne d’électronique est également indispensable tout au long de la vie du détecteur. En effet, les différents composants peuvent s’endommager, cesser de fonctionner ou varier de comportement. Pour vérifier leur bon fonctionnement, on utilise des systèmes spécifiques de calibration électronique in situ : on injecte périodiquement à l’entrée de la chaîne électronique un courant électrique connu et on surveille la stabilité de la réponse.

La résolution en énergie

Cristal de PbWO4 avec sa diode de lecture collée sur sa face arrière. Cet ensemble compose une cellule du calorimètre élémentaire de CMS.

La résolution en énergie constitue un des critères de qualité d’un calorimètre. Elle représente la précision avec laquelle ce détecteur mesure une énergie donnée. Cette précision dépend : ● des propriétés intrinsèques du calorimètre. Plus particulièrement, la résolution s’améliore avec le nombre d’interactions élémentaires détectées. Un calorimètre homogène, où la totalité de l’énergie relâchée dans le milieu est mesurée, possède a priori une très bonne précision intrinsèque, meilleure que celle d’un calorimètre à échantillonnage qui ne détecte qu’une fraction de l’énergie de la gerbe.

Schéma de la gerbe développée par un électron pénétrant dans le cristal, La lumière émise par le milieu est guidée par les réflexions successives vers la photodiode placée à l’arrière du cristal.

● du « bruit » intrinsèque de l’électronique de lecture utilisée. Ce bruit, présent même en absence de signal, est inévitable. On peut néanmoins le minimiser par des choix astucieux des composants.

Le calorimètre électromagnétique de CMS à cristaux de tungstate de plomb

page 30

Ce détecteur est composé d’environ 80 000 cristaux de tungstate de plomb (PbWO4). Chaque cristal ressemble à une pyramide tronquée avec une section de 22×22 mm2 et une longueur de 23 cm. Ce matériau a été choisi par la collaboration CMS parce qu’il combine les caractéristiques suivantes : 1) Il est dense et il peut absorber les particules électromagnétiques de haute énergie sur une courte distance, ce qui permet d’avoir un détecteur compact. 2) Lorsqu’une particule le traverse, le cristal scintille immédiatement. Ainsi la plus grande partie de la lumière émise peut être collectée rapidement. Cette rapidité du signal est nécessaire au LHC pour pouvoir concilier la propreté d’une mesure avec le grand taux d’événements attendu. 3) Après des années de recherche et développement on a réussi à obtenir des cristaux suffisamment résistants aux radiations attendues au LHC. Ni la scintillation, ni l’uniformité des cristaux ne devraient être sérieusement affectées par les radiations, à condition de suivre scrupuleusement par des systèmes de calibration, et de corriger si nécessaire, la réponse obtenue. 4) Ce détecteur offre une très bonne résolution en énergie. Les 80 000 cristaux sont montés sur une structure alvéolée. La lumière de scintillation est collectée et transformée en courant par des photodiodes collées sur leur face arrière.

● de l’uniformité de construction et d’étalonnage d’un point à l’autre du détecteur. Celui-ci doit répondre de la même façon quelle que soit la partie touchée par la particule. La résolution en énergie n’est pas toujours le facteur déterminant dans le choix d’un détecteur. La mesure précise de la position et de la direction des particules, les dimensions de l’appareil, l’électronique nécessaire à sa lecture, sa facilité de calibration et son coût sont d’autres facteurs également pris en considération. Un choix qui n’est pas toujours évident pour les physiciens qui conçoivent une expérience en physique des particules !

ÉLÉMENTAÍRE


Calorimétries

Montage d’un des 32 modules du calorimètre électromagnétique d’ATLAS. On distingue en haut une des plaques de plomb en train d’être posée sur une électrode. Les plaques sont pliées en accordéon. Électrode de lecture du calorimètre électromagnétique d’ATLAS. On distingue les cellules gravées sur le cuivre.

© LAPP

Sa partie centrale est composée d’une série de 32 modules, constitués chacun d’un empilement de 64 plaques de plomb dans lesquelles les gerbes se développent (schéma ci-dessous). Les plaques de chaque module sont espacées de 4 mm l’une de l’autre. Cet intervalle étant rempli d’argon liquide (refroidi à 90 K) constitue le milieu actif. Au centre est placée une électrode portée à une tension de 2000 V qui sert à collecter le signal. Les cellules de lecture sont gravées latéralement et longitudinalement sur l’électrode. Ainsi, le long du développement de la gerbe, l’énergie sera mesurée dans trois compartiments, ce qui permet la reconstruction de sa forme et de sa direction. Les modules sont montés en éventail autour du centre de l’expérience (point d’interaction des faisceaux) de façon à ce que les cellules pointent vers la zone d’interaction. Les plaques de plomb et les électrodes sont pliées en forme d’accordéon pour permettre à toute particule de traverser obligatoirement les absorbeurs à plusieurs reprises. Sinon, dans certains cas, elle ne verrait que de l’argon liquide ce qui ne suffirait pas pour mesurer ses caractéristiques. Comme on peut le voir sur le schéma (en bas, à droite), les particules secondaires (électrons, positrons) créées dans le plomb traversent l’intervalle élémentaire de 2 mm entre une plaque de plomb et l’électrode et elles ionisent l’argon. Les électrons d’ionisation migrent vers l’anode sous l’action du champ en induisant un courant qui est mesuré. Ce type de calorimètre a été choisi pour son inaltérabilité intrinsèque face aux radiations et au vieillissement. En plus il possède une bonne résolution en énergie et son étalonnage est stable au cours du temps et relativement facile.

Pour en savoir plus http://aenews.cern.ch/

© LAPP

Le calorimètre électromagnétique à échantillonnage d’ATLAS

ÉLÉMENTAÍRE

Principe de la production et de la collecte de charges dans une cellule du calorimètre d’ATLAS. page 31

Simulation d’une gerbe électromagnétique développée dans le calorimètre d’ATLAS, à partir d’une particule incidente venant de gauche.


Retombées Les aurores boréales

© Jeffrey R. Hapeman

La première description scientifique des aurores boréales est due à Galilée au début du XVIIe siècle. On sait aujourd’hui que ce sont des phénomènes lumineux, se produisant entre 80 et 400 km d’altitude, causés par l’interaction de particules chargées en provenance de l’espace avec les couches externes de l’atmosphère. Elles sont facilement observables la nuit, principalement dans une zone correspondant à une latitude magnétique de 70 degrés (le pôle magnétique est situé actuellement au Nord du Canada et il dérive vers la Sibérie avec une vitesse d’environ 40 km par an). Cette région correspond au nord de la Scandinavie, de la Sibérie, au Canada et à l’Alaska. Ces aurores se produisent tout aussi fréquemment et de façon simultanée dans l’hémisphère sud (on les appelle alors aurores australes) et on les désigne sous le nom générique d’aurores polaires.

Aurore boréale observée au cours du mois de septembre 2005 au Lac du Flambeau dans le Wisconsin.

Quelle est la cause des aurores polaires ? Le Soleil émet continuellement des particules chargées (principalement des électrons et des protons) qui interagissent avec le champ magnétique terrestre et que l’on appelle le vent solaire. Le champ magnétique terrestre s’oppose au vent solaire comme une pile de pont dévie le courant d’une rivière ce qui crée une sorte de cavité autour de la Terre : la magnétosphère. Elle s’étend sur environ 60 000 kilomètres du coté du Soleil (côté jour) et sur plusieurs centaines de milliers de kilomètres du côté nuit (la queue). Une faible fraction des particules chargées formant le vent solaire peut néanmoins pénétrer dans la magnétosphère, où elles vont être capturées temporairement et former un plasma instable. L’énergie stockée peut soudainement être relâchée sous forme d’électrons accélérés qui pénètrent dans Plasma l’atmosphère terrestre.

page 32

Tant qu’ils sont à plus de 2000 km d’altitude, ces électrons ne rencontrent quasiment aucune autre particule, et leur trajectoire est déterminée

C’est un milieu constitué de particules neutres, d’ions et d’électrons. Bien qu’il soit globalement neutre, la présence de particules chargées donne naissance à des comportements inexistants dans les fluides, en présence par exemple d’un champ électromagnétique. Les plasmas ont donc à la fois les caractéristiques d’un fluide et d’un conducteur d’électricité.

ÉLÉMENTAÍRE


Les aurores boréales par les champs magnétiques et électriques présents sur leur trajet. Il ne se produit pas de phénomène lumineux visible à ces altitudes (mais il peut y avoir émission d’autres ondes électromagnétiques). Lorsque les électrons ne sont plus qu’à quelques centaines de kilomètres d’altitude, la pression atmosphérique est plus élevée et ils entrent en collision avec des atomes ou des molécules de l’atmosphère. L’énergie des électrons est alors de quelques keV. Ces collisions vont exciter les atomes qui, pour revenir à leur état initial, vont émettre des photons. Suivant le type d’atome ou de molécule (principalement de l’oxygène ou de l’azote) avec lequel les électrons entrent en collision la couleur de l’aurore boréale sera donc différente : rouge, bleu, vert, violet,...

Une aurore polaire photographiée depuis la navette spatiale.

Les aurores polaires ne sont finalement que la manifestation visible d’un phénomène plus général, le sous-orage magnétique. La Terre se trouve sur le trajet du flot de particules chargées émises par le Soleil : leur passage affecte l’ensemble du champ magnétique de l’enveloppe terrestre. Ces phénomènes complexes qui régissent le détail des aurores polaires sont toujours des sujets d’étude, en particulier grâce à des sondes spatiales ou des satellites.

Le sous-orage magnétique Les sous-orages magnétiques sont de brusques réorganisations du champ magnétique dans la queue de la magnétosphère. Le processus commence par l’accumulation d’une petite fraction des particules provenant du vent solaire (la majorité est repoussée par le champ magnétique terrestre). Cette phase dure généralement deux ou trois heures. Le plasma ainsi accumulé engendre des courants électriques, qui étirent de plus en plus le champ magnétique jusqu’à la rupture. C’est alors le déclenchement du sous-orage : une grande partie de l’énergie est libérée et est transmise aux particules qui sont accélérées. Ces dernières partent alors à grande vitesse vers la Terre et sont ainsi à l’origine des aurores polaires .

Des messagers de l’au-delà ? Les aurores boréales ont, de tout temps, frappé l’imaginaire des hommes qui les observaient. En Europe, ne sont visibles que celles de haute altitude qui sont plutôt rouges, car dues aux collisions d’électrons avec des atomes d’oxygène. Au cours des siècles elles étaient donc présages de désastre, car associées au sang et à la bataille.

ÉLÉMENTAÍRE

page 33

Pour les Inuits de la baie d’Hudson, le ciel est un dôme de matière à l’extérieur duquel séjournent dans la lumière les esprits des morts. Ce dôme est percé d’une multitude de petits trous à travers lesquels on peut voir cette lumière, la nuit ; ce sont les étoiles. La voie que les âmes empruntent est étroite et périlleuse… Les esprits des morts déjà arrivés allument donc des torches pour les guider : ce sont les aurores boréales.


Les neutrons à la neige Combien de litres d’eau dans une couche de neige ?

© EDF

Afin de gérer sa production d’électricité, EDF a besoin de connaître l’état des ressources naturelles qu’elle exploite, en particulier les réserves en eau des stations hydroélectriques. Comme ce sont les glaciers et les chutes de neige qui alimentent les lacs artificiels en amont des barrages, il est utile de suivre de façon continue et automatisée la quantité d’eau présente dans les massifs montagneux français (Alpes, Pyrénées, Massif Central, Jura et Vosges). Pour ce faire, EDF a installé sur une quarantaine de sites des appareils bien particuliers : il s’agit de compteurs de neutrons issus du rayonnement cosmique. Cette méthode a été mise au point en collaboration entre EDF, des physiciens du CNRS et Météo-France. Elle consiste à suivre l’épaisseur des glaciers et des manteaux neigeux en mesurant le nombre de neutrons Le Nivomètre à Rayonnement Cosmique venant du ciel, une première fois à une certaine distance au dessus du sol (NRC) (par un détecteur dit de référence), puis une deuxième sur le sol-même, recouvert de neige ou de glace (par un détecteur NRC). Par comparaison En plus du capteur de rayonnement posé sur le sol, un NRC comporte un module entre ces deux quantités, on déduit le nombre des neutrons qui ont été d’acquisition de données fonctionnant en absorbés. Plus il y a de neige ou de glace, plus de neutrons disparaissent du permanence, un système de communication fait de leur interaction avec l’eau. En comptant les neutrons qui traversent (GSM ou satellite), des panneaux solaires toute la couche, on peut alors connaître la quantité d’eau présente dans et des batteries pour un fonctionnement l’épaisseur du glacier ou du manteau neigeux. autonome. Tous les composants, excepté le Regardons le principe de cette mesure plus en détail. Les rayons cosmiques détecteur posé sur le sol, sont installés au sont majoritairement constitués de protons. En entrant dans l’atmosphère, sommet d’un mât afin d’être maintenus ils vont interagir avec les noyaux d’azote et d’oxygène de l’air pour créer hors neige. Des capteurs de pression des gerbes de particules. En arrivant au sol, on trouve dans ces gerbes atmosphérique et de température y sont aussi fixés. L’ensemble demande une quelques pourcents de neutrons. Que se passe-t-il quand ces derniers manutention minimale, de sorte qu’il est pénètrent dans le manteau neigeux ? Ceux qui ne sont pas absorbés rarement nécessaire d’accéder aux sites et ralentissent progressivement par le biais de collisions successives sur les l’impact sur l’environnement est quasiment molécules d’eau, jusqu’à atteindre des énergies inférieures à 1eV. De tels nul. neutrons se laissent alors capturer facilement par l’hélium (voir Élémentaire Pour en savoir plus : 2) qui remplit les détecteurs NRC posés sous la couche de neige. http://www.edf.fr/41216d/Accueilfr/Presse/ Le détecteur de référence n’est pas forcément au même emplacement que touslesdossiersdepresse/Mesuredelaneigeparles détecteurs au sol. Il est destiné à mesurer le flux des neutrons qui rayonnementcosmique dépend de l’activité solaire et des variations du rayonnement cosmique. Mais où va le monde ?? Suivant l’altitude à laquelle se trouve la station de mesure NRC Lu pour vous dans un grand quotidien du soir : mais aussi les dimensions de ses détecteurs, on peut obtenir « Ce sont désormais les neutrinos, les particules émises par le des taux de comptage suffisants pour mesurer la quantité soleil qui permettent de calculer cette teneur en eau. » d’eau présente au-dessus du compteur NRC à 5% près. Une Eh oui, vous avez bien lu ! Ce journal a confondu le neutron, ce fois que ce chiffre est connu à l’endroit de détection, on fait composant des noyaux atomiques auquel nous avons consacré place aux géographes : les caractéristiques du lieu (altitude, Élémentaire 2, et le neutrino, cette particule liée à l’interaction pente, végétation, etc...) leur permettent d’extrapoler cette faible, qui interagit très faiblement avec la matière et que nous décrivons dans la rubrique « Découverte » de ce numéro. mesure sur le site entier et d’évaluer ainsi les stocks en eau Difficile d’imaginer un détecteur fiable à l’aide des neutrinos disponibles sous forme de neige et de glace. page 34

capables de traverser le globe terrestre sans jamais interagir...

ÉLÉMENTAÍRE


Analyse La loi de Poisson En 1898, à Saint Petersbourg, l’économiste et mathématicien Ladislas von Bortkiewicz, publie un livre « La Loi des Petits Nombres » dans lequel il étudie, entre autres, le nombre de soldats tués par des ruades de cheval dans l’armée prussienne. Un sujet plutôt confidentiel ! Pourtant, ce livre passera à la postérité comme un exemple de la loi de probabilités énoncée par Siméon Denis Poisson dans un ouvrage publié à Paris en 1837 et intitulé « Recherches sur la probabilité des jugements en matière criminelle et en matière civile précédées des règles générales du calcul des probabilités ». Là encore, un sujet de recherche guère usuel en mathématiques...

La « loi des petits nombres » La loi de probabilité de Poisson s’applique à une multitude d’événements aléatoires : cavaliers prussiens malchanceux ou maladroits, désintégrations radioactives, connexions téléphoniques, voitures circulant sur le périphérique parisien ou encore utilisateurs d’Internet... La simple énumération de ces quelques exemples suffit à montrer la variété des circonstances où l’on peut faire appel à la loi de Poisson. En fait, ces événements ont quand même quelque chose en commun : ils satisfont à quelques conditions qui suffisent à les caractériser comme « poissonien ». ● Ils sont rares pris individuellement. La probabilité qu’un cavalier prussien soit blessé par son cheval dans une journée est très faible. De même, sur une courte durée, on a peu de chance d’observer la désintégration d’un atome donné dans un échantillon radioactif.

Pour les matheux… Pour comprendre la structure mathématique de la loi de Poisson, commençons par donner la loi binomiale dont elle est une limite particulière. Imaginons que l’on effectue un certain tirage avec une probabilité ρ de « succès » et, par conséquent la probabilité (1-ρ) d’« échec ». Par exemple, s’il s’agit de jouer à pile ou face avec une pièce non truquée, on a ρ = 0,5. Si l’on effectue K tirages, la probabilité d’obtenir N succès est : K! P(N) = ρN (1-ρ)K-N N!(K-N)! où N! désigne la factorielle de N, c’est-à-dire le produit de tous les entiers de 1 jusqu’à N. Cette formule s’appelle loi binomiale Si on passe à la limite d’un nombre élevé d’épreuves indépendantes (K→∞) pour étudier des évènements rares (ρ→0), tout en gardant fixé le nombre moyen d’évènements attendus N0= Kρ, on obtient après de petits calculs : -N P(N) = (N0)N e 0 N! C’est l’expression mathématique de la loi de Poisson, de paramètre N0.

● Ils concernent un nombre d’individus potentiellement très élevé. L’armée prussienne est la plus importante d’Europe dans la seconde moitié du XIXe siècle (Napoléon III en fit l’amère expérience en 1870 !). Le nombre de noyaux radioactifs contenus dans un échantillon est très élevé. ● Ils sont indépendants les uns par rapport aux autres dans leur succession. Régulièrement, des cavaliers prussiens étaient blessés par leurs chevaux, sans qu’aucun accident particulier ne dépendît des précédents. La prochaine désintégration d’un noyau d’un échantillon ne dépend en aucune manière de la chronologie des précédentes désintégrations d’autres noyaux (voir Élémentaire 1).

Loi de Poisson P(N) en fonction du résultat N pour différentes valeurs du nombre moyen d’évènements attendus N0. Dans chaque cas, le maximum correspond bien à la valeur N0. Les lignes sont tracées pour simplifier la lecture, mais la distribution n’est définie que pour des valeurs entières de N.

ÉLÉMENTAÍRE

page 35

Ces événements sont bien aléatoires : on ne sait jamais à l’avance le nombre exact de fois où ils vont se produire pendant la durée d’une observation particulière. Cependant, si les conditions précédentes sont


La loi de Poisson satisfaites, la loi de Poisson permet de calculer la probabilité P(N) que N événements aient lieu, qu’il s’agisse de cavaliers blessés ou d’atomes se désintégrant. Bien que les contextes dans lesquels ces questions se posent soient très différents, la probabilité de ces évènements est donnée par une formule unique qui ne dépend que d’un seul paramètre : N0, le nombre moyen d’événements attendus lors de la période étudiée.

Loi de Poisson et désintégration d’atomes radioactifs

τ/10

Figure 1 : Simulation de la distribution du nombre N d’atomes désintégrés au bout d’un temps égal au 1/10ème de la durée de vie de l’élément radioactif (Δt/τ = 0,1). On part de K=100 atomes à l’instant initial et « l’expérience » est simulée 1000 fois. Les points rouges montrent le résultat des simulations (avec les barres d’erreurs correspondantes) tandis que la courbe bleue représente la distribution de Poisson de paramètre 100 × (1 – e-0.1) = 9,52. L’ accord entre la prédiction et le résultat expérimental est bon.

Pour illustrer la loi de Poisson, prenons un échantillon de K atomes radioactifs et observons-le pendant une durée Δt. Pendant ce laps de temps, chaque atome a une probabilité ρ de se désintégrer. Comme nous l’avons vu dans le premier numéro d’Élémentaire, celle-ci vaut : ρ = 1 – exp(- Δt / τ), où τ est la durée de vie de l’élément radioactif. Le nombre moyen de désintégrations attendu est donc : N0 = K × ρ. Nous pouvons facilement écrire un programme informatique qui simule l’évolution de ces K atomes. Au bout de la durée Δt, on détermine le nombre N de désintégrations. On peut répéter ensuite cette simulation un grand nombre de fois (ici, 1000 au total), en utilisant les mêmes paramètres : ● un échantillon initial de K = 100 atomes ; ● une durée d’observation Δt telle que Δt / τ = 1 / 10.

Erreur associée Les erreurs associées à l’histogramme rouge sont de nature statistique. En effet, le graphe de la véritable distribution de probabilités ne peut être déterminé en principe qu’en procédant à un nombre infini de simulations. Dans la réalité, on ne peut faire qu’un nombre fini d’essais (ici « à peine » 1000) de sorte que certains résultats seront (dé)favorisés par rapport à la loi de probabilité exacte. C’est pour tenir compte de cet écart que l’on place des barres d’erreurs sur les mesures : elles diminuent comme la racine carré du nombre d’événements, et elles indiquent si la courbe théorique est en bon accord avec les points simulés.

Une fois les résultats des 1000 simulations obtenus, nous pouvons tracer le graphique ci-contre (figure 1). L’axe des abscisses indique le nombre N de désintégrations observées tandis que l’axe des ordonnées comptabilise le nombre de simulations (parmi les 1000 effectuées) où N désintégrations ont effectivement eu lieu. Deux courbes, ou plutôt deux « histogrammes », sont représentés : les traits continus bleus indiquent les prévisions de la loi de Poisson tandis que les points rouges (avec les barres verticales indiquant l’erreur associée) montrent les résultats des simulations informatiques. La comparaison entre la distribution de probabilité de Poisson (courbe bleue) et les simulations (points rouges) montre un bon accord entre prédiction et résultats. En particulier, sur l’ensemble des simulations, 9,47 atomes se sont désintégrés en moyenne. Cette valeur est très proche de celle obtenue par un calcul direct : N0 = K × ρ = 100 × (1 – e-0,1) = 9,52

page 36

Ceci s’explique par le fait que le rapport Δt/τ est faible : pris individuellement, les événements, c’est-à-dire les désintégrations d’atomes radioactifs, sont rares.

ÉLÉMENTAÍRE


La loi de Poisson Pour voir l’importance de cette propriété, supposons maintenant que Δt / τ = 0,5. L’histogramme simulé (figure 2) est cette fois-ci complètement différent de la courbe correspondant à la loi de Poisson. Les valeurs extrêmes (moins de 30 désintégrations ou plus de 50) sont sous-représentées, tandis qu’il y a un excès d’événements dans la région N = 40-45. Ce second problème n’est donc pas « poissonien » et ce simplement parce que la probabilité de l’événement (désintégration d’un atome) est trop importante. En moyenne, sur l’échantillon de 100 atomes, on s’attend à voir N0 = K × ρ = 100 × (1 – e-0.5) = 39,3 désintégrations. Difficile de parler alors d’événement rare !

Figure 2 : Même protocole de simulation que pour la figure 1, mais cette fois-ci avec Δt/τ = 0.5. Les deux courbes sont en désaccord manifeste : le rapport Δt / τ, est trop grand pour que la variable N suive une loi de Poisson.

Beaucoup de bruit pour… quelque chose ? La loi de Poisson tient une place importante en physique subatomique, car on a souvent besoin d’isoler quelques événements très rares au milieu d’une grande masse de données. Par exemple, les expériences menées au LEP pour rechercher le boson de Higgs ont consisté, en dernière instance, à rechercher parmi un grand nombre de collisions électron-positron des événements très rares témoignant de l’existence de ce boson. Parmi tous les événements enregistrés, il faut donc en sélectionner une faible fraction associée au phénomène physique étudié. Mais parmi ces événements rares, il faut encore extraire ceux qui constituent un « signal » L’aiguille dans la botte de foin

En physique des particules, on doit souvent extraire d’une grande quantité de données les quelques évènements qui nous intéressent. Mais comment faire cela de la manière la plus efficace possible ? On commence par simuler par informatique l’expérience pour générer des événements « signal » et « bruit de fond », que l’on soumet ensuite à un modèle du détecteur. On peut alors tester l’effet de coupures variées sur les données générées. Le nombre d’événements « signal » S et le nombre d’événements « bruit de fond » B correspondant à un choix particulier des critères de sélection sont des variables aléatoires qui suivent une loi de Poisson – elles en satisfont tous les critères ! Pour retirer le maximum d’information de l’analyse, il faut que le nombre d’impacts « signal » soit significatif, c’est-à-dire qu’il n’apparaisse pas comme une simple fluctuation aléatoire de la quantité d’événements sélectionnés. On utilise deux propriétés de la loi poissonnienne : 1) Si S et B sont deux variables poissoniennes, leur somme l’est également et le paramètre de la loi résultante est donné par la somme des paramètres des deux lois « parentes ». Si une expérience de recherche de signaux rares donne en moyenne 2 événements « signal » et 3 impacts « bruit de fond », on aura en moyenne 5 impacts satisfaisant les critères de sélection. 2) Les fluctuations d’une loi poissonienne de paramètre N0 sont de l’ordre de √N0. Le résultat d’une expérience n’est en général pas égal à la valeur moyenne de la loi de probabilité qui lui est associée. Si on reproduit l’expérience un grand nombre de fois, les résultats sont distribués autour de la moyenne et leur dispersion est quantifiée par un paramètre, appelé l’écart-type. Pour la loi de Poisson, la moyenne et l’écart-type sont reliés de manière remarquable : écart-type = √moyenne.

ÉLÉMENTAÍRE

page 37

Nous pouvons déduire de ces deux propriétés une affirmation très utile pour l’optimisation des coupures. En effet, si la zone délimitée par une certaine coupure contient S0 impacts « signal » et B0 impacts « bruit de fond » en moyenne, alors les fluctuations du nombre total d’impacts sélectionnés sont de l’ordre de √(S0+B0). L’optimisation des coupures revient donc à maximiser le rapport du nombre d’impacts « signal » S0 divisé par les fluctuations du nombre de données sélectionnées √(S0+B0). On peut ensuite appliquer aux véritables données issues du détecteur les coupures ainsi optimisées, en ayant exploité au mieux l’information disponible.


La loi de Poisson physique pertinent, tout en rejetant ceux qui relèvent du « bruit de fond », qui ont une ressemblance fortuite avec les évènements de signal en dépit de leur origine physique, complètement différente. Des critères de sélection appliqués à chaque événement permettent de faire la différence entre signal et bruit : on parle de « coupures ». Reste à trouver les meilleurs critères pour effectuer cette séparation... et trouver l’aiguille dans la botte de foin.

DR

Une fois les coupures appliquées et les données extraites, reste à analyser les résultats. Supposons que N = 5 impacts enregistrés par le détecteur aient passé les coupures optimisées alors que les simulations prédisent une contribution du bruit de fond de B0 = 0,5 événements en moyenne. On a donc un excès d’événements (4,5) par rapport au scénario « il n’y a pas de signal ». Doit-on pour autant conclure que le signal espéré a bien été observé ? Ou s’agit-il simplement d’une situation (peu probable) où le bruit de fond s’est révélé nettement plus abondant que la moyenne ? Le calcul apporte une réponse quantitative à cette question essentielle en sciences ! Pour la variable poissonienne de moyenne 0,5 on montre que la probabilité qu’elle atteigne une valeur au moins égale à 5 vaut P(N≥5; B0=0,5) = 1,7 × 10-4. Il y a donc à peu près 1 chance sur 6000 que le résultat soit dû à une fluctuation du bruit de fond. C’est peu, mais c’est encore trop pour annoncer une découverte.

Siméon Denis Poisson (1781-1840) Alors que son oncle le destinait à une carrière médicale qui ne le tentait guère et pour laquelle il n’était manifestement pas fait – apprenti chirurgien, les patients qu’il opérait décédaient en général dans les heures qui suivaient son intervention ! – il entre premier à l’École Polytechnique (tout juste créée par la Révolution) en 1798. Excellent élève, il est remarqué par ses professeurs. Dès la fin de sa scolarité, il est nommé répétiteur dans cette même école, puis professeur suppléant (1802) et enfin professeur (1806). Comme Gauss et d’autres savants contemporains, Poisson s’intéresse à de nombreux domaines et est extrêmement prolifique. Il publie près de quatre cents articles – un total colossal pour l’époque – abordant tant les mathématiques (séries de Fourier) que leurs applications à la physique (mouvement d’un pendule pesant, mécanique céleste, ou encore électrostatique). En 1837-1838, il écrit un traité intitulé « Recherche sur la probabilité des jugements en matière criminelle et matière civile » dans le but d’analyser les verdicts des jurys populaires, la manière dont les décisions de justice sont rendues et leur fiabilité. Dans cet ouvrage, Poisson introduit la distribution de probabilité qui portera son nom pour la postérité. Ironie de l’histoire, ce texte passa inaperçu lors de sa publication.

En effet, comme nous l’avions évoqué dans l’article sur la loi gaussienne (Élémentaire 2), il faut, par convention, descendre à une probabilité de 6 chances sur 10 000 000 avant d’affirmer qu’un signal a bel et bien été observé. De plus, la valeur du paramètre de la distribution du bruit de fond n’est jamais connue exactement à cause des erreurs dues aux appareillages. Supposons que nous nous soyons légèrement trompés et que cette moyenne soit en fait égale à B0=0,8 au lieu de 0,5 : on aurait alors P(N≥5; B0=0,8) = 1,4 × 10-3. L’hypothèse « on a uniquement du bruit de fond » serait alors 8 fois plus probable que dans le cas précédent ! Afin de ne pas prendre n’importe quelle vessie « de bruit » pour une lanterne « de signal », il faut donc prendre en compte les variations du paramètre B0 de bruit de fond. Soit on calcule la probabilité « on n’a pas de signal » dans le cas le plus défavorable (B0 maximal), soit on indique comment cette probabilité évolue lorsque B0 varie de manière raisonnable.

page 38

La loi de Poisson se révèle donc un outil particulièrement utile dans l’analyse des résultats expérimentaux en physique subatomique. Mais il n’est pas certain que tous les physiciens iraient pour autant jusqu’à accepter les propos de Poisson lui-même, rapportés par François Arago : « La vie n’est bonne qu’à deux choses : découvrir les mathématiques et enseigner les mathématiques.»

ÉLÉMENTAÍRE


Accélérateur Du cyclotron au synchrotron Les enfants de Lawrence 1

Le synchrocyclotron de 184 pouces (environ 5m) de diamètre de Berkeley. On remarquera l’importance de la bobine (1) créant le champ magnétique ainsi que de la culasse de fer (2) assurant le « retour » du flux magnétique. La distance entre les pièces polaires est également très grande (un peu plus de 1,6m). Des membres de l’équipe ont pris la place des « D ». La forme tronconique des pièces polaires de l’aimant est soigneusement étudiée afin que les lignes du champ magnétique maintiennent les particules dans le plan horizontal. On notera, sur cette photo, que la parité homme femme n’était pas encore d’actualité.

Des cyclotrons aux synchrocyclotrons Dans les cyclotrons (voir Élémentaire 2) deux électrodes creuses en forme de « D », appelées pour cela « dees» (prononcer à l’anglaise « diiiises »), sont mises face à face. Entre elles on applique un champ électrique oscillant qui est toujours accélérateur pour le faisceau de particules qui le traverse. Un vide poussé règne dans les électrodes et l’ensemble est placé dans un champ magnétique, perpendiculaire au plan des « D ». Dans ces premières machines circulaires l’accélération se faisait presque « automatiquement », à chaque passage entre les « D », sans que l’on ait à tenir compte de la vitesse de la particule. En effet, le rayon de sa trajectoire étant proportionnel à sa vitesse, la particule met toujours le même temps pour faire un demi-tour ce qui permet de synchroniser son passage avec la fréquence du champ électrique accélérateur. En fait, ce mode de fonctionnement ne Cible permet pas de dépasser des énergies supérieures à quelques dizaines de MeV pour des protons. À ces vitesses, les effets de la relativité deviennent notables. Il en résulte que la ronde des particules ne présente plus la même régularité. Les particules sont en retard par rapport au champ oscillant et ratent littéralement Générateur de la vague qui permettrait de les accélérer au bon tension alternatif moment.

Aimant dipôlaire en force de "D"

Région de champ magnétique uniforme

Champ électrique oscillant : toujours accélérateur quelle que soit la direction de passage des particules

B

page 39

Schéma du cyclotron. Le champ magnétique est orienté selon une direction perpendiculaire au plan du dessin.

©B. Mazoyer

A

Ce problème de simultanéité entre le temps d’arrivée de la particule et celui définissant la direction et l’intensité Source d'ions du champ accélérateur est en fait plus général. Quelle que soit la source utilisée, les particules élémentaires sont produites au centre du cyclotron avec des vitesses variées. Ainsi, elles n’arrivent pas toutes en même temps dans la zone où règne le

ÉLÉMENTAÍRE

2

©Berkeley Lab.

L’invention du cyclotron par E.O. Lawrence en 1929 (voir Élémentaire 2) a ouvert la voie à de nombreuses découvertes en physique nucléaire dans les décennies qui ont suivi. Son équipe, basée à Berkeley (Californie), a joué un rôle majeur dans la mise au point d’accélérateurs circulaires toujours plus puissants, basés sur le même principe. Cette course effrénée – toujours plus haut en énergie, toujours plus profond dans la compréhension de la structure de la matière – s’est accompagnée de nombreuses avancées dans les techniques d’accélération qui ont permis de résoudre les problèmes nouveaux rencontrés chaque fois qu’une machine était mise en service. Nous allons décrire quelques-uns de ces développements, parmi les plus marquants et les plus décisifs.


champ électrique et ne rencontrent donc pas les mêmes conditions d’accélération puisque l’intensité du champ oscille avec le temps. En 1945, E. Mac Millan à Berkeley, ainsi que V. Veksler en Union soviétique, et également M.L.E. Oliphant en Angleterre, inventent, indépendamment, le concept de « stabilisation de phase » qui permet d’ordonner au mieux le faisceau en tirant partie de cette situation initiale pour le moins… désorganisée ! On s’arrange pour que le champ (et donc l’accélération associée) ne soit pas maximal mais soit dans sa partie croissante lorsque les particules dont la vitesse est proche de la vitesse moyenne du faisceau le traversent. Ainsi, les particules « lentes », arrivant un peu plus tard, sont soumises à un champ plus intense et sont donc plus accélérées que celles, plus rapides, qui les ont précédées. Configuration des Ce phénomène homogénéise peu à lignes de champ mapeu la distribution des vitesses du gnétiques dans les faisceau et regroupe les particules par premiers cyclotons. Une « paquets » aux propriétés (énergie, particule qui s’écarte trajectoire, etc.) bien définies. Au bout du plan horizontal, y est automatiquement de quelques passages, les particules ramenée (voir la direction sont « domptées » et il devient alors des forces (F) auxquelles possible d’ajuster la fréquence du elle est soumise). champ oscillant afin d’accompagner l’effet relativiste et d’atteindre progressivement des énergies plus élevées. Le premier synchrocyclotron a été construit à l’université de Californie (Berkeley) en 1946. Il s’agissait de la modification du cyclotron de 184 pouces de diamètre (soit environ 5m) conçu par E.O. Lawrence et son équipe avant la seconde guerre mondiale. D’autres machines de ce type ont été construites en URSS (Dubna) et au CERN. L’énergie communiquée à des protons était de 600-700 MeV ce qui est suffisant pour produire et étudier les pions et les muons (voir « Histoire »). Le synchrocyclotron a été le premier accélérateur du CERN. Il a démarré en 1957 et n’a été fermé qu’en 1990. Dans les synchrocyclotrons modernes, comme celui de Zurich, une configuration complexe du champ magnétique permet d’obtenir des trajectoires isochrones (le temps mis pour les parcourir est le même) et de fonctionner à fréquence constante. Ces machines délivrent des intensités plus élevées que les précédentes car elles assurent la circulation de particules à plusieurs énergies différentes au lieu d’une seule.

particule plus lente

temps

Particule ayant l'énergie moyenne

Illustration du principe de stabilisation de phase.

Le synchrocyclotron du CERN.

© CERN

Le synchrocyclotron de Dubna .

Le synchrocyclotron du PSI à Zurich (Suisse). Les aimants correspondent aux pièces en couleur. Les quatre structures grises servent à créer le champ accélérateur.

© Paul Scherrer Institute

particule plus rapide

page 40

E (champ électrique)

Du cyclotron au synchrotron

ÉLÉMENTAÍRE


Du cyclotron au synchrotron Une des limitations du synchrocyclotron vient de la quantité de fer nécessaire pour construire l’aimant qui génère le champ magnétique dans tout le volume de l’accélérateur. On eut alors l’idée de créer des accélérateurs qui en exploitent uniquement la partie « utile », c’est-à-dire lorsque les particules ont atteint leur énergie finale. Dans un synchrotron, le trajet des particules n’est plus une spirale partant du centre de la machine, mais un cercle de rayon fixe. Le champ magnétique est créé par des aimants ayant une section en forme de « C » disposés uniquement le long de la circonférence de l’accélérateur. Afin de maintenir les particules dans l’anneau, l’intensité du champ magnétique croît à mesure que l’énergie des particules augmente. Comme ce dispositif ne peut accélérer que des particules possédant une énergie minimale, il faut commencer par utiliser un injecteur, constitué par un accélérateur linéaire fonctionnant à basse énergie. Le premier synchrotron, appelé le Cosmotron, est entré en fonctionnement à Brookhaven (état de New-York) en 1952 et accélérait des protons jusqu’à 3 GeV. Le Bevatron de Berkeley a démarré en 1954 et accélérait des protons à 6,2 GeV. On y a notamment découvert l’antiproton en 1955 (l’énergie de la machine avait été choisie dans ce but).

©Berkeley Lab.

Les premiers synchrotrons

Le Cosmotron de Brookhaven a démarré en 1952. Son nom rappelait que cette machine était conçue pour remplacer les rayons cosmiques comme source de particules.

La focalisation forte

ÉLÉMENTAÍRE

3

1 2

page 41

Le Bevatron de Berkeley. Sur la droite on voit le pré-injecteur (1) et l’accélérateur linéaire injecteur (2) qui amènent respectivement les protons à des énergies de 0,5 et de 10 MeV, avant de les introduire dans l’anneau (3). Le Bevatron tire son nom de « BeV » qui est un synonyme inusité de « GeV » (billion = giga).

Le synchrotron de Birmingham (Angleterre).

©Berkeley Lab.

Alors que les premiers synchrotrons entraient en fonctionnement, les physiciens savaient que pour atteindre des énergies dix fois plus hautes il leur faudrait cent fois plus d’acier soit 200 000 tonnes en prenant le Cosmotron comme référence. À titre de comparaison, la tour Eiffel ne pèse « que » 10 000 tonnes. Une découverte allait permettre de surmonter cette difficulté. À Brookhaven, Ernest Courant, Stanley Livingstone et Hartland Snyder inventent, en 1952, le gradient alterné ou principe de focalisation forte, bien que la paternité de cette idée semble devoir être attribuée à Nicholas Christofilos qui déposa un brevet en 1950. Dans les machines précédentes, le faisceau de particules est maintenu dans le plan horizontal grâce à la configuration du champ magnétique. Ce dernier n’est pas rigoureusement vertical pour ramener vers le plan horizontal les particules qui s’en écartent. Dans les synchrotrons cette fonction est assurée par la région au voisinage des ouvertures des aimants en « C », qui sont toutes dirigées vers l’extérieur de l’anneau.


Du cyclotron au synchrotron vers le centre de la machine

Docteur Livingstone, I presume ?...

Milton Stanley Livingstone, un des inventeurs du principe de focalisation forte.

Aimants en C à gradients alternés. Les particules circulent dans la chambre à vide dont la section est indiqué par l’ellipse jaune. À gauche le champ vertical, courbant les trajectoires des particules du faisceau, est moins intense lorsqu’on s’éloigne du centre de la machine alors que c’est l’inverse à droite. L’alternance de ces deux types d’aimants, tout autour de l’accélérateur, permet de focaliser fortement le faisceau dans la direction radiale.

Par contre, le rayon de la trajectoire n’est pas très contrôlé, les particules peuvent « tanguer » et balayer une large couronne dans le plan horizontal. La chambre à vide dans lesquelles elles circulent doit donc être volumineuse (20 x 60 cm de section pour le cosmotron). En alternant la forme des ouvertures des aimants, les physiciens de Brookhaven obtiennent la stabilité du mouvement, également dans le plan horizontal. En effet, en combinant des systèmes qui focalisent et défocalisent on peut obtenir un effet résultant focalisant. Le principe fut vérifié à Cornell (USA) en 1954 avec un accélérateur à électrons de 1,3 GeV. Dans les machines modernes, les aimants assurant la courbure des trajectoires et leur stabilisation sont distincts. Les premiers sont appelés dipôles, les seconds quadripôles. Un quadripôle est, par construction, focalisant dans une direction et défocalisant dans l’autre ; cependant l’utilisation de doublets de quadripôles permet, selon le principe précédent, d’obtenir une focalisation dans les deux directions perpendiculaires à la direction du faisceau. Grâce à la focalisation forte on put ainsi réduire la taille de la chambre à vide où circule le faisceau, ainsi que celle des aimants. Des machines fonctionnant à des énergies plus hautes purent alors voir le jour. Ce furent, en 1959, le proton synchrotron (PS) du CERN opérant à 25 GeV, puis, l’année suivante l’AGS de 33 GeV, à Brookhaven. De telles machines ne nécessitaient que deux fois plus d’acier que celles de 3 GeV et leur chambre à vide n’avait que quelques centimètres lentille équivalente de rayon. d

L’AGS de Brookhaven (Alternating Gradient Synchrotron).

page 42

Le PS (Proton Synchrotron) du CERN. On distingue, au premier plan en jaune, un aimant quadripole assurant la focalisation forte des faisceaux. Les aimants situés en arrière sont des dipôles fournissant un champ magnétique vertical courbant les trajectoires afin qu’elles restent dans la chambre à vide située au centre des aimants.

Combinaison d’une lentille convergente et d’une lentille divergente, de même distance focale, donnant un effet global convergent.

f

exemple d = f/2

lentille convergente

lentille divergente

ÉLÉMENTAÍRE


Découvertes Oscillation des neutrinos Après l’âge d’or des années 30 et 40, que nous vous contons dans la rubrique « Histoire », les rayons cosmiques semblaient être retombés dans l’oubli... Mais dans les années 90, les physiciens s’aperçurent que ces sources abondantes de particules exotiques pouvaient nous apprendre beaucoup sur des spécimens bien curieux du bestiaire des particules : les neutrinos.

© J. Serreau

Le neutrino est né en 1930 sous la plume de Wolfgang Pauli. On étudie à l’époque la radioactivité bêta moins, qui pose bien des soucis : elle ne semble pas conserver l’énergie ! En effet, lors de la désintégration bêta d’un neutron en un proton et un électron, l’énergie de ce dernier est toujours plus faible que la valeur attendue. Pour remédier à ce problème, Pauli propose un expédient qui ne le satisfait guère : il postule l’existence d’une particule supplémentaire, qui serait produite en même temps que l’électron au cours de la désintégration bêta, et qui emporterait l’énergie manquante. La conservation de l’énergie est ainsi strictement vérifiée... au prix de l’apparition d’une nouvelle particule, neutre, très légère, qui interagit très peu avec la matière puisqu’elle peut traverser les détecteurs sans être vue.

Enrico Fermi (1901-1954) Physicien italien, prix Nobel de Physique en 1938 pour ses travaux sur la radioactivité artificielle. En 1974, le National Accelerator Laboratory, près de Chicago (ÉtatsUnis), a été rebaptisé Fermilab en son honneur.

Trois saveurs pour un fantôme

e-

Mais le zoo des particules est plus riche que ne le pensaient les physiciens à l’époque de Pauli et Fermi : l’électron possède deux « cousins », le muon (voir « Histoire ») et le tau. Ces deux particules s’avèrent être des copies conformes de l’électron, à une petite différence près... ils sont bien plus

νe

d

Radioactivité β La radioactivité β- affecte certains noyaux atomiques en modifiant leur composition en protons et en neutrons. Au cours du processus, un neutron se transforme en proton, tout en émettant un électron... et un anti-neutrino. Puisqu’elle modifie la composition en proton du noyau, la radioactivité bêta transmute un élément chimique en un autre. page 43

n

u

u

d

u

temps

p

©B. Mazoyer

W

d

-

ÉLÉMENTAÍRE

Wolfgang Pauli (1900-1958) Physicien autrichien, prix Nobel en 1945 pour la découverte d’un principe fondamental de la mécanique quantique appelé le « principe d’exclusion » .

DR

Enrico Fermi reprend l’idée de Pauli pour concevoir une première théorie de la radioactivité bêta, due à une nouvelle interaction, la force nucléaire faible, où interviennent simultanément l’électron et la particule de Pauli. Au passage, il baptise cette dernière du nom de « neutrino » ou petit neutre... en opposition plaisante au neutron, qui signifie gros neutre en italien («neutrone»). Mais il n’est guère évident de confirmer l’intuition de Pauli, car la particule fantôme traverse la matière... et donc les détecteurs avec une aisance déconcertante. Il faudra attendre 1956 pour que Frederik Reines et Clyde Cowan détectent des neutrinos pour la première fois.

DR

Les neutrinos, passe-murailles de la physique


Oscillation des neutrinos γ γ

anti-neutrino γ

Reines et Cowan furent les premiers à voir le neutrino électronique (plus exactement son antiparticule, l’antineutrino électronique) en 1956. Situé non loin d’une centrale nucléaire qui produisait de grandes quantités d’anti-neutrinos, leur détecteur était composé de 400 litres d’un mélange d’eau et de chlorure de cadmium. L’anti-neutrino était capturé par un proton d’une molécule d’eau pour donner un positron et un neutron (selon une réaction inverse de la désintégration bêta), voir schéma ci-contre. Le positron s’annihile avec un électron du milieu, tandis que le neutron est capturé par un noyau de cadmium qui se désexcite ensuite. Dans les deux cas, il y a émission de photons (γ) enregistrés par le détecteur.

(additionnée de cadmuim) γ

lourds : 200 fois pour le muon, et 3500 fois pour le tau ! Pour distinguer ces particules qui ont un comportement analogue vis-à-vis des interactions faible et électromagnétique, mais qui ont des masses très différentes, on parle de «saveurs» : électronique, muonique et tauonique. Si la force nucléaire faible couple électron et neutrino, et si le premier possède des cousins comme le muon et le tau, le neutrino aurait-il lui aussi plusieurs saveurs ? Eh bien, oui ! On découvre en 1962 le neutrino-mu correspondant au muon, et seulement en 2000, le neutrino-tau associé... au tau bien sûr ! Des saveurs différentes du désormais familier neutrino-e (électronique) qui est la particule de Pauli et Fermi, liée à la radioactivité bêta ! Ces trois neutrinos satisfont aux exigences de Pauli : neutres, très légers, et qui interagissent très peu avec la matière, car toujours par le biais de l’interaction faible, en association avec le lepton chargé de la même famille. Détecteur de Reines et Cowan.

page 44

Lepton Dans le cadre du Modèle Standard de la physique des particules, la matière est constituée de deux types de particules élémentaires, à savoir les quarks et les leptons, qui interagissent selon différentes interactions (forte, faible, électromagnétique). On distingue les leptons selon leur charge électrique : ● leptons chargés : électron, muon et tau ● leptons neutres : neutrinos électronique, muonique et tauonique. Mel Schwartz devant le détecteur de Brookhaven qui permit de démontrer l’existence du neutrino-mu en 1962. En 1988, M. Schwartz recevra en compagnie de Leon Lederman et Jack Steinberger le prix Nobel de physique pour cette découverte.

ÉLÉMENTAÍRE


Oscillation des neutrinos La douche cosmiques

à

neutrinos

des

rayons

Deux fois plus de νμ que de νe La désintégration des pions neutres dans l’atmosphère produit seulement des photons et des électrons. En revanche, celle des pions chargés produit des neutrinos par deux étapes successives : ● le pion se désintègre en muon et neutrino : _ π– → μ– + νμ ● le muon se désintègre en électron et neutrinos : _ μ– → e– + νμ + νe de sorte que la saveur muonique est, en moyenne, deux fois plus représentée que la saveur électronique parmi les neutrinos atmosphériques.

Il existe bien d’autres sources de neutrinos. Du fait des réactions nucléaires qui se produisent en son coeur, le Soleil émet beaucoup de neutrinos-e dont l’énergie est beaucoup plus faible (moins de 0,01 GeV). Ces neutrinos, dit solaires, ont une énergie très différente de celle des neutrinos atmosphériques, de sorte qu’il n’y a aucune confusion possible lors de leur détection. Des neutrinos sont aussi émis par certains noyaux radioactifs (de manière naturelle ou dans les centrales nucléaires), ou lors de l’explosion de supernovae, et d’autres encore sont les reliques de l’explosion originelle du Big-Bang. Mais ces neutrinos ont des énergies qui les différencient, là encore, des neutrinos atmosphériques.

Stabilité du proton Vers la fin des années 70, des modèles théoriques suggéraient que le proton pouvait être instable, avec une durée de vie de l’ordre de 1032 années : dix mille milliards de milliards de fois celle de l’Univers... Comment vérifier une telle affirmation ? Il faut remarquer que cette durée de vie est une valeur moyenne, certains protons pouvant se désintégrer plus vite, d’autres plus lentement. Afin d’étudier la stabilité du proton, il « suffisait » donc de surveiller en permanence une masse de matière correspondant à 1032 protons, soit environ 1000 tonnes... et de savoir identifier la désintégration d’un proton parmi de nombreux phénomènes aux caractéristiques similaires (radioactivité naturelle, rayons cosmiques...). Aucune des expériences menées ne parvint à identifier une telle désintégration.

Comment un bruit de fond devient une mine de résultats Kamioka, 200 kilomètres au nord de Tokyo. Cette ville abrite le plus grand détecteur de neutrinos du monde, fruit de la collaboration américanojaponaise : SuperKamiokaNDE. Il est situé dans une ancienne mine d’étain, à environ 1000 m sous la montagne. En réalité le but de l’expérience KamiokaNDE (Kamioka Nucleon Decay Experiment), dont la construction a démarré en 1982, n’était pas l’étude des neutrinos mais celle de la stabilité du proton.

Photomultiplicateur Dispositif qui transforme un signal lumineux en un signal électrique mesurable (voir Élémentaire 1).

Pourquoi une mine ? Plusieurs détecteurs furent construits dans ce but protégés des rayons cosmiques par une épaisse masse rocheuse (tunnels ou mines). Certains de ces appareils, comme KamiokaNDE, étaient constitués d’un grand volume d’eau surveillé par des photomultiplicateurs placés sur les parois du détecteur. Les signaux enregistrés par ces expériences

ÉLÉMENTAÍRE

page 45

©B. Mazoyer

Lorsque des rayons cosmiques très énergétiques heurtent l’atmosphère, ils provoquent des gerbes de particules comprenant un grand nombre de pions (voir « Histoire ») qui se désintègrent par le biais de l’interaction faible, en produisant deux fois plus de neutrinosmu que de neutrinos-e. Ces neutrinos, dits atmosphériques, ont des énergies allant de 1 à 1000 GeV.


Oscillation des neutrinos provenaient principalement de particules créées par des neutrinos : ceux-ci interagissaient au sein ou au voisinage du détecteur pour créer, suivant leur saveur, un électron, un muon ou encore un tau. Les neutrinos peuvent aussi créer des gerbes de particules, s’ils ont suffisamment d’énergie. Ironie du sort, ces signaux, considérés comme un bruit parasite à éliminer quand on cherchait la désintégration du proton, devinrent le centre d’intérêt de nombreuses expériences sur les neutrinos !

© KamiokaNDE

Disparus sans laisser de trace !

Le détecteur Super-KamiokaNDE, lors de l’installation des photomultiplicateurs. En fonctionnement normal la cuve est entièrement remplie d’eau ultra-pure. L’ eau ultra-pure Ce milieu joue deux rôles : les neutrinos interagissent avec lui pour produire des particules, et ces dernières émettent de la lumière par effet Cerenkov. En détectant cette lumière avec des capteurs placés sur les parois, on mesure la direction et l’énergie des particules produites. Puisque le point d’émission de la lumière est séparé de plusieurs mètres du capteur, l’eau doit être extrêmement pure afin d’éviter toute atténuation du signal lumineux.

Lors des très rares collisions entre un neutrino et un noyau atomique de l’eau du réservoir, l’interaction produit une ou plusieurs particules chargées qui, en traversant l’eau, émettent une lumière par effet Cerenkov. Les caractéristiques de cette lumière sont différentes pour la collision d’un neutrino-e (figure 1) et d’un neutrino-mu (figure 2), ce qui permet d’identifier la saveur du neutrino initial. En étudiant la trajectoire des particules chargées qui créent la lumière par effet Cerenkov, on peut déterminer la direction d’où le neutrino provenait : est-il venu du dessus du détecteur, en traversant la montagne, ou bien est-il entré par le dessous, après avoir traversé la Terre de part en part ? Les neutrinos atmosphériques interagissent très peu avec la matière et ils proviennent de rayons cosmiques qui bombardent en permanence la Terre de toute part, sans direction privilégiée. Il devrait donc y avoir autant de neutrinos ayant traversé la montagne que de neutrinos ayant traversé toute la Terre. Les résultats de l’expérience indiquent clairement un déficit pour le nombre de neutrinos-mu venant du dessous alors que le nombre de neutrinos-e, mesuré dans la même direction, est bien celui attendu (voir figure 3).

page 46

Ils interagissent très peu Les neutrinos interagissent très peu avec la matière. Par exemple, des neutrinos de basse énergie peuvent traverser une épaisseur de plomb d’une année-lumière sans que la moitié d’entre eux n’ait interagit ! Heureusement d’ailleurs, puisque nous baignons en permanence dans un océan de neutrinos provenant de diverses sources ; ces neutrinos nous traversent sans nous « voir »...

Le détecteur SuperKamiokaNDE est cinquante fois plus grand que son prédécesseur KamiokaNDE et est le fruit de la collaboration de 23 laboratoires au total. Il s’agit d’un réservoir cylindrique d’une quarantaine de mètres de hauteur et d’un diamètre lui aussi égal à une quarantaine de mètres, en acier inoxydable, contenant 50 000 tonnes d’eau ultrapure et dont les parois sont tapissées de 11 200 capteurs de lumière ou photomultiplicateurs.

Effet Cerenkov Une particule qui pénètre dans un milieu peut avoir une vitesse supérieure à celle de la lumière dans ce même milieu (voir « La question qui tue »). Les particules chargées perdent alors leur énergie en émettant de la lumière par effet Cerenkov (du nom du physicien qui a expliqué ce phénomène, prix Nobel de physique en 1958). Il s’agit d’une onde de choc, semblable au « bang » d’un avion qui passe le mur du son. Les photons sont émis suivant un cône dont l’axe suit la trajectoire de la particule et dont l’angle d’ouverture dépend de sa vitesse.

ÉLÉMENTAÍRE


© KamiokaNDE

© KamiokaNDE

Oscillation des neutrinos

figure 1 : Événement enregistré dans le détecteur SuperKamiokaNDE le 4 avril 1998, correspondant à un électron de 492 MeV issu de la collision d’un neutrinoe avec un noyau atomique de l’eau du réservoir. Les couleurs permettent d’identifier le moment exact où le signal lumineux a été enregistré par chaque photomultiplicateur (bleu : précoce, rouge : tardif). Ces écarts de temps fournissent des informations sur l’angle d’arrivée du neutrino.

figure 2 : Événement enregistré dans le détecteur SuperKamiokaNDE le 4 avril 1998 et correspondant à un muon de 603 MeV issu de la collision d’un neutrinomu avec un noyau atomique. L’anneau créé par un muon est généralement moins diffus que celui d’un électron.

ÉLÉMENTAÍRE

page 47

Où sont passés les neutrinos-mu ? On pense qu’ils se sont métamorphosés, lors de leur trajet, en un autre type de neutrino que SuperKamiokaNDE ne peut pas (ou mal) détecter, comme les neutrinos-tau. En effet, la saveur d’un neutrino (électronique, muonique, tauonique) peut évoluer avec le temps, de sorte qu’au cours de son trajet, un neutrino-mu peut se transformer en neutrinotau (ou en neutrino-e). Ce phénomène est appelé «oscillation de neutrinos». Le 5 juin 1998, après deux années de prise de données, SuperKamiokaNDE annonça la découverte de l’oscillation des neutrinos atmosphériques. L’effet le plus spectaculaire ? Un déficit de 50% du nombre attendu de neutrinos-mu lorsque ceux-ci ont traversé toute la Terre. En 2002, le prix Nobel de physique a été attribué à M. Koshiba, porte-parole de l’expérience KamiokaNDE, pour l’étude des neutrinos cosmiques. Il partage ce prix avec R. Giacconi, qui a été un pionnier de l’astronomie spatiale dans le domaine des rayons X, ainsi qu’avec R. Davis, qui a été le premier à détecter des neutrinos d’origine extra-terrestre... ouvrant ainsi la voie de l’astronomie neutrino.

figure 3 : Les nombres mesurés (points noirs et histogramme en pointillés) de neutrinose (à gauche) et neutrinos–mu (à droite) sont comparés aux nombres attendus (histogramme en trait plein). Les mesures sont faites en fonction de la direction θ du neutrino. Cet angle donne des informations sur la distance parcourue par le neutrino à travers la Terre avant d’atteindre le détecteur. Sur la gauche de chaque graphique, on a à faire à des neutrinos arrivant depuis le fond du détecteur (ils ont donc traversé toute la Terre), tandis que sur la droite, ce sont des neutrinos venant du haut du détecteur (ils ont seulement traversé l’épaisseur de l’atmosphère et de la montagne). On observe un déficit en neutrinos-mu qui augmente avec la quantité de matière traversée, tandis que le nombre de neutrinos-e est conforme aux attentes.


Oscillation des neutrinos Une manip à tout casser ! Pour mieux comprendre les oscillations des neutrinos électroniques et muoniques, le détecteur SuperKamiokaNDE est exploité au sein de l’expérience K2K. Un faisceau de neutrinos-mu est préparé au KEK (un centre japonais de physique des particules) puis dirigé vers le détecteur SuperKamiokaNDE, d’où le nom de cette expérience (KEK To KamiokaNDE). Le nombre de neutrinos-mu produits au KEK est alors comparé à celui enregistré par le détecteur.

Quelles masses pour les neutrinos ?

Un incident spectaculaire interrompit K2K en novembre 2001 : en implosant, un photomultiplicateur situé au fond du réservoir de SuperKamiokaNDE déclencha une onde de choc qui détruisit environ 60% de l’ensemble du détecteur ! Les photomultiplicateurs restants furent répartis de manière à assurer une détection correcte des neutrinos issus de KEK. L’enregistrement des données a ainsi pu se poursuivre pour confirmer l’oscillation des neutrinos. Il est prévu de remettre en place les 6 000 photomultiplicateurs manquants afin de redonner toute sa sensibilité à K2K en 2006.

Ces résultats marquent le premier échec de la description actuelle des particules élémentaires, le Modèle Standard : dans ce dernier, tous les neutrinos étaient supposés de masse nulle. On espère évidemment qu’une étude plus fine des propriétés des neutrinos nous éclairera davantage sur cette physique encore inconnue, « au-delà du Modèle Standard ». Une épopée qui a débuté grâce à une source particulièrement abondante de neutrinos : les rayons cosmiques !

page 48

© KamiokaNDE

L’oscillation des neutrinos est un phénomène purement quantique. Le passage d’une saveur de neutrino vers une autre n’est possible que si les masses des neutrinos sont différentes, avec une probabilité qui dépend de la valeur de cette différence de masse. En quelques années, les nombreuses expériences menées sur les neutrinos (dont SuperKamiokaNDE) nous ont permit de passer du flou complet à une connaissance assez fine des propriétés des neutrinos. En particulier, nous savons qu’au moins deux des trois masses associées aux neutrinos ne sont pas nulles. On suppose qu’en fait les trois neutrinos sont massifs. Mais les expériences susceptibles de mesurer les masses des neutrinos de façon absolue (et non l’écart relatif entre deux masses) ne sont pas encore assez sensibles et n’ont fourni pour l’instant que des limites supérieures.

Le détecteur, après l’incident, vu du haut du réservoir. On distingue les photomultiplicateurs en bon état sur les cinq rangées supérieures, et les autres, brisés, sur les rangées inférieures.

ÉLÉMENTAÍRE


Théorie La relativité restreinte DR

2005, année mondiale de la physique, fut l’occasion de célébrer le centenaire de quatre publications remarquables d’Albert Einstein. Parmi celles-ci figure un article sur la relativité restreinte qui a bouleversé nos conceptions d’espace et de temps, et qui continue d’être l’outil de travail quotidien de nombreux physiciens, en particulier pour étudier les constituants élémentaires de la matière. Mais pourquoi parle-t-on de relativité ? En quoi est-elle restreinte ? Et quelle révolution Einstein a-t-il provoqué avec son article ?

Galileo Galilei (1564-1642).

Le principe de relativité

Principe de relativité Selon ce principe, les lois de la physique ne doivent pas privilégier un point de vue – ou référentiel – particulier plutôt qu’un autre pour décrire un phénomène. Cette relativité n’a rien à voir avec le relativisme, un point de vue philosophique selon lequel toute idée, concept, ou affirmation serait la simple émanation de l’environnement humain où elle est née, ce qui rendrait impossible toute comparaison ou discussion hors de ce dernier.

Pince-mi et Pince-moi sont dans un bateau... et jouent au basket. Le premier envoie la balle au second, qui shoote et marque ! Vu de la terre ferme, nos deux sportifs, ainsi que leur ballon et leur panier de basket, se déplacent en même temps que le navire glissant sur les gouffres amers. Pince-mi et Pincemoi doivent-ils adapter leur façon de shooter pour pouvoir marquer des paniers malgré le déplacement du bateau? Ou bien la trajectoire du ballon est-elle la même que s’ils jouaient sur la terre ferme ? Imaginons que nos deux sportifs aillent jouer à l’intérieur du navire, dans une salle fermée, sans hublot ni fenêtre, de sorte qu’ils ne puissent pas voir si celui-ci s’éloigne du quai ou non. Peuvent-ils, en étudiant la trajectoire de leur ballon, déterminer s’ils sont en mouvement et si, oui ou non, le navire quitte le port ? La réponse à cette question est : non, tant que le bateau se déplace en ligne droite et à vitesse constante (on parle alors de mouvement de translation uniforme). En pratique, cela suppose bien sûr une mer très calme !

Référentiel Un référentiel est l’équivalent physique d’un « point de vue », à partir duquel un observateur peut procéder à des mesures physiques. On peut ainsi définir le référentiel de Pince-mi (lié au quai) et celui de Pince-moi (attaché au navire).

En fait, aucune expérience de physique ne peut permettre de détecter un mouvement de translation uniforme : si Pince-mi descend du bateau et réalise une expérience de physique sur la terre ferme, tandis que Pince-moi réalise exactement la même expérience sur le bateau, les résultats obtenus seront identiques (aux incertitudes expérimentales près). Il est donc impossible de dire de manière absolue si le bateau est en mouvement. Tout ce que Pince-mi peut dire, c’est que le navire se déplace par rapport au quai. À l’inverse, Pincemoi, resté sur le bateau et observant Pince-mi sur la terre ferme, estimera que c’est le rivage qui est en mouvement par rapport au bateau. En bref, tout ce que l’un et l’autre sont en mesure d’affirmer, c’est que la terre ferme et le navire sont en mouvement relatif l’un par rapport à l’autre.

ÉLÉMENTAÍRE

page 49

Cette observation fondamentale sur les lois de la physique est connue sous le nom de principe de relativité. Il fut énoncé pour la première fois par Galilée : les lois de la physique sont les mêmes dans tous les référentiels inertiels, c’est-à-dire pour tous les observateurs en mouvement de translation uniforme les uns par rapport aux autres. En fait, ce principe nous est très familier. Par exemple, si nous allons au wagon-bar d’un TGV et si nous renversons malencontreusement notre café, celui-ci ne tombe pas un mètre plus loin du fait de la grande vitesse du train, mais bien sur nos genoux comme si nous étions assis à la terrasse d’un café !

Référentiel inertiel (ou galiléen) Un référentiel inertiel est un « point de vue » dans lequel le principe de Galilée s’applique : en l’absence de force agissant sur lui, un objet se déplace à vitesse constante, selon un mouvement de translation uniforme. Un référentiel se déplaçant à vitesse constante par rapport à un référentiel inertiel est luimême inertiel. Les référentiels ne sont pas tous inertiels. Ainsi, le wagon d’un train qui accélère et le cheval de bois d’un manège en mouvement circulaire n’ont pas cette propriété. Dans ces référentiels, les trajectoires des objets semblent affectées par des forces supplémentaires, qui sont en fait des artefacts dus au « point de vue » choisi pour décrire la trajectoire. C’est le cas, par exemple, de la force d’inertie, de la force centrifuge, ou encore de la force de Coriolis.


La relativité restreinte Lumière, éther... et relativité Le principe de relativité s’est avéré correct dans toutes les expériences réalisées depuis Galilée jusqu’au XIXe siècle dans le domaine de la mécanique, c’est-àdire l’étude des trajectoires de corps solides soumis à diverses forces (traction, frottement, gravité, etc). Mais lorsque l’attention des physiciens se porta sur l’électricité et le magnétisme... ils fe caffèrent les dents fur un facré problème. En effet, J.-C. Maxwell était parvenu à rendre compte, à l’aide d’une théorie simple, de l’ensemble des résultats expérimentaux obtenus jusqu’alors dans ce domaine. De plus, cette théorie décrivait la lumière comme une onde électromagnétique se propageant à une vitesse constante et universelle. Une théorie très satisfaisante... si ce n’est qu’elle contredit la loi galiléenne d’addition des vitesses. Supposons que Pince-moi lance un ballon sur le pont de son navire et en mesure la vitesse, tandis que Pince-mi, resté sur le quai, réalise la même mesure. Si le navire s’éloigne du quai, ils obtiendront des résultats différents, mais reliés d’une façon simple : la vitesse du ballon mesurée par Pince-mi sur le quai sera la somme de la vitesse mesurée par

James Clerk Maxwell (1831-1879).

Le vent d’éther Si l’éther existait, la vitesse de la lumière devrait dépendre du mouvement du référentiel dans lequel on la mesure, par rapport à ce mystérieux milieu de propagation des ondes lumineuses. Or chaque année, la Terre parcourt une immense distance autour du Soleil à la vitesse d’environ trente kilomètres par seconde. Un référentiel associé à un point de la surface terrestre aurait donc dû se mouvoir en permanence par rapport à l’éther, avec une vitesse variant selon l’heure du jour et la saison. Il fallait donc mesurer l’effet de ce « vent d’éther » sur la vitesse de la lumière. A. Michelson et E. Morley conçurent un appareil, appelé interféromètre, pour étudier ce phénomène. L’instrument sépare une onde lumineuse monochromatique – i.e. de longueur d’onde bien déterminée – en deux faisceaux (voir schéma ci-contre). Ces derniers se propagent dans deux directions perpendiculaires, puis ils sont réfléchis par des miroirs, avant d’être à nouveau superposés au centre de l’appareil. On détecte enfin l’image obtenue en superposant ces deux faisceaux. En règle générale, les deux faisceaux parcourent des longueurs légèrement différentes entre le moment où ils sont séparés et celui où ils se superposent à nouveau. Cette différence de longueur, et donc de temps de parcours, engendre au niveau du détecteur des franges d’interférences qui alternent des bandes sombres et claires.

page 50

Si la Terre avait un mouvement par rapport au référentiel de l’éther, la vitesse de la lumière serait différente dans les deux directions perpendiculaires. Cela devrait affecter la figure d’interférence, d’une manière variable selon l’orientation de l’interféromètre par rapport au sens de déplacement de la Terre. De la mesure de telles variations en fonction de l’orientation de l’appareil, monté sur un plateau horizontal tournant, on pourrait alors en déduire la vitesse de la Terre dans le référentiel absolu de l’éther. L’expérience fut réalisée à différents moments du jour et de l’année et fut répétée de nombreuses fois par différents groupes, mais aucune variation significative ne fut jamais détectée, en dépit des améliorations successives apportées à l’interféromètre de Michelson-Morley. L’éther semblait immobile par rapport à la Terre, ce qui était très improbable étant donnée la course compliquée de la Terre autour du Soleil. Plusieurs théories alambiquées furent avancées pour expliquer ces résultats tout en sauvegardant l’éther, mais il fallut se rendre bientôt à l’évidence : on devait abandonner l’éther, et avec lui l’idée d’un référentiel absolu...

ÉLÉMENTAÍRE


La relativité restreinte Pince-moi sur le navire et de la vitesse du navire par rapport au quai. Mais selon la théorie de Maxwell, si nous remplaçons le ballon par un rayon lumineux, Pince-mi et Pince-moi doivent observer que l’onde lumineuse se propage à la même vitesse, quelle que soit la vitesse du bateau !

DR

Or la loi d’addition des vitesses repose sur deux hypothèses : le principe de relativité, qui affirme que les lois physiques sont les mêmes pour tous les référentiels inertiels, et la notion de temps et de distance absolus – c’est-à-dire qui sont identiques dans tous les référentiels, qui permet de comparer directement les mesures faites dans des référentiels différents. La théorie de Maxwell ne respectait-elle pas le principe de relativité ? Ou fallait-il revoir les notions d’intervalles de temps et de distance ? Les physiciens renâclaient à l’idée d’abandonner la vision de l’espace et du temps héritée de Galilée et de Newton, si féconde jusque là. Ils imaginèrent que les ondes lumineuses se propageaient dans un milieu, au nom presque philosophique d’éther. Le référentiel naturel de la théorie de Maxwell devait être le référentiel associé à l’éther, qui devenait donc un référentiel très particulier, « le » référentiel absolu pour tous les phénomènes électromagnétiques. Si tel était le cas, la vitesse de la lumière dans le référentiel absolu de l’éther devait s’accorder à la valeur correspondant à la théorie de Maxwell. Elle s’en écarterait dans tous les autres référentiels, en mouvement par rapport à l’éther, afin de satisfaire la loi de composition des vitesses. Mais la Nature se joua de nos rusés physiciens... Les expériences sur le vent d’éther montrèrent que la vitesse de la lumière était une constante universelle dans tous les référentiels : la théorie de Maxwell satisfait le principe de relativité. Il fallait donc revoir les notions de temps et d’espace. C’est ce que proposa Einstein en 1905 avec sa théorie de la relativité restreinte.

Albert 1931).

J’ai les dates qui se dilatent...

Edward Morley (1838-1923).

(1852-

DR

Michelson

Suivons donc Einstein et acceptons que la vitesse de la lumière soit une constante universelle, identique dans tous les référentiels inertiels. Première conséquence immédiate : la notion de durée, c’est-à-dire l’intervalle de temps entre deux événements, ne peut plus être un concept absolu, comme on l’a longtemps cru. En contradiction avec notre intuition quotidienne, elle est en fait une notion relative, qui dépend du référentiel dans lequel on se place.

ÉLÉMENTAÍRE

L’expérience du miroir, vue par Pince-moi dans le train.

page 51

Pleins de curiosité scientifique, nos deux amis décident de vérifier cette assertion. Pince-moi monte dans un train et place un miroir au plafond du wagon. A l’aide d’une source lumineuse placée sur le plancher, il envoie un rayon lumineux vers le miroir, lequel réfléchit le rayon et le renvoie à son point de départ (voir figure ci-contre). Pince-moi mesure l’intervalle de temps τ entre ces deux évènements, qui est simplement égal à la distance parcourue 2H (où H est la hauteur du wagon) divisée par la vitesse de propagation du signal lumineux, c’est-à-dire la vitesse de la lumière notée c (pour « célérité ») : τ = 2H/c.


La relativité restreinte Que fait Pince-mi, resté sur le quai, pendant ce temps ? Eh bien, il mesure le même intervalle de temps, mais depuis le quai, c’est-à-dire dans un référentiel où le train est en mouvement à la vitesse constante V. Du point de vue de Pince-mi, la distance parcourue par le rayon lumineux est plus grande, puisque le point de départ, le point de réflexion et le point d’arrivée se déplacent (voir figure ci-contre). D’après la relativité galiléenne, la vitesse du rayon lumineux dans le référentiel de Pince-mi devrait être, elle aussi, plus grande – égale à la somme des vitesses du rayon lumineux emit par Pince-moi et du train, de sorte que les temps de parcours mesurés par Pince-mi et Pince-moi soient bien les mêmes. Mais en réalité, la vitesse de la lumière n’est pas plus grande pour Pince-mi : elle est la même que pour Pince-moi. Et puisque la distance parcourue est plus grande dans le référentiel de Pince-mi, le temps de parcours mesuré par ce dernier doit être plus long !!! La notion de durée devient donc relative... ce qui modifie profondément notre conception du temps.

L’expérience du miroir, vue par Pincemi sur le quai.

Pince-mi et Pince-moi viennent de nous montrer que les durées mesurées dans le référentiel où le système étudié est en mouvement sont toujours plus longues que celles dans un référentiel où le système est au repos. Ce phénomène est connu sous le nom de «dilatation des temps». Il vient de ce que la vitesse de la lumière est la même dans tout référentiel inertiel, c’est-à-dire du fait que les lois de l’électromagnétisme – et donc de la propagation des ondes lumineuses – suivent le principe de relativité.

page 52

La dilatation des temps L’expérience de Pince-mi et Pince-moi permet de quantifier le facteur de dilatation des temps en fonction de la vitesse relative des deux référentiels, moyennant l’hypothèse que l’espace est euclidien et donc que le théorème de Pythagore est valable (ceci n’est plus vrai en relativité générale). Voyons comment cela fonctionne grâce à la figure ci-dessus. Le rayon lumineux est émis en A, réfléchi en B, puis revient à son point de départ qui, du fait du déplacement du système à la vitesse V, s’est déplacé jusqu’au point C pendant le temps t de parcours du rayon (d’où la distance AC=Vt). Le rayon lumineux va de A en B en un temps t/2, puis de B en C dans le même temps. Comme la lumière se propage à la vitesse c dans tous les référentiels inertiels, on en déduit la distance AB=ct/2=BC. Le triangle ABC est donc un triangle isocèle, et le théorème de Pythagore nous dit que H2+(AC/2)2 = AB2, ou H est la hauteur du wagon. En remplaçant AB et AC par leurs valeurs en fonction de t, on obtient le temps de parcours dans le référentiel de Pince-mi : 2H/c . t= √(1-V2/c2) En se rappelant que le temps de parcours mesuré par Pince-moi était τ = 2H/c, on obtient la relation : t = γτ avec le facteur de dilatation du temps γ=1/√(1-V2/c2). Puisque la vitesse de déplacement V du train est toujours inférieure à la vitesse de la lumière (est-ce vraiment si évident ? voir « La question qui tue »), le facteur γ (gamma) est supérieur à 1 : le temps écoulé entre les deux évènements « émission du rayon lumineux » et « réception du rayon réfléchi » mesuré par Pince-mi (référentiel où le miroir est en mouvement) est plus long que le temps écoulé entre les deux mêmes évènements mesuré par Pince-moi (référentiel ou le système est au repos), ce qui est conforme à nos attentes. En pratique, les effets relativistes tels que la dilatation des temps ne se manifestent que pour des vitesses extrêmement élevées, comparables à la vitesse de la lumière : c ~ ~ 300 000 km/s. Les vitesses typiques de notre expérience quotidienne ne sont qu’une fraction minuscule de cette vitesse limite et les effets relativistes ne sont pas manifestes. Par exemple si Pince-moi monte dans un TGV qui circule à une vitesse V = 300 km/h – soit environ trois dix millionièmes de la vitesse de la lumière – le facteur de dilatation des temps ne diffère de 1 qu’à partir de la quatorzième décimale. On comprend pourquoi ces effets avaient échappé à l’observation pendant longtemps. Ainsi, pour obtenir une dilatation des temps de l’ordre de 10%, c’est-à-dire un facteur γ=1,1, on doit atteindre 40% de la vitesse de la lumière, soit environ 125 000 km/s.

ÉLÉMENTAÍRE


La relativité restreinte Le facteur de dilatation des temps γ varie avec la vitesse de Pince-mi par rapport à Pince-moi. Lorsque les deux référentiels sont immobiles l’un par rapport à l’autre, γ=1 et les deux frères mesurent le même temps à leurs montres respectives. Le facteur de dilatation augmente avec la vitesse : on est d’abord dans un régime « classique » où γ reste très proche de 1, puis on entre dans un régime « relativiste » pour des vitesses non négligeables devant celle de la lumière. Le facteur de dilatation des temps devient infiniment grand quand on tend vers la vitesse de la lumière V=c.

Trois noms pour une théorie Les noms de trois physiciens remarquables sont liés à la théorie de la relativité restreinte : Lorentz, Poincaré et Einstein. Leurs apports respectifs ont souvent été sujets à controverse... en particulier au cours de l’année 2005, qui célébrait le centenaire des travaux d’Einstein sur différents sujets, dont la relativité restreinte. Le théoricien néerlandais Hendrik Lorentz reformula en 1892 la théorie de Maxwell sur l’électricité et le magnétisme en exprimant tous ces phénomènes comme l’interaction entre des charges électriques et l’éther. La théorie de Lorentz incluait les résultats de Maxwell, mais elle rendait également compte de phénomènes ignorés par son prédécesseur (phénomène astronomique d’aberration, dispersion de la lumière dans un milieu transparent...). Pour expliquer les résultats de Michelson et Morley, Lorentz modifia sa théorie en introduisant des changements de coordonnées, qui permettaient de restaurer au moins en première approximation le principe de relativité, mais que le Néerlandais considérait comme de purs artifices mathématiques dénués de signification physique. Pour Lorentz, l’éther existait bel et bien, et le principe de relativité devait être mis en défaut un jour ou l’autre, une fois une précision suffisante atteinte dans les expériences du type de celles effectuées par Michelson et Morley. Le mathématicien français Henri Poincaré jugeait la théorie de Lorentz la meilleure disponible, tout en restant critique à son égard, en particulier au sujet des « coups de pouce » mathématiques nécessaires pour suivre approximativement le principe de relativité. Tout en modifiant les équations de Maxwell-Lorentz pour leur permettre de satisfaire exactement ce principe, le français avança que les changements de coordonnées mathématiques introduits par Lorentz permettaient d’accéder au temps mesuré physiquement par des observateurs en mouvement par rapport à l’éther. Pour Poincaré, le principe de relativité devait être satisfait exactement par les phénomènes électromagnétiques mais, attaché aux concepts de la mécanique classique, il persista (jusqu’à sa mort !) à soutenir que l’éther était bien le référentiel absolu permettant de mesurer le temps « vrai », tandis que les temps mesurés dans d’autres référentiels n’étaient qu’« apparents ». Albert Einstein reprit l’appareil mathématique développé par Lorentz et Poincaré, mais il procéda à un dernier saut conceptuel, audacieux et essentiel. Il suivit Poincaré en plaçant le principe de relativité au centre de sa réflexion, mais il abandonna le concept d’éther et de référentiel absolu. Il postula que les différents référentiels inertiels sont parfaitement équivalents, y compris pour la propagation des ondes lumineuses dont la vitesse est constante. A partir de ces axiomes, il retrouva les transformations de coordonnées introduites par Lorentz, montra comment concilier principe de relativité et électromagnétisme, et enfin étudia la dynamique d’une particule à des vitesses proches de celle de la lumière.

ÉLÉMENTAÍRE

page 53

Voilà pourquoi on parle des transformations de Lorentz, qui permettent de passer d’un référentiel à un autre, mais aussi du groupe de Poincaré pour décrire la structure mathématique de ces mêmes transformations, et enfin de la théorie de la relativité restreinte d’Einstein !


La relativité restreinte ... l’panorama raplapla Le principe de relativité, une fois étendu aux phénomènes électromagnétiques, nous impose donc de réviser profondément notre conception de temps. Mais qu’en est-il de la distance entre deux objets, un concept lui aussi absolu – c’est-à-dire qui ne dépend pas du référentiel dans lequel on se place – dans le cadre de la relativité galiléenne ? En se triturant les méninges, on se rend compte que la notion de distance ne peut rester un concept absolu en relativité einsteinienne (prononcer « aynechtayniaine » – essayez d’abord avec un crayon dans la bouche, puis avec une patate chaude, ensuite ça devient facile... vous verrez !). Pour illustrer cela, Pince-mi et Pince-moi, toujours aussi sportifs, entament une partie de ping-pong. Après quelques minutes, le premier mène 8 à 2. Pince-moi doit remonter le score. Il attend le bon moment et décoche un smash puissant en envoyant la balle à grande vitesse selon une trajectoire rectiligne. Malheureusement elle sort ! Et le point est pour Pince-mi qui creuse encore l’écart... Mais laissons cette partie effrénée pour un instant, et attardons-nous sur le smash de Pince-moi... sous un angle relativiste ! Dans le référentiel où se déroule la partie (celui de la table de ping-pong), la balle est en mouvement rectiligne uniforme à vitesse v et elle parcourt toute la longueur L de la table en un temps t = L/v.

© J. Serreau

Comment la balle elle-même voit-elle les choses ? Pour le savoir, imaginons que nous puissions nous jucher sur celle-ci : nous sommes alors dans le référentiel où elle est au repos. C’est maintenant la table et les joueurs qui se déplacent autour de nous. Pince-moi – l’initiateur du smash – s’éloigne à la vitesse v, tandis que Pince-mi s’approche à la même vitesse. Dans ce référentiel, le temps τ mis par la balle pour parcourir toute la table devrait être τ = L/v. On aurait alors τ = t, où t est le temps vu du référentiel de la table, comme c’est le cas en relativité galiléenne. Mais nous venons de voir que le temps vu du référentiel où la balle est au repos est en fait relié à t par la relation de dilatation des temps : t = γτ, ce qui contredit le résultat précédent !

page 54

Conclusion ? Aussi étrange que cela puisse paraître, il faut admettre que la longueur (L’) de la table dans le référentiel où la balle est au repos – et où la table est en mouvement – n’est pas identique à sa longueur (L) dans le référentiel associé à la table, mais vaut en fait : L’ = L/γ Dans ce cas, le temps de parcours dans le référentiel de la balle est : τ = L’/v = (L/v)/γ et on a bien t = γτ. Puisque le facteur γ est toujours supérieur à 1, on voit que la longueur de la table mesurée dans le référentiel où elle est en mouvement est plus courte que celle dans le référentiel où elle est au repos ! C’est le phénomène de «contraction des longueurs», qui est l’exacte contrepartie de la dilatation des temps.

ÉLÉMENTAÍRE


La relativité restreinte Un outil essentiel en physique subatomique En physique subatomique, on s’intéresse souvent à des phénomènes très énergétiques, pour lesquels la vitesse des particules est une fraction non négligeable de celle de la lumière. Il est alors indispensable de recourir à la relativité restreinte, comme l’illustre l’exemple de la durée de vie des muons cosmiques. En combinant deux hypothèses simples, le principe de relativité et le caractère universel de la vitesse de la lumière, Einstein a bouleversé notre compréhension du monde physique, battant en brèche les notions de temps et d’espace absolus héritées de Galilée et de Newton. Nous avons vu que dilatation des temps et contraction des longueurs étaient liées. Il faut en fait considérer le temps et l’espace comme deux aspects différents d’une unique entité : l’espace-temps. Vous aurez un autre aperçu de certaines conséquences parfois déroutantes de la relativité restreinte dans notre « Question qui tue » : peut-on dépasser la vitesse de la lumière ?

Pourquoi restreinte ?

parle-t-on

de

relativité

La théorie d’Einstein, parue en 1905, applique le principe de relativité au cas particulier, « restreint », de référentiels inertiels, (comme ceux de Pince-mi et Pince-moi dans cet article) en ignorant les effets de la gravitation. En effet, un objet soumis à la force de gravitation accélère et le référentiel associé n’est donc pas inertiel. Dix ans plus tard, Einstein généralisera le principe de relativité au cas d’un référentiel quelconque, ce qui lui permettra de décrire l’interaction gravitationnelle comme une modification de la géométrie de l’espace-temps. Cette deuxième théorie sera appelée théorie de la relativité... générale !

La jeunesse presque éternelle des muons cosmiques En physique des particules, les grandeurs sont toujours décrites dans le référentiel au repos des particules massives. Par exemple, les muons ont une durée de vie courte (2,2 microsecondes), mais cette durée de vie est mesurée « du point de vue » du muon (dans son référentiel de repos). Les muons produits par les rayons cosmiques dans l’atmosphère sont très rapides : dans le référentiel terrestre, ils ont donc une durée de vie nettement supérieure à ces quelques microsecondes. La dilatation des durées explique pourquoi des muons cosmiques peuvent traverser toute l’atmosphère et être observés à la surface de la Terre en dépit d’une durée de vie (au repos) très brève.

ÉLÉMENTAÍRE

page 55

De même, en faisant circuler des muons à grande vitesse dans des anneaux de stockage (ci-dessus, au CERN), les chercheurs peuvent les conserver sur des périodes plusieurs dizaines de fois plus longues que leur durée de vie !


Le LHC CMS petit mais costaud ! Le LHC est situé au CERN, dans un tunnel souterrain de 27 kilomètres de circonférence qui traverse la frontière franco-suisse. Dans cet anneau, deux faisceaux de protons circuleront en sens inverse et se rencontreront en quatre points. En chacun d’eux une expérience sera installée afin d’étudier les particules produites au cours des collisions. Dans le précédent numéro d’Élémentaire, nous avons décrit ATLAS, l’un de ces quatre détecteurs. Aujourd’hui, nous allons découvrir une autre expérience, CMS (pour Compact Muon Solenoid ou Solénoïde Compact à Muons), située sur la commune française de Cessy. Bien que les deux détecteurs s’intéressent aux mêmes phénomènes physiques, CMS se distingue d’ATLAS par sa conception et sa taille « réduite ».

© CERN

Comme l’indique le « C » de CMS, ce détecteur est «compact» : il mesurera 22 mètres de long, 14 mètres de diamètre et pèsera 12 500 tonnes. Cela peut paraître assez gigantesque, mais tout est relatif : CMS est deux fois plus petit en taille qu’ATLAS... pour un poids deux fois plus élevé. Comme ATLAS, CMS est un cylindre hermétique (un « tonneau » fermé par deux « bouchons ») placé sur la ligne des faisceaux de protons et capable d’identifier et de mesurer l’énergie des particules issues de leurs collisions. L’expérience est constituée de plusieurs sous-détecteurs, chacun conçu pour reconnaître et étudier des particules de nature différente. L’assemblage de ces éléments a lieu en surface, à proximité de la caverne souterraine où CMS sera descendu et finalement installé. Les deux géants du LHC : ATLAS (en rouge) et CMS (en jaune). Ce photomontage Aux énergies atteintes par le LHC, on s’attend à observer des phénomènes les place (à l’échelle) entre les deux ailes physiques nouveaux, qui dépassent la description actuelle de la physique du bâtiment du CERN de cinq étages des particules, le Modèle Standard. Cependant, on ne sait pas précisément où travaillent les physiciens de ces deux quels seront ces phénomènes. Pour parer toute éventualité, CMS, tout expériences. comme ATLAS, a été conçu comme un détecteur polyvalent qui cherche à identifier et à mesurer précisément les caractéristiques (énergie, vitesse, direction) des particules produites lors des colliATLAS et CMS sions. Si ATLAS et CMS s’intéressent aux mêmes phénomènes physiques, ils se En allant du point de collision vers l’extérieur, on distinguent par leur taille et par le choix des technologies utilisées pour trouve ainsi successivement : détecter les différentes particules et mesurer leurs caractéristiques. De

page 56

telles recherches de nature similaire, effectuées indépendamment par deux expériences « concurrentes », se révèlent souvent très utiles. Dans le passé, le LEP, le collisionneur qui a précédé le LHC au CERN, a bénéficié des résultats fournis par quatre détecteurs distincts. Outre l’émulation qu’entraîne cette recherche en parallèle, l’analyse croisée des résultats des deux expériences est instructive. En effet, les mesures effectuées seront entachées d’incertitudes qui sont liées aux performances des détecteurs et qui auront donc des origines différentes dans ATLAS et dans CMS. En combinant les résultats fournis par les deux expériences, il sera donc possible d’améliorer la précision des mesures. Par ailleurs, pour s’assurer de la découverte d’une nouvelle particule ou d’un nouveau phénomène physique, il sera indispensable de l’observer au sein des deux expériences.

● le détecteur interne de traces chargées, constitué de plus de 60 millions de capteurs en silicium. Il permet de reconstruire les trajectoires des particules chargées aussi près que possible du point d’interaction. Possèdant une surface totale équivalente de plus de 200 m2, il s’agit du plus grand détecteur de ce type jamais réalisé ; ● le calorimètre électromagnétique, qui détecte et mesure avec une très grande précision l’énergie des

ÉLÉMENTAÍRE


Trajectoires de différents types de particules au sein d’une portion du détecteur CMS. Celles des particules chargées sont courbées par le puissant champ magnétique engendré par le solénoïde supraconducteur.

électrons et des photons, grâce à 83 000 cristaux de tungstate de plomb (voir « Détection ») longs d’une vingtaine de centimètres. Ces cristaux très denses (98% de leur masse vient des métaux qui les composent) sont transparents à la lumière visible ;

● le solénoïde, qui n’est autre que le « S » de CMS. Il s’agit d’un grand aimant solénoïdal supraconducteur (le plus grand jamais construit) qui produira un champ de 4 teslas soit près de 100 000 fois le champ magnétique terrestre. Ce champ est créé par une bobine de 12,5 m de long et de 6,3 m de diamètre interne, formée d’un câble unique long de cinquante kilomètres. Le champ magnétique courbe la trajectoire des particules chargées qui traversent le détecteur, ce qui donne des informations sur leur énergie et leur charge électrique. Pour que la courbure des particules les plus énergétiques soit appréciable, compte tenu de la taille modeste de CMS, il faut un champ magnétique très puissant... ce qui explique les caractéristiques de cet aimant. En février 2006, le solénoïde de CMS a été progressivement refroidi pendant trois semaines jusqu’à atteindre sa température de fonctionnement de -269°C ;

© CERN

● le calorimètre hadronique est sensible aux particules composées de quarks, comme les protons, les pions, les kaons. Il associe un matériau dense qui absorbe ces particules (du fer) avec un milieu de détection pour mesurer leur énergie (voir « Détection ») ;

Les cristaux de tungstate de plomb qui forment le calorimètre électromagnétique.

ÉLÉMENTAÍRE

Le solénoïde de CMS (en gris). page 57

Supraconducteur : à très basse température, certains matériaux n’offrent quasiment aucune résistance au passage d’un courant électrique, ce qui diminue considérablement l’échauffement par effet Joule et donc les pertes énergétiques. Grâce à ces propriétés, on peut concevoir des aimants puissants en faisant passer du courant dans une bobine de très grande taille. Une fois refroidie à 4,2 kelvins (-268,8°C) par de l’hélium liquide, la bobine de CMS en niobium-titane peut transporter un courant allant jusqu’à vingt mille ampères.

© CERN

● le système à muons, qui est caché derrière le « M » de CMS. Situé dans les parties externes du « tonneau » et des deux « bouchons » il comptera quelque 1400 chambres à muons, construites dans divers instituts à travers le monde (Chine, Allemagne, Italie, Russie, Espagne et États-Unis). La détection des muons est un élément clé de CMS (et d’ATLAS). En effet, les muons fournissent des indications particulièrement « propres » sur certaines collisions, et sont ainsi susceptibles d’identifier de nouveaux phénomènes physiques attendus aux énergies étudiées par le LHC.


Le LHC

L’installation des aimants de l’accélérateur progresse rapidement au LHC.

© CERN

La volonté qui déplace les montagnes…

Luminosité Le taux de collisions proton-proton est quantifié grâce à une quantité appelée luminosité : plus celle-ci est grande, plus le taux de collisions est élevé. Les particules circulent dans l’accélérateur sous forme de paquets. La luminosité est d’autant plus élevée que le nombre de paquets est important, que le nombre de particules par paquet est grand et que les paquets sont de taille réduite.

… anime bel et bien les physiciens, les ingénieurs et les techniciens du LHC ! À la fin de l’an 2000, on met fin aux expériences du LEP, le prédécesseur du LHC. Mais en fait, la construction de CMS était déjà commencée dans un grand hall construit à la surface. Ce hall extérieur, plus grand que la caverne souterraine, facilite beaucoup la construction et les essais du détecteur. Ainsi, tous les éléments de CMS y sont assemblés et testés avant d’être descendus dans la caverne de l’expérience, en 5 blocs de plus de 2 000 tonnes chacun. L’assemblage du détecteur commence par la construction de grandes structures en forme de roues de 1 500 tonnes chacune, qui constituent le squelette du dispositif. Une fois terminées, on les déplace précautionneusement dans le hall d’assemblage grâce à un système de coussin d’air, sur une couche d’environ un centimètre d’épaisseur. À l’heure actuelle, les calorimètres hadroniques « tonneau » et « bouchon » sont réunis, ainsi que deux « supermodules » (assemblage de 1700 cristaux) du calorimètre électromagnétique. La première pièce de CMS devrait être descendue dans la caverne pendant l’été 2006. On utilise pour cela le même type de grue qui a servi à assembler l’Airbus A380 ainsi qu’à poser les caissons de fondation de certains ponts. Pour CMS, la descente devrait s’effectuer à une vitesse d’environ un centimètre par heure.

La montée en puissance du LHC En 2008, le faisceau du LHC aura une luminosité cent fois plus basse que la luminosité nominale (espérée en fonctionnement normal). Pendant cette période de « basse luminosité », les physiciens pourront mieux comprendre le comportement de leur détecteur. L’anneau devrait ensuite être arrêté pour améliorer ses performances. Ce sera l’occasion pour les expériences de finir leur installation et de résoudre des problèmes éventuels, repérés lors des premières collisions.

page 58

Planning d’installation des aimants du LHC : la courbe rouge indique la limite minimale pour démarrer le LHC à temps. Les points bleu clair correspondent à ce qui a été fourni jusqu’à présent : les délais ont été respectés.

Le LHC maintient les faisceaux de protons sur une trajectoire circulaire grâce à des puissants aimants. Le CERN a déjà reçu près d’un millier d’aimants dipolaires sur les 1232 que comptera le collisionneur, dont plus de deux cents sont déjà en place dans le tunnel du LHC. Afin de démarrer effectivement à l’été 2007, les dipôles doivent être testés, au rythme très soutenu d’une vingtaine par semaine, avant d’être installés dans le tunnel. A très bientôt pour de nouveaux épisodes du feuilleton LHC ! Pour en savoir plus : http://cmsinfo.cern.ch/outreach

ÉLÉMENTAÍRE


ICPACKOI ? [isepasekwa] ? Les neutrinos sous l’oeil de MINOS

En quoi cette expérience consiste-t-elle ? Un faisceau intense de neutrinos est obtenu au Fermilab par un dispositif appelé NuMI. En projetant des protons sur une cible en graphite, on crée des particules appelées pions et kaons (voir « Histoire ») qui se désintègrent en produisant des neutrinos dits muoniques. Ces neutrinos vont traverser deux détecteurs de conception similaire. Le plus petit, situé à Fermilab, pèse près de mille tonnes et est appelé détecteur proche. Le second, appelé détecteur lointain, pèse plus de cinq mille tonnes ; il est situé à quelques sept cents cinquante kilomètres de distance, dans la mine de Soudan (au Minnesota, près de la frontière canadienne), à 700 mètres sous la surface du sol.

© FERMILAB

MINOS (Main Injector Neutrino Oscillation Search) est une expérience qui a débuté en 2005 au centre de recherches de Fermilab, près de Chicago. Elle s’intéresse au phénomène d’oscillation de neutrinos, mis en évidence pour la première fois en 1998 par l’expérience SuperKamiokaNDE (voir « Découverte »). Après seulement un an de fonctionnement, MINOS vient d’annoncer des résultats qui confirment les mesures antérieures de ce phénomène.

Les neutrinos muoniques sont produits au centre de recherche du Fermilab, près de Chicago, visible sur cette photographie aérienne. Le détecteur proche (MINOS Near Detector) contrôle la composition du faisceau au début de son trajet souterrain de 750 km jusqu’à la mine de Soudan. Là-bas, le détecteur lointain permet d’analyser à nouveau le faisceau pour voir si des neutrinos muoniques ont disparu en chemin.

Mais à quoi bon deux détecteurs, un à proximité et l’autre si éloigné ? Avec l’information fournie par le détecteur proche, ne devrait-on pas être capable d’en déduire immédiatement le nombre de neutrinos muoniques observés par le détecteur lointain, puisque les neutrinos n’interagissent quasiment pas avec la matière ? Ce serait effectivement le cas... si les neutrinos n’oscillaient pas. Comme nous l’avons vu dans «Découverte», ce terme curieux signifie que les neutrinos peuvent changer de saveur si on les laisse parcourir une distance suffisamment grande. Au cours de son trajet, le neutrino muonique est ainsi susceptible de devenir un neutrino tauonique ou électronique, puis de revenir à son état de neutrino muonique, et ainsi de suite... d’où le nom d’oscillation choisi par les physiciens.

ÉLÉMENTAÍRE

page 59

Les neutrinos existent sous trois formes (ou saveurs) : électronique, muonique, et tauonique (voir « Découverte »). Ces particules interagissent extrêmement faiblement avec la matière. Les neutrinos muoniques produits au Fermilab effectuent leur voyage souterrain jusqu’à la mine de Soudan, à travers le roc et la pierre, sans aucune difficulté... Pour les détecter, il faut donc des détecteurs « lourds », contenant beaucoup de matière. Par ailleurs, les deux détecteurs de MINOS ne sont sensibles qu’aux neutrinos muoniques (et non aux neutrinos électroniques ou tauoniques).


[isepasekwa] ?

Grâce aux résultats du détecteur proche, les chercheurs de MINOS peuvent déterminer le nombre de neutrinos muoniques produits par NuMI. Ils sont ensuite en mesure de calculer le nombre de neutrinos muoniques qui devraient être observés dans le détecteur lointain de Soudan, en supposant que les neutrinos n’oscillent pas. Durant leur première période d’observation, ils s’attendaient à 177 ± 11 événements identifiés comme des neutrinos muoniques. L’incertitude correspond à des événements parasites, provenant de rayons cosmiques ou de particules dont la nature a été identifiée de façon incorrecte.

Le détecteur lointain de MINOS, situé dans le laboratoire souterrain de Soudan dans le Minnesota. Il a fallu deux ans pour creuser cette caverne souterraine. On distingue au fond le dispositif expérimental, long de trente mètres et composé de 486 plans octogonaux. Chaque plan est une plaque d’acier haute de 7,5 mètres et épaisse de 2,5 centimètres, dont une face est couverte d’une couche de scintillateur plastique : lorsqu’un neutrino muonique interagit avec l’acier, le muon produit traverse le scintillateur pour produire un signal lumineux. Le mur droit de la caverne a été orné d’une fresque évoquant les neutrinos et certains physiciens qui les ont étudiés, comme Pauli et Fermi.

page 60

Pour en savoir plus : http://www-numi.fnal.gov/

Mais seuls 92 événements furent effectivement enregistrés par le détecteur lointain ! Des neutrinos muoniques avaient donc disparu au cours des 750 kilomètres de leur voyage. Un phénomène parfaitement compréhensible si on admet que les neutrinos muoniques ont oscillé en d’autres saveurs de neutrino, électronique ou tauonique. Mieux encore, connaissant la distance entre Fermilab et la mine de Soudan ainsi que la fraction de neutrinos muoniques ayant oscillé en chemin, les physiciens de MINOS ont pu contraindre les paramètres qui décrivent l’oscillation des neutrinos. Une année de mesure a suffi pour obtenir des résultats de qualité comparable aux expériences japonaises antérieures, SuperKamiokaNDE et K2K. Sur cette période, MINOS a déjà observé trois fois plus de neutrinos que K2K n’en a détecté pendant quatre ans. Les deux expériences sont conçues selon un principe similaire, mais MINOS bénéficie d’un flux de neutrinos plus intense et plus énergétique. De plus, la distance parcourue par les neutrinos est trois fois plus importante, ce qui permet de déceler des effets d’oscillations plus ténus qu’à K2K. Des débuts prometteurs qui présagent de futures découvertes pleines d’intérêt de la part de MINOS !

ÉLÉMENTAÍRE


© SLAC

[isepasekwa] ? Le Stanford Linear Accelerator Center (SLAC) vu par satellite. Le long tube blanc qui traverse la photo de gauche à droite est l’accélérateur linéaire, long de 3,2 kilomètres. Le détecteur BaBar est situé dans un bâtiment à droite de l’image.

PEP-II : la tuile !

ÉLÉMENTAÍRE

© SLAC

Destruction Les faisceaux de particules circulant dans les accélérateurs transportent une énergie considérable. Lorsqu’ils deviennent incontrôlables, ils peuvent endommager très sévèrement le ou les détecteurs situés sur leur passage. Aussi, leur évolution est contrôlée de manière minutieuse par des dispositifs automatisés, capables de réagir en une fraction de seconde en cas de problème. Lorsque c’est le cas, ils forcent les faisceaux à quitter leurs trajectoires quasi-circulaires. Ces derniers s’engouffrent dans des échappatoires (à la manière des pilotes de Formule 1 qui ne peuvent pas prendre un virage) pour aboutir sur une très grande épaisseur de plomb qui les absorbe.

page 61

Octobre 2005 en Californie au Stanford Linear Accelerator Center (SLAC) : une « ice cream party » célèbre un nouveau record battu par l’accélérateur de particules PEP-II. Jamais le taux instantané de collisions électron-positron n’a été aussi élevé : plus de trois fois l’objectif affiché lors de la construction du collisionneur, une petite dizaine d’années auparavant ! Quelques jours plus tard, PEP-II s’arrête pour cinq semaines de maintenance prévues de longue date. Début janvier 2006, au même endroit : l’ambiance est nettement moins gaie et ce n’est pas uniquement à cause des excès de boisson du réveillon… Un problème est apparu sur PEP-II pendant les fêtes : au-delà d’un certain seuil de courant, les faisceaux deviennent mystérieusement instables et les systèmes de sécurité de l’accélérateur forcent leur destruction en quelques millièmes de seconde. Ces pertes récurrentes sont associées à des variations de pression dans le tube à vide où circulent les particules. Ces changements, infimes à notre échelle (des écarts de quelques milliardièmes d’atmosphère !), suffisent à perturber la trajectoire des faisceaux. Grâce à des jauges de pression disposées tout au long des 2,3 km de circonférence de PEP-II, la zone en cause est identifiée : elle se situe à quelques mètres à peine du détecteur BaBar, qui étudie les collisions entre faisceaux d’électrons et positrons se produisant en son centre. Une bien mauvaise nouvelle ! Intervenir sur un accélérateur est toujours une opération complexe qui peut durer longtemps. Pendant ce temps, la prise de données est bien évidemment interrompue, au grand dam des physiciens, qui demandent toujours plus d’événements pour améliorer la qualité de leurs mesures. La proximité de BaBar est un handicap supplémentaire. Dans cette région, l’accélérateur est particulièrement complexe car il faut courber les faisceaux pour les forcer à entrer en collision. De plus, ses composants s’entremêlent avec les parties externes du détecteur. Mais la réparation est inévitable : si PEP-II continue à fonctionner à faible courant jusqu’à l’été 2006, Babar enregistrera deux à trois fois moins de données que prévu. Un contretemps très ennuyeux pour plusieurs raisons : l’heure de faisceau coûte plusieurs milliers de dollars ; il existe une compétition acharnée avec une expérience similaire au Japon (Belle) ; et l’arrêt définitif de Babar est programmé pour 2008. Comment réparer le tube à vide ? L’idée la plus naturelle est de chercher une fuite. Si trou il y a, il est tellement petit qu’une inspection visuelle est vouée à l’échec. On vaporise donc de l’hélium à l’extérieur de la section que l’on veut tester et on mesure la quantité qui pénètre à l’intérieur de l’anneau de collision. Ces recherches sont menées mi-janvier à SLAC et ne donnent aucun résultat. On en conclut que le problème est dû à l’échauffement d’une pièce de l’accélérateur ou à des arcs électriques. Il se produit seulement dans certaines configurations où les courants sont élevés, ce qui le rend encore plus difficile à repérer.

Techniciens de PEP-II travaillant au changement de la première des deux chambres. La chambre « coupable » des instabilités de faisceaux est en fait la pièce métallique située sur la droite de l’image, sous les câbles blancs.


[isepasekwa] ?

© SLAC

L’étape suivante consiste à regarder à l’intérieur du tube à vide à l’aide d’une caméra montée au bout d’un câble rigide et articulé. La zone à inspecter est isolée du reste de l’anneau et ventilée avec précaution pour être ramenée à la pression atmosphérique. Ensuite on réalise « l’endoscopie » de PEP- II dans des conditions de propreté strictes pour ne pas introduire de poussières à l’intérieur. Une fois la recherche terminée, on referme le tout et des pompes puissantes refont le vide dans la section de l’accélérateur. Il faut plusieurs jours pour revenir à la pression nominale permettant une prise de données dans des bonnes conditions : entre temps, la circulation des faisceaux est perturbée par l’air résiduel peu à peu évacué. Plusieurs études de ce type sont menées jusqu’à mi-février, en vain.

© SLAC

La tuile fautive. Un joint endommagé de la sorte ne peut pas être réparé, il faut le changer !

On décide alors de changer un par un les composants de l’accélérateur susceptibles d’abriter la pièce fautive. Certaines de ces opérations étaient bien prévues… mais seulement pour l’été ou l’automne 2006 ! Il faut donc les avancer de six mois et les techniciens de l’accélérateur font des miracles pour suivre un emploi du temps complètement chamboulé. Vers le 20 février, une première « chambre », associée à un aimant de correction de l’accélérateur, est prête. Son installation prend quatre jours mais, quelques heures à peine après le redémarrage, il faut se rendre à l’évidence : le problème persiste… Les études antérieures ne désignaient d’ailleurs pas cette partie de PEP-II comme fautive, mais la précision des mesures n’était pas suffisante pour rejeter cette hypothèse. L’autre coupable potentiel est une chambre plus proche de BaBar, et donc d’accès encore plus difficile, mais il faut attendre la mi-mars pour que son remplaçant soit disponible. Une fois de plus, l’accélérateur redémarre à courants réduits et trois longues semaines passent, lourdes d’interrogations : et si le changement de la seconde chambre s’avérait inutile ? Tout semble la désigner, mais l’inspection par l’endoscope n’a rien donné et toutes les tentatives de réparation ont échoué depuis deux mois… Enfin, le mercredi 22 mars à 6 heures du matin, les faisceaux sont arrêtés, PEP-II et BaBar sont éteints, et les réparations tant attendues débutent. Elles doivent durer une dizaine de jours et la procédure élaborée au cours des semaines précédentes a été décomposée en... cent cinquante étapes !

Le même joint, remonté en laboratoire après la découverte de la tuile endommagée. La face présentée sur la photo est celle qui était visible par « l’endoscope » introduit dans le tube à vide en février. La tuile cassée (indiquée par le doigt ganté en haut) semble intacte sous cet angle, ce qui confirme que le problème était invisible tant qu’on n’avait pas ouvert la chambre.

page 62

Deux jours plus tard, enfin une bonne nouvelle. Une tuile absorbante en céramique située sur la partie interne d’un joint est brisée et présente l’aspect d’un carré de chocolat dans lequel on aurait croqué à pleines dents (voir photo ci-contre). Confirmation supplémentaire : cette tuile est à proximité du faisceau de positrons, qui était particulièrement sensible aux instabilités. Officiellement, les équipes de PEP-II déclarent avoir résolu « un » problème mais, dans l’esprit de tous, c’est en fait « le » problème cherché depuis quatre mois. Le remplacement de l’ensemble de la chambre se poursuit néanmoins comme prévu pour le cas où un autre de ses composants serait endommagé. Les premières particules font leur réapparition dans l’accélérateur le samedi 1er avril vers 20h. Les courants augmentent peu à peu, de manière régulière, à mesure que le niveau du vide s’améliore. Dans la nuit du dimanche au lundi, on atteint puis dépasse les niveaux où les instabilités se manifestaient, sans rencontrer la moindre difficulté. Les premières données sont prises le mardi au petit matin, et sauf nouvelle péripétie imprévue, PEP-II est reparti jusqu’à l’été !

ÉLÉMENTAÍRE


Particules Les particules «belles» dont nous parlons ici sont formées d’un quark lourd (beau) et d’un antiquark plus léger (down ou étrange). Les antiparticules correspondantes sont constituées avec un antiquark beau et un quark léger.

[isepasekwa] ? Les oscillations de la beauté-étrange Avant de se désintégrer, certaines particules peuvent, au cours du temps, changer de nature et se transformer en leur antiparticule. Ce phénomène est appelé « oscillation » car la particule peut passer dans un autre état puis revenir à son statut initial, et ainsi de suite. Le temps moyen pour effectuer un passage de pure particule à pure antiparticule est appelé période des oscillations. En étudiant ce phénomène on peut vérifier s’il est en accord avec les connaissances actuelles ou s’il est nécessaire de faire appel à de la physique nouvelle… ce qui est le but final de ces mesures. On prévoit en effet que des particules lourdes, non encore détectées, puissent aussi contribuer au mécanisme d’oscillation et être ainsi observées indirectement.

ÉLÉMENTAÍRE

page 63

Ce processus rare, d’origine quantique, a déjà été observé pour les K0 dans les années 60. Pour les B 0d qui sont formés des quarks db̄, il a été découvert en 1987 par la collaboration ARGUS à Hambourg puis la période des oscillations a été mesurée pour la première fois par l’expérience ALEPH (LEP) en 1994. Nous avons représenté, en fonction de l’instant de désintégration de la particule, la Trois des quatre expériences qui ont probabilité de l’observer dans deux cas. Pour fonctionné sur le collisionneur LEP la courbe 1, on sait qu’un B 0s a été produit à du CERN, ainsi que l’expérience l’instant initial et on observe un B 0s lors de sa SLD installée sur le SLC (voir LEP), désintégration. Pour la courbe 2 on a aussi ont mesuré précisément la période produit initialement un B 0s mais l’objet qui se 0 d’oscillation des mésons B d (qui est désintègre est un B 0s. voisine de 12,4 ps). Ces résultats ont encore été améliorés par les « usines à beauté » qui sont en fonctionnement aux USA (BaBar à Stanford) et au Japon (Belle à KEK) depuis 1999. À partir de ces mesures, et en utilisant des propriétés connues de l’interaction faible qui gouverne ce phénomène, on s’attendait à ce que les mésons B 0s, états liés s-b̄, oscillent avec une période dont la valeur devait être située entre 0,24 et 0,40 ps, soit environ un cinquième de la durée de vie de cette particule.

Oscillation Il est difficile de trouver une analogie entre les « oscillations » dont on parle ici et celles que l’on peut trouver en mécanique (pendule) ou en optique (ondes lumineuses). Il s’agit d’un phénomène d’origine quantique. Une particule instable peut se désintégrer à tout instant et il nous est impossible de prévoir quand. Par contre, si l’on observe les désintégrations de nombreuses particules du même type, on pourra mesurer leur temps moyen de désintégration et la manière dont l’instant de leur désintégration est distribué (voir les numéros précédents d’Élémentaire). Il en est de même pour les oscillations. Les particules ayant cette propriété peuvent apparaître aléatoirement, à l’instant de leur désintégration, dans l’un ou l’autre état sans que l’on puisse prédire lequel. Par contre si, partant d’un grand nombre d’objets qui sont dans leur état de « particule », on mesure les instants où ils apparaissent sous forme d’« antiparticule » on trouvera que la distribution de ces instants est modulée sous forme d’une courbe oscillante. LEP (Large Electron Positron collider) et SLC Le LEP construit au CERN dans les années 80 a fonctionné de 1989 à 2000. Quatre grandes expériences, rassemblant chacune plusieurs centaines de physiciens, y ont enregistré les événements produits lors des collisions entre les faisceaux d’électrons et de positrons. L’énergie des collisions étudiées s’est étalée sur une vaste gamme allant de 90 à 208 GeV. Aux USA, un accélérateur d’un type différent, le SLC, a fonctionné pendant la même période, à l’énergie de 90 GeV, pour observer des phénomènes similaires, liés à l’interaction faible. ps 1 ps = 1 picoseconde soit 10-12s. Durant ce temps, à la vitesse de la lumière, une particule parcourt 300 micromètres.


[isepasekwa] ? TeVatron Collisionneur proton-antiproton en cours de fonctionnement à Fermilab (USA). Chaque faisceau a une énergie voisine de 1TeV (1000 Gev = 1012 eV), d’où son nom.

La mesure de ces oscillations est difficile et nécessite l’utilisation de nombreuses informations issues des détecteurs afin de connaître quatre informations indispensables : la nature (particule ou antiparticule) de l’objet à l’instant de sa production, celle à l’instant de sa désintégration, la distance parcourue entre ces deux instants et enfin la vitesse durant ce parcours. Pour cela il faut pouvoir, notamment, reconstruire avec précision le point de désintégration du B 0s et mesurer la distance parcourue depuis le point d’interaction des faisceaux, où il a été produit. Auprès des collisionneurs LEP et TeVatron, où ces études ont eu lieu, la longueur moyenne de ce vol est de 2 mm environ. La période à mesurer n’est qu’une fraction de cette valeur. Ceci suppose l’utilisation de détecteurs de précision, en silicium, placés au voisinage du point de collision. Connaître la nature à l’instant de la désintégration est aisé à partir des particules produites. Par contre, estimer la nature de cette même particule lors de sa production est beaucoup plus difficile : il faut procéder de manière indirecte en faisant « parler » les autres particules présentes dans l’événement. Malheureusement, les « faux témoignages » sont légion. Soulignons aussi la rareté des mésons beaux-étranges qui ne représentent que 10% des particules de beauté, elles-mêmes n’apparaissant que dans quelques collisions sur mille au TeVatron.

Le détecteur CDF (5000 tonnes) ouvert et en position de garage. En position nominale, le point d’interaction des faisceaux, d’où sont issues les particules, est au centre de l’ensemble. Dans la partie cylindrique on trouve, en partant du centre, un détecteur en silicium mesurant précisément la position des particules chargées, le détecteur principal pour ces mêmes traces, la bobine du solénoïde générant un champ magnétique parallèle à l’axe des faisceaux, les calorimètres et enfin les chambres à muons. La partie conique (il en existe une autre similaire située de l’autre côté) contient des calorimètres. Elle s’insère à l’extrémité du cylindre central pour assurer la détection des particules émises dans sa direction.

Les collaborations LEP et SLD ont mis, en 1998, une limite expérimentale sur la période d’oscillation des B 0s : elle ne peut dépasser 0,7 ps. En améliorant les méthodes d’analyse, de ces mêmes données, ils portaient finalement cette limite à 0,44 ps.

page 64

Cette année le TeVatron a repris l’avantage. Les études au LEP étaient limitées par le nombre d’événements enregistrés, ce qui n’est plus le cas pour les expériences D0 et CDF qui sont actuellement en fonctionnement sur ce collisionneur proton-antiproton, situé près de Chicago. En avril, la collaboration CDF a mesuré la fréquence d’oscillation de ces mésons, entre 0,35 et 0,37 ps. En combinant la mesure de CDF, la plus précise, celles des expériences LEP et SLD ainsi que de la collaboration D0, on obtient une signification statistique de 4 déviations standard pour ce résultat. C’est, par convention, encore un peu insuffisant pour que la découverte (qui correspond à moins d’une chance sur un million de s’être trompé, voir Élémentaire 2) des oscillations du B 0s soit annoncée. La période mesurée des oscillations du B 0s est dans la plage privilégiée à partir de ce que l’on Quarks Les protons et neutrons, constituants du noyau atomique, sont formés de quarks connaît des interactions faible et forte. Pour aller liés par des gluons. Pour cela seuls deux types (appelés saveurs) de quarks sont plus loin – et confirmer ou infirmer l’accord actuel nécessaires : up (u) et down (d). On a trouvé qu’il existait en tout six saveurs, entre théorie et expérience – il faut améliorer la les quatre autres : étrangeté (s), charme (c), beauté (b) et top (t) correspondent précision des mesures… et aussi des prédictions, à des quarks plus lourds et très instables qui furent découverts en réalisant encore entâchées de nombreuses incertitudes des collisions à haute énergie. À ces six quarks on associe autant d’antiquarks dues aux calculs complexes mis en œuvre. Côté (q), de même masse et de charges opposées (charge électrique, saveur). Outre expérience, de nouveaux résultats sont attendus des états liés de trois quarks, correspondant par exemple aux protons et aux dans les prochaines années, au TéVatron d’abord, neutrons, il existe des particules qui sont formées par l’association d’un quark puis au LHC sans doute vers 2008. Côté théorie, et d’un antiquark ; le pion, dont nous parlons dans la rubrique « Histoire », en est un exemple. des superordinateurs spécialement conçus devraient prochainement permettre de nouvelles avancées en mettant toute leur puissance de calcul au service des physiciens pendant plusieurs mois.

ÉLÉMENTAÍRE


La question qui tue ! Peut-on dépasser la vitesse de la lumière ? La (première) réponse qui achève...

Si tel était le cas, on pourrait imaginer de nombreuses expériences amusantes. Par exemple, supposez que vous vous déplaciez – par le moyen de votre choix – plus vite que la lumière, c’est-à-dire plus vite que votre propre image. Soudainement, vous vous arrêtez et vous regardez en arrière. Après quelques instants, votre image, qui voyage, elle, à la vitesse c, vous rattrapera : vous vous verrez ainsi arriver alors que vous êtes déjà sur place ! Mais plus fascinant encore... les rayons lumineux qui vous parviendront en premier seront ceux qui auront eu le moins de distance à parcourir, c’est-à-dire ceux qui auront été émis les derniers. Les images de votre arrivée défileront donc à l’envers... Bizarre ? Vous avez dit bizarre ?

© NASA

Dans le vide, la lumière se déplace à une vitesse d’environ 300 000 km/ s : la mesure la plus précise à ce jour donne une valeur de 299 792,458 km/ s. Cette grandeur est une constante fondamentale de la physique, que l’on note c, pour célérité. C’est là une vitesse certes très grande, mais pas infinie, et il est naturel de se demander s’il est possible de se déplacer plus rapidement que la lumière.

La sonde spatiale New Horizons, lancée en janvier 2006 et conçue par la NASA pour explorer Pluton et ses satellites... en 2015.

Au début du vingtième siècle, les physiciens réalisèrent que la vitesse de la lumière était la même pour toute une catégorie de référentiels appelés inertiels, c’est-à-dire qui sont en mouvement de translation les uns par rapport aux autres (voir « Théorie »). Cette observation les contraignit à modifier profondément les concepts d’espace et de temps, ce qui conduisit à l’élaboration de la théorie de la relativité restreinte. Une conséquence remarquable de cette théorie : deux référentiels inertiels ne peuvent se déplacer l’un par rapport à l’autre avec une vitesse supérieure à celle de la lumière dans le vide. Il est par conséquent impossible de dépasser la vitesse c... Dommage pour l’expérience imaginaire que nous venons de décrire ! Il reste toujours la possibilité de se filmer avec un caméscope et de se passer le film à l’envers... mais c’est certainement moins rigolo.

ÉLÉMENTAÍRE

La vitesse de la lumière obsède bien des physiciens, et leur sert même d’étalon pour leurs mesures ! En effet, le mètre est défini dans le Système International (SI) définissant les unités physiques comme la longueur parcourue par la lumière dans le vide pendant une durée de 1/299 792 458ème de seconde. page 65

L’existence d’une vitesse limite indépassable a de nombreuses autres conséquences profondes. Aucun signal et donc aucune information physique ne peuvent se propager à une vitesse supérieure à c. Considérons, par exemple, deux charges électriques qui interagissent. Que se passe-t-il

© J. Serreau

En fait, la théorie de la relativité restreinte proscrit complètement la possibilité de déplacements à des vitesses « supraluminales », supérieures à c, qui sont souvent nécessaires dans les histoires de science-fiction pour traverser l’Univers en quelques secondes. En sciences-réalité, il faut compter environ neuf mois pour atteindre notre voisine Mars avec les moyens de propulsion actuels, onze ans pour Pluton aux confins du système solaire... et quelques quarante milliards d’années pour la galaxie d’Andromède, l’une des plus proches de notre Voie Lactée. Notez que même en voyageant à la vitesse de la lumière, ce dernier voyage nécessiterait environ deux millions d’années : prévoir de la lecture !


Peut-on dépasser la vitesse de la lumière ? si on déplace légèrement une de ces charges ? Cela va modifier le champ électrique subi par la seconde. Cependant, ce changement ne se fera pas sentir instantanément en tout point de l’espace, car cela correspondrait à une vitesse de propagation infinie de l’information. La modification se propagera de proche en proche à vitesse finie, au mieux égale à c. Ceci exclut donc complètement la possibilité d’interactions instantanées à distance... On parle alors d’interactions « retardées ».

Réfraction La lumière ne se déplace pas à la même vitesse dans des milieux différents, comme l’eau et l’air par exemple : c’est le phénomène de réfraction. Cet effet est à l’origine de l’effet « loupe » de l’eau : quand on observe un poisson à travers la surface de l’eau, par exemple dans un bocal, il apparaît toujours plus gros qu’il n’est vraiment. Ce phénomène explique aussi pourquoi une paille plongée dans un verre semble brisée. Au niveau microscopique, ce ralentissement vient de ce que la lumière, constituée de photons, est sans arrêt absorbée puis réémise par les atomes qui constituent le milieu transparent. Ces cycles d’absorption et de d’émission, répétés un grand nombre de fois, ralentissent le passage des photons à travers le milieu. Certains chercheurs conçoivent actuellement des milieux avec des indices de réfraction très élevés, capables de ralentir fortement la lumière : en 1999, des atomes de sodium convenablement traités propageaient la lumière à la vitesse de... 17 m/s !

Cette propagation à vitesse finie vaut aussi pour la gravitation : ainsi, la théorie de Newton, qui décrit la force de gravité comme une interaction instantanée à distance, est forcément incomplète ! Ce problème de fond amènera Einstein à construire la théorie de la relativité générale en 1916. Mais ceci est une autre histoire… Mais que se passe-t-il si on essaie d’accélérer un objet pour rapprocher sa vitesse de celle de la lumière ? Pour des objets de faible vitesse comparée à c, l’énergie cinétique est proportionnelle au carré de la vitesse : si on va deux fois plus vite, l’énergie cinétique est quadruplée. Mais quand on s’approche de la vitesse limite, la relation entre énergie et vitesse se révèle plus compliquée : l’énergie totale d’un objet de masse m et de vitesse v est donnée par E = mc2/√1-v2/c2 , c’est-à-dire

v = c × √1-(mc2/E)2 .

Cette relation nous dit que l’énergie augmente indéfiniment pour des vitesses approchant celle de la lumière dans le vide. Et quelle que soit l’énergie fournie à l’objet, sa vitesse restera en-dessous de c. Mais la relation précédente est de portée bien plus grande que cette simple assertion : elle nous dit que l’énergie d’une particule au repos (v = 0) a une valeur bien déterminée, proportionnelle à la masse de la particule : E0 = mc2. C’est la fameuse relation d’Einstein qui établit le fait que la « masse » d’un objet est une forme d’énergie : une conséquence inattendue de la théorie de la relativité restreinte, à la base de toute la physique nucléaire et la physique des particules.

page 66

© J. Serreau

... mais pas complètement ! La vitesse de la lumière serait donc une limite absolue, indépassable ? À y regarder de plus près, tout n’est peut-être pas pas perdu. En effet, à strictement parler, la théorie de la relativité restreinte stipule que la vitesse limite est la vitesse c de la lumière dans le vide. Cependant, la vitesse de déplacement des ondes lumineuses dans un milieu peut être différente de c. En effet, dans les milieux dits « réfringents », c’est-à-dire transparents comme le verre ou l’eau, elle est en fait égale à c’ = c/n, où n est appelé indice de réfraction. Par exemple, l’indice de réfraction de l’eau est d’environ 1,3, ce qui correspond à une vitesse de propagation de la lumière égale à 230 600 km/s.

ÉLÉMENTAÍRE


Peut-on dépasser la vitesse de la lumière ? Des progrès récents en sciences des matériaux ont même permis de préparer des milieux aux propriétés optiques telles que l’on parvient à y ralentir considérablement, voire même à y piéger complètement la lumière. Il apparaît donc envisageable de se déplacer plus rapidement que la lumière dans un milieu réfringent, tout en respectant la limitation de vitesse absolue imposée par la relativité restreinte : « à vos marques...»

Il est donc possible de se déplacer plus vite que la lumière. Il suffit pour cela de lui mettre des bâtons dans les roues... grâce à un milieu qui la ralentisse. Dans la vie courante, il nous faudrait tout de même quelques efforts pour passer le « mur de la lumière » : l’indice de réfraction de l’air est de 1,0003, ce qui correspond à une vitesse c’ = 299 700 km/s. Gare aux radars !

ÉLÉMENTAÍRE

Piscine de refroidissement, illuminée par effet Cerenkov.

Effet Cerenkov Tiens, une ambulance garée à proximité vient de mettre en marche sa sirène. Tututut... elle émet alors des ondes sonores qui se propagent uniformément dans toutes les directions (figure de gauche) à la même vitesse d’environ 340 m/s (la valeur de la vitesse du son dépend du milieu : air, eau, métal…). L’ambulance démarre en trombe et les ondes sonores suivent son déplacement (figure du centre) : à l’avant de l’ambulance, les ondes semblent comprimées, tandis qu’à l’arrière, elles sont étirées. La fréquence du son semble donc plus élevée, et la sirène paraît plus aigüe, quand l’ambulance s’approche de nous... et plus grave quand elle s’éloigne. Cette variation de fréquence, appelée effet Doppler, sert à mesurer à l’aide d’ondes la vitesse de nombreux objets en mouvement (voitures, débit sanguin, galaxies...). Imaginons que notre ambulance, munie de moteurs surpuissants dignes du Concorde, accélère sa course folle... Les ondes sont de plus en plus comprimées et empilées vers l’avant, jusqu’au moment où la vitesse de l’ambulance dépasse celle à laquelle les ondes se propagent (340 m/s, tout de même !). Que se passe-t-il alors ? À l’arrière de notre ambulance supersonique se développe une onde de choc, correspondant à une perturbation brutale du milieu (voir figure de droite). Cette compression est responsable du bruit caractéristique des avions supersoniques, le « bang ». L’effet Cerenkov est la traduction de ce phénomène pour des ondes lumineuses. Rappelons que le mur du son n’a été franchi pour la première fois qu’en 1947 par C. Yeager, et que l’effet Cerenkov a été découvert et expliqué à peine quelques années plus tard (prix Nobel 1958). page 67

Ce phénomène est appelé l’effet Cerenkov (prononcer « chérènekof »). C’est l’analogue de l’effet Mach pour les ondes sonores. Quand une source sonore se déplace plus rapidement que les ondes qu’elle génère, c’est-à-dire lorsqu’elle dépasse le mur du son, une onde de choc se produit : c’est le « bang » des avions supersoniques. Dans le cas de l’effet Cerenkov, l’onde de choc est un flash lumineux qui poursuit la particule chargée. Cet effet est responsable de la lumière bleue qui emplit les piscines de refroidissement des réacteurs nucléaires : les électrons produits lors des réactions nucléaires sont effectivement plus rapides que la vitesse de la lumière dans l’eau. On utilise aussi la lumière Cerenkov pour détecter le passage de particules chargées et énergétiques, que ce soit dans l’atmosphère, par exemple pour le télescope HESS, ou dans des cuves remplies d’eau, comme c’est le cas dans les expériences AUGER ou SuperkamiokaNDE, que vous pouvez découvrir dans les rubriques «Expérience» et «Découverte».

© CEA

Plus qu’envisageable, c’est en fait possible et même très fréquent... enfin, pour des particules : par exemple, un électron d’énergie égale à 1 MeV se déplace à une vitesse de 257 370 km/s, c’est-à-dire plus vite que la lumière dans l’eau. Que se passe-t-il si un tel électron traverse une cuve remplie d’eau ? L’eau est un milieu diélectrique, c’est-à-dire qu’il répond au passage d’une particule chargée en émettant de la lumière le long de sa trajectoire. Mais notre électron se déplace plus rapidement que la lumière émise ! il laisse donc derrière lui un « sillage » lumineux, qui s’apparente au sillage d’un bateau (ou d’un canard...) à la surface de l’eau – à condition que l’esquif vogue plus rapidement que les vagues produites par son passage.


Énergie nucléaire Déchets nucléaires Le cas français et la loi de 1991 Le becquerel (ou Bq) correspond à une désintégration radioactive par seconde. Le corps humain par exemple a une radioactivité naturelle d’environ 8000 Bq. Pour mesurer le risque de la radioactivité sur la santé, il faut utiliser la notion de radio-toxicité. En effet, une particule émise lors d’une désintégration radioactive peut avoir différents effets sur les cellules humaines, selon son type (particule alpha, bêta, gamma), son énergie, et le lieu où elle se désintègre, qui dépend de la nature chimique de l’élément. Pour les risques associés au stockage des déchets, on parle souvent de radio-toxicité par ingestion (mesurée en Sievert ou Sv), qui représente la dose reçue après ingestion des matières radioactives. Les calculs effectués concernant les scénarios de stockage donnent une radioactivité résultante de l’ordre de 1mSv/an au maximum après un million d’années de stockage, à comparer à la radio-toxicité naturelle qui est de l’ordre de 2 à 20 mSv/an selon les régions.

La notion de « déchets nucléaires » dépend fortement de la stratégie de gestion choisie pour le combustible usé, et comporte nombre d’ambiguïtés qui rendent souvent difficile toute approche claire du problème. En France, est considérée comme déchet nucléaire toute matière radioactive non valorisable, c’est-à-dire n’ayant aucun potentiel énergétique. La source principale de radioactivité artificielle produite par l’industrie provient des combustibles usés de l’industrie électronucléaire, qui sont à l’origine des déchets dits de type C, dont la radioactivité est supérieure à 1 milliard de becquerels par gramme. Les effluents de retraitement et les matériaux de structure constituent les déchets dits de type B (radioactivité supérieure à 1 million de Bq/g). Enfin, il existe des déchets de très faible activité ou déchets A (blouse, bétons, etc...) qui sont stockés définitivement en subsurface, c’est-à-dire dans des zones proches de la surface. Ces matières radioactives doivent être confinées afin de limiter au maximum les risques de contact avec l’homme et d’éviter toute contamination de l’environnement et tout impact sur la santé. La loi Bataille, votée en France en 1991 demande aux organismes de recherche d’explorer trois voies afin d’optimiser la gestion de ces déchets : séparation et transmutation; stockage en couche géologique profonde, conditionnement et entreposage. Nous tenterons ici d’expliquer ce que sont les déchets les plus radioactifs produits actuellement, en nous focalisant sur le cas français, et de distinguer la notion de déchets de celle de matière valorisable. Nous donnerons les grandes lignes concernant les trois axes de recherche à la fin de cet article.

La stratégie de retraitement

© J. Serreau

Les réacteurs français (REP : Réacteur à Eau sous Pression) utilisent un combustible à uranium enrichi en 235U (environ 4%) sous forme d’oxyde (appelé UOX, voir Élémentaire 1). Dans leur cœur, la fission de noyaux lourds génère des produits de fission, dont 10% environ sont radioactifs. Parmi ces derniers, certains ont une durée de vie « moyenne » (environ 30 ans : 90Sr, 137 Cs) ou « longue » (129I : 15 millions d’années, 99Tc : 210000 ans, 135Cs : 2,3 millions d’années, etc). Ces produits de fission radioactifs sont considérés sans ambiguïté comme des déchets.

page 68

En outre, lorsqu’il est bombardé de neutrons, un noyau lourd comme l’uranium peut tantôt fissionner, tantôt capturer le neutron sans fissionner. Ces captures successives par les isotopes de l’uranium conduisent à la production de noyaux plus lourds. Le plutonium est le plus produit. Les autres sont appelés actinides mineurs : il s’agit du neptunium (Np), de l’américium (Am) et et du curium (Cm). Ces noyaux lourds sont tous radioactifs, avec des durées de vie allant de quelques dizaines à plusieurs millions d’années. Une fois utilisé, le combustible UOX contient (en poids) 1% de plutonium, 0,07% d’actinides mineurs (Np, Am et Cm), 3,7% de produits de fission et encore 1% d’235U. Certains pays comme la Suède ou les États-Unis considèrent aujourd’hui ce combustible usé comme un déchet à stocker, après un « simple »

ÉLÉMENTAÍRE


Déchets nucléaires conditionnement. En France, on le retraite pour en extraire la matière dite valorisable, c’est-à-dire le plutonium et l’uranium. En effet, le plutonium est essentiellement composé de 239Pu, qui est un noyau fissile au même titre que l’235U. Lors de la phase de retraitement du combustible UOX usé : - les produits de fission volatiles sont relâchés dans l’atmosphère (les gaz rares comme le krypton) ou dans la mer (iode et tritium). Ces rejets de faible radioactivité doivent répondre à des normes d’émission très strictes. - les autres produits de fission et les actinides mineurs (Np, Am et Cm) sont coulés dans des verres très résistants (vitrification), ce qui constitue un conditionnement et un stockage considérés aujourd’hui comme définitifs. - le plutonium est séparé pour être utilisé sous forme de combustible MOX (Mixed Oxyde), qui est un mélange d’uranium appauvri (uranium issu de la phase préliminaire d’enrichissement de l’uranium naturel et qui contient environ 0,25% d’235U) et de plutonium (environ 7% de Pu). - l’uranium, qui contient encore 1% d’uranium fissile 235U, est également séparé, une partie est ré-enrichie pour être utilisée en réacteur, l’autre partie est entreposée. Le retraitement n’étant pas parfait, une petite partie des matières valorisables uranium et plutonium sont perdues dans les déchets vitrifiés et les déchets de retraitement. Les performances actuelles des procédés de retraitement permettent de limiter ces pertes à 0,1% environ.

Le cas de l’iode L’iode radioactif est actuellement rejeté à la mer. Il s’agit de l’iode 129, dont la durée de vie est de 15 millions d’années. Cette très longue durée de vie conduit à une radioactivité très faible. De plus, le rejet à la mer dilue l’iode radioactif dans l’iode stable (133I) présent en grande quantité dans l’eau de mer. Ainsi, si la concentration en iode radioactif est bien contrôlée, il n’y a aucun risque d’accumulation d’iode dans la faune et la flore marine, et par conséquent, aucun risque d’accumulation pour l’homme. Dans la zone de rejet de l’iode près de l’usine de retraitement de La Hague, la concentration mesurée de l’iode radioactif par rapport à l’iode stable (129I / 133I) vaut un millionième. Si l’on consommait uniquement des aliments issus de cette zone (très réduite et très protégée), cela conduirait à une irradiation supplémentaire de la thyroïde (glande ou se fixe l’iode) de 0,05 Bq, à comparer par exemple aux 2,5 Bq reçus par la thyroïde par la radioactivité intrinsèque du corps humain. Dans ces conditions, il apparaît que le rejet dans la mer d’iode radioactif de très longue durée de vie constitue une façon de gérer cet élément meilleure que le stockage en surface. D’une part l’iode est très mobile et donc très difficile à stocker et d’autre part, le stockage d’iode pourrait conduire, dans une situation accidentelle, à une ingestion massive d’iode radioactif (non dilué), et donc à des doses reçues par la thyroïde bien supérieures à celles liées à la méthode actuelle.

Le combustible MOX est utilisé dans 20 réacteurs REP de 900 MWe (mégawatts électriques), à hauteur de 30% du cœur, et produit environ 8% de la puissance électrique nucléaire française (les 92% restant proviennent des combustibles UOX). Aujourd’hui, environ 80% du plutonium issu des UOX usés est recyclé sous forme de MOX. Cela signifie que 20% des combustibles UOX usés ne sont pas retraités. Les combustibles MOX usés ne sont pas retraités : ils sont entreposés tels quels dans des piscines de refroidissement. Ils contiennent encore environ 4% de plutonium et une quantité non négligeable d’actinides mineurs lourds (Am et Cm) produits par captures successives de neutrons à partir du plutonium. Du fait de la présence initiale de plutonium dans le combustible, la concentration finale en actinides mineurs est bien supérieure à celle atteinte dans les UOX usés. Notons que ces combustibles MOX usés contiendront à terme la quasitotalité du plutonium civil français, ce qui constitue une réserve de matière fissile, éventuellement utilisable dans des réacteurs surgénérateurs (dits de 4ème génération) pour remplacer l’235U. Ces réacteurs pourraient être déployés dès 2030, et permettraient d’optimiser l’utilisation des ressources en uranium : alors qu’un REP actuel consomme près de 200 tonnes d’uranium naturel pour produire 1GWe.an, un surgénérateur en consommerait moins d’une tonne. Le

ÉLÉMENTAÍRE

page 69

Le combustible MOX, réserve de déchets et d’énergie


© SEGG

Déchets nucléaires Étude du comportement de la roche sous un effet thermique simulant l’échauffement provoqué par le stockage de déchets nucléaires

déploiement de ces réacteurs dépend de la disponibilité des ressources en uranium, et donc de la demande mondiale, qui pourra être amenée à croître significativement dans les décennies à venir. Il semble donc important d’accumuler un stock « stratégique » de plutonium suffisant (700 tonnes au niveau français) afin de pouvoir démarrer ces réacteurs de 4ème génération.

Déchets ultimes et matières valorisables © CEA

Résumons la stratégie française de retraitement du point de vue des déchets, qui s’appuie sur l’usine de retraitement de La Hague (qui est disponible en l’état jusqu’en 2040). La capacité d’utilisation de combustible MOX étant limitée dans les réacteurs français, seules 850 tonnes de combustible UOX usé sont retraitées chaque année (sur 1100 tonnes produites), afin de ne pas accumuler du plutonium séparé non utilisé. Les 250 tonnes non retraitées sont entreposées. Pour les produits de fission non volatiles, 70% environ sont vitrifiés (issus des UOX usés retraités), les 30% restants correspondent à ceux contenus dans les UOX et les MOX non retraités, et sont donc entreposés. Enfin, 30% des actinides mineurs sont vitrifiés (issus des UOX usés retraités), et 70% sont entreposés dans les UOX et les MOX usés non retraités. Seuls les verres issus du retraitement des UOX usés, qui contiennent produits de fission et actinides mineurs, sont considérés sans ambiguïté comme déchets. Les MOX usés constituent, comme nous l’avons expliqué, une réserve de plutonium, et sont pour l’instant considérés comme matière valorisable, même s’ils contiennent des produits de fission et des actinides mineurs, eux-mêmes non valorisables. Selon les différents scénarios envisagés, le plutonium contenu dans les combustibles MOX irradiés sera considéré comme une matière fissile utile (par exemple lors du déploiement de surgénérateurs), ou, dans le cas de l’arrêt du nucléaire, comme un déchet. Dans le cas où le plutonium est un déchet, il devra être conditionné et stocké, et il dominera les risques associés à la radio-toxicité des déchets. De plus, son caractère fissile sera une contrainte supplémentaire pour le site de stockage, puisqu’il faudra éviter toute réaction nucléaire en chaîne dans le site, ainsi que les détournements de ces matières stockées à des fins militaires ou terroristes. © CEA

Installation prototype pour la vitrification des déchets en développement à Marcoule.

page 70

L’usine de retraitement des déchets nucléaires de la Hague.

ÉLÉMENTAÍRE


Déchets nucléaires La loi de 1991 propose trois axes de recherche :

© CEA

Le « carreau » du laboratoire de recherche souterrain sur le stockage géologique de déchets à haute activité et à vie longue du site de Bure, en mai 2001.

Inspection d’un container de déchets vitrifiés à l’unité R7 de l’usine UP2800 de la Cogema à la Hague.

page 71

ÉLÉMENTAÍRE

© CEA

- Axe 1 : séparation et transmutation. Cette stratégie s’applique uniquement aux déchets C, de haute activité et à vie longue, et principalement aux actinides mineurs qui dominent la radioactivité à long terme des colis vitrifiés. Il est en effet possible de les séparer des combustibles irradiés et de les détruire par fission dans des réacteurs. Les réacteurs du futur à neutrons rapides sont les plus efficaces du point de vue de l’incinération de ces noyaux. Deux voies sont explorées : le recyclage homogène des actinides mineurs avec l’uranium et le plutonium dans les réacteurs électrogènes, ou l’incinération des actinides mineurs dans un petit nombre de réacteurs ad hoc (stratégie de double strate). Dans les deux cas, la transmutation nécessitera le développement de nouveaux types de réacteurs. - Axe 2 : étude de la possibilité de stockage géologique, réversible ou non. La loi prévoyait la construction de deux laboratoires souterrains afin d’y mener des expériences, un dans l’argile, un autre dans le granit. Aujourd’hui, seul le laboratoire de Bure (argile) a été construit. Les travaux sont menés par l’Andra (Agence Nationale pour la gestion des Déchets RAdioactifs) et tendent à démontrer la faisabilité du stockage. Mais une vingtaine d’années est encore nécessaire pour aboutir à la phase industrielle. - Axe 3 : conditionnement et entreposage. Il s’agit ici d’étudier et d’optimiser le confinement des déchets (colis), de mettre en œuvre des méthodes efficaces de caractérisation et de contrôle, et d’étudier également la possibilité de les entreposer pendant une longue durée, en surface ou en subsurface. Contrairement au stockage géologique, la notion d’entreposage est cohérente avec une stratégie de réversibilité. Il faut noter que les combustibles irradiés et non retraités (une partie des combustibles UOX et la totalité des combustibles MOX) ne sont pas concernés par cette loi, même s’ils contiennent une quantité importante d’actinides mineurs et de produits de fission. Les déchets C (verres) sont conditionnés d’ores et déjà sous une forme définitive. Pour les déchets actuellement vitrifiés, la solution implicitement retenue est donc un stockage définitif. Cette stratégie de vitrification n’est pas remise en cause actuellement, puisqu’il faudrait soit disposer de moyens de transmutation (qui ne verront le jour que dans 30 ans au plus tôt), soit envisager un conditionnement provisoire des matières sur plusieurs décennies (stratégie difficile à mettre en œuvre au niveau politique et industriel). La loi de 1991 représente donc une ouverture des possibilités de gestion future des déchets, et non un « moratoire » sur les déchets actuels. En 2006 cette loi doit être reconduite sous une autre forme. Concernant le stockage, il est acquis qu’il s’agit de l’option de référence pour les déchets accumulés jusqu’alors. Le projet de loi actuel (voté en première lecture en avril 2006) prévoit un nouveau rendez-vous en 2015 pour définir un site de stockage des déchets, qui ne peut être le laboratoire actuel de Bures, et qui pourrait entrer en opération dès 2025. Ce projet de loi prévoit également la poursuite des recherches sur la transmutation, qui devront être menées dans le cadre des réacteurs de 4ème génération.



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.