ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand
Numéro 5
Revue d’information scientifique
Les neutrinos
e-
Équinoxe d’été 2007
νe W
d d n
u
u
d
u p
ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand
Infiniment nombreux mais infiniment discrets, ainsi vont les neutrinos. Ils sont partout mais invisibles (« Apéritif ») et, pour détecter leur présence, il faut le plus souvent surveiller en permanence des centaines de tonnes de matière bardée de détecteurs. La terre, l’eau, le feu (le Soleil) et la glace (« Centre de recherche ») sont mis à contribution pour les étudier et participent à la réalisation de détecteurs, le plus souvent gigantesques. Obtenir des informations sur les neutrinos relève donc de l’exploit et de nombreux prix Nobel ont ainsi récompensé ces recherches.
Le neutrino fut « inventé » par W. Pauli en 1930 et baptisé par E. Fermi en 1933. Pourtant ce n’est qu’en 1956 que le premier membre de la tribu fut détecté et il fallut attendre 1990 pour constater que celle-ci ne contenait que trois membres, dont le dernier fut observé en 2000 (« Histoire » et « Découverte »). C’est en 1998 qu’il fut établi que les neutrinos avaient une masse - jusqu’alors supposée nulle. Comme pour le nez de Cléopâtre, la face du monde allait en être changée ! Cette masse, bien qu’infime (inférieure au millionième de celle de l’électron), ouvrait aux physiciens une fenêtre vers de nouveaux horizons, de nouveaux cieux, bref, une physique nouvelle, et enfin, peut-être une explication à l’asymétrie entre la matière et l’anti-matière dans l’Univers. Le neutrino est aussi le seul constituant fondamental de la matière qui ait une charge électrique nulle. Il pourrait être sa propre anti-particule et serait qualifié alors de « Majorana », du nom du physicien qui souligna cette possibilité dans les années 30 (« Histoire). Si tel est le cas, il existe un mécanisme très rare, la double désintégration bêta sans neutrino, qui permettrait à la fois d’établir cette hypothèse et de mesurer la masse des neutrinos (« Expérience »). Ces masses sont très faibles mais la nature nous a fourni un moyen très sensible de mesurer leurs différences : il s’agit d’un phénomène désigné sous le terme « d’oscillations
des neutrinos » (« Théorie »). Nous expliquerons quel est ce mécanisme, où il a été découvert et ferons le point sur les résultats actuels. Les mesures permettent maintenant de définir les caractéristiques de futures expériences pour déterminer plus précisément les paramètres qui gouvernent le comportement des neutrinos. Nous en profiterons pour expliquer comment on prépare des faisceaux de neutrinos (« Accélérateurs »). La « Question qui tue » : qu’est qu’une particule sans masse ? se demande aussi qu’est qu’une particule qui a une très petite masse ? Ce qui s’avère être encore plus mystérieux. « L’interview » nous a été accordé par F. Vannucci qui est, notamment, un spécialiste des neutrinos. Nous expliquerons aussi des techniques expérimentales utilisées dans certaines de ces recherches comme les chambres à fils (« Détection ») et la mesure de l’énergie (« Analyse »). Dans la rubrique « LHC » nous présentons la dernière des quatre grandes expériences, LHCb, installées sur le futur collisionneur du CERN. Parmi les nouvelles, dans « ICPACKOI », nous avons retenu le démarrage de deux expériences qui étudient les ondes gravitationnelles (VIRGO) et les neutrinos atmosphériques (Antares). L’oscillation des mésons charmés neutres, observée au printemps, termine le bestiaire des particules neutres pouvant être sensibles à ce phénomène. Enfin nous parlons des réacteurs nucléaires de troisième et de quatrième génération dont le principe paraissait confus aux derniers candidats à la présidentielle. Le «petit neutre» ou neutrino n’est sensible qu’à l’interaction faible. Or de plus en plus de physiciens éprouvent un «petit faible» pour lui... car il est une des rares clés pour découvrir de nouveaux phénomènes. Nous espérons que vous aussi, vous serez séduits par les nombreux tours de ce neutrino si mystérieux.
Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Patrick Roudeau Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, F. Fulda-Quenzer, M.-P. Gacoin, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.-H. Schune, J. Serreau, A. Stocchi. Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec. Ont participé à ce numéro : S. David, B. Jean-Marie, C. de Los Heros, A.-I. Etienvre, O. Méplan, P. Royole-Degieux. Remerciements : nos nombreux relecteurs. Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/ Prix de l’abonnement : 6 euros pour 2 numéros (par site internet ou par courrier) Imprimeur : Imprimerie C.Print - Cesson-Sévigné. Numéro ISSN : 1774-4563
Apéritif p. 4
Sources de neutrinos
ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand
Accélérateurs
p. 40 C’est encore loin le Gran Sasso ?
Histoire p. 8
Naissance d’une nouvelle particule Histoire des neutrinos Majorana, une fulgurance énigmatique
Découverte p. 44
Les 3 neutrinos
Interview p. 17 François Vannucci
Théorie p. 47
Comment et pourquoi les neutrinos oscillent ?
Centre de recherche p. 20
La question qui tue p. 64
Expérience p. 26
Énergie nucléaire p. 66
La base Amundsen-Scott Voyage au Pôle Sud
L’expérience NEMO
Détection p. 31 Les détecteurs à fils
Retombées p. 36 Un espion de l’intérieur La datation des vins
Analyse p. 38 L’énergie manquante
Qu’est-ce qu’une particule sans masse ?
Les réacteurs nucléaires : 3ème ou 4éme génération ?
Le LHC p. 55
LHCb : un détecteur de toute beauté
ICPACKOI
p. 58 Oscillation des mésons D neutres. Démarrage de Virgo Les beaux yeux d’ANTARES
Abonnement
: faites votre demande d’abonnement sur le serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Deux numéros par an (port inclus) : 6 euros au total, chèque libellé à l’ordre de «AGENT COMPTABLE SECONDAIRE DU CNRS». Pour les administrations les bons de commande sont bienvenus. Contact : elementaire@lal.in2p3.fr
Apéritif Sources de neutrinos Ils sont partout
Neutrinos du Big-Bang De même qu’il existe un rayonnement de photons fossile emplissant l’univers, on pense que nous sommes baignés par un gaz de neutrinos. Les caractéristiques du rayonnement des photons se sont établies au moment où l’univers leur est apparu transparent, environ 300 000 ans après le Big Bang. Elles correspondent maintenant à celle du rayonnement d’un corps noir dont la température est de 2,7°K. Comme les neutrinos interagissent moins que les photons, l’univers a été transparent plus tôt pour eux, quelques secondes après le Big Bang. La température du gaz de neutrinos doit donc être un peu plus basse, sans doute voisine de 2°K. Le nombre de ces neutrinos doit être égal, pour chaque saveur, à 3/11 de celui des photons.
Essayons de passer en revue les différentes sources de neutrinos qui nous entourent. Nous baignons dans un océan de neutrinos issus du Big-Bang (336 neutrinos par cm3) qui entrent et sortent de notre corps, le parcourant en tous sens à la vitesse de quelques 15 000 km/s. Nous recevons aussi du Soleil 700 mille milliards (7x1014 ) de neutrinos par seconde, que le Soleil soit couché ou bien à son zénith. Les substances radioactives contenues dans la croûte et le manteau terrestre émettent également des (anti)-neutrinos en se désintégrant ; cela correspond en gros à 20 millions de neutrinos qui nous traversent par seconde. Nous émettons nous-mêmes des neutrinos (environ 4 000 par seconde pour une personne d’une soixantaine de kilos) qui viennent principalement de la désintégration du potassium 40 contenu dans nos os. Si l’on se met à un kilomètre du cœur d’une centrale nucléaire on sera aussi traversé par presque autant d’(anti)-neutrinos que ceux venant du Soleil. Et tout cela sans danger puisqu’aucun neutrino, ou presque, n’aura interagi dans notre corps car les neutrinos dont nous venons de parler sont de faible énergie. Des neutrinos de plus haute énergie, et infiniment moins nombreux, sont issus des gerbes de particules créées par l’interaction des rayons cosmiques avec le gaz de la haute atmosphère terrestre. On parle dans ce cas de neutrinos atmosphériques. Mentionnons enfin les neutrinos émis lors des explosions de supernovæ, que nous examinerons plus en détail dans les pages suivantes.
Ils sont de trois types
Quelques 15 000 km/s Cette vitesse s’obtient pour une température de 2 °K et en supposant que leur masse est voisine de 0,1 eV.
Il existe trois types ou saveurs de neutrinos. En effet, on a remarqué qu’un électron, un muon ou un tau étaient associés, dans certaines réactions, à un neutrino particulier. On parle alors de neutrino-e, neutrino-mu ou de neutrino-tau.
Recevons On a supposé que la surface présentée par une personne au flux de neutrinos était égale à un m2.
ÉLÉMENTAÍRE
page 5
Neutrinos et antineutrinos atmosphériques Les rayons cosmiques de grande énergie vont interagir avec le gaz de la haute atmosphère et créer des gerbes de particules qui sont principalement des pions. Ces pions se désintègrent en émettant un muon et un neutrino-mu. À leur tour, les muons se désintègrent en électron et deux neutrinos (un neutrino-e et un neutrino-mu). On s’attend donc à mesurer deux fois plus de neutrinos-mu que de neutrinos-e comme indiqué sur la page ci-contre. Sur cette page on a aussi illustré les émissions de neutrinos et d’antineutrinos. Par – exemple : π+ →μ+νμ et π− →μ−νμ .
Sans danger Les neutrinos interagissent très peu avec la matière. Des neutrinos de basse énergie, d’une dizaine de MeV par exemple, peuvent traverser une longueur de plomb égale à une annéelumière sans que la moitié d’entre eux aient interagi. La probabilité d’interaction des neutrinos augmente proportionnellement avec leur énergie.
Sources de neutrinos eνe W
d
n
u
La désintégration « bêta » est un des trois types de rayonnements, émis par des éléments radioactifs, découverts au début du XXème siècle. Suivant leur capacité à pénétrer dans la matière, Rutherford proposa les termes de « alpha », « bêta » et « gamma » en allant du moins au plus pénétrant. La production d’anti-neutrinos dans les centrales nucléaires provient de la désintégration bêta des nombreux éléments radioactifs qu’elles contiennent. Lors d’une désintégration bêta, un neutron se transforme en proton et émet un électron accompagné d’un anti-neutrino (qui sera dit de « saveur » électron). Ce mécanisme a lieu en réalité au niveau des quarks qui sont contenus dans le proton et le neutron. Un quark « d » du neutron se transforme en quark « u », les autres constituants étant essentiellement spectateurs et assurant la conservation de l’énergie et de la quantité de mouvement lors du processus. Ce type de désintégration est gouverné par l’interaction faible. On le schématise habituellement en considérant que le quark «d» émet une particule W− lors de sa transformation en quark «u». On dit que le W− transmet l’interaction faible. Ce W− donne ensuite naissance à l’électron et à l’anti-neutrino-e.
d
u p
Représentation schématique de la désintégration bêta d’un neutron.
À la source de l’énergie solaire Les mécanismes principaux qui conduisent à la production d’énergie dans le Soleil sont représentés sur la figure ci-dessous. L’amorce de ces réactions provient de la fusion de deux protons pour former du deutérium. Il s’agit d’une réaction dite « bêta inverse » dans laquelle l’un des protons se transforme en neutron accompagné d’un positron (ou anti électron) et d’un neutrino-e. On voit que l’émission de neutrinos provient de la source intime de l’énergie solaire.
Alpha : on réalisa que les trois types de rayonnements : « alpha », « bêta » et « gamma » provenaient de trois types différents d’interactions à savoir, respectivement, les interactions forte, faible et électromagnétique. Les rayons alpha, bêta et gamma sont, dans cet ordre, des noyaux d’hélium, des électrons (ou des positrons) et des photons.
e+
νe 2
Deutérium : ce n’est pas un mammifère du quaternaire, aujourd’hui disparu, mais un isotope de l’hydrogène dont le noyau est constitué d’un proton et d’un neutron.
γ
D
E ν 0,42 MeV e
=p =n
E = 5,5 MeV 3
3 page 6
d
u
La désintégration bêta
He
He
γ 4
He
E = 12,9 MeV
ÉLÉMENTAÍRE
Sources de neutrinos Le flash qui tue Les neutrinos issus de l’explosion de supernovæ méritent une mention particulière. Les étoiles dont la masse est supérieure à une dizaine de masses solaires terminent leur vie en une gigantesque explosion qui donne naissance à une étoile à neutrons ou à un trou noir. Dans une première phase, lorsque les réactions de fusion habituelles s’arrêtent, faute de combustible, l’étoile s’effondre sous l’effet de son propre poids et les protons s’associent aux électrons pour se transformer en neutrons en émettant des neutrinos-e. On pense que ceci se passe en quelques millisecondes. La densité de la matière est cependant telle que les neutrinos-e se trouvent piégés. Ils vont être libérés lors de l’explosion qui suit la phase précédente. Le flash de neutrinos issus de la supernova dure ainsi une dizaine de secondes et, à cause des interactions complexes qui ont eu lieu, on pense que toutes les saveurs de neutrinos et d’antineutrinos émergent de l’étoile. Un tel flash a été enregistré par les détecteurs KamiokaNDE (Japon) et IMB (États-Unis) lors de l’explosion de la supernova SN1987A. Ils ont observé, respectivement, 11 et 8 interactions de neutrinos-e dans leurs détecteurs sur une durée d’une dizaine de secondes. Sachant que l’étoile est située dans le Grand Nuage de Magellan, soit à quelques 160 000 années-lumière de la Terre, observer un signal de son explosion suppose une émission formidable de neutrinos. On pense que sur les 1046 joules, qui correspondent à l’énergie produite lors d’une explosion typique, 99 % sont emportés par les neutrinos, dont l’énergie moyenne est de 10 MeV. Pendant la durée du flash, la luminosité en neutrinos de l’étoile est environ 1020 fois celle du Soleil. Certains ont ainsi pensé que de telles explosions d’étoiles dans notre galaxie pouvaient avoir induit des cancers chez les dinosaures et être une des causes de leur disparition... même si ce n’est pas le scénario privilégié actuellement ! Mesurer l’énergie de ces neutrinos, identifier leur saveur et déterminer la structure en temps du flash est un objectif pour de futures expériences afin d’obtenir des informations sur les mécanismes d’explosion des supernovæ. Comme une telle explosion ne se produit, en moyenne, que tous les 30 ans dans notre galaxie, il ne faudra pas rater son coup !
ÉLÉMENTAÍRE
Supernovæ : Il existe plusieurs types de supernovæ, celles donnant lieu au flash de neutrinos décrit ici sont de type IIA.
Disparition : voir la référence de la publication émettant cette hypothèse : Phys. Rev. Lett. 76, 1996, p. 999 1002 ou http://xxx.lanl.gov/abs/ astro-ph/9505028
page 7
Arrghrrr ! Le neutrino m’aurait tuer !
Supernova SN1987A lors de son explosion.
Histoire Naissance d’une nouvelle particule En 1914, James Chadwick mesure la distribution en énergie – qu’on appelle aussi « spectre » – des électrons émis lors de la désintégration bêta de noyaux radioactifs. Il obtient un résultat contraire à toutes les attentes du moment : si, comme on le pensait à l’époque, seul un électron était produit lors de la désintégration bêta, la loi de conservation de l’énergie devrait imposer que l’énergie de ce dernier fut fixée à une valeur bien précise (E), égale à la différence entre les masses des noyaux initial et final. On s’attend alors à obtenir un spectre « discret », c’est-à-dire une simple raie à cette valeur de l’énergie. Surprise ! Chadwick obtient un spectre « continu », où l’énergie des électrons peut prendre toutes les valeurs possibles dans un intervalle allant de zéro à E. Les électrons ont systématiquement moins d’énergie qu’ils ne devraient. Où part l’énergie manquante ? Après l’abandon de quelques hypothèses non confirmées par l’expérience, une possibilité diablement intéressante – défendue par Niels Bohr lui-même – subsiste pour expliquer ce phénomène. Le « sacro-saint » principe de conservation de l’énergie ne s’appliquerait pas rigoureusement pour chaque émission bêta, mais seulement en moyenne sur plusieurs désintégrations. Cette idée fait son chemin alors que vient de naitre la toute nouvelle théorie de la mécanique quantique, qui révolutionne nombre d’idées et de concepts jusqu’alors acceptés. Au début des années 30, le physicien autrichien Wolfgang Pauli tente de sauvegarder le principe de conservation de l’énergie. Il propose comme « remède du désespoir » qu’un autre rayonnement, très pénétrant (donc difficilement décelable), formé de nouvelles particules soit émis en même temps que l’électron lors d’une désintégration bêta. Ces particules hypothétiques emportant une partie de l’énergie disponible, ceci expliquerait le spectre continu des électrons. D’après les données expérimentales existantes, Pauli conclut que ces particules doivent être neutres (sans quoi elles auraient été facilement observées), de spin 1⁄2 et de faible masse par rapport au proton. Il les nomme « neutrons » et suppose que, puisqu’elles sont produites lors de la désintégration de noyaux, elles font partie de leurs constituants. Le neutron est-il né ? Mais Pauli ne croit guère à son hypothèse. En décembre 1930, il fait transmettre à un congrès de physique se tenant à Tübingen une lettre dont les termes montrent assez dans quelles dispositions il proposait cette idée qu’il nommait lui-même « expédient ». Il était si peu convaincu qu’il n’assista pas au congrès en question pour pouvoir honorer de sa présence un bal se tenant à Zurich. Voici des passages de cette lettre sur la page ci-contre.
James Chadwick (1891-1974). Physicien anglais, prix Nobel de physique en 1935, il a découvert l’existence du neutron en 1932.
Allure d’un spectre (a) de rayonnement bêta obtenu par Chadwick alors qu’il attendait une raie comme celle représentée en (b).
Wolfgang Pauli (1900-1958) Physicien autrichien, prix Nobel en 1945.
page 8
DR
Et le « neutron » devint « neutrino »... Pauli expose à nouveau sa proposition dans une conférence à Pasadena (Californie) en 1931 mais abandonne l’idée que ces particules neutres soient des composants du noyau et, en conséquence, le nom de neutron. Il renonce toutefois à faire paraître le compte rendu de son intervention à cette conférence. Il faut noter que pendant ce temps-là Niels Bohr continuait à défendre l’idée d’une conservation de l’énergie
ÉLÉMENTAÍRE
Lettre traduite de l’allemand par Claude Maillard (Wolfgang Pauli, Physique moderne et philosophie, Albin Michel, Paris, 1999). La lettre de Pauli Zurich, 4 décembre 1930, Chères Mesdames, chers Messieurs les Radioactifs, Comme va vous l’expliquer avec plus de détails celui qui vous apporte ces lignes et auquel je vous prie d’accorder toute votre bienveillante attention, il m’est venu en désespoir de cause, face à la statistique « fausse » concernant les noyaux N et Li6 [azote et lithium-6] ainsi que le spectre bêta continu, l’idée d’un expédient pour sauver le « principe d’échange » de la statistique et le principe de conservation de l’énergie. Il s’agit de la possibilité qu’il existe dans les noyaux des particules électriquement neutres, que je propose d’appeler neutrons, dotés d’un spin de valeur 1/2 , obéissant au principe d’exclusion et qui de surcroît se distinguent des quanta de lumière par le fait qu’ils ne se déplacent pas à la vitesse de la lumière. La masse des neutrons doit être du même ordre de grandeur que celle des électrons, et en tout cas non supérieure à 0,01 de celle des protons. – Le spectre bêta continu se comprendrait alors en admettant par hypothèse que lors de toute désintégration bêta est émis, outre l’électron, aussi un neutron, de telle sorte que la somme des énergies du neutron et de l’électron soit constante. […] A l’heure actuelle, cependant, je ne m’aventurerai pas à publier quelque chose sur cette idée, et je me tourne d’abord en toute confiance vers vous, chers Radioactifs, pour vous demander ce qu’il en serait d’une expérimentation établissant l’existence d’un tel neutron […] Je concède que mon expédient pourrait bien apparaître a priori comme peu crédible, parce que si les neutrons existaient, on les aurait sans doute vus depuis bien longtemps. Mais il faut oser pour réussir, et la gravité de la situation en ce qui concerne le spectre bêta continu est bien mise en lumière par un propos de mon très éminent prédécesseur, M. Debye, qui me disait récemment à Bruxelles : « Oh, c’est comme pour les nouveaux impôts : il vaut mieux ne pas y penser du tout ! » Mais c’est bien pourquoi il importe de discuter sérieusement de tout chemin qui pourrait nous mener hors de l’impasse. – Ainsi donc, chers Radioactifs, examinez et jugez.- Malheureusement, je ne peux pas venir moi-même à Tübingen, ma présence à Zurich étant absolument requise en raison d’un bal qui a lieu dans la nuit du 6 au 7 décembre.- […] Votre très dévoué, W. Pauli
Si l’hypothèse de Pauli ainsi que la théorie de Fermi des interactions faibles sont largement acceptées, le neutrino, qui n’est sensible qu’aux interactions faible et gravitationnelle, échappe à toute détection directe
ÉLÉMENTAÍRE
Enrico Fermi (1901-1954) Physicien italien, prix Nobel en 1938 pour ses travaux sur la radioactivité artificielle. page 9
Un neutrino... deux neutrinos... trois neutrinos...
DR
non rigoureuse mais statistique. En 1932, Chadwick met en évidence le « véritable » neutron (voir Élémentaire N°2), qui est bien une particule neutre et de spin 1⁄2, mais dont la masse est voisine de celle du proton. Lors de séminaires tenus à Rome, Enrico Fermi attribue le nom de « neutrino » (petit neutre, s’opposant au « gros neutre », neutrone) à la particule proposée par Pauli. Une mise au point générale s’opère au congrès Solvay de Bruxelles en 1933. Les réticences de Pauli s’effacent et il signe l’acte de naissance du neutrino dans une communication officielle à ce même congrès. Fin 1933 Fermi écrit un article développant la théorie complète de la désintégration bêta et du neutrino. Il y introduit l’interaction faible. L’article est refusé par la revue Nature parce qu’il contient « des spéculations trop éloignées de la réalité physique » ; il sera d’abord publié en italien, puis finalement en allemand dans la revue Zeischrift für Physik (1934). En 1936, Bohr accepte sans réserve la validité stricte de la conservation de l’énergie et l’existence du neutrino.
Naissance d’une nouvelle particule pendant plus de deux décennies. Il faudra attendre 1956 pour que les premiers neutrinos (en fait des antineutrinos) soient effectivement détectés (voir « Découverte »). Avec la découverte, en 1936, du muon, un cousin lourd de l’électron (voir Élémentaire N°3), les physiciens sont amenés à supposer l’existence d’un second neutrino, associé au muon, tout comme le neutrino de Pauli est associé à l’électron dans l’interaction faible. Ce neutrino « muonique » sera effectivement découvert quelques années après son cousin « électronique ». Après la découverte du lepton tau, un second cousin de l’électron, 3500 fois plus lourd, l’existence d’un troisième type de neutrino (on parle de « saveur ») ne fera de doute pour personne. Cependant, ce neutrino « tauonique » ne sera mis en évidence de façon directe que tardivement, en 2000 (voir « Découverte »), en partie à cause de la masse élevée du lepton qui lui est associé. Mais l’existence de ce neutrino du troisième type avait été démontrée de manière indirecte dix ans auparavant, en 1990. En effet, les études de précision concernant les interactions électro-faibles menées auprès des collisionneurs d’électrons et de positrons LEP au CERN et SLD aux États-Unis (en particulier, l’analyse précise des désintégrations des bosons Z0) ont montré qu’il ne peut exister que trois saveurs de neutrinos de masses inférieures à la moitié de celle du Z0. Juste retour des choses : en effet, ce sont les neutrinos qui, n’étant sensibles ni aux interactions fortes, ni aux interactions électromagnétiques, avaient permis de mettre en évidence l’existence de ce fameux boson en 1973 au CERN. Existe-t-il d’autres neutrinos, plus lourds ? C’est une possibilité. C’est même une attente de nombreuses extensions de la théorie actuelle, le Modèle Standard. Pour tenter de mettre en évidence ces particules hypothétiques, les physiciens se tournent vers le ciel et essaient de détecter d’éventuelles manifestations indirectes. Par exemple, les neutrinos jouent un rôle clé lors de la synthèse des éléments légers dans l’Univers primordial. En effet, l’abondance des neutrinos détermine l’abondance des protons et neutrons disponibles pour former les premiers noyaux composés. Les données astrophysiques concernant l’abondance des noyaux légers dans l’Univers permettent ainsi d’obtenir des limites sur le nombre de neutrinos légers ayant des interactions faibles avec la matière. Ce nombre ne peut pas dépasser 3 ou 4, selon les hypothèses entrant en jeu dans l’analyse. Par ailleurs, les observations cosmologiques, par exemple du fond de rayonnement fossile, donnent les meilleures limites actuelles sur les masses des neutrinos légers. La somme des masses de ces derniers est au plus de quelques électronVolt.
Dessin de C. Cowan par I. Waloschek.
Où sont passés les neutrinos ?
Frederick Reines (1918-1998) Physicien américain, prix Nobel en 1995. Il a découvert, avec C. Cowan, le neutrino-e en 1956.
page 10
En fait, les neutrinos jouent aussi un rôle clé dans la synthèse de tous les éléments, au cœur des étoiles. Ces gigantesques réacteurs nucléaires extraterrestres sont des sources importantes de neutrinos. D’où l’idée des physiciens d’utiliser ces derniers comme sonde de l’Univers : on parle « d’astronomie neutrino ». L’expérience Homestake, menée par Raymond Davies Junior, installée dans une mine du Dakota du Sud, a été la première à détecter des neutrinos provenant du Soleil, afin de tester les modèles du fonctionnement interne de notre étoile. En 1968, les premiers résultats
ÉLÉMENTAÍRE
Naissance d’une nouvelle particule indiquent un déficit important par rapport à toutes les prévisions existantes. De nombreuses hypothèses sont avancées pour expliquer le phénomène, soit concernant les modèles du Soleil, soit concernant les neutrinos euxmêmes. L’une d’elles s’appuie sur une proposition de Bruno Pontecorvo datant de 1957, selon laquelle, sous certaines conditions, les neutrinos peuvent « osciller », c’est-à-dire se transformer les uns en les autres en se propageant (voir « Théorie »). Certains neutrinos électroniques émis par le Soleil se transformeraient ainsi en neutrinos muoniques lors de leur voyage jusqu’à la Terre. Ceci permettrait d’expliquer le déficit observé par l’expérience Homestake, qui ne détecte que les neutrinos électroniques. Homestake continuera d’enregistrer des données jusqu’en 1993 – soit pendant 24 ans ! Les oscillations des neutrinos électroniques seront finalement observées par l’expérience KamLAND en utilisant des centrales nucléaires comme sources de neutrinos. Les oscillations de neutrinos muoniques seront mises en évidence de façon directe en 1998 par l’expérience KamioKaNDE au Japon. Les résultats obtenus montrent qu’au moins deux des trois neutrinos connus ont une masse non nulle.
Trois saveurs de neutrinos Un des résultats les plus spectaculaires obtenus par les expériences qui ont utilisé le collisionneur LEP. Ces mesures consistent simplement à compter, en fonction de l’énergie de la machine donnée en abscisse, le nombre d’interactions conduisant à la production du boson Z0 qui se désintègre en hadrons. Les mesures (points noirs), faites ici par ALEPH, sont comparées aux valeurs attendues en supposant qu’il existe 2, 3 ou 4 saveurs de neutrinos. Elles favorisent clairement la valeur intermédiaire. La mesure combinée des quatre expériences opérant sur le LEP est de 2,984 ± 0,008.
La véritable nature des neutrinos La découverte de masses non nulles pour les neutrinos pose de nombreuses questions. L’une d’elles concerne la nature de ces particules élusives : les neutrinos ayant un spin 1⁄2 doivent être décrits par la théorie de Dirac, tout comme les électrons. Mais dans ce cas, il doit exister des antineutrinos, tout comme le positron est associé à l’électron. Il est facile de distinguer un électron d’un positron, car ces particules sont de charges électriques opposées. Les choses ne sont pas aussi simples pour le neutrino, qui est électriquement neutre. Dès 1937, un jeune physicien italien, Ettore Majorana, avait proposé une théorie décrivant des particules de spin 1⁄2 identiques à leurs antiparticules (de manière analogue à d’autres particules comme le photon, de spin 1, ou encore le pion neutre, de spin 0). Ces « particules de Majorana » sont automatiquement neutres. Pour des particules de masse nulle, il n’existe aucune différence entre une particule de Dirac neutre, ou une particule de Majorana. Mais ce n’est pas le cas pour des particules massives... comme les neutrinos. Diverses expériences tentent et tenteront de déterminer la nature des neutrinos dans les années à venir. La particule proposée par Pauli il y a près de 80 ans n’a pas fini de nous livrer tous ses secrets. L’histoire même de cette particule est marquée par le sceau du mystère. Par exemple, le jeune Majorana dont nous venons de parler... un caractère étrange, dont la disparition précoce reste aujourd’hui encore une énigme. Nous vous comptons cette histoire dans la suite de cet article. page 11
ÉLÉMENTAÍRE
Exemple d’un événement correspondant à la désintégration hadronique du boson Z0. Les traces des particules sont représentées en projection perpendiculaire à l’axe des faisceaux. Elles se regroupent, ici, en trois jets.
Histoire des neutrinos 1930
W. Pauli propose comme « remède du désespoir » l’existence d’une particule neutre de faible masse pour expliquer l’apparente non-conservation de l’énergie dans la désintégration bêta (voir encadré- La lettre de Pauli.)
IMB Irvine-Michigan-Brookhaven est un détecteur situé à 600 m sous terre dans la mine de sel de Morton près de Cleveland (Ohio, USA).
1933 E. Fermi accepte l’hypothèse de l’existence du neutrino
et construit la première théorie pour expliquer la désintégration bêta. Fermi propose le nom de neutrino (« le petit neutre » en italien) pour cette particule hypothétique.
LEP
Il s’agissait des quatre expériences ALEPH, DELPHI, L3 et OPAL situées à des points de collisions de l’accélérateur circulaire LEP d’électrons et de positrons du CERN.
1956
Mise en évidence expérimentale du neutrino-électron par F. Reines et R. Cowan (voir «Découverte» ).
1957 B. Pontecorvo, vivant en Russie, formule pour la première
SLD C’était le détecteur installé autour d’un point de collisions des électrons et positrons produits par l’accélérateur linéaire SLC (SLAC Linear Collider) de SLAC (Californie, USA).
fois la théorie de l’oscillation du neutrino. Il montre que s’il y a différents types de neutrinos, ils peuvent se transformer (osciller) les uns dans les autres.
1962
Découverte expérimentale du neutrino-mu par M. Schwartz, L. Lederman, J. Steinberger et J.-M. Gaillard (voir «Découverte»).
1968
Observation d’un déficit de neutrinos solaires dans l’expérience souterraine installée dans la mine Homestake dans le Dakota du Sud.
1973
Événement courant neutre leptonique : un neutrino interagit avec un électron Les deux traces linéaires quasi-verticales sont dues à des rayonnements cosmiques. Les halos lumineux sont les spots éclairant l’intérieur de la chambre à bulles Gargamelle. Sur ce négatif, les trajectoires des particules neutres (neutrinos ν en rose et photons γ en bleu), invisibles dans la chambre, ont été ajoutées. L’électron éjecté rayonne des photons γ dont on peut voir la conversion en paire électron-positron dans le liquide de la chambre.
Les neutrinos ne pouvant se manifester que par interaction faible, ils permettent d’avoir la première manifestation, au CERN, de l’existence du boson Z0 (une des particules responsables de l’interaction faible).
1987 Détection de neutrinos émis par la Supernova SN1987A (située dans le nuage de Magellan) à KamiokaNDE et à l’IMB (Irvine-Michigan-Brookhaven).
1990
Les quatre expériences, situées à des points de collisions de l’accélérateur circulaire LEP d’électrons et de positrons du CERN, et SLD aux USA établissent qu’il n’y a que trois types de neutrinos de masses inférieures à la moitié de la masse du boson Z0.
1998
Mise en évidence du phénomène d’oscillations des neutrinos à KamioKaNDE. On sait dorénavant que les neutrinos ont une masse qui n’est pas nulle !
2000
page 12
Découverte du neutrino-tau par l’expérience DONUT (voir «Découverte»).
traces créées par des rayons cosmiques
ÉLÉMENTAÍRE
Majorana,une fulgurance énigmatique « Ne me prends pas pour une jeune fille d'Ibsen... »
Suicide ? Probable, mais faut-il se contenter de cette hypothèse aussi simple ? En 1975 un écrivain, sicilien lui aussi, Leonardo Sciascia, posa la question et publia, en feuilleton dans La stampa un essai historique intitulé « La disparition de Majorana », d'où s'ensuivit dans la presse italienne une formidable polémique. Sciascia fut pris à partie notamment par le physicien Edoardo Amaldi, premier biographe de Majorana. L'écrivain avait touché un sujet sensible.
DR
Le soir du 26 mars 1938, Mussolini régnant, le physicien sicilien Ettore Majorana, arrivé le matin même à Palerme, par le paquebot-poste, rembarque (du moins le croit-on), pour un trajet de retour vers Naples. Depuis cette date, mis à part un ou deux témoignages aléatoires, plus personne ne l'a jamais revu : Majorana a disparu à 31 ans!
Henrik Johan Ibsen (1828 - 1906) est un dramaturge norvégien. Alors qu’il est encore enfant, son père fait faillite et sombre dans l’alcoolisme tandis que sa mère se réfugie dans le mysticisme. Tout en poursuivant des études de médecine, Ibsen écrit des pièces pour différents théâtres norvégiens sans grand succès. En 1864, il obtient une bourse et quitte la Norvège pour Rome. Il ne reviendra pas dans son pays d’origine avant vingtsept ans. Il voyage en Allemagne, en Autriche et en Italie, et son écriture s’incline vers le réalisme social, délaissant les influences du romantisme. Le drame social « Une Maison de poupée » (1879) aura un succès international : ses autres pièces sont reprises presque immédiatement dans toutes les capitales européennes. Auteur reconnu, Ibsen revient en Norvège en 1891 et son soixante-dixième anniversaire, en 1898, est l’occasion de festivités nationales, à Christiana (Oslo), Copenhague et Stockholm notamment. Les pièces d’Ibsen, dont les plus connues sont « Un ennemi du peuple », « Une maison de poupée » et « Hedda Gabler », s’opposent aux drames victoriens alors très en vogue. Elles mettent en doute les certitudes morales de la bourgeoisie en montrant la cruauté et l’oppression qu’elles peuvent entraîner. Majorana se défend de ressembler aux héroïnes du dramaturge norvégien, qui choisissent souvent la fuite ou le suicide pour échapper au poids écrasant des conventions bourgeoises dépeintes par Ibsen.
Ettore Majorana avait mis en scène son geste. Le 25 mars, il partait de Naples à 22h30 après avoir expédié une lettre à Antonio Carrelli, directeur de l'Institut de physique de Naples, où il travaillait : « Cher Carrelli, j'ai pris une décision qui est désormais inéluctable. Il n'y a pas en elle la moindre trace d'égoïsme, mais je me rends compte des ennuis que ma disparition soudaine pourra causer à toi et aux étudiants. Pour cela aussi, je te prie de m'excuser, mais surtout pour avoir déçu toute la confiance, la sincère amitié et la sympathie que tu m'a montrées au cours de ces mois. Je te prie aussi de me rappeler auprès de ceux que j'ai appris à connaître et à apprécier dans ton Institut (...) ; de tous je conserverai un affectueux souvenir au moins jusqu'à onze heures ce soir, et, si cela est possible, même après. ».
Ettore Majorana
page 13
ÉLÉMENTAÍRE
DR
Mais, arrivé à Palerme le 26 mars au matin, Majorana envoya à Carrelli un télégramme lui demandant de ne pas tenir compte de la lettre qu'il recevrait. Carrelli reçut bien la lettre, mais aussi une autre, datée de Palerme (26 mars) ainsi libellée : « Cher Carrelli, j'espère que tu as reçu en même temps le télégramme et la lettre. La mer m'a refusé, et je reviendrai demain à l'Hôtel Bologna, en voyageant peut-être avec cette même feuille. Mais j'ai l'intention de renoncer à l'enseignement. Ne me prends pas pour une jeune fille d'Ibsen, parce que la situation est différente. Je suis à ta disposition pour des détails ultérieurs. ».
Majorana,une fulgurance énigmatique Le grand Inquisiteur Ettore Majorana est né d'une bonne famille, à Catane, le 5 août 1906. Après des études classiques, il obtient son baccalauréat en 1923 et entame des études d'ingénieur à l'Université de Rome. Un de ses condisciples, Emilio Segré le convainc, à l'automne 1927, de suivre son exemple et de rejoindre Enrico Fermi, alors âgé de 26 ans, nommé depuis peu (novembre 1926) professeur extraordinaire à la chaire de physique théorique de l'Université de Rome (Faculté de physique, via Panisperna). Il entre ainsi dans le groupe des « garçons de la Via Panisperna ». Le seul (selon Segré) à pouvoir parler d'égal à égal avec Fermi, Ettore ne s'intégre pas totalement, il reste secret, marquant toujours sa différence. Cependant Majorana, selon Amaldi, ne tarde pas à impressionner son entourage par la vivacité de son esprit, la pénétration de sa compréhension et l'étendue de son savoir qui le rendent largement supérieur à ses nouveaux compagnons. Ce groupe travaillait dans une ambiance décontractée sous l'autorité de Fermi, dérisoirement surnommé « le pape ». Ils se désignaient tous, en effet, de surnoms tel, par exemple, « le cardinal vicaire », pour Rasetti. Ettore était doté d'un esprit critique inexorable ; aussi était-il, à cause de cela, le « grand inquisiteur ». Ses travaux sont tous de haute volée : ils révèlent une maîtrise sans faille des données expérimentales disponibles et une « aisance peu commune, surtout à cette époque » (Amaldi) dans l'exploitation des propriétés de symétrie et le choix des meilleures approximations, qualités s'ajoutant à ses exceptionnels dons de calcul. Livre de Leornado Sciascia traitant de la disparition de Majorana («La scomparsa di Majorana»).
Avant Heisenberg, Majorana élabore une théorie du noyau constitué de protons et de neutrons, mais il refuse de publier et interdit même à Fermi d'en faire état lors d'un prochain congrès de physique à Paris. Quand Heisenberg publiera sa propre théorie, Majorana, loin d'en éprouver de l'amertume, concevra au contraire une grande admiration pour le physicien allemand.
Un caractère étrange...
Vue de Catane
page 14
DR
C'est ainsi que, sur les sollicitations de Fermi, Ettore se rend à Leipzig pour y rencontrer Heisenberg (janvier 1933). Il « bavarde » (c'est le mot qu'il emploie dans ses lettres) avec le savant ; mais uniquement avec lui (le physicien belge Rosenfeld qui était au même moment à Leipzig ne se souvient d'avoir entendu sa voix qu'une seule fois). Au retour d'Allemagne commence une période difficile, marquée par la recherche de solitude. Pendant quelque quatre ans (1933-1937) il sort rarement de chez lui et se montre peu à l'Institut de physique, jusqu'à cesser d'y paraître. On ne sait pas s'il fit beaucoup de physique à cette époque ; quand il parlait, c'était d'autre chose. En 1937 est
ÉLÉMENTAÍRE
Majorana,une fulgurance énigmatique
DR
publiée la « théorie symétrique de l'électron et du positron » qui porte sur le fameux « neutrino de Majorana » (Il peut s'agir de travaux réalisés avant le séjour en Allemagne). Période de dépression nerveuse au dire des témoins. Après des péripéties (auxquelles sont liées, d'ailleurs, la publication de la « théorie symétrique... »), Majorana se trouva nommé à la chaire de Physique théorique de l'Université de Naples « pour mérites exceptionnels », en novembre 1937. À Naples, comme à Rome, il mène une vie extrêmement retirée... jusqu'à sa disparition.
Enrico Fermi, Laura Capón Fermi (1907-1977) et leur fils Giulio. L. Fermi a épousé Enrico en 1928 alors qu’elle étudiait la chimie à l’université de Rome. Après le décès de son mari en 1954, elle se consacra à l’écriture et au combat pour la paix.
Majorana a laissé le souvenir d'une personne ultrasensible, introvertie, mais profondément bienveillante (E. Recami). Il éprouvait de grandes difficultés à nouer des contacts humains, difficultés multipliées par son extrême intelligence. Il répugnait à parler, à communiquer et à s'exposer. Ce qui ne le rendait pas incapable d'affection sincère. « Il aidait volontiers ses camarades, au point, par exemple, d'aller subir un examen à la place d'un ami mal assuré de lui-même » (Recami). Il ne publiait ses travaux que sur des instances suffisamment persuasives. « Majorana avait un caractère étrange ; il était excessivement timide et renfermé » (Laura Fermi)
...une étrange disparition
Ettore Majorana à l’âge de 17 ans.
page 15
ÉLÉMENTAÍRE
DR
Après avoir reçu la lettre annonçant la « disparition », Carrelli téléphone à Luciano, frère d'Ettore, qui fait diligenter une enquête. Cette dernière établit, entre autres, que le billet de retour, retrouvé à la compagnie Tirrenia, a bien été utilisé. Un professeur de l'Université de Palerme, Vittorio Strazzeri, dit même l'avoir vu dormir dans sa cabine, alors même que le navire entrait dans la baie de Naples. Mais le professeur n'est pas vraiment certain qu'il s'agisse de Majorana : il sait avoir voyagé dans une cabine en compagnie de deux personnes, l'une étant, en principe Majorana et l'autre un Anglais, Charles Price (d'après les billets). L'Anglais n'a pas été retrouvé. Il parlait italien « comme nous, gens du sud », selon Strazzeri qui, par ailleurs, n'a échangé aucune parole avec Majorana! De là à suggérer, comme le fait Sciascia, qu'en fait l'Anglais devait être l'homme auquel Strazzeri ne parla pas... et que l'homme au verbe méridional était un Sicilien, négociant, à en croire son aspect, voyageant à la place de Majorana (lequel aurait cédé son billet au départ de Palerme)... Quoiqu'il en soit Strazzeri écrit à Luciano : « si la personne qui a voyagé avec moi était votre frère, il ne s'est pas supprimé, au moins jusqu'à son arrivée à Naples ». Les marins de la baie de Naples affirment que s'il s'était jeté à l'eau, la mer aurait tôt ou tard rendu son corps. Un témoin, une infirmière, qui connaissait bien Ettore (elle lui avait communiqué des adresses de bonnes pensions), dit l'avoir vu dans les rues de Naples dans les premiers jours d'avril. D’autres témoignages l'ont même, par la suite, signalé en Argentine.
Majorana,une fulgurance énigmatique La Vérité d'un destin
DR
Majorana est l'un de ces génies singuliers qui surgissent ça et là dans l'histoire de l'humanité. Habités d'un feu intérieur, voués à une oeuvre, ils la réalisent dans l'urgence épuisant, selon des mots empruntés à Mallarmé, « d'orageuses et magistrales fatalités, sans recours à du futur ». On pense à Évariste Galois qui rédige fébrilement, dans la nuit qui précède le duel où il sait qu'il va mourir, à vingt ans, un « testament mathématique » dont, aujourd'hui encore on n'a pas fini d'explorer les conséquences. Et aussi à Rimbaud qui « disparaît » en quelque sorte, à vingt-deux ans, en s'engageant dans l'armée coloniale hollandaise, cessant de fait toute activité poétique, et qui finit par s'abîmer dans l'existence nulle d'un commerçant, trafiquant colonial pour mourir à l'âge de trente-sept ans. Par delà la diversité de la matière, scientifique, littéraire, artistique, dans laquelle ils forment leur création, ces personnages, qui consument leur existence dans un éclair de vivre, touchent, dans leur singularité paradoxale, peut-être mieux que quiconque, à une Vérité humaine universelle. Mais on sait que Majorana aimait Pirandello et c'est peut-être à l'un de ses personnages, Mattia Pascal, qu'il faut laisser la parole pour entendre Ettore : « Qui peut dire le nombre de ceux qui sont comme moi, dans la même condition que moi, mes frères. On laisse son chapeau et sa veste, avec une lettre dans sa poche, sur le parapet d'un pont qui enjambe une rivière ; puis, au lieu de se jeter à l'eau, on s'en va tranquillement, en Amérique ou ailleurs. ».
«Les garcons de la via Panisperna» En partant de la gauche : D’agostino, Segré, Amaldi, Rasetti et Fermi (1934).
DR
Carte du sud de l’italie Sources : Leonardo Sciascia : La disparition de Majorana (Garnier-Flammarion) Erasmo Recami : Il caso Majorana (Di Renzo Editore) page 16
Photo d’Ettore Majorana.
ÉLÉMENTAÍRE
L’interview
réalisée en novembre 2003
François Vannucci
Violation de CP Si la matière et l’antimatière ont été produites de façon symétrique au moment du Big-Bang, il apparaît qu’aujourd’hui, la matière domine largement sur l’antimatière dans l’univers observable. La violation de CP, qui correspond à une différence entre les lois physiques qui gouvernent matière et antimatière, pourrait expliquer cette asymétrie. Cependant les prédictions actuelles du modèle standard ne suffisent pas à expliquer l’asymétrie matière-antimatière observée dans l’Univers.
Comment avezvous choisi de faire de la recherche en physique des particules ? C’est une histoire très personnelle ! Je suivais des cours de licence et notre professeur de physique, Jean Teillac, nous a proposé un stage au CERN. Arrivé au CERN j’ai vécu une période euphorique, je me souviens de départs dans la nuit, sous le ciel étoilé du Jura, pour aller enregistrer des données, on se sentait à la pointe de la recherche et c’était très enthousiasmant ! L’année suivante j’ai fait un autre stage en Angleterre, puis à Brookhaven aux USA. J’ai poursuivi naturellement dans cette voie, au sein d’un milieu international fabuleux. © H. Kérec
J. Steinberger Né en 1921 en Allemagne, il fait ses études aux États-Unis où il réalise aussi ses premières recherches. Il obtient au début des années 60 avec L. Lederman et M. Schwartz le premier faisceau de neutrinos dans un laboratoire. Ils découvrent ainsi le neutrino-mu ce qui leur vaudra le prix Nobel en 1988.
Quelle expérience à laquelle vous avez participé vous a le plus marqué dans votre vie ? La première était très belle. C’était une expérience sur la violation de CP avec J. Steinberger. Dans les années 70, beaucoup d’expériences cherchaient des choses pas très drôles, la physique de CP est a contrario quelque chose d’élégant et de fondamental. Certains des résultats de cette expérience sont toujours les meilleurs obtenus aujourd’hui et font référence. Ensuite je suis allé à SLAC. Arrivé quelques mois avant la découverte du J/ψ , j’en suis reparti quelques temps après celle du lepton τ !! À partir d’une telle expérience on ne peut que décliner !
SLAC Le Stanford Linear Accelerator Center est un grand centre pour la physique des particules situé à l‘université de Stanford en Californie (USA). Le J/ψ et le τ Le J/ψ est une particule formée d’un quark charmé et d’un antiquark charmé. Le τ est le lepton chargé membre de la troisième famille de particules. Il est donc similaire à l’électron si ce n’est qu’il est 3550 fois plus lourd.
Comment avez-vous abordé les neutrinos ? C’est à partir d’une remarque de Glashow faite pendant un repas. La question était (nous sommes en 1979) : « quelle est la physique à faire ? » il répondit « les oscillations de neutrinos ». C’est à ce moment là que j’ai eu l’idée d’un faisceau de neutrinos sortant du CERN et dirigé vers le Jura. Cette idée n’a malheureusement pas pu voir le jour.
S.L. Glashow
Sur quoi travaillez vous actuellement ?
ÉLÉMENTAÍRE
page 17
J’ai travaillé sur NOMAD qui a vécu pendant 10 ans. On espérait faire une découverte fondamentale, on croyait faire le lien entre la cosmologie et la physique des particules ! Mais ce n’était pas l’endroit juste. Depuis je n’ai
Né en 1932 aux États-Unis. C’est un physicien théoricien qui a obtenu le Prix Nobel en 1979 avec S. Weinberg et A. Salam pour leur mise au point de la théorie électrofaible qui unifie les forces faible et électromagnétique. Il s’agit des fondations du Modèle Standard.
F. Vannucci pas choisi une voie bien définie. J’ai participé à l’expérience HARP au CERN, et après un bref passage sur EUSO (rayonnement cosmique de haute énergie) j’ai rejoint la collaboration ATLAS au LHC (au sein de laquelle j’aimerais bien faire de la physique des neutrinos !) essentiellement pour vivre une dernière fois l’espoir d’une épopée inoubliable (si la chance est au rendez-vous).
Que va-t-on apprendre avec le LHC ? Soit c’est la fin de la physique des particules, soit sa renaissance. Si l’on n’y découvre que le boson de Higgs, je commencerais à être pessimiste sur l’avenir de la physique des particules. J’ai l’espoir que le LHC ouvre la voie vers la supersymétrie ou vers un autre phénomène nouveau et soit ainsi porteur de la renaissance de notre domaine de recherche. NOMAD Expérience au CERN (environ 150 physiciens) qui a pris des données de 1995 à 1999. Un faisceau de neutrinomu traverse un détecteur de trois tonnes. Le but de l’expérience était de voir des interactions qui ne soient pas dues au neutrino-mu mais au neutrinotau ce qui aurait établi les oscillations des neutrinos et donc le fait qu’ils aient une masse non nulle. Le phénomène d’oscillation s’est avéré si ténu que NOMAD n’a pas vu d’interactions dues à des neutrinos-tau. L’expérience OPERA, décrite dans «Accélérateur», en est la continuation.
Quel est l’avenir de la discipline ? Si je savais avec clarté où se feront les prochaines grandes découvertes, j’irai tout de suite là ! Si le LHC permet de découvrir la supersymétrie, c’est une nouvelle naissance pour la discipline et il y aura beaucoup de choses à faire. Du côté des astroparticules on s’est lancé dans le gigantisme ! Autrefois un physicien voyait tous les aspects d’une expérience, et comprenait toutes les facettes de sa recherche. De nos jours la recherche en astroparticules c’est déjà une surface de 3000 km2, plusieurs centaines de millions d’euros… le mur du gigantisme est presque atteint. J’aime bien les petites expériences rapides (comme avec une éclipse du soleil). Maintenant les expériences sont énormes, les délais importants! Les jeunes sont aussi enthousiastes qu’avant mais il est plus difficile de satisfaire la dimension ludique de la recherche.
Quel est votre rêve de physicien ?
Novembre 1974, découverte de la particule ψ. En allant de gauche à droite se trouvent Martin Briedenbac (assis), Gerson Goldhaber, Ewan Patterson, Herman Winick et François Vannucci.
page 18
De trouver quelque chose de grand ! Je suis déjà satisfait de ma carrière. La physique explique bien des mystères de l’univers. C’est une entreprise magnifique. C’est merveilleux d’expliquer et de comprendre tout ce qui nous entoure ! La physique s’approche de l’équation ultime dont l’approximation actuelle s’appelle le Modèle Standard ! Un jour expliquera-t-on tout ? La physique ne fait que répondre aux « comment » des choses. Lorsqu’on aura cette équation cela nous donnera peut-être une suggestion sur le pourquoi des choses. Mais que l’Univers soit intelligible ne signifie pas qu’il le soit entièrement : estce que le cerveau humain est sensible à l’ensemble des phénomènes naturels ? Peut-il les comprendre ?
ÉLÉMENTAÍRE
F. Vannucci Qu’est-ce que le fait que les neutrinos soient massifs a changé dans notre vision du monde ?
EUSO EUSO est une future expérience sur la Station Spatiale Internationale habitée. Le but est de détecter les rayons cosmiques et les neutrinos de très grande énergie (E>5x1019 eV), par la traînée fluorescente produite lorsque ces particules entrent dans l’atmosphère terrestre.
Je suis convaincu des oscillations des neutrinos solaires. Je ne suis pas convaincu des oscillations des autres neutrinos. Néanmoins, je dois admettre qu’ils ont une masse, c’est raisonnable. Mais cette masse est trop faible pour expliquer la masse cachée de l’univers. Pourquoi ces masses sont-elles si faibles ? Donc, malheureusement, des neutrinos massifs, avec les masses actuelles, ne change pas grand chose à ma vision de l’univers. Ce qui fascine le public avec les neutrinos c’est leur nature fantômatique, ils traversent la terre sans laisser de traces, c’est une notion très difficile à comprendre.
Boson de Higgs Le «Higgs» est, en théorie, la particule élémentaire qui donne une masse aux autres particules, même si personne n’en a encore vu un. Il a été recherché activement par de nombreuses expériences et le sera encore au LHC.
La question que vous voudriez que l’on vous pose : à quoi ça sert les neutrinos ?
© SLAC
J’ai trois lignes de repli pour répondre à cette question : - il y a 120 ans quand Thomson travaillait sur les électrons, c’était de la physique fondamentale, on n’imaginait pas que la fée électricité arriverait ! - on a inventé des applications possibles pour les neutrinos : détection de sous-marins, recherche pétrolifère, destruction de bombes atomiques, mais tout cela est encore assez hypothétique… - La recherche fondamentale vise à la seule production de connaissances, et le neutrino en est l’archétype. Je pense que cette recherche donne à l’homme sa raison d’être d’animal pensant. Les neutrinos ont quelque chose de beau, ils nous enrichissent au même titre qu’une symphonie ou un poème. C’est une recherche gratuite à mettre au niveau de l’art.
Le site de SLAC en 1975.
Que voudriez-vous dire aux jeunes ? Que la recherche c’est enthousiasmant, la vie de chercheur est une aventure qui vaut la peine d’être vécue, ce métier offre de telles possibilités ! Il faut néanmoins un certain idéalisme pour faire de la recherche. Je peux difficilement dénigrer l’idée qu’ont les jeunes de la recherche « c’est dur et ça ne paye pas » ! Les sciences c’est utile et cela rend heureux !
ÉLÉMENTAÍRE
page 19
F. Vannucci est un ancien élève de l’ENS de St Cloud; il est ensuite entré au CNRS puis est devenu professeur à l’université de Paris VII. Il travaille au laboratoire LPNHE, Paris, et est le porte-parole de plusieurs expériences étudiant les neutrinos. Il est auteur de romans, d’essais sur la physique et même d’une pièce de théâtre sur les neutrinos.
Centre de recherche La base Amundsen-Scott La station américaine « Amundsen-Scott Pôle Sud » (Amundsen-Scott South Pole Station) est située en Antarctique. Découvert en 1820 par une expédition russe, l’Antarctique qui représente environ 10% des terres émergées (une superficie supérieure à l’Australie) voit plus de 98% de sa surface recouverte d’une solide couche de glace qui peut atteindre jusqu’à 5 km d’épaisseur. Il représente ainsi environ 70% des réserves d’eau douce mondiales. L’Antarctique ne compte aucune population indigène et moins de 200 000 personnes s’y sont déjà rendues. La base Amundsen-Scott est située à environ 250 mètres du Pôle Sud. Elle a été nommée ainsi en l’honneur des deux explorateurs, le norvégien Roald Amundsen et l’anglais Robert F. Scott, qui atteignirent le Pôle Sud pour la première fois respectivement en 1911 et 1912 à quelques semaines d’intervalle. D’autres stations de recherche sont installées en Antarctique mais la détection de neutrinos (qui nous intéresse pour ce numéro d’Elémentaire) a lieu à la base Amundsen-Scott dans des conditions extrêmes.
L’Antarctique : un Eldorado pour la Recherche scientifique. L’Antarctique n’est pas seulement l’espace le moins pollué sur Terre ; c’est aussi un vrai paradis pour des chercheurs de toutes disciplines. Ainsi, l’étude de carottes de glace longues de plusieurs kilomètres permet de suivre l’évolution du climat sur plusieurs dizaines de milliers d’années. Bien qu’étant recouvert de glace, l’Antarctique est le désert le plus sec au monde – on estime qu’il n’a pas plu dans certaines zones depuis plus de 1000 ans ! – et son ciel, très souvent sans nuage, est propice aux observations astronomiques de toutes sortes dont IceCube n’est qu’un exemple parmi d’autres. Enfin, l’isolement forcé et absolu des bases antarctiques pendant l’hiver austral attire les psychologues et les scientifiques réfléchissant aux voyages spatiaux de longue durée, par exemple vers Mars.
IceCube, le détecteur qui venait du froid Depuis les premiers astronomes, notre compréhension de l’Univers est basée sur l’observation des phénomènes qui s’y déroulent et dont nous ne sommes que les témoins passifs. Afin d’interpréter correctement les informations recueillies, il faut avoir une idée des distorsions qu’elles ont pu subir au cours de leur long trajet jusqu’à la Terre. Or, les télescopes sont pour la plupart sensibles aux ondes électromagnétiques (lumière visible, infrarouges, ondes radio ou X, etc.) et aux rayons cosmiques lesquels interagissent avec les milieux qu’ils traversent : matière, champs magnétiques interstellaires, etc. Ainsi, l’amplitude, la direction voire la nature de ces signaux sont modifiées sans que l’on puisse toujours contrôler ces variations.
Des conditions extrêmes Située à une altitude de 2850 m (et à 250 m du Pôle Sud !) la station d’AmundsenScott a un climat extrêmement rigoureux. La température annuelle moyenne est de l’ordre de -50°C. La température la plus froide jamais enregistrée est de -82°C. La température la plus élevée enregistrée est quant à elle de -13°C. La moyenne en été est de l’ordre de -30°C et -60°C en hiver. Les précipitations y sont également très faibles puisqu’elles sont de 70 mm d’eau (neige en équivalent pluie).
page 20
Vue aérienne de la base Amundsen-Scott.
L’idéal pour les scientifiques serait donc de disposer d’une sonde qui puisse voyager sur de grandes distances sans subir aucune altération. Le neutrino apparaît comme le messager idéal : produit en quantités... astronomiques lors de phénomènes astrophysiques violents, il est IceCube Un détecteur construit pour durer : une fois sa construction terminée en 2011, IceCube couvrira une surface de 1 km2 en forme d’hexagone. Il se compose de 4800 sphères de verre de 50 cm de diamètre contenant chacune un photomultiplicateur orienté vers le bas (pour observer les neutrinos ayant traversé la Terre, utilisée comme écran pour les rayons cosmiques). 60 sphères sont accrochées à une même ligne d’1 km de long, descendue entre -1450 et -2450 m dans un puits de 60 cm de diamètre. À cette profondeur, la glace est très pure : les bulles d’air résiduelles ont été éliminées par compression. Chaque forage prend environ 48 heures et nécessite 60 000 litres d’eau chaude sous pression. Installer une ligne nécessite 11 heures en moyenne ; ensuite, l’eau gèle à nouveau, rendant ajustements et maintenance impossibles pour environ ... 25 000 ans ! C’est en effet le temps qu’il faudra au détecteur pour migrer jusqu’à la côte antarctique. Plus modestement, les scientifiques tablent sur « seulement » 20 ans de prise de données.
ÉLÉMENTAÍRE
La base Amundsen-Scott
© C. Danals, NSF
électriquement neutre et, plus généralement, n’interagit presque pas avec le monde qui l’entoure : son énergie comme sa direction sont conservées. Malheureusement, ces caractéristiques uniques ont un prix : si l’Univers est quasi-transparent pour les neutrinos, les détecteurs de physique des particules le sont aussi ! Il faut donc instrumenter des volumes de matière énormes, les observer sur de longues périodes et enregistrer les rares événements pour lesquels un neutrino laisse une trace observable. De ces constatations est né le projet IceCube, actuellement en construction dans l’Antarctique : un kilomètre cube de glace, soit la quantité d’eau passant en moyenne sous le pont du Carrousel à Paris pendant un mois et demi, servira à détecter des neutrinos de haute énergie (supérieure à 100 GeV) par émission de lumière Cerenkov – voir Élémentaire N°4. La base Amundsen-Scott avec une magnifique aurore australe en fond.
IceCube est une collaboration internationale regroupant les États-Unis (moteur du projet et assurant 90% de son financement, estimé à environ 270 millions de dollars), l’Allemagne, la Belgique, le Japon et la Suède. Cette expérience repose sur le principe suivant : lorsqu’un neutrino-mu énergétique interagit avec un atome de la glace, il produit un muon dans l’axe de sa trajectoire. Comme la vitesse du muon excède celle de la lumière dans le milieu, il émet un flash de lumière bleue par effet Cerenkov, visible sur environ 250 mètres dans de la glace très pure. Ce cône de lumière est détecté par un réseau de photomultiplicateurs dont les données (calibrées en temps au niveau de la nanoseconde) permettent de reconstruire les caractéristiques du muon (énergie et direction) et donc d’estimer celles du neutrino qui l’a engendré. En août 1990, une équipe américaine basée au Groenland détecte dans la glace le signal Cerenkov de muons issus de l’interaction entre des rayons cosmiques et l’atmosphère. Suite à ces tests concluants, trois ans plus tard, le projet AMANDA (Antartic Muon and Neutrino Detector Array) est lancé au pôle sud pour mettre au point et tester sur une échelle réduite (400 mètres de profondeur et une douzaine d’hectares en surface tout de même) la technologie maintenant déployée dans IceCube. La transition entre AMANDA et IceCube a eu lieu en 2005. La même année, une première ligne de détecteur a été « gelée » avec succès ; 8 lignes ont été installées pendant l’été austral 2005/2006 et 12 en 2006/2007. Le planning prévoit d’installer 14 lignes par an jusqu’en 2011 – à cause des rudes conditions hivernales, le travail n’est possible que 6 mois par an. Le matériel arrive par air grâce à des avions Hercules C-130 (dont les moteurs ne cessent jamais de tourner une fois posés pour éviter que les circuits hydrauliques ou de carburant ne gèlent).
ÉLÉMENTAÍRE
page 21
Aucune maintenance n’étant possible une fois les photomultiplicateurs enfouis sous 2 kilomètres de glace en moyenne, chacune des 4 800 unités est autonome au niveau énergétique, dispose de sa propre horloge (synchronisée plusieurs fois par minutes avec une horloge mère en surface) et envoie directement un signal digital afin d’éviter le bruit électronique
Vue schématique du détecteur ICECUBE. L’échelle est donnée par la Tour Eiffel.
La base Amundsen-Scott qui s’ajoute aux signaux analogiques lorsqu’ils sont transférés sur une distance importante. Lors de l’été austral une cinquantaine de membres d’IceCube en moyenne sont sur place ; pendant l’hiver, seules trois personnes seront nécessaires pour faire fonctionner le détecteur et maintenir les ordinateurs assurant l’acquisition des données. Celles-ci sont ensuite envoyées par satellite vers les laboratoires de la collaboration pour y être analysées.
Visualisation du passage d’un neutrino dans le détecteur AMANDA.
page 22
Représentation des photomultiplicateurs du détecteur AMANDA.
IceCube est un détecteur à large spectre, capable de fournir des données intéressantes aux astrophysiciens comme aux physiciens des particules. Tous les phénomènes susceptibles de produire des neutrinos de haute énergie (auxquels un détecteur comme SuperKamiokaNDE n’est pas sensible à cause de sa taille trop réduite) ainsi que les théories prédisant l’existence de telles particules intéressent les membres de la collaboration constitué ed’environ 400 personnes. Les champs de recherche concernent : • Les trous noirs supermassifs qui, pense-t-on, se trouvent au centre de certaines galaxies dont le rayonnement est particulièrement important et leur fournissent une énergie colossale. Ces noyaux actifs de galaxie (AGN pour « Active Galactic Nuclei ») émettent parfois des jets de matière accélérée à des énergies relativistes. Les modèles expliquant ces jets prévoient la production de neutrinos de haute énergie. • Les sursauts gamma ont beau être les phénomènes les plus énergétiques de l’Univers (jusqu’à 10 millions de fois plus brillants que la Voie Lactée toute entière !), leur origine est encore mystérieuse. Les mécanismes potentiellement capables de les expliquer sont similaires à ceux des AGN (chocs impliquant de la matière relativiste) et devraient également produire une grande quantité de neutrinos. • Autre mystère actuel de l’Univers : la matière noire. De nombreuses observations, par exemple la mesure des vitesses de rotation de galaxies, montre que la masse présente dans l’Univers excède de beaucoup (un facteur six environ) la matière visible, ordinaire. Il existe donc une autre forme de matière, inconnue, et appelée « matière noire » faute de meilleure description. Plusieurs extensions du Modèle Standard (comme la Supersymétrie) prédisent l’existence de particules de masse non nulle qui feraient de bons candidats pour la matière noire. Soumises à l’effet de la gravité, elles auraient tendance à s’agglomérer au centre d’objets massifs comme les galaxies. Dans ces régions de forte densité, elles pourraient s’annihiler par paire et produire, là encore, des neutrinos énergétiques. • Bien que spécialisé dans les neutrinos de haute énergie, IceCube détectera le flux de neutrinos de basse énergie émis par une supernova galactique (comme par exemple SN1987A) : pendant le bref passage de ces neutrinos, les photomultiplicateurs verront leur taux de comptage augmenter de manière cohérente. Ainsi, IceCube est membre du réseau SNEWS (« SuperNova Early Warning System »), un système d’alerte précoce visant à détecter le plus rapidement possible une nouvelle
ÉLÉMENTAÍRE
La base Amundsen-Scott supernova afin d’alerter le maximum d’observatoires de par le monde. Par contre, IceCube ne reconstruira pas ces neutrinos et ne pourra donc pas donner d’indication sur la position de la source dans le ciel. • Enfin, en plus d’étudier les neutrinos de haute énergie, IceCube, en association avec le détecteur de surface IceTop, permettra d’approfondir les connaissances sur la composition et le spectre en énergie des rayons cosmiques grâce aux nombreux muons produits lors de leur interaction avec les hautes couches de l’atmosphère.
IceTop Un détecteur de gerbes de particules, IceTop, est installé en surface : à l’aplomb de chaque ligne se trouve un réservoir rempli de glace et contenant deux senseurs identiques à ceux enfouis en profondeur. IceTop observera les électrons et les muons issus d’interactions entre des rayons cosmiques et l’atmosphère. Il servira à la fois en mode « veto » (« j’ignore tous les signaux de type « neutrino » puisque je viens de voir passer un rayon cosmique ») et en coïncidence avec IceCube.
Il n’y a pas que les neutrinos dans la vie ... au Pôle Sud ! La base Amundsen-Scott héberge également des instruments ayant pour but la mesure des anisotropies et de la polarisation du fond diffus cosmologique. On appelle fond diffus cosmologique (CMB) les photons produits 300 000 ans après le Big-Bang et qui sont aujourd’hui à une température de 2,7 K. On trouve environ 400 photons du CMB par cm3 ; ils composent quelques pourcents de la « neige » que l’on voit sur un écran de télévision lorsque les chaînes sont déréglées !
© Univ. Wisconti Madison
L’instrument actuellement en prise de données à la base Amundsen-Scott est le « South Pole Telescope » (SPT), un nouveau télescope équipé d’un miroir de 10 mètres de diamètre. Le SPT profite de l’atmosphère très sèche du Pôle Sud ainsi que de son altitude élevée afin de diminuer les perturbations des mesures dues à l’atmosphère. Construit au Texas, aux États-Unis, le SPT a été transporté par bateau en Nouvelle-Zélande puis acheminé par avion, morceau par morceau, à la station Amundsen-Scott. Après plus de trois mois d’assemblage et de construction, le télescope a enregistré ses premières données le 16 février 2007. Le SPT, qui fonctionne avec des longueurs d’onde millimétriques, devrait être capable de mesurer des variations de température du CMB de 1 millionième de degré. L’étude du CMB a pour but de comprendre l’énergie noire. On appelle ainsi ce qui compose près de 75% de l’énergie de notre Univers... mais que nous ne connaissons pas. Les physiciens espèrent que les données du SPT nous renseigneront sur l’évolution de l’Univers, sa composition et permettront d’affiner le modèle du Big-Bang.
Francis Halzen, de l’Université de Wisconsin-Madison, porte parole de IceCube.
ÉLÉMENTAÍRE
page 23
Le South Pole Telescope sur la base Amundsen-Scott.
Voyage au Pôle Sud Ce récit est basé sur l’expérience de Carlos de los Heros, physicien espagnol travaillant sur l’expérience IceCube pour l’Université d’Uppsala en Suède.
© C. de Los Heros
© P. O. Hulth
À l’intérieur d’un Hercules LC-130 .
La base Amundsen-Scott n’est pas un laboratoire de physique tout à fait comme les autres puisqu’elle est située au Pôle Sud. À une altitude de 3 000 m, il s’agit d’un des endroits les plus froids et les plus secs sur Terre... et à 4 000 km de la boutique la plus proche. S’y rendre n’est pas très facile et le voyage depuis l’Europe prend environ quatre jours. Malgré cela des dizaines de physiciens migrent chaque année vers le Pôle Sud pendant l’été austral pour s’occuper de leurs détecteurs. Le plus grand détecteur de neutrinos, IceCube, est en train d’y être construit et le « South Pole Telescope » (le télescope du Pôle Sud) a commencé à prendre des données en février 2007.
En route vers le travail !
page 24
© C. de Los Heros
Un Hercules LC-130 au-dessus la base.
Les conditions extrêmes qui règnent au Pôle Sud font du voyage et du séjour des expériences uniques. La base Amundsen-Scott fait partie des quelques lieux habités en permanence en Antarctique. Elle n’est toutefois accessible que d’octobre à février quand les conditions météorologiques permettent une liaison aérienne quotidienne avec la base McMurdo située sur la côte de la mer de Ross. Pour les scientifiques travaillant dans n’importe quel projet effectué à la base du Pôle Sud, le voyage commence par un vol commercial standard vers Christchurch, en Nouvelle-Zélande. Là, la «National Science Foundation », fondation américaine maintient un centre logistique qui organise l’expédition de la cargaison et du personnel vers la base de McMurdo dans des avions Hercules LC-130 équipés pour être capables d’atterrir sur la glace. McMurdo est le lieu où les humains et le matériel entrent ou sortent de l’Antarctique Est ou du Pôle antarctique. À l’arrivée à Christchurch les vêtements appropriés pour les températures permettant le séjour au Pôle sont fournis. Une date de départ est assignée, habituellement dans les 24 heures qui suivent. Mais on ne sait jamais... Une des choses que l’on apprend rapidement en voyageant en Antarctique, c’est que la Nature a le contrôle. Des retards sur le départ des vols depuis McMurdo sont habituels en raison des mauvaises conditions météorologiques. Attendre une semaine au départ ou à l’arrivée en Antarctique n’est pas rare. S’il n’y a aucun retard, après un vol extrêmement inconfortable de huit heures de Christchurch à McMurdo dans un LC-130, un séjour de nuit dans la base et un vol supplémentaire de trois heures on atteint la base Amundsen-Scott le jour suivant. En raison de la glace accumulée, l’altitude du Pôle Sud est de 3 000 m et les premières choses que l’on remarque à l’arrivée sont le manque d’oxygène et la sécheresse de l’air. En réalité, en raison des conditions atmosphériques polaires, la variation de pression équivalente correspond à celle que l’on observe à environ 3 300 - 3 500 m. Il n’y a ni montagne, ni colline, ni aucun point de repère géographique à des kilomètres alentours. Lorsque l’on est debout au Pôle antarctique tout ce que l’on voit est une surface plate blanche s’étendant à perte de vue dans toutes les directions. Pour laisser l’organisme s’adapter aux conditions et éviter le mal des montagnes, le premier jour à la base est d’habitude passé à des tâches faciles qui n’exigent pas de force physique.
ÉLÉMENTAÍRE
Voyage au Pôle Sud La base se compose de logements communs et de quelques bâtiments pour la recherche accueillant les salles de contrôle des différentes expériences, qui sont situées à environ un kilomètre de la base principale. La marche à pied de ce kilomètre constituera le trajet quotidien pour aller sur le lieu de travail ! Lors d’une journée de travail typique les restrictions inhérentes à la vie sur la base ne sont pas apparentes car, comme dans un autre laboratoire, on y exécute des réparations ou des modifications de l’appareillage ou des logiciels. Mais ceci n’est vrai que lorsqu’elles sont faites à l’intérieur. La construction du détecteur nécessite bien sûr de travailler à l’extérieur, sous des températures aussi basses que -40° C... en été. C’est dans de telles occasions qu’on a pleinement conscience de ne pas évoluer dans un endroit tout à fait comme les autres ! La base a quelques équipements de distraction, comme une vidéothèque bien fournie, un billard américain, une bibliothèque, un pub et une salle de sport. On y a même vu à l’occasion quelques clubs de golf ! L’accès à Internet est limité à quelques heures par jour quand le satellite de communication est au-dessus de l’horizon. Mais la meilleure façon de se détendre est peut-être simplement de traîner dans le secteur de la cafétéria et de bavarder avec les collègues. Tout ce qui est nécessaire, y compris bien sûr l’alimentation, mais aussi le carburant pour produire l’électricité, doit être expédié par avion. Cela fait probablement de la station polaire un des endroits les plus conscients des nécessités d’économie d’énergie, ce qui impose certaines restrictions et priorités. Par exemple, l’eau est un souci puisqu’on l’obtient en faisant fondre la glace et que ce processus consomme de l’énergie. Par conséquent seulement deux douches, de deux minutes chacune, sont permises par semaine aux résidants. Conformément au Traité Antarctique, tous les déchets et l’équipement qui n’est plus nécessaire, sont emportés par avion.
ÉLÉMENTAÍRE
base Mc Murdo
Carte de l’Antarctique avec la localisation des bases scientifiques permanentes.
page 25
Il y a plusieurs vols par jour, si le temps le permet, de et vers McMurdo. Les avions ne restent jamais au Pôle Sud pour éviter des problèmes de démarrage des moteurs à de si basses températures. Après l’atterrissage, tout en gardant les moteurs allumés, l’avion est déchargé, rechargé avec l’équipement partant et le personnel et il décolle à nouveau. Une telle opération prend environ une demi-heure. Une question que l’on pose souvent est : quelle est l’heure au Pôle Sud ? Pour les raisons pratiques de coordination avec le centre de logistique de Christchurch, la base du Pôle antarctique garde l’heure de la Nouvelle-Zélande.
base Amundsen-Scott
Expérience L’expérience NEMO Le détecteur NEMO-3 a commencé à enregistrer ses premières données en 2003, après plus de dix ans de recherche, de développement et de construction. Installé au Laboratoire souterrain de Modane (LSM) dans les Alpes (tunnel de Fréjus) sous 1700 mètres de roche, ce détecteur cherche à observer un nouveau type de désintégration de la matière appelé « double désintégration bêta sans émission de neutrino». Ce rayonnement montrerait que le neutrino est sa propre antiparticule. On parle alors d’une particule de Majorana (voir «Histoire»).
Le détecteur NEMO-3
Le neutrino de Majorana et la double désintégration bêta
page 26
Molybdène Le molybdène est un élément chimique, de symbole Mo et de nombre atomique 42. Son nom vient d’une expression grecque signifiant “semblable au plomb”, en raison de son aspect. Isolé en 1781, il est fréquemment utilise dans des alliages d’acier de haute résistance, en particulier à l’égard de la chaleur. Le molybdène est contenu dans certains enzymes. Dans la nature il se trouve sous forme de mélange de sept isotopes (dont le Mo100) qui contribuent dans des proportions similaires.
© NEMO
Antiparticule L’existence d’une antiparticule de l’électron a été postulée en 1931 par P. A. M. Dirac. Cette prédiction, purement théorique, fut rapidement confirmée en 1932 par la découverte de l’antiélectron ou positron, par C. Anderson. Toutes les particules élémentaires ont une antiparticule. On appelle particule de Dirac une particule de spin un demi qui est différente de son antiparticule. Ce n’est pas forcément le cas des particules de charge nulle telles que les neutrinos: il est a priori possible que les particules neutres soient leur propre antiparticule C’est cette dernière possibilité qu’a proposée Majorana et qui pourrait s’appliquer aux neutrinos.
Comment savoir si le neutrino est de Majorana, c’est-à-dire identique à son antiparticule ? C’est là que l’expérience NEMO et la double désintégration bêta entrent en jeu ! Il s’agit de la seule réaction, actuellement connue, qui permet de trancher. Elle peut avoir lieu pour quelques noyaux comme le molybdène.
ÉLÉMENTAÍRE
L’expérience NEMO En effet, la désintégration bêta simple est l’émission par un noyau instable d’un électron et d’un anti-neutrino, suite à la transformation d’un neutron en un proton (voir «Apéritif»). Or, pour quelques rares éléments, le noyau final aurait une masse plus élevée que celle du noyau initial. La désintégration bêta simple est alors impossible et on peut envisager le cas, beaucoup plus rare, où deux neutrons se transforment simultanément en deux protons et émettent ainsi deux électrons et deux anti-neutrinos. Ce processus, noté 2β2ν, est appelé la double désintégration bêta avec émission de deux neutrinos. Il s’agit du rayonnement le plus rare jamais observé dans la nature. Par exemple la demi-vie de la désintégration 2β2ν du molybdène (c’est-à-dire la durée nécessaire pour que, sur 1 kg de molybdène, 500 g se soient désintégrés) est de 1019 années, soit 10 milliards de milliards d’années ! La désintégration 2β2ν a déjà été observée pour quelques noyaux. Une telle mesure est très difficile étant donnée la rareté du processus. La première observation directe, correspondant à une dizaine de désintégrations, a été faite dans les années 1980 par M. K. Moe. En 1994 NEMO-2, prototype de NEMO-3, détecta environ 1000 désintégrations après deux ans d’observations. Maintenant NEMO-3 observe environ 250 000 désintégrations 2β2ν par an ! Cela donne une idée des progrès considérables qui ont été faits dans la conception des détecteurs.
Spectre de la somme des énergies des deux électrons. Il est continu dans le cas de la désintégration 2β2ν et ce devrait être une raie, située en fin de spectre, dans le cas de la désintégration 2β0ν.
Si le neutrino est massif et est, en outre, une particule de Majorana, c’est-à-dire identique à son antiparticule, un nouveau processus encore plus rare que la double désintégration bêta permise, pourrait apparaître : la double désintégration bêta sans émission de neutrino, notée 2β0ν. Dans cette réaction, tout se passe comme si un premier neutron se désintégrait en proton, émettant un électron et un anti-neutrino. Mais, si l’anti-neutrino est de Majorana, il peut être réabsorbé, en tant que neutrino, par un second neutron qui va alors se transformer en proton et émettre un électron. Seuls, deux électrons sont émis par le noyau. Cette désintégration ne peut se produire que si le neutrino est de Majorana et, même dans ce cas, elle sera plus rare que le processus habituel car, outre qu’il s’agisse d’un processus double bêta, la chance qu’il se produise est proportionnelle au carré de la masse du neutrino, qui est très faible (voir «Théorie»).
1019 années : par comparaison l’âge estimé de l’univers n’est que de 14 milliards d’années (1,4 × 1010).
e-
e-
Désintégration 2�2�
e-
Comment distinguer 2β2ν et 2β0ν ?
ÉLÉMENTAÍRE
�e
�e
�e Désintégration 2���
page 27
Expérimentalement, dans les désintégrations double bêta, seuls les électrons sont détectés. Dans le processus standard 2β2ν, les deux électrons prennent seulement une partie de l’énergie libérée dans la désintégration, l’autre partie étant emportée par les deux anti-neutrinos, non détectés. Si on mesure la somme des énergies des deux électrons, on obtient un spectre continu. En revanche, pour la désintégration 2β0ν, puisqu’aucun neutrino n’est émis, les deux électrons emportent la totalité de l’énergie disponible. Cette valeur est donc plus élevée que dans le cas précédent et est constante. Elle est égale à la différence entre les masses du noyau de départ et du noyau final. Elle vaut 3 MeV dans le cas du molybdène. On va donc rechercher deux électrons émis depuis un même
�e
e-
L’expérience NEMO point dans le détecteur et dont la somme des énergies correspond à une raie située à l’extrémité du spectre continu (voir figure page précédente) de la désintégration 2β2ν. C’est le but du détecteur NEMO-3.
Le détecteur NEMO-3
© NEMO
Le détecteur NEMO-3 est une grande chambre à fils (voir «Détection») de 3 mètres de haut et de 6 mètres de diamètre, constituée de 20 secteurs. Au centre de chaque secteur sont tendues, verticalement, des feuilles métalliques constituées d’un métal émetteur pour la double désintégration bêta. Au total le détecteur peut contenir environ 10 kg de sources qui sont essentiellement du molybdène. Ces feuilles sont minces pour que les électrons issus des désintégrations bêta ne perdent que peu d’énergie à l’intérieur de celles-ci. De part et d’autre de ces sources sont tendus verticalement 40 000 fils métalliques qui forment une très grande chambre à fils de 30 m3 remplie d’un mélange d’hélium gazeux, de 4% de vapeur d’alcool et de 1% d’argon. Grâce à l’information recueillie sur les fils on peut reconstruire la trajectoire de l’électron en trois dimensions. La chambre est entourée de blocs de plastique scintillant. Lorsqu’un électron termine sa trajectoire dans un de ces blocs, il y dépose toute son énergie et provoque une émission de lumière par scintillation. L’intensité de cette lumière est proportionnelle à l’énergie de l’électron. Cette lumière a une très faible intensité ; infiniment plus faible que celle qui peut être observée par nos yeux. Elle est détectée par un photomultiplicateur qui la transforme en signal électrique. Ce dispositif, constitué d’un bloc de scintillateur plastique couplé à un photomultiplicateur permet de mesurer l’énergie des électrons. La précision est d’environ dix pour cent et on mesure aussi le temps d’arrivée des signaux avec une résolution d’environ un quart de milliardième de seconde.
Un secteur de NEMO-3, parmi les vingt que compte le détecteur.
Mesurer plusieurs noyaux émetteur double bêta
Installation du cinquième secteur de NEMO-3.
page 28
© NEMO
Un atout important du détecteur NEMO-3 est qu’il contient différents types de sources, c’est-à-dire différents noyaux isotopes émetteurs double bêta susceptibles de produire une désintégration 2β0ν. Ont été installés 7 kg de molybdène 100, 1 kg de sélénium 82, environ 1 kg de tellure 130, 400 g de cadmium 116, 50 g de néodyme 150 et 10 g de calcium 48. À l’exception du tellure, cela correspond aux ressources mondiales ! Pourquoi tant de sources différentes ? Cela est dû au fait que, pour un isotope donné, la probabilité que la désintégration 2β0ν se produise est très difficile à calculer et donc assez mal estimée. Certains modèles montrent qu’il y a autant de chance de découvrir le neutrino de Majorana avec 50 g de néodyme qu’avec 7 kg de molybdène ! La mesure de la demi-vie de la désintégration double bêta standard 2β2ν pour ces éléments permettra de contraindre et donc de rendre plus précises les estimations théoriques.
ÉLÉMENTAÍRE
Vues en projections horizontale (à gauche) et verticale (à droite) de différents événements enregistrés dans NEMO-3.
L’expérience NEMO Les origines des bruits de fond Grâce à la reconstruction de la trajectoire et à la mesure des temps d’arrivée des particules, le détecteur doit être capable de reconnaître un événement correspondant à une double désintégration bêta et de le distinguer du bruit de fond. C’est le défi d’une telle expérience : le détecteur NEMO-3 cherche à détecter un signal qui, pour un noyau, se produit une fois toutes les 1025 années soit 1 million de fois plus rare encore que la désintégration double bêta permise 2β2ν. Ce niveau de sensibilité correspond à un bruit de fond maximum de 1 coup par an dans la fenêtre en énergie autour de 3 MeV (correspondant à l’énergie du signal 2β0ν recherché). Si l’on montait ce type d’expérience à la surface du sol, on serait noyé par le bruit de fond car on verrait une multitude de signaux dus aux muons produits dans l’atmosphère par le rayonnement cosmique. Il a donc fallu installer le détecteur au Laboratoire Souterrain de Modane, sous plus de 1700 mètres de roche. Dans ce laboratoire il ne reste plus que 4 muons par mètre carré et par jour à comparer aux 10 millions de muons de haute énergie (>200 MeV) par mètre carré et par jour au niveau du sol. Mais cela ne suffit pas pour avoir un bruit de fond quasi nul.
Électron de haute énergie traversant le détecteur (bruit de fond).
Le second ennemi de NEMO est la radioactivité naturelle provenant des chaînes de décroissance de l’uranium 238 et du thorium 232. Ces survivants de la formation du système solaire ont des durées de vie très grandes, de l’ordre de l’âge de la Terre, et sont donc présents partout. Malheureusement lorsqu’ils se désintègrent, ils se transforment en un autre noyau qui se désintègre à son tour et ainsi de suite, jusqu’à donner, dans le cas de l’uranium 238, du bismuth 214 et, pour le thorium, du thallium 218. Ces deux noyaux se désintègrent rapidement (quelques minutes) mais à l’inverse d’autres noyaux contribuant à la radioactivité naturelle, ils délivrent une énergie suffisamment grande pour pouvoir simuler un événement qui ressemble au signal 2β0ν recherché. Il faut donc impérativement construire un détecteur avec des matériaux de très bas niveau de radioactivité en bismuth 214 et en thallium 218. À commencer par les sources de molybdène qui doit être ultra pur puisque c’est le cœur de l’expérience ! Cela a nécessité des recherches et développements très poussés en collaboration avec la Russie et les États-Unis. D’autre part, tous les matériaux du détecteur ont été soigneusement sélectionnés et des échantillons ont été systématiquement mesurés à Modane. Ceci concernait les gros matériaux tels que les structures mécaniques en cuivre et en fer mais également les fils de la chambre, les colles, les vis et même les câbles reliant les modules d’électronique. Au total, l’activité mesurée en uranium et en thorium des 200 tonnes que constitue le détecteur NEMO-3 est de l’ordre de 300 becquerels (300 désintégrations par seconde) ce qui est inférieur aux 4000 becquerels du corps humain (dus au potassium) !
Désintégration 2β2ν.
ÉLÉMENTAÍRE
page 29
Construire un détecteur avec un niveau de radioactivité extrêmement faible et l’installer sous la roche ne suffit toujours pas pour avoir un bruit
Création d’une paire électronpositron dans la feuille de molybdène par un rayon gamma venant de l’extérieur.
L’expérience NEMO de fond quasi-nul ! Finalement les neutrons produits de façon naturelle par la fission de la roche du laboratoire peuvent perturber les mesures. Le détecteur est donc entouré d’un blindage de fer et d’un blindage spécifique aux neutrons (de l’eau et du bois, ce n’est pas cher). Enfin, une bobine en cuivre crée un champ magnétique relativement faible (100 fois le champ magnétique terrestre) mais suffisant pour distinguer un positron issu du bruit de fond, d’un électron de signal.
NEMO-3 c’est parti ! Ce détecteur fonctionne avec un seuil en énergie très bas (150 keV) et enregistre environ sept événements par seconde ce qui est très faible vu sa taille. Cela correspond à 200 millions d’événements collectés par an dont environ 250 000 provenant de la double désintégration bêta permise du Mo100. La première phase a consisté à étudier attentivement ce processus, avant de passer à une étude de la double désintégration sans neutrino. Les premiers résultats de NEMO3 ne font pas état d’évènements provenant d’un tel mécanisme, ce qui impose des contraintes fortes sur notre « petit neutre » : si le neutrino électronique est une particule de Majorana, sa masse doit être plus petite que 2,4 eV.
© NEMO
Peut-être trouvera-t-on d’ici peu deux ou trois événements provenant de la double désintégration bêta sans émission de neutrino ... si la masse de ce dernier est supérieure à quelques dixièmes d’eV, ce qui correspond à la sensibilité prévue du détecteur en 2009. Mais qui sait, la découverte sera peut-être ailleurs ! En effet avec un niveau de bruit de fond nul audelà de 3 MeV, d’autres processus pourraient bien être découverts... La surprise viendra peut-être tout simplement de l’analyse de la double désintégration bêta permise.
Câblage d’un secteur au Laboratoire Souterrain de Modane (LSM).
page 30
© NEMO
En tout cas, les physiciens préparent d’ores et déjà une nouvelle version de leur détecteur, appelée SuperNEMO. Un détecteur amélioré, qui étudiera une source à base de sélénium ou de néodyme, afin d’atteindre une sensibilité dix fois plus fine... et peut-être enfin dévoiler la nature du neutrino électronique et prouver qu’il est bien sa propre antiparticule ! Installation des secteurs de NEMO dans le LSM.
ÉLÉMENTAÍRE
Détection Détecteurs à fils Recherche détecteur rapide pour longues études, analyses poussées et plus si affinités... Le travail d’un physicien des particules s’apparente à celui d’un détective – à la différence, de taille, que le scientifique utilise le plus souvent un accélérateur pour créer sans cesse de nouveaux « faits divers » sur lesquels il enquête dès qu’ils se produisent. Le cœur de la matière est sondé au moyen de collisions violentes entre particules (électrons, protons ou leurs anti-particules par exemple) dont les produits sont suivis à la trace dans des détecteurs volumineux. De même qu’on peut observer le trajet d’un avion haut dans le ciel grâce à la traînée de condensation qu’il laisse dans l’atmosphère, la trajectoire des particules chargées est reconstruite indirectement en mesurant l’effet de leur passage dans des instruments spécialement mis au point. © CERN
Depuis près de cent ans, de nombreux modèles de trajectomètres, toujours plus efficaces, précis et rapides, ont été construits. Les premiers instruments, chambres à brouillard puis à bulles, permettaient d’enregistrer les traces laissées par les particules lorsqu’elles traversent un fluide placé dans les conditions appropriées de température et de pression. Chaque événement était photographié puis analysé manuellement et un « temps mort » d’au moins une seconde suivait chaque cliché afin de laisser le mélange revenir dans son état optimal. Pour étudier des événements rares ou améliorer la précision des mesures (c’est-à-dire augmenter le nombre d’événements disponibles pour l’analyse), des détecteurs plus rapides et automatisés se sont avérés nécessaires.
De gauche à droite : G. Charpak, F. Sauli et J.-C. Santiard travaillant sur une chambre multi-fils au CERN en 1970.
Les chambres à étincelles ont constitué une première avancée mais la vraie révolution a lieu en 1968, au CERN, avec l’invention par Georges Charpak de la chambre proportionnelle multi-fils. Beaucoup plus rapide que ses prédécesseurs, ce détecteur permet d’analyser des dizaines voire des centaines de milliers de collisions par seconde. De plus, il inclut un traitement électronique et numérique des signaux enregistrés.
ÉLÉMENTAÍRE
page 31
Georges Charpak Physicien français né en Ukraine en 1924, il débute sa carrière au Collège de France en 1948 et rejoint le CERN, à peine créé, une dizaine d’années plus tard. Il reçoit en 1992 le Prix Nobel de Physique pour ses travaux sur les détecteurs de particules, en particulier la mise au point de la chambre proportionnelle multi-fils, inventée en 1968. Cet instrument, relié à un ordinateur, permettait d’obtenir un taux de comptage mille fois supérieur à ceux des techniques alors existantes, sans nécessiter de caméra ni d’analyse manuelle de chaque événement.
Traitement électronique et numérique des signaux Les informations recueillies lors du passage d’une particule chargée (une charge ou un courant créé sur un fil dans le cas du détecteur de G. Charpak) sont amplifiées par un circuit électronique puis numérisées. On obtient alors un nombre codé en format binaire dont la valeur est proportionnelle à la quantité mesurée. Il est stocké dans une mémoire informatique et directement exploitable par un programme. En plus de l’amplitude, le temps d’arrivée des signaux est utilisé afin de rejeter des événements antérieurs ou postérieurs à celui étudié à un instant donné.
Détecteurs à fils Scintillateurs
Guides de lumière
Photo-multiplicateurs
© CERN
Les chambres à étincelles Utilisées dans les années 60-70, ces chambres sont constituées de plaques métalliques espacées de quelques millimètres et baignées dans un mélange de gaz rares. Deux scintillateurs rapides sont placés au-dessus et au-dessous de la chambre à étincelles. Lorsqu’une particule les traverse, un signal est produit par ces détecteurs, et l’on applique une haute tension de quelques kilovolts entre les plaques métalliques. Une étincelle jaillit alors à l’endroit du passage de la particule montrant la trajectoire de celle-ci. L’opération ne peut être répétée que lorsque les charges créées ont été totalement évacuées ce qui limite le nombre d’événements enregistrés par seconde. Un des derniers grands dispositifs à avoir utilisé ce détecteur est le spectromètre Oméga au CERN dans les années 70.
Chambre à étincelles : on peut voir les plaques métalliques constituant le détecteur ainsi que les deux scintillateurs en matière plastique situés en haut et en bas.
© CERN
Trace de la trajectoire d’une particule ayant traversé la chambre.
Aimants guidant le faisceau Hutte
page 32
Chariot portant les chambres à étincelles Fer © CERN
Vue du spectromètre Oméga du CERN en 1972. Il est formé d’un aimant constitué de deux bobines supraconductrices (non visibles) créant un champ magnétique vertical. Une grande masse de fer (visible en partie) assure la fermeture des lignes du champ. Un ensemble de chambres à étincelles occupe l’espace entre les bobines, à l’intérieur de l’aimant. Il est ici visible à l’avant de la photo, sur le dispositif permettant de le déplacer. La hutte située au-dessus de l’aimant contient les caméras qui enregistrent les positions des étincelles créées dans les chambres et numérisent cette information. On peut noter, en haut à gauche, des aimants rouges et bleus qui guident un faisceau de particules vers le spectromètre. Ce faisceau interagit avec une cible placée au milieu des chambres.
ÉLÉMENTAÍRE
Détecteurs à fils particule chargée
Le gaz est ionisé le long de la trajectoire de la particule chargée.
cathode
E
anode
Anatomie d’une chambre à fils Pour mieux comprendre le fonctionnement de la chambre proportionnelle multi-fils, arrêtonsnous un instant sur le cas d’un instrument comportant un seul fil. Ce compteur est formé d’un cylindre creux, de quelques millimètres de rayon et
Cathode, anode Ces termes génériques, du grec «descente» et «montée», désignent des objets qui sont portés à un potentiel négatif (cathode) ou positif (anode) comme, par exemple, les pôles d’une pile.
Ionisation d’un gaz par une particule chargée Une particule chargée génère dans son voisinage un champ électrique dont l’intensité décroît à mesure que l’on s’en éloigne. Un atome de gaz se trouvant à proximité peut voir certains de ses électrons arrachés par ce champ. On parle alors de rayonnement ionisant.
Les électrons issus de l’ionisation diffusent rapidement vers l’anode tandis que les ions positifs se déplacent plus lentement vers la cathode.
ÉLÉMENTAÍRE
page 33
rempli d’un mélange de gaz (hydrocarbure et gaz rare en général). Sa paroi métallique, appelée cathode, est portée à une tension négative. Un fil de quelques dizaines de microns, l’anode, disposé le long de son axe est relié à la masse ou à un potentiel positif. Lorsqu’une particule Les électrons, arrivés chargée traverse cet ensemble, elle ionise le gaz au voisinage de l’anode, et crée des paires électron (négatif)-ion (positif) le long ionisent le gaz et créent de sa trajectoire : en moyenne quelques dizaines par de nombreuses paires centimètre parcouru. électron-ion positif supplémentaires, produisant Les électrons subissent de nombreux chocs avec les le signal mesuré par molécules de gaz, et sous l’effet du champ électrique l’instrument. radial créé par la paire anode-cathode, ils se déplacent globalement vers le fil à vitesse constante. Pour un parcours de l’ordre du centimètre cela prend environ une centaine de nanosecondes. Dans le même temps, le trajet parcouru par les ions positifs (en sens « inverse » sous l’effet du même champ électrique) est beaucoup plus court car ces derniers sont bien plus lourds. Au voisinage du fil, les électrons sont accélérés par le champ électrique (de plus en plus intense à mesure qu’ils s’en rapprochent) et peuvent à leur tour ioniser le gaz : chaque électron « primaire » crée environ 10 000 paires électron-ion positif « secondaires ». Les deux nuages de particules, de charges opposées, se séparent. Les électrons sont rapidement collectés sur le fil proche, et bien que nombreux, leur trajet est très court et ils ne créent pas de signal électrique fort. Les ions, eux, se dirigent vers la cathode, et le long de leur parcours beaucoup plus long, produisent, par induction, un signal électrique bien plus intense sur le fil. Il faut quelques
Les ions sont collectés sur la cathode.
Détecteurs à fils millisecondes pour que l’ensemble des ions positifs atteigne la cathode, après quoi le compteur est prêt pour détecter le passage d’une nouvelle particule chargée. Une chambre à fils peut être considérée comme une juxtaposition de tels compteurs à fil simples. La cathode n’est alors plus un cylindre mais une surface plane conductrice disposée parallèlement à un plan de fils. La différence de potentiel entre les fils formant l’anode et la cathode ainsi que la composition du gaz sont choisies afin que le signal recueilli soit proportionnel à la charge déposée par la particule dans le détecteur.
De quoi en perdre le fil ! Vue en coupe d’une chambre proportionnelle multi-fils. Les fils d’anode (points noirs) sont distants de 2 mm. Chacun d’eux collecte les charges négatives dans une bande verticale de 2 mm de large, centrée sur le fil. En comparant les informations recueillies par les fils, on peut ainsi déterminer la trajectoire d’une particule avec une précision de l’ordre du millimètre. Les cathodes, représentées en rouge, sont à 7,5 mm des fils. Les lignes joignant les cathodes aux fils matérialisent les directions du champ électrique et donnent une idée du parcours suivi par les électrons issus de l’ionisation du gaz.
Les instruments actuellement les plus performants, portent les doux noms de GEM (Gas Electron Multiplier) ou MICROMEGAS, et peuvent détecter un unique électron d’ionisation. Les principales améliorations sont les suivantes :
© F. Sauli, GEM
• Séparation de la partie du détecteur où l’ionisation a lieu (c’est-à-dire là où passe la particule chargée) de l’endroit où le signal est amplifié (au voisinage du fil) afin de minimiser la quantité d’ions positifs (lents et parasites) qui repartent vers la cathode. • Remplacement des fils par des pistes conductrices déposées sur un isolant grâce aux progrès de la microélectronique pour éviter les problèmes mécaniques dus aux très nombreux fils sous tension. • Augmentation du facteur d’amplification tout en diminuant le champ électrique nécessaire, ce qui permet d’accroître la fiabilité de l’instrument, moins sujet aux claquages (arc électrique produit entre deux fils) potentiellement destructeurs.
page 34
Radiographie d’une chauve-souris (60×35 mm2). La patte présentée dans l’encart en bas à droite a été radiographiée avec un dispositif GEM (Gas Electron Multiplier) qui permet d’augmenter l’amplification du signal tout en réduisant la différence de potentiel entre l’anode et la cathode diminuant ainsi les risques de claquages.
Près de quarante ans après leur invention, les détecteurs à fils (améliorés et transformés selon les besoins des expériences) sont toujours utilisés, non seulement en physique des particules mais aussi en biologie et en médecine. Pour ces disciplines, leur intérêt réside dans la possibilité d’instrumenter de grandes surfaces ayant des géométries parfois complexes. De plus, les doses de rayonnement utilisées pour ces examens sont considérablement réduites par rapport aux méthodes concurrentes.
ÉLÉMENTAÍRE
© G. Charpak, M. MenadierBiospace
Détecteurs à fils
© CERN
Image en rayons X d’une vertèbre humaine, obtenue avec le détecteur MICROMEGAS (MICROMesh Gaseous Structure) développé au CEA-Saclay en 1996. Dans cet instrument, les fils sont remplacés par des dépôts de pistes métalliques sur un substrat isolant afin d’éviter les contraintes induites par la pose précise de nombreux fils maintenus sous tension.
ÉLÉMENTAÍRE
page 35
© NEMO
Fabio Sauli a inventé les détecteurs GEM, ultra sensibles. Utilisés en physique des particules, ils trouvent des débouchés dans des domaines tels que la médecine.
Une chambre à dérive (chambre proportionnelle multi-fils dans laquelle le volume de gaz est suffisamment important pour que le temps de transit des électrons d’ionisation vers l’anode soit mesurable ce qui permet d’améliorer la précision sur la position de la particule) du détecteur NEMO3, construite au Laboratoire de l’Accélérateur Linéaire d’Orsay. Les fils sont tendus verticalement et répartis régulièrement dans le volume de la chambre. NEMO3 cherche à détecter des phénomènes très rares impliquant des neutrinos et est installé au laboratoire souterrain de Modane dans le tunnel du Fréjus (voir «Expérience»).
Retombées Un espion de l’intérieur En dépit de leur côté quelque peu fantomatique, on peut trouver des applications liées aux neutrinos jusque dans notre vie quotidienne ! Ces retombées proviennent des propriétés particulières de ces particules et des méthodes qu’il a fallu mettre au point pour les étudier.
Un espion de l’intérieur Puisqu’ils interagissent très peu avec la matière, les neutrinos peuvent nous transmettre des informations de première main sur le lieu et la manière dont ils sont produits. DR
Pour étudier les neutrinos solaires et conclure avec certitude à l’existence d’un déficit (voir « Théorie ») il a fallu aboutir à une compréhension détaillée du fonctionnement du Soleil. Contrairement à la lumière qui ne nous renseigne que sur les couches superficielles, les neutrinos, issus du cœur de la chaudière nucléaire, traversent le Soleil sans problème. L’expérience de R. Davis Jr., qui a détecté pour la première fois, les neutrinos solaires a démontré que la source d’énergie de notre étoile était bien d’origine nucléaire. Après une trentaine d’années d’efforts, les physiciens sont maintenant convaincus que l’on peut prédire de façon précise le nombre de neutrinos issus du Soleil et leur répartition en énergie (ce que l’on appelle « le spectre »). L’héliosismologie, qui s’intéresse aux « tremblements de Soleil » qui secouent notre étoile en permanence, joue un rôle primordial dans ces études. La mesure de ces modes de vibration permet en effet de vérifier si le modèle est correct et reproduit bien les conditions de température, de pression ainsi que les mouvements qui règnent au sein de l’étoile.
Héliosismologie C’est l’étude des modes de vibration du Soleil que l’on mesure à partir des ondes visibles à sa surface. Ceci permet de connaître avec précision de nombreux paramètres contrôlant le comportement de l’intérieur du Soleil.
page 36
Représentation, par ordinateur, d’un mode particulier de vibration du Soleil. Les mouvements vers l’extérieur sont représentés en bleu et ceux vers l’intérieur sont en rouge.
Par ailleurs la détection des neutrinos terrestres pourrait permettre d’étudier la répartition des substances radioactives (uranium, thorium et potassium) dans l’intérieur du globe. Faute d’une source de chaleur interne, qui doit être alimentée majoritairement par la désintégration des éléments radioactifs précédents, ce dernier se serait refroidi depuis longtemps. Cette désintégration fournirait l’équivalent de 20 à 40 térawatts soit la puissance de cinq à dix mille réacteurs nucléaires. Selon divers modèles géologiques, les deux couches les plus externes du globe terrestre (la croûte sur laquelle nous vivons, épaisse en moyenne d’une quarantaine de kilomètres, et le manteau qui descend juqu’à 2900 kilomètres de profondeur) contribuent de manière similaire à la production d’énergie. En effet l’uranium et le thorium sont concentrés surtout dans la croûte, mais celleci est beaucoup plus mince que le manteau. Le noyau terrestre, principalement constitué de fer, ne devrait pas contribuer à ce phénomène... sauf s’il contenait du potassium. Cette dernière possibilité constitue une inconnue dans les modèles actuels. En 2005 l’expérience KamLAND a observé, pour la première fois, un signal d’anti-neutrinos issus de la Terre. Reste à voir si de telles mesures pourront affiner notre perception de la dynamique interne du globe.
ÉLÉMENTAÍRE
AIEA : L’Agence Internationale de l’Énergie Atomique a été créée en 1957 sous l’égide des Nations Unies et a pour but de développer l’utilisation pacifique de l’énergie nucléaire. Elle regroupe 2200 spécialistes et membres du personnel venant de 90 pays. Son budget pour 2007 est voisin de 360 millions d’euros. L’agence, dont le slogan est « atomes pour la paix », a reçu le prix Nobel de la paix en 2005.
La datation des vins Dans l’étude des anti-neutrinos terrestres, un bruit de fond important provient de ceux émis par les réacteurs nucléaires les plus proches du détecteur. Ce « bruit » peut devenir un sujet d’étude à part entière. Ainsi, l’AIEA s’intéresse aux mesures du spectre en énergie des neutrinos issus de ces réacteurs. Grâce à une évaluation très précise de ce spectre, on saurait si le contenu en matériaux fissiles du cœur du réacteur est « normal ». On pourrait ainsi surveiller, à distance, le fonctionnement d’une centrale nucléaire pour s’assurer qu’elle fonctionne bien pour produire de l’énergie et pas des substances radioactives servant à fabriquer des armes. Mais il reste encore beaucoup de progrès à faire pour transformer cette idée en outil efficace de suivi des réacteurs nucléaires.
Un bon débouché ! L’étude des neutrinos a nécessité la mise au point de techniques particulières. Par exemple l’expérience NEMO a sélectionné des matériaux dépourvus de substances radioactives, même au niveau de traces infimes. Une telle prouesse a demandé la mise au point d’instruments de mesure détectant des taux très faibles de radioactivité (voir « Expérience »). Ces instruments ont été utilisés, notamment, pour dater des vins de Bordeaux en mesurant le taux de césium 137 qu’ils contiennent. Cet élément n’existe pas à l’état naturel : il provient d’activités humaines dangereuses, qu’elles soient volontaires, comme les essais d’explosions nucléaires dans l’atmosphère, ou involontaires, telle l’explosion de la centrale de Tchernobyl. Le vin garde la mémoire des retombées radioactives qui ont eu lieu lors de son année de vendange. On dispose ainsi d’une méthode de datation qui peut détecter des fraudes éventuelles au millésime. Une méthode bien sympathique (ça dépend des points de vue) : nul besoin d’ouvrir la bouteille car il n’y a pas de césium 137 dans le verre et seulement de faibles traces dans le bouchon.
Appareillage développé pour mesurer des taux très bas de radioactivité, constitué d’un ensemble de cristaux de Germanium, protégé par un blindage (seul le blindage est visible sur la photographie).
ÉLÉMENTAÍRE
page 37
Graphe montrant l’évolution de l’activité du césium 137 pour les vins de la région de Bordeaux, de millésimes compris entre 1950 et nos jours. Entre 1950 et 1963 le césium était produit par les essais nucléaires dans l’atmosphère. En 1986 on note l’effet dû à Tchernobyl. Un vin de millésime donné doit avoir la même activité que celle indiquée sur la figure. Par exemple un vin daté par son étiquette de 1960 doit avoir une activité voisine de 400 mBq/l.
Analyse L’énergie des neutrinos Comment mesure-t-on leur énergie ? calorimètre hadronique
Pour mesurer l’énergie des particules produites dans des collisions engendrées par les grands accélérateurs les physiciens utilisent différents types de détecteurs dont la plupart ont été décrits dans les numéros précédents d’Élémentaire. Cependant, sauf pour des expériences spécifiques, les neutrinos n’interagissent pas dans ces détecteurs et ils ne sont donc pas détectés. Leur présence, ainsi que leur énergie et leur direction peuvent être déduits à partir d’autres mesures. On utilise pour cela le principe de conservation de l’énergie et de l’impulsion. Si on connaît l’énergie mise en jeu dans la réaction (énergie initiale), l’éner-gie totale emportée par les neutrinos est estimée en calculant la différence entre l’énergie initiale et l’énergie totale des particules détectées. Il en va de même pour la quantité de mouvement des neutrinos.
calorimètre électromagnétique
© CERN
Il est possible de mesurer de manière indépendante l’énergie totale et la quantité de mouvement des particules avec une précision qui dépend des techniques employées. Pour mesurer la quantité de mouvement (ou impulsion) d’une particule chargée électriquement on utilise le fait que sa trajectoire est courbée en présence d’un champ magnétique (la particule décrit une hélice). Il faut donc estimer la position de la particule en des points suffisamment rapprochés. Ceci permet de mesurer la courbure de sa trajectoire et, connaissant la valeur du champ magnétique, on en déduit son impulsion. Différents types de dispositifs sont utilisés pour cela, comme les chambres à fils (voir «Détection») ainsi que des détecteurs en silicium. Si, par ailleurs, on connaît la masse de la particule, en ayant par exemple identifié sa nature (voir Élémentaire N°4), on peut alors calculer son énergie.
page 38
Un événement observé à l’accélérateur LEP par l’expérience ALEPH : en projection perpendiculaire à l’axe des faisceaux, on a indiqué les traces laissées dans les différentes parties du détecteur, qui correspondent aux trajectoires des particules produites lors de la collision d’un électron et d’un positron. La figure du bas est un zoom au voisinage du point d’interaction des faisceaux (IP) à l’échelle indiquée. Les traces reconstruites sont en jaune. Pour chaque trace nous avons reconstruit l’énergie, l’impulsion et la direction. En faisant le bilan, nous obtenons un « déficit » qu’on peut associer à une particule non détectée dont la direction est indiquée par une flèche.
ÉLÉMENTAÍRE
L’énergie des neutrinos Pour mesurer l’énergie d’une particule neutre on va faire en sorte qu’elle interagisse avec la matière et y dépose la totalité de son énergie. Pour cela on dispose des couches de matière dense qui provoquent la formation de particules secondaires (gerbes de pions, d’électrons et de photons) en alternance avec des couches permettant d’extraire un signal. L’énergie de la particule est proportionelle à la somme des signaux recueillis sur chaque niveau. Ces détecteurs sont appelés des calorimètres. Il en existe de deux types adaptés, respectivement, à la mesure des photons et des hadrons (voir Élémentaire N°3). Les calorimètres étant divisés en cellules ils permettent aussi de mesurer la direction des particules neutres. La supersymétrie C’est un cadre théorique qui associe à chaque particule élémentaire du Modèle Standard un partenaire beaucoup plus massif. La présence de partenaires supersymétriques permettrait d’expliquer l’origine de la masse des particules, en conjonction avec le(s) boson(s) de Higgs. Ces « super-partenaires » n’ont encore jamais été observés expérimentalement.
Les cousins du neutrino…. Ajoutons que l’« énergie manquante » signe la présence de neutrinos, à moins qu’il n’existe d’autres particules qui n’interagissent que très faiblement avec la matière... et c’est précisément ce que prédit la théorie de la supersymétrie : le neutralino est la particule supersymétrique la plus légère et qui doit avoir un comportement semblable à celui des neutrinos dans la matière. Elle est une des particules supersymétriques qui seront activement recherchées au LHC (pour l’instant aucune particule supersymétrique n’a été observée !). Les mêmes raisonnements sur l’«énergie manquante » dans les collisions seront appliqués pour rechercher le neutralino.
Le neutralino Dans certains modèles supersymétriques, la particule supersymétrique la plus légère et neutre ne se désintègre pas et reste stable. Elle interagit très peu avec la matière et constitue donc une WIMP (Weakly Interacting Massive Particle, «particule massive interagissant faiblement»), recherchée dans diverses expériences, par exemple au Laboratoire Souterrain de Modane (voir « Expérience »).
ν calorimètre électromagnétique
μ
jet calorimètre hadronique
chambres à muons
ÉLÉMENTAÍRE
page 39
jet
Il s’agit d’une collision e+e− -> W+W− enregistrée au collisionneur LEP2 par l’expérience OPAL. Un des bosons W s’est désintégré en deux jets de hadrons alors que le second a émis un muon et un neutrino-mu. Le muon est représenté en rouge et on constate qu’il a déposé, comme prévu, très peu d’énergie dans les calorimètres. La flèche indique la direction du neutrino qui a été estimée à partir des mesures de l’ensemble des autres traces et en appliquant le principe de conservation de l’énergie.
Accélérateur Dis, c’est encore loin le Gran-Sasso ? Le CNGS (initiales pour CERN Neutrinos to Gran Sasso) est un ensemble d’installations situées au CERN et produisant un faisceau intense de neutrinos-mu. Ce faisceau est dirigé en direction du laboratoire souterrain du Gran Sasso, implanté près de Rome, soit à 732 kilomètres de Genève. L’expérience OPERA, installée au Grand Sasso, reçoit ce faisceau et cherche à identifier des événements contenant des leptons tau, signe incontestable de l’interaction de neutrinos-tau dans la masse du détecteur. Ceci prouverait que des neutrinos-mu du faisceau ont oscillé sur le chemin entre le CERN et le Grand Sasso pour devenir des neutrinos-tau (voir « Théorie »). Contrairement aux autres expériences d’oscillation qui comparent le nombre de neutrinos initiaux à celui finalement détectés ayant la même saveur (appelées « expériences de disparition »), OPERA recherche un type de neutrino qui est absent du faisceau initial ; on parle alors d’«expérience d’apparition ». Pour produire le faisceau de neutrinos-mu, on utilise des protons de 400 GeV issus du SPS (Super Proton Synchrotron). On les extrait de l’accélérateur par paquets, qui sont dirigés sur une cible de graphite par une succession d’aimants disposés sur 800 m. Parmi les particules produites lors des interactions qui ont lieu entre les protons incidents et le carbone de la cible, les pions et les kaons chargés positivement sont sélectionnés à l’aide de deux cornes magnétiques. On laisse ensuite ces particules se désintégrer en vol sur une distance de 1000 m dans un tube à vide. En se désintégrant, elles donnent, en particulier, des muons et leurs neutrinos-mu associés. Un système d’absorbeurs, disposé sur une distance de 100 m, permet d’éliminer les particules résiduelles (muons, hadrons, etc.) et, en fin de ligne, on obtient un faisceau constitué presqu’uniquement de neutrinos-mu.
Schéma indiquant le parcours du faisceau de neutrinos entre le CERN et le détecteur OPERA installé au laboratoire du Gran Sasso. Les neutrinos mettent 2,44 ms à traverser les 732 kilomètres séparant le CERN du détecteur.
Mille mètres pour la désintégration ?? La longueur de 1000 m du tunnel le long duquel les kaons et les pions se désintègrent en donnant des muons et des neutrinos-mu, est choisie de façon à obtenir un faisceau très pur de neutrinos-mu. Dans un tunnel plus court, moins de pions et de kaons peuvent se désintégrer ce qui correspond à la production d’un faisceau de neutrinos moins intense. Sur une distance plus longue, les muons qui vivent plus longtemps que les pions et les kaons, vont se désintégrer à leur tour en émettant des neutrinos-e qui pollueront ainsi le faisceau. Au bout de 1000 m très peu de muons se désintègrent et ils sont complètement absorbés par les absorbeurs placés en fin de ligne. Ainsi le faisceau de neutrinos est constitué à 96% de neutrinos-mu, 3,5% de antineutrinos-mu et seulement de 0,5% de neutrinos- e.
page 40
Donner le «la» : accorder le CNGS avec OPERA Les défis pour faire marcher ensemble les installations du CNGS et l’expérience OPERA sont multiples. Il s’agit de détecter les interactions des neutrinos et d’y retrouver celles qui correspondent au changement d’un neutrino-mu en neutrino-tau. Ceci est doublement difficile, d’une part à cause du très faible taux d’interaction de ces particules fantomatiques avec la matière et d’autre part, de la petitesse du phénomène des oscillations. Le détecteur doit présenter une surface importante au faisceau incident et être très dense afin d’augmenter les probabilités d’interaction des neutrinos. Pour donner toutes ses chances à OPERA d’effectuer une observation, il faut disposer d’un très grand nombre de neutrinos-mu, c’est-à-dire commencer avec beaucoup de protons. Pour fixer les idées, on a montré qu’il faut quarante cinq milliards de milliards de protons par an pour avoir quelques poignées de tau (entre 10 et 20) détectés après 5 années d’enregistrement de données. Autant dire que la tâche est rude ! Une fois le faisceau produit au CERN il faut
ÉLÉMENTAÍRE
Les cornes magnétiques constituent le cœur du CNGS. Elles sont une sorte de lentille magnétique dont le but est de focaliser les pions et les kaons sortant de la cible de carbone suivant la direction du Gran Sasso. Ainsi lorsque ces particules se désintégreront, les muons et leurs neutrinos associés resteront dans la même direction. Le système magnétique, placé après la cible, comprend deux cornes. La première focalise les particules de charge positive et défocalise celles de charge opposée. Cet effet dépend de l’énergie des particules: il est excessif pour les particules de moins de 35 GeV et insuffisant pour celles d’énergie supérieure. Ainsi, la seconde corne magnétique, positionnée 40 m plus loin, joue un rôle correcteur des « imperfections » de la première, pour produire un faisceau contenant des particules ayant des trajectoires parallèles, indépendamment de leur énergie.
Schéma du système des cornes du CNGS. Grâce à la focalisation, le faisceau se dirigeant vers le Gran Sasso contient 10 fois plus de particules. En bas, l’effet du champ des deux cornes sur les trajectoires des particules d’énergie différente est indiqué.
Les deux cornes magnétiques du CNGS.
Simon Van der Meer devant un tableau expliquant le fonctionnement des cornes magnétiques.
ÉLÉMENTAÍRE
Dans le cas du CNGS, la première corne est longue de 7,5 m et a un rayon externe de 0,7 m. La seconde est plus large : 1,1 m de rayon. Le courant électrique nécessaire à la création du champ magnétique focalisant est de 150 000 Ampères et il est appliqué par pulsations avec le même rythme que l’extraction des protons du SPS. À cause de ce champ variable, la structure des cornes subit des forces magnétiques importantes. Les parois doivent alors être épaisses pour résister aux tensions mécaniques mais pas trop pour ne pas absorber les particules du faisceau ! L’optimisation des dimensions des cornes a ainsi requis de savants calculs. Par ailleurs, la puissance électrique chauffe la structure et nécessite un système de refroidissement à eau assez complexe.
page 41
© CERN
encore le diriger avec précision sur les parties détectrices d’OPERA à 732 kilomètres de là. Grâce au GPS la visée n’est pas difficile, mais le faisceau a tendance à s’élargir au cours de son trajet. Ainsi la stabilité dans le temps de la position du faisceau de neutrinos doit être excellente et sa divergence minimale, de façon à ce que la majorité des neutrinos traversent le volume d’OPERA.
Le principe de la corne magnétique a été proposé par l’ingénieur du CERN Simon Van der Meer en 1961 et utilisé dès 1962 dans les premières expériences avec des faisceaux de neutrinos au CERN. Simon Van der Meer a partagé le prix Nobel 1985 avec Carlo Rubbia pour avoir inventé la méthode permettant la production de faisceaux intenses d’antiprotons.
Dis, c’est encore loin le Gran-Sasso ? Créer au CERN l’espace nécessaire pour les installations du CNGS n’a pas été simple. 3300 mètres de tunnels, de galeries et de cavernes situés à des profondeurs variant entre 55 m et 122 m ont été excavés et consolidés en un peu moins de 3 ans. Au total, 45 000m3 de terre ont été déplacés. Un consortium spécial, constitué entre la France, l’Italie, la Grande Bretagne et la Grèce a été en charge du suivi des travaux et de la sécurité. Le coût total, tenant compte de l’ingénierie et des installations a été évalué à 47 millions d’euros. À gauche : schéma indiquant les installations créées spécialement pour la production du faisceau CNGS. On distingue le tunnel (en bleu) pour les protons extraits du SPS et dirigés sur la cible. Les pions et les kaons après focalisation, volent dans un long tunnel (en orange) où ils se désintègrent. Après avoir survécu à la traversée des absorbeurs, les neutrinos entreprennent leur voyage en direction d’OPERA.
© CERN
Ci-dessous : les mêmes installations sont indiquées en coupe verticale.
2006 : les premiers événements enregistrés par OPERA
Bruit de fond
page 42
L’expérience OPERA interpose au faisceau de neutrinos 1 800 tonnes de détecteurs occupant un volume de 25 m de long, 10 m de large et 10 m de haut. Elle est composée de deux sections constituées chacune d’un ensemble de « briques » (il y en a 250 000 en tout dans OPERA) suivi d’un spectromètre à muons. Une brique est construite comme un
Différence de temps entre les événements mesurés dans le détecteur OPERA et le déversement des protons du SPS. Les deux pics correspondent à deux déversements successifs de protons au niveau du SPS. Les événements en dehors des pics proviennent des interactions du rayonnement cosmique sur les roches.
ÉLÉMENTAÍRE
Dis, c’est encore loin le Gran-Sasso ? sandwich de feuilles de plomb et de films photographiques qu’on appelle « émulsions ». Dans le plomb, les neutrinos peuvent interagir pour donner naissance à une particule chargée (muon, tau,..). Le muon ainsi que les autres particules chargées, dont celles issues de la désintégration du tau, sont détectées par des plans de scintillateurs qui servent au déclenchement de l’enregistrement de l’événement. Les muons sont aussi identifiés et mesurés de façon précise par le spectromètre. Lorsqu’une interaction a lieu dans une brique, le système de déclenchement note sa position. Un robot manipulateur vient alors retirer la brique pour la porter au laboratoire où elle sera ouverte pour le développement des émulsions et la reconstruction du point de l’interaction du neutrino avec la cible. En période de prise de données une trentaine de briques seront enlevées par jour pour être analysées. En 5 ans de faisceau, 30 000 interactions de neutrinos du faisceau CNGS sont attendues dans la masse d’OPERA, parmi lesquelles 150 devraient correspondre à des neutrinos-mu ayant oscillé en neutrinos-tau, dont seulement 10 à 20 seraient définitivement identifiées comme telles. Le CNGS a envoyé ses premiers neutrinos vers OPERA durant l’été et automne 2006. Les paramètres du faisceau ont été vérifiés et ajustés pendant toute cette période. Le détecteur OPERA a enregistré des événements en coïncidence avec les déversements des protons du SPS. En 2007, le fonctionnement du CNGS s’est arrêté à cause d’un problème de fuite au niveau du refroidissement des cornes magnétiques. Après réparation, les tests vont reprendre dans le but d’optimiser le fonctionnement de l’ensemble pour une intensité plus grande de protons.
Identification des neutrinos - tau dans OPERA Comment sait-on que le neutrino touchant le détecteur est un neutrino-tau ? En observant les particules qu’il crée ! Dans le cas d’une interaction de neutrino-mu avec la matière du détecteur, un muon sera identifié dans l’état final, accompagné généralement d’un jet de hadrons. Si le neutrino-mu initial a oscillé entre le CERN et le Gran Sasso, alors son interaction donnera un tau qui, après un court vol d’environ 1 mm, se désintègrera en produisant dans 18% des cas également un muon mais aussi un électron ou bien un (ou plusieurs) pions. La signature de l’oscillation est alors une distance caractéristique entre le point d’émergence du jet et celui du muon ou d’autres traces chargées, preuve de l’apparition furtive du lepton tau.
émulsion
page 43
ÉLÉMENTAÍRE
plomb
Chaque brique pèse 8,3 kilogrammes et elle est constitué d’une succession d’une soixantaine de feuilles de plomb de 10,2 × 12,5 × 0,1 cm3 et d’émulsions. Comme indiqué sur le schéma, la brique individuelle contient le point d’interaction du neutrino avec le plomb, et permet de mesurer précisément les positions des traces chargées.
Découverte La découverte des neutrinos En raison de la petitesse de leur couplage avec la matière, les neutrinos furent découverts de manière tardive : 1956, 1962 et 2000 pour, respectivement, les neutrinos-e, neutrinos-mu et neutrinos-tau. Un neutrino interagit si faiblement qu’il peut traverser la Terre sans être dévié de sa trajectoire ! Si on produit un seul neutrino, on n’a donc aucune chance de le détecter, quelle que soit la méthode employée. Pour pouvoir les étudier directement, il faut donc en disposer d’un grand nombre et leur faire traverser une importante quantité de matière pour espérer avoir quelques interactions. On cherchera alors à observer les particules produites lors de leur interaction.
Le neutrino-e Pour mettre en évidence le neutrino-e en 1956 (en fait, il s’agissait de son antiparticule, l’antineutrino-e), F. Reines et C. Cowan utilisèrent une cuve de 400 litres remplie d’un mélange d’eau et de chlorure de cadmium qu’ils placèrent à proximité du réacteur nucléaire de Hanford situé dans l’État de Washington aux États-Unis. Le principe de détection est basé sur la réaction « bêta inverse » où un antineutrino est « capturé » par un proton d’une molécule d’eau pour donner un positron (l’antiparticule de l’électron) et un neutron.
L’expérience de Reines-Cowan a permis la mise en évidence expérimentale du neutrino-e en 1956. Le détecteur est composé de 400 litres d’un mélange d’eau et de chlorure de cadmium. Le positron s’arrête rapidement et s’annihile avec un électron du milieu : e+e− → γγ . Le neutron subit des collisions et, après environ 1 μs (microseconde), il est capturé par un noyau de cadmium qui émet également des photons pour revenir à son niveau fondamental.
Fred Reines et Clyde Cowan dans la salle de contrôle de l’expérience de Hanford (1956).
page 44
DR
On a donné ce nom à cette réaction car la désintégration bêta correspond à celle d’un neutron en un proton, un électron et un antineutrino-e (voir «Apéritif»), c’est-à-dire l’inverse de la réaction qui nous intéresse ici. Le positron s’annihile immédiatement avec un électron présent dans le cortège électronique des atomes des molécules d’eau pour produire deux photons. Le neutron est lui capturé un peu plus tard par un noyau de cadmium ce qui induit la production de plusieurs photons, décalés dans le temps par rapport à ceux émis lors de l’annihilation du positron.
ÉLÉMENTAÍRE
La découverte des neutrinos Le neutrino-mu Le neutrino-mu fut découvert en 1962 au Brookhaven National Laboratory, près de New-York (voir Élémentaire N°4), par l’équipe formée de L. Lederman, M. Schwartz, J. Steinberger et J.-M. Gaillard. Pour cette découverte, un faisceau fournissant plusieurs centaines de millions de neutrinos par heure et un détecteur massif furent nécessaires. L’hypothèse était que, si les neutrinos-mu existent et sont différents des neutrinos-e, ils doivent être produits dans les désintégrations des pions et des kaons dans lesquelles est émis un muon. C’est pour réaliser cette expérience que les premiers faisceaux intenses de neutrinos ont été mis en œuvre (voir «Accélérateurs»). Le faisceau de neutrinos, contenant principalement des neutrinos-mu (mais aussi d’autres particules), traverse des blocs de fer derrière lesquels sont placées plusieurs chambres à étincelles pour identifier les particules produites. L’épaisseur de fer traversé (13 m) est telle que toutes les particules du faisceau sont absorbées. Toutes ? Exceptés les neutrinos bien sûr ! En fait, quelques uns vont interagir. La réaction entre un neutrino-mu et un atome des matériaux traversés fera apparaître un muon dans l’état final si le neutrino-mu est différent du neutrino-e, sinon on doit observer des électrons à la place des muons. Lors de cette expérience, 36 muons furent observés contre 6 électrons qui correspondaient au bruit de fond attendu.
Mel Schwartz devant les chambres à étincelles du détecteur de Brookhaven qui démontra l’existence, en 1962, que le muon a son propre neutrino, différent du neutrino-e. Mel Schwartz, Leon Lederman et Jack Steinberger reçurent le prix Nobel en 1988 pour cette découverte.
Schéma simplifié de l’expérience de Brookhaven qui a démontré en 1962 qu’il existait plus d’un type de neutrinos. Un faisceau de protons bombarde une cible de béryllium créant ainsi des π+ et des K+. Le K+ se désintègre alors en émettant un muon et un neutrino muonique. Toutes les particules créées sont arrêtées par un mur de fer de 13 m d’épaisseur sauf les neutrinos produits qui parfois interagissent avec les noyaux selon la réaction : νμ + Noyau → μ- + autre chose. La détection des muons μ- + derrière le mur ne peut provenir que de cette réaction, signant ainsi la présence et donc l’existence des νμ.
Le neutrino-tau : chronique d’une découverte annoncée
ÉLÉMENTAÍRE
page 45
On supposait son existence depuis le début des années 80, mais il fallut attendre l’an 2000 pour que l’expérience DONUT (Direct Observation of NU Tau) installée à Fermilab annonce l’avoir observé. En fait la découverte du troisième lepton chargé, le tau, en 1974 suggéra qu’un autre type de neutrino devait lui être associé. Mais sa mise en évidence n’était pas chose aisée. Comme pour les deux autres neutrinos, le principe est de détecter le lepton tau produit lors de l’interaction d’un neutrino-tau avec la matière. La difficulté réside dans la fabrication d’un faisceau de neutrinos-tau suffisamment intense. Pour fabriquer un faisceau de neutrinos qui contienne suffisamment de
La découverte des neutrinos
© fermilab
neutrinos-tau, l’accélérateur de particules de Fermilab fut utilisé. Une quantité importante de protons est envoyée sur une cible de tungstène créant majoritairement des pions, des kaons, des neutrons,... mais aussi, en plus faible quantité, des mésons contenant un quark charmé. La désintégration de ces mésons produit parfois des leptons tau qui, en se désintégrant à leur tour, génèrent des neutrinos-tau. Pour diminuer la présence d’autres particules le faisceau de neutrinos traverse de la matière ainsi qu’un aimant déflecteur qui élimine les particules chargées. Le faisceau de neutrinos ainsi préparé traverse une cible constituée de plaques de fer et de couches d’émulsions photographiques capables de déterminer avec une grande précision les positions des traces chargées issues de l’interaction d’un neutrino-tau avec les atomes de fer. Ceci est indispensable pour mesurer la trace du tau dès sa création et observer quelques millimètres plus loin sa désintégration : le tau est, en effet, une particule beaucoup plus instable que le muon, sa durée de vie étant un milliard de fois plus petite. Après trois années d’efforts, les physiciens ont observé quatre événements qui contiennent très clairement les traces venant de la désintégration d’un lepton tau. Cette découverte du troisième type de neutrino, ne créa pas vraiment la surprise. Elle venait confirmer l’existence de trois familles de leptons, chacune contenant une particule chargée (électron, muon, tau) et son neutrino associé.
Photo aérienne du complexe d’accélérateurs de Fermilab, situé dans l’Illinois aux États-Unis.
page 46
Photo d’une partie du détecteur DONUT. On peut voir, derrière Byron Lundberg, porteparole de cette collaboration, deux chambres à dérive, placées après les plaques d’émulsions, qui permettent de mesurer l’impulsion des particules chargées issues de la désintégration du lepton tau.
Un événement de l’expérience DONUT tel qu’il est vu dans les émulsions photographiques et qui montre l’existence du neutrino-tau. Le « coude » correspondant à la désintégration d’un tau (trajectoire rouge) est particulièrement visible dans le cadre en bas à gauche. Les trajectoires grises correspondent à des particules chargées créés lors de l’interaction d’un neutrino-tau avec un noyau de fer. Dans cet événement le tau se désintègre en un électron (trajectoire verte) et deux neutrinos : _ τ- → e− + νe + ντ.
ÉLÉMENTAÍRE
Théorie les neutrinos oscillent ?
DR
Les neutrinos sont des particules bien mystérieuses, puisqu’elles interagissent très peu avec la matière et peuvent donc la traverser sans difficulté. Ce mystère va encore s’épaissir au fil de cet article, car les trois types de neutrinos, associés à l’électron, au muon et au tau, partagent une propriété surprenante. Chaque neutrino passe sans cesse d’un type à l’autre au fil du temps : on dit que les neutrinos oscillent. Cette transmutation des neutrinos commence à être comprise mais contient encore de nombreuses zones d’ombre.
Rencontre du troisième type
Reprenons : supposons qu’un neutrino-e soit produit dans une réaction. Il correspond à un mélange bien déterminé de neutrinos de masses
ÉLÉMENTAÍRE
page 47
« Garçon, je voudrais une glace à la fraise ; oui deux boules ! » Le jeune homme se penche et vous tend un cornet. Vous apprêtant à vous rafraichir, vous découvrez une belle boule à la fraise accompagnée... d’une boule de vanille. Vous interpellez le garçon mais, lorsque vous lui montrez le cornet, la boule vanille a complètement disparu... Après un temps, la voilà qui réapparaît devant vos yeux et grossit lentement, tandis que celle à la fraise diminue pour disparaître à son tour, et ainsi de suite... C’est alors que vous entendez la sonnerie de votre réveil-matin... Ouf, ce n’était qu’un rêve ! Bien sûr, une telle mésaventure ne vous arrivera pas dans la vie courante. En revanche, elle peut se produire dans le monde des particules et en particulier chez les neutrinos : c’est le phénomène d’oscillation des neutrinos. Les oscillations se produisent entre les trois « saveurs » de neutrinos (voir rubrique « Apéritif »), un peu comme dans votre rêve si rafraîchissant, mais avec une glace à trois parfums. Au moment de sa production, lors d’une collision ou lors de la désintégration de particules, un neutrino peut être de type neutrino-e, neutrino-mu ou neutrino-tau. La saveur (e, mu ou tau) du neutrino dépend de la réaction qui lui a donné naissance. Mais que devient le neutrino fraîchement créé ? Eh bien, il poursuit son petit bonhomme de chemin – on dit qu’il se « propage ». Son évolution dans le temps est régie par les lois de la mécanique quantique : on peut décrire sa propagation comme celle d’une onde, dont la vitesse est directement reliée à celle de la particule associée, et dépend, en particulier, de l’énergie et de la masse de celle-ci. Jusqu’ici, rien de bien mystérieux ! Mais les choses se corsent quand on prend en compte l’existence de trois types de neutrinos différents. Si nous nous intéressons à la propagation des neutrinos, les masses – et donc les vitesses de propagation – de ces derniers s’avèrent différentes. Si, d’un autre côté, nous considérons les interactions des neutrinos, par exemple lors de leur production ou de leur détection, c’est leur saveur (e, mu, tau), et non leur masse, qui joue le rôle déterminant. Tout le sel de l’affaire vient de ce qu’un neutrino de masse donnée n’a pas une saveur bien définie : il n’est ni « e », ni « mu », ni « tau »... mais un peu des trois à la fois. Inversement, un neutrino de saveur donnée n’a pas une masse bien définie. En fait, on peut voir un tel neutrino de saveur donnée comme un « mélange » de trois neutrinos de masses données, et vice-versa... On vous l’avait dit que ça se corsait !
Bruno Pontecorvo (1913-1993) Né à Pise, dès l’âge de 18 ans il suit les cours d’Enrico Fermi à l’Université La Sapienza de Rome. Il devient un de ses plus jeunes assistants ainsi qu’un membre du groupe des garçons de la via Panisperna (du nom de la rue où se situe leur laboratoire). En 1936, il est à Paris dans le laboratoire d’Irène et Frédéric Joliot-Curie où il travaille notamment sur les collisions entre neutrons et protons. En cette époque du front populaire il est alors sensible aux idées du socialisme. D’origine juive il lui est impossible de retourner en Italie à cause de la discrimination raciale instaurée par le régime fasciste. Il reste à Paris jusqu’à l’arrivée des nazis puis va en Espagne et enfin aux États-Unis où il travaille pour une compagnie pétrolière. Après un séjour au Canada, en 1943, où il se consacre à l’étude des rayons cosmiques, il obtient la citoyenneté britannique en 1948 et participe à leur projet de bombe atomique. Bien qu’ayant été nommé à la chaire de physique de l’Université de Liverpool, il quitte soudainement l’Italie avec sa famille, lors de vacances en août 1950, pour Stockholm puis pour l’URSS. Il y est reçu avec les honneurs et travaille jusqu’à la fin de sa vie au JINR (Joint Institute for Nuclear Research) de Dubna, situé à 120 km au nord de Moscou. Cet institut regroupe un millier de scientifiques issus d’une vingtaine de pays. Pontecorvo s’y consacre à la théorie en physique des particules. Parmi ses nombreux apports à ce domaine on retiendra l’idée pour détecter les anti-neutrinos émis par les réacteurs nucléaires (qui sera mise en œuvre par F. Reines), la prédiction que les neutrinos associés aux électrons sont différents de ceux associés aux muons (vérifiée expérimentalement par L. Lederman, M. Schwartz, J. Steinberger et J.M. Gaillard) et aussi, en 1957, l’idée que les neutrinos peuvent changer de nature (les oscillations des neutrinos). En 1995, le JINR a créé le prix Pontecorvo qui récompense chaque année un scientifique ayant fait une contribution majeure en physique des particules.
Comment et pourquoi Comment un neutrino-mu se transforme-t-il en neutrino-tau ? Au moment de la création du neutrino-mu sa composante neutrino-tau est nulle, mais elle apparaît au fur et à mesure que le temps s’écoule avant de diminuer à nouveau jusqu’à zéro... et ainsi de suite. On peut avoir une disparition complète du neutrino-mu au bénéfice du neutrino-tau sur un certains laps de temps, si l’angle de mélange est maximal.
La figure du haut représente l’évolution dans le temps de deux ondes de même amplitude. Ces ondes sont en phase au départ, mais leur fréquence d’oscillation diffère de 10% si bien qu’elles sont en opposition de phase au bout de 5 périodes et à nouveau en phase au bout de 10 périodes, et ainsi de suite. La figure du bas représente la variation de l’intensité de l’onde correspondant à la somme cohérente de ces deux ondes. Cette intensité s’obtient en prenant le carré de la somme des amplitudes. On constate qu’elle montre des oscillations rapides dont la taille varie avec le temps : les oscillations sont modulées et passent par zéro lorsque les deux ondes de départ sont en opposition de phase. Un phénomène analogue a lieu pour les neutrinos-mu atmosphériques, créés en tant que neutrinos-mu par des rayons cosmiques lorsqu’ils pénètrent l’atmosphère terrestre. Ces neutrinosmu peuvent en effet disparaître pendant certains intervalles de temps du fait de leur oscillation complète en neutrinostau.
différentes. On a affaire à une superposition de trois ondes se propageant à des vitesses légèrement différentes. Résultat ? Le mélange initial se modifie au cours du temps et ne correspond plus exactement au neutrino- e de départ. Pour un(e) physicien(ne) cherchant à détecter ce neutrino à une certaine distance de son point de production, ce mélange apparaîtra tantôt comme un neutrino-e, tantôt comme un neutrino-mu, tantôt comme un neutrinotau. Si l’expérience qui compte les neutrinos est insensible à leur saveur, c’est-à-dire si elle ne compte que leur nombre total, notre physicien(ne) ne s’apercevra de rien. Si, en revanche, le détecteur n’est sensible qu’à la saveur du neutrino de départ, il en enregistrera un nombre moins important qu’il n’en est produit à l’origine : on parle d’un déficit. Enfin, si le détecteur n’est sensible qu’aux saveurs différentes de celle du neutrino de départ, on parlera d’une expérience « d’apparition » de neutrino d’une saveur particulière.
« Au secours ! Mon neutrino a disparu ! »
page 48
Le phénomène d’oscillation des neutrinos peut être rapproché de celui des battements que l’on observe lorsqu’on superpose deux ondes cohérentes d’amplitudes constantes et de fréquences voisines. Il en résulte une onde dont l’amplitude oscille entre deux valeurs dépendant des amplitudes des ondes initiales. Si on pense en termes d’ondes
ÉLÉMENTAÍRE
les neutrinos oscillent ? lumineuses, ceci correspond à une onde d’intensité variable. Par analogie, si on se restreint à deux saveurs de neutrinos, on peut calculer la probabilité qu’un neutrino de saveur donnée se transforme en un neutrino d’une autre saveur en fonction du temps ou en fonction de la distance entre le point d’émission et le point de détection du neutrino. Cette probabilité dépend de la valeur absolue de la différence entre les carrés des masses des neutrinos (∆m2), de l’énergie (E) du neutrino initial, ainsi que d’un paramètre appelé « angle de mélange », qui, dans l’analogie exposée cidessus, caractérise les amplitudes relatives des ondes qui se superposent. Dans le cas de trois saveurs, on a deux différences de masse et trois angles de mélange. D’après ces calculs, le phénomène d’oscillation commence à se faire sentir, c’est-à-dire que la probabilité d’oscillation commence à être sensiblement non nulle, lorsque le neutrino a parcouru une distance suffisante, dite « distance d’oscillation », Losc = h E/ ∆m2 c3, où h est la constante de Planck et c est la vitesse de la lumière dans le vide. Pour une énergie donnée, la longueur d’oscillation est d’autant plus grande que la différence de masses au carré est faible. Par exemple, pour des neutrinos de 10 MeV, et en supposant ∆m2 = 0,001 eV2 /c4, on obtient Losc = 12,5 km. Mais les choses sont en réalité un peu plus compliquées car les neutrinos sont, en général, produits au sein de la matière (au cœur du Soleil, lors de l’explosion de supernovae...). Ils ne se propagent donc pas uniquement dans le vide, mais aussi à travers la matière. Tout comme la propagation d’une onde lumineuse est modifiée lorsqu’elle traverse un milieu, la présence de matière altère la propagation des neutrinos en modifiant la vitesse de propagation de l’onde dans le milieu, à la manière d’un indice de réfraction. Dans le cas des neutrinos solaires, cet effet joue un rôle primordial. En effet, les neutrinos-e interagissent différemment des neutrinos-mu ou tau avec la matière du Soleil, ce qui donne lieu à des indices de réfraction – et donc des vitesses de propagation – différents pour les trois saveurs de neutrinos. Cet effet vient s’ajouter à l’oscillation des neutrinos dans le vide et modifie la probabilité d’oscillation. L’interprétation des résultats en termes de différence de masses des neutrinos est donc plus difficile car elle dépend de notre connaissance de la densité de matière dans le Soleil.
Ondes et probabilités En mécanique quantique, toute particule d’énergie E peut-être représentée par une onde de fréquence ν = E/h, où h est la constante de Planck, égale à : 6,626 10 - 34 J.s. Pour des particules de masse nulle, la longueur d’onde associée est donnée par λ = c/ν, où c = 3 108 m/s est la vitesse de la lumière dans le vide. Sachant qu’un eV représente une énergie de 1,6 10 -19 J, on trouve, pour une particule ayant une énergie de 1 GeV (1 milliard d’eV), ν = 2,4 1023 Hz et λ = 1,2 fm. Pour des particules de masse non-nulle, la relation entre longueur d’onde et fréquence est modifiée : λ = c/ν × c/v, où v est la vitesse de la particule. À énergie fixée, celle-ci est d’autant plus faible que la masse est grande. L’onde en question décrit les caractéristiques quantiques de la particule (voir Élémentaire N°1). L’amplitude de cette onde – qui, dans l’analogie avec une onde lumineuse, est directement reliée à l’intensité – permet de déterminer la probabilité d’observer un phénomène. Par exemple, on peut ainsi calculer la probabilité qu’un neutrino-e – qui peut être vu comme la superposition de deux ondes de longueurs d’onde légèrement différentes car correspondant à des neutrinos de masses inégales – se transforme en un neutrino-mu après avoir parcouru une certaine distance.
Les neutrinos-e interagissent : Il peut sembler contradictoire que l’interaction des neutrinos avec le milieu ambiant puisse jouer un rôle important dans le phénomène d’oscillations alors que nous avons souligné l’extraordinaire petitesse de ces interactions. Elle est à mettre en parallèle avec les minuscules différences de masses au carré que le phénomène d’oscillation permet de mesurer. Ceci met en évidence une particularité importante de ce phénomène, à savoir qu’il est essentiellement caractérisé par la longueur d’oscillation Losc. En faisant parcourir aux neutrinos une distance suffisamment grande on arrive à obtenir un effet notable.
À la pêche aux neutrinos... Le phénomène d’oscillation des neutrinos a été prédit théoriquement par Bruno Pontecorvo en 1957, alors qu’on venait à peine de découvrir le neutrino-e et qu’on était encore loin des découvertes des neutrinos-mu et -tau ! Dix ans plus tard, la première manifestation du phénomène a pourtant été observée... par hasard !
ÉLÉMENTAÍRE
page 49
Au début des années 60, R. Davis Jr. installe dans une mine du Dakota du sud une citerne remplie de 600 tonnes de liquide détergent à base de chlore. Son but ? Détecter les neutrinos-e provenant du Soleil en vue de vérifier l’hypothèse, avancée à l’époque, selon laquelle la fusion nucléaire est la source principale d’énergie dans notre étoile. En 1968, les premiers résultats tombent : Davis et ses collaborateurs observent un déficit important de neutrinos, comparé aux résultats attendus sur la base des modèles solaires.
Comment et pourquoi Très vite, l’hypothèse des oscillations de neutrinos fut avancée. Mais les incertitudes sur la dynamique interne du Soleil et les biais expérimentaux éventuels ne permettaient pas encore de pouvoir crier à l’oscillation. Deux expériences, Gallex et Sage, montrèrent ensuite que le déficit en neutrinose issus du Soleil affectait l’ensemble du spectre en énergie des neutrinos. D’autre part, de nombreux groupes installèrent aussi des détecteurs auprès de centrales nucléaires, qui produisent des antineutrinos- e en abondance. Les détecteurs furent installés à des distances variées, dans l’espoir de choisir des conditions favorables à l’oscillation de ces neutrinos et donc observer un éventuel infléchissement du nombre de leurs interactions.
© SNO
Toutes ces expériences n’étaient sensibles qu’aux neutrinos-e. L’expérience SNO (Sudbury Neutrino Observatory, Canada) changea la donne par sa sensibilité aux autres saveurs de neutrinos. En 2001, elle montra que les neutrinos-e manquants en provenance du Soleil, se retrouvaient bien sur Terre, mais sous forme de neutrinos-mu ou tau ! Il y avait donc bien eu oscillation. On pouvait aussi exclure l’hypothèse de neutrinos additionnels, appelés « stériles », qui n’interagiraient pas du tout avec la matière et seraient détectables uniquement par leur impact sur l’oscillation des autres neutrinos. Pour ce qui est des neutrinosmu, une autre révolution se produisit en 1998, avec l’expérience SuperKamiokaNDE dans le domaine des neutrinos atmosphériques (voir « Apéritif »). En étudiant les neutrinos-e et les neutrinosmu produits dans l’atmosphère terrestre par les rayons cosmiques, elle observa un déficit de neutrinos-mu : une partie d’entre eux avait oscillé en neutrino-tau et n’avait pas été détectée. Cette expérience a clairement démontré le phénomène d’oscillations, près de quarante ans après sa prédiction théorique ! En 2002, le prix Nobel de physique a été attribué à M. Koshiba, porte-parole de l’expérience KamiokaNDE, prix qu’il partagea avec R. Giacconi, qui a été un pionner de l’astronomie spatiale dans le domaine des rayons γ, ainsi qu’avec R. Davis Jr., le premier à avoir détecté des neutrinos d’origine extra-terrestre et mis en évidence le déficit de neutrinos solaires !
La cuve du détecteur SNO lors de son installation dans la mine de Sudbury. À l’extérieur de la cuve on voit les culots des photomultiplicateurs qui enregistrent les signaux lumineux émis dans la cuve lors de l’interaction de neutrinos solaires avec l’eau lourde qu’elle contient. Spectre de l’énergie des neutrinos solaires. On a indiqué, au-dessus de cette figure, les seuils de sensibilité de différentes expériences utilisant le gallium (Gallex, Sage), le chlore (Davis) ou l’effet Cerenkov dans l’eau (KamiokaNDE). On voit que les expériences utilisant le gallium mesurent la quasi-totalité du spectre.
Une manip à tout casser !
page 50
SuperKamiokaNDE SuperKamiokaNDE est une expérience située dans une mine d’étain japonaise, à environ 1000 mètres sous une montagne. Il s’agit d’un réservoir cylindrique en acier inoxydable dont la hauteur et le diamètre mesurent une quarantaine de mètres. Ses parois sont tapissées de 11 200 capteurs de lumière ou photomultiplicateurs, et il contient 50 000 tonnes d’eau ultra-pure. Lors des très rares collisions entre un neutrino et un noyau atomique de l’eau du réservoir, l’interaction produit une ou plusieurs particules chargées qui, en traversant l’eau, émettent une lumière par effet Cerenkov. Les caractéristiques de cette lumière sont différentes pour la collision d’un neutrino-e et d’un neutrinomu, ce qui permet d’identifier la saveur du neutrino initial (voir Élémentaire N°4).
En quelques années d’étude des neutrinos atmosphériques par SuperKamiokaNDE, nous sommes passés du flou complet à une connaissance assez précise des différents paramètres (angles de mélange et différences de masses au carré) qui décrivent les oscillations entre neutrinos-mu et
ÉLÉMENTAÍRE
les neutrinos oscillent ? neutrinos-tau. Il est aujourd’hui possible de concevoir des expériences de manière à optimiser la mesure de leur probabilité d’oscillation.
© Kamland
C’est ainsi que l’expérience K2K a été conçue pour étudier en détail les oscillations des neutrinos-mu. Un faisceau de neutrinos-mu d’énergie appropriée (voir « Accélérateur ») est préparé au KEK, un centre japonais de physique des particules. Ce faisceau est dirigé vers le détecteur Super-KamiokaNDE, d’où l’acronyme de l’expérience K2K : « Kek to (même phonétique que two) Kamioka ». Le nombre de neutrinos-mu produits au KEK est alors comparé à celui enregistré dans le détecteur. Un incident spectaculaire a eu lieu en novembre 2001 à Super-KamiokaNDE. L’implosion d’un photomultiplicateur situé vers le fond du réservoir a créé une onde de choc qui a détruit environ 60% de ces détecteurs. Ceux restants ont été répartis de manière à assurer une bonne détection des neutrinos issus du KEK. Entre juin 2005 et juillet 2006, de nouveaux photomultiplicateurs ont été installés pour restaurer les capacités d’origine du détecteur. L’enregistrement des données s’est poursuivi et les résultats ont confirmé l’existence d’oscillations. D’autres mesures sont menées actuellement. D’une part, l’expérience KAMLAND a étudié les neutrinos-e venant de plusieurs sites de centrales nucléaires au Japon pour préciser la valeur de ∆m2 associée à leur oscillation. En particulier, elle a pu exclure certaines valeurs que les expériences de neutrinos solaires n’avaient pu éliminer à cause des incertitudes dues aux effets de matière dans le Soleil. Par ailleurs, aux États-Unis, l’expérience MINOS (voir Élémentaire N°4) a été en mesure de confirmer les résultats de Super-KamiokaNDE sur les oscillations des neutrinos-mu.
Vue schématique du détecteur de l’expérience KAMLAND. La cuve contient 1000 tonnes de scintillateur liquide et est installée sur le site de la première expérience KamiokaNDE
Ensemble des résultats obtenus auprès de réacteurs nucléaires où l’on compare le nombre d’interactions d’antineutrinos-e enregistrées dans un détecteur au nombre attendu, en l’absence d’oscillations. Les mesures ont été faites à différentes distances du coeur du réacteur. Seule l’expérience KAMLAND a observé un déficit.
Les expériences actuelles se séparent en deux catégories, selon les valeurs des paramètres d’oscillation étudiés : celles dites de neutrinos solaires, qui concernent essentiellement les oscillations entre neutrinos « e » et « mu » ; et celles dites de neutrinos atmosphériques, qui étudient les oscillations entre neutrinos « mu » et « tau ». Mais l’interprétation des résultats pourrait être encore plus complexe ! Il y a en effet trois saveurs de neutrinos, susceptibles de se mélanger les unes aux autres. Pourquoi alors ne parle-t-on pas des oscillations entre
ÉLÉMENTAÍRE
page 51
L’insoutenable légèreté du petit neutre
MINOS Cette expérience s’appuie sur NuMI, un faisceau intense de neutrinos-mu obtenu au Fermilab, près de Chicago (voir Élémentaire N°4). Ces neutrinos vont traverser deux détecteurs de conception similaire. Le «plus petit», situé à Fermilab, pèse près de mille tonnes et est appelé «détecteur proche». Le «détecteur lointain», de plus de cinq mille tonnes, est situé à quelques sept cents kilomètres de distance, dans la mine de Soudan (au Minnesota, près de la frontière canadienne), à 700 mètres sous la surface du sol. Par comparaison entre les résultats des deux détecteurs, on peut savoir si des neutrinos-mu ont oscillé pendant leur trajet jusqu’à la mine de Soudan.
Comment et pourquoi neutrinos « e » et « tau » ? En fait, les différentes mesures effectuées, notamment auprès de la centrale nucléaire de Chooz, dans les Ardennes, indiquent que les neutrinos-e ont une très faible probabilité de se transformer en neutrino-tau. On peut donc bien interpréter les oscillations des neutrinos atmosphériques (mu et tau) et celles des neutrinos solaires (e et mu) en ne faisant intervenir que deux saveurs à chaque fois ! La différence de masses au carré correspondant au cas atmosphérique, traditionnellement notée ∆m232, a été mesurée à 2,7 x 10-3 eV2 ; et on a obtenu un angle de mélange dit « maximal », ce qui signifie qu’on peut avoir, dans des conditions appropriées, une conversion totale entre neutrinos-mu et neutrinos-tau. Les neutrinos-mu qui ont disparu se sont transformés en neutrinos-tau (avec plus de 99% de probabilité compte tenu des mesures actuelles). Pour les neutrinos solaires on a mesuré une différence de masses au carré ∆m122 = 8 x10-5 eV2 et trouvé un angle de mélange qui n’est ni maximal, ni particulièrement petit.
WMAP Lancé en 2001, le satellite américain WMAP (Wilkinson Microwave Anisotropy Probe, en l’honneur de l’astronome David Wilkinson) étudie le fond diffus cosmologique. Ce rayonnement est constitué de photons « fossiles » datant des premiers instants de l’Univers. WMAP cartographie avec précision la répartition de ces photons, car de très subtiles différences de densité fournissent des témoignages précieux sur l’état et le contenu de l’Univers 300 000 ans après le Big Bang. Les neutrinos ayant joué un rôle important dans l’histoire de l’Univers primordial, ces observations permettent de remonter, indirectement, à certaines de leurs propriétés, comme leurs masses. Les valeurs publiées indiquent que mγ < 0,2 - 0,6 eV en fonction des modèles.
Quelle masse pour les neutrinos ? Les mesures des oscillations ne sont sensibles qu’aux différences de masses au carré. Les résultats obtenus nous offrent différents scénarios quant aux valeurs des masses des neutrinos. Si celles-ci sont très supérieures à 0,045 eV, les trois masses doivent être voisines. Dans le cas contraire, on peut envisager que deux des trois masses sont voisines et que la troisième est soit beaucoup plus grande, soit beaucoup plus petite. Pour trancher, il « suffit » donc de mesurer la masse des neutrinos. Cela ne sera pas chose aisée car les limites actuelles (venant d’observations cosmologiques du satellite WMAP) indiquent que les neutrinos sont des objets de très faible masse, inférieure à 0,23 eV. Si le neutrino est une particule de Majorana (voir « Histoire »), les prochaines générations d’expériences sur la recherche de double désintégration bêta sans émission de neutrino (voir « Apéritif » et « Expérience ») auront peut-être la chance de voir un signal, si leur sensibilité atteint quelques dizaines de milli-eV. Un autre chemin, plus spéculatif, qui sera exploré dans les prochaines années, est l’étude combinée de l’émission de neutrinos et d’ondes gravitationnelles lors de l’explosion de supernovæ. La mesure du signal d’ondes gravitationnelles permet d’avoir un chronométrage extrêmement précis du temps mis par les neutrinos pour atteindre la Terre. Ce temps dépend directement de leur vitesse de propagation, et donc de leur masse. Une telle mesure permettrait donc de poser une limite supérieure directe
Masses effectives attendues pour les neutrinose,-mu,-tau. Trois scénarios sont possibles, représentés ici de gauche à droite : ou bien ces masses sont voisines et situées entre 0,05 et 0,23 eV (meilleure valeur obtenue par la cosmologie) ou bien deux d’entre elles sont voisines et la troisième est soit supérieure soit inférieure aux deux autres. Seuls les deux scénarios, en partant de la gauche sur la figure, peuvent donner éventuellement un signal de double désintégration bêta sans émission de neutrino, mesurable dans les expériences actuelles.
page 52
Mesure directe C’est une mesure dont l’interprétation s’appuie sur un nombre très limité d’hypothèses. Par exemple, la contrainte de WMAP sur les masses des neutrinos est indirecte car elle s’appuie sur un modèle cosmologique complexe pour relier la masse des neutrinos aux observations du rayonnement fossile issu du Big-Bang. À l’heure actuelle, la limite supérieure directe la plus contraignante porte sur la masse du neutrino-e et se situe autour de 3 eV. Elle est d’ailleurs basée sur l’étude de spectres d’énergie similaires à ceux observés par Chadwick (voir « Histoire »).
ÉLÉMENTAÍRE
© EDF
les neutrinos oscillent ?
Le site de la centrale nucléaire de Chooz dans les Ardennes. Un détecteur d’antineutrinos-e a été installé à environ un kilomètre du cœur du réacteur.
Oscillation des neutrinos solaires ou de centrales nucléaires
ÉLÉMENTAÍRE
page 53
sur la masse des neutrinos. De plus, elle fournirait des informations sur la physique assez peu connue de l’effondrement des étoiles massives quand elles ont fini de brûler leur combustible nucléaire. Les neutrinos sont donc l’objet d’études à la frontière de la physique des particules et de l’astrophysique, mais aussi de la cosmologie. Un exemple : à cause de leur masse non-nulle et de leurs faibles interactions avec la matière connue, les neutrinos furent un temps considérés comme de bons « candidats » pour expliquer l’abondance d’une forme de matière qui, bien que très présente dans l’Univers, n’est pas visible directement car elle n’émet aucune lumière : la matière noire. Cette hypothèse est aujourd’hui infirmée car les neutrinos s’avèrent être trop légers et le mystère de la matière noire reste entier. Mais les neutrinos tiennent une place importante dans la compréhension de l’histoire de notre univers.
Les résultats de KAMLAND (zones violettes) permettent d’améliorer les mesures de Super-KamiokaNDE sur les neutrinos solaires (zone rouge). Les zones vertes et jaunes sont exclues par l’ensemble des mesures.
les neutrinos oscillent ? Neutrino : un métier d’avenir ! Même si la mise en évidence de l’oscillation des neutrinos a été une grande découverte des dix dernières années en physique des particules, il reste encore beaucoup à faire pour préciser les valeurs des différences de masses au carré et des angles de mélange entre les trois types de neutrinos. Certaines expériences sont en cours pour vérifier les résultats déjà acquis, par exemple OPERA (voir « Accélérateur »). On s’attend aussi à ce qu’il y ait violation de la symétrie particule-antiparticule (symétrie CP) pour les neutrinos, de manière similaire à ce qui se passe pour les quarks. Ceci correspond à (au moins) un paramètre supplémentaire à mesurer. Les résultats déjà accumulés permettent de mieux définir les expériences qui restent à mener pour déterminer avec précision les paramètres d’oscillation des neutrinos. Mais ne nous-y trompons pas : ce programme n’est qu’un début. En effet, une fois ces mesures achevées, il restera encore beaucoup à comprendre. Pourquoi les neutrinos sont-ils si incroyablement légers comparés aux autres particules ? Quels sont les mécanismes qui engendrent les différences de masse entre neutrinos ? Quelle est l’origine de la violation de CP dans le secteur des neutrinos ? Un travail qui occupera sans nul doute de nombreux physiciens, tant théoriciens qu’expérimentateurs, dans les prochaines décennies !
Oscillation des neutrinos « atmosphériques » 68 %
Région des paramètres sin2(2θ) et Δm2 favorisée par la mesure des oscillations des neutrinos atmosphériques. On voit que la valeur maximale est favorisée pour sin2(2θ) (=1) ce qui correspond à un phénomène d’oscillation maximal. À l’intérieur du contour en vert (jaune) il y a 99 % (68 %) de chances de trouver les valeurs exactes des deux paramètres.
90 %
page 54
99 %
ÉLÉMENTAÍRE
Le LHC LHCb : un détecteur de toute beauté Le LHC est situé au CERN, dans un tunnel de 27 kilomètres de circonférence qui traverse la frontière franco-suisse. Dans cet anneau, deux faisceaux de protons circuleront en sens inverse et se rencontreront en quatre points, où seront installées des expériences étudiant les particules produites au cours des collisions. Après ATLAS, CMS et ALICE, nous allons aujourd’hui décrire le quatrième détecteur : LHCb. Le but de LHCb est d’étudier la physique des particules contenant un quark b. LHCb prendra la suite d’expériences actuellement en fonctionnement au Japon (BELLE) et aux États-Unis (BABAR). Il s’intéressera aux désintégrations de certains hadrons B qui n’ont pas encore été étudiées dans ces expériences. Ainsi seront explorées des zones encore très peu connues du Modèle Standard, en particulier en ce qui concerne la violation de CP.
Un détecteur sur mesure Au LHC les hadrons B sont produits en paires formées d’un hadron et d’un anti-hadron, qui ensuite se désintègrent de multiples façons. Pour comprendre la nature des processus en jeu, il est le plus souvent nécessaire d’identifier correctement les deux particules (hadron et anti-hadron), qui sont généralement émises le long d’un des faisceaux de protons, et suivant des directions très voisines. Pour détecter les deux particules de beauté, on peut donc se contenter de placer des détecteurs d’un seul côté du point de collision, à proximité de l’axe des faisceaux. Le principe de LHCb est celui d’un spectromètre dont l’ouverture angulaire par rapport à l’axe des faisceaux est comprise entre 0,6 et 17,2 degrés. Ces chiffres n’ont pas été le fruit du hasard : en couvrant cet angle, on récupère environ 43 % des événements contenant une paire de quark anti-quark b, alors qu’une couverture de 0 à 90 degrés, bien plus difficile et bien plus chère à réaliser, aurait abouti à 50% des évènements. Ces critères justifient le dessin particulier du détecteur LHCb. Il mesure « seulement » 20m de long sur environ 10m de haut... soit une p expérience beaucoup plus petite que CMS (22m sur 15m) ou ATLAS (44m sur 20m) !
La physique du quark b Le quark b offre des caractéristiques intéressantes pour les physiciens des particules. C’est un cousin des quarks d et s dont il partage la plupart des caractéristiques, par exemple la charge électrique valant -1/3 de celle du proton. Mais, différence de taille, il est beaucoup plus lourd : près de 5 fois la masse du proton, 500 fois celle du d et 50 fois celle du s ! À sa découverte en 1977, le quark b a hérité de noms ésotériques : « bottom » (« en bas », sans doute par analogie à « down » utilisé pour le quark d) ou « beauty » (« beau », sans doute par analogie à « charm » nom donné au quark c qui le précède en masse). Le quark b se combine à d’autres quarks ou anti-quarks pour former un grand nombre de particules aux caractéristiques variées, les hadrons B. Sur le plan expérimental, le quark b se désintègre « relativement » lentement : un hadron B peut parcourir une distance non négligeable dans un détecteur avant de se désintégrer, ce qui facilite son identification. Sur le plan théorique, on s’attend à ce que le quark b soit particulièrement affecté par la violation de CP. Lorsqu’ils se désintègrent, un hadron B (contenant un quark _ b) et son antiparticule (contenant un antiquark b) ont souvent des comportements assez différents, qui nous renseignent sur certains aspects encore mal compris du Modèle Standard de la physique des particules.
p
© LHCb
Un petit VELO dans la tête Les hadrons B ont une durée de vie relativement importante à l’échelle des particules : environ 1,5 10-12 s. Étant donnée leur grande énergie, ils vont parcourir une distance de quelques millimètres avant de se désintégrer. L’expérience LHCb se distingue par sa capacité à reconstruire très précisément le point de désintégration des hadrons B, également appelé « vertex ». Grâce à cette page 55
ÉLÉMENTAÍRE
Vue schématique du détecteur LHCb. Les faisceaux de protons du LHC sont horizontaux et dans le plan de la figure. Ils se croisent environ à l’origine des axes x et y.
LHCb : un détecteur de toute beauté information, on peut séparer les cas où les particules chargées proviennent du point de la collision et ceux où certaines traces sont issues de désintégrations secondaires, par exemple celles de hadrons B. On est ainsi en mesure de réduire drastiquement le bruit de fond provenant de collisions proton-proton qui n’ont pas donné naissance à des quarks b. Mais comment parvient-on à reconstruire ces vertex ? En remontant la trajectoire des particules chargées issues de la désintégration des hadrons B. Expérimentalement, on a conçu un VELO (VErtex LOcator) installé au voisinage du point de collision, à 1,6 cm du faisceau. D’un rayon de 8,4 cm, le VELO est constitué de 21 disques de silicium disposés perpendiculairement à la direction du faisceau de protons. Les pistes de silicium sont alternativement disposées comme des pétales selon des anneaux concentriques. Mais les détecteurs au silicium sont très sensibles aux radiations ! Pour protéger le VELO, chaque disque est en fait constitué de deux demimodules. Tant qu’on procèdera à des réglages sur les faisceaux du LHC, les demi-disques resteront écartés de l’axe des protons. Ce n’est qu’une fois les faisceaux parfaitement stabilisés que le VELO sera refermé en position de fonctionnement. En plus du VELO, les trajectoires des particules chargées sont également mesurées avant et après leur passage dans un champ magnétique afin d’évaluer leur impulsion. On utilise pour cela les détecteurs TT, T1 T2 et T3 dont certaines parties sont formées de chambre à pailles et d’autres de détecteurs au silicium. Mais LHCb ne se limite pas à ces éléments : • Les désintégrations des hadrons B comportent très fréquemment des kaons chargés qui seront identifiés par des détecteurs à effet Cerenkov (Élémentaire N°3). Ces kaons auront des impulsions allant de 1 à 150 GeV/c, un intervalle large qui nécessite deux détecteurs, l’un pour identifier les kaons de relativement faible impulsion, l’autre pour ceux d’impulsion plus élevée. • L’énergie des électrons et des photons est mesurée grâce au calorimètre électromagnétique (ECAL), qui est constitué de fibres scintillantes et de plomb. Il est segmenté en 6 000 cellules. • L’énergie des hadrons est déterminée par le calorimètre hadronique (HCAL).
Hadron B LHCb s’intéresse aux hadrons contenant un quark b, et plus particulièrement à certains_ hadrons encore peu étudiés : le méson Bs, avec un quark _b et un antiquark s (étrange), et le méson Bc, avec un quark b et un antiquark c (charm).
page 56
Spectromètre À l’origine, le nom de spectromètre désigne un appareil mesurant les propriétés de la lumière (intensité, polarisation...) en isolant une longueur d’onde donnée. Il permet ainsi de déterminer la composition moléculaire d’un mélange gazeux en analysant la lumière qu’il émet à haute température (spectre d’émission) ou un faisceau qui a traversé ce mélange gazeux (spectre d’absorption). Par extension, on parle de spectromètre de masse pour désigner un dispositif qui trie un mélange de molécules chargées selon leur rapport masse/charge à l’aide, par exemple, de champs électrique et magnétique. Enfin, en physique des particules, un spectromètre est un instrument qui permet de mesurer l’impulsion des particules chargées.
© LHCb
La violation de CP On note CP la combinaison de deux opérations. La conjugaison de charge C transforme une particule en son antiparticule. La parité P transforme un système physique en son image dans un miroir. Si on compare un processus causé par l’interaction électromagnétique et son « reflet » par les opérations C et P, ils ont la même probabilité de se produire : on dit que l’interaction électromagnétique est invariante par CP. C’est aussi le cas de l’interaction forte qui assure la cohésion des noyaux atomiques. Dans les années 50, on pensait que c’était aussi vrai pour l’interaction faible, responsable de la radioactivité β. Mais en 1964, à Brookhaven aux États-Unis, J. Christenson, J. Cronin, V. Fitch et R. Turlay ont montré que ce n’était pas le cas en étudiant certaines désintégrations des mésons K dues à l’interaction faible. Celle-ci n’est pas invariante par CP (on dit que CP est violée par l’interaction faible). Cette découverte a valu à J. Cronin et V. Fitch le prix Nobel de physique en 1980. La violation de la symétrie CP par l’interaction faible a été depuis l’objet d’études expérimentales très détaillées.
Vue schématique du VELO. Les faisceaux du LHC sont composés de 2808 paquets de protons. Chaque paquet a une longueur d’environ 5 centimètres et une section transverse grossièrement circulaire d’un rayon de 70 micromètres.
ÉLÉMENTAÍRE
LHCb : un détecteur de toute beauté Chambre à pailles Une paille est un long tube rempli de gaz avec un fil en son centre. Lorsqu’une particule chargée électriquement passe à travers ce détecteur, elle ionise le gaz en arrachant des électrons aux molécules. Les électrons d’une part, les ions d’autre part se déplacent sous l’effet d’une différence de potentiel imposée entre le fil et les parois du tube. Les électrons et les ions ainsi collectés donnent lieu à un courant électrique mesurable qui indique le passage d’une particule chargée au travers du détecteur (voir « Détection »).
• Enfin, les muons sont identifiés par un dispositif spécifique (détecteurs M1, M2, M3, M4 et M5). On s’appuie sur le fait que ce sont les seules particules chargées à pouvoir traverser tout le détecteur alors que les hadrons et les photons sont absorbés dans les calorimètres.
À vos marques...
© CERN
Au LHC les faisceaux se croisent toutes les 25 nanosecondes soit 40 millions de fois par seconde et le nombre de collisions entre deux protons, visibles dans LHCb, est estimé à 16 MHz (soit 16 millions par seconde). Dans ce gigantesque flot, très peu d’événements sont suffisamment intéressants pour être enregistrés. Il faut donc décider très vite de ce qui présente de l’intérêt car de nouvelles collisions se produisent sans cesse ! Le tri se fait en deux étapes. La première est effectuée par des cartes d’électronique, au niveau de chaque sous-détecteur. Elle permet de réduire le nombre d’événements à 1 million par seconde et ceci en seulement 4 microsecondes ! La deuxième étape est réalisée grâce à un grand parc d’ordinateurs, appelé « ferme de PC », qui diminue par un facteur 500, en 10 millisecondes le taux d’événements qui lui est parvenu. Il reste tout de même deux mille événements à enregistrer sur disque à chaque seconde. Chacun d’eux comprend en moyenne 70 traces chargées et autant de particules neutres. Au final environ 0,25 Gigaoctets de données doivent être écrits à chaque seconde. Autrement dit, l’équivalent d’un CD de musique toutes les trois secondes !
Vue du calorimètre électromagnétique lors de son installation dans la caverne.
Le jour J pour LHCb Commencée en 2003, l’installation de l’expérience LHCb se poursuit sur un rythme soutenu. Les sous-détecteurs ont été testés à l’aide de faisceaux ou de rayons cosmiques lors de leur construction et sont peu à peu montés dans la caverne. Au cours de l’année 2007 le câblage et la chaîne d’acquisition des données seront testés dans leur ensemble.
© CERN
ÉLÉMENTAÍRE
Vue de la zone expérimentale de LHCb en janvier 2004. On voit l’installation de la partie basse de l’aimant.
Montage des demi-disques de silicium constituants le détecteur de vertex (VELO).
page 57
La collaboration LHCb rassemble 600 scientifiques provenant de 47 Universités et laboratoires de recherche, appartenant à 14 pays d’Europe, d’Asie, d’Amérique du Sud et des États-Unis.
© CERN
Avant l’arrivée des premiers faisceaux, les physiciens des particules ont l’habitude de procéder à des tests sur le détecteur complet en cherchant à détecter des rayons cosmiques. Ce test ne peut pas être effectué dans le cas de l’expérience LHCb à cause de sa géométrie particulière : les rayons cosmiques traversent le détecteur selon une direction totalement différente de celle des événements produits au LHC. Il faudra donc attendre les tous premiers faisceaux de protons pour voir des particules dans l’ensemble des sous-détecteurs. Les physiciens de LHCb sont confiants, l’année 2008 et les suivantes seront belles pour la collaboration ! u
ICPACKOI ? [isepasekwa] ? Oscillation des mésons D neutres
Les paramètres x et y On peut décrire l’oscillation des mésons neutres en mécanique quantique de la manière _ suivante. Prenons le système B0 - B0. L’évolution au cours du temps d’un méson, par exemple le B0, peut être décrite comme la superposition de deux particules BL et BH de masses légèrement différentes (voir « Théorie »). BL et BH possèdent également des probabilités légèrement différentes de se désintégrer, et donc des durées _ de vie différentes. Les oscillations B0 - B0 dépendent en fait de la différence entre ces masses, ainsi que de celle entre les durée de vie. On décrit ces différences par x, un paramètre lié à la différence de masse, et y, lié à la différence de durée de vie. La valeur numérique du paramètre x décrit combien de fois en moyenne le méson peut osciller pendant un temps correspondant à une durée de vie. On sait ainsi que le méson B0 pour lequel le paramètre x vaut environ 3⁄4 peut osciller trois fois pendant un temps correspondant à quatre durées de vie. Comme celle-ci vaut environ 1,5 × 10- 12 s on en déduit que sa fréquence d’oscillation vaut à peu près 80 GHz !
Traditionnellement, les physiciens des particules présentent leurs nouveaux résultats lors de conférences annuelles. Ces grands évènements réunissent pour une semaine des chercheurs du monde entier. Au cours de la conférence de Moriond, rendez-vous incontournable de la « saison d’hiver » depuis 1966, les collaborations BaBar (SLAC, Californie) et Belle (KEK, Japon) ont annoncé qu’elles avaient observé la transformation des mésons D neutres en leur anti-particule. Ce résultat, aboutissement de plusieurs années d’efforts, est considéré comme l’un des plus marquants en ce début d’année 2007. De quoi s’agit-il ?
Le Modèle Standard de la physique des particules contient six quarks (et leurs anti-particules) : trois de charge +2/3 (« up », « charm » et « top ») et trois de charge -1/3 (« down », « strange » et « bottom »). À partir de seulement cinq de ces « saveurs », on peut fabriquer des mésons, assemblages d’un quark et d’un anti-quark : en effet, le quark top, beaucoup plus lourd que les autres, se désintègre trop vite pour qu’il ait le temps de s’unir à un antiquark pour former un méson. Intéressonsnous plus particulièrement aux mésons neutres les plus légers dont les constituants ont des saveurs différentes. Étant les plus légers, ces mésons ne peuvent se désintégrer que par le biais de l’interaction faible et, comme leur contenu en quarks est différent, ils ne sont pas identiques à leur antiparticule. Il n’en existe que quatre _ : •le kaon neutre K0 contenant d s (un quark d et un anti-quark s) _ •le B neutre B0 = d b, _ •le Bs neutre Bs0 = s b, _ Les évènements sélectionnés par BaBar •le D neutre D0 = c u. Les physiciens de la collaboration BaBar se sont concentrés sur la désintégration À chacun de ces mésons peut être associé son antid’une particule contenant un quark c et appelée D*, qui disparaît en créant un D0 _ 0 méson : ainsi, au _ K , contenant d et s, correspond _ et un pion. On connaît ainsi la saveur du méson neutre à l’instant de sa production + le K0 réunissant d et s. grâce à la charge du pion qui l’accompagne : la présence _ d’un π indique qu’on a créé Selon les études théoriques menées sur ces un D0... et celle d’un π− indique qu’on a à faire à un D0. mésons, ces derniers peuvent se transformer en Connaissant la saveur initiale du méson, il ne reste « plus » qu’à déterminer celle qu’il a lorsqu’il se désintègre. Là encore, on utilise une réaction (appelée _« RS leur anti-particule au cours de leur (courte) vie, 0 » pour « Right Sign pour ensuite revenir à leur état initial de particule, _ », « signe correct » en anglais) qui permet de séparer D _ et D0 : D0 → K−π+ et D0→ K+π−. On a donc une indication d’oscillation si un D0 (D0) et ainsi de suite... Ce phénomène de mélange et initialement produit donne un kaon positif (négatif) et un pion négatif (positif). d’oscillation de saveurs est d’origine purement En plus de devoir séparer correctement les pions des kaons (voir Élémentaire N°4), quantique, et s’avère d’un principe similaire à les physiciens doivent aussi tenir compte du fait que les réactions croisées _ ne sont l’oscillation des neutrinos (voir « Théorie »). Dans 0 + − pas totalement interdites, mais seulement beaucoup moins probables : D → K π 0 − + la pratique, ce mécanisme est décrit à l’aide de et D → K π . Ces dernières réactions sont appelées « WS » pour « Wrong Sign » ou deux paramètres : les différences de masse « x » « signe faux » et surviennent avec un taux de l’ordre du pour mille par rapport aux et de durée de vie « y » entre les mésons. Si ces précédentes. Imaginons que nous observons un D* qui se désintègre en émettant un π+ et un paramètres ont tous deux des valeurs nulles, + − D0, et qu’on voit un peu plus loin que ce l’oscillation matière anti-matière n’a pas lieu. La _ dernier se désintègre en K π , que fautil en déduire ? Le D0 a-t-il oscillé en D0 pour se désintégrer selon une réaction gageure expérimentale est donc de mesurer ces RS ? Ou au contraire le D0 n’a-t-il pas oscillé pour finalement se désintégrer selon paramètres pour mettre en évidence ce phénomène.
page 58
une réaction WS ? Heureusement, il est possible de faire la différence en étudiant d’autres caractéristiques de ces désintégrations, au prix d’une complexité accrue de l’analyse. Au final, parmi les événements sélectionnés par BaBar, 500 environ furent identifiés comme produits par « RS après oscillation matière <—> antimatière ».
ÉLÉMENTAÍRE
[isepasekwa] ? L’oscillation des_ mésons neutres a été observée pour la première fois dans le système K0- K0 en 1958 ; les_résultats les plus récents sont x(K0)=0,474 et y(K0)=0,997. L’oscillation B0- B0 a été découverte en 1987 par l’expérience ARGUS et mesurée avec précision par les expériences du LEP puis par les deux expériences concurrentes BaBar et Belle : x(B0)=0,775 et |y(B0)|<0,1 (pour le moment il n’y a qu’une limite supérieure sur la différence _de durée de vie y, sans doute très petite). L’an dernier, l’oscillation Bs0- Bs0 a été mesurée au Tevatron par l’expériences CDF : x(Bs0)=25,3 et y(Bs0) ~0,15 (voir «ICPACKOI», Élémentaire N°4). Il ne manquait donc plus que l’oscillation du D0 pour que le tableau soit complet : on s’attendait à un effet faible (x~0,001-0,01), mais les calculs n’étaient malheureusement guère précis. Les membres de BaBar ont annoncé peu de temps avant ceux de Belle, l’observation de cette oscillation. Ils ont étudié plus de 500 millions de collisions e+e_ enregistrées depuis 1999, dans lesquelles une paire de quarks cc_ était produite. Ils se sont ensuite concentrés sur les évènements où un D0 ou un D0 a été créé, puis a évolué dans le temps (éventuellement en oscillant et en se transformant en son antiparticule)... avant de se désintégrer.
KD0 D0
π+
_
Les paramètres x et y de l’oscillation D0 - D0 semblent en accord avec les valeurs attendues théoriquement dans le cadre du Modèle Standard, tout comme celles obtenues pour les autres mésons neutres. Néanmoins il semble raisonnable d’attendre de nouveaux progrès et peut-être de nouvelles surprises, tant dans les mesures que dans les estimations théoriques de ces paramètres !
K+
D* +
π+
D0
D0
πD* +
π+
ÉLÉMENTAÍRE
page 59
Dans les deux cas un D*+ se désintègre en D0 π+. La charge du pion (+) permet de savoir qu’un D0 l’accompagne. Si la charge du pion était négative, un D0 l’accompagnerait. _ Dans le schéma du haut le D0 se désintègre ensuite en K− π+. _ Dans le schéma du bas le D0 oscille en D0 qui ensuite se désintègre en K+ π− (qui sont les anti-particules des précédentes).
© B. Mazoyer
Au final, parmi les événements sélectionnés par BaBar, 500 environ furent identifiés comme correspondant à une oscillation entre 0 matière et antimatière : dans chacun _ de ces 500 évènements, un D 0 produit initialement a oscillé en D avant de se désintégrer, ou viceversa, Ce résultat_ est incompatible avec l’hypothèse d’une absence d’oscillation D0-D0 à un niveau statistique de 3,9 sigmas (voir « Analyse », Élémentaire N°2). Belle a obtenu un résultat similaire à 3,2 sigmas. Cette observation est une indication intéressante, mais il faudra attendre l’étude d’une quantité plus importante de données _ pour clamer que l’oscillation D0 -D0 est bel et bien découverte.
BaBar Cet acronyme indique que l’expérience étudie des événements dans lesquels sont produits une particule belle, c’est-à-dire contenant un quark beau, et son anti-particule correspondante (notée habituellement par un « B » avec une barre au-dessus).
[isepasekwa] ? Virgo prend des données Virgo est un interféromètre de Michelson (voir Élémentaire N°3) constitué de deux bras orthogonaux de trois kilomètres de longueur dans lesquels circule un faisceau laser. Il est situé dans la plaine de l’Arno à 15 kilomètres de Pise. La collaboration est composée de groupes italiens, français et néerlandais.
© INFN
Le 18 mai 2007, après de nombreuses années d’installation et de mise au point, la première phase d’exploitation scientifique du détecteur a débuté. Virgo, projet européen, vient ainsi de rejoindre la « LIGO Science Collaboration » (LSC) dans sa quête des ondes gravitationnelles. La LSC exploite au total quatre interféromètres. Trois sont situés aux États-Unis et ont des bras de 4 kilomètres pour deux d’entre-eux et de 2 kilomètres pour le dernier. Le quatrième interféromètre a des bras de 600 mètres et a été construit en Allemagne.
Vue aérienne de Virgo dans la plaine de l’Arno. On distingue en bleu les tunnels de 3 km qui abritent les bras de l’interféromètre dans lesquels circule le faisceau laser. Au fond à gauche on peut apercevoir Pise (avec de bons yeux).
Localisation des différents interféromètres sur la planète. En plus du réseau formé des trois interféromètres de LIGO aux États-Unis, de GEO en Allemagne et de Virgo en Italie, un interféromètre avec des bras de 300 m de long (TAMA) est situé au Japon.
page 60
Coalescence de deux objets compacts Quand deux astres compacts (étoile à neutron ou trou noir) orbitent l’un autour de l’autre, ils vont se rapprocher car le système perd de l’énergie sous forme d’ondes gravitationnelles, comme la relativité générale le prédit. Lorsque les deux objets sont proches, ils vont finir par fusionner pour en former un seul. C’est cette phase finale qu’on appelle « coalescence ». Pour les systèmes doubles d’étoiles à neutrons elle dure typiquement quelques minutes, alors que les deux objets on pu orbiter auparavant pendant des temps sidéraux (des millions d’années). C’est lors de la phase de coalescence que l’émission d’ondes gravitationnelles est maximale.
ÉLÉMENTAÍRE
[isepasekwa] ?
De la gauche vers la droite on a représenté l’effet du passage d’une onde gravitationnelle sur des particules « libres » formant un cercle. Le cercle se déforme différemment selon deux directions perpendiculaires. Si on imagine que ces deux directions sont suivant celles des bras d’un interféromètre de Michelson (représentés sur la figure en vert), le passage d’une onde gravitationnelle va engendrer une modification de la longueur de ces deux trajets, que l’on peut espérer détecter, si on sait par ailleurs contrôler toutes les sources de bruit.
Les ondes gravitationnelles, prédites par la théorie de la relativité générale, sont des déformations (anisotropes) de l’espace temps si bien que la perturbation va affecter différemment la distance entre deux points situés dans deux directions perpendiculaires (voir figure cidessus). La différence du trajet parcouru par les photons suivant ces deux directions est proportionnelle à l’amplitude de l’onde gravitationnelle. L’effet attendu est extrêmement faible, même pour les sources les plus puissantes : il faut être capable de mesurer une différence de longueur allant jusqu’à 10-19 m. Seule l’interférométrie permet de relever ce défi.
Image de la supernova 1987A prise en décembre 2006 par le télescope Hubble. Cette supernova a eu lieu en février 1987. Elle a explosé dans le Grand Nuage de Magellan, une des galaxies les plus proches de la nôtre, située à 170 000 années lumière. Ce type de supernova émet a priori des ondes gravitationnelles au moment de l’explosion si celle-ci se fait de manière asymétrique. On aperçoit sur la figure un anneau brillant autour du reste de la supernova. Cet anneau de matière situe à une année lumière du centre a probablement été émis par l’étoile quelques 20 000 ans avant son explosion. L’anneau est devenu visible à partir de 1997 car il est maintenant «chauffé» par la matière émise lors de l’explosion de l’étoile. Cette supernova a émis des neutrinos dont quelques-uns ont été détectés par l’expérience KamiokaNDE au Japon en 1987.
Pour l’instant des preuves indirectes de l’émission d’ondes gravitationnelles ont été obtenues (récompensées par le prix Nobel de physique en 1993). La première observation directe ouvrira le champ de l’astronomie gravitationnelle et permettra d’approfondir notre compréhension de la gravitation et de la relativité générale.
ÉLÉMENTAÍRE
Sites web : http://www.cascina.virgo.infn.it http://www.ligo.caltech.edu
page 61
Cette première prise de données, qui doit durer au moins quatre mois, est assurée de jour comme de nuit par une équipe d’opérateurs et de scientifiques qui surveillent la qualité des enregistrements. L’analyse de ces données se fait dans le cadre d’une collaboration internationale.
© Nasa
Ce réseau mondial d’antennes d’un nouveau type permettra peut-être de faire la première observation de l’émission d’ondes gravitationnelles par des sources puissantes comme, par exemple, la coalescence de deux objets compacts (étoiles à neutrons ou trous noirs) dans des Galaxies proches de la notre ou bien l’explosion d’une supernova dans notre galaxie. Il pourra aussi déterminer la position de la source.
[isepasekwa] ? © Antares
Un grand plongeon pour les beaux yeux d’Antares Le 29 janvier 2007 ont commencé les premières observations du détecteur Antares (Astronomy with a Neutrino Telescope and Abyss environmental RESearch) auquel collaborent de nombreux laboratoires français du CNRS/IN2P3 et du CEA, ainsi que les Pays-Bas, l’Allemagne, l’Italie, l’Espagne et la Russie. Ce télescope à neutrinos de haute énergie, installé au large de Toulon à 2500 mètres de profondeur, a pour objectif d’étudier certains phénomènes cosmiques de haute énergie et de rechercher la matière noire.
L’installation progressive des éléments d’Antares en haute mer.
Pourquoi installer un détecteur à une telle profondeur, avec toutes les difficultés techniques que cela pose ? Il s’agit tout d’abord de se protéger du flux de rayons cosmiques. Ces expériences qui cherchent certains signaux rares se mettent ainsi sous une montagne (comme à Modane, voir « Expérience »), sous la glace (voir « Centre ») ou sous l’eau, comme Antares. L’eau (ou la glace) sert également de constituant du détecteur. Les particules chargées qui y pénètrent, comme les muons, laissent un sillage lumineux derrière elles par effet Cerenkov. Antares cherche à détecter cette trace lumineuse, ténue mais observable dans l’obscurité des abysses. En fait cette expérience désire étudier les neutrinos de haute énergie venant du cosmos, de sorte que non seulement l’eau de la Méditerranée, mais aussi la terre située en-dessous est mise à contribution. En effet, parmi tous les neutrinos qui traversent la Terre, quelques neutrinos-mu interagissent avec la croûte terrestre pour engendrer des muons qui remontent des profondeurs vers la surface. Antares observe donc le ciel de l’hémisphère sud au travers du globe terrestre, ce qui inclut le centre de notre galaxie, siège de phénomènes énergétiques intenses.
© Antares
Mais pour cela, Antares devra savoir distinguer les muons « montants » que nous venons de décrire, des muons « descendants » issus de rayons cosmiques, qui peuvent parfois traverser les deux mille mètres d’eau séparant le détecteur de la surface de la mer. Le nombre de muons « descendants » est considérablement plus important et il faut absolument déterminer leur direction pour distinguer les évènements intéressants des autres. Pour y parvenir et détecter un grand nombre de particules, Antares est constitué d’un réseau de photodétecteurs protégés par une coque de verre résistant aux hautes pressions, dont la surface sensible est dirigée vers le bas. Ces photodétecteurs sont répartis par groupes de trois le long de câbles ombilicaux de 450 mètres de haut, câbles qui sont destinés au transport des signaux et de l’énergie.
Une vue d’artiste d’Antares.
page 62
Chaque ligne est reliée par un câble électro-optique de 40 kilomètres qui aboutit à la station à terre de l’institut Michel Pacha, à La Seyne-surMer. Le déploiement du télescope Antares au fond de la Méditerranée bénéficie de la logistique et de l’expertise de l’Ifremer. Outre ses
ÉLÉMENTAÍRE
[isepasekwa] ? objectifs en physique des particules, Antares constitue par ailleurs une infrastructure scientifique sous-marine qui enregistre diverses données océanographiques (observation du milieu marin en mer profonde, phénomènes de bioluminescence) et géophysiques (mesures sismographiques).
© Antares
Depuis 2006, des lignes ont été progressivement déployées, et le 29 janvier 2007, la collaboration Antares a mis en service un détecteur de 5 lignes rassemblant 375 « yeux » (les photodétecteurs). Au total, 900 «yeux» répartis sur 12 lignes occupant une surface d’environ 200 m x 200 m au sol scruteront l’Univers pour y observer les muons issus de neutrinos créés bien loin de notre petite planète ! Un exemple d’événement enregistré par les 5 lignes du détecteur. La taille des sphères est proportionnelle à la quantité de lumière reçue. Les couleurs des sphères indiquent le moment où le signal a été reçu. Avant et après l’arrivée du muon (signaux symbolisés par des sphères vertes), le détecteur reçoit de la lumière venant de phénomènes liés au bruit de fond optique.
© La-seyne-sur-mer
L’institut Michel Pacha
mer Marius Michel, Comte de Pierredon, (1819-1907), plus connu sous le nom de Michel Pacha, est un capitaine au long cours, qui est nommé en 1855 directeur des phares et balises de l’Empire ottoman par le sultan Abdul Mejid, sur proposition de Napoléon III. Plus d’une centaine de phares sont élevés sous ses ordres, et il obtint du sultan la concession des quais de la ville d’Istanbul ainsi que le titre honorifique de Pacha. Il est fait Chevalier de la Légion d’honneur par la République en 1880 et Comte de Pierredon par le Pape en 1882. Le nouveau comte de Pierredon fait construire à La Seyne-surMer un château féerique au cœur de 60 hectares de terrain le long du littoral. Michel Pacha transforme cette étendue encore vierge en une station touristique huppée, qui ne survivra malheureusement pas à la fin de la Belle Epoque. En Juin 1889, le professeur Raphaël Dubois, directeur du Laboratoire de l’Université de Lyon et spécialiste en biologie sous-marine, rencontre Michel Pacha et le sensibilise à ses projets. Ce dernier offre le terrain et les matériaux nécessaires à la construction de l’édifice à condition que l’établissement porte son nom. Inauguré en 1900, l’Institut de biologie marine possède un style mauresque audacieux faisant référence aux architectures byzantine et ottomane. Toujours rattaché à l’Université de Lyon, l’Institut Michel Pacha héberge à présent la station terrestre d’Antares.
μ ν
croûte terrestre
Le principe de détection d’Antares : un neutrino qui traverse la Terre (ligne rouge) interagit avec la croute terrestre pour créer un muon (ligne bleue). Celui-ci traverse ensuite la mer Méditerranée (en noir) à grande vitesse en créant un cône de lumière Cerenkov (en bleu). Cette lumière est détectée par les lignes d’Antares (en jaune). page 63
ÉLÉMENTAÍRE
lumière
La question qui tue ! Qu’est-ce qu’une particule sans masse? Dans la vie courante tout objet a une masse. Cela signifie qu’il résiste à un mouvement qu’on voudrait lui imprimer et qu’il peut tomber : c’est un élément essentiel de sa définition. Tous les objets, aussi évanescents soientils, ont une masse, même un nuage, de la fumée ou un gaz ! Ces vues soutiennent parfaitement la conception newtonienne de la masse comme quantité de matière. Newton a établi la loi selon laquelle une force exercée sur un objet lui imprime une accélération qui lui est proportionnelle, la masse étant justement le coefficient de proportionnalité, représentant en quelque sorte la résistance que l’objet oppose à cette force. Une force agissant sur un objet de masse nulle, s’il en était, lui imprimerait une accélération infinie. Dans le monde de la physique subatomique, nous traitons de particules de grande énergie. Or nous savons que les lois de la mécanique classique newtonienne ne sont plus valables quand les vitesses mises en jeu s’approchent de celle de la lumière dans le vide. Il faut alors recourir à la relativité restreinte, selon laquelle la masse est dans une relation d’équivalence avec l’énergie : l’une peut se transformer en l’autre et réciproquement. Autrement dit, si les circonstances s’y prêtent, la totalité de la masse d’une particule peut être convertie en « énergie pure ». Ainsi Einstein a pu déclarer : « la masse est une mesure de l’énergie qui est contenue dans un corps.» La masse est devenue une propriété des particules parmi d’autres : elle mesure la fraction de son énergie mobilisée sous forme « matière ». Rien n’interdit désormais d’imaginer une particule de masse nulle.
Merce Cunningham dans Collage III (1958).
Une particule sans masse existe-t-elle ?
page 64
Masse et distance En physique des particules, énergies, masses, durées et distances sont intimement liées. En effet, deux constantes fondamentales interviennent sans cesse dans les calculs : la relativité s’appuie sur la vitesse de la lumière c, qui est le rapport d’une longueur et d’une durée, et la mécanique quantique fait apparaître la constante de Planck h, qui le produit d’une énergie et d’un temps. Une masse peut se traduire en terme d’énergie par la relation E=mc2. Or une énergie est inversement proportionnelle à une durée (via h), et donc également inversement proportionnelle à une distance (par l’intermédiaire de c). On aboutit donc à ce que des masses élevées sont associées à des courtes distances, et des masses légères à des grandes distances... en particulier quand on étudie les particules véhiculant les interactions fondamentales.
Attention : une particule sans masse n’est pas une particule sans énergie ! C’est « simplement » une particule dont aucune fraction de son énergie n’est « matérialisée ». Fort opportunément, la théorie de la relativité indique que quelle que soit sa masse (nulle ou non), aucun objet ne peut dépasser une vitesse limite, à savoir la vitesse de la lumière dans le vide. En particulier, un objet sans masse circule toujours à la vitesse de la lumière. Il ne peut pas être « au repos » : une force aussi petite soit-elle lui conférerait immédiatement la vitesse de la lumière.
Mais où trouve-t-on des particules sans masse ? Pour cela, il faut s’intéresser aux quatre interactions fondamentales (électromagnétique, interaction faible, interaction forte, gravité). On peut les décrire par des échanges de particules que l’on peut dire « messagères ». Moins ces particules échangées seront massives, plus la « portée » de l’interaction sera grande. Ainsi, l’interaction électromagnétique, qui a une portée infinie (jusqu’à nouvel ordre), est véhiculée par une particule messagère, le photon, de masse nulle. Ces photons se déplacent à la vitesse de la lumière dans le vide. Il existe deux autres interactions dont on pense que les particules messagères sont de masse nulle : la gravité et l’interaction forte. Mais la situation est alors moins claire. D’une part, on n’a toujours pas observé de graviton, ni proposé de description théorique satisfaisante
ÉLÉMENTAÍRE
Qu’est-ce qu’une particule sans masse? de cette particule. D’autre part, les propriétés de l’interaction forte sont assez différentes de celle de l’électromagnétisme, de sorte que les gluons restent confinés au sein d’assemblages de quarks (voir Élémentaire N°4). Enfin, la quatrième interaction, dite faible (responsable entre autres de la radioactivité bêta) possède, elle, des particules messagères massives, ce qui donne lieu à des effets de courte portée. On voit donc qu’il existe bel et bien des particules sans masse, et qu’elles sont nécessaires pour décrire certaines des interactions fondamentales !
Les neutrinos ont failli être les seules autres particules du Modèle Standard de la physique des particules à être sans masse. Depuis quelques années, les oscillations de neutrinos (voir « Théorie ») ont prouvé que ce n’était pas le cas : les neutrinos ont bel et bien une masse... mais une masse très petite, bien inférieure à celle des quarks et des leptons. Or les physiciens n’aiment guère ce genre de situation. On peut bien essayer d’imaginer un principe physique nouveau qui interdise aux neutrinos d’acquérir une masse. Mais alors, la masse est exactement nulle ! Comment expliquer une masse très petite ? Pour cela, on doit supposer un choix extrêmement particulier des paramètres théoriques qui décrivent notre compréhension actuelle de la physique des particules (le Modèle Standard)... Tout ça pour aboutir exactement aux valeurs des masses mesurées. Cette idée est assez déplaisante pour les physiciens qui préfèrent des théories « robustes », peu affectées par des modifications raisonnables des paramètres. Pour échapper au problème, certains théoriciens ont invoqué l’existence de deux types de neutrinos pour chaque saveur (neutrino-e, neutrino-mu, neutrino-tau) : les uns seraient de masse nulle, les autres, supermassifs, seraient décrits par une théorie qui engloberait le Modèle Standard, mais décrirait également des phénomènes survenant à des énergies beaucoup plus élevées et, actuellement, inaccessibles expérimentalement. Ces différents types de neutrinos interagiraient les uns avec les autres, ce qui aboutirait à un résultat peu intuitif : les neutrinos de masse nulle se verraient dotés d’une masse très petite, inversement proportionnelle à l’échelle de masse des neutrinos supermassifs. Ainsi, plus le neutrino lourd est massif, plus le neutrino léger est... léger ! Cette idée amusante qui relie des masses très différentes fut surnommée mécanisme de bascule (« seesaw mechanism »). Il n’est pas difficile de trouver des théories agissant à des échelles d’énergies très élevées, et aboutissant à des masses de neutrinos légers de l’ordre de celles observées expérimentalement via les oscillations de neutrinos (voir « Théorie »). Ce mécanisme n’est toutefois possible que si le neutrino est sa propre antiparticule, c’est-à-dire une particule dite de « Majorana ». Si cette hypothèse était vérifiée, il resterait à comprendre d’où viennent ces neutrinos supermassifs, et comment leur présence pourrait être détectée autrement que par leur contribution aux masses des neutrinos légers ! Ainsi, si une particule de masse nulle peut sembler peu intuitive, il n’est guère plus évident d’expliquer l’existence de particules de masse très faible... et il faut pour cela recourir à des particules supermassives ! Les neutrinos continueront-ils ainsi longtemps à fournir des paradoxes aux physiciens ?
ÉLÉMENTAÍRE
page 65
La bascule à neutrinos
Énergie nucléaire Réacteurs nucléaires : 3e ou 4e génération?
© AREVA
À partir de 2020, il faudra commencer à arrêter les réacteurs nucléaires français qui auront atteint leur limite d’âge. Par quoi va-t-on les remplacer sachant que la poursuite du nucléaire au niveau actuel semble être l’option de référence dans un contexte de lutte contre les émissions de gaz à effet de serre ? On doit alors se demander quelle serait la technologie de réacteurs nucléaires pouvant être développée à moyen terme, en France mais aussi dans le monde. On distingue quatre générations de réacteurs : • La première regroupe ceux construits avant 1970 : il s’agit essentiellement de prototypes (Shippingport, Fermi I, ...) mais aussi des premiers réacteurs électrogènes, qui sont aujourd’hui en phase de démantèlement, comme les réacteurs français uranium Naturel - Graphite - Gaz (Chinon, Saint-Laurent, Bugey, ...) • La deuxième désigne ceux construits entre 1970 et 1998. Ils sont actuellement en service, et sont issus pour l’essentiel de la filière à Eau sous Pression (REP en France, PWR aux USA, VVER en Russie) mais comprennent aussi les Réacteurs à Eau Bouillante (REB) et la filière canadienne CANDU refroidie à l’eau lourde. • La troisième génération est celle des réacteurs dérivés des précédents, qui sont conçus pour les remplacer à partir de 2010. En Europe il s’agit de l’EPR (European Pressurized Reactor). • La quatrième désigne des concepts sur lesquels s’engagent les recherches coordonnées dans le cadre du Forum International Génération IV. La plupart de ces systèmes ont pour but principal de mettre en œuvre la régénération du combustible afin d’économiser les ressources en uranium. La mise en service d’un réacteur commercial fondé sur l’un de ces concepts n’est pas envisagée avant 2030. © AREVA
Schéma d’un EPR
EPR Okiluoto 3 : chantier de construction.
Réacteurs de troisième génération : l’EPR, un réacteur évolutionnaire
© AREVA
Bien qu’il existe plusieurs modèles de réacteurs de génération 3, l’EPR (conception Areva NP et Siemens) est sans doute la version la plus aboutie car la plus récente (années 2000). Actuellement, deux unités d’EPR sont en construction, l’une en Finlande (Okiluoto 3), dont la mise en service devrait débuter fin 2009, et l’autre, à Flamanville, dont le démarrage est prévu en 2012. L’EPR résulte d’études franco-allemandes, menées à partir de réacteurs français et allemands à eau sous pression actuellement en exploitation. En ce sens, il ne s’agit pas d’un prototype. Les évolutions majeures concernent l’amélioration de la sûreté et des conditions d’exploitation afin d’optimiser la production d’électricité.
page 66
Cœur de l’EPR et récupérateur de corium (en blanc).
Les caractéristiques principales de l’EPR comparées à celles d’un réacteur actuel sont résumées dans le tableau suivant :
ÉLÉMENTAÍRE
Réacteurs nucléaires EPR Puissance thermique (MW) 4250 à 4500 Puissance électrique (MW) 1500 à 1600 Rendement 36% Taux de combustion (GWj/t) 60 Résistance sismique (accél. horizontale supportée) 0,25g Durée de vie annoncée (ans) 60
N4 4250 1450 34% 45 0,15g 40
Améliorations de la sûreté
ÉLÉMENTAÍRE
Chute d’un avion Il est vrai, toutefois, qu’à l’époque où l’EPR a été conçu on n’envisageait pas l’hypothèse d’un gros porteur s’écrasant volontairement sur le réacteur, ce qui fait qu’on ne peut pas dire que la double enceinte ait été conçue pour résister à ce type d’impact. L’EDF envisage de prendre des mesures supplémentaires, tout particulièrement pour limiter l’extension de l’incendie qui serait provoqué par le kérosène d’un avion de ligne.
page 67
La principale motivation pour l’amélioration de la sûreté du fonctionnement de l’EPR est la prise en compte des enseignements retirés des deux seuls accidents graves survenus sur la cuve d’un réacteur : • Three Miles Island (USA 1978) où la fusion du cœur a été maintenue dans les sous-sols de l’enceinte du réacteur, refroidie par l’apport de grande quantités d’eau et qui n’a eu aucune conséquence à grande échelle sur l’environnement, • Tchernobyl (Ukraine, Ex-URSS, 1986) dont l’incendie et l’explosion du cœur, abrité sous un bâtiment standard, ont entraîné une grave contamination de l’environnement et des populations locales ainsi que des dizaines de morts (jusqu’ici). Les calculs montrent que la probabilité pour qu’un accident majeur conduise à un rejet significatif de radioactivité (c’est-à-dire nécessitant la mise en place des mesures sanitaires) dans l’atmosphère est dix fois plus faible pour l’EPR que pour les réacteurs actuels. Les principales modifications concernant la sûreté sont : • Une zone d’épandage qui permet de recueillir les coulées provenant de l’éventuelle fusion du cœur et de le refroidir afin d’éviter que le corium (amas de combustibles et d’éléments de structure du cœur d’un réacteur nucléaire fondus et mélangés, pouvant se former en cas d’accident grave) ne transperce les fondations. • La mise en oeuvre de dispositifs recombineurs d’hydrogène. En effet un défaut de refroidissement peut entraîner une montée en température des gaines en zirconium du combustible à un point tel que se produit une décomposition de l’eau par une réaction exothermique d’oxydation du zirconium. Cette réaction conduit à la production d’oxyde de zirconium et de dihydrogène qui représente alors un risque d’explosion important. Il est donc nécessaire de « capturer » cet hydrogène. • Une double enceinte en béton précontraint, chacune ayant 1,3 mètre d’épaisseur, permettant de résister à la perforation et aux vibrations provoquées par des agressions externes comme la chute d’un avion militaire dont la puissance d’impact local est comparable à celle d’un gros porteur. De plus, les quatre bâtiments abritant les systèmes auxiliaires de sauvegarde (alimentations de refroidissement de secours), sont eux-mêmes protégés par un mur de béton et sont au contact de l’enceinte de confinement qu’ils entourent pour en assurer la protection (chacun d’entre eux peut assurer la sûreté du réacteur indépendamment des trois autres).
Réacteurs nucléaires : 3e ou 4e génération? D’autres améliorations ont été apportées en ce qui concerne la résistance aux séismes : l’ensemble des bâtiments repose sur un radier en béton armé de six mètres d’épaisseur et les masses importantes ont été placées dans les parties basses.
© AREVA
Évolutions techniques : amélioration du rendement du cycle du combustible
© AREVA
Grâce à un enrichissement légèrement plus important (jusqu’à 5%) du combustible utilisé dans les EPR par rapport aux derniers REP (environ 4%), il sera possible d’obtenir un taux de combustion plus élevé, jusqu’à 60 000 MW.j/t au lieu de 45 000 MW.j/t actuellement. Cette augmentation autorise une meilleure utilisation du combustible (un gain de 17% en uranium naturel et jusqu’à 25% en recyclant une seule fois le plutonium). Cela permet de réduire les quantités de combustible utilisées en passant de 1 150 tonnes par an aujourd’hui pour le parc d’EDF à environ 750 tonnes pour une même production d’électricité de 400 TWh/an. La masse des déchets de structure (gainages des combustibles), qui sont de moyenne activité et à vie longue, sera aussi réduite de 35%. Cette diminution, qui se retrouvera dans les transports et les manipulations, conduit à un gain sur le prix du cycle du combustible ainsi qu’à une baisse de l’irradiation moyenne du personnel. L’EPR aura aussi une meilleure capacité de recyclage du plutonium : il sera compatible avec une charge en MOX (OXyde Mixte de plutonium et d’uranium) de 50% contre seulement 33% pour les réacteurs actuels . L’augmentation du rendement global à 36 % (contre 34% actuellement) permet, pour une même production d’électricité et en utilisant un combustible classique à l’uranium, de réduire de 6% la quantité de produits de fission et de 15% celle des actinides (Pu et actinides mineurs). Ces valeurs passent respectivement à 20 et 33 % si l’on utilise un combustible avec mono-recyclage du plutonium. La durée de vie du réacteur a été portée à 60 années de service grâce à la sélection de nouveaux matériaux pour la réalisation des composants les plus sollicités ainsi qu’à la diminution du flux de neutrons sur la cuve et donc des dommages associés. Ceci entraîne une moindre production de déchets lors du démantèlement de l’installation pour une même énergie produite au total. Notons enfin que la configuration de l’installation a évolué de façon à pouvoir remplacer un composant plus rapidement et avec moins d’irradiation, même lorsque le réacteur est en service.
Fabrication de la cuve de l’EPR finlandais au Japon (2005) (haut de la cuve).
Taux de combustion Il correspond au pourcentage de noyaux ayant fissionné pendant un temps donné. Couramment utilisé pour évaluer la quantité d’énergie thermique par unité de masse de combustible obtenue en réacteur entre le chargement et le déchargement du combustible, il s’exprime en MW·jour/t ; un taux de 60 000 MW.j/t correspond à 6,5% de combustible brûlé (ce taux est plus grand que l’enrichissement car une partie du plutonium formé par irradiation du combustible contribue à la fission). Irradiation du personnel La limite légale pour les travailleurs du nucléaire est de 20 mSv/an ; à titre de comparaison, la radioactivité naturelle est 2,5 mSv/an et la dose reçue lors d’un scanner est entre 5 et 50 mSv.
Le Forum International Génération IV (mis en place en 2001) vise à instaurer une coopération internationale pour développer des systèmes nucléaires de nouvelle génération. Les objectifs fixés dans le cadre de ce forum sont les suivants: page 68
Réacteurs actuels La limitation actuelle est principalement liée à la baisse d’efficacité des barres de contrôle (en B4C) qui capturent moins efficacement les neutrons dont l’énergie moyenne est plus élevée lorsque la proportion de plutonium augmente. Notons que des études sur un EPR avec 100% de MOX sont en cours.
Réacteurs de quatrième génération
• optimiser l’utilisation des ressources naturelles,
ÉLÉMENTAÍRE
Réacteurs nucléaires : 3e ou 4e génération? © AREVA
• minimiser les déchets, • minimiser les risques de prolifération d’armes nucléaires • assurer la sûreté des installations nucléaires au niveau mondial • diminuer les coûts de construction et d’exploitation des réacteurs. Selon les concepts, des applications spécifiques peuvent être envisagées au-delà de la production d’énergie électrique : production d’hydrogène, incinération des actinides, transmutation, etc. On s’intéresse en particulier aux surgénérateurs, c’est-à-dire aux réacteurs qui peuvent produire leur propre matière fissile (239Pu ou 233 U) à partir de matière fertile (238U ou 232Th). Parmi les six concepts qui on été retenus, seuls quatre sont surgénérateurs : • le réacteur à neutrons rapides (RNR) dont le fluide caloporteur est du sodium, est la seule technologie pouvant être considérée comme acquise d’un point de vue industriel (Superphenix). Elle reste complexe notamment à cause du sodium qui est chimiquement très actif ; de plus un certain nombre de points de sûreté doivent être améliorés • le réacteur à neutrons rapides à caloporteur gazeux (hélium) nécessite de nouveaux combustibles compatibles avec de hautes températures (850°C) de fonctionnement et il faut aussi assurer le confinement des produits de fissions et leur retraitement. • le réacteur à neutrons rapides à caloporteur de plomb a connu un fort développement dans l’ancienne URSS. Le caloporteur est du plomb fondu ou un eutectique (voir Élémentaire N°4) plomb/ bismuth, transparent aux neutrons rapides. Le principal avantage, par rapport au sodium, est la faible réactivité de ce caloporteur avec l’air ou l’eau. Par contre le plomb liquide est très corrosif vis-à-vis des matériaux de structure, • le réacteur à sels fondus se caractérise par un caloporteur et un combustible sous forme de sels fondus (fluorure ou chlorure). De nombreuses variantes ont été étudiées et quelques prototypes construits dans les années 70. Il existe des versions fonctionnant avec des neutrons rapides ou thermiques de ce concept ; il serait un très bon candidat pour des combustibles basés sur la filière du thorium.
Bétonnage du bâtiment réacteur (Okiluoto 3, 2007).
Enfin les deux autres concepts, ne sont pas surgénérateurs, mais peuvent répondre à des besoins spécifiques : • le réacteur à très haute température, constitué d’un cœur modéré au graphite dans lequel circule un gaz (hélium) caloporteur. La température en sortie de cœur est d’environ 1000°C. Il peut être utilisé pour produire soit de l’électricité soit de l’hydrogène, • le réacteur à eau supercritique vise à reprendre les meilleures caractéristiques des REP et des REB. C’est un réacteur à eau légère dont le caloporteur/modérateur est de l’eau supercritique à une température et une pression de fonctionnement supérieures à celles des réacteurs actuels. Il se démarque par son efficacité thermique élevée (45%). page 69
ÉLÉMENTAÍRE
Eau supercritique Il s’agit de l’eau qui se comporte comme un fluide dans une seule phase à hautes température et pression (T>374°C et P>221 bar) ; elle n’est ni liquide, ni gazeuse.
© AREVA
L’EPR finlandais d’Okiluoto (sur la gauche) : vue d’artiste.
Réacteurs nucléaires : 3e ou 4e génération? Les quatre premiers systèmes pouvant être surgénérateurs, ils sont donc les seuls qui constituent un recours durable et significatif au réacteurs nucléaires actuels. On peut alors se demander s’il ne serait pas préférable de construire directement des réacteurs de 4ème génération sans passer par la 3ème. Cette question d’actualité mérite d’être examinée en détail.
Déploiement de la 4ème génération Pour discuter du remplacement des REP, considérons le cas français. Les réacteurs actuels, construits à partir des années 1970, doivent normalement s’arrêter entre 2020 et 2050, entraînant une baisse de la production de 2 GWe par an. Le scénario de référence consiste à effectuer leur remplacement en maintenant la puissance totale constante. Ce déploiement éventuel est confronté à plusieurs problèmes.
Illustration de l’existence d’un prix limite d’extraction de l’uranium naturel. L’intersection des deux droites fixe le prix de l’Uranium à partir duquel les Réacteurs à Neutrons Rapides (RNR) deviennent compétitifs (les bandes rosées ou orangées indiquent les incertitudes sur ces prix en fonction des options choisies et illustrent la difficulté d’anticiper le déploiement des réacteurs de quatrième génération).
Aspects économiques, réserves en uranium et disponibilité technologique Un surgénérateur consomme environ 100 fois moins d’uranium naturel que les réacteurs actuels. Mais l’investissement initial pour sa construction est environ 20% supérieur à celui d’un REP ou EPR. Ainsi, il existe un prix limite d’extraction du minerai de l’uranium naturel à partir duquel la technologie des surgénérateurs s’impose économiquement (voir figure) qui aujourd’hui est estimé à 400 $/kg. Les réserves correspondantes en uranium sont de l’ordre de 16 à 23 Mt selon les études. Au rythme actuel de consommation (60 000 t d’U naturel/an), il y en a pour près de 400 ans. Ainsi en 2050, les RNR ne seraient rentables que dans un scénario d’augmentation significative de la part du nucléaire au niveau mondial (25% de la consommation mondiale d’énergie primaire au lieu des 6% actuels). Notons qu’une telle augmentation serait nécessaire pour lutter efficacement contre les émissions de gaz à effet de serre en assurant l’approvisionnement en énergie mondial.
© AREVA
Actuellement, seuls les RNR refroidis au sodium ont fait l’objet de réalisations à l’échelle industrielle (Superphenix) et sont donc les seuls qui pourraient être déployés à partir de 2030.
page 70
Fabrication en France d’un des générateurs de l’EPR finlandais.
Besoin en matière fissile Bien qu’en fonctionnement normal, un réacteur surgénérateur de 1GWe ne consomme qu’une tonne d’uranium naturel chaque année, il nécessite, pour son démarrage, 12 tonnes de Plutonium. Par exemple, pour remplacer les 60GWe du parc français par des RNR, il faudrait disposer de 720t de Pu. Les études de scénarios montrent que seule la moitié du nouveau parc peut être démarrée avec des RNR. Il faut donc attendre 2095 pour obtenir un parc 100% RNR. On voit qu’il est indispensable de construire de nouveaux réacteurs de type REP ou EPR si l’on veut produire le Pu nécessaire au déploiement des réacteurs de 4ème génération.
ÉLÉMENTAÍRE
Réacteurs nucléaires : 3e ou 4e génération? Est-il urgent d’attendre ? On l’a vu, le déploiement de réacteurs régénérateurs de 4ème génération ne se justifiera économiquement que si le nucléaire s’est fortement développé au niveau mondial. Aujourd’hui, il n’est pas certain que le déploiement de cette énergie soit tel que les réserves en uranium s’épuisent dans le siècle à venir (même s’il existe de plus en plus de signes de relance du nucléaire au niveau mondial). Pour le cas français, il paraît donc prématuré de se lancer dans le déploiement de réacteurs surgénérateurs dès le remplacement des réacteurs actuels qui doit commencer en 2020. À cette date, la situation mondiale sera sans doute clarifiée. Il est donc tout à fait envisageable qu’il soit nécessaire de lancer la transition vers les réacteurs régénérateurs avant 2050, et dans ce cas, il faudra disposer d’une technologie fiable et d’un stock de plutonium important. C’est pourquoi les recherches sur la 4ème génération doivent rapidement déboucher sur la construction d’un prototype aux alentours de 2020. C’est pourquoi également le plutonium accumulé par les réacteurs actuels est considéré aujourd’hui comme une matière valorisable, (et non comme un déchet), entreposée en surface en prévision de son utilisation dans les réacteurs régénérateurs. Si en revanche, les décennies à venir voient le nucléaire mondial stagner voire décroître, il faudra revoir cette stratégie et considérer à nouveau le plutonium comme un déchet à gérer ; et dans ce cas, il dominerait la radiotoxicité et nécessiterait une surface de stockage plus grande que pour les autres déchets accumulés. © AREVA
Les décisions sur notre avenir énergétique à l’horizon 20502100 sont donc liées aux méthodes actuelles de gestion des déchets. Cette difficulté est une spécificité du nucléaire, pour lequel les temps caractéristiques (durée de vie des réacteurs, accumulation de plutonium, développement d’une filière jusqu’au stade industriel,...) sont de l’ordre du demi-siècle.
ÉLÉMENTAÍRE
page 71
EPR Okiluoto 3 en mai 2006 : base du bâtiment réacteur.
page 72
ÉLÉMENTAÍRE