N4_

Page 1

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 4

Revue d’information scientifique

Solstice d’hiver 2006

La couleur...

...des particules


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Heureusement que le petit Prince ne demanda pas à l’aviateur : « Dis monsieur, dessine moi un proton ! »

En effet, on ne peut pas dessiner un proton ! Son apparence dépend de la façon dont on l’examine. Par un regard distrait, un peu lointain, comme celui qu’on lui portait dans les années 60, il apparaît comme une boule aux contours diffus dont le rayon est voisin de un fermi (soit un milliardième de millionième de mètre). Bien que petite, sa taille est mesurable et les physiciens voulurent savoir ce qui se cachait en son sein. Les accélérateurs de particules, tels des microscopes géants, permirent cette exploration. Le paysage qui se révéla alors fut très différent de celui observé lors de l’étude de la structure de l’atome dans lequel des électrons circulent autour d’un noyau petit et lourd. Ici il n’y a pas de centre « dur » mais des quarks en interaction très forte via des gluons. Quarks et gluons sont prisonniers dans le proton. Pas question de s’en échapper même sous l’effet d’un choc violent. Toute fuite est signalée par un cortège de particules qui indiquent la direction de l’évasion. Les quarks se manifestent ainsi dans les appareillages, sous forme de jets de particules (voir « méthode d’analyse »). La découverte des quarks et de la manière dont ils interagissent a pris de nombreuses années. Cette chronologie est évoquée dans la rubrique « histoire » alors que leur découverte proprement dite est décrite dans « expérience ». Le comportement inhabituel de l’interaction forte est évoqué dans « théorie » où est aussi précisé ce que l’on entend par « couleur » des particules. De plus, à haute température on s’attend à ce que les quarks et les gluons forment un nouvel état de la matière appelé le plasma de quarks et de gluons. Cet état doit être produit lors de collisions violentes entre des ions lourds. Il a été recherché tout d’abord au CERN puis, actuellement à Brookhaven (aux États-Unis) (voir « centre »). Le programme du LHC prévoit de prendre le relais et d’étudier des collisions entre ions de plomb ; pour cela un détecteur spécial prénommé ALICE a été construit (voir « LHC »). La « question qui tue »

revient sur que l’on entend par constituant élémentaire, nous verrons que les quarks et les gluons en font partie alors que le proton ainsi que les autres hadrons (pions, kaons, ...) sont composites. Les quarks sont au nombre de six, différant par leur saveur et leur masse. Ils peuvent être disposés dans trois familles contenant chacune deux quarks et deux leptons comme nous l’indiquons dans l’ « apéritif ». Le dernier quark de la liste, le top, n’a été découvert que récemment, à cause de sa masse qui est très élevée si on la compare à celle de ses collègues (voir « découverte»). En étudiant les propriétés d’un jet, il est possible de retrouver quel type de quark est à son origine ou bien s’il a été initié par un gluon. Pour cela il faut reconstruire les trajectoires des particules qui le constituent et identifier leur nature. Dans « détection » nous expliquons comment on peut distinguer les différents types de particules chargées. L’ionisation déposée par une particule chargée dans le milieu traversé fait partie de ces méthodes. Celle créée par des protons de basse énergie est aussi mise à profit pour détruire des tumeurs (voir « retombées »). La rubrique « nucléaire » présente différents scénarios de développement de l’énergie nucléaire qui permettraient de mieux utiliser le combustible. Amusez-vous dans ce numéro où vous en verrez... de toutes les couleurs (..si vous avez des questions envoyez un message à elementaire@lal.in2p3.fr) !

Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Patrick Roudeau Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, F. Fulda-Quenzer, M.-P. Gacoin, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.-H. Schune, J. Serreau, A. Stocchi. Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec. Ont participé à ce numéro : R. Chehab, S. David, A.-I. Etienvre, O. Méplan, P. Royole-Degieux. Remerciements : nos nombreux relecteurs.` Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/ Prix de l’abonnement : 6 euros pour 2 numéros (par site internet ou par courrier) Imprimeur : Imprimerie C.Print - Cesson-Sévigné. Numéro ISSN : 1774-4563


Apéritif p. 4

Rouge, bleu, vert : les quarks

ÉLÉMENTAÍRE

Histoire p. 7

De l’infiniment petit à l’infiniment grand

Accélérateurs p. 42

Le développement des accélérateurs linéaires

La chasse aux quarks

Découvertes p. 47

Le quark top : vingt ans de traque

Interview p. 14

Guido Martinelli

Théorie

p. 51 QCD... ou la colle des quarks

Centre de recherche p. 17

Laboratoire National de Brookhaven (BNL)

Expérience p. 22

Disséquer un proton

Détection

p. 28 L’identification des particules chargées

Retombées p. 34 La protonthérapie

Analyse p. 39 Les jets de particules

La question qui tue p. 63

Les quarks sont-ils élémentaires ?

Énergie nucléaire p. 68

Les technologies nuléaires du futur

Le LHC

p. 57 Alice au pays des quarks

ICPACKOI p. 61

Le polonium 210 Première observation d’un top célibataire Abonnement : faites votre demande d’abonnement sur le serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Deux numéros par an (port inclus) : 6 euros au total, chèque libellé à l’ordre de «AGENT COMPTABLE SECONDAIRE DU CNRS». Pour les administrations les bons de commande sont bienvenus. Contact : elementaire@lal.in2p3.fr


Apéritif Rouge, vert, bleu : les quarks Un quoi ? Un quark ! Ce nom, pour le moins original, est attribué aux constituants des protons et des neutrons, qui, avec les électrons, sont les briques de la matière dont nous sommes faits. Jusqu’au début du XXème siècle, on pensait que protons et neutrons étaient élémentaires, c’est à dire sans structure interne. Mais alors, comment expliquer la multitude des particules observées dans le rayonnement cosmique ou produites dans les accélérateurs par la suite ? En 1964 Murray Gell-Mann et George Zweig ont proposé d’introduire les quarks comme composants des protons et des neutrons. Deux types de quarks suffisaient pour leur description, le up et le down. Mais d’autres particules connues à cette époque, les mésons K, nécessitaient l’existence d’un troisième quark, qu’on a appelé étrange. Vous trouverez de nombreux détails people sur cette épopée dans la rubrique « Histoire ». Aujourd’hui nous savons que les types de quarks, encore appelés saveurs, sont au nombre de six : aux quarks précédents on doit ajouter le charme, le bottom (appelé aussi beauté ou beauty en anglais) et le top (appelé aussi vérité, ou truth en anglais). Les quarks sont associés par paires au sein de « familles ». Le up et le down constituent la première famille, le charme et l’étrange la seconde, et dans la troisième on trouve le bottom et le top. Les quarks ont tous des charges fractionnaires -1/3 ou +2/3, dans des unités où la charge électrique du proton est +1. C’est ainsi que le proton est constitué de deux quarks up (charge +2/3) et de un quark down (charge -1/3) tandis que le neutron contient deux quarks down et un quark up. En additionnant les charges de leurs composants, on retrouve la charge unité du proton et la neutralité du neutron !

Ci-dessus, une représentation humoristique des quarks faite par le physicien A. Pich (Université de Valencia, Espagne) lors de cours destinés à des étudiants accueillis pendant l’été au CERN. Une représentation qui en vaut bien une autre, puisqu’on ne sait pas à quoi les quarks ressemblent !

DR

page 4

À droite, les trois familles de fermions qui regroupent chacune deux leptons et deux quarks. À titre d’exemple, on retrouve dans la première famille le quark up (charge 2/3), le quark down (charge -1/3) et les deux leptons : l’ électron (charge -1) et le neutrino électronique.

ÉLÉMENTAÍRE


Rouge, vert, bleu : les quarks Médiateur En physique des particules on parle de médiateur pour décrire la transmission d’une force. Par exemple, le médiateur de l’électromagnétisme est le photon : il fait interagir les particules en véhiculant la force électromagnétique.

proton (+1) p

L’interaction forte, une des quatre forces de notre Univers, est bien particulière: elle croît avec la distance entre les quarks, les empêchant de se présenter tout seuls devant nous. Ainsi, personne n’a vu les quarks tels quels, ils sortent toujours PACSés par deux ou par trois. Les mœurs des quarks et des gluons seront commentées sans pruderie inutile dans la rubrique « Théorie », où l’on montrera le rôle primordial de la couleur. Les quarks possèdent aussi un spin ayant la valeur de ½ (en unités de h/2π où h est la constante de Planck). Le mot « spin » désigne une caractéristique quantique des particules qui détermine, par exemple, leur comportement en présence d’un champ magnétique. La valeur du spin intervient dans la manière dont les quarks s’assemblent au sein des particules effectivement observées, comme les protons et les neutrons. Nom

Charge

1 1 2 2 3 3

Up (u) Down (d) Etrange (s) Charme (c ) Bottom (b) Top (t)

+ 2/3 - 1/3 - 1/3 + 2/3 - 1/3 + 2/3

u

sigma (+1) + Σ

u

pion (+1) π+

kaon (-1) K

page 5

Tableau où les quarks sont classés par valeur croissante de leur masse. Les incertitudes qui sont adjointes à ces masses reflètent l’ensemble des erreurs expérimentales ainsi que celles des calculs permettant de déduire les masses des quarks à partir de celles des hadrons observés.

ÉLÉMENTAÍRE

neutron (0) n

d d

s u

Représentation graphique de certains baryons (en haut) et de mésons (en bas) avec entre parenthèses leur charge.

Masse estimée (en MeV/c2) 3±2 6±2 95 ± 25 1 250 ± 90 4 200 ± 70 174 200 ± 3300

Pour chaque quark il existe un anti-quark de même masse mais dont toutes les autres caractéristiques (charge, saveur, couleur) sont opposées. Parlonsen d’ailleurs, de la masse ! Car elle constitue une sacrée différence entre

u

d

u d

u

s B. Mazoyer

Famille

u

B. Mazoyer

Les quarks s’associent pour former des hadrons : on parle alors de baryons pour les assemblages de trois quarks ou bien de mésons pour les duos quark-antiquark. Ceci est dû au fait que les quarks n’ont pas seulement une saveur mais aussi une couleur ! Cette dernière propriété n’a rien à voir avec la couleur des objets qui nous environnent. Il s’agit d’un nom poétique que les physiciens ont donné pour caractériser le comportement des quarks vis-à-vis de l’interaction forte, tout comme la charge électrique décrit la sensibilité d’une particule à l’interaction électromagnétique. Dans les hadrons, les quarks tiennent ensemble par la force nucléaire ou interaction forte, transmise par des médiateurs répondant au doux nom de gluons. De même que les quarks, les gluons sont colorés... et plutôt deux fois qu’une ! Un gluon porte en effet deux couleurs différentes.


Rouge, vert, bleu : les quarks

B. Mazoyer

les quarks ! Il y a un facteur 60 000 entre le quark up, le plus léger, et le top, le plus lourd ! Parmi les questions qui taraudent actuellement le physicien des particules, on trouve en bonne place l’origine de ce large éventail de masses, ainsi que la question des charges fractionnaires des quarks. Pour le moment, il n’existe pas de réponse satisfaisante à ces deux casse-têtes, et à de nombreux autres concernant ces mystérieux quarks. Les quarks de valence du proton, avec des gluons représentés sous forme de ressort. Tels de la colle, ils assurent la cohésion du proton en étant les médiateurs de l’interaction forte entre les quarks

La mer qu’on voit danser On dit que le proton contient deux quarks u et un quark d. Ce sont ces trois quarks qui définissent sa charge: on les appelle quarks de valence. Mais le proton contient aussi tous les autres quarks ainsi que leurs anti-quarks, sous forme de paires. Leurs saveurs, charges et couleurs s’annulent et n’influent pas sur les caractéristiques globales du proton. Cependant, un électron énergétique qui s’aventurerait près du proton pourrait être sensible à des quarks étranges, charmés ou beaux. C’est ainsi qu’on a pu vérifier expérimentalement la présence de ces autres quarks dans le proton. On les appelle quarks de la mer. En comparant la somme des masses des quarks de valence (12 MeV environ) au poids du proton (1 GeV, soit 1000 MeV) on voit que la mer et les gluons forment en fait 99,9% de la masse du proton sans pour autant influer sur son identité. Pas très démocratique, n’est-ce pas ?

page 6

La mer du proton, un ensemble de paires quark-antiquark en interaction permanente avec des gluons.

ÉLÉMENTAÍRE


Histoire La chasse aux quarks Le zoo des particules

©BNL

« On a des particules mais on n’a pas d’idées… » Ce slogan aurait assez bien résumé les sentiments de nombreux physiciens au tournant des années 1960. En effet, le temps où les particules « élémentaires » se comptent sur les doigts d’une main est alors révolu. Chaque année qui passe voit de nouvelles découvertes et la montée en puissance des accélérateurs, qui remplacent peu à peu les rayons cosmiques comme source principale de particules de haute énergie, ne fait qu’amplifier le phénomène. Si en 1937 le futur prix Nobel Isaac Rabi pouvait s’écrier « qui a commandé ça ? » en apprenant la découverte du muon, quinze ans plus tard on n’est pas loin de l’indigestion !

Un Λ0 produit par un accélérateur et détecté dans une chambre à bulles au laboratoire de Brookhaven (États-Unis). Les trajectoires des particules ont été coloriées pour rendre la figure plus lisible. En jaune, un proton de haute énergie entre par le bas du détecteur et rencontre un proton de l’hydrogène liquide qui remplit la chambre. La collision engendre une gerbe de particules, dont les trajectoires sont courbées par un champ magnétique. Les particules de charge électrique positive, en rouge (sept pions positifs, un proton et un kaon positif), sont déviées vers la droite, tandis que les particules de charge électrique négative, en bleu (sept pions négatifs), sont déviées vers la gauche. Un Λ0 est aussi produit : électriquement neutre, il n’est pas dévié par le champ magnétique et ne laisse pas de trace visible dans le détecteur. Toutefois, il se désintègre pour produire un proton (en jaune) et un pion (en violet). La courbe verte en bas de l’image est un électron qui a été expulsé de son orbite par le passage du proton initial.

Si l’on parvient à trouver une place aux pions (π) dans la théorie naissante de l’interaction nucléaire forte, on ne sait que faire des kaons (K), dont la dénomination générique, particules « étranges », reflète bien la perplexité de leurs découvreurs. Aucune régularité n’est visible dans ce zoo de particules et chaque nouvel arrivant amène des questions supplémentaires. On met en évidence des particules neutres, d’autres électriquement chargées, négatives comme positives. Certaines sont relativement légères, alors que d’autres sont plus lourdes que le proton ou le neutron ! Ainsi le lambda neutre Λ0, observé dans les rayons cosmiques en 1951, est environ 20% plus massif qu’un proton. Très vite suivent les deltas (Δ), sigmas (Σ) et autres xis (Ξ) toujours plus massifs... À ce rythme, l’alphabet grec, qui vient souvent au secours de physiciens en manque d’inspiration, s’épuise à vue d’œil. Désemparé devant ce foisonnement de nouvelles particules, Enrico Fermi lui-même se serait écrié : « Si je pouvais retenir le nom de toutes ces particules, je serais botaniste ! »

Étrange, vous avez dit étrange…

ÉLÉMENTAÍRE

Particules découvertes de 1898 à 1964 :

1890

1920

1900

1910

1920

e1930

1940

P 1950

n e+ 1960

1950

µ+-

π+- κ +-

η f Ω

κ*

© B. Mazoyer

+

π0 Λ0 Σ - p νe Σ0Λ0 p νµ α2 κ0 Λ Ξ- n Ξ0 ω φ η' page 7

Découvrir des particules, c’est bien, expliquer pourquoi elles existent et comprendre leur diversité, c’est mieux… Ce n’est pas la première fois qu’une telle situation se présente : les chimistes du XIXe siècle passèrent des décennies à découvrir de nouveaux éléments dont ils étudiaient les propriétés individuellement. Puis Mendeleïev ordonna cette horde d’éléments en fonction d’un petit nombre de propriétés, reconnues comme fondamentales. À partir du milieu des années 1950, des physiciens empruntent un chemin qui n’est pas sans rappeler celui suivi par leurs aînés chimistes. Première mise en ordre parmi les particules étranges, comme les kaons ou le Λ0 : on observe qu’elles apparaissent toujours par paires, jamais de manière isolée. Les réactions π− + p → Λ0 + Κ0 ou encore p + p → Λ0 + Κ+ + p + 7 π+ + 7 π− (ouf !) comme dans la photo de chambre à bulles ci-dessus, sont possibles mais pas la réaction π− + p → Λ0 + π0 que rien n’interdit pourtant a priori.


Pour expliquer ce phénomène, l’Américain Murray Gell-Mann et le Japonais Kazuhiko Nishijima proposent indépendammant une quantité nouvelle, « l’étrangeté » S. Les particules « ordinaires » (protons, pions etc.) ont une étrangeté nulle tandis que les particules étranges sont caractérisées par S ≠ 0. Quel est l’intérêt de ce nombre ? Gell-Mann postule également que l’étrangeté a des propriétés similaires à la charge électrique : la somme des étrangetés des particules reste constante lors de processus où interviennent l’interaction électromagnétique ou l’interaction forte. On dit que l’étrangeté est conservée.

Murray GellMann est né en 1929 à New York. Après des études à l’Université de Yale et une thèse au MIT, il a conçu et raffiné le concept de quarks pour classifier le nombre croissant de particules observées dans les accélérateurs. Murray Gell-Mann s’est également intéressé aux propriétés de l’interaction faible (responsable de la radioactivité β). Ces travaux furent l’occasion d’une compétition amicale avec son confrère Richard Feynman, et valurent à Gell-Mann le prix Nobel de physique en 1969. Plus récemment, Murray Gell-Mann a délaissé la physique des particules pour s’intéresser aux systèmes complexes et promouvoir l’étude interdisciplinaire de ces systèmes. Son livre le plus connu, «Le quark et le jaguar», illustre la variété de ses centres d’intérêt.

Ainsi, en attribuant par convention S = 1 au kaon K0, on obtient immédiatement que l’étrangeté du Λ0 vaut S = -1 puisque ces deux particules sont produites ensemble à partir d’un proton et d’un π− tous deux d’étrangeté nulle. En jouant avec les processus observés expérimentalement, on peut déterminer de proche en proche l’étrangeté de toutes les nouvelles particules. Par exemple, le sigma Σ0 est aussi produit en compagnie d’un kaon lors de collisions entre un pion et un proton : π− + p → Σ0 + Κ0 0 ce qui signifie que le Σ possède une étrangeté de -1. Gell-Mann fait d’une pierre deux coups. Tout d’abord, il explique pourquoi certaines réactions, comme π− + p → Λ0 + π0, ne sont pas observées : l’étrangeté n’y est pas conservée ! De plus, l’étrangeté justifie que les particules étranges aient des durées de vie relativement longues, c’est-à-dire qu’elles vivent « longtemps » à l’échelle de la physique des particules. En effet, ces particules étranges peuvent se désintégrer en particules « ordinaires » (non-étranges, S=0) seulement par le truchement de processus rares gouvernés par l’interaction faible. Lors de ces processus l’étrangeté n’est pas conservée (contrairement à ceux gouvernés par les interactions forte ou électromagnétique).

La voie octuple L’étrangeté s’ajoute donc à la masse et à la charge électrique pour classer les nouvelles particules. Mais on ne connaît pas l’origine de cette règle et les particules sont trop nombreuses pour être toutes élémentaires. Voici venu le temps des spéculations théoriques. Ainsi le Japonais Sakata propose un retour vers la simplicité : dans sa théorie, les briques élémentaires sont les protons, les neutrons et les lambdas et toutes les autres particules sont des assemblages plus ou moins complexes de ces composants. D’autres vont plus loin et pronostiquent que ces trois constituants de base sont eux-mêmes formés de… protons, neutrons et lambdas, et ainsi de suite, dans une circularité infinie ! Mais rien ne permet de confirmer cette étrange théorie, surnommée théorie du lacet de chaussure (« bootstrap ») en référence au conseil du Baron de Münchhausen : « il n’y a qu’une manière de se sortir de sables mouvants : il faut tirer assez fort sur ses lacets pour remonter à la surface » !

Une caricature du baron selon Gustave Doré. Le Baron de Münchhausen, d’origine allemande, participa à de nombreuses campagnes militaires du XVIIIe siècle. Ses récits de guerre, répétés et enjolivés par la rumeur, sont célèbres pour leur vantardise et leur absurdité. Ils ont inspiré un livre et plusieurs films. page 8

© Nobeprize

La chasse aux quarks

ÉLÉMENTAÍRE


© Nobelprize

La chasse aux quarks Yuval Ne’eman (1925-2006)

En 1961, de façon indépendante, Murray Gell-Mann (encore lui !) et l’israélien Yuval Ne’eman proposent une nouvelle méthode pour organiser la centaine de particules alors connues : basée sur l’une des idées les plus fécondes de la physique moderne – la recherche de symétries dans les lois de la Nature – elle fait appel à des concepts mathématiques avancés. Ce système classe les particules par groupes de 8 (les « octets ») ou de 10 (les « décuplets ») : les particules d’un même groupe ont des masses proches et elles se distinguent par leur charge électrique et leur étrangeté. Gell-Mann baptise son système la « voie octuple », en référence au « Noble Sentier Octuple », les huit préceptes bouddhistes menant à la fin de la souffrance.

∆ ∗0 Σ

∗− Σ

s = -3

ÉLÉMENTAÍRE

q=1

− Ω

iqu

ctr

∗0

Ξ

q=0

q = -1

éle

∗−

Ξ

rge

s = -2

Σ0

~ 1.12 GeV

+

Σ

Λ

iqu

e

q = -1

0

ctr

Ξ

éle

Ξ

~ 1.32 GeV

q=0

rge

s = -2

L’octet de particules auquel appartiennent le neutron (n) et le proton (p). Chaque ligne horizontale correspond à une étrangeté donnée, tandis que les diagonales sont associées à des charges électriques identiques. Deux particules, le Σ0 et le Λ0, occupent le même emplacement au centre de l’octet. À droite, on a indiqué les masses approximatives des particules figurant sur chaque ligne avec la convention c = 1.

Années de découverte

~ 1.232 GeV (1950-60) q=2

∗+ Σ

~ 0.94 GeV

q=1

~ 1.385 GeV (1961) ~ 1.533 GeV (1962)

~ 1.686 GeV (1963)

Le décuplet de particules révélé lors de la conférence de 1962. Chaque ligne horizontale correspond à une étrangeté donnée, tandis que les diagonales sont associées à différentes charges électriques. À droite, on a indiqué les masses approximatives et la date de découverte des particules figurant sur chaque ligne. On note que la différence des masses entre deux lignes successives est constante, d’environ 0,15 GeV, de sorte que la particule qui complète la pointe du décuplet devrait avoir une masse de 1,53+0,15=1,68 GeV ! page 9

Masses

∆++

e

s = -1

+

cha

étrangeté

s=0

0

Σ

Masses

p

© B. Mazoyer

s = -1

La balle est maintenant dans le camp des expérimentateurs. À l’issue d’un repas lors de cette même conférence, Gell-Mann reprend sur une serviette en papier ses arguments à la demande de Nikolas Samios, physicien au laboratoire national de Brookhaven. Celui-ci se lance immédiatement à la chasse à l’Ω− en utilisant le faisceau de protons fourni par l’accélérateur AGS et la chambre à bulles de « 80 pouces » de Brookhaven. Après l’analyse de 80 000 photos la recherche est couronnée de succès en juin 1963 : une particule de masse 1,686 ± 0,012 GeV est observée, exactement comme Gell-Mann l’avait prévu !

∆−

n

s=0

cha

Le seul « problème » est que 2 + 3 + 4 = 9 et non 10 : il manque une particule pour compléter le décuplet ! Ce « détail » n’arrête pas GellMann qui prend la parole à cette même conférence et prédit l’existence d’une nouvelle particule qu’il baptise Ω− (omega moins) car cette particule est la dernière du décuplet, tout comme omega est la dernière lettre de l’alphabet grec. La voie octuple prédit la masse de la particule (environ 1,68 GeV), sa charge électrique (négative), son étrangeté (S = -3) et même certains modes de désintégrations spécifiques !

étrangeté

Cette classification est séduisante, mais est-elle correcte ? La réponse ne se fait pas attendre longtemps. En juin 1962, Gell-Mann assiste à une conférence à Genève ; parmi les résultats présentés, on annonce la découverte de deux nouvelles particules, appelées Ξ∗0 et Ξ∗−. Malgré leurs noms un peu barbares, les « xi star zéro » et « xi star moins » ne sont pas simplement deux particules de plus. Gell-Mann comprend qu’il peut les associer aux 3 Σ* (!) et aux 4 Δ (!!) déjà connus pour former un décuplet de sa théorie.

Symétries Pourquoi les scientifiques sont-ils si souvent obsédés par les symétries ? Simplement parce qu’elles leur simplifient l’existence. Par exemple, si un objet est symétrique par rapport à la verticale, il suffit de décrire l’une de ses moitiés pour le connaître complètement... En physique des particules, les symétries sont rarement exactes, un peu comme deux moitiés d’un visage qui se ressemblent beaucoup sans pour autant être identiques. Néanmoins elles fournissent une esquisse simplifiée des phénomènes, sur laquelle on peut s’appuyer pour étudier les « imperfections » rencontrées dans la réalité.


© BNL

La chasse aux quarks

La chambre à bulles du laboratoire de Brookhaven. Longue de près de 2 mètres, soit 80 pouces, elle était remplie d’environ 1000 litres d’hydrogène liquide et entourée d’un aimant de 31 tonnes. Elle permettait de visualiser les trajectoires des particules issues des collisions du faisceau de protons de l’AGS sur une cible.

La première photographie d’un Ω- dans la chambre à bulles de Brookhaven (à gauche) et un schéma explicatif des traces (à droite). Un K- venant du bas de l’image interagit avec un proton de l’hydrogène liquide remplissant la chambre, pour produire un Ω-, un K0 et un K+ qui se désintègrent tous trois en d’autres particules. Les particules neutres qui ne laissent pas de traces visibles sur la photographie, sont représentées en traits pointillés.

page 10

L’hydrogène était le milieu actif idéal pour ce type de détecteur, car son noyau formé d’un seul proton donnait lieu à des interactions simples avec les particules du faisceau incident. Mais la difficulté résidait dans la température où il devient liquide : – 253 degrés Celsius ! En quelques années, la technologie fit des progrès remarquables : dès 1959, Berkeley avait une chambre à bulles à hydrogène liquide de 72 pouces (environ 180 cm) de diamètre et celle de Brookhaven atteignit les 80 pouces en 1963. Dans les années 70, les chambres à bulles furent remplacées par des détecteurs plus performants, les chambres à étincelles puis les chambres à fils.

© B. Mazoyer

La chambre à bulles La chambre à bulles est basée sur le même principe que son ancêtre, la chambre à brouillard. Une cuve est remplie d’un liquide dense maintenu juste en dessous de son point d’ébullition. Lors du passage de particules, un piston est brutalement abaissé. Cette détente soudaine place le liquide dans un état thermodynamique instable. Les particules incidentes déposent de l’énergie sur leur passage. Le liquide se met alors à bouillir le long de leur trajectoire qui est ainsi mise en évidence par un chapelet de bulles. La chambre est plongée dans un champ magnétique intense qui courbe les traces chargées et permet de mesurer l’énergie des particules.

ÉLÉMENTAÍRE


La chasse aux quarks Trois quarks pour Maître Marc

Cette découverte accroît fortement le crédit de « la voie octuple ». Toutefois, ni Gell-Mann, ni Ne’eman ne peuvent expliquer pourquoi les particules choisissent de s’agencer en octets et décuplets, exactement comme Mendeleïev pouvait seulement constater, et non expliquer, les régularités de sa table périodique des éléments chimiques. Le fait qu’un modèle mathématique ait pu prédire une particule avant son observation expérimentale est un grand pas en avant. Il ne reste « plus » qu’à comprendre son origine !

Three quarks for Muster Mark ! Sure he hasn’t got much of a bark And sure any he has it’s all beside the mark. Trois quarts à la pie pour Maître Marc ! Sûr que sa barque ne vaut pas grand-chose Et que tout ce qu’il a se trouve être hors de saison.

Trois quarks pour Maître Murray

(traduction de Philippe Lavergne, Gallimard)

Cette phrase est chantée par un chœur de mouettes au milieu du rêve éthylique d’un personnage de Finnegans Wake. Elle signifie probablement «trois hourras» ou, d’après les notes de Joyce lui-même, «trois railleries pour Monsieur Mark»… Comprenne qui pourra !

En 1963, au cours d’un déjeuner avec Gell-Mann, un théoricien de l’université de Columbia, Robert Serber, se demande si les objets mathématiques qui servent de fondation à la voie octuple ne pourraient pas être un peu plus que de simples artifices de calcul. En fait, la voie octuple trouverait une justification physique si on admet que toutes les particules sont constituées de trois types de particules fondamentales. Pendant une année, Gell-Mann développe une théorie de ces particules, qu’il appelle d’abord d’un nom volontairement absurde, « kwork », avant de lire un passage de Finnegans Wake où apparaît le terme de « quark »…

© Nobeprize

Au même moment, à Caltech (États-Unis), le physicien américain d’origine russe George Zweig étudie les résultats d’expériences avec des chambres à bulles. Il ignore évidemment tout des quarks qui peuplent l’imagination de Gell-Mann mais il est intrigué par certaines particules – en particulier le φ (phi) – qui semblent privilégier des modes de désintégration peu favorables par rapport à d’autres, a priori plus naturels. Il interprète ces résultats expérimentaux en supposant que les particules sont constituées de composants plus élémentaires qu’il appelle les « as ». Bien que les deux théories soient équivalentes, le travail de Zweig ne sera reconnu que tardivement, de sorte que le nom de « quark » l’emportera sur celui d’ « as ». Grâce au modèle des quarks, les listes toujours plus longues de particules observées se réduisent à des agencements de trois types de quarks : le quark u ou « up », le quark d ou « down » et le quark s ou « strange ». Le quark u porte une charge électrique positive valant 2/3 de celle du proton, tandis que les quarks d et s ont une charge électrique négative valant 1/3 de celle de l’électron (et donc -1/3 de celle du proton). À chaque quark est associée son antiparticule, de même masse et de charge électrique opposée. Enfin, le quark s possède une étrangeté égale à -1, tandis que les quarks u et d sont d’étrangeté nulle.

ÉLÉMENTAÍRE

page 11

Dans le modèle des quarks, le proton est l’assemblage des trois quarks uud (de charge 2/3+2/3-1/3=1), le neutron celui des trois quarks udd (2/3-1/3-1/3=0),

George Zweig, né en 1937 en Russie, est un physicien américain au parcours mouvementé. Il passe une thèse en physique des particules sous la direction de Richard Feynman. Peu de temps après, en 1964, il propose indépendamment de Gell-Mann que les particules observées expérimentalement sont constituées d’« as », similaires aux quarks. Victime de son manque de notoriété, sa théorie n’a pas l’accueil mérité : sa validité ne sera reconnue que des années plus tard. Par la suite, Zweig se tourne vers la physiologie sensorielle, en particulier la manière dont le son est traduit en impulsions électriques par l’oreille humaine.


La chasse aux quarks Finnegans Wake est une œuvre littéraire de l’Irlandais James Joyce. Joyce se lance dans l’écriture de Finnegans Wake après avoir achevé Ulysse, qu’il pensait être l’œuvre de sa vie. Mais Finnegans Wake sera plus ambitieux encore : il lui faudra 17 ans pour écrire ce livre, en dépit des nombreuses difficultés de sa vie personnelle. Le livre paraîtra deux années avant sa mort. Finnegans Wake est une œuvre inclassable et toujours sujette à controverse, considérée comme un monument littéraire du XXe siècle par les uns, et jugée illisible et intraduisible par les autres… Bien qu’officiellement écrite en anglais, la prose de Finnegans Wake mélange un grand nombre de langues, réelles et inventées… Preuve de la complexité de cette œuvre, il faudra d’ailleurs près de vingt ans au traducteur français des éditions Gallimard pour aboutir à une version française satisfaisante. La première édition de Finnegans Wake, et la statue de son auteur à Dublin.

page 12

Le méson Φ et la règle de Zweig Zweig est intrigué par le comportement d’une particule, le méson φ qui se désintègre très souvent en une paire de kaons. Mais la masse du φ (1,020 GeV) ne dépasse que très légèrement celle de la paire de kaons (0,498 GeV chacun), de sorte que ce mode de désintégration obéit à des contraintes cinématiques très fortes sur l’énergie et la vitesse des kaons émis. Il semble a priori possible que le φ puisse se désintégrer en une paire de particules plus légères que les kaons, par exemple un méson ρ (de masse 0,77 GeV) et un pion (masse 0,14 GeV) : un tel mode offrirait une plus grande variété de configurations finales en termes d’énergie et en vitesse, de sorte qu’il devrait avoir une plus forte probabilité de se produire. Selon Zweig lui-même : « Feynman m’avait appris qu’en physique des interactions fortes tout ce qui peut arriver arrive et avec une force maximale. Seules les lois de conservation suppriment des réactions. Or c’était une réaction permise mais qui ne se produisait pas. » Ce comportement étrange du φ conduit Zweig à postuler que les particules possèdent des constituants élémentaires : en un certain sens, le méson φ doit avoir des constituants identiques à ceux du kaon, mais pas à ceux du ρ ni du pion. Cela amènera Zweig à imaginer ses « as », qui ne sont autres que les « quarks » de Gell-Mann. Dans le langage des quarks, le méson φ a pour constituant un quark étrange - Lors de la désintégration du méson, (s) et un antiquark étrange (s). les deux constituants se séparent et chacun aboutit dans un des deux kaons finaux. Si les quarks l’ont emporté sur les as pour désigner les constituants de la matière, la contribution de Zweig n’est pas oubliée, puisqu’on invoque la règle de Zweig lorsque des désintégrations a priori possibles sont en fait interdites par la nature des quarks qui constituent les particules observées.

le pion π+ est constitué du quark u et de l’antiquark d (2/3+1/3=1), et le kaon K+ du quark u et de l’antiquark s- (2/3+1/3=1). En fait, toutes les particules « étranges » contiennent un ou plusieurs quarks s : ainsi le Λ0 est constitué de uds, tandis que le mystérieux Ω- n’est autre que… sss !

Quark ou pas quark ? Si séduisant soit-il, le modèle des quarks demande une confirmation expérimentale. Gell-Mann lui-même a du mal à croire en leur existence et sa conviction est renforcée par les échecs des premières recherches de ces particules. Là encore, l’histoire bégaie : à peine soixante ans plus tôt, on soupçonnait l’existence de constituants de la matière, les atomes, avant de pouvoir les mettre en évidence. Rutherford, Marsden et Geiger avaient prouvé que ces atomes n’avaient rien d’insécables. Par la suite on montra que leurs noyaux eux-mêmes étaient composés de protons et neutrons ; voilà maintenant qu’on s’attaquait à la structure de ces derniers ! Dans les années 50, Robert Hofstadter effectue des mesures à l’Université de Stanford sur le premier accélérateur linéaire de haute énergie du monde, atteignant quelques centaines de MeV. Il envoie des électrons accélérés sur une cible d’hydrogène gazeux et observe la manière dont ces électrons sont déviés. Grâce à ces mesures, on constate que les protons ont une taille de 0,75 × 10-13 cm environ. Ce ne sont donc pas des points matériels sans étendue... C’est un premier indice d’une structure interne, mais certainement pas une preuve suffisante (voir «La question qui tue»).

ÉLÉMENTAÍRE


La chasse aux quarks En 1967, l’accélérateur linéaire utilisé par Hofstadter a été remplacé par un instrument beaucoup plus puissant (20 GeV soit 20 000 MeV !). Jerome Friedman, Henry Kendall, Richard Taylor et leur équipe décident de s’en servir pour sonder encore plus profondément la structure des protons. Les énergies mises en jeu sont telles que les protons pris pour cible ne résistent pas au choc. Chaque collision électron-proton crée de nouvelles particules : on parle alors de diffusion inélastique par opposition aux expériences de Hofstadter (400 MeV) ou de Rutherford (7 MeV à peine !), au cours desquelles les particules restaient intactes même si leurs trajectoires étaient parfois fortement déviées par l’impact. En l’occurence, on utilise même le terme de « diffusion profondément inélastique » pour insister sur les énergies mises en jeu pour sonder en profondeur la structure du proton. Les résultats obtenus lors de diverses expériences s’étalant sur plusieurs années s’accordent très bien avec l’image d’un proton fait de trois objets ponctuels. Ceux-ci, d’abord appelés « partons » par Feynman, sont rapidement identifiés aux quarks de Gell-Mann quand on mesure leurs charges électriques. Friedman, Kendall et Taylor recevront le prix Nobel de physique en 1990 pour avoir mis en évidence les quarks dans les nucléons.

DR

Si l’existence des quarks est ainsi confirmée, il « reste » à comprendre la raison pour laquelle ils s’assemblent pour former les particules observées dans les détecteurs. C’est une autre histoire dans laquelle l’interaction forte joue un rôle central et que vous allez découvrir dans les autres rubriques de ce numéro d’Élémentaire !

ÉLÉMENTAÍRE

page 13

L’expérience de Rutherford, Marsden et Geiger Rutherford, Marsden et Geiger avaient «vu» le noyau atomique en 1909 en bombardant une feuille d’or avec des noyaux d’hélium (appelées particules α), et en constatant deux phénomènes : la plupart des noyaux d’hélium traversaient la feuille d’or sans effort, mais les autres étaient très fortement déviés. Cette expérience avait montré que la feuille d’or contient des objets quasi-ponctuels séparés les uns des autres : les noyaux atomiques.

© SLAC

Jerome Friedman, Henry Kendall et Richard Taylor.

Le site du SLAC (Stanford Linear Accelerator Center). Le long tube blanc qui traverse la photo est l’accélérateur linéaire long de 3,2 km. À l’avant plan on distingue le bâtiment contenant les détecteurs.


Interview Guido Martinelli Pourquoi avez-vous fait de la physique ?

© Martinelli

Au lycée, les matières que je préférais étaient les mathématiques, la physique et l’histoire. Je lisais beaucoup de livres de vulgarisation scientifique sur ces sujets et j’ai longtemps hésité avant de choisir ma voie. Je n’ai en revanche jamais eu de doute sur le fait que la connaissance humaine est un sujet fascinant et merveilleux, et que le métier le plus passionnant est celui de chercheur. Ce qui m’intéressait alors et m’intéresse toujours, ce sont les questions fondamentales que pose la physique : quelles sont les forces et les ultimes constituants de la matière, l’origine et l’évolution de l’Univers, la structure de l’atome et du noyau... Un argument décisif dans mon choix ? La méthode de recherche en physique - un mélange d’imagination, de rigueur et de confrontation à la réalité - qui est le plus proche de ma sensibilité. En fait, mon choix m’a porté vers la physique plutôt que vers l’histoire ou les mathématiques, parce qu’en physique la connaissance scientifique se fonde sur l’élaboration de modèles mathématiques rigoureux, ce que ne fait pas l’histoire, mais ces modèles peuvent (et doivent) être vérifiés expérimentalement, ce que ne fait pas la mathématique.

Guido Martinelli

Même s’il existe une dose de subjectivité et d’imagination en physique, la confrontation avec les données expérimentales montre que les résultats de la recherche ne dépendent pas seulement de la connaissance du sujet. On peut ainsi révéler l’existence d’une réalité qui ne se réduit pas à ce sujet mais qui peut, sinon être connue parfaitement, du moins être modélisée et maîtrisée... Voilà en quelques mots les raisons de mon choix..

Quels sont les aspects qui vous ont le plus marqué dans votre vie professionnelle ?

DR

J’ai eu la très grande chance de faire mes études universitaires, avant et après ma thèse, à l’université de Rome “La Sapienza”. Il y avait à l’époque une grande activité en physique des particules dans le groupe constitué de Guido Altarelli, Nicola Cabibbo, Luciano Maiani, Giorgio Parisi et Massimo Testa. À cette époque, il n’existait pas, en Italie, de doctorat de recherche, mais cela a été pour moi une école extraordinaire de travailler avec ces scientifiques de renommée mondiale sur des sujets de pointe tels que la QCD (la théorie de l’interaction forte), la physique des saveurs et de la violation de CP, la brisure de symétrie électrofaible, la grande unification et la supersymétrie. J’ai hérité d’eux une passion pour la phénoménologie, c’est-à-dire une activité de recherche théorique qui est toujours attentive à l’interprétation des données expérimentales disponibles, et qui envisage les phénomènes non encore observés mais mesurables dans un futur proche.

L’Université de La Sapienza, créée en 1303 par le pape Boniface VIII est la plus ancienne des universités romaines. Elle est constituée actuellement de 21 facultés et accueille 147 000 étudiants !

page 14

Avez-vous des regrets ? La physique est une discipline extrêmement vaste, qui étudie les aspects multiples de la nature, depuis les forces et les constituants fondamentaux

ÉLÉMENTAÍRE


Guido Martinelli de la matière jusqu’à la cosmologie, des structures complexes qui composent la matière minérale à la biologie. Dans l’arc d’une seule vie, il est impossible d’accumuler les connaissances suffisantes pour mener une activité de recherche profitable dans plusieurs de ces champs. Mon plus grand regret, donc, est de n’avoir pas pu approfondir quelques-unes des évolutions les plus récentes de la physique contemporaine, par exemple les systèmes complexes et la physique des protéines...

Selon vous, quels sont les faits marquants qui ont permis de comprendre l’interaction forte ? À la fin des années 60, les expériences de diffusion profondément inélastique menées au SLAC avaient montré de manière indiscutable que les protons et les neutrons n’étaient pas des objets élémentaires, mais qu’ils étaient composés de « partons ». Généralement, un objet composite se désintègre en ses composants lorsqu’il subit un choc au cours duquel il reçoit une énergie supérieure à celle qui les lie : on peut séparer les électrons du noyau au sein d’un atome, et de même éjecter des neutrons et des protons hors du noyau atomique. En revanche, on ne réussit jamais à libérer les constituants des protons et des neutrons : on dit que les partons sont « confinés » dans les hadrons. Les expériences nous indiquaient que les partons existaient et s’identifiaient aux quarks. Mais jusqu’en 1973, nous ne connaissions aucune interaction capable de les confiner au sein des protons et des neutrons. H. D. Politzer, F. Wilczek et D. J. Gross, montrèrent que la chromodynamique quantique, ou QCD, possédait des propriétés qui en faisaient la candidate la plus sérieuse au titre de théorie de l’interaction forte. Par la suite, on a pu vérifier certaines prédictions de QCD et mieux comprendre le rôle des gluons au sein de cette théorie.

Guido Martinelli est né à Naples en 1952. Il est devient docteur en sciences de l’Université de Rome en 1975 à la suite d’une thèse sous la direction de Nicola Cabibbo. Il commence sa carrière à Frascati (près de Rome), puis au CERN (Genève). En 1990 il devient professeur à Rome-La Sapienza en 1990, dont il dirige actuellement le département de physique. Pour des visites de recherche ou d’enseignement, il a séjourné dans plusieurs pays : France, Espagne, Brésil, Etats-Unis, Suisse... Il est l’auteur de plus de trois cents articles théoriques dans le domaine des interactions forte et faible et de la violation de la symétrie CP. Dans son temps libre, il aime peindre et il est un excellent chef cuisinier !

L’évidence expérimentale que la QCD est bien la théorie des interactions fortes est fondée sur la mesure d’un grand nombre de différentes quantités physiques. Très souvent, les mesures expérimentales sont tout à fait précises et peuvent être comparées aux prédictions théoriques obtenues de manière analytique. Malheureusement ces calculs théoriques souffrent de certaines incertitudes irréductibles, de l’ordre de quelques pour cent. Notre confiance dans la validité de QCD s’appuie davantage sur l’extraordinaire variété des processus dans lesquels elle s’est révélée exacte que sur la précision d’une seule mesure expérimentale, ou de quelques-unes ! À plus basse énergie, on ne sait pas comment mener à bien ces calculs analytiques, alors que des questions très intéressantes apparaissent à ces énergies : quelle est la masse des hadrons ? Quelles sont leurs propriétés et leur structure interne ? De même, si les résultats de Politzer, Wilczek et Gross ont accru notre confiance en QCD, nous n’avons toujours pas montré de manière rigoureuse que cette théorie était bien capable de confiner les partons. Puisque les calculs analytiques sont impossibles, on a utilisé des simulations numériques, appelées QCD sur réseau... avec succès ! En effet,

ÉLÉMENTAÍRE

page 15

L’interaction forte est-elle maintenant bien maîtrisée ou bien reste-t-il des aspects à élucider ?


Guido Martinelli nous avons pu prédire avec une bonne précision la valeur de nombreuses grandeurs physiques. Grâce à la QCD sur réseau, nous avons pu progresser dans notre compréhension de la dynamique des quarks. A l’heure actuelle, nous n’attendons pas de grandes nouveautés dans l’étude des processus qui engagent uniquement les interactions fortes... mais cela ne veut pas dire que tout soit terminé ! En effet, les données expérimentales ont elles aussi fait des progrès gigantesques en termes de précision, et on s’attend à voir de nouveaux phénomènes, hors du Modèle Standard au LHC ! Si nous voulons séparer dans les mesures expérimentales ce qui vient du Modèle Standard et ce qui provient de ces nouveaux phénomènes encore inconnus, il faut déterminer avec une grande précision les contributions provenant de l’interaction forte... Car les événements liées à une nouvelle physique seront plutôt rares et mélangés à une pléthore d’événements dus à l’interaction forte. Pour trouver l’aiguille qui est cachée dans cette botte de foin, il nous faut commencer par bien comprendre ce qu’il y a dans la botte de foin !

Que va apporter, selon vous, le LHC ?

QCD sur réseau Dans de nombreux cas, on ne sait pas résoudre les équations de la théorie de l’interaction forte (QCD). Pour éviter ce problème, on peut procéder à des simulations numériques en découpant l’espace et le temps en petits intervalles de longueur fixée et on résout les équations sur la grille (ou réseau). On parle alors de simulations de QCD sur réseau, pour lesquelles on utilise souvent des ordinateurs spécialement conçus pour ces calculs très lourds (voir Théorie).

Il y a de nombreuses années que la physique expérimentale n’a pas fait de découverte “inattendue”, de phénomènes qui ne sont pas déjà prévus dans les théories actuellement acceptées. Mon espoir, plutôt que ma prédiction ? Que l’on trouve au LHC quelque chose de totalement nouveau et inattendu... et pas seulement la particule de Higgs ou les particules de modèles en vogue comme la supersymétrie !

Quel est votre rêve de physicien ? Y a-t-il quelque chose qui vous comblerait ? La nature a certainement en réserve pour nous énormément de surprises. Un des aspects extraordinaires de la recherche en physique ou, si l’on veut, de la recherche en général, c’est que chaque avancée ouvre un nouvel horizon de questions dont nous ne connaissons pas les réponses. On peut tirer une intense satisfaction d’une grande découverte expérimentale ou de la confirmation d’une prédiction théorique... mais très vite, on repart à l’étude des nouveaux problèmes soulevés par sa découverte ou sa théorie !

page 16

Que souhaiteriez-vous dire aux jeunes qui débutent dans la recherche ? Le métier de chercheur est sujet à des moments d’enthousiasme comme de frustration, de progrès et de blocages, comme toutes les activités humaines. À la différence de beaucoup d’autres activités, cependant, c’est un travail extrêmement stimulant, créatif, et non répétitif. Le chercheur possède une certaine liberté dans l’objet de sa recherche, et les rapports hiérarchiques sont le plus souvent fixés par la valeur des résultats obtenus par chacun. Si un jeune possède les capacités et la volonté qu’il faut pour devenir chercheur, il ne doit pas hésiter à choisir cette voie !

ÉLÉMENTAÍRE


Centre de recherche Laboratoire National de Brookhaven (BNL) La création du Laboratoire National de Brookhaven a été décidée en 1946 par des représentants des neuf principales universités de la côte est des États-Unis : Columbia, Cornell, Harvard, Johns Hopkins, Princeton, MIT, Rochester, Pennsylvanie et Yale. À la sortie de la seconde guerre mondiale, ce nouveau laboratoire a reçu comme mission la promotion de la recherche fondamentale en physique, chimie, biologie et ingénierie scientifique. De plus, il était nécessaire de concentrer sur un site unique les différents éléments d’un complexe accélérateur de pointe, trop coûteux pour être construit par une seule université. On choisit d’implanter le nouveau laboratoire à Long Island, à une heure de route à l’est de New York. Aujourd’hui le laboratoire de Brookhaven est l’un des dix laboratoires nationaux des États Unis opérant sous la direction et avec le soutien du DOE (Departement Of Energy). Son personnel permanent compte approximativement 3000 personnes travaillant comme scientifiques, ingénieurs, techniciens ou administratifs, tandis que 4000 chercheurs extérieurs profitent chaque année de ses installations et de ses moyens techniques.

Qu’y a-t-on construit ? Très tôt le consortium des universités fondatrices a lancé sur le site de Brookhaven le dévéloppement et la construction de machines accélératrices. Le Cosmotron a été le premier accélérateur au monde qui a permis la production artificielle des particules découvertes auparavant dans les rayons cosmiques. Il a été suivi et progressivement détrôné par l’Alternating Gradient Synchrotron (AGS) qui, grâce à l’utilisation de la focalisation forte, a permis l’accélération de protons jusqu’à 33 GeV. Aujourd’hui l’AGS sert d’injecteur au RHIC (Relativistic Heavy Ion Collider), machine unique au monde pour effectuer des collisions d’ions lourds à haute énergie et étudier l’état de matière ainsi créée.

En haut : photo de Long Island, diffusée par Google Earth. En bas, un zoom sur le campus de Brookhaven. On y distingue les anneaux de RHIC faisant partie de l’ensemble des accélérateurs construit sur le site du laboratoire. Le Cosmotron, accélérateur circulaire de Brookhaven, a été le premier synchrotron mis en fonctionnement au monde.

Une moisson de résultats

ÉLÉMENTAÍRE

Une série de découvertes importantes a distingué Brookhaven dès ses débuts. La formulation de la violation de la symétrie de parité en 1957 par TsungDao Lee (Columbia) et Cheng Ning Yang (Brookhaven) a permis le couronnement de ces deux théoriciens par le Prix Nobel de physique. En 1964, Jim Cronin ( Élémentaire N°3) et Val Fitch effectuent sur AGS une expérience dont les résultats étonnants ne peuvent s’interpréter que si on admet la violation d’une autre symétrie, appelée CP (prix Nobel de physique en 1980). Toujours avec l’AGS, en 1974, Samuel Ting de MIT

page 17

CP On note CP la combinaison de deux opérations, la conjugaison de charge (C) qui transforme une particule en son anti-particule et la parité (P) qui transforme un système en son image inversée. CP est une symétrie fondamentale des forces électromagnétique et forte. Quant à la force faible, dans certains cas, elle ne suit pas les règles imposées par la transformation CP, c’est ce qu’on appelle « la violation de CP ». De même, on parle de violation de P.

Quant à la focalisation forte, elle consiste à stabiliser la trajectoire circulaire des particules des faisceaux dans les deux directions, horizontale et verticale (voir «Accélérateurs» du N° 3). Injecteur : il s’agit d’un accélérateur qui fournit des faisceaux de particules à un autre accélérateur. Ceci permet d’atteindre des énergies finales élevées, en accélérant les faisceaux progressivement dans plusieurs machines successives. Dans cette chaîne, un accélérateur sert d’injecteur au suivant, jusqu’à la machine finale où les faisceaux atteignent l’énergie nominale et où on provoque des collisions afin d’effectuer les études programmées.


Laboratoire National de Brookhaven (BNL) découvre en même temps que Burton Richter à SLAC, la particule J/ Ψ, qui prouvait l’existence d’un 4ème quark, appelé le charme en plus des u, d et s déjà connus (prix Nobel 1976). Le même AGS avait permis la découverte du neutrino muonique en 1962 et offert à ses acteurs principaux Leon Lederman, Melvin Schwartz et Jack Steinberger (tous de Columbia) le prix Nobel 1988. Finalement en 2002, Raymond Davis, chimiste de BNL, reçoit le prix Nobel pour son travail expérimental sur la détection des neutrinos solaires. Une pléthore d’autres résultats a accompagné l’histoire du centre depuis son ouverture, dus à l’avant-garde de ses machines et à l’esprit imaginatif des scientifiques qu’il a su attirer.

T. D. Lee et C. N. Yang

© Nobelprize

La découverte du J/Ψ : Le J/Ψ est un méson composé d’un quark charmé et de son anti-quark, ayant une masse de 3 GeV. Son double nom est dû à ses deux pères, Samuel Ting et Burton Richter qui l’ont découvert en parallèle dans deux expériences différentes, l’une basée à BNL et l’autre à SLAC. Les deux groupes ont annoncé ce résultat simultanément le 11 novembre 1974. Samuel Ting, porte-parole de l’expérience de Brookhaven, lui a donné le nom de J (le nom Ting s’écrit J en chinois) tandis que Burton Richter, responsable de l’expérience de SLAC, l’a baptisé Ψ. Ainsi, cette particule est connue depuis sous le nom de J/Ψ.

J. Cronin et V. Fitch

Un centre pluridisciplinaire Le centre de Brookhaven n’est pas seulement consacré aux sciences physiques mais aussi à la chimie, à la biologie et aux technologies de pointe. Il a été conçu comme un centre de recherche scientifique pluridisciplinaire. Les équipes de chercheurs travaillent sur les supraconducteurs à haute température, les nouvelles nanostructures, la chimie, les neurosciences, l’imagerie médicale, la biologie moléculaire et la relation du climat avec l’environnement. Dans tous ces sujets la recherche effectuée est de premier plan, comme le démontre le prix Nobel de chimie 2003 attribué à Roderick MacKinnon, chercheur associé au laboratoire. Sur le site de Brookhaven on trouve plusieurs structures accélératrices servant à toutes ces recherches : © Nobelprize

S. Ting

R. Davis

page 18

L. Lederman, M. Swartz et J. Steinberger

• le National Synchrotron Light Source, dont la lumière synchrotron est utilisée pour étudier la structure moléculaire de la matière ; • le EBIS (Electron Beam Ion Source) que la NASA exploite pour évaluer les effets du rayonnement solaire sur les matériaux et des tissus biologiques dans un environnement proche de celui qu’on rencontre dans l’espace ; • un scanner à résonance magnétique nucléaire d’un champ très élevé de 4 Teslas qui est testé pour l’imagerie médicale ; • un tomographe à émission de positrons (PET) à l’aide duquel on expérimente de nouveaux traceurs radioactifs pour étudier l’activité cérébrale. Finalement, fidèle à son histoire de centre pionnier en technologie d’accélérateurs, BNL possède un centre de recherche (Accelerator Test Facility) consacré au développement de méthodes nouvelles d’accélération des particules.

ÉLÉMENTAÍRE


Laboratoire National de Brookhaven (BNL) RHIC Le collisionneur d’ions lourds relativistes (RHIC) constitue la pièce finale de l’ensemble des accélérateurs dédiés à la physique des hautes énergies. Il a été mis en fonctionnement en 2000 après 10 années de développement et de construction. A l’intérieur de chacun de ses deux anneaux circule un faisceau d’ions d’or. En six endroits répartis sur leur circonférence ces faisceaux peuvent être légèrement déviés pour pouvoir entrer en collision. Quatre sont occupés actuellement par les expériences STAR, PHENIX, PHOBOS et BRAHMS. STAR : Solenoidal Tracker At RHIC, est un détecteur massif spécialisé dans la détection de traces dans des environnements très complexes. PHENIX : Pioneering High Energy Nuclear Interaction eXperiment est conçu pour identifier plusieurs types de particules produites lors des collisions d’ions lourds, telles que photons, électrons, muons et hadrons. BRAHMS : Broad Range Hadron Magnetic Spectrometer est le plus petit des quatre détecteurs opérant sur RHIC. Il est destiné à la mesure des hadrons émergeant selon certains angles particuliers autour des collisions. PHOBOS : mesure des propriétés générales des collisions en étudiant des fragments de noyaux éjectés hors de la région chaude. Le nom du détecteur n’est pas un acronyme mais juste une allusion au satellite de Mars. STAR et PHENIX sont les deux détecteurs principaux cherchant à identifier les caractéristiques de l’état créé lors des collisions entre ions lourds

Sections droites des deux anneaux de RHIC dans une partie du tunnel.

Quelques chiffres Les deux anneaux concentriques de RHIC sont composés de 1740 aimants supraconducteurs refroidis par de l’hélium liquide à 4,5 K (-269°C). Ce système de refroidissement (appelé système cryogénique) nécessite une puissance électrique de 15 mégawatts. Ces aimants sont alimentés par 1000 kilomètres de fil en niobium-titane supraconducteur. En ce qui concerne les ions accélérés, en 20 ans de fonctionnement, RHIC n’utilisera pas plus de 1 gramme d’or !!

Suivons les ions d’or depuis leur production jusqu’à leurs collisions fatales (voir schéma du complexe de RHIC). Ils commencent leur vie en tant qu’atomes d’or qui traversent une fine couche de matière qui les épluche de certains de leurs électrons. Ils entrent alors dans l’accélérateur Tandem Van de Graaff où ils subissent des accélérations successives durant lesquelles ils perdent tous leurs électrons restants. Ces ions sont alors dirigés successivement vers une série de machines (le Booster, puis le Booster synchrotron et finalement l’AGS) qui leur permet d’augmenter progressivement leur vitesse jusqu’à atteindre 99,7% de celle de la lumière. À ce moment, ils peuvent alors suivre la ligne de transfert ATR qui les emmène dans les anneaux de RHIC. Ils y entrent par paquets et sont dirigés par des aimants vers l’un des deux anneaux. Ils y seront accélérés encore, avant d’entrer en collision. À un instant donné, 57 paquets, contenant chacun un milliard d’ions, circulent dans chaque anneau.

Emplacement des quatre expériences sur les anneaux de RHIC.

Que cherche-t-on à RHIC ?

ÉLÉMENTAÍRE

page 19

Le programme phare de Brookhaven est actuellement celui entrepris à RHIC. On y étudie les particules produites lors de collisions entre noyaux lourds à très haute énergie dans le but de caractériser la matière produite au moment du choc. Complexe accélérateur de BNL.


Laboratoire National de Brookhaven (BNL) Plasma : Il s’agit du quatrième état de la matière, en plus des états solide, liquide et gazeux. À de très hautes températures (quelques millions de degrés) les constituants de l’atome se séparent, noyaux et électrons se déplacent indépendamment et forment un mélange globalement neutre. On parle alors de plasma électromagnétique. Cet état existe dans le soleil et, plus près de nous, dans les arcs électriques et la foudre. Par analogie, on appelle plasma de quarks et de gluons l’état de la matière dans lequel les quarks et les gluons ne sont plus confinés à l’intérieur des hadrons.

Sur cette figure on a représenté les deux ions se déplaçant suivant l’axe des faisceaux, l’un arrivant de gauche et l’autre de droite. Ils ressemblent à des assiettes plates à cause des effets relativistes qui contractent les longueurs. La seconde figure décrit leur collision. Sur la troisième, un milieu chaud se développe à partir des nucléons qui ont fortement interagi tandis que les autres s’éloignent (en violet). Finalement l’ensemble se détend en se refroidissant, ce qui va permettre la création de hadrons identifiables par les détecteurs.

Quand deux noyaux s’écrasent violemment l’un contre l’autre, les nucléons qui les composent subissent des collisions multiples très énergétiques qui donnent lieu à la production de nombreux quarks et gluons. Dans une collision entre deux nucléons isolés, les quarks et gluons ainsi produits ne peuvent rester tels quels bien longtemps : ils s’éloignent les uns des autres et forment rapidement des hadrons (voir « Théorie »). Mais dans une collision entre deux noyaux, les nombreux quarks et gluons produits subissent à leur tour des collisions secondaires très fréquentes, qui les empêchent de former des hadrons. Ce système dense et très énergétique subsiste ainsi tel un mélange amorphe à haute température s’étendant sur un « grand » volume dans la région où la collision initiale a eu lieu. Puis ce mélange se détend en se refroidissant jusqu’à ce que la densité de quarks et de gluons soit suffisamment faible pour permettre la formation de hadrons, qui seront finalement mesurés par les détecteurs. Cette « soupe nucléaire » forme un nouvel état de la matière qu’on appelle plasma de quarks et de gluons, et dont l’existence est prédite par la théorie des interactions fortes, QCD. On pense que notre Univers a été dans cet état de plasma avant la formation des premiers hadrons, quelques microsecondes après le Big Bang.

Écrantage de l’interaction En présence d’une forte densité de quarks et de gluons, comme c’est le cas dans un plasma, on s’attend à ce que l’interaction forte entre quarks soit modifiée. En effet, dans ce milieu dense, le gluon qui la véhicule ne peut se propager librement sur des grandes distances car il subit inévitablement des collisions avec les autres quarks et gluons du milieu. Ce phénomène d’écrantage existe aussi pour le cas de l’interaction électromagnétique dans un plasma de particules chargées.

page 20

Suppression du J/Ψ : Parmi les conséquences prévues de la formation d’un plasma de quarks et de gluons, on s’attend à une forte diminution des J/ Ψ produits – état lié entre un quark charmé et son antiparticule – comparé au nombre attendu en multipliant le nombre de J/ Ψ produits dans une collision nucléonnucléon par le nombre estimé de telles collisions lors d’un choc entre deux noyaux. En effet, s’il y a formation d’un plasma, la forte densité locale de quarks et de gluons modifie l’interaction entre un quark charmé et son antiparticule : celleci devient effectivement une interaction à courte portée. On parle d’écrantage de l’interaction forte. Ce phénomène rend la formation d’une paire liée c-c- moins probable qu’en l’absence de plasma. C’est pourquoi on s’attend à ce que certains J/Ψ manquent à l’appel.

La difficulté majeure de la mise en évidence expérimentale de ce plasma est similaire à celle que les physiciens ont dû surmonter dans les années 70 pour démontrer l’existence des quarks et des gluons en tant que constituants des hadrons : on n’observe pas directement le plasma de quarks et de gluons, mais plutôt les hadrons et autres particules auxquels il laisse place après la collision. Autrement dit, on arrive après la bataille et il faut être capable de reconstituer le déroulement de celle-ci à partir de l’observation minutieuse des débris encore fumants laissés sur le champ d’honneur. Une seconde difficulté, celle-ci propre au cas de collisions entre noyaux, est qu’il faut savoir discerner les effets simplement dus à la présence d’un grand nombre de nucléons dans la collision de ceux qui sont directement liés à la formation d’un nouvel état de la matière.

ÉLÉMENTAÍRE


Laboratoire National de Brookhaven (BNL) Les théoriciens ont imaginé de nombreux phénomènes susceptibles de signaler la formation du plasma, comme par exemple, la suppression du J/Ψ. Cependant, ces « signatures » sont souvent noyées parmi les milliers de particules qui sont produites dans ce type de collision et il est extrêmement difficile d’extraire un signal dont l’origine serait clairement attribuable à la formation d’un éventuel plasma. A-t-on observé des signaux de création d’un plasma dans les collisions au RHIC ? S’il semble acquis qu’un nouvel état de la matière a bien été produit, ce qui vient confirmer les résultats d’expériences similaires à plus basse énergie réalisées auparavant au CERN, les physiciens restent prudents. Seul un recoupement minutieux entre les différentes observations réalisées permettra de caractériser toutes les étapes de la collision. Ainsi RHIC continuera sa collecte de signaux expérimentaux jusqu’en 2009. Puis cette quête se poursuivra, à plus haute énergie, au CERN, où on espère que le LHC offrira les conditions nécessaires à la mesure des propriétés du plasma de quarks et de gluons. Les ions lourds et le CERN La recherche en physique d’ions lourds n’est pas toute récente. Depuis les années 1980 au CERN, un programme de collisions d’ions lourds a eu lieu et s’est terminé à l’aube du XXIe siècle. Des faisceaux d’ions de plomb étaient envoyés sur des cibles fixes, provoquant des collisions mettant en jeu des énergies de 5-6 GeV par nucléon, bien inférieures à celles atteintes au RHIC (100 GeV par nucléon). Ces résultats étaient comparés à ceux obtenus lors des collisions proton-noyau de même énergie. Ainsi toute déviation causée par la grande densité de matière en condition ion-noyau, pouvait être identifiée. Des différences ont été effectivement observées. En 2000, à la fin de ce programme, les scientifiques ont conclu que l’ensemble des signaux étudiés était incompatible avec de simples interactions nucléaires. Ils supposaient la création d’un nouvel état de la matière et ont passé le flambeau de la physique des ions lourds à RHIC aux Etats-Unis. En Europe, auprès du LHC, un programme spécifique aux ions lourds est prévu et sera étudié par l’expérience ALICE (A Large Ion Collider Experiment, voir rubrique «LHC»).

ÉLÉMENTAÍRE

page 21

© BNL

Un événement mesuré dans l’expérience Phenix. Les ions arrivent suivant la diagonale haut gauche-bas droite. On voit les traces des particules créées lors de leur passage dans les différents détecteurs.


Expérience Disséquer un proton Procurez-vous des protons de bonne qualité. Pour les petits budgets, un morceau de matière fera l’affaire. Cependant, afin d’éviter des effets parasites venant des liaisons entre nucléons au sein des noyaux atomiques, il est préférable d’utiliser une cible d’hydrogène, élément dont le noyau est simplement un proton. Reste à trouver un scalpel approprié. Le proton, comme nous le verrons, est un objet composite dont les constituants (quarks et gluons) interagissent par l’interaction forte ; comment se faufiler à l’intérieur de ce magma pour en étudier la structure ? Une sonde insensible à l’interaction forte est recommandée puisqu’elle va passer inaperçue pour les gluons. Notre scalpel pourra donc être le médiateur de l’interaction électromagnétique (le photon) ou bien ceux de l’interaction faible (les bosons W± et Z). Dans le premier cas on utilise des faisceaux d’électrons ou bien de muons qui interagissent avec le proton cible en échangeant des photons. Dans le second, des faisceaux de neutrinos sont mis en œuvre et l’interaction se fait par échange des particules W ou Z. Électrons, muons et neutrinos ont été utilisés pour établir des « cartes » du contenu du proton.

Nucléons Ce terme désigne les constituants du noyau atomique que sont les protons et les neutrons. + + e,- µ-

+ + e,- µ-

e,- µ-

νe, µ

+

W

γ p

p

+ +

(

e, µ

)

νe, µ

νe, µ

-

W

Z p

0

p

© B. Mazoyer

( )

νe, µ

unités arbitraires

Pour sonder l’intérieur d’un proton, on peut utiliser différents instruments, c’est-à-dire différentes particules «sonde» comme indiqué ci-dessus. Selon l’outil employé, l’interaction en jeu est différente, ce qui permet d’obtenir des informations complémentaires sur la structure du proton. Par exemple des particules chargées (e ± , μ± , etc.) sondent sa structure électromagnétique (échange d’un photon), tandis que les neutrinos interagissent avec ses constituants par interaction faible (échange de bosons W ± ou Z 0).

À rebond sur un proton... Nous allons parler principalement des électrons car ils ont été à l’origine de la découverte des quarks et parce qu’actuellement plusieurs grandes expériences les utilisent pour étudier le proton. L’expérience qui se déroula à SLAC (Stanford, États-Unis) en 1967 (voir aussi « Accélérateur ») obtint un résultat totalement inattendu. Mais avant de la présenter voyons comment elle a été conçue.

-29

10

diffusion par une charge ponctuelle en incluant les effets magnétiques

10-30

diffusion par une charge ponctuelle © B. Mazoyer

10 -31

expérience

10

30

70

110

150

angle de diffusion (degrés) page 22

-32

Son but initial était d’étudier la distribution de la charge électrique dans le proton afin de détecter une éventuelle structure de ce dernier. Cette expérience poursuivait des recherches commencées à Stanford dans les années 50 et qui avaient montré que le proton et le neutron n’étaient pas des objets ponctuels, c’est-à-dire qu’ils avaient un rayon mesurable. Pour cela on observait des électrons diffusés par des protons, ces derniers restant intacts après le choc. On parle de collisions élastiques. En utilisant les lois de conservation de l’énergie et de l’impulsion, avant et après la collision, on peut séparer ce type de processus de ceux où le proton a été brisé et qu’on appelle inélastiques. À partir de la mesure de la direction de l’électron diffusé on peut remonter à la distance d’approche minimale entre l’électron et la charge qui l’a dévié. Plus l’électron incident est déplacé après la collision, plus il s’est approché du proton. On peut ainsi étudier comment varient différents phénomènes en fonction de cette distance. En comparant les mesures avec ce que l’on attendrait d’une diffusion par une charge ponctuelle on peut en déduire la taille du proton et Variation du nombre d’électrons diffusés en fonction de l’angle de diffusion. Les mesures sont inférieures à ce que l’on attend en supposant que le proton est ponctuel (courbe jaune en trait plein). Les valeurs sont cependant supérieures à celles prévues pour un objet ponctuel dont on aurait négligé la contribution magnétique (courbe rouge en tirets).

ÉLÉMENTAÍRE


Disséquer un proton Distance d’approche Les expériences de diffusion reposent sur le même principe que celui utilisé par e Rutherford pour montrer la présence d’un noyau, de très petite taille, au cœur des atomes θ b d (Elémentaire N°1). Faisons un raisonnement de physique classique en considérant une p particule chargée qui arrive sur une autre particule, également chargée, et très massive. La force entre les deux particules augmente comme l’inverse du carré de leur distance. Plus les deux particules sont proches et plus le projectile sera dévié de sa trajectoire einitiale. On peut relier l’angle de déviation (θ), supposé petit, au paramètre d’impact (b) et à son énergie (E): 1/b~E θ/2. Pour tenir compte des effets relativistes et du mouvement de la cible, on définit une quantité, Q2, qui aura toujours la même valeur quel que soit le référentiel utilisé pour réaliser l’expérience. Dans le cas d’un faisceau interagissant avec une cible on a Q2~E E’ θ2 où E’ est l’énergie du projectile après le choc. Lorsque E et E’ ont des valeurs similaires, le paramètre d’impact (b) est inversement proportionnel à Q. Expérimentalement on connaît E (l’énergie du faisceau incident) et l’on mesure E’ et θ qui sont l’énergie et la direction de la particule après diffusion. Si le projectile et la cible sont ponctuels alors on sait prédire exactement la distribution des particules diffusées en fonction de l’angle θ. Cette distribution ne dépend que du fait que les particules du faisceau arrivent de manière uniforme autour de la cible et que les deux charges sont soumises à la force électrique. On trouve alors que la distribution angulaire décroît très vite en fonction de θ (elle varie en 1/ θ4). Envoyons maintenant un projectile ponctuel sur une cible qui ne l’est pas. Lorsque le projectile y pénètre, il ne « verra » plus la même distribution de charge électrique. Pour détecter une structure, on va donc rechercher des déviations par rapport à la loi attendue dans le cas d’objets ponctuels. Ces déviations doivent apparaître pour des valeurs grandes de θ (lorsque l’on passe au plus près de la cible et que l’on y pénètre). Par exemple, une valeur de Q=0,2 GeV correspond à un paramètre d’impact b de 1 fermi (= 10 -15 m), ce paramètre d’impact étant très proche de la distance minimale (d) à laquelle le projectile s’est approchée de la cible.

la manière dont la charge y est répartie. Ces analyses sont compliquées par le fait que le proton interagit avec l’électron non seulement électriquement mais aussi magnétiquement. L’approche reste cependant la même : on recherche des déviations par rapport au comportement attendu de la part d’un objet ponctuel. Les premières mesures, obtenues en 1953 avec des électrons de 225 MeV, montrèrent à la fois la présence des interactions magnétiques et le fait qu’elles s’écartaient de l’hypothèse d’un objet ponctuel. En 1955, l’énergie de l’accélérateur avait été doublée et les mesures confirmaient que la taille du proton était voisine de 0,8 fermi. D’autres études 1.0 furent entreprises sur le deutérium. C’est le noyau le plus simple qui permet l’étude du neutron, puisqu’il est formé d’un proton et d’un neutron. Ces expériences étaient sensibles non seulement à la structure de ce dernier 0.5 mais aussi au mouvement des nucléons (protons et neutrons) au sein du 2 noyau. Devant le succès de ces études, d’autres accélérateurs à électrons, F d’énergie plus élevée, furent mis en construction à Cambridge (Massachusetts, USA), DESY (Allemagne) ou Orsay, pouvant atteindre des énergies de 0.2 1 à 6 GeV.

À Stanford un projet plus ambitieux allant jusqu’à 20 GeV fut aussi lancé au début des années 60 et donna naissance au SLAC (Stanford Linear Accelerator Center). Pendant sa construction, de nouveaux résultats furent obtenus. Ainsi, en 1965, on avait séparé les contributions électrique et magnétique dans la diffusion des électrons par des neutrons et des protons : on avait construit une image de la distribution des charges électriques à l’intérieur de ces particules. On trouva notamment que la distribution de charge dans le proton décroît de manière exponentielle en fonction de la distance au centre.

ÉLÉMENTAÍRE

0.1

page 23

La naissance de SLAC

ree= r0,80 fermix 10 -13cm m= 0.80

200 MeV 300 MeV 400 MeV 500 MeV 550 MeV

0

4

8

Q 2 (fermi)-2

12

Figure : On obtient les mêmes résultats sur la taille du proton en utilisant des faisceaux d’énergies différentes, si on les exprime en fonction de la variable Q2. Les mesures sont bien reproduites par la courbe obtenue en supposant que la densité de charge électrique du proton décroît à partir de son centre en suivant une loi exponentielle.

© B. Mazoyer

La taille du proton Le proton ne peut pas être représenté comme une boule de rayon fixé. La diffusion des électrons montre que sa densité de charge électrique décroît exponentiellement avec la distance au centre. La rapidité de cette décroissance permet d’estimer la taille du proton.


Disséquer un proton Cylindre contenant la cible et son système de refroidissement

Le premier but de l’expérience de SLAC était de sonder le proton à des distances encore plus faibles afin de lui découvrir une éventuelle structure. Elle démarra en 1967 et, dès le mois d’août, les physiciens avaient constaté, avec une certaine déception, qu’il n’en était rien et que le comportement établi précédemment s’extrapolait naturellement jusqu’à Q2=25 GeV2. « La pêche n’avait pas de noyau » fut la conclusion ; une phrase digne des communiqués de radio Londres.

Spectromètres

Arrivée du faisceau Rails

© SLAC

Les physiciens se tournèrent alors vers les collisions inélastiques, plus complexes à analyser, dans lesquelles le proton « explose » et produit d’autres particules. Dans les collisions élastiques, la mesure de la direction de l’électron diffusé (ou de son énergie) est suffisante pour connaître l’énergie et la direction du proton après le choc. Ces réactions dépendent ainsi d’un seul paramètre (Q2). Par contre, lors des collisions inélastiques, on peut produire un nombre variable de particules à chaque collision et ces réactions dépendent de deux paramètres. Couramment on utilise Q2 et x. Nous avons vu que la première de ces quantités pouvait être reliée à la distance à laquelle on sonde la matière. La seconde définit la fraction d’énergie réellement utilisée dans la collision et s’illustre à l’aide du modèle des partons conçu par le théoricien américain, R.P. Feynman, à la même époque.

Le hall expérimental de l’expérience de SLAC. Le faisceau d’électrons arrive dans le tube à gauche ; il interagit avec les protons d’une cible contenant de l’hydrogène liquide, située au niveau des blocs de béton. Les électrons diffusés sont mesurés dans des spectromètres dont les éléments peuvent être déplacés sur rails afin de pouvoir couvrir la totalité des angles d’émission.

Dans ce modèle, lors d’une collision électron-proton, l’interaction se fait entre l’électron et un parton. Celui-ci emporte une fraction x de l’énergie totale du proton. Lors de l’interaction entre ces objets ponctuels, l’énergie communiquée au parton est utilisée en partie pour former d’autres particules. Au moment de l’interaction entre l’électron et le parton, Feynman suppose que l’on peut négliger l’interaction de ce dernier avec les autres constituants présents dans le proton qui ont donc un rôle de spectateurs. L’énergie réellement disponible pour le processus de collision entre l’électron et le parton est ainsi égale à la fraction x de l’énergie totale du système électron-proton. Expérimentalement on mesure l’énergie et la direction de l’électron diffusé et l’on connaît l’énergie du faisceau incident. À partir de ces valeurs on peut calculer x et Q2.

Modèle des partons Il consiste à supposer qu’une collision entre un électron et un proton à haute énergie peut être évaluée en faisant la somme de toutes les collisions possibles entre l’électron et l’un des constituants du proton, appelés « partons ». Ces partons ponctuels transportent chacun une fraction de l’énergie du proton. Dans cette approche on néglige l’interaction entre partons ainsi que leur masse et leur mouvement transverse par rapport au faisceau.

Les résultats de SLAC, obtenus pour des collisions où on produit de nombreuses particules (elles sont qualifiées de « très inélastiques ») ont une variation en fonction de Q2 qui s’écarte peu de la décroissance triviale attendue pour une collision sur un objet ponctuel. Ce résultat était inattendu de la part des expérimentateurs puisque les meilleures prédictions qui avaient été effectuées au moment de la conception de l’expérience, se révélaient fausses par des facteurs allant de 10 à 100. On trouva aussi qu’il était possible d’exprimer les mesures en termes de fonctions qui ne dépenpage 24

Calculer x et Q2 À partir de la mesure de l’énergie (E’) de l’électron après sa diffusion d’un angle θ par rapport à celle du faisceau incident d’énergie E, on peut calculer : Q2 = 4 E E’sin2(θ/2) et x =Q2 /[2M (E-E’)] où M est la masse du proton.

ÉLÉMENTAÍRE


Disséquer un proton J.D. Bjorken est un théoricien américain spécialiste de la théorie des champs et de la physique des particules. Avec S. Drell il est aussi l’auteur d’un ouvrage de référence dans ce domaine.

Au début des années 1970 il était ainsi établi que le proton était un objet composite contenant des partons ponctuels. Ces partons furent finalement identifiés aux quarks proposés, pour d’autres raisons, par M. Gell-Man et S. Zweig. De nombreuses expériences utilisant des faisceaux d’électrons (et de muons) d’énergie bien supérieure à celle disponible à SLAC ont eu lieu dans les principaux centres de recherche aux USA et en Europe. Elles ont permis d’obtenir des mesures de précision sur la distribution des quarks dans le proton. Il a été également possible de mesurer et d’interpréter le fait que ces distributions ne soient pas rigoureusement constantes en fonction de Q2. Ceci a notamment permis d’établir la validité de la théorie qui explique l’interaction forte entre nucléons comme résultant d’une interaction élémentaire entre quarks et gluons: la chromodynamique quantique (voir Théorie). On a également pu mesurer la distribution des gluons dans le proton et observer que ces derniers transportaient environ la moitié de son impulsion. Les collisions, réalisées à DESY (Hambourg) entre des électrons de 27,5 GeV et des protons de 920 GeV, ont permis d’étendre notre connaissance de la structure du proton vers les très faibles valeurs de x et les très grandes valeurs de Q2 (10 000 GeV2 soit 1/1000 de la taille du proton). À ces énergies la collision entre électron et quark devient spectaculaire car le quark éjecté se matérialise sous la forme d’un jet de particules dont la direction est alignée avec celle du quark.

(1-x)p p

xp

e(E)

q

e(E')

Représentation schématique de l’interaction très inélastique entre un électron et un proton. Elle a lieu par l’échange d’un photon entre l’électron et un quark qui emporte la fraction x de l’énergie du proton. L’énergie et la direction du quark sont alors modifiées. Ce dernier interagit ensuite, par interaction forte, avec les autres constituants du proton pour donner un ensemble de particules détectables dans les appareillages.

page 25

Dans les collisions électron-quark, le taux des événements produits est proportionnel au carré de la charge électrique du quark. En étudiant comment varie ce taux pour des neutrons

ÉLÉMENTAÍRE

interaction entre le quark éjecté et les autres constituants du proton

HADRONS

Elles décrivent la probabilité qu’un quark emporte la fraction x de l’énergieimpulsion du proton. Actuellement on ne sait pas les calculer ; les mesurer est donc indispensable.

Un résumé des mesures sur la structure du proton obtenues par les expériences H1 et ZEUS opérant sur le collisionneur HERA, à Hambourg, ainsi que par des expériences précédentes du CERN (NMC, BCDMS) et de Fermilab (E665) enregistrant des collisions muonproton. Chaque ligne correspond à une valeur fixe de la variable x. Chaque courbe a été décalée verticalement d’une quantité constante pour qu’on la distingue de celles obtenues pour d’autres valeurs de x. On s’attend à une ligne horizontale si la collision a lieu entre objets ponctuels, ce qui a lieu lorsque x>0,1. On note aussi des déviations aux faibles valeurs de Q2 et de x que l’on sait interpréter à partir de la théorie actuelle de l’interaction forte.

© B. Mazoyer

À la pêche aux quarks

©

daient que de la valeur de x. À x fixé tout se passait comme si la collision avait lieu sur un objet ponctuel. Ce dernier comportement avait cependant été anticipé par J. D. Bjorken dès 1967. Distributions des quarks


Observation d’une collision électron-proton par le détecteur H1 opérant sur le collisionneur HERA. Une coupe transversale de l’appareillage contenant l’axe des faisceaux a été représentée. Les rectangles bleus symbolisent des détecteurs de particules chargées dont les trajectoires mesurées sont les lignes rouges. La zone verte correspond au calorimètre électromagnétique. On voit que l’électron diffusé par un quark du proton y développe une gerbe de particules et s’y arrête. La zone orange est le calorimètre hadronique. Les autres particules chargées traversent le calorimètre électromagnétique, y interagissent parfois, puis sont absorbées dans le calorimètre suivant, indiquant qu’il s’agit de hadrons. Ces particules sont émises suivant des directions voisines et matérialisent la direction du quark éjecté. Dans la direction du proton incident on note également la présence de traces et de dépôts d’énergie qui correspondent aux « restes » du proton après l’éjection du quark. 2

2

1

g(x 10 )

.6

u

.4

d

.2 0 .001

c .01

s

u

x

Distributions des quarks, antiquarks et gluons dans un proton à Q2=20 GeV2 dont la valeur a été multipliée par x. On remarque que les quarks de valence u et d (en orange) emportent une grande partie de l’impulsion du proton. On note aussi la présence d’antiquarks ubar et d-bar qui correspondent à des partons, dits de la mer, venant de paires quark-antiquark créées et réabsorbées en permanence au sein du nucléon et avec lesquels la sonde a interagi. Par ce même mécanisme on peut aussi trouver des quarks étranges et charmés dans le proton. Les quarks de la mer (en bleu) ont des distributions concentrées à faibles valeurs de x, de même que celle des gluons (en vert).

d 1

.1

Héhé, épais ou pépé ?

Nous venons de voir que les collisions « dures », c’est-à-dire celles se faisant à courte distance (Q2>1 GeV2) peuvent ainsi être représentées par des interactions entre constituants élémentaires ponctuels.

page 26

© B. Mazoyer

xq (x, Q 2 )

.8

Le détecteur H1

et des protons en fonction de x on a pu aussi établir que les charges électriques des quarks u et d étaient respectivement égales à +2/3 et -1/3 de celle du proton. À partir de telles mesures ainsi que de celles obtenues avec des faisceaux de neutrinos on a pu extraire les distributions des quarks et des gluons dans le proton pour une valeur donnée de Q2. La théorie de l’interaction forte, QCD, permet alors de calculer ces distributions pour d’autres valeurs de Q2. Comme les gluons se couplent aux paires quark-antiquark on « trouve » également des antiquarks dans le proton, ayant toutes les saveurs possibles. On distingue ainsi trois types de constituants dans le proton : les deux quarks u et le quark d sont appelés quarks de valence ou quarks constituants ; les quarks de « la mer » issus de gluons créant et réabsorbant sans cesse des paires quark-antiquark et enfin les gluons.

1 Q = 20 GeV

© DESY

Disséquer un proton

Les collisionneurs électron proton (ep), présentés plus haut, fournissent l’exemple le plus pur de telles collisions. Mais ce ne sont pas les seuls. À partir d’un électron et d’un positron (ee) on peut directement produire un système quark-antiquark. Toute l’énergie de la machine est disponible dans cette interaction. Dans l’événement (visible page suivante) enregistré par la collaboration ALEPH qui a fonctionné sur le LEP au CERN jusqu’en 2000, on constate que les particules ne sont pas émises dans tout l’espace de manière uniforme mais s’alignent suivant deux directions opposées qui matérialisent celles du quark et de l’antiquark créés lors de la collision. Dans les années 70, déjà, en analysant les directions selon lesquelles sont émis le quark et l’antiquark, on a pu confirmer les autres indications expérimentales qui indiquaient que ces constituants avaient un spin ½.

ÉLÉMENTAÍRE


© CERN

Disséquer un proton Observation d’une collision entre un électron et un positron par le détecteur ALEPH (CERN). Les deux faisceaux du LEP sont perpendiculaires au plan de la page, et leurs électrons et positrons ont chacun une énergie voisine de 45 GeV. Les points jaunes correspondent à des positions mesurées sur des trajectoires de particules chargées. Les « tours » jaunes représentent l’énergie déposée par les particules dans les calorimètres (situés au niveau des cercles rouges). À partir de ces informations il est possible de déterminer les propriétés du quark et de l’antiquark qui ont donné naissance à ces particules.

L’interaction entre deux protons (pp) au LHC peut de la même manière être représentée par celle entre deux de leurs constituants emportant chacun des fractions variables de l’énergie des deux faisceaux. Les processus mis en jeu seront divers, à la fois par les énergies qui seront disponibles pour les réactions élémentaires et par les types de constituants entrant en collision (qq, qg, qq, gg, ...). Ceci présente un avantage pour la recherche de phénomènes nouveaux puisqu’une grande variété de possibilités est ouverte où ils peuvent apparaître. Il y a cependant l’inconvénient que l’énergie réellement utilisée dans les collisions entre constituants élémentaires est inférieure à celle fournie par la machine. Ceci est compensé au LHC par des faisceaux très intenses.

ÉLÉMENTAÍRE

page 27

Le proton est bel et bien un objet complexe. Certes on connaît bien sa structure, qui se manifeste dans les collisions « dures ». On aimerait cependant pouvoir la calculer directement à partir de la théorie de l’interaction forte (QCD). Ces études, qui nécessitent des moyens de calcul gigantesques, ont démarré ces dernières années. De plus, on ne sait pas encore bien relier les caractéristiques du proton visibles lors de collisions « dures » et celles qu’il montre à plus basse énergie et en présence de ses congénères dans les noyaux atomiques. On ne sait pas non plus expliquer le spin du proton à partir de celui de ses constituants et de leur mouvement orbital relatif. On a également observé récemment que la distribution des charges électrique et magnétique dans le proton ne coïncidaient pas, contrairement à ce qui avait été trouvé dans des expériences précédentes. Le Thomas Jefferson Laboratory ou TJLab, situé à Newport News en Virginie (USA) qui a entamé de nouvelles expériences pour étudier la structure en quarks et en gluons des noyaux atomiques, devrait élucider ces derniers mystères. Il utilise pour cela des collisions entre des électrons de 6 GeV et des protons. Les expériences qui y ont démarré en 1994 permettent progressivement d’éclaircir les mystères qui entourent encore l’une des particules les plus communes de la matière et qui a existé depuis (presque) le début des temps.

© KEK

Explorer le « protonland » : toujours un sujet d’avenir.

Le site du TJLab.


Détection L’identification des particules chargéess Détecter c’est bien, identifier c’est mieux ! En effet, l’identification des produits de désintégration permet de remonter aux particules initiales, afin de comprendre les phénomènes qui ont lieu au moment de la collision. Partant de cette idée, les physiciens construisent des instruments capables, non seulement d’enregistrer le passage des particules, mais également de fournir des informations sur leur nature. Dans cet article, nous allons présenter trois méthodes couramment utilisées pour y arriver dans le cas de particules chargées. En général, un détecteur combine au moins deux d’entre elles afin d’être performant sur une gamme d’impulsion la plus large possible.

Impulsion La relation liant l’impulsion p d’une particule, sa masse m et sa vitesse v est donnée par : À impulsion fixée, on voit que la vitesse de la particule est d’autant plus importante que sa masse est faible.

La plupart des particules ont une durée de vie très courte et elles se désintègrent alors qu’elles sont encore très proches du point de collision. Seules certaines (électron, muon, pion, kaon et proton) survivent suffisamment longtemps pour traverser le détecteur. Un moyen de les identifier revient à déterminer leur masse, et, pour l’estimer, l’ingrédient de base est toujours l’impulsion de la particule, mesurée en observant la courbure de la trajectoire dans un fort champ magnétique. Mais comme cette quantité dépend aussi de la vitesse de la particule, la mesure d’une autre quantité est nécessaire.

© Nobelprize

dE/dx Une première approche consiste à s’intéresser à la manière dont la particule perd de l’énergie lorsqu’elle traverse un milieu et interagit avec les atomes qui le composent. La perte d’énergie par unité de distance parcourue (le « dE/ dx ») peut être calculée analytiquement : on obtient la formule de BetheBloch, une fonction compliquée du rapport entre l’impulsion et la masse de la particule ainsi que des caractéristiques du milieu traversé. Son allure générale est représentée sur la figure 1. La perte d’énergie se fait par interaction électromagnétique : la particule chargée arrache des électrons aux atomes qu’elle rencontre. Plus elle est rapide, moins ce processus d’ionisation a de temps pour se dérouler et donc moins la particule perd de l’énergie. Ceci explique la décroissance de la

Après des études à Zurich, Felix Bloch passe son doctorat à Leipzig en 1928 et travaille plusieurs années en Allemagne. Fuyant le nazisme, il s’installe en 1933 en Californie ; pendant la guerre il participe à la mise au point de la première bombe atomique à Los Alamos au Nouveau-Mexique. Une fois la paix revenue, il développe à Harvard de nouvelles technologies qui formeront la base de l’imagerie par résonance magnétique, aujourd’hui couramment utilisée en médecine. C’est pour ce travail qu’il partage le prix Nobel de physique 1952 avec Edward Mills Purcell. En 1954, il devient le premier directeur général du CERN nouvellement créé.

page 28

Figure 1 : Courbe donnant la quantité d’énergie déposée par unité de distance (dE/dx) par une particule chargée traversant de la matière en fonction de βγ=p/Mc (p est l’impulsion de la particule et M sa masse). βγ ne dépend que de la vitesse de la particule. La perte d’énergie par unité de distance est donnée par la fonction de Bethe-Bloch. On l’exprime souvent par unité de densité de surface (gramme/cm2) pour tenir compte de la densité de la matière traversée.

ÉLÉMENTAÍRE


L’identification des particules chargées

partie gauche de la courbe : dans cette région la particule est non relativiste. Après le minimum d’ionisation, atteint lorsque la vitesse de la particule vaut environ 95-97% de celle de la lumière, la perte d’énergie croît lentement. Des effets relativistes (contraction des longueurs, dilatation du temps, voir Élémentaire N°3) interviennent alors et augmentent la probabilité d’interaction. Au-delà, d’autres phénomènes apparaissent, qui limitent la perturbation causée par le passage de la particule et la perte d’énergie se stabilise sur le « plateau de Fermi ».

© Michael Okoniewski

Physicien allemand, Hans Bethe s’exile en 1933 et s’installe aux États-Unis en 1935. Durant la guerre il participe au projet Manhattan à Los Alamos : son équipe travaille sur la masse critique d’uranium 235 nécessaire pour enclencher la réaction de fission en chaîne. Il participe également au développement de la bombe à hydrogène dans les années 1950. Sa position évolue ensuite et il s’oppose à la course aux armements provoquée par la Guerre Froide. Il fait ainsi campagne auprès de la Maison Blanche pour que les États-Unis signent le traité d’interdiction des essais nucléaires atmosphériques en 1963 puis celui sur les missiles antibalistiques (SALT I) en 1972. Entre-temps, Bethe reçoit le prix Nobel de physique en 1967 pour « sa contribution à la compréhension de la nucléosynthèse stellaire ». En effet, il avait proposé en 1939 que la source de l’énergie des étoiles soit une chaîne de réactions de fusion thermonucléaires dans lesquelles l’hydrogène est converti en hélium, puis en éléments de plus en plus lourds.

Hans Bethe dans son bureau en décembre 1996. Sur le tableau derrière lui est inscrite l’équation de Bethe décrivant le cycle du carbone pour la génération d’énergie nucléaire dans les étoiles.

-dE/dx [MeV g-1 cm2]

-dE/dx [MeV g-1 cm2]

Comparons maintenant sur la figure 2 le dE/dx donné par la formule de Bethe-Bloch en fonction de l’impulsion : la hiérarchie de masse des particules (de la plus légère à la plus lourde : électron, muon, pion, kaon et proton) se reflète dans les courbes, toutes différentes. L’électron fait bande à part : il est très léger et reste sur le plateau de Fermi dans toute la gamme d’impulsion considérée. En pratique, l’identification des particules est compliquée par les erreurs faites en mesurant la perte d’énergie par unité de longueur. La figure 3 montre les résultats obtenus par le détecteur ALEPH, installé sur le collisionneur électronpositron LEP au CERN de 1989 à 1999. ALEPH utilisait une chambre à projection temporelle pour mesurer à la fois l’impulsion et le dE/ dx des particules. Ces deux mesures permettent de séparer les kaons des pions jusqu’à 700 MeV/c ; au-delà, on peut identifier les protons sans équivoque jusqu’à 1,5 GeV/c. Quant aux électrons, ils apparaissent identifiables jusque vers 3 ou 4 GeV/ c. Pour aller au-delà, il faut faire appel à d’autres techniques qui mesurent la vitesse des particules.

Figure 3 : dE/dx et impulsion mesurés par le détecteur ALEPH (CERN) au moyen d’une chambre à projection temporelle (l’axe des abscisses est logarithmique).

p [GeV/c]

page 29

ÉLÉMENTAÍRE

p [GeV/c]

Figure 2 : Courbe donnant la quantité d’énergie déposée par unité de distance (dE/dx) par des particules chargées traversant de la matière en fonction de leur impulsion p (et non plus en fonction de p/Mc comme sur la figure 1). À une impulsion donnée, la perte d’énergie par unité de distance est différente selon la masse de la particule. C’est cette propriété de la formule de Bethe-Bloch qui est exploitée pour identifier la particule chargée dans cette gamme d’impulsion. Un proton qui parcout une distance de 1 mètre dans l’argon avec une impulsion de 1 GeV /c, perd 0,2 MeV, ce qui est très faible par rapport à son énergie totale.


L’identification des particules chargéess membrane centrale (cathode)

dérive des chambre à fils électrons panneaux d'anodes

ee+

Schéma de la TPC du détecteur DELPHI qui était installé au CERN autour de l’un des 4 points de collision des faisceaux d’électrons et de positrons circulant dans l’anneau LEP jusqu’en l’an 2000.

Temps de vol La vitesse c’est le rapport entre la distance parcourue et le temps mis pour effectuer ce trajet. Dans cette équation le numérateur est connu : il est imposé par la géométrie du détecteur. Pour le dénominateur, on peut déclencher un chronomètre lorsque la particule est produite au voisinage du point de collision et l’arrêter lorsqu’elle est détectée dans un compteur dit « de temps de vol ». Il est difficile d’imaginer une mesure plus simple mais en pratique, c’est un vrai défi : prenons l’exemple d’un pion (masse 0,14 GeV/c2) et d’un kaon (masse 0,49 GeV/c2) ayant une impulsion de 1 GeV/c. Au bout d’1 mètre, ils ne seront séparés que de trois dix-milliardièmes de seconde (0,3 ns) : bonjour la photo-finish ! C’est quand même autre chose que les finales d’athlétisme aux Jeux Olympiques...

page 30

© KEK

Figure 4 : Vue schématique du détecteur japonais Belle qui possède un détecteur de particules basé sur la mesure du temps de vol. Ce détecteur comporte 64 modules identiques qui sont indiqués sur la figure par le label « TOF ». Ils sont situés à une distance de 1,2 m de l’axe des faisceaux d’électrons et de positrons d’où sont issues les collisions. Ces compteurs sont constitués de barreaux épais (4 cm) de scintillateurs. La lumière créée lors du passage d’une particule chargée est mesurée par des photomultiplicateurs ; l’épaisseur des scintillateurs assure une production importante de lumière ce qui est indispensable pour faire une bonne mesure.

trace chargée

© B. Mazoyer

Chambre à projection temporelle : La chambre à projection temporelle (TPC, « Time Projection Chamber ») a été inventée à la fin des années 1970 par David Nygren au laboratoire national de Berkeley (Californie). Il s’agit d’un grand cylindre rempli d’un mélange gazeux contenant principalement un gaz rare (par exemple de l’argon) et divisé en deux compartiments par un disque métallique chargé négativement. Lorsqu’une particule chargée traverse ce volume, elle ionise les molécules de gaz rencontrées. Sous l’effet du champ électrique créé par le disque, les électrons dérivent à vitesse constante vers les extrémités de la TPC, parallèlement à l’axe des faisceaux. Là, ils sont détectés par des chambres à fils. Ces chambres permettent à la fois de mesurer la position des électrons d’ionisation dans le plan perpendiculaire aux faisceaux et d’estimer leur nombre afin de connaître l’énergie perdue par la particule lors de son passage dans la TPC (le dE/dx, voir rubrique « Détection »). La position longitudinale du point où l’ionisation a eu lieu est déterminée en mesurant le temps mis par les électrons pour rejoindre les parois de la chambre. Connaissant la trajectoire de la particule chargée (courbée par un fort champ magnétique parallèle aux faisceaux), on détermine ainsi son impulsion: une TPC permet donc d’effectuer les deux mesures en une seule fois !

Malgré la difficulté, on arrive à construire des appareils capables d’effectuer de telles mesures avec une précision Un scintillateur est un matériau qui suffisante. Ainsi, la collaboration émet de la lumière par fluorescence japonaise Belle utilise le temps de vol suite à l’absorption d’un rayonnement. pour séparer les pions des kaons. À 1,2 Lorsqu’un atome du milieu est excité, m de l’axe des faisceaux d’électrons l’un de ses électrons passe à un niveau et de positrons, on trouve 64 modules d’énergie supérieur. Quand l’atome de scintillateurs. Ceux-ci entourent revient au repos (on parle alors de déle détecteur interne où sont mesurées sexcitation), l’électron retourne à son les trajectoires des particules chargées niveau d’énergie initial en émettant un créées lors des collisions électronphoton d’énergie caractéristique qui est ensuite détecté. positron – voir figure 4. Les barres sont

ÉLÉMENTAÍRE


L’identification des particules chargées assez épaisses (4 cm) pour assurer une production importante de lumière tout en restant suffisamment fines afin de permettre des mesures précises du temps de vol (au niveau de 0,1 ns). Les performances de ce détecteur sont résumées sur la figure 5 : la courbe du haut représente la probabilité d’identifier correctement un kaon et celle du bas la probabilité de prendre un pion pour un kaon - on ne peut jamais arriver à une identification parfaite. Plus l’impulsion (et donc la vitesse) est élevée, moins on peut séparer les deux types de particules. Le graphique montre également la complémentarité entre les mesures de dE/dx et du temps de vol : avec cette dernière technique on obtient des résultats probants pour des particules dont l’impulsion dépasse largement 1 GeV/c ; par contre, le détecteur Belle ne peut rien dire en dessous d’environ 0,4 GeV/ c. Ce n’est pas dû à la technique « temps de vol » mais à la présence d’un champ magnétique : en effet, les trajectoires des particules les plus lentes sont trop courbées par le champ magnétique de 1,5 T qui règne au centre du détecteur Belle : ces dernières n’atteignent jamais les scintillateurs !

Figure 5 : séparation pion-kaon par la mesure du temps de vol en fonction de l’impulsion des particules, publiée par le détecteur Belle. Les points représentent les données réelles et les traits continus les résultats obtenus en simulant la réponse du détecteur aux collisions de particules.

L’effet Cerenkov

L’avion fusée X1 « Glamorous Glennis » avec lequel Chuck Yeager a franchi le mur du son le 15 octobre 1947. Il est exposé au « Smithsonian National Air and Space Museum » à Washington.

Lorsqu’elle traverse un milieu diélectrique, une particule chargée en mouvement perturbe le champ électrique local. Pour revenir à l’équilibre, ce dernier émet des photons qui se déplacent à la vitesse de la lumière. Si la particule est « lente » les photons sont incohérents et aucune lumière

ÉLÉMENTAÍRE

page 31

DR

Mur du son : Lorsqu’un avion est en vol, il perturbe la couche d’air qu’il traverse. Celle-ci revient ensuite à l’équilibre en émettant des ondes qui se déplacent à la vitesse du son, environ 1200 km/h. La plupart du temps elles sont donc plus rapides que le jet qui les a créées et se perdent dans le ciel en s’atténuant à mesure qu’elles se propagent. Par contre, si l’avion atteint ou dépasse le mur du son, le scénario précédent est complètement modifié : les ondes, toujours émises, ne peuvent plus se disperser dans l’air et s’accumulent autour de l’avion. On est alors en présence d’un phénomène d’interférences constructives qui conduit à la formation d’une onde de choc. L’une de ses manifestations principales est le fameux « bang » sonore, audible à des kilomètres à la ronde, et qui fit croire aux témoins du premier vol supersonique que l’avion s’était désintégré.

© N. Arnaud

La méthode la plus « exotique » pour identifier des particules chargées utilise l’effet Cerenkov, équivalent pour les particules élémentaires du bang supersonique causé par un avion passant le mur du son. Elle a été choisie par l’expérience concurrente de Belle, BaBar, dont le détecteur est situé en Californie (laboratoire de Stanford).

Physicien russe, Pavel Cerenkov découvrit en 1934 qu’une bouteille d’eau soumise à un bombardement de noyaux radioactifs émettait une lumière bleutée. Ce phénomène, appelé aujourd’hui « effet Cerenkov » en son honneur, est dû au passage de particules traversant le liquide plus vite que la lumière. Rapidement la mise en évidence de cette émission de photons s’avéra être un outil très utile en physique. Pavel Cerenkov fut récompensé par le prix Nobel de Physique 1958 qu’il partagea avec ses collègues physiciens Il’ ja Frank et Igor Tamm qui expliquèrent et quantifièrent ce phénomène au niveau théorique.


L’identification des particules chargéess n’est détectée. Au contraire, si la particule va plus vite que la vitesse de la lumière dans ce milieu – c’est possible,voir Élémentaire N°3 – un phénomène similaire à celui produit par un avion supersonique apparaît. La radiation lumineuse, devient détectable : c’est l’effet Cerenkov. La lumière Cerenkov est d’autant plus intense que les particules qui l’émettent sont rapides et nombreuses. Ainsi, elle est utilisée dans les centrales nucléaires pour mesurer les taux de fission ou contrôler l’activité d’un combustible usé entreposé dans une piscine de refroidissement (on observe l’émission de lumière provoquée par les électrons émis par désintégration bêta des éléments radioactifs). En physique des particules, l’intérêt de l’effet Cerenkov provient d’une propriété supplémentaire : les photons sont émis le long d’un cône dont l’axe se confond avec la

Milieu diélectrique Un milieu diélectrique est un milieu qui ne contient pas de charge de conduction (isolant électrique). En présence d’un champ électrique généré par exemple par le passage d’une particule, les électrons des atomes sont déplacés et forment des dipôles électriques. Le milieu est polarisé. Les électrons reprennent ensuite leur position initiale en émettant des photons. Indice de réfraction de la lumière L’indice n de réfraction d’un milieu qui est traversé par une onde lumineuse caractérise la vitesse de propagation v de l’onde : n = c/v. Comme la vitesse de la lumière dans le vide est une limite absolue, on a toujours n ≥1. L’indice de l’eau vaut 1,333. Celui d’un verre ordinaire environ 1,5.

Émission Cerenkov de photons par une particule chargée qui traverse un milieu diélectrique . Les photons sont émis avec un angle θ par rapport à l’axe de propagation de la particule de telle sorte qu’un anneau de lumière sera détecté. L’angle d’ouverture du cône de lumière ne dépend que de la vitesse de la particule chargée et de l’indice de réfraction de la lumière dans le milieu.

© SLAC

trajectoire de la particule et dont l’angle d’ouverture ne dépend que de la vitesse de la particule et de l’indice de réfraction de la lumière dans le milieu. Schématiquement, un détecteur à effet Cerenkov comme celui de l’expérience BaBar fonctionne de la manière suivante. Les particules chargées traversent un milieu (des barres de quartz) dans lequel elles vont plus vite que la lumière. Les photons Cerenkov alors émis sont ensuite guidés vers des photomultiplicateurs (PM) utilisés pour les détecter. Des algorithmes informatiques associent les photons détectés aux traces des particules qui les ont émis afin de reconstituer les cônes Cerenkov (en

Test d’une barre de quartz au moyen d’une lumière laser : les réflexions du faisceau sur les parois sont parfaitement visibles.

Barre de quartz

PM touché

e-

Collision électron-positron

e+

BaBar page 32

Schéma simplifié de la propagation d’un photon émis par effet Cerenkov lorsqu’une particule chargée traverse une barre de quartz du détecteur Cerenkov (DIRC) de Babar. Le photon est réfléchi plusieurs fois par les parois de la barre et finit par sortir, traverse la cuve remplie d’eau pour être finalement détecté par un photomultiplicateur (PM).

Photon émis par effet Cerenkov et réfléchi dans le quartz Trace chargée

Cuve du DIRC

ÉLÉMENTAÍRE


© LAPP

L’identification des particules chargées Efficacité d'identification

1

BABAR

0.75

0.5

Efficacité d'identification des Kaons Taux de "faux" Kaons (pions)

0.25

0

1

2 Impulsion (GeV/c)

3

Figure 8 : Efficacité d’identification des kaons et taux de pions identifiés comme des kaons en fonction de l’impulsion de la particule, obtenus par le détecteur DIRC de BaBar.

Figure 9 : Angles du cône de lumière Cerenkov en fonction de l’impulsion des particules chargées qui l’ont initié ; les courbes en trait continu correspondent aux prédictions théoriques : la séparation pion-kaon est possible jusqu’à 3 GeV/c et même au-delà.

pratique des anneaux résultants de leur projection sur la surface où sont installés les photomultiplicateurs). On déduit ainsi la vitesse de chacune des particules qui ont traversé les barres de quartz. Les performances d’identification du détecteur Cerenkov de BaBar (le « DIRC ») sont visibles sur les deux figures 8 et 9. Comme dans le cas de la mesure du temps de vol dans le détecteur Belle, on peut séparer les kaons des pions bien au-delà de 1 GeV/c : à 3,4 GeV/c le taux d’identification des kaons est d’environ 90% alors que la probabilité de prendre un pion pour un kaon est inférieure à 15%.

ÉLÉMENTAÍRE

page 33

Le détecteur à effet Cerenkov de BaBar : le DIRC (« Detector of Internally Reflected Cerenkov light ») Le DIRC a été construit par une collaboration franco-américaine impliquant des laboratoires du CNRS, du CEA et du « Department of Energy » américain. Les particules chargées issues de la collision des faisceaux traversent des barres de quartz de 17 mm d’épaisseur et de près de 5 m de long (il y en a 144 en tout formant un cylindre enveloppant le détecteur de traces chargées de BaBar) dans lesquelles elles émettent des photons par effet Cerenkov. Une grande partie de ceux-ci sont guidés par réflexion totale dans ces mêmes barres vers l’arrière du détecteur : ils aboutissent alors dans une cuve d’eau ultra-pure (6000 litres environ) dont la paroi est tapissée de près de 11000 photomultiplicateurs (PM). L’eau a un indice optique très voisin de celui du quartz ce qui fait que les photons traversent l’interface quartz-eau presque sans déviation. La distance entre l’extrémité des barres et les PM a été choisie pour identifier efficacement des particules de plusieurs GeV/c d’impulsion. Connaissant la position du PM qui a enregistré l’impact d’un photon et l’endroit où la particule étudiée a traversé le quartz, on peut reconstituer le chemin que le photon doit avoir suivi s’il a été émis par cette trace particulière. En vérifiant si cette trajectoire est physiquement possible, on sépare les « vrais » photons Cerenkov des autres photons « du bruit de fond » produits par exemple lors de collisions parasites de particules issues des faisceaux d’électrons ou de positrons avec des molécules d’eau. La reconstruction des anneaux Cerenkov émis dans les barres permet d’obtenir des informations sur la vitesse de la particule et donc, connaissant son impulsion, sur sa nature. Dans les conditions actuelles de prise de données chaque PM enregistre environ 300 000 photons par seconde. 98% des PM sont encore opérationnels après plus de six ans de fonctionnement.


Vue arrière du DIRC pendant sa construction (on voit les douze secteurs surmontés de leur châssis contenant l’électronique nécessaire à l’acquisition des donnéees et les câbles des PM illuminés de l’intérieur).

© SLAC

© SLAC

L’identification des particules chargéess

Figure 7 : Visualisation informatique d’un événement enregistré en août 2000 par le détecteur BaBar situé sur l’anneau de collisions e+/e− PEP-II au Stanford Linear Accelerator Center (Californie). Le détecteur est ici vu de face : les électrons (allant du lecteur vers la feuille de papier) et les positrons (allant dans le sens opposé) entrent en collision au centre de l’image. Dans la partie inférieure, on peut voir trois traces laissées par des particules chargées (en jaune) ainsi que leurs anneaux Cerenkov reconstitués (les photons associés sont matérialisés par des points rouges). Les anneaux ne sont pas en général complets car une partie des photons peut ne pas être réfléchie jusqu’à l’extrémité des barres de quartz. On détecte en moyenne une trentaine de photons par anneau Cerenkov.

Méli-mélo de techniques

Cerenkov Temps de vol dE/dx 0.1

1

10

Nous venons de voir trois techniques couramment utilisées pour identifier les particules chargées. Déterminer la nature des particules émises est crucial pour comprendre le phénomène qui a eu lieu au moment de l’interaction initiale. Ainsi pour obtenir une bonne identification sur une gamme d’impulsion assez large, il est bien souvent nécessaire de combiner les différentes techniques que l’on vient de passer en revue. La figure 10 indique le champ d’action de ces techniques en fonction de l’impulsion de la particule chargée. Bien souvent, les détecteurs combinent deux des trois techniques car comme on l’a vu dans le cas du détecteur Belle, la présence d’un champ magnétique (par ailleurs indispensable pour avoir une bonne mesure de l’impulsion des particules chargées) peut réduire les 100 1000 performances d’une technique dans le cas de p(GeV/c) particules de faible impulsion, et la redondance d’information est toujours une bonne chose.

page 34

Figure 10 : Gamme en impulsion dans laquelle chacune des trois techniques d’identification des particules chargées interviennent.

ÉLÉMENTAÍRE


Retombées La protonthérapie Pourquoi la protonthérapie ?

© PSI

La médecine dispose d’un arsenal de plus en plus varié pour lutter contre le cancer : la chirurgie, la chimiothérapie et l’utilisation des rayonnements ionisants. Pour un certain nombre de pathologies, la protonthérapie, utilisée depuis près de vingt ans, est considérée comme le traitement de référence. De manière générale, les rayonnements ionisants agissent en cassant les structures moléculaires des tissus malades, particulièrement celles qui sont à l’origine de la division incontrôlée des cellules, afin d’arrêter leur prolifération. Coupes de cerveaux qui indiquent les doses de rayonnement reçues par un Que serait un traitement idéal ? Il consisterait traitement avec des rayons X, à gauche, par une protonthérapie à droite (Paul à traiter la tumeur avec une dose d’irradiation Scherrer Institute, Suisse). Les codes de couleur indiquent que, dans le premier cas, une vaste zone entourant celle qui est traitée (en rouge) reçoit plus de 40% suffisante pour la détruire, bien localisée et de la dose maximale. Dans le second cas les tissus extérieurs à la zone traitée homogène dans tout le volume concerné. Les ne sont pratiquement pas irradiés, sauf ceux situés vers le haut de la photo par doses reçues par les tissus sains du voisinage lequel le faisceau arrive. devraient être négligeables, ou tout au moins suffisamment faibles pour ne pas entraîner d’effets indésirables, sachant qu’ils peuvent se régénérer contrairement aux tissus cancéreux.

Un autre type de rayonnement est constitué par des électrons issus soit de corps radioactifs (émetteur bêta), soit d’accélérateurs. Les électrons déposent toute leur énergie dès les premiers centimètres traversés (voir courbe des doses relatives). Pour les utiliser efficacement dans un traitement, il faut donc que les émetteurs soient proches de l’organe à traiter : par exemple, l’ingestion d’iode radioactif, qui est absorbé principalement par la thyroïde, permet une bonne irradiation de cet organe. Leur action s’atténuant assez vite avec l’épaisseur traversée, les électrons ne conviennent pas pour le traitement de tumeurs profondes situées derrière des tissus sains. Enfin les neutrons, difficiles à manipuler (voir « La neutronthérapie » dans Élémentaire N°2), sont utilisés dans le

ÉLÉMENTAÍRE

page 35

Les rayonnements peuvent être de différentes sortes. On a utilisé pendant longtemps la cobaltothérapie, c’est-à-dire des rayons gamma produits par désintégration radioactive d’atomes de cobalt 60. Les rayons gamma sont des photons particulièrement pénétrants dont l’absorption est maximale près de la surface de la peau et s’étend jusqu’à plusieurs dizaines de centimètres (voir courbes de doses relatives page suivante). Cette propriété a plusieurs conséquences car le traitement d’une tumeur, surtout si elle est profonde, exige qu’on l’atteigne en traversant des tissus sains. Afin de diminuer la dose déposée dans ces derniers on peut utiliser plusieurs faisceaux focalisés sur la zone à traiter et empruntant différentes directions incidentes. Néanmoins, il n’est pas possible d’utiliser les photons dans les cas où le voisinage immédiat de la tumeur comporte des organes à risque. Ceci est spécialement vrai dans le cas de l’œil et dans celui du cerveau.


La protonthérapie traitement de certains types de cancers résistants, y compris aux protons. L’idée d’utiliser des hadrons en cancérologie a été proposée dès 1946 par R.R. Wilson. Les premiers traitements par protons chez l’homme ont été réalisés en 1954 grâce à une installation de recherche en physique nucléaire, le Bevalac au Lawrence Berkeley National Laboratory (Californie, États-Unis).

Propriétés de la protonthérapie © Fermilab

La protonthérapie, utilisant des protons accélérés, est une technique de choix en radiothérapie, tout particulièrement dans les cas où la tumeur est située au voisinage d’organes vitaux (nerf optique, moelle épinière,...) et où il est important de minimiser la dose d’irradiation dans l’ensemble des tissus sains environnants. Cela est particulièrement vrai en pédiatrie, où il a été démontré que des doses, considérées comme modérées dans les tissus sains, pouvaient générer des séquelles à long terme chez les enfants.

R. R. Wilson, premier directeur du laboratoire Fermilab. Il a été à l’origine de la réalisation de plusieurs grands accélérateurs de particules comme le synchrotron CESR de Cornell ou celui de Fermilab.

Cela peut être obtenu grâce aux protons par une technique certes lourde mais qui rend possible le traitement de tumeurs chirurgicalement inopérables et non accessibles par d’autres moyens.

Directement dérivée de la perte d’énergie linéique dE/dx donnée par la formule Bethe-Bloch (voir rubrique «Détection»), la dose d’énergie déposée par différentes particules est présentée sur la figure ci-dessous. Contrairement aux autres particules, le proton présente un pic de Bragg dont la position en profondeur, contrôlée par l’énergie incidente du faisceau, peut être modifiée, permettant ainsi de déposer un maximum d’énergie au sein d’un volume cible circonscrit (la tumeur), tout en épargnant les tissus sains en amont et en aval. Grâce à ces propriétés, alliées à un faisceau très étroit, la dose déposée dans les tissus par des hadrons chargés peut être confinée au volume cible avec une précision nettement plus grande qu’en radiothérapie conventionnelle (rayons X, électrons). pic de Bragg

page 36

Représentation schématique du dépôt d’énergie des électrons, des photons et des protons. On voit que la dose maximale déposée par les protons se situe dans une étroite bande appelée pic de Bragg.

La protonthérapie exploite deux propriétés dosimétriques liées à l’interaction des faisceaux de protons avec la matière : - une faible dispersion latérale, conséquence de la diffusion limitée des protons au cours de leur trajectoire. - un dépôt d’énergie en forme de pic (pic de Bragg), dont la position au sein des tissus est parfaitement contrôlable puisque liée à l’énergie incidente. Pour éviter d’irradier les tissus sains au-delà des doses tolérables, on utilise 6 à 8 faisceaux de directions différentes, convergeant sur le volume à traiter. La précision balistique des protons permet d’adapter chaque faisceau pour reproduire en trois dimensions la distribution de dose à la forme de la tumeur à irradier. Pour obtenir des protons d’énergie variable on peut utiliser des disques de différentes épaisseurs dont le rôle est de ralentir les protons et de pouvoir ainsi réguler leur pénétration. Pour cela il faut préparer autant de pièces de profils différents afin d’assurer la répartition homogène de la dose. Le pic de Bragg est ainsi étalé, et l’on obtient une irradiation plus homogène dans le volume à traiter.

ÉLÉMENTAÍRE


La protonthérapie La protonthérapie en France En France, le Centre de Protonthérapie d’Orsay (CPO) utilise le synchrocyclotron (voir Elémentaire N°3) conçu par Irène et Frédéric JoliotCurie, et qui, après 30 ans d’utilisation pour des expériences en recherche fondamentale sur la structure des noyaux, a entamé une nouvelle vie au service de la médecine. Cette machine a été léguée à la fin des années 80 à la médecine sous l’initiative de quatre partenaires : l’Institut Curie, l’Institut Gustave Roussy (IGR), le centre René Huguenin et les Hôpitaux de l’Assistance Publique de Paris. Elle est utilisée pour des traitements ophtalmologiques et intracrâniens depuis le début des années 90. Avec plus de 3 000 patients traités durant ces seize années, le CPO s’inscrit au troisième rang mondial des centres de protonthérapie et au premier rang européen aux côtés du PSI (Paul Scherrer Institut) en Suisse.

Synchrotron du Centre de Protonthérapie d’Orsay (CPO).

Pour mettre en place le protocole de traitement huit jours de travail à partir des mesures scanner et IRM du crâne sont nécessaires pour optimiser l’orientation et l’énergie des différents faisceaux. La précision géométrique obtenue in fine est de ±1 millimètre. Les traitements exigent de 12 à 16 séances d’environ une heure. Ce fractionnement permet, entre autres, aux cellules saines de pouvoir se régénérer. Le frein principal reste aujourd’hui la capacité de traitement limitée dans le monde, en particulier en France. Pourtant, les résultats cliniques et le faible taux de complications sont encourageants. Diminution des séquelles, des effets secondaires, moins de rechutes donc moins de traitements de rattrapage, espérance de vie prolongée sont autant de facteurs en faveur d’un développement accru de la protonthérapie. En 2020, le CPO traitera 650 patients par an soit environ le double du nombre actuel.

TEL et dose Le Transfert d’Energie Linéique (TEL exprimé en keV/μm) décrit la densité d’ionisation, c’est-à-dire la densité de dépôt d’énergie, en chaque point de la trajectoire. Cependant, certaines particules sont plus efficaces que d’autres pour produire des lésions et la « dose » résultante est une combinaison de la perte d’énergie et de l’efficacité de la radiation.

Hadronthérapie avec des noyaux Des noyaux plus complexes sont également employés. Parmi eux, les ions légers, comme le carbone, ont l’avantage d’avoir un transfert d’énergie linéique (TEL) dans la matière, nettement supérieur à celui des protons. Ils créent ainsi des radiolésions cellulaires plus difficilement réparables que les radiations de faible TEL. Ces propriétés radiobiologiques leur confèrent une meilleure efficacité biologique, ce qui augmente encore la dose efficace déposée au niveau du pic de Bragg par rapport à la région située avant.

Tomographie par Émission de Positons (TEP) Après quelques millimètres de parcours le positron s’annihile avec un électron du milieu et deux photons sont émis. La réaction ayant lieu lorsque les deux particules sont au repos, ces deux photons ont la même énergie (égale à la masse de l’électron soit 511 KeV) et leurs directions sont exactement opposées. La détection de ces deux photons, arrivant au même instant dans les détecteurs (on dit en coïncidence) permet de signer la réaction. L’enregistrement de nombreux événements de ce type, pour lesquels on mesure la direction des photons, permet de localiser la zone d’où le positron a été émis.

ÉLÉMENTAÍRE

page 37

Si leur interaction principale avec la matière traversée consiste en l’ionisation des atomes de la cible, il peut se produire aussi des réactions nucléaires qui vont créer des fragments, c’est à dire des noyaux plus petits issus de la collision avec d’autres noyaux du milieu). Ce phénomène de fragmentation des noyaux du faisceau dans les tissus traversés produit, en faible quantité, des noyaux qui peuvent être instables et dont certains sont émetteurs d’antiélectrons ou positrons (par exemple du 11C, de période égale à vingt minutes, lorsque le faisceau incident est du 12C). Cette propriété permet de visualiser à l’aide de la Tomographie par Émission de Positons (TEP) la distribution


La protonthérapie de dose pendant ou après l’irradiation en détectant les rayonnements d’annihilation, émis lorsqu’un positron rencontre un électron après un parcours moyen de deux millimètres. On peut ainsi vérifier la conformité de la dose délivrée à la dose prescrite. Pour ces raisons biologiques, balistiques et de contrôle, les radiobiologistes et les radiothérapeutes considèrent que les ions de carbone sont les mieux adaptés pour traiter les tumeurs cancéreuses radiorésistantes, lentement évolutives, à faible potentiel métastatique, et proches d’organes vitaux. Quelques centres utilisant les ions de carbone sont : HIMAC (Heavy Ion Medical Accelerator Center, Chiba) et HIBMC (Hyogo Ion Beam Medical Center, Hyogo) au Japon , le laboratoire du GSI (Darmstadt) et à Heidelberg en Allemagne. Le CNAO (Centro Nazionale di Adroterapia Oncologica) est en cours de construction à Pavie, en Italie. En France le projet ETOILE devrait voir le jour à Lyon.

faisceau de carbone

© A. Zschau

détecteurs TEP

Salle de traitement par hadronthérapie montrant la disposition des détecteurs TEP autour du patient pendant l’irradiation par faisceau d’ions carbone.

Comparaison entre les doses effectives obtenues par étalement du pic de Bragg pour les protons et les ions de carbone. On constate que pour une même irradiation, en amont de la tumeur, la dose déposée au niveau de cette dernière est plus élevée dans le cas des ions.

Matière

e�

�� ����

Lors de la décroissance β+, un des protons a été changé en neutron.

Schéma de la fragmentation du faisceau incident et de la décroissance bêta (émission d’antiélectrons) de noyaux instables produits.

e����e

��

Annihilation avec un électron du milieu

Étalement du pic de Bragg

page 38

Le pic de Bragg étant très étroit, il est nécessaire de l’étaler pour traiter une tumeur de grande dimension. Le pic de Bragg étalé est obtenu en superposant plusieurs pics de Bragg simples par variation pas à pas de l’énergie du faisceau. Cette modification d’énergie peut être réalisée soit de manière passive en intercalant des ralentisseurs (disques d’épaisseurs variables) sur le parcours d’un faisceau d’énergie fi xe, soit de manière active en faisant varier l’énergie des protons à la sortie de l’accélérateur (toutes les une ou deux secondes). Bien que la dose déposée dans les tissus sains en amont ne soit pas négligeable, leur irradiation reste cependant très inférieure à ce qu’elle serait avec une radiothérapie conventionnelle.

ÉLÉMENTAÍRE


Analyse Corde Ce terme ne doit pas etre confondu avec celui utilisé pour décrire les constituants élémentaires sous la forme d’objets étendus lors de tentatives d’unifier la gravitation aux autres formes d’interactions.

Les jets de particules Les quarks et les gluons apparaissent dans notre monde sous forme de jets de particules. En étudiant ces derniers, les physiciens peuvent, à la fois, remonter à l’objet qui leur a donné naissance ainsi qu’au mécanisme de base qui les a créés. Ces mesures permettent également d’étudier les propriétés de l’interaction forte qui gouverne la création des particules au sein des jets.

Nouvelle paire quark-antiquark Si l’énergie emmagasinée est supérieure à deux fois la masse d’un quark, la formation d’une paire quark-antiquark est possible. Pour les quarks les plus légers on doit ajouter à leur masse propre l’énergie du cortège de gluons qui les entoure. On parle alors de masse effective. Par ce mécanisme, les quarks les plus légers, u et d sont produits le plus abondamment et en quantité égale (80% du total) alors que les quarks étranges sont plus rares (10%) à cause de leur masse plus élevée. Les 10% restants correspondent à la production de paires diquark-antidiquark dont la présence va conduire à l‘émission de protons et de neutrons dans les jets. Quant aux autres quarks, dits lourds, comme le charme et la beauté, leur masse étant supérieure à l’énergie emmagasinée dans la corde ils ne peuvent être produits par ce mécanisme puisque les quarks plus légers se créent dès que l’énergie devient suffisante. Cela signifie que les quarks lourds sont issus directement de l’interaction initiale entre constituants élémentaires. On comprend ainsi que les expérimentateurs s’intéressent particulièrement à leur détection.

Pourquoi parler de jets ? Nous avons vu que les collisions entre particules, à haute énergie, peuvent se résumer à des interactions entre des constituants ponctuels (rubrique «Découverte»). Prenons l’exemple de l’annihilation d’un électron avec un positron. Après la collision, le quark et l’anti-quark nouvellement créés s’éloignent et doivent résister à l’interaction forte qui tend à les retenir. Cette force, telle celle d’un ressort (on emploie plutôt le terme de « corde » en physique des particules), croît à mesure que s’éloignent les objets en cause. L’énergie ainsi emmagasinée, qui est de l’ordre de 1GeV/ fm, devient telle que l’on peut créer une nouvelle paire quark-antiquark, en fonction de l’énergie totale disponible. Ce processus peut se répéter plusieurs fois donnant lieu à la formation d’un nombre (variable) de ces paires. L’association d’un quark et d’un antiquark provenant de ces paires différentes conduit alors à la création de particules. Ces dernières sont émises suivant des directions voisines de celles des constituants initiaux avec une dispersion qui est d’autant plus faible que leur impulsion est plus élevée. On s’attend donc à ce que les particules qui sont détectées dans les appareillages ne soient pas distribuées uniformément dans tout l’espace mais se rassemblent autour de directions qui gardent la mémoire de celles des quarks et des gluons produits dans la collision initiale. On désigne par le terme de jets ces ensembles de particules.

Diquark L’interaction forte permet à deux quarks de s’associer en un système stable. Cependant, comme ce diquark est « coloré », il ne peut s’échapper seul d’un milieu où règne l’interaction forte. Les baryons (proton, neutron) sont formés de trois quarks et on les décrit souvent par l’association d’un quark et d’un diquark.

Les jets de quarks ont été découverts par Gail Hanson en 1975 dans l’expérience MARK II opérant sur le collisionneur e+eSPEAR à SLAC (Stanford, USA). Selon l’énergie des collisions (ajustable depuis la salle de contrôle de l’accélérateur), l’allure des événements enregistrés variait, signe qu’un phénomène nouveau se produisait. Dans ces réactions l’électron et le positron s’annihilent pour donner une paire quark-

Née en 1947, Gail Hanson passe sa thèse au MIT en 1973 et découvre les jets de quarks en 1975. Elle a été membre permanent de SLAC et, depuis 1989, elle est professeur de physique à l’Université d’Indiana. Elle a également été responsable, en 1996, des analyses de physique de la collaboration OPAL, une des quatre expériences ayant fonctionné sur l’accélérateur LEP au CERN (Genève).

ÉLÉMENTAÍRE

Dispersion La création des particules se fait de manière aléatoire par association d’un quark et d’un antiquark qui ne sont pas immobiles mais ont une agitation qui dépend de l’énergie conduisant à la rupture de la « corde ». Il en résulte que les nouvelles particules sont émises, en moyenne, suivant la direction du constituant initial mais avec une certaine dispersion. Cette dernière est faible si l’impulsion de la particule créée est grande par rapport à la tension de la corde. page 39

DR

La découverte des jets : une affaire de femmes !


Les jets de particules

DR

antiquark. À l’énergie de 3 GeV nous sommes au seuil de production des particules charmées et toute l’énergie disponible est utilisée pour les créer. Ces particules sont alors émises au repos et leur désintégration conduit à une émission uniforme de particules secondaires, dans toutes les directions. À plus haute énergie, vers 7 GeV, le quark et l’antiquark charmés ne sont plus au repos et ils peuvent en s’éloignant l’un de l’autre donner naissance à des jets. C’est ce qui a été observé en mesurant la manière dont les particules sont émises dans l’espace. Ces mesures, qui permettent de remonter à la direction d’émission des quarks initiaux, ont également montré que les quarks avaient un spin demi-entier. Dès 1976, les théoriciens John Ellis, Mary-Katharine Gaillard et Graham Ross prévoient que lors de collisions à haute énergie, les quarks produits vont émettre des gluons qui, à leur tour, vont donner naissance à des jets. Il est primordial d’observer ces gluons et de vérifier que leurs propriétés correspondent à celles attendues. Le premier événement de ce type fut détecté en 1979 par l’expérience TASSO opérant sur le collisionneur e+e- PETRA à DESY (Hambourg, Allemagne) par la physicienne Sau Lan Wu et son équipe. Plusieurs événements furent ensuite mesurés à partir desquels on montra que le gluon avait un spin 1, comme le photon et comme les particules véhiculant l’interaction faible.

Mary K. Gaillard obtient son doctorat à la Faculté des Sciences d’Orsay en 1968. Elle entre au CNRS et dirige, notamment, le groupe de physique théorique du Laboratoire d’Annecy-levieux de Physique des Particules (19791981). Depuis 1981 elle est professeur de physique théorique à l’université de Berkeley et s’intéresse actuellement aux mécanismes qui permettent aux particules d’acquérir une masse et notamment à la supersymétrie et la supergravité.

Les jets : à quoi ça sert ?

Sau Lan Wu obtient sa thèse en 1970 à l’Université d’Harvard. De 1965 à 1977 elle travaille au MIT puis à l’Université de Madison (Wisconsin) où elle est professeur depuis 1990. En 1995 elle reçoit le prix de la Société Européenne de Physique en physique des particules et des hautes énergies pour la première détection d’événements à trois jets dans les collisions e+e- à Petra, première observation directe du gluon. Elle dirige le groupe de son université qui effectue des recherches sur les expériences BaBar (SLAC) et ATLAS (CERN).

page 40

DR

Dans les collisions à haute énergie, effectuées dans les accélérateurs actuels, la structure en jets des particules émises est bien marquée. Il est alors possible de rassembler ces particules afin de reconstruire la direction et l’énergie des constituants fondamentaux, initialement produits lors de la collision, et de vérifier si leurs valeurs obéissent aux prévisions. On peut aussi, par la mesure de la charge et du type des particules contenues dans un jet connaître celles du quark qui est à son origine. Ceci a permis de vérifier, notamment, que l’interaction forte avait la même intensité quelle que soit la saveur du quark concerné. Les prédictions issues d’alternatives à la théorie actuelle de l’interaction forte ont pu aussi être testées et ... écartées. La nature et la manière dont les particules se répartissent au sein des jets nous renseignent également sur les propriétés de l’interaction forte. Des différences très nettes ont

Un événement enregistré par l’expérience TASSO. Il a été produit par collision entre un électron et un positron ayant chacun une énergie de 15 GeV. On observe que les particules se rassemblent suivant trois directions qui correspondent à celles d’un quark, d’un antiquark et d’un gluon qui ont été créés lors de la collision.

ÉLÉMENTAÍRE


Les jets de particules été mesurées entre les jets issus de quarks ou de gluons, en accord avec la théorie. En combinant deux ou plusieurs jets on peut également rechercher s’ils ne résultent pas de la désintégration d’une particule plus massive. On a pu par cette méthode mesurer au collisionneur LEP la masse des bosons W ou bien celle du quark top, au TeVatron. En résumé pour ce qui concerne la théorie QCD de l’interaction forte : tout est bon chez elle, y a rien à JETer.

Exemple de distribution de la masse d’un système de deux jets sélectionné dans des événements qui en contiennent chacun quatre. Ces événements, enregistrés par la collaboration ALEPH sur le collisionneur LEP, sont issus de la réaction e+e-→W+W. Chacun des bosons W se désintègre en deux jets. La masse du système de deux jets reproduit celle du W.

© CERN

Événement observé dans le détecteur DELPHI. L'annihilation d'un électron et d'un positron conduit ici à 4 jets de particules, visualisés dans une coupe longitudinale du détecteur. On peut voir au centre les trajectoires des particules chargées qui ne sont pas courbées dans cette vue. À l'extérieur, les dépôts d'énergie des particules neutres, dans les calorimètres, sont symbolisés par la longueur des traits.

e-

q1

q3

e+

q5

q5

effets de l'interaction forte (calculable)

ÉLÉMENTAÍRE

q3

q4 q4

q

collision initiale (interaction électromagnétique)

Ce schéma représente l’annihilation d’un électron avec un positron créant un photon (virtuel) qui se transforme ensuite en une paire quark-antiquark. Ce processus est exactement calculable. À haute énergie, en s’éloignant l’un de l’autre, le quark et l’antiquark rayonnent des gluons. Ce mécanisme est aussi calculable avec une bonne précision. Par contre, le rayonnement de gluons de plus en plus mous et la création des particules finales nécessitent l’utilisation de modèles empiriques.

q2

q2

q

jet1

jet2

création des particules finales

(non calculable)

page 41

γ

q1


Accélérateur Le développement des accélérateurs linéaires

© SLAC

Si les complexes accélérateurs utilisés en physique des particules possèdent en général une partie circulaire dérivée du principe du synchrotron (dont nous avons parlé dans notre précédent numéro) ils comportent toujours un accélérateur linéaire, chargé d’apporter une quantité initiale d’énergie aux particules. Dans cet article, nous allons présenter les développements de ces machines après-guerre. Les premiers accélérateurs linéaires naissent au tournant des années 1930, avec les travaux de Rolf Wideröe en Allemagne, puis de David Sloan et Ernest Lawrence en Californie (voir Élémentaire N°2). Des ions, regroupés en paquets, traversent une série de tubes entre lesquels règne un champ électrique oscillant. Le dispositif est réglé de manière à ce que le champ soit toujours accélérateur lorsque les ions y sont soumis. Au début, Après des études à l’université de Chicago, L. Alvarez s’installe les particules accélérées sont nonà Berkeley où il est successivement chercheur (1936), professeur relativistes ce qui fait que leur vitesse (1945) et professeur émérite (1978). Pendant la guerre il travaille croît de manière significative au fur et à sur les radars au M.I.T. puis, à partir de 1944 au développement de la bombe atomique au laboratoire national de Los Alamos. mesure qu’elles acquièrent de l’énergie. Il construit le premier accélérateur linéaire à protons juste après Pour assurer la synchronisation de la guerre. En 1968, il reçoit le prix Nobel de physique « pour ses l’accélérateur, le temps passé par les contributions décisives à la physique des particules élémentaires, particules dans chaque tube, où elles en particulier pour les découvertes d’un grand nombre de dérivent en l’absence de champ, doit résonances, rendues possibles par ses développements techniques être le même. La longueur des tubes sur la chambre à bulles à hydrogène et en analyse de données », couronnant ainsi une augmente donc proportionnellement à carrière bien remplie et extrêmement diversifiée. Dans les années 1980, il annonce avec son la vitesse des particules. fils, le géologue Walter Alvarez, la découverte d’une couche d’argile très riche en iridium (un DR

Zone expérimentale «historique» de SLAC : c’est dans le grand bâtiment à droite qu’eurent lieu les expériences établissant la validité du modèle des quarks.

métal d’origine extraterrestre) vieille d’environ 66 millions d’années et présente partout sur la Terre. Ils émettent l’hypothèse que ces traces proviennent d’une météorite géante qui la percuta alors et provoqua, entre autre, l’extinction brutale des dinosaures. Cette explication reste encore la plus plausible.

Tableau discussions sur le démarrage du linac à protons le 16 octobre 1947. On peut y voir une remarque de la main d’Alvarez (datée, en haut, de 20h30) expliquant que la géométrie de la machine doit être modifiée et qu’elle ne « marche pas » en l’état. Une note ajoutée à 2h40 la nuit suivante souligne l’obtention du premier faisceau. page 42

© SLAC

Cette contrainte s’avère rapidement être le talon d’Achille des premiers accélérateurs linéaires. Plus les particules utilisées sont légères, plus leur vitesse est élevée à énergie donnée : les tubes doivent donc être plus longs ou bien l’oscillation des champs accélérateurs plus rapide. Prenons l’exemple d’électrons de vitesse presque égale à celle de la lumière, soumis à un champ oscillant à 30 MHz, une valeur typique à l’époque. Les tubes d’un tel accélérateur doivent mesurer 5 mètres chacun. En supposant que la différence de potentiel entre chaque cavité atteint 100 kV au maximum, il faudrait faire parcourir 150 m aux particules pour qu’elles gagnent 1 MeV. Cette difficulté explique pourquoi physiciens et ingénieurs privilégient plutôt, avant guerre, le développement des noir illustrant des synchrotrons qui apparaissent alors plus prometteurs. Le progrès des technologies liées aux radars lors de la seconde guerre mondiale modifie en profondeur cette situation, restée figée pendant une quinzaine d’années : des sources radiofréquences plus puissantes et plus rapides sont développées. Exploitant ce nouveau savoir faire, en 1946, Luis Alvarez et Wolfgang Panofsky débutent à Berkeley la construction du premier « linac » (« linear accelerator ») à protons qui

ÉLÉMENTAÍRE


Le développement des accélérateurs linéaires

© RStanford News Service archives

©BrookavenLab..

Né à Berlin, W. Panofsky émigre aux États-Unis en 1934 et devient citoyen américain en 1942. Après des études dans les universités prestigieuses de Princeton et Caltech, il travaille sur le projet Manhattan pendant la guerre. À la fin des hostilités, il s’installe à Berkeley où il participe à la mise au point du premier accélérateur linéaire à protons. En 1951 il devient professeur à l’Université de Stanford et prend, en 1961, la direction du Stanford Linear Accelerator Linear nouvellement créé. Sous son mandat, SLAC se hisse au premier rang des laboratoires de physique des particules : trois découvertes (confirmation du modèle des quarks, le quark charmé et le lepton tau) valent à leurs auteurs le prix Nobel de physique. Bien qu’il n’ait pas reçu cette récompense lui-même, l’importance de ses contributions est unanimement reconnue. Directeur émérite de SLAC, il a toujours son bureau dans le bâtiment principal du laboratoire et on peut l’y croiser très régulièrement.

W. Hansen et ses trois étudiants se révèlera capable d’accélérer ces derniers (injectés à 4 MeV en sortie portant un tube de l’accélérateur Mark d’un accélérateur de Van de Graaf) jusqu’à 32 MeV. I, d’une longueur de 3,6 m au total. Aujourd’hui, on utilise toujours des accélérateurs linéaires basés sur le principe de celui d’Alvarez : ils servent de prétube métallique à dérive paquet de protons injecteurs dans beaucoup de synchrotrons à protons ou à ions lourds. Après la phase initiale d’accélération, l’énergie E E E E supplémentaire est acquise, puis maintenue, dans les sections droites alternant avec les zones courbes du complexe faisceau + le champ est accélérateur. accélérateur

À la même époque, une autre équipe, basée à l’Université de Stanford (toujours en Californie) met au point le premier accélérateur linéaire à électrons. Paradoxalement, ces particules sont les plus difficiles à accélérer bien qu’elles soient les plus légères. En effet, leur perte d’énergie par rayonnement synchrotron est très importante ce qui limite l’intérêt d’une machine circulaire. De plus, le fait qu’elles faisceau soient rapidement relativistes empêche l’utilisation d’un + accélérateur de Wideröe pour les raisons d’encombrement que nous avons développées plus haut. En 1934, William Hansen cherche à obtenir un faisceau d’électrons énergétiques afin de produire des rayons X : bien vite, il se rend compte que les technologies disponibles sont insuffisantes. En 1937 il s’intéresse à la détection d’avions par ondes électromagnétiques et, avec les frères Varian, il met au point le klystron qui va non seulement

cavité métallique

paquet de protons E

E

tube métallique à dérive E

le champ est décélérateur

cavité métallique

page 43

William Hansen est étudiant puis professeur à l’Université de Stanford. Avec les frères Varian il invente le klystron, un dispositif performant pour générer des micro-ondes très énergétiques qui trouve ses applications dans de nombreux domaines, de la physique des particules aux télécommunications. Il est également à l’origine des premiers accélérateurs linéaires du campus de Stanford, domaine dans lequel l’Université est à la pointe du progrès depuis plus d’un demi-siècle. Le laboratoire de physique de Stanford a été rebaptisé « Laboratoire de physique expérimentale William Hansen » en 1990.

ÉLÉMENTAÍRE

E

barre de support

barre de support

Le linac à protons mesure un peu plus de 12 mètres et comporte 46 tubes à dérive dont la longueur augmente (de 11 à 28 cm). Le champ oscille à 200 MHz et les particules sont abritées dans les tubes à dérive lorsque le champ est « freinant ». L’ensemble est inséré dans une cavité fermée résonante qui contient l’énergie rayonnée par l’accélérateur. Le linac accélère 15 paquets par seconde et le courant est de quelques dizaines de micro-ampères.


Le développement des accélérateurs linéaires révolutionner la physique des accélérateurs mais aussi la recherche sur les micro-ondes en débouchant sur des applications très variées : radar, communications satellites, système de guidage, transmissions téléphoniques et télévisées, etc. En fait, le klystron permet de créer des ondes électromagnétiques de haute fréquence (GHz) qui véhiculent une grande puissance.

Traduction du discours du président américain Einsenhower en mai 1959 : « Je recommande que le Congrès du Gouvernement Fédéral finance la construction d’un grand et nouvel accélérateur linéaire à électrons d’intérêt national. Les physiciens considèrent le projet – soutenu par l’Université de Stanford – comme vital. À cause de son coût, un tel projet doit devenir une responsabilité nationale ».

En 1947, Hansen met au point avec trois étudiants le premier accélérateur de l’Université de Stanford, le Mark I qui utilise un « magnétron » (un cousin du klystron) pour accélérer des électrons jusqu’à 6 MeV. Il se donne ensuite pour objectif d’arriver à 1 GeV. Il construit alors un nouveau prototype, Mark II, avec lequel il atteint l’énergie de 49 MeV grâce à un klystron de 20 MW. Malgré son décès prématuré, la construction de l’accélérateur Mark III se poursuit. Entré en fonction le 30 novembre 1950, il améliore rapidement le record de son aîné (75 MeV) puis monte en énergie jusqu’à 730 MeV grâce à l’utilisation de 21 klystrons. En 1954, débute le projet Mark IV : d’énergie plus modeste (80 MeV) cet accélérateur sera utilisé pendant plus d’une décennie pour tester des nouvelles méthodes d’accélération. Les succès de la « famille Mark » conduisent les chercheurs de Stanford à imaginer un nouvel accélérateur linéaire à la fois beaucoup plus long (3,2 km), plus puissant (capable d’atteindre une énergie de plusieurs dizaines de GeV) et plus coûteux que ses prédécesseurs. Son prix était de 114 millions de dollars de l’époque ce qui en faisait le projet le plus cher en physique des hautes énergies. Par comparaison, le budget de la NASA en 1958, l’année de sa création, n’était « que » de 89 millions de dollars. Après quatre ans de tractations intenses et de « lobbying », le « Stanford Linear Accelerator Center » (SLAC) est créé sur un terrain appartenant à l’Université de Stanford à quelques kilomètres à l’ouest du campus. Son premier directeur n’est autre que Wolfgang Panofsky : il le restera 23 ans.

Premières sections de l’accélérateur Mark III vues depuis l’injecteur. Une fois la construction terminée, l’accélérateur fut isolé par un épais blindage pour se protéger de la radioactivité.

DRStanford News Service archives

En juillet 1962 commence la construction du nouveau linac. Le faisceau d’électrons atteint pour la première fois son autre extrémité en mai 1966

© SLAC

Maintenance sur l’accélérateur linéaire de Stanford. page 44

Sigurd et Russel Varian (les deux plus à gauche, debout et à genoux) et William Hansen (à droite) examinent avec David Webster et John Woodyard un klystron construit à l’Université de Stanford en 1939.

L’accélérateur linéaire de Stanford en quelques chiffres : • Énergie record 53 GeV en 1987 • 3,2 km de long • 960 sections accélératrices • 245 klystrons d’une puissance comprise entre 6 et 64 MW chacun, installés dans le plus long bâtiment du monde • Fréquence du champ électrique oscillant : 2856 MHz • Lignes de faisceaux enterrées sous 8 mètres de terre.

ÉLÉMENTAÍRE


Le développement des accélérateurs linéaires

© General Electric

avec une énergie d’environ 18 GeV. Le programme de recherche débute en avril 1967 : au bout de l’accélérateur, des électro-aimants courbent les particules vers l’un des deux bâtiments contenant des expériences de cibles fixes à l’aide desquelles le modèle des quarks reçoit en quelques années une confirmation éclatante (voir « Expérience »). Début 2007, l’accélérateur linéaire est toujours la clef de voûte du SLAC. Il fournit, pour des expériences de précision, des faisceaux d’électrons et de positrons à des énergies plus modestes (9 GeV et 3 GeV respectivement) mais d’une qualité toujours meilleure : énergie plus stable et particules accélérées sans cesse plus nombreuses. Son prochain défi (dès 2009), sera de fournir des faisceaux qui serviront à produire une lumière synchrotron extrêmement brillante.

Rayonnement synchrotron

Découverte du rayonnement synchrotron sur le synchrotron de General Electrics en 1946. La flèche montre l’émission de lumière visible à l’œil nu.

Le rayonnement synchrotron est constitué de photons, émis par des particules en mouvement non-uniforme (par exemple se déplaçant dans un anneau de stockage circulaire). La perte d’énergie de ces particules (ΔE) dépend de leur énergie (E), de leur masse (M) et du rayon de courbure (R) de leur trajectoire : ΔE ∝ (E/M)4 / R 5. Les électrons perdent donc beaucoup plus d’énergie par rayonnement synchrotron que les protons à cause de leur masse qui est environ 2000 fois plus faible.

©Wikipedia

Si le rayonnement synchrotron est une nuisance dans les accélérateurs de particules, il est utilisé dans des machines spécialement conçues (comme le synchrotron Soleil en fonctionnement sur le plateau de Saclay dans le sud de la région parisienne) pour analyser des matériaux ou observer des événements très rapides invisibles sous lumière normale – selon l’énergie des particules, le rayonnement synchrotron va de l’infrarouge aux rayons X les plus énergétiques.

© Googleearth

Effet du faisceau de l’accélérateur linéaire de SLAC sur une cible de cuivre.

ÉLÉMENTAÍRE

page 45

SLAC et l’Université de Stanford vus du ciel.


Le développement des accélérateurs linéaires

© SLAC

Klystron Le klystron est un dispositif permettant de transférer l’énergie d’un faisceau d’électrons à des ondes électromagnétiques de haute fréquence. Le faisceau d’électrons dont on parle ici ne doit pas être confondu avec celui circulant dans l’accélérateur et auquel on communique de l’énergie par ce dispositif. Un klystron amplificateur ayant deux cavités comprend : 1) une source « continue » d’électrons qui sont accélérés par des tensions de quelques dizaines à quelques centaines de kilovolts, 2) une première cavité dans laquelle les électrons sont soumis à un champ électromagnétique alternatif à haute fréquence. Pendant les demi-périodes où le champ est orienté dans la direction opposée à celle du mouvement des électrons, ces derniers sont accélérés. Ils sont freinés dans le cas contraire. Il se produit alors une modulation de la vitesse des électrons en phase avec le champ. 3) un espace dit de glissement dans lequel aucun champ ne règne. Les électrons qui ont des vitesses différentes à l’entrée de cet espace se groupent en paquets, les plus rapides rattrapant les plus lents. La modulation de vitesse a ainsi créé, au bout de l’espace de glissement, une modulation de densité ayant la même période. 4) une deuxième cavité accordée à la même fréquence que le champ alternatif appliqué à la première. Les paquets d’électrons créent par induction dans cette cavité un champ électromagnétique de même fréquence. La puissance HF disponible dans la deuxième cavité dépend de l’intensité du faisceau d’électrons et elle est beaucoup plus élevée que celle alimentant la première. 5) un collecteur qui absorbe les électrons à la sortie de la deuxième cavité. La puissance HF ainsi créée est transmise aux sections d’accélération de l’accélérateur principal par des guides d’ondes puis des coupleurs. Remarquons qu’une source HF unique (pilote) peut alimenter une série de klystrons amplificateurs. Il existe plusieurs types de klystrons amplificateurs (à plusieurs cavités) ou oscillateurs (deux cavités couplées et klystron réflex à une seule cavité). Pendant la dernière guerre, et parallèlement à l’effort américain (Varian,..), des industriels français ont aussi développé des klystrons : la CSF (1,3 Ghz) et LMT (2 Ghz).

page 46

Vue du bâtiment de surface (3,1 km d’une seule traite !) de l’accélérateur linéaire de Stanford – le faisceau passe 8 mètres sous le sol. On peut voir deux klystrons (en rouge) séparés d’une douzaine de mètres.

ÉLÉMENTAÍRE


Découvertes Le quark top : vingt ans de traque Deux mars 1995, près de Chicago : le laboratoire-accélérateur national Fermi (« Fermilab ») est en ébullition. En effet, lors de deux séminaires exceptionnels, les expériences concurrentes CDF et D0 viennent d’annoncer la découverte du quark top. Cela fait presque vingt ans qu’il est traqué sans relâche par de nombreuses équipes à travers le monde.

CDF et D0 À l’origine, CDF (« Collider Detector at Fermilab », « Détecteur sur collisionneur à Fermilab ») est le seul détecteur installé sur le Tevatron. Au début des années 1980, le directeur du laboratoire Leon Lederman décide que CDF a besoin d’un concurrent : ce sera la collaboration D0 (prononcer « Dee Zéro » d’après l’emplacement où ce second détecteur fut construit). Pourquoi ce choix, coûteux sur les plans financier et humain ? Dans ce contexte une situation de concurrence directe est souvent bénéfique : elle accélère la publication de résultats dont la validité est régulièrement testée par comparaison entre les deux expériences. De plus, les détecteurs sont complémentaires : si CDF mise sur sa capacité d’identification des particules chargées, D0 met en avant son calorimètre pour une mesure précise de l’énergie déposée par ces mêmes particules.

Dans les années 1960, le modèle des quarks s’impose comme la meilleure description des hadrons. Il fait appel à trois briques plus élémentaires, les quarks « up » (u), « down » (d) et « strange » (s). Dès 1970, des théoriciens prédisent l’existence d’un quatrième quark, nécessaire pour expliquer des résultats expérimentaux inattendus. Le quark « charm » (c) est effectivement découvert en 1974 dans deux laboratoires américains concurrents (SLAC en Californie et Brookhaven dans l’État de New York). En même temps qu’ils trouvent le charme, les physiciens de SLAC découvrent aussi un nouveau lepton, le tau. On prévoit alors l’existence d’une nouvelle «famille» de quarks et de leptons (voir « Apéritif ») dont le tau est un des membres. Trois ans plus tard, un groupe de Fermilab – qui s’était fait souffler de peu la découverte du charme – observe un cinquième quark, le « bottom » (b), lors de collisions de protons sur une cible de Béryllium. Il ne restait plus qu’à trouver le « partenaire » du quark b, le « top » (t). Le problème est de taille : si le Modèle Standard prédit certaines des caractéristiques du top il reste désespérément muet sur sa masse. Expérimentalement, on peut seulement dire en 1977 que le top est plus lourd que les autres quarks puisqu’on n’a pas encore réussi à le produire. Par ailleurs, les cinq quarks connus étant « légers » (au plus 5 GeV/c2,

Production du quark top « Pour produire une particule il faut disposer de l’énergie suffisante ». Cette assertion trouve tout son sens dans la célèbre équation énoncée par Einstein en 1905 : E = M c2. Dans un anneau de collisions, deux faisceaux ayant le plus souvent la même énergie (E0), se rencontrent. L’énergie disponible pour la réaction est dans ce cas égale à E= 2 E0. Une condition nécessaire pour qu’une particule de masse M soit produite dans un tel collisionneur est que E ≥ M × c2. En cas d’égalité, toute l’énergie disponible est convertie en masse et la nouvelle particule est au repos. Sinon, le surplus d’énergie est utilisé pour mettre en mouvement la particule créée ou bien pour produire d’autres particules.

ÉLÉMENTAÍRE

page 47

Les expériences menées jusqu’en 1995 avaient montré que le quark top devait être très lourd : les courbes en rouge et bleu indiquent les limites inférieures (sans cesse plus élevées) obtenues par ces expériences. Par ailleurs, on savait de manière indirecte dans quel domaine la masse du top devait se trouver si le Modèle Standard était valide. Les mesures du Tevatron se sont avérées en parfait accord avec ces attentes.


Le quark top : vingt ans de traque Le Tevatron, situé près de Chicago, fait près de 6,5 km de circonférence et fonctionne depuis 1983. C’est actuellement l’accélérateur le plus puissant au monde (2 000 GeV après une amélioration récente). Pour courber les trajectoires des faisceaux tout au long de l’anneau, il utilise plus de 1 000 bobines supraconductrices refroidies à -268°C. À son démarrage, ce système cryogénique était le plus grand au monde. Pour améliorer le taux de collisions protonantiproton, l’injecteur principal de 3,2 km de circonférence a été construit puis mis en service en 1998.

Le principe d’incertitude de Heisenberg permet de violer le principe de conservation de l’énergie pendant un temps très court et la relativité restreinte permet de convertir cette énergie en masse : ces deux idées sont à la base de l’existence des particules virtuelles. Des particules peuvent ainsi jaillir du vide pendant une durée très brève, puis disparaître. Toutefois si l’énergie est soumise au principe d’incertitude, ce n’est pas le cas de la charge électrique. Ainsi, si un quark top peut apparaître à partir du vide, il doit nécessairement être accompagné d’un antitop pour que la charge totale (et les autres nombres quantiques) de l’ensemble reste constante et nulle. Ces particules virtuelles qui apparaissent et disparaissent ne sont pas observables, mais leur présence peut être détectée par les effets qu’elles induisent sur les particules observées. C’est ainsi qu’au LEP (CERN) les mesures de certains paramètres sensibles aux paires virtuelles de top-antitop permettaient de prédire que, dans le cadre du Modèle Standard, la masse du quark top devait être de 179 GeV/c2 avec une incertitude d’une vingtaine de GeV/c2 environ. Cette prédiction fut faite bien avant la production directe du quark top.

© Fermilab

Tevatron

Des informations sur sa masse

Vue aérienne du complexe accélérateur de Fermilab (1999) : au premier plan l’injecteur principal et au second plan le Tevatron.

soit environ cinq fois la masse du proton), on s’attend à ce qu’il en soit de même pour la nouvelle particule. Dans les quinze années qui suivent, de nombreuses recherches du top sont menées sur des collisionneurs. Si elles se concluent toutes par la négative, elles permettent d’obtenir des limites inférieures toujours plus élevées sur la masse du top. Leurs résultats sont résumés dans la figure présentée sur la page précédente. Ces recherches montrent que si le quark top existe il est trop massif pour être produit dans les collisionneurs électron-positron existant à cette époque. Notons toutefois que les expériences sur ces collisionneurs, si elles n’ont pas permis de découvrir directement le quark top, ont fourni des informations sur sa masse qui se révéleront exactes par la suite. Tous les espoirs se reportent alors sur les machines proton/(anti)proton et en particulier sur le Tevatron dont l’énergie atteint la valeur de 1 800 GeV lorsqu’il se lance à son tour dans la compétition au début des années 1990. Ce gain d’énergie est tout sauf un luxe : la limite supérieure sur la masse du top, obtenue en 1992 montre que ce quark est plus lourd que toute autre particule connue. Ainsi, il ne peut pas être obtenu par désintégration mais seulement par la création d’une paire top-antitop lors de collisions. L’énergie disponible doit donc être au moins deux fois celle de la masse du top pour permettre la production de ces paires. En pratique, elle doit être bien plus élevée pour assurer un nombre suffisant d’événements observables.

page 48

Événement enregistré et interprété par l’expérience D0 comme provenant de la production d’une paire top - antitop. Le détecteur est ici vu en coupe, les faisceaux d’(anti-)protons sont perpendiculaires à l’image et la collision a lieu en son centre. Sur cette image informatique on peut voir les produits de la désintégration des quarks top : deux muons (en bleu foncé), un neutrino (en rose) et quatre « jets » de particules (en rouge et bleu pâle).

Finalement, le quark top commence à montrer le bout de son nez à l’automne 1992 : CDF et D0 observent chacune un événement très similaire à la signature attendue d’une paire top-antitop. C’est un bon début mais c’est loin d’être suffisant pour convaincre la communauté des physiciens qu’il ne s’agit pas d’une simple

ÉLÉMENTAÍRE


Le quark top : vingt ans de traque Signature du quark top La durée de vie des particules se désintégrant par l’interaction faible est inversement proportionnelle à la puissance cinquième de leur masse : plus elles sont lourdes, plus elles se désintègrent vite ! Ainsi, la gigantesque masse du quark top lui confère une durée de vie extrêmement brève. Aucun des cinq quarks légers n’est observé à l’état libre, c’est-à-dire individuellement (voir la rubrique théorie) : à peine produit, ils s’associent à d’autres quarks pour former des hadrons – c’est « l’hadronisation ». Ce n’est pas le cas du quark top : sa masse très élevée va de pair avec une durée de vie très courte (quelques 10-25 s soit quelques dix millionièmes de milliardième de milliardième de seconde...) environ vingt fois plus faible que le temps caractéristique du processus d’hadronisation. Ce dernier phénomène n’a donc pas le temps de se produire pour le top qui se désintègre directement. Dans le cadre du Modèle Standard, il se désintègre en un boson W et un quark b qui, lui, s’hadronisera. Les particules comportant un quark « b » ont une signature expérimentale caractéristique. Au Tevatron – ainsi que bientôt au LHC – le quark top est majoritairement produit accompagné de son antiparticule, le quark antitop : les physiciens recherchent donc des collisions donnant naissance à deux bosons W (un W+ et un W-) accompagnés d’un quark b et de son antiparticule.

coïncidence... Début 1993, la limite inférieure monte à 108 GeV/ c2 (CDF) puis à 131 GeV/c2 (D0). Mais, en juillet 1993, le rapprochement de trois analyses menées indépendamment au sein de l’expérience CDF ne laisse plus guère de doute : le top est là ! Néanmoins, le résultat n’est pas établi avec suffisamment de certitude pour pouvoir être rendu public à la grande conférence de l’été où les découvertes en physique des particules sont traditionnellement annoncées. CDF présente ses méthodes d’analyse, les difficultés rencontrées mais pas les résultats obtenus, ce qui ne passe pas inaperçu et suscite rumeurs et interrogations dans la communauté scientifique. Finalement, après des mois de travail dans un relatif secret, un article est soumis le 22 avril 1994 : il porte sur douze événements triés parmi mille milliards de collisions et parle « d’indication » plutôt que de « découverte » – la distinction sémantique est importante car elle indique le degré de confiance statistique associé à cette affirmation. Quelques semaines plus tard, D0 présente des résultats qui vont dans le même sens mais les deux expériences s’accordent sur le fait qu’il faudrait deux fois plus d’événements top-antitop pour parvenir à une conclusion définitive. La confirmation vient finalement le 2 mars 1995 : chacune des collaborations

En physique des particules l’utilisation de l’un ou l’autre de ces termes est soumise à une règle stricte. Un résultat dont la signification statistique est inférieure à 3 « sigmas » a une probabilité supérieure à 2,7 × 10 -3 d’être dû au hasard (voir Élémentaire N°2). Il n’est pas considéré comme significatif et ne sera donc pas publié. Si sa signification statistique se situe entre 3 et 5 « sigmas », on parle d’indication et si elle est supérieure à 5 « sigmas » on emploie le terme de découverte.

ÉLÉMENTAÍRE

page 49

Indication ou découverte ?

Événement enregistré et interprété par l’expérience CDF comme venant d’une paire top-antitop. Les courbes jaunes correspondent à des particules chargées. La flèche rouge indique le neutrino. On ne le détecte pas directement mais sa présence et son énergie peuvent être déduites à partir des mesures des autres particules (celles-ci étant détectées) et du principe de conservation de l’énergie (il doit y avoir autant d’énergie avant la collision qu’après).


Le quark top : vingt ans de traque présente des résultats qui ont moins d’une chance sur 500 000 d’être dus au hasard. Les deux mesures de la masse du top sont en accord compte tenu des barres d’erreur encore importantes : 199 ± 30 GeV/c2 pour D0 et 178 ± 13 GeV/c2 pour CDF.

5 p,n

s

0

c

e u,d

Affiche du colloque « Top turns ten » (« Le Top a dix ans ») organisé en 2005 à Fermilab pour célébrer les dix ans de la découverte du quark top. On peut y voir, pêle-mêle, des photos de groupe des membres des collaborations CDF et D0, les deux détecteurs ou encore les facsimilés de publications annonçant ou rapportant cette avancée scientifique.

t Au

Le top : un secret bien gardé !?

0

5 GeV/c2

172,5 GeV/c2

Les masses de différentes particules. Les cinq quarks les plus légers (u, d, s, c, b) ont tous une masse plus petite que 5 GeV/c2 , de même que l’électron, le proton et le neutron (ces derniers étant constitués de 3 quarks). Le quark top se distingue des autres par sa masse très élevée, qui est voisine de celle d’un atome d’or (Au) !

page 50

En sciences, les chercheurs veulent garder leur découverte secrète jusqu’à sa publication – laquelle n’intervient qu’après avoir effectué plusieurs vérifications contrôlant la « justesse » du résultat. Ainsi, le groupe de travail « quark top » de la collaboration CDF dissimula les épreuves de l’article annonçant la découverte de la douzième particule élémentaire et tous les documents associés dans un sous répertoire (intitulé « casserole » !) de l’ordinateur d’une secrétaire de Fermilab.

b

Depuis dix ans, l’étude du top n’a pas cessé au Tevatron : 30 000 paires top-antitop ont été produites et la masse du quark t est maintenant connue avec une précision bien meilleure : 172,5 ± 2,3 GeV/c2. La connaissance de cette masse est très importante d’un point de vue théorique puisque, dans le cadre du Modèle Standard, elle est reliée aux masses des bosons W et du Higgs. Cette masse très élevée (presque celle de l’atome d’or qui compte 79 protons et 118 neutrons !) n’est pas le moindre des mystères qui entourent cette particule élémentaire atypique. Le prochain acte de la saga du top se jouera sans doute au LHC car l’anneau de collisions proton-proton à 14 TeV est une véritable « usine à top » : après un an de fonctionnement huit millions de paires topantitop devraient avoir été produites ce qui permettra de connaître la masse du quark t avec une précision meilleure que le GeV/c2, de comprendre les détails de ses interactions avec les autres particules et de mesurer ses principales caractéristiques.

ÉLÉMENTAÍRE


Théorie QCD... ou la colle des quarks

DR

Comme nous vous l’avons raconté dans la rubrique Histoire, les physiciens sont parvenus à mettre un peu d’ordre parmi toutes les particules observées dans les accélérateurs en montrant qu’elles étaient constituées de quelques briques élémentaires simples, les quarks. Ainsi le proton contient-il deux quarks up et un quark down, tandis que le neutron est constitué de deux quarks down et d’un quark up. Mais comment ces quarks tiennent-ils ensemble ? Pourquoi ne les observe-t-on pas séparément les uns des autres, alors qu’on a pu le faire facilement avec d’autres constituants élémentaires comme les électrons ? C’est l’affaire d’une des quatre interactions fondamentales, l’interaction forte, et de sa description théorique, la chromodynamique quantique ou QCD (Quantum ChromoDynamics).

La couleur Dans les années 60, alors que le modèle des quarks semble de plus en plus convaincant pour les physiciens, une particule reste assez mystérieuse : le ∆++. En effet, cette particule doit être constituée de trois quarks up placés exactement dans le même état. Or deux quarks de même nature sont des fermions identiques qui ne peuvent coexister dans le même état d’après le principe d’exclusion de Pauli. En 1965, le Coréen M.Y. Han et le Japonais Y. Nambu d’une part, l’Américain O.W. Greenberg d’autre part, proposent de résoudre le problème en dotant les quarks d’une nouvelle caractéristique, qu’ils nomment couleur. En fait, cette « couleur » est un terme de physique des particules qui n’a rien à voir avec la couleur au sens usuel du terme. Les quarks ne peuvent exister qu’en trois couleurs différentes, bleu, vert et rouge. L’avantage ? Les trois quarks up du ∆++ peuvent maintenant coexister sans défier le principe d’exclusion de Pauli, car chacun se distingue des deux autres par... sa couleur. Ainsi, les quarks se différencient par leur charge électrique (certains ont une charge électrique valant 2/3 de celle du proton, d’autres -1/3), mais aussi par leur couleur. Existerait-il une interaction liée à la couleur, d’une manière analogue à la force électromagnétique qui s’exerce entre deux particules chargées électriquement ? Si oui, peut-on s’inspirer de la description de l’interaction électromagnétique en physique des particules ? Les physiciens s’aperçoivent progressivement que la réponse à ces deux questions est positive.

Yoishiro Nambu, Moo-Young Han et Oscar Wallace Greenberg.

Photons, gluons, qu’en dira-t-on ?

Pince-mi et Pince-moi sur leurs bateaux.

page 51

ÉLÉMENTAÍRE

© K. L.annuzel

Pince-mi et Pince-moi sont dans un bateau... Euh non, pas tout à fait. Imaginez que Pince-mi et Pince-moi sont chacun dans leur barque, sur un lac très calme. Soudain, Pince-mi lance depuis son canot un ballon, que Pincemoi récupère au vol. Lorsque Pince-mi lance le ballon, sa barque s’éloigne de celle de Pince-moi, de même qu’au moment où Pince-moi récupère le projectile. En échangeant une balle, nos deux amis se sont repoussés... Voilà qui rappelle l’interaction électromagnétique entre deux électrons de même charge électrique ! D’une manière analogue à l’expérience de Pincemi et Pince-moi, les physiciens décrivent les interactions fondamentales par


QCD... ou la colle des quarks Fermions et bosons Les constituants de la matière sont classés selon leur spin, un nombre d’essence quantique qui peut être un nombre entier (0,1,2...) ou demientier (1/2, 3/2, 5/2...) en unités de la constante de Planck h/2π. Dans le premier cas, on parle de bosons, et dans le second, de fermions. En physique des particules, on distingue traditionnellement les deux types de particules par le fait que les interactions fondamentales sont véhiculées par des bosons (comme le photon pour l’électromagnétisme), tandis que la matière est constituée de fermions (comme les quarks, les électrons, les neutrinos). En fait, la séparation est assez arbitraire : nous allons voir dans cet article qu’un proton contient tout à la fois des fermions (les quarks) et des bosons (les gluons). Les fermions obéissent au principe d’exclusion de Pauli. Ce principe, énoncé par le physicien autrichien Pauli, affirme qu’il est impossible de faire coexister deux fermions identiques dans le même état quantique. En physique des particules, ce résultat s’applique aux quarks et aux électrons, mais il est aussi exploité en physique nucléaire pour les protons et les neutrons. En physique atomique, ce principe explique pourquoi le nuage électronique autour d’un noyau atomique adopte une organisation en couches successives : on ne peut pas entasser tous les électrons sur la couche la plus basse. Les bosons, eux, ne sont pas soumis au principe d’exclusion de Pauli, et peuvent coexister dans le même état sans difficulté. En particulier, on sait placer de grandes quantités d’atomes bosoniques identiques dans le même état quantique. Ce phénomène, appelé condensation de BoseEinstein, se produit à très basse température. Les atomes adoptent alors un comportement grégaire : ils réagissent « comme un seul homme », ce qui donne lieu à des manifestations spectaculaires comme la superfluidité. Ce condensat de bosons devient un fluide parfait, qui s’écoule sans viscosité ni perte d’énergie.

l’échange de « bosons médiateurs ». Pour l’interaction électromagnétique, ces bosons s’avèrent être nos bons vieux amis les photons, ces grains de lumière introduits en 1905 par A. Einstein pour décrire les aspects corpusculaires des rayonnements lumineux. Cette vision de l’électromagnétisme par échange de photons entre particules de matière a été progressivement élaborée dans les années 1940 par F. Dyson, R. Feynman, J. Schwinger et S.I. Tomonaga. Les trois derniers reçoivent d’ailleurs en 1965 le prix Nobel de physique pour cette théorie, appelée électrodynamique quantique (Quantum ElectroDynamics ou QED).

© S. Descostes

On peut adapter l’arsenal théorique de l’électrodynamique quantique au cas de la couleur. Les quarks colorés sont sensibles à l’interaction forte, qui correspond à un échange de particules médiatrices, qu’on appelle gluons parce qu’ils collent les quarks ensemble. La chromodynamique quantique est née, une version « colorée » (chroma en grec) de l’électrodynamique quantique. À y regarder de plus près, les deux théories sont de fausses jumelles. En fait, la théorie de l’interaction forte aboutit à une situation très différente de l’électromagnétisme, car les gluons sont eux-mêmes sensibles à l’interaction qu’ils transportent. En d’autres termes, ils sont aussi « colorés »... Une situation très complexe : essayez donc d’imaginer ce que deviendrait l’interaction électromagnétique si le photon qui la transporte n’était pas neutre électriquement !

Quand on place un milieu diélectrique entre deux plaques chargées électriquement, les dipôles s’orientent de façon à contrebalancer le champ électrique des plaques. C’est l’écrantage.

page 52

Écran... total ? Pour mieux comprendre ce qui se passe, regardons ce qui arrive à deux plaques chargées électriquement entre lesquelles on place un milieu diélectrique, contenant des dipôles électriques constitués chacun d’une charge positive et d’une charge négative (par exemple certaines molécules simples). Sous l’effet du champ électrique des plaques, ces dipôles s’orientent pour présenter à la plaque négative leur charge positive et à la plaque positive leur charge

ÉLÉMENTAÍRE


QCD... ou la colle des quarks négative. Cette orientation du milieu est appelée polarisation. Si nous nous intéressons au champ électrique total, il provient non seulement de la charge électrique des plaques, mais aussi de la configuration très particulière (polarisée) des dipôles électriques. Le milieu polarisé compense en partie l’influence des plaques : on appelle écrantage ce phénomène. Un effet similaire se produit en physique des particules quand on étudie un électron à des distances très petites. En effet, les effets quantiques deviennent alors sensibles : l’espace qui environne l’électron s’avère beaucoup moins paisible que nous ne le pensions. Sur de très brefs intervalles de temps peuvent apparaître et disparaître des paires formées d’une particule et de son antiparticule associée. Ces paires peuvent sembler bien fantomatiques (on les appelle d’ailleurs particules virtuelles, voir «Question qui tue»), mais leur effet existe bel et bien : elles se comportent comme de petits dipôles qui suscitent un écrantage de la charge de l’électron. Quand nous sommes à grande distance de l’électron, sa charge électrique nous semble moins importante que celle que nous ressentirions face à un électron isolé (sans particules virtuelles). Quand nous nous rapprochons de l’électron, sa charge apparente augmente...

ÉLÉMENTAÍRE

Énergie et distance En physique des particules, énergies, durées et distances sont intimement liées. En effet, deux constantes fondamentales interviennent sans cesse dans les calculs : la relativité s’appuie sur la vitesse de la lumière c, qui est le rapport d’une longueur sur une durée, et la mécanique quantique fait apparaître la constante de Planck h, qui est le produit d’une énergie et d’un temps. Ainsi, une durée est proportionnelle à une distance (par le biais de c), mais inversement proportionnelle à une énergie (via h). On peut donc décrire l’évolution de la charge apparente de manière équivalente en fonction de la distance ou de l’énergie associée. page 53

L’intensité de l’interaction forte est décrite par une quantité notée αs et appelée « constante de couplage ». Comme dans le cas de l’électromagnétisme, cette « constante » varie avec la distance, du fait de l’(anti)écrantage des particules virtuelles. On a représenté ici la variation de αs en fonction de l’énergie, inversement proportionnelle à la distance. La courbe en bleu correspond à la prédiction théorique de QCD et montre la propriété de liberté asymptotique : le couplage diminue à petites distances, c’est-à-dire à grandes énergies. Les différents points correspondent à des mesures expérimentales de natures très différentes, toutes en accord avec la prédiction théorique donnant la variation de αs avec l’énergie.

L’intensité de l’interaction électromagnétique est décrite par une quantité notée α et appelée « constante de couplage ». En fait, cette « constante » varie avec la distance, du fait de l’écrantage dû aux particules virtuelles. On a représenté ici la variation de 1/α en fonction de l’énergie au carré. L’énergie est inversement proportionnelle à la distance.


QCD... ou la colle des quarks En QCD, un quark subit également un écrantage... ou plutôt deux. Les paires virtuelles de quark-antiquark écrantent la couleur du quark d’une manière similaire au cas précédent. Mais dans le cas de QCD, les gluons, eux aussi présents sous forme virtuelle, interviennent également car ils sont colorés (sensibles à l’interaction forte). Ces derniers donnent lieu à un écrantage inverse du précédent, appelé antiécrantage, qui diminue la couleur apparente du quark quand on se rapproche de lui. Qui des deux gagnera ? Tout dépend du nombre de types de paires virtuelles quarks-antiquarks susceptibles de participer à l’écrantage. Dans notre monde, avec trois couleurs et six types de quarks différents, l’antiécrantage des gluons l’emporte : plus on s’éloigne d’un quark et plus on est sensible à l’interaction forte qu’il génère... À l’inverse exact de ce qui se passe pour la charge électrique d’un électron !

Le confinement Ainsi, plus on est loin d’un quark isolé, et plus on est sensible à son interaction forte. Cela explique que les quarks n’aiment pas s’éloigner les uns des autres. En fait, on les retrouve confinés (regroupés) au sein de particules observables, que l’on nomme hadrons (du grec hadros, qui signifie lourdaud). Ces derniers peuvent être des mésons, qui rassemblent un quark et un antiquark, comme les pions ou les kaons, ou des baryons tels protons et neutrons qui réunissent trois quarks. Ces configurations de quarks colorés sont « blanches » : l’interaction forte des différents quarks s’y équilibre, exactement comme un atome d’hydrogène, neutre électriquement, combine un électron et un proton de charges électriques opposées. Ainsi, entre deux protons ne reste qu’une force nucléaire résiduelle, dont les propriétés sont très différentes de l’interaction forte qui existe entre deux quarks, tout comme l’interaction électromagnétique résiduelle entre deux atomes ne ressemble guère à celle qui unit l’électron et le proton dans un atome d’hydrogène.

Blanches La caractéristique nommée « couleur » n’existe pour les quarks qu’en trois versions : rouge, vert et bleu. De même, pour les antiquarks, on trouve de l’antirouge, de l’antivert et de l’antibleu. Mais les particules effectivement observées sont des ensembles de quarks qui n’ont pas de couleur spécifique visà-vis de l’interaction forte, et qu’on appelle donc « blancs ». Pour former de tels groupes, on peut par exemple combiner trois quarks, un vert, un rouge et un bleu, pour former un baryon. On peut aussi combiner un quark d’une couleur et un antiquark de l’anticouleur correspondante pour donner naissance à un méson.

page 54

Mais même si les quarks aiment à rester ensemble, ne pourrait-on pas essayer de les séparer ? Prenons un proton, contenant deux quarks u et d’un quark d, et essayons d’éloigner le quark d des deux autres. Plus on essaie de séparer les quarks, plus l’interaction (attractive) entre eux devient importante : l’énergie à fournir croît progressivement avec la distance qui les sépare... Cette énergie devient tellement importante qu’elle aboutit à la création d’une nouvelle paire de particules : un quark et un antiquark (ici un quark u et son antiquark -u), qui s’accolent aux quarks environnants. Résultat des courses ? Nous avons deux groupes de quarks au lieu d’un : d’une part, un baryon formé de trois quarks u, par exemple un ∆++, et de l’autre un quark et un antiquark rassemblés dans un méson comme le pion π-. Mais nous n’avons toujours pas isolé un quark unique.

ÉLÉMENTAÍRE


QCD... ou la colle des quarks Que se passerait-il si on essayait de tirer sur le quark « d » contenu dans un proton ? On aboutirait à deux nouveaux groupes de quarks, sans avoir pu en isoler aucun. Les ressorts reliant les quarks sont les gluons transportant l’interaction forte et responsables de la cohésion des hadrons. Les différentes couleurs servent ici à identifier les quarks et ne correspondent pas à la couleur au sens de QCD.

La description de l’interaction forte par la chromodynamique quantique est qualitativement satisfaisante, mais les théoriciens éprouvent de grandes difficultés à en tirer des prédictions quantitatives précises. La force forte nous place dans une situation très particulière. Nous avons d’un côté une théorie cohérente de l’interaction forte, et de l’autre de nombreux résultats expérimentaux venant des accélérateurs de particules. Malheureusement, la première ne connaît que les quarks et les gluons, tandis que les seconds ne parlent que de hadrons. Et dans la plupart des cas, nous n’avons pas de dictionnaire permettant de passer de l’une à l’autre. DR

Les basses énergies

L’ordinateur apeNEXT est le fruit d’une collaboration européenne pour simuler de manière efficace les effets de l’interaction forte à basse énergie. Une machine (en bas) réunit 2048 processeurs (en haut) au sein d’une architecture matérielle et logicielle spécialement conçue pour ce type de problème, afin de procéder aux manipulations numériques à la vitesse de 2500 milliards d’opérations par seconde.

page 55

ÉLÉMENTAÍRE

DR

Suivant l’énergie à laquelle se passent les processus liés à l’interaction forte, les théoriciens ont développé différents outils. Pour des processus mettant en jeu des énergies faibles (inférieures à la masse du proton), ce qui correspond à des distances relativement grandes entre quarks, l’interaction forte devient vraiment... très forte. Les physiciens n’ont pas encore réussi à obtenir une solution aux équations de QCD en terme de fonctions mathématiques connues. Ce genre de difficulté est fréquent en sciences, et une astuce habituelle consiste à résoudre numériquement le problème à l’aide d’un ordinateur. Pour cela, on découpe l’espace et le temps en petits intervalles de longueur fixée et on résout les équations sur la grille (ou réseau) ainsi formée. La solution obtenue sur réseau n’est qu’une approximation de la solution réelle. Mais elle sera proche de la réalité si la grille est suffisamment fine vis-à-vis des dimensions du problème. On parle alors de simulations de QCD sur réseau, pour lesquelles on utilise souvent des ordinateurs spécialement conçus pour ce type de calculs, très gourmands en puissance de calcul. Une autre approche consiste à simplifier QCD pour bâtir une théorie approchée qui ne conserve que les éléments pertinents pour un problème donné. On parle alors de théories effectives : des outils moins puissants que la « vraie » QCD, mais plus faciles à résoudre mathématiquement. Les théoriciens aiment beaucoup exploiter ces outils, souvent en s’appuyant également sur les résultats des simulations sur réseau.


QCD... ou la colle des quarks Les hautes énergies et le domaine perturbatif

© CERN

Cette image représente une boîte de 2,4x2,4x3,6 femtomètres, qui serait assez grande pour contenir un proton ou deux. Mais en l’occurrence, cette boîte ne contient pas de particules, ce qui ne signifie pas que rien ne s’y passe : des simulations de QCD sur réseau montrent que des fluctuations quantiques très rapides du vide y donnent naissance pendant de courts instants à des zones plus ou moins denses remplies de gluons. Celles-ci sont représentées par des couleurs allant du bleu au rouge sur cet instantané de la vie agitée du «vide» de QCD.

À plus haute énergie, c’est-à-dire à plus petite distance, la situation devient plus simple sur le plan théorique. En effet, la charge des quarks semble moins grande « vue de près », de sorte que la force forte n’est plus... si forte que cela. Il devient alors possible de résoudre les équations de QCD. Cette propriété a d’ailleurs permis de vérifier expérimentalement que l’interaction forte était bien décrite par QCD, et que les quarks constituaient une réalité expérimentale, même si on ne parvenait pas à les isoler. En effet, deux théoriciens américains, R. Feynman et J. Bjorken, montrèrent que certaines expériences offraient des tests particulièrement efficaces : il s’agissait d’envoyer sur des protons des électrons d’une énergie très élevée, si élevée que le proton explosait en créant de nombreuses particules... Ce processus correspondait à une diffusion inélastique car on étudiait comment l’interaction d’un électron et d’un proton donnait naissance à de nouvelles particules, et on lui accola l’adverbe « profondément » pour insister sur les énergies élevées en jeu. Cette diffusion profondément inélastique devait satisfaire certaines relations dérivées de QCD dans une large gamme d’énergie. Il fallait donc l’étudier dans des configurations cinématiques très variées afin de déterminer si les relations de QCD étaient satisfaites, ce qui fut confirmé en 1969 lors d’expériences spectaculaires menées au SLAC (Stanford, Californie), comme nous vous le racontons dans la rubrique «Expérience».

Le début d’une nouvelle aventure Les expériences menées au LEP (CERN, Genève) et à HERA (Hambourg) dans les années 80 et 90 ont confirmé la validité de QCD en étendant encore le domaine d’énergie accessible. On a pu en particulier vérifier que l’antiécrantage prédit par QCD se produisait bien quand on faisait varier la distance (ou encore l’énergie). Au LHC, QCD sera partout présente, puisque les collisions entre les deux faisceaux de protons seront le lieu de multiples processus dus à l’interaction forte, créant de grandes quantités de particules au passage. Il faudra d’ailleurs comprendre en détail ces processus pour les éliminer et ainsi isoler d’autres phénomènes encore inconnus, liés à une physique de nature différente de celle déjà décrite par le Modèle Standard des constituants élémentaires de la matière. Une tâche particulièrement délicate puisque le LHC atteindra des énergies encore jamais explorées, et un travail très difficile qui attend les expérimentateurs du LHC tout comme les théoriciens de QCD !

page 56

Une simulation informatique d’une collision proton-proton telle qu’elle pourra être vue par le détecteur CMS au LHC (CERN), en fonctionnement à partir de 2007.

ÉLÉMENTAÍRE


Le LHC ALICE au pays des quarks Dans l’anneau du LHC, deux faisceaux de protons, ou d’ions, circuleront en sens inverse et se rencontreront en quatre points. En chacun d’eux sera installée une expérience. Dans les précédents numéros d’Élémentaire, nous avons décrit deux des quatre détecteurs, ATLAS et CMS, qui étudieront les résultats des collisions entre les faisceaux de protons. Aujourd’hui, nous présentons le détecteur ALICE, situé sur le territoire français à Saint-Genis-Pouilly dans l’Ain. ALICE (A Large Ion Collider Experiment) a été spécialement conçu pour étudier les collisions d’ions lourds dans le but d’identifier le plasma de quarks et de gluons (voir rubrique « Centre de recherche »). À pleine intensité, on attend au centre d’ALICE 8000 interactions par seconde. Un système d’électronique permettra d’en choisir environ 2% correspondant à des collisions frontales entre ions et de les enregistrer. Ce taux d’événements (160/seconde) est considéré comme faible par rapport à ceux attendus dans les autres expériences LHC. De plus, les particules produites sont très nombreuses mais relativement peu énergétiques, entre 100 MeV et 100 GeV environ. Ainsi, l’optimisation et la conception d’ALICE ont été dictées par des critères différents de ceux pris en compte pour ATLAS et CMS. Son fonctionnement requiert des détecteurs ayant une segmentation très fine pour séparer les nombreuses particules et identifier leur nature mais pas forcément un enregistrement rapide des informations. On retrouve cependant dans ALICE la même structure en couches de détecteurs emboîtés que dans ATLAS et CMS, afin d’identifier les particules produites et de mesurer leurs caractéristiques.

© CERN

Vue schématique du détecteur ALICE. Ce détecteur mesure 16 m en hauteur et 20 m en longueur.

Sur cette photo, on voit le détecteur de silicium faisant partie du trajectographe interne. Les câbles jaunes servent à conduire le signal des 1698 bandes de silicium vers les cartes électroniques de lecture.

La belle anatomie d’ALICE

© CERN

Tout près du centre du détecteur où se produit la collision, le trajectographe est composé d’un ensemble de détecteurs en silicium entouré d’une chambre à projection temporelle, ou TPC, la plus grande jamais construite à ce jour. L’ensemble du trajectographe sera immergé dans un champ magnétique relativement faible de 0,5 Tesla et aura pour mission de mesurer précisément et efficacement les traces laissées par des milliers de particules chargées qui le traverseront chaque seconde ainsi que l’ionisation créée par chacune d’elles. TPC d’ALICE La TPC d’ALICE est un cylindre de 90 cm de rayon interne et 250 cm de rayon externe rempli d’un mélange gazeux fait de néon (90%) et de CO2 (10%). Pour que les électrons d’ionisation migrent rapidement vers les chambres proportionnelles, un voltage de -100kV est appliqué sur l’électrode centrale. Sur les deux bases du cylindre se trouvent les chambres à fi ls qui mesurent les charges des électrons qui dérivent suivant les lignes du champ électrique. page 57

ÉLÉMENTAÍRE

La TPC en position de garage devant l’aimant d’ALICE. À terme, elle glissera sur des coussins d’air pour se positionner au centre de l’aimant.


ALICE au pays des quarks

© CERN

Schéma de la TPC d’ALICE. On distingue au centre en jaune, l’électrode portant la tension de -100 kV. La détection des ions est réalisée par des chambres à fils disposées aux deux extrémités du cylindre.

© CERN © CERN

Schéma des chambres de lecture aux deux bases du cylindre de la TPC. On y voit la segmentation en tranches. À droite, on voit une électrode de lecture des signaux.

© Antonio Saba

ALICE intègre autour de son trajectographe central plusieurs types de détecteurs pour identifier les particules telles que les photons, électrons, kaons et protons. Les principaux sont: • Un calorimètre électromagnétique finement segmenté, composé de 17920 cristaux de tungstate de plomb (PbWO4, de dimensions 22×22×180 mm3) pour mesurer les énergies des électrons et des photons. • Un détecteur à rayonnement de transition (TRD) permettant l’identification des électrons ayant des énergies supérieures à 1GeV. En fait, dans la physique des ions lourds, les électrons sont le signe de certaines collisions intéressantes. Leur détection précise et efficace est l’un des défis des projets expérimentaux comme ALICE. • Un détecteur Cerenkov pour distinguer les pions des kaons et des protons dont l’énergie est supérieure à 1 GeV. • Un détecteur de « temps de vol » qui mesure le temps mis par les particules pour voyager entre le point de collision, où elles sont produites, et ce détecteur. Il identifie principalement les kaons chargés et les protons ayant des énergies comprises entre 0,25 et 2,5 GeV. • Un spectromètre à muons dont le but principal est une mesure précise des muons de haute énergie, issus en particulier de la désintégration de particules contenant des quarks lourds telles que le J/Ψ (voir «Centre de Recherche »). page 58

La chambre à projection temporelle d’ALICE .

ÉLÉMENTAÍRE


Le LHC ALICE au pays des quarks

En haut : manœuvre préparatoire pour la descente d’un supermodule du détecteur TRD dans le puits d’ALICE. En bas : le supermodule a trouvé sa place définitive à l’intérieur de l’aimant (en rouge) d’ALICE.

© CERN

Ce type de détecteur permet d’identifier des électrons par rapport à d’autres particules chargées. Un rayonnement, dit de transition, est émis chaque fois qu’une particule chargée traverse la frontière entre deux milieux d’indices de réfraction différents. Ce rayonnement est observé sous la forme de rayons X de faible énergie. La probabilité d’émission est faible à chaque changement de milieu. Ainsi, pour augmenter la quantité de ce rayonnement, on interpose sur le chemin des particules chargées une multitude de telles interfaces consécutives, qu’on appelle un radiateur. Par la suite, la particule chargée et son cortège de rayons X sont détectés dans une chambre proportionnelle. La quantité de rayonnement émis est proportionnelle à γ=E/mc2, où E et m sont respectivement l’énergie et la masse de la particule incidente. Ainsi, un électron de 10 GeV (γ=20 000) aura plus de chance d’émettre du rayonnement qu’un pion de la même énergie (γ=72). À la sortie du radiateur, les particules chargées et les rayons X voyagent dans une chambre remplie d’un mélange à base de xénon. Les particules chargées ionisent le gaz tandis que les rayons X sont absorbés par les atomes qui se désexcitent en émettant un électron. Les électrons résultants dérivent sous l’action d’un champ électrique vers un plan de lecture où ils sont collectés. La nature de la particule chargée primaire, électron ou pion, est alors déterminée en mesurant le courant produit : pour la même énergie initiale, un électron déposera in fine plus de courant qu’un pion, à cause du rayonnement de transition qu’il aura induit. Dans le cas d’ALICE, le radiateur est constitué d’une superposition de 100 feuilles de polypropylène.

© CERN

Détecteur à Rayonnement de Transition (TRD)

Le LHC : un accélérateur 2 en 1

ÉLÉMENTAÍRE

page 59

Complexe des accélérateurs du CERN : le système d’injection du LHC est composé du Linac 2, du PS, du Booster et du Supersynchrotron à protons (SPS) pour les faisceaux de protons, ainsi que du Linac 3, de LEIR, du PS et du SPS pour les faisceaux d’ions.

Environ un mois par an le LHC va changer de visage. On y fera circuler des ions de plomb (A=208) à la place des protons. Le nombre de nucléons étant beaucoup plus important, les collisions de noyaux de plomb qui se produiront au centre d’ALICE atteindront des énergies colossales: en effet, puisque le LHC est réglé pour porter l’énergie d’un proton à 7 TeV, l’ion de plomb qui comporte 82 protons, atteindra une impulsion de 82 × 7 TeV par faisceau. Cette énergie de 574 TeV sera partagée entre les 208 nucléons du plomb, ce qui donne 2,76 TeV/nucléon. Ainsi, au moment de la collision entre deux ions de plomb, une énergie totale de 1148 TeV sera mise en jeu ! Les chercheurs pensent qu’à ces énergies le plasma de quarks et de gluons pourra être étudié sous toutes les coutures (voir « Centre de recherche »). ALICE étudiera des collisions entre protons. Dans ce cas, on ne s’attend pas à la création de plasma car la densité de nucléons n’est pas assez importante. Ces études serviront à comparer des variables physiques intéressantes dans des collisions proton-proton et des collisions ion-ion. Ainsi les physiciens espèrent pouvoir mieux identifier les signatures de création de plasma. Un programme de collisions plomb-proton est également envisagé afin de sonder la matière nucléaire dense. Ce type de collision, servira à la compréhension des phénomènes autres que le plasma mais qui sont inhérents à la présence d’un grand nombre de nucléons.


ALICE au pays des quarks Simulation d’une collision entre deux ions de plomb, telle qu’elle sera enregistrée dans l’expérience ALICE. Certains événements peuvent contenir des dizaines de milliers de traces. Ainsi, une grande segmentation de détecteurs est nécessaire à leur bonne mesure et une certaine puissance de calcul pour leur reconstruction. Les flux de données produits par l’expérience ALICE seront les plus importants de toutes les expériences LHC. Il n’est donc pas étonnant que cette collaboration se retrouve en première ligne dans le domaine du développement d’infrastructures nécessaires à la distribution et l’exploitation des données à travers la Grille Mondiale de calcul pour le LHC.

Le rêve d’ALICE Les physiciens d’ALICE auront à analyser des événements complexes, obtenus lors des collisions mettant en jeu des énergies phénoménales, encore jamais atteintes dans un accélérateur. Ils espèrent ainsi, pouvoir comprendre ce qui se passe lorsque de telles densités de matière nucléaire et d’énergie sont atteintes et décrire les événements en séparant bien les contributions de différents effets (densité, énergie,..). Le LHC poursuivra ainsi les études commencées au SPS (au CERN) et menées actuellement au RHIC (à Brookhaven) ; il permettra de sonder les propriétés du plasma de quarks et de gluons créé dans ces collisions.

© P. Royole-Degieux

Destinée aux visiteurs, une petite illustration du principe utilisé pour la production du faisceau des protons est placée dans le hall du Linac2

© CERN

Le LHC est tantôt nourri aux protons... Pour obtenir des protons, on dépouille des atomes d’hydrogène de leur électron. Ils sont ensuite injectés dans un propulseur, le PSB, qui les accélère jusqu’à 1,4 GeV. Dans le synchrotron à protons (PS), ils sont alors accélérés à 25 GeV, puis envoyés au super synchrotron à protons (SPS) où leur énergie atteint 450 GeV. Ils sont finalement transférés au LHC où ils sont repartis sur les deux anneaux et accélérés jusqu’à une énergie de 7 TeV.

L’ a n n e a u LEIR doit accumuler des ions de plomb pour le LHC.

...tantôt aux ions de plomb On obtient les ions par chauffage de fils de plomb à une température d’environ 550°C. À cette température, le plomb s’évapore. Sa vapeur est ensuite ionisée pour obtenir des ions de plomb ayant perdu jusqu’à 27 électrons, que l’on note Pb27+. Ces derniers sont accélérés jusqu’à 4,2 MeV/nucléon avant de passer à travers une feuille de carbone, où la plupart d’entre eux sont déshabillés de leurs électrons pour arriver jusqu’à un état Pb54+. On accélère ces ions dans le LEIR (un anneau d’ions de basse énergie), puis comme dans le cas des protons, dans le PS, et enfin dans le SPS. Ils passent à travers une seconde feuille de carbone qui les dénude complètement : les ions ont alors une charge électrique correspondant à 82 fois celle d’un proton. Ils ont atteint une énergie de 177 GeV/nucléon, avant d’être injectés dans les deux anneaux du LHC, où ils sont amenés 2,76 TeV/nucléon.

page 60

En fonctionnement nominal, le faisceau sera composé de 592 paquets de 16 x 16 x 50 mm3 chacun contenant environ 100 000 ions et espacés de 100 ns. Le remplissage d’un des anneaux nécessite dix minutes et le temps de vie du faisceau est de quatre heures environ.

ÉLÉMENTAÍRE


ICPACKOI ? [isepasekwa] ? Première observation d’un top célibataire Début décembre 2006, l’expérience D0 située sur le collisionneur TeVatron, à Fermilab près de Chicago, a annoncé la première observation d’un signal impliquant la production de quarks top célibataires, c’est-à-dire sans la création simultanée de leurs antiparticules (voir rubrique Découverte). Ce processus, créé par interaction faible, est prédit par le Modèle Standard mais il est très rare à cause de la masse élevée du quark top et de la mise en jeu de l’interaction faible. En effet, parmi les milliers de milliards de collisions proton-antiproton ayant eu lieu à D0, les physiciens n’ont observé que quelques dizaines d’événements pouvant contenir un quark top célibataire. Des méthodes d’analyse performantes ont permis de diminuer la présence d’événements d’autres origines si bien que le signal obtenu n’a plus qu’une chance sur 2900 d’être dû à du bruit de fond. Ceci donne une certaine confiance aux physiciens qu’il s’agit bien d’événements contenant des tops célibataires. La prise de données qui se poursuit au Tevatron devrait permettre rapidement la consolidation de cette observation. La mesure précise de son taux de production permet la détermination d’une caractéristique de l’interaction faible difficilement accessible par d’autres méthodes.

Un planning plus précis pour le LHC Le dernier aimant dipôle supraconducteur a été livré au CERN le 27 novembre 2006 et tous les éléments du LHC sont peu à peu mis en place. Un planning précis est disponible et les expériences connaissent dorénavant les différentes étapes de la mise en route de l’accélérateur. Au printemps 2007 le dernier aimant sera installé dans l’anneau du LHC. Le tunnel sera ensuite fermé et toute une série de tests seront menés à bien au long de l’été et de l’automne. À la toute fin de l’année 2007 les premières collisions proton-proton devraient avoir lieu mais à une énergie réduite (0,9 TeV au lieu de 14 TeV) car tous les systèmes de sécurité ne seront pas encore en place. Finalement c’est au printemps 2008 que le LHC devrait fonctionner à pleine énergie et atteindre peu à peu les intensités de faisceaux prévues. Les quatre expériences continuent elles aussi leurs préparatifs fébriles afin d’être prêtes pour la fin de cette année.

Exemple de processus permettant l’apparition d’un quark top célibataire, lors des collisions au TeVatron. Un quark q et un antiquark q- provenant respectivement du proton et de l’antiproton entrent en collision et produisent un boson W+ qui se désintègre en un quark top et un quark anti-b.

ÉLÉMENTAÍRE

page 61

© CERN

Photo prise lors de la cérémonie officielle pour célébrer la livraison au CERN du dernier des 1 624 aimants supra conducteurs pour le LHC.


[isepasekwa] ? Le polonium 210 Un élément radioactif assez peu connu du public a pourtant fait récemment la une des médias : le polonium. En effet, à Londres en octobre 2006, Alexandre Litvinenko, ancien agent des services secrets russes, a été victime d’un empoisonnement au polonium 210. Mais de quoi s’agit-il ? Le polonium est un élément présent naturellement en très petite quantité – il provient alors de la désintégration de l’uranium 238. Il fut d’ailleurs le premier élément radioactif découvert par Pierre et Marie Curie en 1898, qui le baptisèrent en l’honneur du pays natal de Marie Curie – la Pologne. On peut aussi produire artificiellement le polonium en bombardant du plomb ou du bismuth avec des protons, des neutrons ou des noyaux d’hélium. Le polonium se rencontre sous 25 isotopes, dont les noyaux possèdent le même nombre de protons mais se distinguent par le nombre de neutrons. Le polonium 210 est le plus fréquent : il se désintègre en émettant des particules alpha (c’est-à-dire des noyaux d’hélium) dont l’énergie typique est de 5,3 MeV. La radioactivité d’un échantillon de polonium 210 diminue de moitié tous les 138 jours : il faut donc l’utiliser sans attendre !

du

Dans ces conditions, il n’est guère étonnant qu’Alexandre Litvinenko n’ait pas survécu à son empoisonnement au polonium. L’intensité de ce produit radioactif a d’ailleurs permis aux enquêteurs de déterminer avec une assez grande précision les trajets possibles du polonium 210 depuis son arrivée en Grande-Bretagne. Mais auparavant ? Des sources radioactives de polonium 210 sont en vente sur internet, mais les quantités sont extrêmement faibles... Si on retient la thèse de l’empoisonnement volontaire, il faut supposer que ce sont des individus extrêmement bien organisés qui ont agi contre l’ancien espion russe !

page 62

Structure cristalline polonium 210.

Les particules alpha, émises par le polonium 210 comme par de nombreux autres noyaux radioactifs, sont des rayonnements ionisants de forte énergie, qui sont capables de générer des dégâts importants lorsqu’ils pénètrent dans la matière vivante (cellules, ADN). Du fait de sa faible durée de vie, le polonium 210 est fortement radioactif : un milligramme de polonium 210 émet à chaque seconde autant de particules alpha que 13,5 tonnes d’uranium 238 ! Il s’agit donc d’un poison extrêmement virulent : l’absorption de dix microgrammes est suffisante pour provoquer la mort. À masse identique, le polonium est environ un million de fois plus toxique que des poisons chimiques comme le cyanure de sodium ou le cyanure de potassium... Par ailleurs, le polonium possède des caractéristiques qui en font un poison extrêmement intéressant : il se transporte aisément car les particules alpha qu’il émet sont arrêtées par les parois d’une simple boîte en carton, et il serait inodore et sans saveur !

ÉLÉMENTAÍRE


La question qui tue ! Les quarks sont-ils élémentaires ? « Élémentaire mon cher Watson ! » Euh... oui, mais ça veut dire quoi au juste « élémentaire » ? Dans cette revue, il est naturel que nous nous posions cette question... existentielle. Les physiciens aiment bien comprendre, et expliquer si possible, la diversité et la complexité du monde qui nous entoure en termes d’objets et de notions de base « simples »... élémentaires. Nous savons aujourd’hui que toute la matière connue est composée d’atomes, qui sont eux-mêmes formés d’électrons et de noyaux, lesquels, à leur tour, sont des agencements de protons et de neutrons. Dans ce numéro, nous avons vu que ces derniers ne sont pas non plus des objets élémentaires, mais plutôt des objets composites, faits de quarks et de gluons. Jusqu’où cela s’arrêtera-t-il ? Y a-t-il une fin à cette descente dans le monde subatomique, sub-nucléaire, sub-nucléonique ? Nul ne le sait à l’heure actuelle. Il n’est d’ailleurs pas clair que cette question ait une réponse. Ce qui est sûr en revanche, c’est que les notions d’objet composite et de particule élémentaire ont été profondément modifiées au fur et à mesure de ces découvertes.

Réduire la matière en miettes Commençons notre descente dans l’infiniment petit avec un atome. Pour savoir de quoi il est composé, une méthode consiste à le casser et à « compter » les morceaux. Pour cela, il faut lui fournir de l’énergie, par exemple à l’aide d’un choc avec une autre particule. A basse énergie, on a un choc élastique et notre atome reste intact. En augmentant progressivement l’énergie de la collision, on finit par réussir à le casser. Tant que l’énergie fournie est suffisamment faible, les morceaux que nous obtenons sont invariablement des électrons et un noyau. En faisant quelques (bons) comptes, on trouve que la masse de l’atome initial est approximativement égale à la somme des masses de ses constituants. De même, sa charge électrique est égale à la somme des charges de l’électron et du noyau. Il est alors naturel de conclure que notre atome est bien constitué d’un noyau et d’électrons.

Quand on regarde la matière à des échelles de plus en plus petite, on «voit» l’atome (en haut et en jaune) composé d’électrons et d’un noyau (au milieu). Ce noyau est constitué de protons (en rouge) et de neutrons (en bleu). Ceux-ci sont formés de quarks et de gluons.

Mais arrêtons-nous un instant sur cette conclusion. Dans les deux cas précédents, la charge électrique de l’objet composite est exactement égale à la somme des charges des constituants (électrons et noyau de l’atome, protons et neutrons du noyau). Rien de mystérieux là-dedans : c’est simplement une conséquence de la loi de conservation de la charge électrique. Mais qu’en est-il pour la masse de l’objet composite, qui, elle, n’est qu’approximativement égale – et en fait légèrement inférieure – à la somme des masses des constituants ? Ici aussi une loi de conservation est à l’oeuvre : celle de l’énergie.

ÉLÉMENTAÍRE

page 63

On peut reprendre l’expérience avec le noyau atomique. En lui fournissant suffisamment d’énergie, on arrive à le briser en protons et en neutrons. Là encore, les propriétés globales du noyau se comprennent à partir de celles de ces nucléons, d’où on peut conclure que le noyau est bien constitué de ces derniers.


Les quarks sont-ils élémentaires ? En vertu de l’équivalence entre masse et énergie – conséquence de la relativité restreinte – cette différence de masse correspond à la différence entre l’énergie de repos de l’objet composite et la somme des énergies de repos des constituants « séparés ». L’énergie manquante n’est autre que ce qu’il a fallu fournir pour vaincre l’interaction qui maintient les constituants ensemble et briser ainsi l’atome ou le noyau. On l’appelle « énergie de liaison ». Dans les cas de l’atome et du noyau, celle-ci est très petite devant l’énergie de repos de l’objet composite. Cela explique que la somme des énergies de repos (et donc des masses) des constituants soit approximativement égale à celle de l’objet composite, qu’on appelle « état lié ». Cette quasi-égalité justifie notre image d’un atome constitué d’électrons et d’un noyau. On peut procéder de même avec le noyau, constitué de protons et de neutrons liés par une force nucléaire résiduelle. En fait, c’est sur cette quasi-égalité qu’est basée l’image habituelle, classique, d’un objet composite : un objet que l’on peut briser en morceaux.

Masse et énergie de repos La masse m, l’énergie E et l’impulsion p d’une particule satisfont la relation proposée par Einstein : E2-p2c2=m2c4 où c est la vitesse de la lumière dans le vide. Ainsi, une particule au repos (p=0) a une énergie – de repos – non nulle, proportionnelle à sa masse E=mc2.

Un proton haut comme trois... quarks Que se passe-t-il si on essaye de casser un proton ou un neutron pour voir de quoi il est fait ? La situation change complètement : l’énergie à fournir pour casser un de ces nucléons en morceaux n’est pas négligeable quand on la compare à son énergie de repos. En fait, cette énergie est si élevée qu’elle donne lieu à la création de nouvelles particules, de sorte que, contrairement au cas de l’atome ou du noyau, les morceaux que l’on ramasse après la collision ne sont pas les mêmes d’une collision à l’autre. Difficile dans tout ça de faire le tri entre les composants éventuels du nucléon qui a été brisé et les nombreuses particules qui ont été créées. Mais alors, comment savoir de quoi est constitué un proton ? Comme nous l’avons vu dans la rubrique « Expérience », cela nécessite une analyse détaillée des caractéristiques (masses, charges, énergies, etc.) des particules produites dans diverses collisions permettant de le briser. Par exemple, ce type d’étude a démontré que le proton est en fait un assemblage de quarks, d’antiquarks et de gluons, lesquels n’apparaissent pourtant jamais en tant que tels dans les débris de la collision. On est loin du cas simple de l’atome ou du noyau, où les constituants étaient facilement libérés lors d’un choc.

page 64

De plus, dans ce cas, les masses – et donc les énergies de repos – des constituants sont très petites devant celle de l’objet composite. La majeure partie de l’énergie de repos de ce dernier est donc due à l’énergie de liaison : les constituants d’un proton interagissent fortement les uns avec les autres, par le biais d’une interaction qualifiée fort justement de... forte ! On comprend alors pourquoi l’énergie à fournir pour briser notre proton est si élevée. Dans une telle situation, nous perdons certains de nos repères, puisque les propriétés d’un objet composite peuvent s’avérer assez éloignées de celle de ses constituants.

ÉLÉMENTAÍRE


Les quarks sont-ils élémentaires ? Mais d’où vient la différence essentielle entre le cas du proton et ceux de l’atome ou du noyau ? Elle est due à la nature de l’interaction qui lie les constituants de ces objets. Comme nous l’avons vu dans la rubrique « Théorie », l’interaction forte entre quarks, qui assure la cohésion du proton, possède la propriété particulière d’être confinante : la force entre deux quarks augmente avec la distance qui les sépare. Ni l’interaction électromagnétique, qui assure la cohésion de l’atome, ni l’interaction forte entre nucléons, qui lie ces derniers au sein du noyau atomique, ne partagent cette propriété. C’est pourquoi le proton, ou tout autre assemblage de quarks, est un objet composite bien différent de ceux auxquels nous sommes habitués.

Alors... élémentaire or not élémentaire ? Mais au fait, nous avons cassé l’atome, puis son noyau, puis les constituants de celui-ci. Que peut-on dire de l’autre constituant de base de l’atome initial : l’électron ? Est-il, lui aussi, un objet composite ? Ou bien est-il une particule élémentaire ? Pour répondre à cette question, il faut d’abord comprendre la différence entre les deux. En physique classique, la notion de particule élémentaire est définie par opposition à celle d’objet composite : c’est un objet insécable, qu’on ne peut ni briser, ni faire disparaître dans aucune réaction. La relativité restreinte vient modifier cette image simple car elle rend possibles certaines réactions où deux particules disparaissent en combinant leurs énergies de repos pour créer de nouvelles particules. On parle de réactions d’annihilation. Par exemple, on peut bombarder notre électron avec un positron et le faire disparaître par annihilation, mais sans pour autant le briser. Existe-t-il un moyen de faire disparaître l’électron dans une réaction qui ne soit pas une annihilation ? Oui ! On peut par exemple le bombarder avec un antimuon pour obtenir un neutrino électronique et un antineutrino muonique. Mais alors, doit-on en conclure que l’électron est composite ? Non ! L’analyse de cette réaction montre que l’électron n’a pas été brisé (ni l’antimuon d’ailleurs), mais a plutôt été converti en neutrino électronique (et l’antimuon en antineutrino muonique). L’électron est bien une particule élémentaire.

Mais attention ! Être une particule élémentaire ne signifie pas être un objet ponctuel dépourvu de toute structure... En effet, nous sommes dans un domaine de la physique où mécanique quantique et relativité restreinte conjuguent leurs efforts pour compliquer toujours un peu plus notre vision de la matière... Les théoriciens du XXème siècle, qui ont combiné ces deux théories, ont obtenu des résultats assez surprenants, parmi lesquels le fait qu’une particule élémentaire peut fort bien adopter des visages

ÉLÉMENTAÍRE

page 65

Réalité virtuelle... et vice-versa


Les quarks sont-ils élémentaires ? très différents, et apparaître sous forme d’un état lié d’autres particules élémentaires. On parle de fluctuations quantiques de la particule. Par exemple, un électron peut émettre un photon pour le réabsorber ensuite, selon le processus représenté sur la figure 1 ci-contre. Dans cette réaction, l’état intermédiaire contenant un électron et un photon n’est pas observé : on parle d’un état virtuel, ou encore d’une fluctuation quantique virtuelle de l’électron. Un autre exemple est représenté sur la figure 2, où un photon se convertit en une paire électron-positron.

Figure 1 : un électron (e-) émet un photon virtuel (γ) en ➀ et le réabsorbe en ➁ .

Mais si ces états virtuels ne peuvent être observés directement, ils ont des effets physiques bien tangibles. L’exemple de la figure 2 montre que le photon est virtuellement composé de deux particules chargées, de charges égales et opposées. Il est donc susceptible d’interagir avec un autre photon selon la réaction de la figure 3 où, dans un premier temps, un des photons devient une paire formée d’un électron et d’un positron ➀ ; puis l’autre photon interagit avec l’électron selon un processus appelé diffusion Compton ➁ et ➂; enfin, l’électron diffusé et le positron s’annihilent pour donner un nouveau photon ➃. Au final, on obtient une collision élastique entre deux photons, c’est-à-dire une réaction de diffusion de la lumière par la lumière. Un tel phénomène, pourtant bien réel, est interdit par les lois de la physique classique. Il n’est rendu possible que grâce aux effets de fluctuations quantiques... virtuelles.

Figure 2 : un photon (γ) se désintègre, en ➀, en une paire virtuelle électronpositron (e- - e+), laquelle s’annihile en ➁ pour redonner un photon.

De même, l’électron peut fort bien exister sous la forme d’un état lié de trois particules chargées, à savoir deux électrons et un positron (figure 4). L’électron, particule élémentaire de charge électrique négative, contient donc virtuellement des particules de charge électrique positive ! On vous l’avait dit : la notion de particule élémentaire a considérablement évolué avec l’exploration du monde subatomique. Mais au fait, nous avons déjà rencontré ces fluctuations quantiques virtuelles : ce sont elles qui sont responsables de la présence des quarks de la mer dans le proton. Les quarks de valence (uud dans le cas du proton) interagissent par le biais de gluons, lesquels peuvent fluctuer en paires quarks-antiquarks. Un électron passant par là pour sonder la structure du proton sera sensible, non seulement aux quarks de valence, mais aussi aux quarks et antiquarks de la mer (voir « Expérience »).

Figure 3 : diffusion photon-photon résultant de l’existence de fluctuations virtuelles.

Figure 4 : un électron contient virtuellement des particules de charge positive (ici un positron).

page 66

Une composition bien équilibrée Vous l’aurez compris, dans le monde des particules, savoir si un objet peut être considéré comme élémentaire ou non n’est pas une tache aisée. Cela nécessite une analyse de l’objet en question sous toutes les coutures ! Ainsi, toutes les expériences menées jusqu’à présent sont en accord avec l’image d’un électron ponctuel, sans contenu interne, mais susceptible de passer par des états virtuels contenant d’autres particules élémentaires du Modèle Standard. En revanche, les expériences menées sur le proton dans les années 50 ont rapidement invalidé un modèle ponctuel du proton,

ÉLÉMENTAÍRE


Les quarks sont-ils élémentaires ? même en tenant compte d’effets liés aux états virtuels Il est important de souligner que la réponse à la question : « composite ou élémentaire ? » dépend aussi de façon cruciale de notre capacité à sonder la matière à des échelles toujours plus petites, ce qui nécessite des énergies toujours plus élevées. À ce jour, sont considérées comme particules élémentaires : • le photon (interaction électromagnétique), les gluons (interaction forte), les bosons Z et W (interaction faible), • les six quarks u,d,s,c,b,t, • l’électron, le muon, le tau et les neutrinos associés (on les appelle les leptons), • ainsi que leurs antiparticules respectives. Les héros de ce numéro, les quarks et les gluons, sont donc, jusqu’à preuve du contraire, des particules élémentaires... mon cher Watson !

Réel et virtuel L’énergie de repos d’une particule réelle est proportionnelle à sa masse, ce qui n’est pas le cas pour une particule dans un état virtuel. Autrement dit, la masse m, l’énergie E et l’impulsion p d’une telle particule ne satisfont pas la relation d’Einstein : E2-p2c2=m2c4 Ainsi, lors de la conversion d’un électron en une paire électron-photon, l’électron cède une partie de son impulsion et de son énergie au photon, de sorte qu’il devient virtuel.

ÉLÉMENTAÍRE

page 67

L’affiche des composants élémentaires de la matière distribuées dans les classes de lycées en 2005 à l’occasion de l’année mondiale de la physique.


Énergie nucléaire Les technologies nucléaires du futur Les technologies nucléaires du futur L’énergie nucléaire représente aujourd’hui environ 6% de la production mondiale d’énergie. La diminution annoncée de la production du pétrole (avant 2025) et du gaz (avant 2050), ainsi que la nécessité de réduire les émissions de gaz à effet de serre, laissent envisager un fort déploiement de l’énergie nucléaire de fission dans les décennies à venir. Certains scénarios prévoient une multiplication par près de dix de la puissance nucléaire installée, avec un accroissement encore plus important pour les énergies renouvelables. Mais le nucléaire est-il capable d’assurer un tel déploiement, tant du point de vue des réserves en uranium que de la sureté des installations ?

4 ans en réacteur

Les filières actuelles fonctionnent avec de l’uranium enrichi, et utilisent principalement l’235U comme matière fissile. Cet isotope de l’uranium ne représente que 0,7% du minerai d’uranium, le reste étant de l’238U. La consommation d’uranium par les filières actuelles est représentée sur la figure ci-contre. Pour produire une énergie de un GWe.an, on fissionne au total une tonne de matière. On constate donc qu’on utilise environ 0,5% du potentiel énergétique ultime du minerai puisque pour faire fissionner une tonne, on aura extrait de terre 180 tonnes environ d’uranium naturel. Les réserves en uranium estimées aujourd’hui (de 15 à 25 millions de tonnes) permettraient de produire de l’électricité pendant 300 ans environ au rythme actuel, et ne suffisent donc pas pour un déploiement massif du nucléaire sur plus de 50 ans. Au-delà, il faudra utiliser beaucoup mieux le minerai, c’est-àdire une plus grande fraction du potentiel énergétique de l’238U.

UOX (Uranium Oxyde) : combustible nucléaire formé de pastilles de dioxyde d’uranium. Matière fissile Elle est formée de noyaux pouvant fissionner (se couper) par interaction avec des neutrons lents. L’235U et le 239 Pu sont des éléments fissiles. La fission d’un noyau lourd crée deux noyaux plus légers, de types variés, ainsi que de deux à quatre neutrons. L’énergie cinétique des particules émises est de l’ordre de 200 MeV soit des millions de fois supérieure à celle libérée dans les réactions chimiques.

L’238U est abondant mais il fissionne très difficilement lorsqu’il est bombardé par des neutrons, son utilisation nécessite donc d’avoir recours à la régénération, ce qui suppose un changement de filière de réacteur. Le principe de la régénération consiste à faire capturer un neutron par l’238U pour produire de la matière fissile, en l’occurrence l’isotope 239Pu du plutonium : 238 U + n —> 239U —> 239Np —> 239Pu. Les deux noyaux intermédiaires 239U et 239Np sont des noyaux radioactifs (β-) à vie courte et n’interviennent pas dans le réacteur. L’238U est alors appelé matière fertile. Dans un réacteur régénérateur, chaque fois qu’un noyau de 239Pu disparaît, il peut être régénéré par une capture d’un neutron par l’238U. Ainsi, tout se passe comme si c’était l’238U qui fissionnait ; un réacteur régénérateur de un GWe ne consomme donc plus qu’une tonne d’uranium naturel par an. Le potentiel énergétique est ainsi multiplié par au moins 100, ce qui permet d’envisager une production massive et durable sur plusieurs milliers d’années. La régénération n’est pas toujours possible, car elle nécessite de disposer de suffisamment de neutrons. La fission d’un noyau de 239Pu produit 2,9 neutrons en moyenne. Cependant on demande à ces neutrons de remplir deux tâches : maintenir la réaction en chaîne, et régénérer la matière fissile, qui disparaît par fission, ainsi que par capture parasite (239Pu + n — > 240Pu). Pour le cycle de l’uranium, la régénération se faisant à l’aide de neutrons énergétiques, elle ne page 68

Un GWe.an C’est l’énergie électrique délivrée par une installation ayant une puissance de un milliard de watts, fonctionnant sans interruption pendant un an. La France a consommé 55 GWe.an en 2006. Il convient de souligner que deux fois plus d’énergie s’échappe de la centrale par les systèmes de refroidissement (tours, conduites forcées, ...) et n’est pas utilisée (sinon à réchauffer l’environnement). L’énergie thermique (chaleur) fournie par le combustible nucléaire est donc trois fois plus grande que celle utilisable sous forme électrique. Cette perte d’énergie est propre à toutes les centrales qui transforment de la chaleur en électricité (pétrole, gaz, charbon). Une tonne de matière Pour produire un GWe.an avec un réacteur actuel, il y a une tonne de matière qui est fissionnée, mais seulement 500 kg d’235U. Les 500 kg restants viennent du 239Pu.

La régénération

ÉLÉMENTAÍRE


Les technologies nucléaires du futur peut avoir lieu à partir des neutrons lents produits dans les réacteurs actuels : il faut donc changer de technologie.

Les réacteurs rapides Afin de ne pas ralentir les neutrons (voir page 71), on ne peut utiliser d’éléments légers, que ce soit dans le combustible ou dans le caloporteur. L’eau est donc proscrite car elle contient de l’hydrogène (l’élément le plus léger) : il faut trouver un autre fluide, constitué de noyaux plus lourds, pour évacuer la chaleur produite dans le cœur du réacteur vers des échangeurs thermiques, qui la transfèreront aux turbines chargées de produire l’électricité. Le choix s’est rapidement porté sur le sodium liquide. Ses propriétés thermohydrauliques sont excellentes et il ne capture pas trop de neutrons. Il s’agit néanmoins d’un corps très instable chimiquement, qui prend feu au contact de l’eau ou de l’air. Son utilisation implique donc la mise en place de dispositifs spécifiques permettant d’assurer l’étanchéité totale du circuit qui le contient. Il s’agit finalement d’une technologie relativement complexe, d’un coût élevé. Elle est considérée aujourd’hui comme industriellement validée, mais nécessite encore d’être améliorée afin d’atteindre une rentabilité économique suffisante pour la rendre commercialisable dans les décennies à venir. Pour les réacteurs à neutrons rapides refroidis au sodium, il est nécessaire de fournir 12 tonnes de plutonium au démarrage (ensuite le réacteur ne consomme plus que de l’uranium naturel), soit tout ce que produit un réacteur actuel de type REP pendant ses 50 ans de fonctionnement. Le démarrage des réacteurs rapides nécessite donc de disposer d’un stock de plutonium très important : environ 800 tonnes pour l’équivalent du parc français actuel, alors que la masse totale de plutonium civil accumulée jusqu’ici par l’industrie nucléaire française est de l’ordre de 250 tonnes.

Un réacteur à neutrons rapides refroidi au sodium.

Le réacteur à neutrons rapides Superphénix. À l’arrêt depuis 1998, sa « déconstruction » devrait coûter près de 3 milliards d’euros et durer 25 ans.

Superphénix a été jusqu’à maintenant le seul prototype de taille industrielle de réacteur à neutrons rapides refroidi au sodium, et son arrêt en 1998, pour des raisons essentiellement politiques, a considérablement ralenti les recherches dans ce domaine. On n’envisage pas aujourd’hui un déploiement industriel avant 2035. Même si la filière au sodium est la plus aboutie des technologies de réacteurs à neutrons rapides, des recherches sont également menées sur d’autres fluides caloporteurs qui pourraient remplacer le sodium si celui-ci induisait trop de surcoût. Les deux alternatives aujourd’hui explorées sont le plomb (métal liquide) et l’hélium (gaz). L’hélium est certes un matériau léger mais, présent en faible quantité dans le cœur, car sous forme gazeuse, il ne nuit pas à l’obtention de neutrons rapides.

ÉLÉMENTAÍRE

page 69

Le concept de refroidissement par du plomb (fondu à température voisine de 327°C) vient des réacteurs russes utilisant l’eutectique plomb-bismuth ; l’intérêt est la faible réactivité du caloporteur avec l’eau et l’air. Le métal fondu (dont la toxicité n’est pas à négliger) pose des problèmes considérables de corrosion

Mélange eutectique La température de fusion du plomb est égale à 327°C. Les éléments de structure dans lequel le plomb s’écoule doivent donc être à des températures plus élevées, ce qui accentue leur dégradation par corrosion. Afin de réduire ces problèmes, on peut mélanger le plomb avec un autre métal. En effet, lorsqu’on ajoute une autre substance à un corps pur, sa température de fusion diminue. Pour un mélange binaire, il existe une température minimale de fusion, qui correspond à une composition bien précise du mélange appelée composition eutectique. Dans le cas d’un mélange plomb bismuth, cet eutectique contient 45% de plomb et 55% de bismuth, et la température de fusion est de l’ordre de 250°C, ce qui diminue grandement les problèmes de corrosion.


Les technologies nucléaires du futur © ORNL

des matériaux de structure, notamment au niveau de la cuve du réacteur qui doit résister pendant plusieurs dizaines d’années, et c’est sur ce point que les recherches se concentrent aujourd’hui. Concernant les réacteurs refroidis à l’hélium, le problème principal réside dans le confinement des matières radioactives qui sont portées à très haute température lors d’un accident de refroidissement, puisque le gaz ne permet pas d’évacuer beaucoup de puissance résiduelle si la pression est perdue. Il existe déjà des combustibles qui répondent à cette contrainte, il s’agit de microbilles qui contiennent le combustible, entouré de multiples couches de carbone, carbone poreux et carbure de silicium qui assurent le confinement en situation accidentelle. Mais ce type d’arrangement contient beaucoup trop de carbone pour qu’il y ait suffisamment de neutrons rapides. L’enjeu est donc de trouver un composé compatible à la fois avec l’utilisation du gaz et celle de neutrons rapides, il s’agit du point clé des activités de recherche et de développements sur les réacteurs rapides refroidis au gaz.

Billes de combustible pour des réacteurs refroidis avec un gaz sous pression.

La voie plus innovante du thorium La monazite est un minerai contenant du thorium. Son nom vient du grec « monazein » qui signifie « isolé » et qui a donné aussi « monastère ». En effet ce minerai apparaît généralement sous forme de cristaux isolés au sein d’une gangue.

page 70

Fluide caloporteur La chaleur produite dans les barreaux de combustible doit être évacuée à l’extérieur du cœur, puis transférée à une turbine à vapeur, afin de transformer la chaleur produite en électricité. Dans les réacteurs actuels, c’est l’eau, chauffée au contact des barreaux d’uranium qui joue ce rôle de fluide caloporteur. Il existe aussi des réacteurs où le fluide caloporteur est un gaz, comme dans les anciens réacteurs français UNGG (Uranium Naturel Graphite Gaz), refroidis avec du CO2. Refroidir le cœur du réacteur avec des noyaux lourds, nécessite de disposer d’un corps qui fond à une température acceptable du point de vue des matériaux ; c’est le cas de certains métaux, comme le sodium et le plomb.

En plus de l’235U et de l’238U, il existe dans la nature un troisième noyau lourd susceptible de fournir de l’énergie par fission : il s’agit du thorium (232Th). Sa durée de vie est de plus de dix milliards d’années, et il est donc présent sur Terre en grande quantité tout comme l’238U. Mais il ne s’agit pas d’un noyau fissile, et son utilisation nécessite la mise en œuvre de la régénération. Le fait qu’il n’existe pas d’isotope fissile dans le minerai naturel de thorium explique que cette filière ne se soit pas développée jusqu’à maintenant. La matière fissile du cycle est l’233U, qui joue un rôle similaire à celui du 239Pu dans le cycle uranium : 232 Th + n—> 233Th —> 233Pa—> 233U La particularité du cycle du thorium, par rapport à celui de l’uranium, est de pouvoir atteindre la régénération de la matière fissile avec des neutrons thermiques, tels que ceux produits dans les réacteurs actuels. En contrepartie cette régénération est délicate à obtenir. Il faut pouvoir retraiter le combustible très rapidement pour en enlever des noyaux qui sont produits au fur et à mesure et qui absorbent des neutrons. Ces noyaux « empoisonnent » le cœur du réacteur, et rendent très rapidement la régénération impossible. Le système imaginé est un réacteur à combustible liquide sous forme de sels fondus. Le combustible sert également de fluide caloporteur. Le fait qu’il soit liquide permet d’en retirer une petite partie chaque jour, de l’envoyer dans une unité de retraitement afin d’en extraire les poisons neutroniques, et de le réinjecter rapidement dans le réacteur. Quels sont les avantages à utiliser le thorium s’il faut mettre en place une technologie si complexe pour obtenir la régénération ? Tout d’abord, la masse de matière fissile nécessaire au démarrage est sensiblement réduite par rapport aux réacteurs rapides : alors qu’il faut 12 tonnes de plutonium dans un réacteur régénérateur au sodium, il n’en faut plus qu’une dans un réacteur à sels fondus fonctionnant au thorium. Cela peut avoir des implications très importantes. Dans le cas français, le plutonium est considéré aujourd’hui comme une matière valorisable qu’il est nécessaire d’accumuler jusqu’en 2080 avant de pouvoir si nécessaire faire une transition vers un parc entier de

ÉLÉMENTAÍRE


Les technologies nucléaires du futur réacteurs à neutrons rapides, alors que la masse de plutonium accumulée sera suffisante dès 2020 pour assurer le déploiement d’un même parc de réacteurs à sels fondus utilisant le thorium. Le statut du plutonium pourrait alors changer si nous envisagions d’effectuer une transition future vers le cycle du thorium en utilisant des réacteurs à sels fondus. Cela signifie aussi que nous pourrions dès aujourd’hui mettre en place des stratégies de réduction des stocks de matière fissile (incinérer le plutonium), sans nous interdire d’effectuer une transition vers un nucléaire durable dans le siècle qui vient. Une telle réduction des stocks est impossible avec la filière des réacteurs à neutrons rapides basée sur le cycle de l’uranium. Un autre avantage est lié à la production d’actinides mineurs lourds : elle est sensiblement réduite dans le cycle du thorium. Les actinides mineurs lourds sont produits en bien moindre quantité car, leurs différences de masse par rapport au thorium étant plus grandes que par rapport à l’uranium, il faut accumuler de nombreuses captures successives avant de produire ces matériaux. Mais il ne faut pas oublier de mentionner les difficultés propres liées à cette filière, notamment la technologie des réacteurs à sels fondus, pour laquelle il y a encore beaucoup d’efforts à faire sur la corrosion des matériaux, sur le contrôle des sels fondus et sur la neutronique de ce type de système. La spécificité du cycle est de produire de l’232U, dont la décroissance produit un rayonnement γ de haute énergie, qui rend très délicate toute manipulation du combustible. Il faudra beaucoup plus blinder les ateliers de séparation et de fabrication de combustible afin d’éviter toute irradiation par ce rayonnement γ, ce qui induira des surcoûts importants. Comme l’232U est toujours mélangé à l’233U, qui est la matière principale du cycle, certains considèrent que la détection d’232U serait un moyen efficace pour lutter contre la prolifération de l’233U utilisé en tant que matière fissile militaire.

Conclusion

ÉLÉMENTAÍRE

page 71

Le recours à de nouvelles technologies de réacteurs régénérateurs se fera sentir si la production d’énergie nucléaire se développe massivement dans les décennies à venir. Il n’existe pas encore de signes nets aujourd’hui d’un tel déploiement mais les années qui viennent devraient permettre d’avoir une vision plus claire. Le maintien de prix élevés pour le pétrole et le gaz incite déjà certains pays développés à relancer leur politique nucléaire (USA, GrandeBretagne, Finlande, ...), et des pays en voie de développement à miser sur cette technologie (Chine, Inde, Brésil, ...). Les durées mises en jeu dans le nucléaire (durée de vie des centrales supérieures à 50 ans, accumulation de plutonium pour les réacteurs à neutrons rapides pendant 50 ans au minimum) nécessitent d’anticiper très en amont les choix technologiques du futur, ce qui représente un risque économique et/ou politique substantiel, qui pourrait nous inciter à renoncer à cette énergie. Mais les répercussions de l’épuisement du pétrole et du gaz et l’éventualité d’un dérèglement climatique majeur nous obligent de toute façon à anticiper l’avenir dès aujourd’hui. On ne peut discuter des risques liés au nucléaire sans les comparer sérieusement à ceux que l’on prend en abandonnant cette source d’énergie. C’est uniquement dans cette comparaison globale de la problématique de l’énergie du futur que les risques liés au nucléaire, quels qu’ils soient (sûreté des centrales, déchets, prolifération), peuvent ou non nous apparaître acceptables.

Actinides Ils comprennent tous les éléments à partir de l’actinium (Z=89). L’uranium et le plutonium sont donc des actinides. Ces corps ont des propriétés chimiques voisines. Un réacteur nucléaire ayant une puissance de 1 GWe produit annuellement 280 kg de Pu et 20 kg d’actinides mineurs (car produits en plus faible quantité que le précédent). Ces derniers sont principalement du neptunium, de l’américium et du curium. Ces éléments ayant une durée de vie longue leur radioactivité domine celle des déchets radioactifs au bout de quelques centaines d’années. L’autre raison de se préoccuper de ces résidus est que ce sont des émetteurs radioactifs alpha et qu’ils sont donc très dangereux s’ils sont ingérés (voir « ICPACKOI »). Neutronique Étude de la propagation des neutrons dans un milieu matériel. Ralentissement des neutrons Dans le cas d’un carreau à la pétanque, toute l’énergie cinétique incidente est cédée à la boule à dégager, et la perte d’énergie est totale. Cela est impossible si la boule cible est bien plus lourde que celle que l’on lance. Dans ce cas, la boule incidente rebondit et ne cède qu’une partie de son énergie cinétique à la cible qui n’est que légèrement déplacée. Il se passe la même chose avec les neutrons. Puisqu’un noyau d’hydrogène (un proton) est aussi lourd qu’un neutron, la perte d’énergie du neutron incident lors d’un choc avec l’hydrogène est maximale. En revanche, si le neutron frappe un noyau de sodium, dont la masse est 23 fois plus grande, sa perte d’énergie est minime, il repart alors avec une vitesse voisine de sa vitesse incidente. Ainsi reste-t-il beaucoup plus longtemps à haute énergie, ce qui lui laisse le temps d’induire des réactions de fission ou de capture. Typiquement, les neutrons sont produits dans un réacteur actuel à des énergies de 2 MeV environ (soit une vitesse de 18000 km/s). Dans les réacteurs à neutrons thermiques, ils sont ralentis à des énergies de l’ordre de 0,025 eV (2 km/s), alors que dans un réacteur à neutrons rapides, ils ont une énergie moyenne de 200 keV (5000 km/s).


page 72

ÉLÉMENTAÍRE


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.