N6_

Page 1

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 6

Revue d’information scientifique

Équinoxe de printemps 2008

Le Modèle

Standard


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

À l’occasion de ce numéro d’Élémentaire, nous vous invitons à découvrir le « Modèle Standard ». Un curieux nom qui s’est imposé au fil des années, même s’il évoque plus les défilés de mode parisiens que la physique des particules. Un modèle de quoi ? Et en quoi serait-il plus standard que les autres ? C’est ce que nous allons essayer d’expliquer à travers les rubriques de ce numéro. En fait, pour concocter l’« Apéritif », mélangez des constituants élémentaires de matière (des quarks, des neutrinos, des électrons...) avec des interactions bien choisies (électromagnétique, forte, faible), secouez bien fort et vous obtiendrez la description la plus aboutie de nos connaissances sur la structure intime de la matière... rien que ça ! Comme jadis à la Samaritaine, on trouve donc de tout dans le Modèle Standard. Cette théorie est née progressivement dans les années 60 et 70 afin de réunir les trois interactions qui interviennent en physique des hautes énergies : l’électromagnétisme, l’interaction forte et l’interaction faible. C’est cette petite dernière qui donnera le plus de fil à retordre aux théoriciens, ce que nous verrons dans la rubrique « Théorie ». Elle sera aussi l’objet d’une attention toute particulière au CERN (« Centre ») pour identifier les particules qui la transportent, les bosons W+, W- et Z0. Cette saga commence dans les années 80 avec les expériences UA1 et UA2 (« Découverte ») pour se conclure en beauté avec les mesures de précision effectuées au LEP dans les années 90 (« Expérience »).

Pour l’ « Interview », nous donnerons la parole à Jean Iliopoulos, un théoricien qui a participé à l’élaboration du fameux Modèle Standard. Vous retrouverez également nos autres rubriques habituelles. « LHC » s’intéressera aux éléments accélérateurs qui fourniront en faisceaux de protons les expériences du LHC, et « Icpackoi » fera le point sur les coupes sombres dans le budget fédéral des États-Unis et leur impact sur nos disciplines. Nous profitons de cet éditorial pour remercier chaleureusement les parrains qui nous accompagnent dans l’aventure « Élémentaire », en particulier l’IN2P3, ainsi que P2I qui nous rejoint à l’occasion de ce numéro. Au fil de ces pages, vous sentirez peut-être les émotions contradictoires, tantôt admiratives, tantôt agacées, que suscitent le Modèle Standard. Au cours de sa brève existence, il a déjà affronté de nombreux tests tout en expliquant un vaste éventail de phénomènes. Et pourtant, nous savons qu’il est incomplet, avec ses nombreux paramètres arbitraires, son ignorance de la gravitation, et son boson de Higgs qui manque toujours à l’appel. De quoi justifier l’enthousiasme des physiciens pour les prochaines expériences du LHC : si l’on s’attend à y confirmer de nombreux aspects du Modèle Standard, on espère bien le mettre enfin en défaut... Ce sera d’ailleurs le thème d’un prochain numéro d’Élémentaire. Mais d’ici là, bonne lecture !

Nous en profiterons pour décrire certains outils qui se sont avérés fort utiles dans cette chasse aux bosons de l’interaction faible. « Détection » s’intéressera à des dispositifs appelés détecteurs de vertex, particulièrement utiles pour identifier certaines particules issues d’une collision. « Analyse » vous initiera à différentes méthodes inventées par les physiciens pour repérer parmi ces collisions les événements les plus intéressants, tout en vous offrant quelques détours botaniques, biologiques et informatiques.

Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Sébastien Descotes-Genon Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, F. Fulda-Quenzer, M.-P. Gacoin, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.-H. Schune, J. Serreau, A. Stocchi. Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec. Ont participé à ce numéro : N. Alamanos, F. Couchot, J. Haissinski, J.-L. Puget, P. Royole-Degieux. Remerciements : nos nombreux relecteurs. Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/ Prix de l’abonnement : 6 euros pour 2 numéros (par site internet ou par courrier) Imprimeur : Imprimerie Nouvelle de Viarmes. Numéro ISSN : 1774-4563


Apéritif p. 4 Un modèle tout en séduction

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Histoire p. 7

Accélérateurs p. 38 Les collisionneurs : révolution

Interview p. 10

Découvertes p. 46 À la chasse aux bosons W et Z

Quelques dates marquantes

dans les accélérateurs de particules

Jean Iliopoulos

Centre de recherche p. 14 Le CERN

Théorie p. 52

De la force faible à l’interaction électrofaible

La question qui tue p. 68 Peut-on (doit-on) tout unifier ?

Expérience p. 20 Le LEP

Détection p. 26

Les détecteurs de vertex en silicium

Le LHC p. 59

Retombées p. 29

ICPACKOI p. 65

Le rayonnement synchrotron Et le web fut !

Analyse p. 33

Discriminant de Fisher et réseaux de neurones

Le LHC : un accélérateur sans égal

La feuille de déroute des États-Unis Physique des deux infinis

Abonnement

: faites votre demande d’abonnement sur le serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Prix pour deux numéros (port inclus) : 6 euros au total, chèque libellé à l’ordre de «AGENT COMPTABLE SECONDAIRE DU CNRS». Pour les administrations les bons de commande sont bienvenus. Contact : elementaire@lal.in2p3.fr


Apéritif Un modèle tout en séduction Le « Modèle Standard » de la physique des particules, élaboré dans les années 60 et 70, est le cadre théorique permettant de décrire les particules élémentaires connues actuellement ainsi que leurs interactions. Il donne une description cohérente et unifiée des phénomènes aux échelles subatomiques (c’est-à-dire à des distances inférieures à 10 -15 m et supérieures à 10 -18 m). Comme nous l’avons vu dans les numéros précédents d’Élémentaire, qui dit petites échelles dit grandes énergies. C’est pourquoi le Modèle Standard s’appuie d’une part sur la physique quantique (petites échelles) et d’autre part sur la relativité restreinte d’Einstein (grandes énergies). Moyennant l’introduction d’un certain nombre de paramètres qui ont été déterminés par des expériences, le Modèle Standard rend compte de tous les phénomènes microscopiques qui se manifestent lorsque l’on sonde la matière jusqu’à des distances correspondant au centième de la taille d’un proton. De telles distances peuvent être explorées lors de collisions à haute énergie (de l’ordre de 100 GeV). Pour des raisons historiques, il est d’usage de distinguer les particules de matière et les particules d’interaction (voir le tableau ci-contre). Les premières sont les quarks et les leptons que nous avons déjà rencontrés dans les précédents numéros d’Élémentaire. Elles interagissent en « échangeant » des particules d’interaction, le photon, les bosons W± et Z0 ainsi que les gluons.

Les différents constituants élémentaires du Modèle Standard : à gauche ceux qui forment la matière, à droite ceux qui véhiculent les 3 forces fondamentales au niveau subatomique, et au centre le boson de Higgs, la pièce qui manque encore à l’appel.

Trois familles, égales en noblesse... Le Modèle Standard regroupe les quarks et les leptons en trois familles structurées de façon identique. Chacune d’elles est composée de deux quarks et de deux leptons. On distingue les leptons des quarks par les interactions auxquelles ils sont sensibles : les leptons, à la différence des quarks, ne sont pas sensibles à l’interaction forte. En fait, une seule famille (la première, composée de l’électron, de son neutrino, et des deux quarks u et d) est suffisante pour rendre compte de la matière ordinaire. Les atomes, par exemple, sont constitués d’électrons s’agitant autour d’un noyau, luimême composé de protons et de neutrons, c’est-à-dire in fine de quarks u et d. Comme nous l’avons vu dans les précédents numéros d’Élémentaire, les quarks et leptons des autres familles ont été découverts en étudiant les rayons cosmiques et dans des expériences réalisées auprès d’accélérateurs de très haute énergie. Il existe ainsi six types de leptons et six types de quarks.

page 4

À cet ensemble, il faut en ajouter un autre, de structure identique, dans lequel chaque particule est remplacée par son antiparticule, ayant la

ÉLÉMENTAÍRE


Un modèle tout en séduction même masse mais dont la charge électrique a une valeur opposée. À _ l’électron est ainsi associé le positron, au quark u l’anti-quark noté u, etc... La première antiparticule, l’anti-électron ou positron fut découverte en 1932 (Élémentaire N° 3).

Quelques questions que vous vous posez sur le Modèle Standard... et toujours sans réponse à l’heure actuelle ! Malgré l’apparente simplicité du monde des particules, de nombreux mystères restent à élucider.

Que les forces soient avec vous

Pourquoi quatre interactions ? Nous n’en savons rien... mais nous rêvons d’unifier tous les processus élémentaires en les faisant découler d’une seule interaction, comme l’a fait Maxwell pour l’électricité et le magnétisme (voir « La question qui tue »).

Dès les années 1930, les physiciens postulent que l’interaction entre deux particules de matière est due à l’échange d’une troisième dont la masse est directement reliée à la portée de l’interaction. Ce modèle permet une interaction à distance entre deux particules. Plus la masse de la particule échangée est petite plus la portée de l’interaction est grande. On appelle particules d’interaction celles qui transmettent les forces fondamentales. Elles font en quelque sorte office d’agents de liaison.

Pourquoi trois familles ? Là aussi, il n’y a pas encore de réponse. On sait simplement que des « répliques » des constituants de la matière ordinaire existent, et que jusqu’à présent on n’a vu que trois familles...

Des quatre interactions fondamentales, deux nous sont connues par l’expérience quotidienne et ont été étudiées en physique « classique » : la gravitation et la force électromagnétique. Les forces correspondantes ont en commun d’être de portée infinie et d’avoir une intensité qui décroît comme le carré de la distance séparant les deux objets en interaction. En théorie quantique, cela implique que les vecteurs de ces interactions (leurs « messagers ») sont de masse nulle. Il s’agit du photon pour l’électromagnétisme, et du graviton pour la gravitation. Il faut toutefois noter que si l’existence du photon n’est plus à démontrer, on n’a pas encore observé de graviton de manière directe. Cependant, la gravitation joue un rôle mineur du fait de sa très faible intensité aux énergies atteintes actuellement lors des collisions entre particules. Elle est donc tout simplement négligée au niveau subatomique et n’est pas incluse dans le « Modèle Standard ».

Pourquoi la charge de l’électron est-elle exactement égale et de signe opposé à celle du proton ? Pourquoi les constituants de la matière et les particules qui véhiculent les interactions ont-elles des masses si disparates ? On ne le sait pas non plus. Pourquoi l’antimatière est-elle absente de notre Univers actuel ? Tout de suite après le Big-Bang, il y avait autant de matière que d’antimatière qui auraient dû s’annihiler complètement. Notre Univers n’est donc que le fruit d’un petit déséquilibre qui a mené à une très légère surabondance de matière. On ne connaît pas vraiment la source de ce déséquilibre, mais l’étude de l’interaction faible dans certains de ses aspects les plus subtils permettra peut-être d’y voir plus clair.

Nous avons exploré les multiples facettes de l’interaction forte dans le N°4 d’Élémentaire. Nous avons en particulier noté que les gluons, messagers de cette interaction, sont de masse nulle. Cependant, pour de subtiles raisons d’écrantage, l’interaction forte reste de portée très petite, ce qui explique qu’elle est cantonnée au sein des noyaux atomiques. La quatrième interaction est l’interaction faible qui est responsable, entre autres, de la désintégration bêta de certaines particules élémentaires et de noyaux (Élémentaire N°2). Elle est aussi une force de portée inférieure à la taille de l’atome à cause des masses élevées des messagers qui la véhiculent, les bosons intermédiaires W± et Z0, plus de 80 fois plus massifs qu’un proton !

D’autres questions ?...

ÉLÉMENTAÍRE

page 5

Un des grands succès de la physique du XXe siècle a été d’unifier dans une même description l’interaction faible et l’électromagnétisme qui apparaissent comme deux aspects d’une même force. Ce succès théorique a été couronné expérimentalement par la découverte en 1984 au CERN des particules W± et Z0 (« Histoire ») et par l’étude de leurs propriétés.


Un modèle tout en séduction C’est ce cadre extrêmement fructueux qui constitue ce que les physiciens des particules appellent le Modèle Standard. Il permet de calculer toutes les réactions entre particules, moyennant la connaissance des valeurs de 19 paramètres (parmi lesquels on trouve les masses des leptons chargés et des différents quarks ainsi que l’intensité des forces électromagnétique et forte, certains paramètres liés à l’unification des forces électromagnétique et faible...).

© CERN

Poids plume ou poids lourd : la faute au Higgs ! Le Modèle Standard s’appuie sur un principe de symétrie qui a comme conséquence que les particules ont une masse nulle, ce qui n’est pas ce que l’on observe expérimentalement. Cette contradiction peut être résolue par l’introduction du mécanisme de Higgs (« Théorie »), capable de conférer une masse aux particules qui en étaient initialement dépourvues. Postulé dans le Modèle Standard, ce mécanisme devrait avoir laissé des traces sous la forme d’au moins une particule additionnelle encore à découvrir : le boson de Higgs. Cette particule est maintenant recherchée depuis plus de 30 ans ! On sait actuellement, principalement grâce aux expériences du CERN, que sa masse est supérieure à 114 GeV/c2 et devrait être inférieure à 200 GeV/c2. Elle est activement recherchée aujourd’hui au Fermilab (Chicago) grâce à un collisionneur proton-antiproton appelé le Tevatron, et devrait – si le Modèle Standard décrit bien la physique des particules élémentaires – être vue au LHC.

page 6

Simulation de la production d’un boson de Higgs dans le détecteur (ici en coupe) CMS au CERN : dans cet événement le Higgs se désintègre en 4 leptons représentés par les traces roses.

ÉLÉMENTAÍRE


Histoire Le Modèle Standard Quelques dates marquantes du Modèle Standard Charge faible Dans le langage courant, on parle de « charge » pour décrire la charge électrique. La force électrique qui s’exerce entre deux objets « chargés » est proportionnelle au produit de leurs charges. Par un choix judicieux d’unité on peut exprimer toute charge électrique comme un multiple, ayant un signe positif ou négatif, d’une charge élémentaire. Ainsi, avec cette convention, l’électron porte une charge égale à -1 alors que celle du proton est +1. Les quarks ont par contre des charges fractionnaires (+2/3 et -1/3). Le photon qui transmet l’interaction électromagnétique a une charge nulle. D’une façon similaire, on peut définir une « charge faible » pour les particules sensibles à l’interaction faible. Mentionnons qu’il existe aussi une « charge forte » appelée couleur. Contrairement aux « charges » précédentes, on n’observe pas d’objet coloré dans le laboratoire mais des particules neutres de couleur (Élémentaire N°4).

1897 : J.J. Thomson découvre l’électron. 1905 : A. Einstein interprète l’effet photoélectrique par la nature corpusculaire de la lumière (photons). La même année il propose la théorie de la relativité restreinte. De 1900 à 1930 : les lois de la mécanique quantique sont progressivement établies. 1927 : P. Dirac publie un article donnant l’équation relativiste d’un système constitué de charges et de champs électromagnétiques. C’est un premier pas vers l’unification de la mécanique quantique et de la relativité restreinte, qui trouvera son expression définitive avec la théorie quantique des champs. 1930 : W. Pauli propose l’existence du neutrino pour expliquer le spectre de l’énergie de l’électron dans la désintégration bêta. 1934 : théorie d’E. Fermi de l’interaction faible, construite par analogie avec l’interaction électromagnétique de J.-C. Maxwell. 1937 : découverte du muon ; environ 200 fois plus lourd que l’électron, il n’a pas d’interaction forte avec la matière, exactement comme l’électron. De 1930 à la fin des années 40 : les physiciens comprennent l’origine des quantités infinies qui apparaissent dans les calculs en théorie quantique des champs. S.-I. Tomonaga, J. Schwinger et R. Feynman élaborent la théorie de la renormalisation pour éliminer ces quantités infinies et aboutir à des valeurs finies que l’on peut comparer avec les mesures expérimentales (voir «Théorie»). Cela leur vaudra le prix Nobel de physique en 1965. 1947 : B. Pontecorvo suggère que l’électron et le muon ont la même « charge faible » c’est-à-dire se comportent de la même manière vis-à-vis de l’interaction faible. 1949 : "θ→ππ, τ→3π" : parmi les particules produites par interaction de rayons cosmiques, on observe que deux d’entre elles ayant même masse, charge et durée de vie se désintègrent par interaction faible tantôt en deux pions (θ) et tantôt en trois (τ). Le pion ayant une parité propre négative, le θ et le τ doivent être considérées comme deux particules différentes, sauf s’il y a violation de la parité lors de leur désintégration. Or, le fait que ces deux particules aient des caractéristiques similaires donne à penser qu’il ne s’agit que d’une seule et même particule. La parité serait-elle violée ?

Parité propre L’opération de parité consiste à inverser les trois directions spatiales : x →-x, y→ -y, z→-z Sous cette opération, un système de parité donné, constitué d’une ou plusieurs particules, est transformé en un système décrit par un état quantique identique, à un facteur + ou - près. Ce facteur combine un terme dépendant du mouvement relatif entre les différentes particules, mais aussi des facteurs + ou - qui varient selon la nature des particules. Ces facteurs sont les parités propres des particules considérées.

ÉLÉMENTAÍRE

page 7

De 1954 à 1970 : de C.N. Yang et D. Mills à G. t’Hooft et M. Veltman, c’est la lente maturation des théories de jauge. Dans ces théories, les particules véhiculant les interactions entre constituants de la matière doivent avoir une masse nulle. 1956 : T.D. Lee et C.N. Yang proposent des tests pour établir la violation de la parité. 1956 : observation de l’interaction de neutrinos électroniques émis par une centrale nucléaire américaine. La particule proposée par Pauli est ainsi directement détectée. 1957 : observation de la violation de la parité (C.S. Wu, puis R. Garwin, L. Lederman et M. Weinrich).


Le Modèle Standard

DR

1962 : découverte du neutrino muonique à Brookhaven (USA). Par interaction faible dans la matière il donne naissance à un muon et non à un électron, ce qui permet de le distinguer du neutrino électronique. 1964 : on observe, à Brookhaven, un comportement différent entre une particule étrange et son antiparticule vis-à-vis de l’interaction faible. Cela indique que la symétrie « CP » est violée. 1964 : P. Higgs propose un mécanisme qui confère une masse aux champs de jauge et aux constituants de la matière. 1967 : à SLAC (USA), une expérience montre que le proton contient des « grains » élémentaires, ponctuels : les «partons», qui seront par la suite identifiés aux quarks. 1967 : modèle de Glashow-Salam-Weinberg (GSW) pour expliquer l’interaction faible via des champs de jauge. Il prédit l’existence de courants neutres faibles et unifie interaction faible et électromagnétique. 1968 : des neutrinos solaires manquent à l’appel. Est-ce dû au modèle utilisé pour décrire la « chaudière solaire » ou bien à un autre phénomène (qui pourrait bien être l’oscillation entre neutrinos de natures différentes ? La réponse en 1998 et 2001... 1971 : G. t’Hooft et M. Veltman démontrent que le modèle GSW permet de faire des calculs complets (on dit qu’il est renormalisable). 1972 : M. Kobayashi et T. Maskawa montrent que la violation de la symétrie CP est « naturelle » s’il existe au moins trois familles de constituants fondamentaux. 1973 : découverte des courants neutres faibles par l’expérience Gargamelle (CERN). 1973 : théorie de l’interaction forte, transmise par 8 gluons de masse nulle. La charge forte est appelée couleur. Les quarks existent suivant trois états de couleurs différentes, les gluons portent deux couleurs distinctes. Cette théorie fait appel aux champs de jauge, comme celle de l’interaction électro-faible. 1974 : découverte d’un nouveau quark, le charme, et d’un nouveau lepton, le tau (SLAC et Brookhaven aux USA). 1977 : découverte d’un cinquième quark, le quark beau, à Fermilab (USA). 1979: observation du gluon, particule qui véhicule l’interaction forte, à DESY (Hambourg).

DR

M. Kobayashi

T. Maskawa

1983 : découverte des bosons W+,W- et Z0 au CERN. 1989 : démarrage du LEP. Dix ans se sont écoulés entre sa conception, sa construction ainsi que celle des quatre expériences qui l’utilisent. Jusqu’en 1995 (phase dite LEP1) des mesures de précision sont réalisées sur les interactions faible et forte à partir de l’étude de désintégrations du boson Z0. Dès 1989 ces mesures montrent que seules trois familles de constituants existent dans la nature.

page 8

1992 : premiers résultats des expériences GALLEX (Italie) et SAGE (Russie) qui confirment qu’il y a bien déficit du nombre des neutrinos-électron en provenance du Soleil par rapport aux prévisions. 1994 : découverte du dernier des quarks connus, le top, à Fermilab (USA). 1995 : démarrage du programme LEP2 durant lequel l’énergie de la machine est augmentée. Le seuil de production de paires W+W- est franchi et l’énergie maximale atteinte sera de 208 GeV. Lors de l’arrêt du LEP en 2000, l’ensemble

ÉLÉMENTAÍRE


Le Modèle Standard des mesures de précision montrent que le modèle GSW décrit bien tous les résultats. Si le boson de Higgs manque toujours à l’appel une zone bien précise est délimitée pour sa masse : entre 114 et 200 GeV/c2. 1998 : observation du phénomène d’oscillation des neutrinos-mu, produits dans les rayons cosmiques, par l’expérience superKAMIO-KANDE (Japon). Cela prouve que les neutrinos sont massifs. 1999 : démarrage des « usines à beauté » au Japon et aux USA. Leur but principal est d’étudier la violation de la symétrie CP avec des particules contenant le quark beau. On s’attend à des effets bien plus grands que ceux mesurés avec les particules étranges qui sont au niveau de quelques pour mille. L’espoir est aussi d’observer des contributions nouvelles à ce phénomène.

© Fermilab

2000 : l’existence du neutrino-tau est prouvée, à Fermilab, par l’observation de quelques interactions caractéristiques de sa présence. 2001 : l’expérience SNO (Canada) montre que le Soleil produit bien le nombre de neutrinos prévus mais qu’une partie de ceux-ci s’est transformée en neutrinos-mu ou neutrinos-tau lors de son parcours. 2008 : arrêt de l’usine à beauté de SLAC. Avec celle de KEK, elles ont montré que le Modèle Standard décrit la violation de la symétrie CP à partir d’un seul paramètre, comme attendu dans la description de Kobayashi et Maskawa. La précision des mesures exclut des déviations de plus de 1020% dues à la présence éventuelle de nouvelles particules. La violation de la symétrie CP du modèle Standard est trop faible pour expliquer celle de l’asymétrie entre matière et anti-matière dans l’Univers. Peut-être que l’origine de cette dernière est à rechercher du côté des neutrinos ?

Seul le boson de Higgs manque encore au tableau et il devrait être découvert au CERN grâce à la mise en fonctionnement du LHC. Cependant, si le Modèle Standard est très habile à décrire l’essentiel des phénomènes observés jusqu’ici, on sait qu’il est incomplet. Certaines observations ne s’inscrivent pas dans son cadre, comme le fait que les neutrinos aient une masse, que l’Univers contienne une forte proportion de matière noire et qu’il soit formé uniquement de matière. Elles sont autant de pistes pour les années à venir. Le programme LHC est aussi conçu pour observer une nouvelle série de particules dont les masses sont attendues entre quelques centaines de GeV et quelques TeV. Parmi elles on devrait en trouver au moins une, interagissant très peu avec la matière ordinaire, et qui pourrait expliquer la présence de « matière noire » dans l’Univers.

Le détecteur CDF, fonctionnant sur le Tevatron (Fermilab, USA), qui, avec l’expérience DØ, a découvert le quark top.

© SLAC

En résumé, de 1897 à 2000, tous les constituants du Modèle Standard ont été observés, depuis l’électron jusqu’au neutrino-tau. On peut remarquer que, depuis les années 1970, les particules de matière ont été découvertes aux USA alors que celles assurant l’échange des forces l’ont été en Europe (gluon, W, Z).

ÉLÉMENTAÍRE

page 9

Le détecteur BaBar opérant sur le collisionneur PEP-II de SLAC (USA). Il a étudié la violation de la symétrie CP avec les particules de beauté.


Interview Jean Iliopoulos Pourquoi avez-vous fait de la physique ?

J.-A. Scarpacci

Souvent ce sont des événements un peu aléatoires qui déterminent la carrière de quelqu’un ! J’ai d’abord choisi la voie des mathématiques plutôt que des études littéraires, puis j’ai fait des études d’ingénieur. Mon premier travail a été dans la société Siemens, à Munich, en tant qu’ingénieur ; c’était la fin des années 50 ; les transistors existaient mais n’étaient pas assez fiables. On les utilisait dans les appareils radio, d’où le nom de ces derniers au début. Siemens commençait à remplacer les lampes par des transistors dans des appareils plus sophistiqués. Mais les jeunes ingénieurs ne savaient pas ce qu’était un transistor ! On ne nous l’enseignait pas ou seulement dans quelques écoles ! Le responsable de la recherche chez Siemens nous a donc chargés, un collègue et moi-même, de lire un gros dossier de notes sur le sujet, de comprendre la théorie des transistors et de l’expliquer aux membres du département. Nous n’y comprenions rien ! Dans ces notes, une phrase magique revenait à plusieurs reprises, disant que tel et tel phénomène – au cœur du fonctionnement des transistors – s’expliquait par les lois de la mécanique quantique. Nous avons donc décidé de nous renseigner sur cette mystérieuse « quantum mechanics » et avons acheté le tout nouveau livre de Messiah sur le sujet, ainsi que le fameux texte de Landau et Lifshitz, qui venait d’être traduit du russe en anglais.

Jean Iliopoulos lors de son interview à l’École normale supérieure à Paris. Jean Iliopoulos est né en 1940 à Kalamata, au sud du Péloponnèse, en Grèce. Après des études à l’École polytechnique d’Athènes, il vient à Paris où il suit le DEA de physique théorique à Orsay en 1963 et poursuit avec une thèse de 3ème cycle et puis une thèse d’État. Lors de cette dernière il séjourne deux ans au CERN comme boursier à la Division théorique. En 1969, il part deux ans comme boursier à l’Université de Harvard où il collabore avec Sheldon Glashow et Luciano Maiani à la construction théorique du mécanisme dit de GIM (initiales des trois auteurs), prédisant l’existence du 4ème quark, qu’on appellera par la suite «charme». À son retour en France en 1971, il entre au CNRS et il rejoint le groupe de Physique théorique du laboratoire de l’École normale de Paris. Jean Iliopoulos s’est intéressé à la théorie des interactions des particules à hautes énergies ainsi qu’à la gravitation. Tout au long de sa carrière de chercheur il n’a cessé d’enseigner : à l’École polytechnique, à l’École normale ainsi qu’au DEA de Physique théorique de Paris dont il était responsable pendant plusieurs années. En parallèle, il a activement contribué à l’administration de la recherche, comme membre et puis comme président de la section de Physique théorique du Comité national du CNRS et en faisant partie de plusieurs comités scientifiques en France et au CERN. Il est membre de l’Académie des sciences. Jean Iliopoulos a reçu de nombreuses récompenses internationales prestigieuses dont la Médaille Dirac, en 2007.

Pour vous qu’est ce qu’une particule ? Il est difficile de répondre à cette question ! Une particule, juste une particule, c’est un objet qui a une masse et un spin bien déterminés et aussi quelques autres nombres quantiques. Le noyau d’uranium est une particule. Quant à définir ce qu’est une particule élémentaire, c’est plus délicat. Pour moi, une bonne définition est la suivante : c’est un objet qui figure dans la table des particules élémentaires (le « particle data book », ou PDG, anciennement la table de Rosenfeld) ! Il faut bien comprendre que l’élémentarité est une notion qui change avec le temps. En effet, quand j’ai commencé la physique, les particules élémentaires – qui figuraient dans les tables donc – étaient le proton, le neutron, les pions, etc. On sait aujourd’hui que ces particules sont en fait composées de quarks et de gluons. Les physiciens de demain découvriront peut-être que ces derniers, ainsi que les autres particules que nous considérons aujourd’hui comme « élémentaires » ne le sont pas !

page 10

Un nombre quantique est un nombre qui caractérise l’état d’un système quantique. Il peut être continu (masse, impulsion...) ou discret (moment cinétique...).

Nous avons trouvé cela tellement passionnant, que nous avons tous deux démissionné de chez Siemens pour faire des études de physique théorique. Je suis venu en France faire un certificat d’études supérieures (l’ancêtre du DEA, lui-même ancêtre du Master 2). Mon ami est également devenu théoricien et est aujourd’hui professeur à Bruxelles !

ÉLÉMENTAÍRE


Jean Iliopoulos Quels sont les aspects qui ont le plus marqué votre vie professionnelle ? Ce qui m’a marqué le plus, ce sont les personnalités que j’ai eu la chance de rencontrer ! Philippe Meyer (physicien théoricien du LPTHE-Orsay) par exemple, qui a formé des générations de physiciens théoriciens et expérimentateurs et qui vient de nous quitter. Je considère aussi que j’ai eu énormément de chance dans ma jeunesse car j’ai vécu une époque où il y a eu de grandes révolutions en physique. C’était une période de grande activité, où de nouvelles idées étaient proposées tous les jours. Une des personnalités de l’époque, André Lagarrigue, m’a beaucoup marqué. DR

C’était la période extraordinaire de la découverte des courants neutres et nous avions des réunions tous les jours dans les années 69-72. C’est durant cette période que les physiciens ont compris que le Modèle Standard était bel et bien une réalité expérimentale ! Cette effervescence est ensuite retombée et la période qui a suivi a été plus calme. Mais avec le LHC, une nouvelle période d’intense activité scientifique et de découvertes s’annonce. Les physiciens de votre génération auront la même chance que moi !

Jean Iliopoulos lors de la Pâque Grecque 2007 fêtée entre amis, une occasion qui lui permet de mettre en œuvre ses talents de cuisinier !

Comment est venue l’idée d’« inventer » un 4ème quark (le quark charmé) ? L’idée, comme toujours, est venue par hasard. La problématique était la même que celle que l’on a aujourd’hui avec le LHC : il est clair que les expériences réalisées à une certaine échelle d’énergie permettent de comprendre la physique à cette échelle. Mais elle permettent également de deviner, de façon indirecte, ce qui se passe à des échelles d’énergies encore plus grandes ! Imaginez des extra-terrestres sur une planète très éloignée qui observent ce qui se passe sur Terre. Leurs instruments ont un pouvoir de résolution de l’ordre de 10 mètres. Ces ET peuvent donc voir les bâtiments que nous construisons, les avions, les routes, etc. Ils ne peuvent nous voir mais ils peuvent deviner qu’il y a des « bêtes » ou quelque chose qui sont à l’échelle du mètre, qui ont créé tout ça. Tout ce qu’ils verraient ne pourrait pas être fait par des fourmis. Ils auraient donc des arguments pour assurer qu’ils feraient à coup sûr une découverte s’ils avaient des appareils d’observation avec un plus grand pouvoir de résolution et ils pourraient ainsi convaincre le CNRS de leur planète de financer leur recherche.

ÉLÉMENTAÍRE

page 11

À l’époque où nous avons proposé (avec Glashow et Maiani) l’idée qu’il devait exister un 4ème type de quark (en plus des quarks u, d et s), il existait deux mesures particulièrement précises. La première portait sur la différence entre les masses de certains mésons K et l’autre sur leur mode de désintégration en leptons chargés (électrons, muons et leurs


Jean Iliopoulos antiparticules). Les calculs théoriques de ces quantités étaient en flagrant désaccord avec ces mesures, de quelques six ordres de grandeur (un facteur un million) ! À l’époque, on avait, d’un côté, quatre types de leptons, les électrons, les muons et les neutrinos associés et, de l’autre coté, trois types de quarks, u, d et s. L’idée d’introduire un quatrième quark (le c) est venue naturellement pour avoir une situation plus symétrique. Précisément grâce à cette symétrie, les calculs dans cette théorie à quatre quarks étaient en accord avec les données expérimentales mentionnées plus haut. Nous avons eu de la chance : cette idée était la bonne !

ILC (International Linear Collider) et CLIC (Compact LInear Collider) sont deux projets de collisionneurs linéaires électron-positron destinés à faire des mesures de précision à des énergies de l’ordre du TeV – à la suite des découvertes attendues au LHC dans ce domaine d’énergie. L’ILC est prévu pour fonctionner à une énergie de collision de 500 GeV, avec une possibilité ultérieure de monter jusqu’à 1 TeV, et devrait mesurer de 30 à 40 kilomètres de long. Le CLIC veut exploiter d’autres technologies pour l’accélération des faisceaux pour atteindre une énergie de 3 à 5 TeV avec un dispositif plus court. Les deux machines sont pour l’instant à l’état de projet, de même que les détecteurs qui exploiteraient leurs collisions. Des activités de recherche et de développement liés à ces projets sont menées dans de nombreux laboratoires de physique des particules.

Que va apporter le LHC ? Le LHC est la première machine dans l’histoire de la physique des particules où les physiciens ont la garantie de découvrir une physique nouvelle, même si personne ne peut dire à l’avance ce que sera cette physique ! L’argument est le même que précédemment : les expériences passées ont permis de réunir un ensemble d’indications fortes que des « bêtes » existent à des échelles plus petites que celles testées jusqu’à présent et que le pouvoir de résolution du LHC permettra de les mettre en évidence de façon directe. Pour être plus précis, les expériences du LEP (voir « Expérience ») indiquent que le boson de Higgs du Modèle Standard doit être relativement léger (les résultats des expériences de précision menées au LEP sont difficilement conciliables avec l’existence d’un Higgs très lourd). Cependant, les calculs théoriques de la masse du Higgs dans le cadre du Modèle Standard montrent qu’il est difficile d’avoir un Higgs léger. Il doit donc exister un mécanisme permettant de comprendre la légèreté du Higgs !

Quelle est, selon vous, la nouvelle physique ? Ce n’est là que spéculation de ma part. Mon pari est sur la supersymétrie. Tout d’abord parce que c’est une idée formidable, mais aussi parce qu’elle permet de rendre le Modèle Standard plus naturel. Si vous essayez d’expliquer le Modèle Standard à quelqu’un, il va voir que quelque chose ne marche pas. Par exemple le Modèle Standard est bâti sur l’idée d’une symétrie dite de jauge. Il s’agit d’une symétrie par rapport à des transformations agissant dans un espace « interne » qui a une structure compliquée parce que le Modèle Standard n’est pas symétrique par rapport à toutes les transformations, mais seulement vis-à-vis de certaines d’entre elles. Pourquoi ? Lorsqu’on inclut la supersymétrie, tout ceci devient naturel, plus simple dans un certain sens. C’est là mon idée. © CERN

Après le LHC ? Il me paraît clair qu’il faudra aller plus loin. Cependant, il est impossible de prévoir dans quelle direction. Tout dépendra des résultats du LHC, c’est-à-dire de ce qu’est réellement la nouvelle physique. Si celle-ci se manifeste à des échelles d’énergies de l’ordre de quelques centaines de GeV, le collisionneur linéaire international (ILC), actuellement en page 12

Vue du détecteur ATLAS au LHC (CERN).

ÉLÉMENTAÍRE


Jean Iliopoulos discussion, sera la machine appropriée. S’il faut aller jusqu’au TeV, il faudra envisager une machine comme le CLIC, voire un super CLIC. Mais pour une fois, je suis serein vis-à-vis de ces développements : que ce soit l’un ou l’autre, je suis sûr de ne pas les voir !

Avez-vous des regrets ?

© ENS

Mes regrets : ne pas avoir trouvé ce que d’autres ont trouvé à l’époque où le Modèle Standard s’est construit. Je suis passé à côté de grandes découvertes ! Je ne peux pas regretter de ne pas avoir construit la mécanique quantique, je n’étais pas là quand cela s’est fait. Mais pour le Modèle Standard, j’étais présent et je travaillais sur le sujet ! Mais avec le temps, je vois cela avec philosophie : j’étais présent, j’ai participé à ces développements et c’est cela qui compte. De cela je suis content.

La cour intérieure, dite cour des Ernests, de l’École normale supérieure, rue d’Ulm, à Paris. Créée en 1794, l’École accueille scientifiques et littéraires et est l’un des plus prestigieux établissements d’enseignement supérieur de France.

Votre rêve de physicien ? Une chose... mais c’est vraiment du domaine de la science fiction, ce serait de pouvoir observer l’Univers primordial avec autre chose que des photons. Les photons nous donnent accès à l’Univers tel qu’il était quelques centaines de milliers d’années après le Big-Bang. Si on pouvait observer les neutrinos de l’Univers primordial, ou encore les ondes gravitationnelles, on aurait accès aux tous premiers instants de l’Univers après le Big-Bang.

Un message aux jeunes ? D’abord, pour les jeunes physicien(ne)s, nous entrons dans une période de physique extrêmement riche, donc vous avez de la chance ! Mon conseil : n’écoutez pas les conseils des vieux !

Une question de physique à laquelle vous auriez aimé répondre ? Il y en a beaucoup ! C’est vaste la Physique ! Si je me restreins à la physique des hautes énergies, alors une question dont j’aimerais connaître la réponse est : quel est le rôle de la gravitation ?

ÉLÉMENTAÍRE

page 13

Et puis encore : est-ce qu’il y a vraiment eu un « Big-Bang » ? Le modèle du Big-Bang est plutôt une paramétrisation de notre ignorance. Y-a-t-il véritablement une singularité de l’espace-temps ? Dans un autre registre : peut-on démontrer le confinement des quarks ? Pourra-t-on un jour calculer les constantes sans dimensions de la Physique ? ...


Centre de recherche Le CERN Le CERN : le plus grand laboratoire au monde pour la physique des particules

Les 12 pays fondateurs du CERN sont l’Allemagne, la Belgique, le Danemark, la France, la Grande-Bretagne, la Grèce, la Hollande, l’Italie, la Norvège, la Suède, la Suisse et la Yougoslavie. La convention signée en 1954 décrit les missions de l’organisme en ces termes : « L’organisme doit promouvoir à travers l’Europe une recherche en physique nucléaire de caractère purement scientifique et fondamental. L’organisme ne doit avoir aucune relation avec des projets militaires et tous les résultats des travaux expérimentaux ou théoriques seront publiés et deviendront du domaine public. ».

© CERN

L’idée d’un grand centre européen pour la physique nucléaire a germé au lendemain de la seconde guerre mondiale. Pendant la guerre, nombre de physiciens européens se sont exilés aux États-Unis qui, de par leur effort pour mettre au point la bombe atomique, ont pris un rôle de leader dans le domaine de la physique nucléaire. L’Europe, affaiblie dans tous les domaines, cherche la meilleure voie pour réorganiser sa recherche. Une poignée de scientifiques, parmi lesquels Pierre Auger, Raoul Dautry, Lew Kowalski, Niels Bohr et Edoardo Amaldi, réfléchissent à la création d’un laboratoire européen pour faire progresser la discipline, tout en contribuant à réunifier et pacifier le vieux continent. Un acte décisif sera accompli par un physicien américain, Isidor Rabi en juin 1950, qui fait inscrire une résolution lors de la cinquième conférence de l’UNESCO à Florence, pour « assister et encourager la création de laboratoires régionaux afin d’accroître la coopération scientifique internationale ». Dès lors, Pierre Auger et l’italien Edoardo Amaldi se lancent dans une campagne de persuasion afin de rallier les scientifiques européens. Ils se heurtent à quelques résistances, mais lors de la conférence intergouvernementale de l’UNESCO à Paris en décembre 1951, la première résolution pour créer un Conseil Européen pour la Recherche Nucléaire est adoptée. L’acronyme CERN était né. Un an plus tard, en octobre 1952, ce conseil choisit Genève pour accueillir le site. Quatre villes étaient en compétition : Copenhague, Paris, Arnhem et Genève. La neutralité de la Suisse et sa position géographique en Europe furent des atouts indiscutables. Le 17 mai 1954 commençait la construction des premiers bâtiments à Meyrin, dans la banlieue genèvoise. Le Centre Européen pour la Recherche Nucléaire est officiellement créé le 29 septembre 1954 par 12 pays fondateurs qui ratifient la convention. Aujourd’hui le CERN a 20 pays membres assurant son financement et plusieurs autres qui collaborent dans des projets précis, comme la Russie, les ÉtatsUnis, le Japon, l’Inde, la Turquie et Israël.

© CERN

Une, deux, trois... machines

page 14

En haut : la session historique d’octobre 1952 du Conseil provisoire du CERN, chargé de la rédaction de la convention du laboratoire. À droite en bas : le 17 mai 1954, les premiers coups de pelle étaient donnés sur le site de Meyrin.

L’histoire du CERN est indissociablement liée à la construction de grands accélérateurs, une des raisons de sa création. Les projets d’accélérateurs sont mis sur pied très tôt. Afin de permettre à une génération d’Européens de se faire la main, un projet plus classique, un synchrocyclotron (SC) de 600 MeV, est construit et opérationnel dès 1957. Il fournit des faisceaux aux premières expériences de physique des particules et de physique nucléaire. À partir de 1964, le SC est réservé aux seules expériences de physique nucléaire jusqu’en 1990, où il sera finalement arrêté après 33 ans de services.

ÉLÉMENTAÍRE


© CERN

Le CERN Le PS (Proton Synchrotron) accélère ses premiers protons le 24 novembre 1959, devenant l’accélérateur produisant les plus hautes énergies au monde (28 GeV) et se met ainsi au service du programme de physique des particules du CERN. Plus tard, dans les années 1970, son rôle devient l’alimentation des nouvelles machines. En 1971 par exemple, le PS envoie deux faisceaux de protons dans deux anneaux à intersection (ISR), permettant ainsi les premières collisions frontales de protons. À partir de 1976, un nouvel outil voit le jour, le SPS (Super Proton Synchrotron). Ayant une circonférence de 7 km, il est construit dans un tunnel souterrain qui traverse la frontière franco-suisse. Prévu initialement pour accélérer des protons jusqu’à une énergie de 300 GeV, il opère aujourd’hui à 450 GeV. Un moment glorieux de son histoire est lié à la découverte des bosons intermédiaires W+, W- et Z0 dans les années 80 (voir « Découverte »). Le SPS a fourni pendant des années des faisceaux pour des expériences de types variés, alimentant différents halls expérimentaux du CERN. Il continue encore aujourd’hui son activité comme injecteur de proton pour le LHC.

Transport d’une des deux bobines du synchrocyclotron à travers le village de Meyrin.

Dès 1985, un projet gigantesque commence sous les terres jurassiennes. L’excavation d’un tunnel de 27 km de circonférence démarre en février pour recevoir le LEP, collisionneur électron-positron, prévu pour devenir une usine à bosons Z0. En dépit de la taille de l’entreprise, les progrès furent impressionnants. La construction des éléments de l’accélérateur (5176 aimants et 128 cavités accélératrices) fut tout aussi rapide. Le 8 février 1988, les deux extrémités du tunnel de 27 kilomètres se rejoignirent avec une erreur d’un centimètre seulement ! Les premières collisions ont eu lieu le 13 août 1989 à une énergie de 91 GeV. La machine est restée à cette énergie plusieurs années (ce qu’on appelle LEP Phase 1) afin d’accumuler une quantité abondante d’événements Z0. Puis, l’énergie est montée à 160 GeV permettant la création des paires de W. Toutes ces données accumulées ont abouti à des mesures extrêmement précises des paramètres de la théorie électrofaible et de l’interaction forte qui a établi le Modèle Standard (voir «Expérience»). En parallèle à l’exploitation scientifique de l’anneau, un programme de recherche et développement de cavités supraconductrices (voir «Accélérateurs») a permis la montée progressive de son énergie jusqu’à 208 GeV au LEP2. Ceci a donné lieu à une période passionnante de la recherche du boson de Higgs qui a abouti aux meilleures limites actuelles sur sa masse. Selon le Modèle Standard, ce boson a 95% de chances d’avoir sa masse comprise entre 114 GeV/c2 et 200 GeV/c2. En 2001, le programme du LEP a pris fin afin de permettre le démontage de la machine et la préparation du tunnel pour l’installation des éléments du LHC. Cette machine subit actuellement les derniers réglages. Elle constitue un défi technologique et son fonctionnement – à partir de l’été 2008 – sera considéré comme un tour de force.

page 15

ÉLÉMENTAÍRE

Vue de l’intérieur de la salle contenant les anneaux des ISR.

© CERN

ISR Les ISR (Intersecting Storage Rings) étaient constitués de deux anneaux de 300 m de diamètre, légèrement déformés de façon à permettre des intersections en huit points répartis sur la machine. On y accumulait des faisceaux de protons reçus du PS jusqu’à atteindre une luminosité élevée. Les ISR ont constitué le premier collisionneur hadronique au monde et de ce point de vue, furent le laboratoire d’étude de plusieurs effets propres à ce type de machine (technique du vide, stabilité de la luminosité, contrôle des faisceaux, etc...). C’est dans les ISR en 1981 qu’ont eu lieu les premiers essais de collisions entre des protons et des antiprotons suite aux études que Simon Van der Meer a effectuées. Les mêmes anneaux furent aussi utilisés pour tester des aimants supra-conducteurs (voir « Accélérateurs »). Aujourd’hui, les ISR sont reconnus comme le projet de « référence » pour tous les collisionneurs hadroniques qui furent construits par la suite dans le monde.


Le CERN Les dates-clés du CERN et ses découvertes

© CERN

1954 : les Européens s’unissent pour la science fondamentale ; 1957 : le premier accélérateur est mis en service ; 1959 : le PS démarre ; 1968 : Georges Charpak révolutionne la détection en concevant la première chambre multifils - il reçoit le Prix Nobel de Physique en 1992 ; 1971 : le premier collisionneur proton–proton entre en fonctionnement (ISR) ; 1973 : découverte des courants neutres ; 1976 : le SPS est mis en service ; 1983 : les particules W et Z sont découvertes ; 1984 : le prix Nobel de physique est attribué à Carlo Rubbia et Simon Van der Meer ; 1986 : les collisions d’ions lourds débutent ; 1989 : le LEP démarre ; 1990 : Tim Berners-Lee invente le Web ; 1993 : mesure de la composante de violation directe de l’asymétrie matièreantimatière ; 1995 : première observation d’anti-hydrogène ; 2000 : le LEP atteint une énergie de 208 GeV dans le centre de masse ; 2001 : différents résultats obtenus au cours de collisions d’ions lourds suggèrent que le plasma de quarks et de gluons aurait été produit au CERN ; 2002 : capture de milliers d’atomes d’anti-hydrogène ; 2008 : le LHC démarre.

© CERN

Le « Mole », robot creusant les galeries souterraines du SPS, connecte le tunnel avec un hall expérimental, en avril 1974.

La structuration de l’organisme La division théorique, créée en 1952 autour de Niels Bohr, a été le premier groupe de recherche du CERN. Les théoriciens qui arrivent à Genève dès 1954 sont accueillis temporairement dans des locaux de l’Université de Genève avant de d’emménager dans des baraques à Cointrin, près de l’aéroport. Depuis, le CERN s’est agrandi, s’est développé et s’est adapté aux besoins de la discipline. Aujourd’hui, il compte 2400 membres permanents, physiciens, ingénieurs et administratifs. Comme tout laboratoire d’accueil, le rôle de ses personnels est de faire « tourner la boutique CERN » : organisation des groupes de travail, installation des détecteurs, recherche et développement, préparation des aires expérimentales, mise en place et distribution de la puissance de calcul, formation. Aux permanents s’ajoutent environ 5000 utilisateurs, qui sont des physiciens et ingénieurs du monde entier, impliqués dans des expériences qui ont lieu au CERN. Le fonctionnement du laboratoire est supervisé par un Conseil qui constitue la plus haute autorité en matière de décisions concernant les programmes, leur financement ainsi que toutes les questions administratives ou techniques. Il est composé de délégués page 16

© CERN

Ci-dessus : les éléments de couleur blanche à l’arrière-plan sont les aimants dipolaires du LEP, qui se distinguent par leur conception originale. Ils sont constitués de plaques d’acier avec un garnissage de béton dans les interstices séparant les plaques. Les aimants de couleur bleue au premier plan sont des quadrupôles de focalisation, et les petits aimants jaunes à l’arrière-plan, des sextupôles qui corrigent la « chromaticité » des faisceaux ; de même que les systèmes optiques peuvent apporter des corrections aux différentes longueurs d’ondes constituant la lumière, ces sextupôles corrigent la dispersion des impulsions dans les faisceaux de particules du LEP. Au total, le LEP possède 3368 dipôles, 816 quadripôles, 504 sextupôles et 700 autres aimants qui apportent de légères corrections à l’orbite des faisceaux. À droite : une des cavités supraconductrices qui furent installées à partir de 1996 afin de doubler l’énergie du LEP.

ÉLÉMENTAÍRE


© CERN

© DESY, Christian Schmid

Le CERN scientifiques et gouvernementaux qui représentent les pays membres. Ce Conseil est assisté du Comité de Politique Scientifique (Scientific Policy Committee) et du Comité des Finances (Finances Committee). L’organisme est dirigé par un Directeur Général nommé par le Conseil, lui-même assisté d’un Directoire.

À gauche, l’actuel Directeur général du CERN Robert Aymar, et à droite, le futur directeur du CERN Rolf Heuer, qui prendra le relais en janvier 2009.

© CERN

Et un et deux et trois... et sept départements L’organisme comprend aujourd’hui 7 départements dont font partie tant les membres permanents du CERN que les utilisateurs : ❏ Accélérateurs et faisceaux (AB pour « Accelerators and Beams ») ❏ Technologies d’accélération (AT pour « Acceleration Technologies ») ❏ Physique (PH) ❏ Technologies de l’information (IT pour « Information Technologies ») ❏ Support technique (TS pour « Technical Support ») ❏ Ressources humaines (HR pour « Human Resources ») ❏ Services financiers (FI).

Le nouveau centre de contrôle du CERN, inauguré en 2006, comprend maintenant les salles de contrôle des huit accélérateurs du laboratoire, du système de distribution cryogénique et de l’infrastructure technique.

Le CERN aujourd’hui : le seigneur des anneaux

ÉLÉMENTAÍRE

Production des faisceaux à ISOLDE : l’interaction entre le faisceau de protons incidents et la cible d’uranium donne naissance, par différents mécanismes, à une série d’ions radioactifs qui sont guidés et triés par un aimant. page 17

Le CERN est aujourd’hui le plus grand laboratoire de recherche du monde. Des milliers de scientifiques le fréquentent pour des intervalles de temps plus ou moins longs. Depuis la fin des expériences autour du LEP, le LHC et les expériences associées ATLAS, CMS, LHCb et ALICE constituent le principal projet du centre (voir « LHC »). D’autres expériences sur cible fixe telle que COMPASS, continuent de sonder la nature des hadrons. Le CERN n’est pas seulement l’antre de la physique des particules. Les installations d’ISOLDE, placées auprès du PSB (ProtonSynchrotron Booster) rassemblent une vaste communauté de physiciens nucléaires. Des nucléides radioactifs sont produits par spallation, fission ou fragmentation, lors des chocs des faisceaux de protons de 1 à 1,4 GeV sur des cibles. Après leur création, ces ions sont accélérés, séparés suivant leur masse, rassemblés en faisceaux et dirigés vers les détecteurs des expériences. Jusqu’à présent, environ 60 éléments de Z=2 à Z=88 ont été produits sous forme de faisceaux d’intensité importante (1011 ions par seconde). Ces faisceaux permettent d’accéder aux propriétés de noyaux instables qui n’existent pas dans la nature. En 2002, une grande première a eu lieu au CERN : on a créé et conservé des milliers d’atomes d’anti-hydrogène, un atome constitué d’un anti-proton et d’un positron. En piégeant ces particules électromagnétiquement, on a réussi à les faire se rencontrer et à former les atomes d’anti-hydrogène. Par la suite le problème est de préserver cette (toute petite) quantité d’anti-matière,

ISOLDE ISOLDE rassemble 270 utilisateurs provenant de 22 pays et qui travaillent autour de 35 expériences. En utilisant les faisceaux d’ions extraits de cette installation, on y étudie des sujets aussi variés que la physique nucléaire, l’interaction faible, la physique du solide, l’astrophysique, la physique atomique et la biologie.


Le CERN L’anti-hydrogène est fait à partir d’un antiproton et d’un positron. Les anti-protons produits lors des collisions de protons sur une cible, sont rassemblés et ralentis. Cette étape a lieu dans une machine dédiée du CERN, le AD (Antiproton Decelerator). De même, les positrons sont ralentis, leur mouvement est « refroidi » de façon à augmenter la probabilité de liaison avec les antiprotons quasi-immobiles, lorsque ces deux types de particules sont mis à proximité. Cette phase « d’approche » des anti-protons et des positrons, est techniquement très ardue et constitue le tour de force des expériences ATRAP et ATHENA du CERN. À elles deux, elles ont réussi en 2002 à créer et accumuler des milliers d’atomes pendant un temps suffisamment long pour les dénombrer et les étudier. Dans l’avenir les physiciens veulent déterminer systématiquement les propriétés de l’anti-hydrogène et les comparer à celles de l’hydrogène.

page 18

Le complexe d’accélérateurs du CERN est composé d’un enchaînement d’accélérateurs de particules permettant d’atteindre progressivement de hautes énergies. Chaque accélérateur augmente la vitesse d’un faisceau de particules avant de l’injecter dans l’accélérateur suivant. Les protons sont produits à partir d’atomes d’hydrogène dont on extrait les électrons. Ils commencent leur parcours dans l’accélérateur linéaire (LINAC), puis sont injectés tour à tour dans le synchrotron injecteur du PS (PSB ou PS Booster), le synchrotron à protons (PS) et le super synchrotron à protons (SPS), avant d’arriver au grand collisionneur de hadrons (LHC). Une fois dans le LHC, les protons y circulent pendant vingt minutes avant d’atteindre l’énergie maximale. Les ions de plomb pour le LHC sont produits à partir d’une source de plomb vaporisé, avant d’être envoyés dans le LINAC3. Ils sont ensuite accélérés dans l’anneau d’ions à basse énergie (LEIR) et empruntent le même parcours que les protons.

loin de toute matière, afin qu’elle survive pour pouvoir être étudiée. Dans le cas de l’anti-hydrogène, les physiciens veulent comparer ses propriétés atomiques avec celles, bien connues, de l’hydrogène. Pourquoi ? Parce que dans le Modèle Standard, la masse d’une particule doit être égale à celle de son antiparticule ; les transitions de l’électron de l’hydrogène d’une couche atomique à l’autre doivent être identiques à celles du positron de l’anti-hydrogène. C’est ce que les physiciens veulent tester avec la plus grande précision possible.

ÉLÉMENTAÍRE


Le CERN Le CERN et le monde « Le CERN rapproche les peuples », se plaît-on à rappeler à certaines occasions au CERN. Ceci est vrai lorsqu’on voit les origines différentes des scientifiques qui s’y retrouvent pour travailler ensemble. Cette phrase rappelle aussi le caractère pacifique de ces recherches, conformément à la Convention de la création du Centre. Le CERN joue un rôle d’ouverture vers les pays qui n’ont pas développé la physique des particules, à travers des contrats spéciaux permettant à des jeunes des séjours plus ou moins longs. Par ailleurs, la direction du centre a toujours soutenu des programmes de formation destinés aux jeunes du monde entier ; tous les étés, environ 150 étudiants en fin d’études, rejoignent le CERN pour y passer quatre mois en suivant des cours sur la physique moderne et en effectuant un travail expérimental. Le CERN organise aussi des écoles très recherchées pour les étudiants en thèse, en physique, physique des accélérateurs et informatique, toujours dans le même esprit de formation et d’ouverture vers le monde.

LCG (LHC Computing Grid) Avec ses 40 millions d’événements par seconde, le LHC va générer une quantité d’information gigantesque. Même sévèrement filtrés après une sélection stricte, ces événements vont correspondre à 15 Pétaoctets de données à traiter par an ! Pour satisfaire ce besoin, les physiciens et ingénieurs ont imaginé et mis en place une grille de calcul mondiale, en interconnectant 140 centres de calcul situés dans 35 pays. Ces centres sont partagés en trois groupes : Tier0, Tier1 et Tier2. Ces noms bizarres désignent le rôle de chaque centre dans la grille. Le CERN est l’unique Tier0 : c’est ici que se fera l’acquisition, le premier traitement (calibration et reconstruction) et la distribution des données vers les 12 centres Tier1. Ces derniers reçoivent les données quasien ligne et doivent offrir tout le temps de calcul nécessaire pour l’analyse. Finalement, dans les 127 centres Tier2 se fera la production des données simulées ainsi que l’analyse de physique faite par différentes équipes de chercheurs.

ÉLÉMENTAÍRE

page 19

Un peu de science et beaucoup de fiction Le livre « Anges et démons » de Dan Brown raconte une histoire autour du CERN et de la création d’antimatière dans ce laboratoire. Mais le livre fabule sur les quantités qui y sont fabriquées ; malgré les 200 000 000 000 000 antiprotons produits au CERN par an, ce nombre ne représente que 0,0003 μg ; ce nombre est très très loin du kilo volé par la secte secrète afin de faire exploser le Vatican (nous ne raconterons pas la suite..). En plus il n’y a pas au CERN de bâtiment en briques rouges et le directeur général ne se déplace pas en X-33 à Mach 28.


Expérience Le LEP et le modèle standard

DR

La découverte des courants neutres en 1972 puis celle du quark charmé et d’un nouveau lepton, le tau, dans les années qui suivent focalisent l’attention des physiciens sur l’interaction faible. Aussi, en 1976, Burton Richter qui est un des découvreurs du charme, et se trouve alors en congé sabbatique au CERN, tente de convaincre les physiciens européens de l’utilité de construire un grand collisionneur électron-positron, fonctionnant à une énergie de l’ordre de la centaine de GeV, afin d’étudier en détail les propriétés de cette interaction. À une telle énergie on s’attend à ce que l’interaction faible ne le soit plus tellement et qu’elle ait une intensité voisine de celle de l’interaction électromagnétique. En 1977, le Comité Européen pour les Futurs Accélérateurs exprime un large accord des physiciens pour réaliser ce qui deviendra le LEP. Un an plus tard, aux Houches dans les Alpes, une réunion sur une dizaine de jours regroupe 80 participants. Elle sera suivie de beaucoup d’autres, où les différents aspects concrets du projet seront passés en revue. À la suite de cet effort de la communauté scientifique, les représentants des états membres du CERN décident, en 1982, de construire le plus grand accélérateur du monde pour explorer un domaine d’énergie allant de 70 à 200 GeV : le LEP ou « Large Electron Positron collider ».

Burton Richter Né à Brooklyn en 1931, il a fait ses études au MIT où il a passé sa thèse en 1956. Il a ensuite rejoint le laboratoire de physique des hautes énergies de l’Université de Stanford, puis le SLAC (Stanford Linear Accelerator Center) en 1963, où il a effectué le reste de sa carrière. Il en a été le directeur de 1984 à 1999. Il participe aux premières expériences de collisions électron-électron au début des années 1960, afin de tester les calculs d’électromagnétisme à haute énergie (500 MeV par faisceau). Durant cette même période il effectue des recherches sur les collisions électron-positron. Un premier projet de machine (SPEAR : Stanford Positron Electron Asymmetric Ring) est proposé en 1961 ; financé en 1964, il fonctionne à partir de 1970. En 1974, son groupe découvre, en utilisant cette machine et le détecteur installé au point de collision des faisceaux, la particule ψ qui s’avère être formée d’un quark et d’un antiquark d’un type nouveau : le charme. Une découverte similaire, mais à partir d’une expérience totalement différente, est faite de façon quasi simultanée par l’équipe de Samuel Ting, à Brookhaven. Les deux physiciens partagent le prix Nobel de physique en 1976. De retour aux États-Unis, après un séjour au CERN en 1976, B. Richter propose également à ses collègues de construire un accélérateur concurrent du LEP pouvant étudier les mêmes phénomènes, le SLC.

En quête du Z0 En 1967 Glashow, Salam et Weinberg (GSW) proposent un modèle unifiant les interactions faible et électromagnétique. Ils prédisent que l’interaction faible peut se produire non seulement par échange de particules chargées, les bosons W+ et W- comme par exemple dans la désintégration bêta, mais aussi par celui d’une particule neutre : le boson Z0. Une première indication de l’existence de ce boson est obtenue au CERN en 1973. En 1983-84 les particules W± et Z0 sont observées, également au CERN (voir « Découverte »). Le projet LEP doit permettre de faire des mesures de précision sur ces nouvelles particules afin de valider le modèle de GSW et, espère-t-on, de découvrir de nouveaux phénomènes.

Les paramètres du LEP

page 20

L’énergie de l’accélérateur est fixée par les objectifs de physique recherchés. Il en est de même pour sa luminosité c’est-à-dire le taux de collisions obtenu aux points de croisement des faisceaux, où sont installées les expériences. Sa taille, dans le cas d’un collisionneur entre électrons et positrons, est par contre déterminée par la perte d’énergie des faisceaux par rayonnement synchrotron (voir « Retombées »). Cette perte croît comme l’énergie des électrons à la Boson : Toutes les particules transmettant les interactions (photon, W± , Z0 et gluons) sont des bosons. Par contre, quarks et leptons, qui constituent la matière, sont des fermions. Les noms de boson et de fermion sont dérivés respectivement de ceux des physiciens Satyendranath Bose et Enrico Fermi qui ont expliqué (avec plusieurs autres physiciens) le comportement différent de ces particules: les bosons sont « grégaires » tandis que les fermions sont « asociaux » (en termes plus techniques, deux fermions ne peuvent occuper le même état quantique alors que ce n’est pas le cas pour les bosons). On les distingue par la valeur de leur spin.

ÉLÉMENTAÍRE


Le LEP et le modèle standard � �

��

W

��

��e e�

Z�

��

Cavités accélératrices supraconductrices Ces cavités installées sur le LEP sont, pour l’essentiel, fabriquées en cuivre recouvert de niobium et refroidies à la température de l’hélium liquide soit 4,5 K (-268,7 °C). Le niobium est alors supraconducteur et les pertes d’énergie sur les parois de ces cavités sont réduites à un niveau très bas. Ceci permet d’atteindre des valeurs du champ électrique accélérateur quatre fois plus élevées (6 MV/m) qu’avec des cavités classiques. L’installation des cavités a été terminée au début de l’année 1999 et le LEP fonctionnait alors avec 288 cavités supraconductrices et 56 cavités standard en cuivre opérant à la température ambiante. Durant l’année 2000, afin d’atteindre l’énergie la plus élevée possible pour les collisions et dans le but de découvrir le boson de Higgs, le système a été poussé au maximum. Les faisceaux ont ainsi atteint l’énergie de 104,5 GeV chacun. Depuis lors, de grands progrès ont été faits sur la construction des cavités accélératrices supraconductrices et des champs de 35 MV/m sont obtenus couramment.

e� e�

À gauche, un exemple de désintégration dite par courant chargé dans laquelle un muon se désintègre en neutrino-mu (νμ), électron et anti-neutrino. On peut la décomposer en deux étapes où le muon se transforme en neutrino-mu et émet un W- puis ce dernier se désintègre en un électron (e-) et un anti-neutrino électron. À droite, un exemple d’interaction dite par courant neutre entre un neutrinomu (νμ) et un électron (e-), due à l’échange d’un boson Z0. Seule l’existence de courants neutres permet cette réaction.

puissance quatre et est inversement proportionnelle au carré du rayon de l’anneau. Celui-ci doit donc être suffisamment grand pour que la puissance rayonnée par tour, compensée en fournissant en permanence de l’énergie aux faisceaux, reste faible devant l’énergie totale. Afin d’optimiser le coût de fonctionnement et de construction du LEP on a donc choisi un anneau de 27 km de circonférence pouvant fonctionner jusqu’à des énergies de 100 GeV par faisceau. L’accélérateur est installé dans un tunnel dont la profondeur varie de 50 à 175 m à cause de la présence du Jura. Le plan de l’anneau est incliné de 1,4% et son point le plus haut est sous le Jura afin de tenir compte de différentes contraintes (profondeur des puits d’accès, qualité de la roche, ...). Le creusement du tunnel a démarré le 13 septembre 1983 et la machine était terminée début 1988 pour un coût équivalent à 800 Meuros. Les premières collisions ont lieu en août 1989. Pendant six ans (programme LEP1) les études se concentrent sur la mesure des propriétés du boson Z0 dont 17 millions de désintégrations sont enregistrées. Toute manifestation de phénomène non prévu par le Modèle Standard est aussi traquée activement. L’amélioration des performances de la machine, des appareillages, ainsi que des moyens de calcul, fait que la précision des mesures est bien supérieure à celle des prévisions les plus optimistes. En 1995 débute le programme LEP2 durant lequel l’énergie de l’accélérateur est progressivement augmentée. Grâce au développement des cavités accélératrices supraconductrices il est finalement possible d’atteindre une énergie totale de 209 GeV.

La bande des quatre

ÉLÉMENTAÍRE

Quatre grandes expériences Les noms de ces expériences sont : ALEPH (Apparatus for LEp PHysics), DELPHI (DEtector with Lepton, Photon and Hadron Identification), OPAL (Omni Purpose Apparatus for Lep) et L3 (dont le nom correspond simplement à sa position sur l’anneau du LEP). page 21

Quatre grandes expériences ont été installées aux points de collision des faisceaux, pour un coût total de 300 Meuros dont 70% ont été payés par les laboratoires participants et 30% par le CERN. Ces détecteurs sont de conceptions légèrement différentes mais mesurent tous, avec une plus ou moins grande précision selon les choix techniques, l’ensemble des propriétés (impulsion, charge, masse) des particules émises lors des interactions électron-positron. Chaque expérience regroupe plusieurs centaines de physiciens et d’ingénieurs. Pour assurer un bon fonctionnement de l’ensemble, l’expérience


Le LEP et le modèle standard est structurée avec une organisation précise, dirigée par un porte-parole. Elle a pour charge de s’assurer du bon fonctionnement des différentes parties du détecteur, des moyens informatiques d’analyse des données et de la répartition des différents sujets de recherche entre les équipes de physiciens. Elle suit et valide les publications des résultats et fait en sorte que le travail effectué par les membres de la collaboration soit remarqué au sein de la communauté scientifique. Les laboratoires associés à l’expérience construisent des éléments du détecteur, assurent leur intégration dans l’ensemble et, le plus souvent, suivent leur fonctionnement. L’enregistrement des données se fait pendant quatre mois par an ; le reste du temps est utilisé par d’autres programmes de physique développés au CERN ainsi qu’à l’amélioration de l’accélérateur et des appareillages. Deux à trois physiciens sont, à tour de rôle, présents sur le site pour vérifier la qualité des informations recueillies. Si un problème survient, des spécialistes peuvent être appelés à tout moment pour une intervention rapide.

Sa masse, sa largeur Si l’on mesure la masse de particules Z0 produites dans des collisions à haute énergie on va constater qu’elle n’a pas une valeur fixe mais se répartit sur une distribution en forme de « cloche » ou de « résonance ». Par définition la valeur de la masse qui correspond au sommet de cette distribution, c’est-à-dire la valeur la plus probable, est la masse du Z0. La largeur du Z0 correspond à l’intervalle où la distribution reste supérieure à la moitié de sa valeur maximale. La « largeur » d’une particule est une notion générale qui traduit la facilité avec laquelle elle peut se désintégrer. Une particule stable (le proton, l’électron) a une largeur nulle. La largeur (Γ) est intimement reliée à la durée de vie (τ) de la particule par la relation : Γτ~h/2π=6,6 10 -22 MeV.s Le Z0 ayant une largeur de l’ordre du GeV, sa durée de vie est voisine de 10 -24 s.

Un des aspects du programme LEP1 a consisté à mesurer le plus précisément possible les propriétés du Z0 : sa masse, sa largeur, en quoi et comment il se désintègre. Puisque, lors des collisions e+e-, on produit le Z0 seul, mesurer sa masse et sa largeur est tâche aisée a priori car il suffit, pour les expériences, de compter les événements produits et, du côté machine, de connaître l’énergie des faisceaux ce qui peut être fait par plusieurs méthodes. L’une consiste à mesurer le champ magnétique dans les aimants qui assurent le guidage des faisceaux dans l’anneau. On obtient ainsi une précision de l’ordre de 10 MeV sur la mesure de l’énergie d’un faisceau de 45 GeV, soit deux dix-millièmes. Une autre méthode, qui utilise la polarisation des faisceaux, limite l’incertitude à 2 MeV. Elle a le désavantage de ne pas pouvoir être mise en œuvre pendant que les expériences prennent des données. Il faut donc suivre la stabilité de la machine entre deux mesures B précises de l’énergie. Ceci a conduit les physiciens à corriger les mesures de différents effets, certains inattendus, dont l’amplitude est bien supérieure à 2 MeV. Il y a tout d’abord les marées terrestres qui modifient la taille S de l’anneau géant de quelques millimètres. Comme les par-

e-

page 22

Polarisation des faisceaux En circulant dans l’anneau, le rayonnement de lumière synchrotron conduit à une polarisation progressive des électrons. C’est-à-dire qu’en moyenne et au bout de quelques dizaines de minutes un plus grand nombre d’électrons verront leur spin orienté dans la direction opposée au champ magnétique vertical des aimants de guidage que l’inverse. Ce degré de polarisation du faisceau peutêtre mesuré à partir de la diffusion, par ces électrons, de photons issus d’un laser et eux-mêmes polarisés circulairement. Une installation spéciale a été utilisée à LEP pour effectuer cette mesure. D’autre part, lorsqu’un électron (e) est placé dans un champ magnétique (B), la direction de son spin (S) effectue un mouvement de précession autour de celle du champ (voir schéma ci-contre). Cette fréquence de rotation est exactement proportionnelle à celle des électrons dans l’anneau mais est une centaine de fois plus élevée. Le principe de la méthode pour connaître l’énergie du faisceau à partir de la polarisation consiste à mesurer cette fréquence et à l’utiliser comme un vernier.

Le Z0 a rendez-vous avec la lune, le lac de Genève et la SNCF...

Le vernier C’est un dispositif inventé par Pierre Vernier (1584-1638) pour mesurer des distances avec une précision choisie en utilisant deux règles graduées. La première est graduée avec l’unité donnée (par exemple le mm) et la graduation de la seconde dépend de la précision voulue (par exemple 0,1 mm). La seconde règle va alors, dans notre exemple, comporter des graduations distantes de 0,9 mm.

ÉLÉMENTAÍRE


Le LEP et le modèle standard Chambre à vide du LEP Les faisceaux de particules circulent dans un tube dans lequel la pression résiduelle est 10 -11 torrs. Ce tube, divisé en tronçons allant de 4 à 12 m raccordés par des soufflets, a une section de quelques centimètres. Il est principalement construit en aluminium et un blindage de plomb de plusieurs millimètres d’épaisseur assure une protection vis-à-vis des rayonnements émis par les faisceaux. Au niveau des expériences, des tubes minces en béryllium sont installés afin de perturber le moins possible le passage des particules issues des collisions et allant vers les détecteurs. Corrélation entre les prévisions de l’effet des marées

ticules circulent à un rythme fixe dans la chambre à vide (déterminé par terrestres sur l’énergie d’un faisceau circulant la fréquence du champ accélérateur) leur trajectoire va s’écarter de l’ordans le LEP (courbe rouge) et les mesures de cette bite nominale et elles sont alors soumises à des champs magnétiques énergie obtenues en utilisant la polarisation du faisceau (points verts). L’axe horizontal indique un peu différents. Cet effet peut provoquer des variations d’énergie de l’heure et l’axe vertical la variation d’énergie. 20 MeV. Le niveau du lac de Genève, situé à proximité, provoque des Nous observons une modulation avec une période mouvements saisonniers du sol qui induisent eux-mêmes des variations de 12 heures et l’amplitude de la marée est d’énergie d’amplitudes similaires à celles causées par les marées. Enfin, moindre le jour que la nuit car ces mesures ont été le passage du TGV Paris-Genève crée un courant de fuite qui, après avoir faites en hiver, à la latitude de Genève. circulé dans le sol atteint la chambre à vide métallique de l’accélérateur, et génère un champ magnétique parasite et donc une variation de l’énergie du faisceau pouvant aller jusqu’à 10 MeV. Tous ces effets ont été pris en compte et la masse du Z0 a été mesurée avec une précision relative de 0,00002 alors que les études, en 1978, prévoyaient seulement 0,001. La mesure précise de la forme de la résonance du Z0 a permis d’établir que la nature ne comportait que trois familles de quarks et de leptons ressemblant à celles que nous connaissons c’est-à-dire dont les neutrinos ont une masse inférieure à la moitié de celle du Z0. Lors des discussions sur le projet LEP, au début des années 80 on envisageait même la possibilité qu’il y ait un nombre si grand de familles que le Z0 puisse passer inaperçu, puisque très large. Notons que des études sur la création des éléments à partir du Big-Bang concluaient à la même époque (1979), mais de manière beaucoup plus indirecte, qu’il ne devait pas y avoir plus de trois familles. Les mesures obtenues à LEP de la production du Z0 sont en accord Les mesures effectuées à LEP ont aussi montré que, mis à avec les prévisions du Modèle Standard pour trois familles de quarks part les changements de saveur induits par l’interaction fai- et de leptons. Les points correspondent à la moyenne des résultat ble, chaque interaction (faible, forte, électromagnétique) obtenus par les quatre expériences et les traits représentant les traite de manière identique les trois familles. incertitudes de ces mesures ont été multipliés par dix afin d’être

Les expériences ont pu séparer les différents types de désintégrations du Z0. Des mesures précises de ces divers états ne sont en accord avec les prévisions théoriques que si la contribution du quark top est prise en compte ce qui a fourni une première évaluation de sa masse, avant qu’il ne soit observé au TeVatron quelques années plus tard. Ainsi, bien que les expériences aient lieu à l’énergie totale de 90 GeV, elles détectent l’existence de particules ne pouvant être produites que pour une énergie supérieure à 340 GeV (puisque la masse du quark top est voisine de 170 GeV/c2). Cette même approche a été appliquée à la recherche du boson de Higgs et indique que la masse de cette particule doit être inférieure à 200 GeV/c2.

ÉLÉMENTAÍRE

page 23

La cloche du Z0 résonne au top

visibles. Les courbes correspondent aux prévisions si l’on suppose deux, trois ou quatre familles. Prévisions théoriques L’énergie disponible au LEP est trop faible pour que l’on puisse produire des paires de quarks top-antitop détectables dans les appareillages. Cependant la mécanique quantique permet de prédire, dans ces circonstances, l’effet de l’existence du top ; on parle de corrections quantiques. Pour ce quark on montre que les effets sont proportionnels au carré de sa masse et, comme le top est très lourd, les mesures de précision de la production et de la désintégration du Z0, réalisées à LEP, ont abouti à une première détermination de cette masse.


Le LEP et le modèle standard

© CERN

Trop fort le Z0

Vue transverse d’un événement e+e- → qqg reconstruit dans le détecteur ALEPH. Les particules se rassemblent suivant les directions d’émission des quarks et du gluon produits lors de l’annihilation de l’électron et du positron.

Le Z0 peut aussi se désintégrer en produisant des « jets » de quarks et de gluons qui ont été étudiés en détail à LEP. Les détecteurs au silicium (voir « Détection ») ont notamment permis d’isoler de purs jets de quarks et de gluons et de comparer leurs propriétés. Ces études ont établi que la théorie actuelle de l’interaction forte avec trois couleurs et huit gluons colorés de masse nulle était la seule qui soit en accord avec les mesures. Une valeur très précise de la constante qui caractérise l’intensité de l’interaction forte a aussi été obtenue.

Toujours plus haut À partir de 1995 et jusqu’en 2000, l’énergie de l’accélérateur a été augmentée régulièrement. Ceci a été possible grâce au remplacement de cavités accélératrices classiques par des modèles supraconducteurs plus performants. le SLC (Slac Linear Collider) Les premières études sur le SLC débutent en 1979. Sa construction se déroule de 1985 à 1987 et le premier événement est enregistré en avril 1989. En 1991 un détecteur plus performant, le SLD, est installé au point de collision des faisceaux. Fin 1995, 150 000 désintégrations de boson Z0 ont été enregistrées. La machine est alors améliorée ainsi que le détecteur et 400 000 nouveaux événements auront finalement été recueillis avant l’arrêt, en 1998. Contrairement au LEP il ne s’agit pas d’un grand anneau de collisions dans lequel circulent des faisceaux stables d’électrons et de positrons mais d’une machine de type nouveau. Les particules (électrons et positrons) sont créées, accélérées puis mises en collision lors d’un seul croisement. Ce processus est répété pour chaque collision. Cette approche ne peut fonctionner que si les faisceaux ont une taille extrêmement petite (de l’ordre du micron, c’est-à-dire 100 fois inférieure à celle des faisceaux dans un anneau comme le LEP à l’endroit où ils se croisent) afin de pouvoir compenser le faible taux de répétition par une très forte densité de particules au point de leur rencontre. Après une difficile période de mise au point le SLC a bien fonctionné et un programme original a été développé grâce, en particulier, à l’utilisation de faisceaux polarisés, non disponibles à LEP. Cependant, le nombre de Z0 enregistrés par l’expérience SLD fonctionnant sur cet accélérateur a été 30 fois plus faible que celui recueilli à LEP, ce qui explique pourquoi l’essentiel des résultats de physique provient des expériences installées au CERN. Le SLC, qui avait également été conçu pour étudier le moyen d’accéder à de plus hautes énergies que le LEP, constitue un prototype pour un projet de futur collisionneur linéaire international. page 24

Intensité de l’interaction Les intensités des trois forces (faible, électromagnétique et forte) ne sont pas constantes mais dépendent de l’échelle à laquelle on les mesure. Par exemple celle de l’interaction forte diminue avec la distance alors que celle de l’interaction électromagnétique augmente. Si le Modèle Standard ne donne pas la valeur absolue de chacune de ces interactions il permet d’en calculer précisément la variation avec la distance ou, ce qui revient au même, avec l’énergie. Ayant mesuré les valeurs de ces interactions en un point il est ainsi possible de faire des extrapolations vers de plus hautes énergies. On constate que les trois forces sont d’intensités comparables à très haute énergie.

ÉLÉMENTAÍRE


Le LEP et le modèle standard

Désintégration d’un Z0 en une paire μ+μ-. Les deux particules chargées sont mesurées dans le détecteur de traces, déposent peu d’énergie dans les calorimètres électromagnétique et hadronique et sont détectées dans des chambres à fils situées à l’extérieur du détecteur.

LEP a rempli le rôle qui lui avait été attribué lors de sa conception et bien au-delà. Outre les mesures de précision que nous avons mentionnées et qui ont permis de valider le modèle d’unification des interaction faible et électromagnétique ainsi que la théorie de l’interaction forte, d’autres études ont été réalisées. Citons notamment celles portant sur les leptons τ et sur les particules contenant le quark beau. Bien que le LEP ait été arrêté en 2000, il y a eu depuis 2005 (inclus) 120 publications par les quatre collaborations, dont 25 encore en 2007 et 2008. Les données enregistrées jusqu’en 1995, sur le Z0, ont été analysées de nouveau après que des progrès ont été réalisés sur la compréhension du fonctionnement des appareillages et la mesure des particules produites lors des collisions. Ceci a permis d’importantes améliorations sur la précision des résultats. Des groupes ont été formés afin de combiner les mesures réalisées par les différents expériences et extraire ainsi le maximum d’informations. Les mesures de précision pointent dans la direction d’un boson de Higgs léger, dont la masse doit être entre 114 et 200 GeV/c2, bien qu’il soit jusqu’ici inaccessible aux expérimentateurs. On peut donc espérer une moisson abondante de découvertes au LHC.

Désintégration d’un Z0 en une paire e+ ereconstruite dans l’expérience ALEPH. Les deux particules chargées sont mesurées dans le détecteur de traces et déposent toute leur énergie dans le calorimètre électromagnétique.

© CERN

page 25

ÉLÉMENTAÍRE

© CERN

Au-delà de 160 GeV les physiciens du LEP ont étudié la production de paires de W et montré qu’elle est bien décrite par le modèle proposé par Glashow, Salam et Weinberg. Une mesure précise de la masse du W, avec une incertitude de 30 MeV/c2, a finalement été obtenue, un résultat toujours compétitif par rapport à des mesures plus récentes, et ce malgré les fortes statistiques de W analysées au TeVatron (près de Chicago) ces dernières années. La précision sur la masse du W est moins bonne que celle sur le Z0. En effet pour cette dernière, comme seul le Z0 est produit, la précision est entièrement déterminée par celle de l’énergie du faisceau. En revanche, dans le cas des W, il faut attribuer à chacun d’eux les différentes particules reconstruites dans les appareillages et les performances des détecteurs contribuent aussi à la précision sur la masse du W. La recherche du boson de Higgs a été faite en poussant au maximum l’énergie fournie par l’accélérateur et en mettant en commun les données enregistrées par les quatre expériences. Aucun signal significatif n’ayant été observé, la masse du boson de Higgs doit être supérieure à 114 GeV/ c2 avec 95% de probabilité.


Détection Les détecteurs de vertex en siliciums

© CERN

Afin de pouvoir étudier les propriétés des différents quarks on doit distinguer les particules issues de leur désintégration parmi toutes celles qui sont produites lors de chaque collision. On utilise pour cela le fait que les particules les plus légères qui contiennent un quark étrange, charmé ou beau se désintègrent par interaction faible et ont ainsi une durée de vie qui, bien qu’elle soit très faible à notre échelle, s’avère mesurable. On appelle vertex le point d’où sont émises plusieurs particules issues d’une telle désintégration. Certains détecteurs sont spécifiquement conçus pour permettre de reconstruire ces vertex.

Même pour les particules : plus on est lourd et plus on meurt tôt

Éléments du détecteur de vertex de l’expérience LHCb. Contrairement à ceux des trois autres expériences opérant sur le LHC, il n’est pas formé de plaquettes placées sur des cylindres ayant pour axe la direction des faisceaux. Ici les plaquettes sont perpendiculaires aux faisceaux et laissent un passage pour ces derniers. En effet, cette expérience va reconstruire les particules de beauté émises au voisinage de la direction des faisceaux.

La durée de vie d’une particule dont un quark se désintègre par interaction faible est inversement proportionnelle à la masse du quark élevée à la puissance cinq. Ceci est valable également pour les leptons comme le muon ou le tau. Sachant que la durée de vie du muon est égale à 2,2 microsecondes et que sa masse vaut 106 MeV/c2, on peut estimer les durées de vie des particules étranges, charmées et belles ainsi que du quark top à partir de leur masse. Pour des valeurs typiques, on obtient :

Durée de vie La durée de vie (τ) d’une particule est reliée au taux avec lequel elle se désintègre. La variation temporelle du nombre de particules non désintégrées est donnée par une loi exponentielle (e-t/τ, voir Élémentaire N°3 ). Au bout d’un temps égal à la durée de vie il ne reste plus que 37% des particules initiales en moyenne. La durée de vie est une propriété intrinsèque de la particule, elle ne dépend pas de l’environnement et peut être calculée à partir des caractéristiques de l’interaction ayant provoqué la désintégration.

Quatre cylindres formés de plaquettes de silicium constituent le détecteur interne de l’expérience CMS dans laquelle le silicium a remplacé les détecteurs à fils, plus classiques, de traces chargées.

page 26

© CERN

particule masse (GeV/c2) durée de vie estimée (s)

étrange 0,5

charmée 1,8

belle 5,3

top 170

10-9

1,5 10-12

7 10-15

10-22

Le quark top est très massif et sa durée de vie est non mesurable. Pour le charme, la valeur indiquée est en bon accord avec celle qui est mesurée. Par contre il y a un désaccord pour les particules étranges et surtout pour la beauté. Ceci peut s’expliquer de la manière suivante. L’interaction faible favorise les transitions entre un quark top et un quark beau ou bien entre un quark charmé et un quark étrange. Or, le quark top étant plus lourd que le quark beau, la désintégration des particules belles est impossible par cette transition. Il en est de même pour les particules étranges qui ne peuvent se désintégrer en particules charmées, plus lourdes. Pour les particules étranges et belles il y a donc une suppression de leurs possibilités de désintégration qui a pour conséquence que leur durée de vie est plus grande que l’estimation naïve donnée précédemment. La durée de vie des particules étranges doit ainsi être augmentée d’un facteur 20 par rapport à cette estimation et celle des particules belles par environ 600. Cet « accident de la nature », qui fait que la durée de vie des particules belles est voisine de celle des particules charmées et non 1000 fois plus faible, est miraculeux. En son absence il n’y aurait pas d’ « usines à beauté » comme celles construites à SLAC (USA) et à KEK (Japon), l’étude du quark top serait quasi impossible et la recherche du boson de Higgs très problématique. En effet le quark top aussi bien que le boson de Higgs sont produits de façon rare au sein d’une grande quantité d’événements que l’on enregistre. Il faut donc les isoler d’un énorme bruit de fond et on utilise pour cela le fait que ces deux particules se désintègrent en émettant des particules de beauté qu’il est possible d’identifier.

ÉLÉMENTAÍRE


Les détecteurs de vertex en silicium

L’explosion du silicium Les détecteurs au silicium ont été utilisés depuis longtemps en physique nucléaire. La création de charges au sein du silicium nécessite un dépôt d’énergie environ cinq fois plus faible que pour ioniser un gaz comme l’argon. Ceci permet d’avoir un grand nombre de charges mesurables et d’obtenir une valeur précise de l’ionisation déposée. On peut ainsi en déduire la nature de la particule qui a traversé le détecteur. Les premiers détecteurs dits « de vertex » sont apparus au début des années 80 dans les expériences à haute énergie utilisant un faisceau de particules interagissant avec une cible. L’expérience NA1 (1982-1984) au CERN avait une cible formée de couches de silicium et mesurait l’ionisation créée dans chaque couche par les particules chargées la traversant. Ce dispositif a permis d’isoler des événements dans lesquels des particules charmées sont créées au sein de la cible puis se désintègrent au bout de quelques millimètres de parcours, à l’intérieur de cette dernière. Par exemple un méson charmé D0, électriquement neutre, n’ionise pas le milieu entre son point de création et celui où il se désintègre ; par contre à partir de l’endroit où il s’est désintégré, deux ou quatre particules chargées apparaissent. Ceci se traduit par un saut dans

ÉLÉMENTAÍRE

1 cm

Événement enregistré par la collaboration ALEPH sur le collisionneur LEP et qui correspond à la réaction e+e-→b b. Un des quarks beaux se matérialise sous la forme d’un méson B étrange qui se désintègre en un électron, un antineutrino électronique (invisible) et un méson charmé Ds+. Ce dernier se désintègre à son tour en K+K-π+. La figure en haut à gauche représente les informations enregistrées par le détecteur, en projection sur un plan perpendiculaire à l’axe des faisceaux. Les trajectoires reconstruites pour les particules chargées sont indiquées. Elles se regroupent suivant deux jets émis dans des directions opposées. La figure en haut à droite représente les informations recueillies au niveau du détecteur de vertex qui est formé de deux cylindres de plaquettes de silicium. Chaque point correspond à un signal recueilli sur une piste de ces plaquettes et sa position est connue à mieux que 10 microns. Le rayon du premier cylindre est d’environ 5 cm. La figure du bas correspond à l’extrapolation des trajectoires des traces chargées en direction du point d’interaction des faisceaux (noté IP). Les ellipses rouges indiquent les incertitudes sur la position des différents vertex reconstruits à partir de ces traces : celui correspondant à IP, celui de la désintégration du Ds+, d’où partent K+, K- et π+, et enfin celui de la désintégration du Bs d’où sont issus l’électron et le Ds+. Du point d’interaction des faisceaux émergent 7 traces chargées ainsi que la page 27

Les particules produites lors de collisions à haute énergie n’étant pas au repos, la relativité restreinte nous apprend que leur durée de vie apparente est plus longue que leur temps de vie propre (τ). C’est la dilatation relativiste du temps (voir Élémentaire N°3). Ces particules vont ainsi parcourir une distance variable, au sein des appareillages, avant de se désintégrer. Ce parcours moyen peut être de l’ordre du mètre pour les particules étranges et seulement de quelques millimètres pour les particules charmées ou belles. Afin de pouvoir étudier ces particules il faut retrouver leurs produits de désintégration qui sont créés à l’endroit où la particule s’est désintégrée. S’il s’agit de particules chargées on peut les distinguer de celles émises au point de la collision à condition de mesurer les trajectoires de ces différentes particules de manière suffisamment précise. Si l’on extrapole la trajectoire d’un des produits de désintégration en direction du point de collision elle s’en écartera, en moyenne, d’une distance voisine de cτ, c désignant la vitesse de la lumière. Cet écart vaut 300 microns pour une durée de vie d’une picoseconde. On en conclut que, pour pouvoir reconstruire le point de désintégration des particules charmées ou belles et y associer les particules chargées qui y ont été réellement émises, il faut mesurer les positions des différentes trajectoires avec une précision de l’ordre de la dizaine de microns. On doit aussi être capable de placer des détecteurs à quelques dizaines de millimètres du point de collision afin de minimiser la distance d’extrapolation entre ce point et celui où on effectue la première mesure. Un événement enregistré par la collaboration ALEPH sur le collisionneur LEP permet d’illustrer comment on peut distinguer les particules issues de la désintégration de quarks lourds de celles produites au point de collision des faisceaux.

© CERN

Durée de vie apparente La durée de vie d’une particule est définie lorsque cette dernière est au repos. Si les particules, de masse (m), sont en mouvement et ont une énergie (E), leur durée de vie dans le laboratoire est égale à celle au repos multipliée par E/m. Comme l’énergie est toujours plus grande que la masse, la durée de vie d’une particule dans le laboratoire est toujours plus grande que celle au repos.

Le parcours de toute une vie


Les détecteurs de vertex en siliciums

page 28

© CMS

© CERN

Principe de fonctionnement Dans le cristal de silicium, les électrons assurant la liaison entre les différents atomes (4 par atome) peuplent des niveaux d’énergie très voisins formant la bande de valence. Les niveaux d’énergie supérieurs sont également regroupés en une bande dite de conduction située 1,1 eV au dessus de la précédente. Au zéro absolu, la bande de conduction est vide. À température finie des électrons peuvent, par agitation thermique, passer de la bande de valence à celle de conduction. Soumis à un champ électrique ces électrons vont donner un courant électrique. Si l’on implante au sein du silicium des atomes ayant plus d’électrons sur leur couche externe (5 par exemple) les électrons excédentaires vont se placer dans un niveau très proche de la bande de conduction dans laquelle ils peuvent passer aisément. La conduction du cristal est alors définie par la concentration en atomes implantés. On dit que le silicium est dopé n (négativement). On peut de même réaliser un dopage p (positif) par implantation d’atomes ayant 3 électrons sur leur couche externe. Si l’on met en contact, dans un même cristal, deux zones dopées respectivement n et p, les porteurs de charge négative de la première vont migrer du coté p et inversement. Au voisinage du contact entre les deux zones se crée une région dépourvue de porteurs de charge. Par application d’un champ électrique il est possible d’étendre ce phénomène et on peut obtenir des lames qui n’ont pas de charges mobiles, sur toute leur épaisseur. Un tel milieu est sensible à l’apparition de toute nouvelle charge.

l’ionisation mesurée par les différentes couches de silicium. D’autres expériences utilisèrent ce principe dit de cible « active » mais c’est surtout pour la mesure de précision de la position des particules chargées créées au voisinage du point de l’interaction entre un faisceau et une cible ou bien entre deux faisceaux que ces détecteurs furent développés. Le principe de base de leur fonctionnement est indiqué ci-contre. Une particule chargée qui traverse le silicium y crée des charges par ionisation et celles-ci vont migrer, sous l’effet d’un champ électrique, vers les deux faces, où elles sont collectées. En segmentant ces faces à l’aide de pistes, seules celles qui se trouvent au voisinage du passage de la particule fournissent un signal et ceci permet de mesurer la position de cette dernière. Les propriétés des détecteurs résultent de compromis. On désire que les lames de silicium soient les plus minces possibles afin de peu perturber les trajectoires des particules qui les traversent mais ceci diminue la résistance mécanique du détecteur ainsi que le signal mesuré sur les pistes. La largeur des pistes est de quelques dizaines de microns ce qui, sachant que souvent plusieurs pistes adjacentes recueillent du signal, permet de mesurer les positions avec une précision de quelques microns. La longueur des pistes correspond généralement à celle des lames mais peut être réduite si le détecteur doit fonctionner dans un milieu où la densité de particules est très forte. Si les premiers détecteurs utilisés dans les expériences sur cible fixe (début des années 80) avaient une surface de quelques centimètres carrés, ceux installés dans les expériences fonctionnant sur le LEP comportaient plusieurs cylindres couvrant plusieurs centaines de centimètres carrés. En 1998 l’expérience AMS, embarquée sur la navette spatiale, a un détecteur de plus d’un mètre carré. Les expériences qui vont démarrer sur le LHC sont toutes équipées de détecteurs de vertex, de types différents. La surface de celui de l’expérience CMS dépasse la centaine de mètres carrés. Ceci a été possible grâce à l’augmentation du diamètre des lingots de silicium cristallin dans lesquels sont découpées les lamelles et aux progrès des systèmes de lecture électronique de l’ensemble des pistes. L’électronique permettant de lire les canaux a été incorporée aux plaques de silicium réduisant ainsi le nombre de câbles servant à transmettre les informations au système d’acquisition des données. Ces détecteurs sont ainsi formés de plusieurs centaines de plaquettes de silicium, ayant chacune des milliers de pistes. Des supports, généralement en fibres de carbone, assurent la rigidité de l’ensemble. L’alignement des plaquettes à quelques microns près est crucial pour ne pas dégrader la précision attendue sur les positions des particules qui les traversent. Lingots de silicium Les détecteurs de vertex ont tendance à Ce sont des cylindres occuper tout l’espace et à supplanter les obtenus, par exemple, en autres dispositifs de mesure des traces faisant croître un cristal chargées comme les chambres à fil, à de silicium à partir d’un dérive ou les chambres à projection germe que l’on place dans un temporelle (TPC). L’environnement bain de silicium fondu. Un hostile, c’est-à-dire très radioactif, mouvement de rotation est appliqué et progressivement le cristal formé attendu au LHC fonctionnant à pleine est retiré du bain. Des cylindres ayant des puissance a nécessité la mise au point de diamètres de 30 à 40 cm et pesant plusieurs plaquettes et de dispositifs d’électronique centaines de kilos sont produits. Les plus résistants. On prévoit que ce type de cylindres sont ensuite sciés en tranches de détecteurs sera encore indispensable pour quelques centaines de microns d’épaisseur les prochaines expériences fonctionnant pour la réalisation des détecteurs (ou d’autres sur accélérateurs. dispositifs électroniques).

ÉLÉMENTAÍRE


Retombées Le rayonnement synchrotron Le rayonnement synchrotron © J.-A. Scarpacci

Les premiers accélérateurs circulaires ont été inventés dans les années 1930 afin d’augmenter l’énergie des particules accélérées tout en conservant des instruments d’une taille raisonnable, ce qui n’était plus possible avec les accélérateurs linéaires de l’époque. Dans un cyclotron ou un synchrotron, les particules chargées sont accélérées par des cavités (voir Élémentaire N°2) placées dans les sections rectilignes et leur trajectoire est courbée grâce à de forts champs magnétiques localisés dans les parties quasi-circulaires. Dans un synchrotron, l’intensité du champ magnétique est adaptée de telle sorte que les particules restent sur la même orbite quand leur énergie augmente. Les lois de l’électromagnétisme impliquent qu’une particule chargée soumise à une force émette un rayonnement électromagnétique (des photons) et donc perde de l’énergie, ce qui est le cas lorsqu’elle suit une trajectoire circulaire. C’est le rayonnement synchrotron. Pour des particules relativistes, comme les électrons circulant dans un synchrotron tel que SOLEIL, le rayonnement est émis dans un cône de très petite ouverture angulaire dont l’axe est tangent à la trajectoire des électrons. Le rayonnement couvre une large gamme de fréquences allant de l’infrarouge aux rayons X.

Les photons du rayonnement synchrotron sont émis dans une direction quasi identique à celle de l’électron. Lorsque la trajectoire de l’électron tourne dans un plan, les photons balaient toute une région dans ce plan. La brillance La brillance est le nombre de photons émis par seconde, à une certaine longueur d’onde et dans une bande spectrale déterminée, par unité de surface de source et par unité d’angle solide. C’est le principal paramètre utilisé pour évaluer la qualité des synchrotrons. Cette grandeur permet de qualifier à la fois le flux de photons disponibles sur l’échantillon (nombre de photons par unité de surface) et la possibilité de le focaliser et de l’exploiter avec une très haute résolution spectrale. Une des solutions pour augmenter la brillance est d’équiper l’anneau de stockage d’onduleurs et de wigglers, éléments qui permettent de faire onduler la trajectoire des électrons afin de les faire rayonner. Près du tiers de l’anneau de SOLEIL en est équipé.

Si ce rayonnement très intense s’est révélé extrêmement pénalisant pour accélérer des électrons à de très hautes énergies, son intérêt dans d’autres domaines de la physique a été compris très tôt, et, dès les années 70, des synchrotrons ont été transformés pour étudier les propriétés de la matière. Le rayonnement émis tangentiellement à la trajectoire des particules passe à travers des hublots, puis est dirigé vers des zones expérimentales. Ce sont les « lignes de lumière ». Le faisceau synchrotron qui a environ la taille d’un cheveu est transporté grâce à des dispositifs optiques successifs. Chaque ligne de lumière est composée de trois espaces. Tout d’abord, comme le faisceau est continu sur une très large gamme spectrale, il passe dans des monochromateurs pour sélectionner des longueurs d’ondes particulières. On trouve ensuite un espace expérimental où la lumière va interagir avec l’échantillon à étudier. Les photons (ou les électrons) éjectés lors de l’interaction du faisceau avec la cible sont détectés par des appareils de mesure (caméra CCD par exemple) pour étudier la géométrie en surface et en volume de l’échantillon ainsi que ses propriétés. Enfin, on arrive à l’espace de vie d’où les équipes pilotent l’expérience. Suivant la taille de l’anneau du synchrotron, plusieurs expériences peuvent être menées simultanément.

Angle solide C’est l’équivalent de la notion d’angle pour une géométrie à trois dimensions. Il mesure le rapport entre la surface formée par la projection d’un objet sur une sphère et le rayon au carré de cette dernière. Son unité est le stéradian (sr).

Les utilisations

ÉLÉMENTAÍRE

page 29

La lumière synchrotron possède des caractéristiques remarquables par rapport aux sources de lumière classiques disponibles en laboratoire : son spectre d’émission s’étend de l’infrarouge aux rayons X avec une brillance exceptionnelle. Le rayonnement est stable, pulsé (les électrons circulent par paquets dans l’anneau), et avec une forte cohérence spatiale


Le rayonnement synchrotron et temporelle. Il peut ainsi être comparé à un laser accordable sur une grande gamme de fréquences spectrales.

© Soleil

Pour observer la matière à l’échelle de l’atome, il faut une « sonde » dont la taille caractéristique soit du même ordre de grandeur. C’est typiquement le domaine des rayons X, dont la longueur d’onde va de quelques picomètres à quelques dizaines de nanomètres. Selon la longueur d’onde du faisceau incident et les techniques d’analyse mises en œuvre, les utilisations de la lumière synchrotron sont extrêmement variées, allant de la physique fondamentale à la recherche industrielle en passant par la chimie, l’électronique, la biologie, la santé et l’archéologie. Voici quelques exemples :

Structure d’une sous-unité du ribosome (molécule faite de protéines et d’acide nucléiques présente dans toutes les cellules et qui permet de synthétiser les protéines en décodant l’information contenue dans l’ARN messager). L’organisation de cette macro-molécule, constituée de dizaines de milliers d’atomes, a pu être élucidée grâce au rayonnement synchrotron de l’ESRF situé à Grenoble (Élémentaire N°1).

• Physique atomique, moléculaire, chimie et sciences de la vie : les radiographies faites avec des faisceaux de rayons X très intenses permettent de reconstruire la structure tridimensionnelle de molécules contenues dans des échantillons microscopiques ou bien d’analyser des éléments ultradilués, ou encore de suivre en direct des réactions chimiques sur des échelles de temps extrêmement courtes (inférieures à la nanoseconde). Les fonctions des protéines, qui sont de grosses molécules, dépendent de leur structure tridimensionnelle. D’autre part, le rayonnement synchrotron, s’il n’est pas trop intense, permet d’étudier des échantillons de matière vivante sans les détruire.

© Soleil

• Structure électronique des matériaux et nanostructures : les nanomatériaux, c’est-à-dire les matériaux faits de quelques couches d’atomes, occupent une place de choix dans ces expériences en raison de leurs applications industrielles. La lumière synchrotron est utilisée pour étudier la structure géométrique et électronique des surfaces des nouveaux nanomatériaux fabriqués.

Principe de fonctionnement de SOLEIL

page 30

Un faisceau d’électrons fin comme un cheveu, émis par un canon à électrons ➊, est d’abord accéléré dans un accélérateur linéaire de 16 m de long. Les électrons atteignent une vitesse très proche de celle de la lumière et un premier niveau d’énergie : 100 MeV. Après cette première accélération, le faisceau d’électrons est dirigé vers un deuxième accélérateur circulaire, appelé booster ➋, qui porte leur énergie à la valeur de fonctionnement de SOLEIL soit 2,75 GeV. Les électrons sont alors injectés dans l’anneau de stockage de 354 mètres de circonférence ➌ et tournent pendant plusieurs heures. Là, des dispositifs magnétiques, les dipôles (aimants de courbure) ➍, et les onduleurs (succession d’aimants créant des champs magnétiques de directions alternées), dévient la trajectoire des électrons ou les font osciller. Ces derniers perdent alors de l’énergie sous forme de lumière : c’est le rayonnement synchrotron, qui est dirigé, sélectionné et conditionné par des systèmes optiques vers les 25 stations expérimentales situées au bout des lignes de lumière ➐.

ÉLÉMENTAÍRE


Le rayonnement synchrotron

ÉLÉMENTAÍRE

Vue aérienne de SOLEIL en mars 2007

SOLEIL (Source Optimisée de Lumière d’Énergie Intermédiaire du LURE) est un centre de recherche implanté sur le Plateau de Saclay à Saint-Aubin (Essonne). Ce laboratoire a remplacé le LURE (Laboratoire d’Utilisation du Rayonnement Électromagnétique), créé dans les années 1970 sur le site de l’Université Paris-Sud 11, où ont été développées de nombreuses recherches sur l’utilisation du rayonnement synchrotron. L’ESRF (European Synchrotron Radiation Facility), l’autre centre de rayonnement synchrotron, implanté à Grenoble, et auquel la France contribue à hauteur de 25%, ne permettait pas de couvrir l’ensemble des besoins de la communauté scientifique française. La construction de SOLEIL a débuté en 2001. Les accélérateurs sont opérationnels depuis mi-2006. Depuis lors, 14 des 25 lignes de lumière ont reçu leurs premiers photons. Plusieurs dizaines d’autres sources de rayonnement synchrotron existent de par le monde, souvent au sein de centres de recherche en physique subatomique : outre l’ESRF à Grenoble citons, entre autres, Diamond au Rutherford Appleton Laboratory (Royaume-Uni), l’Advanced Photon Source (APS) à Argonne (États-Unis), mais aussi Swiss Light Source (SLS), Villigen (Suisse), le Beijing Synchrotron Radiation Facility (BSRF) à Beijing (Chine)...

page 31

• Sciences de la Terre, environnement et patrimoine : l’analyse d’échantillons archéologiques, par nature très hétérogènes et fragiles, se fait déjà à l’aide de la lumière synchrotron. D’autres applications comme l’étude de sols contaminés par des particules radioactives ou la modélisation des phénomènes naturels tels que les volcans ou les avalanches sont au programme des installations de lumière synchrotron.

© Soleil

• Chimie et pharmacie : de grandes entreprises pharmaceutiques bénéficient du rayonnement synchrotron pour leurs activités de recherche de nouveaux principes actifs, à partir de la visualisation à l’échelle atomique des interactions protéine-molécule. Deux autres activités sont en plein développement : l’analyse des médicaments sous forme de poudres et le suivi des effets de traitements sur les tissus.


Retombées © Elise Amendola/AP/Boomerang, Paris

Et le web fut ! Sur la toile Le célébrissime World Wide Web que nous utilisons communément a été inventé au CERN, il y a 17 ans. La création de cet outil, dorénavant d’utilité publique, est finalement relativement récente. Le projet WWW est né afin de permettre aux physiciens des hautes énergies (participant aux collaborations travaillant sur le LEP) de partager, depuis n’importe où dans le monde, leurs données acquises au cours des expériences, ainsi que tout type de documentation et d’informations, et le tout indépendamment du système informatique. Les premiers utilisateurs du World Wide Web ont donc été des scientifiques, du CERN bien sûr, mais aussi de Fermilab à Chicago et de SLAC en Californie. C’est une collaboration entre Tim Berners-Lee (ingénieur informaticien britannique et boursier au CERN) et Robert Cailliau (ingénieur au CERN de nationalité belge) qui a construit les bases du WWW. Ils ont mis sur pied à la fois le protocole de transfert HTTP (HyperTexte Transfert Protocol), le langage d’écriture, HTML (HyperTexte Markup Language) et le référencement des textes correspondant ou « pages » : l’URL (Uniform Resource Locator). Le protocole de transfert HTTP permet de passer d’une page HTML à une autre, située au même endroit ou ailleurs, et décrite par son adresse Web (URL). Cette organisation de l’information est la clef de voûte du WWW et permet, grâce au réseau Internet (par lequel passe également, entre autres, notre messagerie électronique), de surfer de page en page, au gré de nos recherches, parmi la myriade d’informations qui sont mises à disposition. Jusqu’en 1992, l’information n’était accessible que sous la forme de textes. Ce n’est qu’au cours de cette année là que les premières applications ont permis de visualiser des graphiques sur certains types d’ordinateurs. Après 1993, cette fonctionnalité s’est démocratisée, grâce à l’accès au Web à travers plusieurs « browsers » (navigateurs). Fin 1993 il n’y avait encore que 500 sites Web de par le monde, et leur consultation n’occupait que 1% du trafic Internet (le reste étant de l’accès à distance, du courrier électronique et du transfert de fichiers). En 1994 on en trouve 10000 et en 2006 plus de 100 millions de sites Web peuplent le WWW ! Pour s’y retrouver ou pour trouver l’information la plus pertinente, on fait maintenant appel à des moteurs de recherche qui indexent chaque page présente sur le Web. C’est plus de 8 milliards d’adresses URL qui sont recensées. Et si l’envie vous prend de venir nous voir, tapez http://elementaire.web.lal.in2p3.fr/ dans votre navigateur favori et surfez sur les nombreuses pages qui constituent notre site.

© CERN

Tim Berners-Lee

Croissance spectaculaire du nombre de sites depuis la création du WWW (d’après le CERN et Wikipedia).

page 32

Robert Cailliau

ÉLÉMENTAÍRE


Analyse Discriminant de Fisher Trier le bon grain de l’ivraie

DR

En physique des particules comme dans bien d’autres disciplines, les chercheurs partent d’un nombre considérable de données (enregistrées par un détecteur chaque fois qu’il identifie un événement potentiellement intéressant), et ils désirent distinguer des signaux, le plus souvent rares, au milieu du bruit de fond formé par tous les autres processus possibles. En général, une seule variable (énergie déposée par une particule, trajectoire dans un sous-détecteur...) ne suffit pas à séparer complètement signaux et bruit de fond. Il faut donc disposer de méthodes pour « faire parler » les données afin d’éliminer les processus qui ressemblent par certains aspects au signal qui nous intéresse, mais s’en distinguent par d’autres. Si on réussit à en extraire l’information la plus complète et la plus pertinente possible, on peut sélectionner le signal et éliminer le bruit ! Supposons qu’on étudie une particule X produite dans un accélérateur et qui se désintègre en trois particules a, b et c que l’on sait détecter : X —> a + b + c. Pour chaque événement enregistré et contenant les fameuses particules a, b et c, on peut définir et calculer un paramètre correspondant à la masse de la particule initiale. S’il est égal ou suffisamment « proche » de celle-ci on a probablement affaire à une désintégration de X en a,b,c. Sinon, c’est sûrement du bruit de fond.

Ronald Fisher (1890-1962), savant anglais. Ses contributions couvrent un large spectre, de la génétique quantitative à des méthodes d’analyse de données en passant par la biologie de l’évolution. Elles lui valent d’être considéré comme l’un des leurs à la fois par les statisticiens et par les spécialistes des sciences de la vie. Fisher a souffert très jeune de troubles de la vue ce qui l’a conduit à développer une conception abstraite et géométrique des problèmes mathématiques qui se posaient à lui. Cette capacité d’abstraction peu commune explique sans doute en partie ses multiples découvertes.

En règle générale, il faut construire de nombreux paramètres qui sont ensuite combinés pour séparer de façon efficace le bon grain (le signal) de l’ivraie (le bruit). Partons à la découverte de deux méthodes couramment utilisées en physique subatomique pour ce faire : le discriminant de Fisher et les réseaux de neurones.

Comment réduire le volume de données sans perdre des informations utiles ? Commençons par un exemple très simple. On dispose d’objets que l’on souhaite classer en deux catégories, « rouge » et « bleue », à l’aide de deux quantités, x1 et x2. Les résultats des mesures sont présentés dans la partie gauche de la figure 1. Les Un exemple simple de classement de données : pour une valeur de y inférieure à y0, un objet appartient forcément à l’ellipse rouge alors que pour une valeur supérieure il se trouve nécessairement dans l’ellipse bleue. Par contre, si l’on utilise uniquement les mesures de x1 ou de x2 on ne peut pas séparer les deux catégories d’objets.

ÉLÉMENTAÍRE

Un exemple simple Tous les physiciens souhaiteraient avoir des situations aussi simples ! Mais malheureusement, leurs données sont rarement d’une telle perfection. Bien souvent les ensembles servant à leur classement se superposent car certains évènements (dont les paramètres sont toujours connus avec une précision limitée) peuvent tout aussi valablement appartenir à plusieurs catégories. De plus, l’échantillon analysé comporte en général des désintégrations parasites qui ne sont pas décrites par le modèle utilisé. Enfin, toutes les mesures sont entachées d’erreurs qu’il faut prendre en compte. page 33

Elémentaire

Le discriminant de Fisher


Discriminant de Fisher et... ensembles rouge et bleu forment deux ellipses distinctes : si on connaît à la fois x1 et x2 pour un objet particulier, on sait immédiatement à quel ensemble il appartient. Par contre, la situation n’est plus aussi simple si on veut réduire la quantité d’information, c’est-à-dire n’utiliser qu’une seule variable : prendre x1 ou x2 n’aurait pas de sens car des éléments des deux catégories auraient alors le même identifiant, ce qui rendrait le tri impossible. En revanche, on peut séparer à coup sûr les deux ensembles en utilisant la variable y définie sur la partie droite de la figure 1 : bien choisie, une seule quantité suffit donc pour un classement optimal !

DR

Passons de ce cas académique à un exemple concret : nous aimerions séparer trois espèces d’iris (iris setosa, iris versicolor et iris virginica) selon les dimensions (longueur et largeur) de leurs pétales et de leurs sépales. Pour cela, ces quantités ont été mesurées sur cent cinquante iris différents. Quelles sont à présent les variables pertinentes pour distinguer les trois espèces ? C’est exactement le problème que le biologiste et statisticien Ronald Fisher a résolu en 1936. Les données qu’il avait à sa disposition sont représentées sur la figure 2 – comme il est impossible de dessiner un nuage de points en quatre dimensions, chaque graphique présente une quantité en fonction d’une autre. Le nom de la dimension présentée en ordonnée se lit en ligne, le nom de l’axe des abscisses en colonnes ; la couleur indique l’espèce concernée. Si l’iris setosa (en rouge) se distingue clairement des deux autres espèces, les nuages de points des iris versicolor (vert) et virginica (bleu) sont très proches... et donc difficiles à séparer. Fisher s’intéresse d’abord à deux espèces – mais sa méthode est généralisable à trois catégories ou plus. Il propose l’outil de classement suivant : trouver la droite sur laquelle les projections des deux ensembles sont les plus « éloignées » possibles (on peut définir une droite en quatre dimensions exactement de la même manière qu’en deux ou trois dimensions). La démarche de Fisher généralise l’idée qui nous a conduit à choisir la droite verte (y) dans le premier exemple de l’article pour projeter les ensembles bleu et rouge.

Figure 2 : données recueillies sur 150 iris : 50 iris setosa (en rouge), 50 iris versicolor (en vert) et 50 iris virginica (en bleu). Quatre quantités ont été mesurées pour chaque fleur : la longueur et la largeur des pétales et des sépales. Chaque graphique montre le nuage de points obtenu en représentant une variable (commune à une ligne donnée) en fonction d’une autre (commune à une colonne). Ainsi, le carré en haut à droite représente la longueur des sépales des différentes fleurs en fonction de la largeur de leurs pétales. Deux graphiques symétriques par rapport à la diagonale contiennent donc les mêmes données, mais avec les axes échangés.

La difficulté consiste à traduire en équation le concept intuitif « d’éloignement ». On pourrait penser à séparer au maximum les moyennes des projections (c’est-à-dire les positions moyennes des centres des distributions). Pourquoi pas, mais si les projections sont très étalées, elles pourraient se chevaucher et le tri ne serait pas très efficace. On peut aussi chercher une projection qui « comprime » au maximum les deux catégories et diminue donc leur étalement. Mais cette idée a également un talon d’Achille : en procédant ainsi, on ne contrôle pas la position relative (« en moyenne ») des deux projections l’une par rapport à l’autre.

Pétales et sépales d’une fleur d’Iris virginica.

page 34

DR

Fleurs des trois espèces d’iris étudiées par Ronald Fisher.

ÉLÉMENTAÍRE


...réseaux de neurones Puisque ces deux propriétés ne peuvent pas être satisfaites simultanément, Fisher décide de réaliser un compromis : il choisit la droite qui rend maximal le rapport entre la différence des projections moyennes et la somme des dispersions de ces projections (en gros, l’écart moyen divisé par l’étalement total). Cette quantité, appelée discriminant de Fisher, est d’autant plus grande que les projections moyennes sont éloignées (grand numérateur) et que les ensembles projetés sont comprimés (petit dénominateur). Mathématiquement, on peut démontrer que ce choix est le meilleur dans une grande variété de situations, en particulier pour la plupart des problèmes concrets que le chercheur doit affronter. Et même dans les cas où ce critère n’est pas le meilleur, il est très simple à mettre en œuvre et plutôt performant, ce qui explique sa grande popularité.

Réseaux de neurones

Séparation entre les trois espèces d’Iris obtenue par Fisher avec son discriminant. En se restreignant à deux espèces (setosa et versicolor), on peut évaluer la probabilité de mauvaise classification à moins de 3 chances sur 1 million (en supposant un comportement gaussien).

© Elémentaire

Une autre approche, très en vogue ces dernières années, bien que les premiers travaux s’y rapportant datent de la fin de la seconde guerre mondiale, consiste à imiter le (ou plutôt à s’inspirer du) fonctionnement du cerveau pour effectuer ces opérations de triage-classification. Par analogie avec les neurones qui peuplent nos boîtes crâniennes, un neurone mathématique est un objet qui reçoit plusieurs signaux en entrée et qui, selon les informations disponibles, renvoie une valeur différente en sortie. Une fois connectés entre eux pour former un variable 2 réseau, ces neurones affichent un comportement global complexe : un peu comme Projections d’un ensemble de données notre cerveau qui, à partir bidimensionnel (en vert) sur des axes d’informations très diverses horizontal (en rouge) et vertical (en en provenance de nos cinq bleu). L’allure des distributions après sens et de nos connaissances projection dépend de la répartition des acquises, nous restitue une événements dans les deux dimensions. perception précise de notre environnement.

variable 1

ÉLÉMENTAÍRE

page 35

L’exemple le plus simple de neurone mathématique – qui répond au nom barbare de « perceptron simple » – a été inventé en 1957 par Frank Rosenblatt au laboratoire d’aéronautique de l’université de Cornell (ÉtatsUnis) : il sert à séparer les éléments de deux ensembles. Le neurone prend n variables en entrée (par exemple, les dimensions des pétales et des sépales des iris), calcule leur somme pondérée selon des poids définis à l’avance, compare la quantité calculée à une valeur seuil et retourne 1 ou 0 selon que celle-ci est ou non dépassée. L’originalité de cette


Discriminant de Fisher et... approche vient de la manière dont les poids sont déterminés : contrairement au discriminant de Fisher, il n’existe pas de méthode déterministe (c’est-à-dire de procédure toute faite) pour les calculer ; on les obtient par approximation successive en « entraînant » le neurone. On veut que la réponse du perceptron traduise l’appartenance à l’un ou l’autre ensemble. Avant de l’utiliser, on l’entraîne en lui fournissant en entrée des données d’objets dont on connaît la catégorie d’origine et on compare sa sortie binaire (ensemble « 0 » ou ensemble « 1 ») avec les valeurs attendues. Si le neurone se trompe, on modifie ses poids selon des algorithmes mathématiques qui donnent plus d’importance aux entrées qui aident à la bonne prise de décision et qui affaiblissent celles qui n’apportent qu’une information marginale... et on reprend l’entraînement. Le processus se poursuit jusqu’à ce que les poids soient stables. Pour obtenir de bonnes performances, il faut éviter le surentraînement ! Faute de quoi, le perceptron deviendrait trop spécialisé et ne reconnaîtrait que les échantillons sur lesquels il s’est entraîné. Pour un tel perceptron, l’arbre (qu’il a étudié pendant sa formation) cache la forêt (qu’il devrait nous aider à reconnaître)...

Schéma de fonctionnement du perceptron simple : n variables d’entrées, une sortie binaire (0 ou 1) déterminée par la valeur de la somme pondérée des entrées.

L’union faisant la force, on utilise toujours en pratique un ensemble de neurones : selon le problème posé, on choisit le neurone élémentaire, l’architecture du réseau et sa dynamique, c’est-à-dire la manière dont les neurones communiquent entre eux. Une fois les connexions fixées, l’entraînement consiste à optimiser les poids de chaque neurone. Pour faciliter cette procédure, plus lourde que dans le cas du perceptron simple, on n’utilise pas de neurone « binaire » : le passage de 0 à 1 au seuil est trop brusque et on remplace donc cette fonction « créneau » par une transition plus douce mais rapide. On utilise en général une sigmoïde (« en forme de sigma », c’est-à-dire en S), également appelée « fonction logistique », car elle apparaît souvent dans ce type de problèmes. Cette régularisation accélère l’entraînement et permet l’utilisation de méthodes d’optimisation plus puissantes. Les réseaux de neurones utilisés en physique des constituants élémentaires ont en général une structure en couches : les seules connexions permises entre neurones vont d’une couche n à la couche n+1 située immédiatement en aval. Les neurones de la première couche reçoivent les données d’entrée et il y a un unique neurone sur la dernière couche qui produit le résultat final du réseau. Même si l’entraînement a été de qualité, un réseau de neurones n’est jamais parfait. Pour un seuil donné, une fraction des événements de type « signal » sera vue comme du bruit de fond et réciproquement. Selon l’utilisation que l’on veut faire du réseau de neurones, on privilégie soit la pureté des évènements sélectionnés (par exemple seulement 5% de bruit de fond pris pour du signal) soit l’efficacité de la sélection (80 ou 90% d’événements de type « signal » correctement identifiés). La qualité d’une telle méthode de tri (réseau page 36

Comparaison des fonctions sigmoïde et créneau (transition instantanée de 0 à 1 en x=0).

ÉLÉMENTAÍRE


...réseaux de neurones de neurones comme discriminant de Fisher) séparant signal et bruit de fond est en général résumée dans un diagramme de performances.

Entre les deux, mon coeur balance... Dans nos disciplines, les discriminants de Fisher et les réseaux de neurones ont en général des performances voisines avec, assez souvent, un léger avantage pour les seconds. D’un autre côté, l’atout principal du discriminant de Fisher est sa simplicité : tant au niveau de son optimisation que de son utilisation, le chercheur comprend tout ce qui se passe. À l’opposé, le réseau de neurones apparaît plutôt comme une sorte de boîte noire dont l’entraînement comme la réponse aux données d’entrée restent mystérieux – on voit que le réseau fonctionne mais on ne comprend pas forcément les détails de son fonctionnement. Cela explique que de nombreux chercheurs privilégient les discriminants de Fisher.

Exemple de diagramme de performances pour une méthode de classification de données (discriminant de Fisher ou réseau de neurones). La figure du haut montre l’efficacité de sélection du signal (en rouge) et du bruit de fond (en bleu) en fonction du seuil appliqué sur la sortie de l’algorithme. On peut combiner ces deux courbes pour montrer l’efficacité sur le signal (que l’on souhaite élevée) en fonction de celle sur le bruit de fond (que l’on veut faible), Cette fonction est représentée en vert sur la figure du bas : pour 5% de bruit de fond on conserve environ 60% de signal et une efficacité au signal de 90% garde environ 24% du bruit de fond. En moyenne, la première coupure rejette 19 événements de bruit de fond sur 20 tout en conservant 6 événements signal sur 10 ; la seconde garde un quart des événements de bruit de fond mais n’élimine qu’1 événement signal sur 10. On choisira plutôt le premier seuil si on privilégie la pureté de l’échantillon final et le second si on veut garder le plus d’événements possibles. Pour chaque méthode de classification, on peut ainsi tracer de tels diagrammes de performances, et déterminer, en fonction des besoins de l’analyse, le critère de sélection le plus approprié.

En dehors de la physique des particules, les réseaux de neurones sont de plus en plus utilisés dans des domaines très variés et souvent insoupçonnés. • En contrôle industriel : l’examen simultané des vibrations, des bruits et des émissions d’un moteur d’avion permet de mieux évaluer son état. • Pour la reconnaissance de formes : visages sur des caméras de surveillance ou aux douanes d’aéroport, signatures sur des chèques, adresses écrites à la main sur des lettres, etc. • En médecine : l’aide au diagnostic associe les symptômes et les pathologies développés par les patients. • Dans d’autres domaines : pour filtrer les pourriels (les fameux « spams »), chercher de l’information à valeur ajoutée dans des grosses bases de données, prévoir l’évolution des cours de la bourse, cibler les besoins des consommateurs, trouver de bons clients pour une banque, etc.

ÉLÉMENTAÍRE

page 37

Les applications potentielles des réseaux de neurones ne manquent donc pas !


Accélérateur Les collisionneurs : révolution dans À la suite des travaux pionniers de E.O. Lawrence avant la seconde guerre mondiale, des synchrotrons de plus en plus puissants sont construits dans les années 50. Ils profitent des avancées effectuées dans de nombreux domaines : conception des accélérateurs, technologies d’accélération et de guidage du faisceau, augmentation de la puissance électrique disponible, etc. Les expériences réalisées alors sont dites « sur cible fixe » : le faisceau accéléré est envoyé sur un échantillon de matière et les détecteurs mesurent les produits des collisions des particules avec les atomes qui composent la cible. Si la densité de cette dernière est suffisamment élevée pour assurer l’observation d’événements à chaque passage des projectiles, la réaction est loin d’être efficace énergétiquement : seule une faible fraction de l’énergie de la particule incidente est utilisable pour produire de nouvelles particules et ce pourcentage décroît même lorsque l’énergie augmente ! Or, d’après la relation d’Einstein reliant énergie et masse (E=Mc2), disposer de plus d’énergie permet de créer des particules plus massives (et donc potentiellement nouvelles). Pour sortir de cette impasse, il faut s’engager dans une nouvelle direction. Mais revenons un instant sur les transferts d’énergie lors d’une expérience sur cible fixe. Si seule une partie de l’énergie peut se transformer en masse, où part le reste puisque l’énergie totale est conservée ? La réponse est simple : comme la réaction est déséquilibrée – l’un des deux participants à la collision est en mouvement alors que l’autre est au repos – une grande partie de l’énergie totale est utilisée pour le déplacement global de l’ensemble des particules produites. Comment s’affranchir de ce phénomène ? En faisant bouger la cible pour contrer l’effet précédent ! Une idée aussi prometteuse que compliquée au niveau technique. Dans le cas d’une collision frontale entre deux particules identiques et de même énergie, le mouvement d’ensemble du système – avant et après – est nul : toute l’énergie est absorbée par la réaction. On trouve déjà cette idée pour le cas des systèmes non-relativistes dans une lettre de R. Wideröe à E. Amaldi en 1943. Il dépose même un brevet pour un accélérateur de sa conception mais ne l’exploite jamais, trop pris par son travail dans l’industrie. Le concept est repris en 1956 par D.W. Kerst et ses collaborateurs qui l’étendent aux expériences ultra-relativistes où l’écart entre les deux types d’accélérateurs est encore plus marqué : par exemple, deux protons de 21,6 GeV envoyés l’un sur l’autre ont le même potentiel qu’un proton de 1000 GeV entrant en collision avec une cible fixe et ce, en fournissant 23 fois moins d’énergie ! Alors qu’une cible n’est Non-relativistes, ultra-relativistes composée que de matière, ce Une particule de masse M est dite nonnouveau concept d’accélérateur relativiste lorsque son énergie cinétique permet aussi de réaliser des (c’est-à-dire son énergie de mouvement) collisions matière-antimatière, est très inférieure à son énergie de masse intéressantes dans la mesure où (Mc2). Elle est dite relativiste dans le cas les deux projectiles s’annihilent. contraire et ultra-relativiste lorsque son Leur énergie est convertie énergie est très supérieure à son énergie en nouveaux constituants de masse.

Efficace énergétiquement L’énergie utilisable pour produire de nouvelles particules lors de la collision d’une particule d’énergie E avec une autre particule au repos et de masse M est approximativement disponible E cible fixe ~ √ 2Mc2E lorsque E>>Mc2. Dans le cas d’une collision frontale entre deux particules d’énergie E/2, le résultat est disponible E collision = E E disponible cible fixe Le rapport varie selon: disponible ~ 2Mc √E E collision

2

Cette fraction diminue à mesure que l’énergie augmente et devient très petite dans le cas d’une particule ultrarelativiste pour laquelle l’énergie totale E est très supérieure à l’énergie de masse Mc2. Cela montre que les collisionneurs ont un rendement énergétique bien meilleur que les collisions sur cible fixe, en particulier à haute énergie.

Repos Les atomes d’une cible fixe ne sont pas complètement au repos puisqu’à toute température est associée une agitation aléatoire des particules au niveau microscopique. Néanmoins les énergies associées à ce mouvement sont si faibles comparées à celles mises en jeu dans les collisions produites par un accélérateur qu’elles sont complètement négligeables.

page 38

Comparaison entre : en haut, la collision d’un proton énergétique (10 GeV) sur une cible fixe (proton au repos de masse 1 GeV) ; en bas, la collision de deux protons de même énergie (5 GeV). Dans le second cas, toute l’énergie disponible sert à produire de nouvelles particules ; dans le premier, plus de la moitié est utilisée pour le mouvement global des particules produites.

ÉLÉMENTAÍRE


les accélérateurs de particules élémentaires. De plus, comme particules et antiparticules ont des charges opposées, un seul champ magnétique orienté perpendiculairement au plan de leurs trajectoires permet de les faire tourner en sens opposés dans un anneau circulaire.

Paquets Pour des raisons tant fondamentales que techniques, le champ électrique accélérateur nécessaire pour compenser les pertes d’énergie dues au rayonnement synchrotron des particules stockées n’est pas disponible en continu : il faut donc utiliser un champ oscillant. Les particules sont alors organisées en paquets, les plus denses possible, et dont les propriétés (dispersion de l’énergie, volume, etc.) sont préservées au mieux dans les collisionneurs. Moins ces paramètres sont perturbés, plus la durée de vie des faisceaux est grande et l’accélérateur « efficace » ! Le fonctionnement du système R.F. est synchronisé avec le mouvement des paquets afin que les cavités apportent l’énergie appropriée aux particules lorsque celles-ci les traversent. En dehors de ces périodes, le champ qu’elles délivrent n’est pas adapté aux caractéristiques des faisceaux. Ainsi, une particule qui voit son énergie modifiée de manière significative ne reçoit plus les corrections nécessaires au maintien de son orbite : en quelques millièmes de seconde elle est perdue.

ÉLÉMENTAÍRE

Durée de vie À chaque tour, des particules sont perdues dans le collisionneur : efficacité forcément limitée des systèmes contrôlant leur trajectoire, interaction avec les molécules de gaz résiduelles, conséquence des collisions au centre du détecteur avec les particules tournant en sens inverse etc. Ralentir cet effet – par exemple en améliorant le système de pompage du tube à vide – permet d’augmenter la durée de vie des faisceaux et donc le temps pendant lequel ils produisent des collisions visibles dans les instruments.

page 39

Voilà pour la théorie. En pratique, réaliser un collisionneur est tout sauf évident : quel que soit le soin apporté à leur fabrication et à leur conservation, les faisceaux auront toujours une densité bien plus faible qu’une cible solide, ce qui limite la probabilité de collision entre les particules qu’ils contiennent. Une manière de compenser cet effet consiste à augmenter le nombre de fois où les particules se croisent. En particulier, on cherche à allonger au maximum la durée de vie des faisceaux en limitant la perte de particules en fonction du temps. Voyons comment on en est arrivé aux collisionneurs actuels avec les étapes les plus marquantes de ce processus qui s’est déroulé sur plusieurs décennies.

Résumé (très simplifié) de ce qui se passe dans un collisionneur e+elorsque des faisceaux circulent à l’intérieur. 1 - Dans chaque section circulaire, les particules suivent une trajectoire courbe sous l’action d’un champ magnétique. Elles perdent alors de l’énergie par émission de lumière synchrotron. 2 - Des particules peuvent disparaître lorsqu’elles interagissent avec les molécules de gaz résiduel présentes dans les tubes à vide, maintenus à la pression la plus faible possible (quelques milliardièmes de la pression atmosphérique) par un système de pompage fonctionnant en permanence. 3 - Dans certaines sections droites, des cavités radio-fréquence (« R.F. ») redonnent aux particules l’énergie perdue par émission synchrotron. Ce système sert aussi à donner l’énergie nominale de fonctionnement aux faisceaux. 4 - Les collisions entre particules ont lieu au centre du détecteur. Ailleurs, les deux faisceaux circulent sur des trajectoires différentes, voire dans des tubes à vide séparés. Près de la zone d’interaction, des aimants très puissants forcent les faisceaux à se rapprocher, puis à se traverser mutuellement avant de les séparer tout aussi brusquement – chacune de ces étapes « coûte » des particules. Ces dernières ne sont pas réparties uniformément dans le collisionneur mais sont regroupées en paquets dont les passages sont synchronisés. Les collisions sont d’autant plus efficaces que les paquets sont denses, en particulier dans le plan transverse à leur propagation. La quantité utilisée pour décrire la « qualité » des collisions est appelée luminosité. 5 - Lorsque le nombre de particules disponibles dans les faisceaux passe en dessous d’un certain seuil, les collisions ne se produisent plus assez souvent pour justifier la poursuite de l’expérience. De nouvelles particules sont alors injectées dans l’accélérateur. Les collisionneurs actuels sont capables de « recharger » un paquet particulièrement appauvri alors que les collisions ont encore lieu en abondance. Leur efficacité est ainsi maximale.


Les collisionneurs : révolution dans Les pionniers

L’intensité du courant électrique mesure un nombre de charges électriques par unité de temps. Ainsi, un ampère de courant dans un fil électrique correspond au passage de... 6 241 509 629 152 650 000 (et pas un de moins !) électrons par seconde. Dans un collisionneur, l’intensité I est donc donnée par le nombre de particules N qu’il contient multiplié par le nombre de tours qu’elles effectuent par seconde. Comme elles se déplacent à une vitesse extrêmement proche de celle de la lumière c, cette fréquence de rotation s’exprime directement en fonction de la longueur L de l’anneau : I= N.c/L

Quelques mois après la publication de l’article de Kerst, G. O’Neill (de l’université américaine de Princeton) propose d’ajouter aux accélérateurs existants des anneaux de stockage dans lesquels circuleraient des faisceaux de particules accélérées en amont, par exemple par un synchrotron. Les collisions auraient lieu dans une section droite commune. En 1958, W. Panofsky (futur premier directeur du SLAC, voir Élémentaire N°4) obtient une subvention de 800 000 dollars pour construire deux anneaux de stockage au bout de l’accélérateur linéaire Mark-III de 700 MeV situé sur le campus de l’université de Stanford. Ce projet s’accompagne de plusieurs innovations technologiques, en particulier au niveau du contrôle des particules stockées afin d’augmenter la longévité des faisceaux. Les anneaux, en forme de « 8 », d’environ 2m de circonférence et dans lesquels des électrons circulent en sens opposés, sont opérationnels en 1962 : c’est un succès (énergie maximale de 1 GeV ; l’intensité du courant atteint 600 mA, un record qui tiendra presque quatre décennies) mais, en fait, les américains ne sont pas les premiers. En effet, le 27 février 1961, une équipe du laboratoire italien de Frascati (au sud de Rome) menée par Bruno Touschek réussit le premier stockage d’électrons et de positrons dans l’anneau AdA (« Anello di Accumulazione », soit « Anneau d’Accumulation » en français). AdA comprend une chambre à vide toroïdale (c’est-à-dire en forme d’anneau), placée dans un puissant champ magnétique orienté perpendiculairement au plan de l’anneau et faisant tourner particules et anti-particules en sens inverses, à des énergies pouvant atteindre 250 MeV. Des électrons frappent une première cible ; des photons sont alors émis, lesquels atteignent ensuite une seconde cible où les collisions donnent naissance à des paires e+e−. Une petite fraction de ces particules est capturée dans la chambre à vide qu’il faut renverser par rapport au système d’injection selon que

page 40

Effet Touscheck L’effet Touscheck décrit la perte de particules par interaction coulombienne au sein des paquets stockés dans un collisionneur, en partie responsable de la décroissance du courant circulant dans l’anneau. Lors de leur parcours, les particules oscillent autour de leur orbite moyenne et peuvent donc entrer en contact si elles sont voisines. De tels chocs affectent le mouvement des particules impliquées et modifient les composantes longitudinale (dans le sens du déplacement) et transverse (radiale) de leurs quantités de mouvement. Si le changement est suffisamment important, les trajectoires des particules deviennent instables et celles-ci se perdent dans le tube à vide.

© LNF

Avec I=600 mA et L=2 m (paramètres du premier collisionneur construit à Stanford) on obtient un faisceau constitué d’environ 25 milliards de particules. Le collisionneur actuel de Stanford, PEP-II, a une circonférence de 2200 m et a récemment atteint un courant de 3 ampères pour son faisceau de positrons : un peu plus de 137 000 milliards de particules étaient alors en circulation ! Ce nombre est certes gigantesque mais un simple verre d’eau contient environ 40 milliards de fois plus d’électrons...

Physicien autrichien, Bruno Touschek est victime des lois raciales nazies car sa mère est juive. Il s’installe à Hambourg où il travaille sur les ancêtres des klystrons et est en contact avec Wideröe. Finalement arrêté par la Gestapo en 1945, il est déporté dans un camp de concentration d’où il s’échappe par miracle, laissé pour mort par un S.S. Après la guerre, il complète sa scolarité à Göttingen avant de rejoindre l’université de Glasgow en 1947. En 1952 il devient chercheur au laboratoire national de Frascati à Rome et y effectue le reste de sa carrière. Sa vision de la physique des particules, à la fois théorique et pratique, lui donne l’idée de construire le premier collisionneur électron-positron au monde. Le 7 mars 1960, il donne un séminaire dans lequel il présente ce nouveau concept, insistant à la fois sur l’intérêt scientifique de ce type d’accélérateur pour les expériences de haute énergie et sur la simplicité de réalisation d’un prototype. Le premier faisceau stocké (quelques électrons à peine) est obtenu moins d’un an plus tard, le 27 février 1961. Non content d’avoir supervisé la construction d’AdA, Touschek participe activement aux tests qui y furent menés, y compris après le transport de l’anneau à Orsay. En particulier, il découvre et explique un effet de physique des accélérateurs qui porte aujourd’hui son nom.

ÉLÉMENTAÍRE


les accélérateurs de particules Transporter AdA de Frascati à Orsay sur une distance de 1500 km ne fut pas une mince affaire. L’anneau fonctionnait sous ultravide (pour éviter les interactions entre les faisceaux d’électrons et de positrons avec les molécules du gaz résiduel) et le ramener à la pression atmosphérique normale pour le trajet aurait nécessité de longues opérations de nettoyage une fois arrivé à destination, suivies de plusieurs semaines de pompage. Il fallut donc se munir d’un système de batteries pour que la pompe maintenant l’ultravide dans l’anneau fonctionne en permanence. Touschek en personne voulut tester la stabilité du camion utilisé pour le transport : peu habitué à conduire un si grand véhicule, il détruisit un lampadaire en le manœuvrant. Enfin, un douanier zélé voulut à tout prix inspecter l’intérieur de l’anneau à la frontière : il fallut une intervention haut placée (le ministre italien des affaires étrangères ou le haut-commissaire à l’énergie atomique français selon les versions et ... la nationalité du conteur !) pour que les choses rentrent dans l’ordre. Malgré ce contretemps, la pompe fonctionna jusqu’à l’arrivée au LAL.

l’on veut accumuler des positrons ou des électrons. L’efficacité de cette procédure, ajoutée aux limitations de la source initiale d’électrons, est le talon d’Achille de ce dispositif : seuls de très faibles courants circulent dans la chambre à vide. La décision est alors prise de transporter AdA en juin 1962 à Orsay où le Laboratoire de l’Accélérateur Linéaire (LAL) dispose d’un ... accélérateur linéaire (!) utilisable comme injecteur. Le transfert tient toutes ses promesses : des collisions entre positrons et électrons sont observées en décembre 1963 ; les faisceaux sont stockés jusqu’à 40 heures et, surtout, AdA met en évidence un phénomène important, connu aujourd’hui sous le nom d’effet Touschek qui limite la durée de vie du faisceau. Selon la petite histoire, l’interprétation correcte du phénomène fut donnée la nuit même où il apparut dans AdA ; une solution technique fut imaginée le lendemain matin et mise en pratique dans les jours qui suivirent : la science en direct en somme ! Plus tard, en mai 1964, le laboratoire de Novossibirsk (en Sibérie) commence l’exploitation de son collisionneur e−e− VEPP1 dont l’énergie est 160 MeV par faisceau : c’est le premier d’une longue série d’anneaux qui eux furent des anneaux e+e- (VEPP2, VEPP-2M, VEPP4, etc.). Il est à noter que l’équipe russe de Novossibirsk est restée pendant plusieurs années dans un isolement total vis-à-vis des laboratoires de l’Europe de l’Ouest et des États-Unis. Au sein de cette équipe, c’est Vladimir Baier qui suggéra – de façon indépendante de Bruno Touschek – d’étendre le programme des collisions e-e- aux collisions e+e− dont la physique est beaucoup plus riche. Il est intéressant de noter que les trois collisionneurs « pionniers » (les anneaux doubles de Stanford et de VEPP1 ainsi qu’AdA) n’utilisent pas les techniques de guidage de particules les plus récentes pour l’époque. Leur but n’est pas tant d’obtenir un dispositif performant que de prouver la validité du concept de collisionneur et de tester les choix techniques permettant sa réalisation. L’exploitation scientifique sera assurée par la seconde génération de machines.

Les collisionneurs électrons-positrons

ÉLÉMENTAÍRE

Démonstration de l’existence de collisions entre électrons et positrons par l’observation de la réaction e+ e− → e+ e− γ dans AdA. Le graphique montre le rapport (nombre de photons détectés)/(nombre de particules dans le faisceau 1) en fonction du nombre de particules dans le faisceau 2. Les points de mesure s’ordonnent selon une droite dont la pente est reliée à la performance du collisionneur, appelée luminosité. Plus cette quantité est élevée, plus le taux de collisions est grand. Le nombre de particules dans chaque faisceau est estimé en mesurant la lumière synchrotron qu’elles émettent lorsque leur trajectoire est courbée par un champ magnétique. Le bruit de fond résiduel explique l’observation de photons lorsque le nombre de particules dans le faisceau 2 est nul. page 41

Et, de fait, les collisionneurs e+e− se multiplient dans la seconde moitié des années 60. À Orsay, l’exploitation d’ACO (« Anneau de Collisions d’Orsay ») débute le 25 octobre 1965 ; l’énergie des faisceaux est de 520 MeV. En plus de la mise en évidence et de l’étude de nombreux phénomènes propres à la physique des accélérateurs, ACO permet des avancées sur la physique d’une classe de particules de spin 1 appelées mésons vecteurs. Après de nombreuses années d’exploitation, ACO trouvera une nouvelle jeunesse dans la production de lumière synchrotron ; la salle d’expérience et l’anneau lui-même sont aujourd’hui inscrits à l’inventaire supplémentaire des Monuments Historiques et ouverts aux visiteurs. En 1967, le laboratoire de Frascati met en service ADONE (« le gros AdA » en italien) dont l’énergie disponible en collision


Les collisionneurs : révolution dans atteint les 3,1 GeV avec une luminosité améliorée. Les données recueillies montrent que le taux de production de hadrons (particules constituées de quarks), e+e− → hadrons, est au moins aussi important que celui des leptons, e+e− → µ+µ−, dont la théorie est alors bien établie. Ce résultat – confirmé ensuite par l’expérience « By Pass » située à Cambridge dans l’état du Massachusetts – est inattendu. On comprendra par la suite que les prédictions théoriques (inspirées par l’analyse des neutrons et des protons) n’étaient pas bien fondées. Ce domaine d’énergie n’avait d’ailleurs pas fini de surprendre les physiciens. En effet, après une longue période d’atermoiements bureaucratiques et plusieurs demandes de crédit rejetées, SLAC reçoit finalement un financement à l’été 1970 pour construire le collisionneur SPEAR (« Stanford Positron Electron Accelerating Ring », « Anneau accélérateur de positrons et d’électrons de Stanford »). Encore de taille modeste – un anneau simple de 80 mètres de diamètre construit sur un parking près du bout de l’accélérateur linéaire – il est terminé en 1972 et produit des faisceaux de 4 GeV d’énergie. En quelques années, les découvertes s’enchaînent : le méson J/Ψ en 1974 (formé de deux quarks d’un quatrième type encore inconnu, le charme) et le lepton τ en 1976, premier représentant de la troisième famille des constituants fondamentaux de la matière. En 1990, SPEAR est converti en une source intense de lumière synchrotron, le SSRL (« Stanford Synchrotron Radiation Light », « Source de rayonnement synchrotron de Stanford »), encore en fonctionnement aujourd’hui. L’Europe n’est pas en reste. À Orsay, l’anneau de stockage DCI (« Dispositif de Collisions dans l’Igloo », nom donné au bâtiment en forme de dôme situé au bout de l’accélérateur linéaire), fournit, dans les années 70, des produits de collisions au détecteur DM2 (« Détecteur Magnétique 2 ») qui réalise des mesures de précision sur les hadrons, en particulier sur le J/Ψ récemment découvert – le nombre d’événements collectés reste pendant longtemps le plus important au monde. Mais les avancées les plus spectaculaires ont lieu au laboratoire DESY, près de Hambourg en Allemagne. Au collisionneur e+e− en double anneau de 3 GeV, DORIS, s’ajoute en 1978 PETRA (« Positron Electron Tandem Ring Accelerator »). Cette machine est un vrai géant par rapport à ses prédécesseurs : 2300 mètres de circonférence ! En forme d’anneau, comme les machines e+e− précédentes, elle comporte huit sections droites : six pour les expériences et deux pour le système d’accélération R.F. Les particules sont créées par un accélérateur linéaire, accélérées jusqu’à 6 GeV dans le synchrotron de DESY avant d’être injectées dans PETRA. L’énergie des collisions atteint rapidement les 22 GeV (record mondial à l’époque) et montera ultérieurement jusqu’à 46,8 GeV.

Énergie des collisions, en GeV. Section efficace de la réaction e+e− → hadrons (divisée par celle de production de muons e+e− → μ+ μ-) enregistrée par le détecteur MarkI sur le collisionneur SPEAR. Le pic correspond à la production du méson Psi (ψ) découvert simultanément à Brookhaven dans une expérience sur cible fixe (et appelé J). En moins de 1 MeV (soit une variation d’énergie inférieure au pourmille), la section efficace est multipliée par 100 avant de décroître presque aussi rapidement. La position du pic donne la masse de cette nouvelle particule, également appelée « résonance ». Dix jours après cette découverte, une seconde résonance – le « ψ prime » de masse 3,7 GeV/c2 environ – est observée à SPEAR (SLAC).

page 42

En 1979, le CERN publie une étude portant sur un collisionneur e+e− d’une trentaine de kilomètres de circonférence. L’énergie prévue est de 70 GeV par faisceau avec des perspectives d’augmentation jusqu’à 100 GeV grâce à l’utilisation de cavités R.F. supraconductrices. Une fois accepté, ce projet devient le LEP (« Large Electron-Positron collider », « Grand collisionneur à électrons et positrons », voir «Expérience»). Les travaux de génie civil débutent en 1983 ; les premières collisions sont enregistrées le

ÉLÉMENTAÍRE


les accélérateurs de particules

13 août 1989 et l’accélérateur a été en service jusqu’en novembre 2000. Le LEP a ensuite été démonté et c’est dans son tunnel que l’installation du LHC se termine. Les collisionneurs électrons-positrons les plus performants actuellement sont les accélérateurs des « usines à B » Belle et BaBar : KEK-B au Japon (l’accélérateur le plus efficace au monde, à la fois en termes de taux de collisions instantané et du nombre total d’événements fournis depuis sa mise en service) et PEP-II en Californie (qui détient les records de courant dans chacun des deux faisceaux). Leur particularité principale est d’être asymétriques : l’énergie des électrons est environ trois fois plus importante que celle des positrons. Comme nous l’avons vu au début de l’article, cette différence produit un mouvement d’ensemble qui affecte tous les produits de la réaction, en particulier deux particules appelées mésons B auxquelles BaBar et Belle s’intéressent particulièrement. Leur durée de vie étant non nulle (mais très petite), la « pichenette » énergétique qu’elles reçoivent fait qu’elles parcourent une distance mesurable dans le détecteur avant de se désintégrer (à peine quelques millimètres). L’énergie perdue pour la collision est ici sans conséquence dans la mesure où ces expériences opèrent à une énergie fixée, bien inférieure aux records atteints par ces accélérateurs. Leur but n’est pas d’atteindre l’énergie la plus élevée possible mais d’augmenter autant que possible la luminosité, c’est-à-dire le taux d’événements.

Collisionneurs protons-(anti)protons Lors d’une collision entre des particules ayant une structure interne (par exemple pp), le choc a lieu entre des composants de chaque particule (quarks ou gluons) qui n’emportent qu’une fraction de l’énergie totale – une fraction variable selon la collision. Accumuler les événements permet de balayer toute la gamme d’énergie disponible. De plus, la perte d’énergie par rayonnement synchrotron d’un proton suivant une trajectoire circulaire est bien plus faible que celle d’un électron : à puissance électrique égale, un collisionneur à protons peut donc atteindre des énergies plus élevées. Produire Les antiprotons sont obtenus par collision de protons de haute énergie sur une cible dense (par exemple en tungstène). Les particules produites ont alors des énergies et des trajectoires initiales très différentes les unes des autres, d’où la nécessité de les « mettre en forme » avant de pouvoir les utiliser. Sans cette étape essentielle, les quantités d’anti-protons disponibles pour des collisions seraient beaucoup trop faibles.

Les collisionneurs hadroniques

ÉLÉMENTAÍRE

page 43

Historiquement les physiciens utilisèrent des électrons et des positrons dans les collisionneurs avant de se tourner vers les collisionneurs protons(anti)protons. L’utilisation de deux faisceaux de protons nécessite deux tubes à vide et un système magnétique très complexe pour que des particules de même charge puissent tourner en sens opposés ; quant aux anti-protons, il faut réussir à les produire en grande quantité et être capable de les organiser en paquets denses, d’énergie et donc de trajectoire


Vue aérienne du site de DESY (près de Hambourg) avec, en pointillés, le dessin des différents collisionneurs : PETRA (collisionneur e+e− puis injecteur de HERA) et HERA (collisionneur e−p). Les cercles (désignés par les initiales des 4 points cardinaux en allemand) correspondent aux zones expérimentales.

© DESY

Les collisionneurs : révolution dans données. Néanmoins, aucune de ces difficultés ne s’est avérée rédhibitoire sur le long terme : toutes les configurations de collisionneurs ont été réalisées, la seule règle étant d’utiliser des particules stables et chargées. Le premier collisionneur pp est construit au CERN : l’ISR (« Intersecting Storage Rings », « Anneaux de stockage à intersections ») y fonctionne de 1971 à 1984. Les deux anneaux d’aimants concentriques font 300 m de diamètre et sont situés à environ 200 m du synchrotron PS d’où les protons sont extraits à une énergie allant jusqu’à 28 GeV. Un système accélérateur situé dans les sections droites des anneaux permet d’atteindre 31,4 GeV. Afin d’augmenter la densité de protons dans les anneaux, on « rassemble » plusieurs paquets injectés par le PS. La durée de vie des faisceaux atteint les 36 heures. Les antiprotons deviennent d’actualité dans la seconde moitié des années 70 grâce à la mise en œuvre d’un système d’asservissement inventé en 1968 par l’ingénieur du CERN S. Van der Meer : les écarts de trajectoire des paquets d’antiprotons qui circulent dans l’anneau sont observés en un emplacement particulier et atténués en un autre endroit où le signal de correction arrive avant les particules. Ainsi domptés, les antiprotons se laissent accumuler en nombre suffisant pour donner des collisions productives sur une longue période. Sous l’impulsion de Carlo Rubbia, le CERN transforme son synchrotron à protons SpS en un collisionneur - (le SppS) p-p dédié à la recherche des bosons W± 0 et Z . L’accélérateur atteint son but : le prix Nobel de physique 1984 récompense Rubbia et Van der Meer pour « leurs contributions décisives au grand projet qui a permis la découverte des bosons W et Z, médiateurs de l’interaction faible ». Par la suite, le laboratoire Fermilab (près de Chicago) se lance dans la construction d’un collisionneur p-p- géant, le Tevatron, qui, encore aujourd’hui, détient le record absolu d’énergie de collision (2 TeV, soit 2000 GeV !). Enfin, suivant une logique de « recyclage » propre à tous les grands complexes accélérateurs, DESY transforme son collisionneur PETRA en un injecteur pour le collisionneur électrons ou positrons (~30 GeV) contre protons (~820 GeV) HERA (« Hadron Electron Ring Accelerator », « Accélérateur en anneau hadrons-électrons ») dont la circonférence atteint 6,3 km. Les électrons permettent de sonder la structure des protons et d’étudier des détails de leurs comportements décrits plusieurs dizaines d’années auparavant mais jamais observés jusqu’alors. Après une très longue carrière, HERA a finalement été arrêté l’été dernier : le nouveau grand projet du laboratoire DESY consiste à construire et mettre au point une source cohérente et très brillante de lumière synchrotron dans le domaine page 44

Énergie des collisionneurs e+e− en fonction de leur date de mise en service (ou en projet). L’échelle verticale est logarithmique : chaque ligne horizontale correspond à une multiplication par dix de l’énergie.

ÉLÉMENTAÍRE


les accélérateurs de particules

© LNF

Bien qu’il n’ait pas encore été mis en service, le LHC est actuellement l’objet de toutes les attentions des physiciens nucléaires et des particules du monde entier. Repoussant les limites de la « frontière en énergie » (collisions à 14 TeV, 7 fois l’énergie record du Tevatron), il devrait permettre de découvrir la dernière pièce majeure du Modèle Standard à n’avoir pas reçu de confirmation expérimentale (le boson de Higgs) et mettre en évidence des effets nouveaux, certains prédits par les théories actuelles et, sans doute, d’autres tout à fait inattendus !

© INFN

des rayons X, utilisée par exemple pour « observer » des phénomènes ultrarapides comme des réactions chimiques.

L’expérience AdA à travers les âges : à gauche, en service en 1961 au laboratoire de Frascati ; au centre, en 1962 après son transfert au Laboratoire de l’Accélérateur Linéaire ; à droite en 2007, exposée sous une pyramide de verre à l’entrée du laboratoire de Frascati.

ÉLÉMENTAÍRE

Salle expérimentale « Pierre Marin » montrant l’anneau de collisions ACO (Orsay) conservé en l’état à destination du public.

page 45

Les collisionneurs existent depuis un demi-siècle seulement mais ils ont révolutionné la physique des constituants élémentaires en permettant d’explorer des plages d’énergie toujours plus élevées et d’accumuler des quantités impressionnantes d’événements (plusieurs centaines de millions pour Belle et BaBar). Bien loin d’être rivaux, les différents types de machines se sont révélés complémentaires : ainsi, les bosons Z0 et – ont été étudiés en détail – au SppS, W±, découverts dans des collisions pp au LEP, collisionneur e+e−. Après la découverte du sixième (et dernier !?) – et les mesures de précision des usines à B (e+e−), quark au Tevatron (p-p) le LHC (pp) devrait bientôt apporter sa moisson de découvertes. Le XXIe siècle sera-t-il pour autant celui des anneaux de collisions ? Rien n’est moins sûr : la taille des accélérateurs et les pertes par rayonnement synchrotron apparaissent aujourd’hui comme des obstacles insurmontables pour la prochaine génération de collisionneurs circulaires à électrons. Il faudra donc probablement concevoir de nouveaux collisionneurs au lieu de reproduire en plus grand et en plus puissant les machines actuelles. Ainsi, le prochain projet mondial devrait être un collisionneur linéaire électron-positron de plusieurs centaines de GeV (l’ILC), formé de deux accélérateurs linéaires se faisant face et injectant des paquets de particules en collision frontale. La communauté des physiciens des hautes énergies a l’habitude de ces remises en question : nul doute qu’elle saura relever ce nouveau défi !

© ACO

Un nouveau siècle commence


Découvertes À la chasse aux bosons W et Z Des papillons bien énigmatiques

�� W

��

Dans les années 60, on s’interroge beaucoup sur les liens entre l’interaction électromagnétique et l’interaction faible. Les physiciens théoriciens, en particulier Steven Weinberg, Abdus Salam et Sheldon Glashow, mettent au point une théorie selon laquelle ces deux interactions découleraient d’une seule et même force, dite électrofaible (voir «Théorie»). Cette théorie postule l’existence de trois bosons massifs, les W+ et W--, chargés, et le Z0, neutre. Elle prévoit que la force électrofaible se manifeste de deux manières. D’une part, on a des processus où la particule échangée est un boson chargé et pour laquelle il y a donc transfert de charge électrique. Par exemple : μ-- —> νμ W-- —> νμ –νe e-où on voit que le muon « perd » sa charge électrique pour devenir un neutrino mu, tandis que le W- se désintègre en une paire chargée électron – antineutrino (on parle de « courant chargé »). D’autre part, il peut y avoir des processus où un boson Z0 est échangé de sorte qu’il n’y a pas de transfert de charge. C’est le cas si on prend νμ + e-- —> νμ + e-où on retrouve dans l’état final les mêmes particules chargées que dans l’état initial. Au moment où cette théorie est avancée, ce second type de processus, appelé courant neutre, n’a encore jamais été observé.

��e e�

�� Z�

��

Une première manifestation de l’existence de ce mécanisme d’unification est apportée par le CERN en 1973 par la chambre à bulles Gargamelle. L’année précédente, un événement historique νμ + e-- —> νμ + e-- a été détecté. Cette réaction ne peut avoir lieu que par l’intermédiaire d’un Z0. Ce cliché est donc la première preuve de l’existence des courants neutres. Comme aucune autre expérience n’observait alors d’événement de ce genre, de nombreuses voix s’élevèrent pour suggérer que l’observation faite par les physiciens de Gargamelle n’était pas un signal mais du bruit de fond imitant la réaction recherchée. Mais après de nombreuses études et l’enregistrement d’autres événements similaires, la découverte des courants neutres est finalement confirmée en 1973.

e� e� En haut : désintégration bêta d’un muon par l’intermédiaire d’un W--. On parle d’un processus de courant chargé. En bas : diffusion νμ e-- par courant neutre, c’est-à-dire par l’intermédiaire d’un Z0.

page 46

Même s’il ne s’agit que d’indices laissés par le boson Z0 et pas d’une preuve directe, l’unification électrofaible ne fait plus de doute. Mais quelle est la masse de ces bosons et comment les détecter directement ? Vers la fin des années 70, en combinant les observations faites sur les courants neutres et les courants chargés dans les interactions de neutrinos, ainsi que des études de taux de production des processus e+e-- —> µ+µ-menées à DESY, le modèle électrofaible permet d’indiquer que la masse du Z0 doit être de l’ordre de 90 GeV/c2 et celle des W± comprise entre 80 GeV/c2 et celle du Z0. Pour prouver l’existence de ces bosons, il faut pouvoir les créer lors de collisions et donc, disposer d’un accélérateur capable d’atteindre les énergies correspondant à ces masses.

ÉLÉMENTAÍRE


À la chasse aux bosons W et Z La collision proton-antiproton favorise la production des W± et des Z0 par rapport au mode proton-proton À haute énergie, la collision entre deux particules composites peut être vue comme celle de leurs constituants fondamentaux, à savoir les quarks, les antiquarks et les gluons. Dans le cas d’un proton en mouvement les quarks emportent la majeure partie de son impulsion alors que les antiquarks et les gluons en emportent peu (voir Élémentaire N° 4). La situation est inversée pour les antiprotons, où ce sont les antiquarks qui jouent un rôle de premier plan. Les bosons W± et Z0 sont issus de la rencontre d’un quark et d’un antiquark : – u d—>W+, u– d —> W- ou u u– —> Z0. Pour faciliter la production des W± et des Z0 on a donc intérêt à utiliser des collisions de quarks (majoritaires dans les protons) contre des anti-quarks (majoritaires dans les antiprotons).

Dans les seventies... Depuis 1976, le CERN s’est doté d’un nouvel accélérateur, le SPS (pour Super Proton Synchroton), pouvant accélérer des protons jusqu’à une énergie de 400 GeV. Des faisceaux en sont alors extraits et envoyés sur des cibles fixes. Dans ce mode de fonctionnement, l’énergie disponible pour les réactions ne dépasse pas 30 GeV... et n’est donc pas suffisante pour permettre la création des particules plus lourdes, comme les W± et les Z0. C’est alors que David Cline, Carlo Rubbia et Peter McIntyre proposent dans une publication historique, la transformation du SPS en collisionneur proton-antiproton dans le but précis de permettre la découverte des fameux bosons. Ils soulignent aussi que la collision proton-antiproton favorise la production des W± et des Z0 par rapport au mode protonproton. Et c’est là le point délicat. Si on sait faire des faisceaux intenses de protons, construire un faisceau d’antiprotons est une toute autre paire de manches. Comment faire ? Les antiprotons sont produits en envoyant des protons extraits du PS (Proton Synchrotron) sur une cible fixe. Des antiprotons sont alors créés, mais le taux de production est extrêmement faible : seulement un par million de protons incidents. Par conséquent, Cline, Rubbia et McIntyre proposent d’accumuler et de stocker les antiprotons le temps nécessaire pour en avoir un nombre suffisant. On doit aussi uniformiser leurs caractéristiques (énergie et direction) pour obtenir un faisceau homogène.

ÉLÉMENTAÍRE

Accumulateur d’Antiprotons Les antiprotons sont produits sous des angles et avec des énergies très variables. Pour pouvoir les utiliser dans un accélérateur, il faut au préalable les capturer et les « refroidir » en réduisant de plusieurs ordres de grandeur les dimensions du faisceau. Ce travail est celui de l’Accumulateur d’Antiprotons (AA), projet achevé en 1980. L’anneau AA met en application le principe du « refroidissement stochastique ». Cette méthode, inventée par Simon van der Meer, rend possible la production et l’utilisation de faisceaux d’antiprotons d’intensité et de densité suffisantes. Le refroidissement stochastique a pour but de diminuer le mouvement aléatoire des antiprotons dans l’anneau de stockage. Après avoir mesuré les propriétés cinématiques des antiprotons à un endroit de l’anneau, on envoie des signaux électroniques au point diamètralement opposé de l’AA. Les impulsions électriques arrivent avant les anti-protons, et donc à temps pour modifier les paramètres des aimants et ainsi modifier la vitesse et la trajectoire des anti-protons. Ainsi, l’accumulateur pouvait « refroidir» et stocker jusqu’ à 1011 antiprotons en un jour. page 47

Cette gageure est relevée grâce à l’Accumulateur d’Antiprotons, un outil novateur conçu et réalisé par Simon van der Meer. Une fois que le nombre d’antiprotons est suffisant et que leurs caractéristiques sont relativement uniformes, on les réinjecte dans le PS où ils sont accélérés jusqu’à une énergie de 26 GeV, avant de les faire circuler dans le SPS où ils atteignent une énergie de 270 GeV. Dans le SPS circulent à chaque instant 3 paquets de protons et 3 paquets d’antiprotons. Ces paquets se croisent en 6 emplacements de la circonférence : en deux d’entre eux, on procède effectivement à des collisions de paquets. C’est là où sont installées les expériences UA1 et UA2. Dans cette configuration et pendant toute la période du fonctionnement des expériences _ UA, le SPS s’appelle SppS (Super proton antiproton Synchrotron).


À la chasse aux bosons W et Z De très gros filets à papillon

Systèmes de déclenchement Pour récupérer l’ensemble des informations issues des appareillages complexes que sont UA1 et UA2, il faut un temps « relativement long » pendant lequel le détecteur reste aveugle aux collisions suivantes. Pour diminuer ce temps mort, on combine les informations issues des sous-détecteurs les plus rapides, de manière à décider la lecture de l’ensemble de l’appareillage seulement si l’événement paraît suffisamment « intéressant », compte tenu de ce que l’on recherche. La plupart des collisions proton-antiproton sont ainsi rejetées. Ce déclenchement sélectif de l’enregistrement est basé sur des calculs rapides effectués par des systèmes électroniques programmables.

Les instruments de la découverte des bosons W± et Z0 répondent aux noms de UA1 et UA2, où les initiales UA signifient Underground Area (zone souterraine). En effet, UA1 et UA2 se trouvent respectivement à 20 et 50 m sous terre, dans deux cavernes spécialement creusées autour de deux points de collision situés le long de l’anneau du SPS. La décision de construire ces détecteurs est signée en 1979, et ils sont prêts à fonctionner en 1981, ce qui constitue un record de vitesse si on tient compte de leur complexité. Concurrents dans la course à la découverte des W± et Z0, ces détecteurs doivent tous les deux être capables, dès le démarrage du collisionneur SPS, de détecter les particules issues des collisions proton-antiproton. Il faut donc qu’ils disposent d’une reconstruction des trajectoires efficace, d’une bonne mesure des dépôts d’énergie et le tout en perdant le moins possible de particules (on dit « avec la plus grande couverture angulaire possible »).

© CERN

Il est important de noter un dernier point : les phénomènes recherchés sont rares. Au cours d’une période de deux mois d’enregistrement de données, on s’attend en effet à quelques événements contenant un boson Z0... alors que quelques milliers de collisions protonantiproton ont lieu par seconde. Afin de rechercher ce papillon dans cette jungle épaisse, les deux collaborations inventent des systèmes de déclenchement qui sélectionnent les événements potentiellement intéressants et les enregistrent sur bande pour les étudier ultérieurement de façon détaillée.

page 48

© CERN

Un des événements enregistrés par le détecteur UA1 lors de la prise de données de la fin 1982. Au sein de cet événement les physiciens ont pu identifier un électron de grande énergie et un neutrino issus de la désintégration d’un boson W-.

Ce détecteur est conçu comme « généraliste », c’est-à-dire sensible à de nombreux types de particules. Le porte-parole de cette collaboration de 130 physiciens n’est autre Le détecteur UA1 lors de ses que Carlo Rubbia, le promoteur acharné du derniers réglages. Sur la face projet de collisionneur proton-antiproton. UA1 visible, on distingue les chambres bat le record du plus gros détecteur jamais à muons. On peut déplacer ce construit à l’époque, avec ses 2000 tonnes et détecteur sur les rails visibles ses dimensions impressionnantes : 10 mètres au premier plan soit en position de garage (pour les travaux de de long pour 6 mètres de large et de haut. maintenance) soit en position Le champ magnétique de 7000 gauss est créé de fonctionnement, c’est-à-dire par un électro-aimant de 800 tonnes à l’intérieur autour du point de collision. duquel sont disposées 6 couches de chambres à fils qui entourent le tube à vide du SPS, telles des poupées russes. Grâce aux 6000 fils de ces chambres, la trajectoire des particules chargées est mesurée avec précision dans un volume cylindrique de 6m de long et de 2,6 m de diamètre. Autour de ce détecteur interne et dans le volume de l’électro-aimant, on trouve un calorimètre électromagnétique qui arrête les électrons et les

© CERN

L’expérience UA1

Cellules du calorimètre électromagnétique de UA1 surnommées « gondoles vénitiennes ».

ÉLÉMENTAÍRE


À la chasse aux bosons W et Z photons tout en mesurant leur énergie. Ce calorimètre est composé d’une superposition de couches de plomb et de scintillateurs usinées en 2 ensembles semi-cylindriques, comportant chacun 25 cellules en forme de gondoles vénitiennes. Le retour de fer de l’électro-aimant est instrumenté et forme le calorimètre hadronique. À l’extérieur on trouve 800 m2 de chambres à muons. Le détecteur UA1 peut ainsi identifier les deux types de leptons (électrons et muons) dont la présence caractérise la production d’un boson W+, W- ou Z0.

L’expérience UA2 Elle est acceptée par le CERN dans la foulée de UA1 pour rechercher les W± et Z0 en se concentrant sur la détection des électrons et des positrons issus de leurs désintégrations. Le détecteur est bien plus compact et plus léger que UA1 - seulement 200 tonnes – et rassemble une cinquantaine de physiciens issus de 6 instituts dont Pierre Darriulat, porte-parole de la collaboration. UA2 ne comporte pas d’aimant dans sa partie centrale mais seulement dans ses parties « bouchons » (les extrémités du détecteur). Il ne peut donc mesurer l’impulsion des particules et distinguer les électrons des positrons que dans les zones avant et arrière. Le détecteur de traces chargées est entouré de 240 modules de calorimétrie électromagnétique et hadronique pointant vers le point de collision proton-antiproton. La segmentation en profondeur des cellules du calorimètre offre la possibilité de distinguer des électrons et positrons par rapport aux hadrons (particules consituées de quarks). En effet, ces deux types de particules déposent leurs énergies de manière différente dans les parties électromagnétique et hadronique du calorimètre. Ainsi, avec sa bonne granularité et son nombre élevé de cellules, la calorimétrie de UA2 contrebalance l’absence de champ magnétique. C’est grâce à elle que la première observation des événements comportant 2 jets de quarks dans un collisionneur hadronique a été réalisée.

Première observation des événements comportant 2 jets de quarks La première prise de données en décembre 1981, connue sous le nom de « jet run », cherche à mettre en évidence des jets de particules hadroniques (constitués de quarks). Si ces jets ont déjà été observés dans les accélérateurs e+e-, leur mise en évidence dans les collisions hadroniques est une première mondiale. L’effort de UA1 se concentre sur la reconstruction des traces énergiques et de leurs distributions angulaires, tout en ignorant le contenu des calorimètres. Au contraire, les physiciens de UA2 affinent leurs analyses des signaux enregistrés par le calorimètre. Cette stratégie s’avère payante. À la conférence internationale de physique des particules qui s’est tenue à Paris durant l’été 1982, UA2 présente un événement spectaculaire comportant deux jets de particules en configuration dos-à-dos, d’une énergie totale de 130 GeV. Les analyses qui suivent montrent un excellent accord avec les prédictions de la Chromodynamique Quantique appliquées à ce type de collisions (voir Élémentaire N°4).

La chasse effrénée de la fin de l’alphabet

ÉLÉMENTAÍRE

page 49

En février 1981, le PS reçoit et accélère les premiers antiprotons. Dès le mois de juillet ces particules sont transférées avec succès vers le SPS et brièvement stockées à une énergie de 270 GeV. Le 10 juillet, Carlo Rubbia annonce que les premières collisions proton-antiproton ont été enregistrées par UA1. Néanmoins les intensités de protons et d’antiprotons sont encore trop modestes pour que l’on puisse espérer voir des bosons W± ou Z0. Au mois de décembre

Événement comportant deux jets dos-àdos d’une énergie totale de 213 GeV. À gauche on voit l’image du calorimètre « déplié » : les tours correspondent au contenu énergétique des cellules (plus elles sont hautes et plus le dépôt d’énergie dans la cellule est important). À droite, une coupe du détecteur dans le plan perpendiculaire au sens des faisceaux indique toutes les traces mesurées dans le détecteur central, dont certaines pointent vers les dépôts calorimétriques. La taille des trapèzes extérieurs est proportionnelle à l’énergie déposée dans les calorimètres.


À la chasse aux bosons W et Z le détecteur UA2, opérationnel, est emmené dans sa zone de fonctionnement et peut lui aussi commencer à enregistrer des collisions. Ce n’est que lors des trois derniers mois de 1982 que quelques millions de collisions susceptibles de révéler les bosons W± et Z0 ont pu être enregistrées, suite à des améliorations de l’accélérateur. Les physiciens se concentrent d’abord sur les bosons W± parce qu’ils ont une plus grande probabilité d’être produits que les Z0. © CERN

Dans les deux expériences on cherche ainsi fiévreusement les W± dans leur mode de désintégration en un électron (ou positron) et un anti-neutrino (ou un neutrino) qui, lui, reste invisible. Le 21 janvier 1983, la collaboration UA1 annonce l’observation de cinq événements caractéristiques des désintégrations des bosons W+ et W-. UA2 confirme la découverte avec l’observation de 4 événements similaires. Au printemps 1983, le nombre d’évènements accumulés est multiplié par dix. Dans le courant du mois de mai, le CERN annonce la découverte du troisième boson intermédiaire, le Z0, sur la base de quelques événements observés comportant un électron et un positron. À la fin de la prise de données de 1983, les expériences UA1 et UA2 ont enregistré environ une douzaine de désintégrations de Z0 et environ une centaine de désintégrations de bosons W±. Les masses des W± et Z0 sont estimées à 80 GeV/c2 et 91 GeV/ c2 respectivement, avec une incertitude de 5 GeV/c2, en bon accord avec les prédictions théoriques. Champagne pour les chasseurs de papillons !

Le détecteur UA2. On distingue dans la partie centrale le calorimètre finement segmenté ainsi que les bouchons aux deux extrémités qui permettent une bonne couverture angulaire.

Carlo Rubbia (gauche) et Simon van der Meer célébrant leur prix Nobel en oc tobre 1984. Ce prix leur a été conjointement décerné avec la formulation suivante : « .. for their decisive contributions to the large project, which led to the discovery of the field particles W and Z, communicators of weak interaction ».

page 50

© CERN

À gauche, le contenu en énergie du calorimètre électromagnétique d’UA2 projeté sur un plan, dans le cas d’un événement W : le pic correspond au dépôt d’énergie de l’électron. À droite, on voit le contenu en énergie du calorimètre électromagnétique de UA1 pour un événement Z0, avec les deux pics de l’électron et du positron (et leurs énergies respectives).

Révéler les W± et les Z0 Les bosons découverts par UA1 et UA2 ont d’abord été recherchés par le biais de leurs désintégrations en leptons, parce que l’image alors laissée dans les détecteurs était relativement simple. Dans le cas de UA1, les détecteurs de type « leptons » identifiaient les électrons (positrons) et les muons (anti-muons), alors que seuls les électrons (positrons) étaient accessibles dans le cas de UA2. La signature de la désintégration d’un W± est alors constituée d’un dépôt d’énergie dans le calorimètre électromagnétique, sans composante hadronique. De plus une trace reconstruite par le détecteur central doit pointer vers ce dépôt. L’électron ainsi identifié simultanément par le calorimètre et le détecteur central s’accompagne d’un anti-neutrino, qui est vu comme de l’« impulsion manquante » (Élémentaire N°5). Cette dernière a une direction opposée à celle de l’électron dans le plan perpendiculaire à l’axe d’arrivée des protons et des antiprotons initiaux : on parle de configuration dos-à-dos. Dans le cas des bosons neutres Z0, des paires électron-positron ou muon-antimuon sont recherchées. Il s’agit donc de trouver des événements contenant un électron et un positron (ou un muon et un antimuon), toujours dans la configuration dos-à-dos. Après la phase de découverte, des analyses plus avancées de UA1 et de UA2 ont permis d’identifier d’autres modes de désintégration des bosons W± et Z0.

ÉLÉMENTAÍRE


À la chasse aux bosons W et Z W, Z... et après ?

ÉLÉMENTAÍRE

page 51

© CERN

La découverte des bosons intermédiaires n’a pas seulement confirmé la justesse de la théorie électrofaible. Elle a aussi rassuré la communauté scientifique sur l’intérêt de construire le gigantesque accélérateur LEP, qui sera mis en service en 1989. Cet accélérateur était une véritable usine à Z0 (environ 20 millions de bosons ont été produits en six ans) puis à W±. Les quatre expériences construites auprès du LEP (ALEPH, DELPHI, L3 et OPAL) ont mesuré avec une précision extrême les propriétés des bosons véhiculant l’interaction électrofaible. De l’autre côté de l’Atlantique, après l’étude du Z0 avec le SLC au SLAC (près de San Francisco) dans les années 90, la chasse aux papillons continue aujourd’hui avec le Tevatron au Fermilab (près de Chicago). Il s’agit à présent de connaître aussi finement que possible les propriétés de ces bosons, dont certaines peuvent nous éclairer sur la masse du mystérieux boson de Higgs...

UA1 et UA2 : de « grosses » collaborations UA1 avec ses cent trente membres et UA2 avec une cinquantaine de collaborateurs, sont les premiers exemples d’expériences rassemblant plus que l’habituelle vingtaine (au maximum) de physiciens, la norme à l’époque. Ceci introduit une nouvelle donne quant à l’organisation du travail. Certains sujets par exemple sont partagés entre plusieurs personnes dont les travaux doivent être coordonnés. Une structuration en groupes apparaît ainsi : chaque groupe rassemble les physiciens qui étudient le même sujet et se voit coiffé d’un responsable. Ce type de petite « société scientifique » est alors une nouveauté qui, combinée avec l’intérêt porté par les découvertes et le prix Nobel immédiat, attire des sociologues, des journalistes et des écrivains qui vont « étudier » ces milieux particuliers de physiciens. Ainsi pendant plusieurs années, des étudiants en thèse de sociologie suivent attentivement les réunions d’analyse notant les attitudes des uns et des autres. En particulier, le journaliste américain Gary Taubes publie le livre titré « A Nobel dream : power, deceit and the ultimate experiment », après avoir arpenté pendant plusieurs mois les couloirs du CERN. Dans ce document, Taubes décrit les différentes étapes de discussion et d’analyse dans UA1, l’interaction de ses physiciens avec ceux de UA2 lors des périodes de compétition ainsi que les traits de caractère (bons ou mauvais) de certains chercheurs. Ce livre est devenu fameux dans la communauté des physiciens à travers le monde, tant les anecdotes rapportées sont intéressantes sur les plans sociologique, scientifique et humain. On y apprend par exemple, que le premier événement W montré par Carlo Rubbia lors des nombreux séminaires à travers le monde, s’est avéré – suite à une analyse avancée - ne pas en être un. Et que le lendemain de la conférence de presse du CERN, le New York Times a fait l’éditorial « Europe 3, US not even a Z0 ». Depuis les expériences UA1 et UA2, les dimensions des collaborations expérimentales n’ont cessé d’augmenter, pour compter aujourd’hui des milliers de personnes (dans ATLAS et CMS). Conférence de presse donnée au CERN le 25 Janvier 1983 pour annoncer la découverte des bosons chargés W+ et W--. De gauche à droite participent : Carlo Rubbia pour UA1, Simon Van der Meer, Herwig Schopper directeur général du CERN, Erwin Gabathuler directeur de la Physique au CERN et Pierre Darriulat pour UA2.


Théorie De la force faible... Il en aura fallu du temps pour parvenir à percer les secrets de cette force quelque peu mystérieuse, responsable de certaines désintégrations nucléaires : l’interaction faible ! Rien d’étonnant à cela en fait, car la construction d’une théorie satisfaisante a nécessité la combinaison subtile de nombreuses idées théoriques et observations expérimentales. La recette ? À base de symétrie, un concept puissant qui a guidé de façon essentielle l’imagination des physiciennes et physiciens, elle s’inspire fortement du formalisme conçu pour décrire les interactions électromagnétiques : l’électrodynamique quantique. La touche finale est apportée par le subtil concept de brisure spontanée de symétrie, véritable clé de voûte de cet édifice théorique qu’est le Modèle Standard. Au bout de ce chemin, qui fut parfois tortueux, les scientifiques aboutirent à une conclusion inattendue : les processus électromagnétiques et faibles ne sont que deux facettes d’une seule interaction plus fondamentale, l’interaction « électrofaible ».

Emmy Noether (1882, Erlangen, Allemagne 1935, Pennsylvanie, ÉtatsUnis) est la fille du mathématicien Max Noether. Elle suit des études de langues, puis de mathématiques à Erlangen et à Göttingen, en tant qu’auditrice libre (les femmes ne pouvaient s’inscrire comme étudiantes à l’Université). Cela ne l’empêche pas de soutenir une thèse en mathématiques en 1908, avec les félicitations du jury. Grâce à l’appui du mathématicien David Hilbert, Emmy Noether enseigne à Göttingen de façon officieuse, car seuls les hommes peuvent alors enseigner comme professeurs d’Université en Prusse. En 1919, une dérogation lui est accordée pour l’enseignement et elle est nommée professeur sans chaire en avril 1922. Les nazis lui retirent son enseignement en 1933, et elle se réfugie aux États-Unis, où elle donne des cours à l’université de Princeton. Elle décèdera deux ans plus tard des suites d’une opération. En 1918, elle démontre un théorème capital, qui porte son nom, selon lequel à toute symétrie des lois de la physique est associée une loi de conservation. Autrement dit, à chaque transformation mathématique qui laisse les équations invariantes correspond une quantité conservée (constante) au cours du temps. Si le théorème de Noether est son résultat le plus connu, elle a aussi participé à l’édification de l’algèbre moderne, notamment en ce qui concerne les notions mathématiques d’anneaux et d’idéaux.

Les lois de conservation, boussoles du physicien Depuis Galilée, l’étude des lois physiques a permis de mettre en évidence de nombreuses quantités qui se conservent lors de l’évolution d’un système – on parle de principes de conservation. Ce fut d’abord le cas en mécanique : ainsi, si un système est isolé, sans interaction avec l’extérieur, la somme des quantités de mouvement des parties qui le constituent reste constante, quelles que soient les interactions qui se produisent entre elles. Puis, au XIXe siècle, le développement des théories de la chaleur et de la thermodynamique a incité les savants à généraliser cette idée : tout système physique, et non seulement mécanique, obéit à des lois de conservation, comme celle de l’énergie.

page 52

Au cours du XXe siècle, les physiciens comprennent, notamment grâce au théorème de Noether, que la plupart de ces lois de conservation sont des conséquences de certaines symétries des lois de la physique, c’està-dire du fait que ces lois restent invariantes (inchangées) sous l’effet de transformations spécifiques. Ainsi, la conservation de la quantité de mouvement est due à l’invariance des équations de la physique par translation des coordonnées d’espace : la physique est la même à Paris et à Stanford. De même, le fait qu’elle fût, soit et sera la même hier, aujourd’hui et demain, c’est-à-dire que les lois physiques soient invariantes par translation dans le temps, a pour conséquence la conservation de l’énergie. La notion de symétrie, déjà utilisée depuis longtemps en physique et en mathématiques, en particulier pour simplifier la résolution de certaines équations, se révèle être un concept profond aux conséquences multiples. En particulier, elle s’avère un outil puissant pour la construction de théories physiques. En effet, si les lois de conservations observées expérimentalement doivent être satisfaites, la théorie correspondante doit

ÉLÉMENTAÍRE


...à l’interaction électrofaible respecter certaines symétries, ce qui restreint, parfois considérablement, les théories possibles.

L’électrodynamique exemple à suivre...

quantique

:

un Excellent accord Le moment magnétique anormal du muon illustre l’excellent accord entre calculs théoriques en électrodynamique quantique (QED) et résultats expérimentaux. La relation entre le moment magnétique intrinsèque du muon et son spin est caractérisée par le facteur de Landé, noté g. Lors des premiers développements de sa mécanique quantique relativiste, Dirac avait montré que g = 2 à une bonne approximation, en bon accord avec la valeur mesurée à l’époque. Actuellement les mesures les plus précises donnent :

À la fin du XIXe siècle, J. C. Maxwell et H. A. Lorentz proposent une description unifiée de tous les phénomènes électriques et magnétiques à l’aide d’une entité appelée « champ électromagnétique », solution de certaines équations dites de Maxwell-Lorentz. Il apparaît que ce champ peut lui-même être représenté à l’aide de fonctions abstraites, appelées « potentiels ». Or la structure des équations est telle que cette physique, uniquement déterminée par le champ électromagnétique, reste inchangée sous l’effet d’une transformation spécifique de ces potentiels, appelée transformation de « jauge » car elle consiste à modifier leur étalon absolu, ou jauge. De plus, et c’est là une particularité importante, on peut modifier la jauge de façon différente en chaque point d’espace et de temps sans changer la physique : on parle alors de symétrie « locale ».

gmes = 2,0023318416 ± 0,0000000010.

Ce type de symétries dépasse le cadre du théorème de Noether, qui ne s’applique qu’aux symétries relatives à des transformations « globales », identiques en tout point d’espace-temps. Si l’invariance de jauge des équations de Maxwell-Lorentz implique automatiquement la conservation de la charge électrique, les choses vont bien plus loin avec une symétrie locale. Par exemple, celle-ci a pour conséquence le fait que les interactions électromagnétiques sont de portée infinie.

La déviation par rapport à la valeur g = 2 (appelée moment magnétique anormal), provient majoritairement des corrections de l’électrodynamique quantique, comme l’échange de photons virtuels, négligées dans le calcul de Dirac. En 1948, Schwinger calcule la contribution due à l’échange d’un photon et obtient pour la valeur théorique g th = 2,002322 démontrant ainsi que les quatre premières décimales après la virgule sont effectivement de purs effets quantiques et sont complètement prévus par la QED. Depuis, les corrections dues à l’échange de 2, 3 et jusqu’à 4 photons ont été calculées. Ce n’est pas une mince affaire, car la difficulté du calcul augmente très rapidement avec le nombre de photons échangés. On connaît à présent la valeur théorique jusqu’à 10 chiffres significatifs :

Lorsqu’on généralise cette théorie dans le cadre de la mécanique quantique, ceci se traduit par le fait que le boson médiateur de l’interaction entre les particules chargées, le photon, est de masse nulle. Mais dans le monde quantique, les conséquences de la symétrie de jauge de l’électrodynamique sont encore plus inattendues. Prenons l’exemple de l’interaction entre deux particules chargées, qui peut être vue comme résultant de l’échange d’un, deux, trois... une multitude de photons (voir Élémentaire N°4). Lorsqu’on essaie de calculer la probabilité d’un tel processus, l’échange d’un unique photon semble donner la bonne réponse avec une très bonne précision. Cependant, les contributions venant de l’échange de deux photons et plus donnent des résultats infinis ! L’électrodynamique quantique serait-elle une théorie mathématiquement absurde ?!?

ÉLÉMENTAÍRE

Les prédictions théoriques ne sont en désaccord avec les mesures expérimentales que sur les trois derniers chiffres, là où interviennent d’autres effets, dus aux interactions forte et faible. Un accord d’une précision tout à fait remarquable !

page 53

Il faudra attendre quelques décennies pour voir ce problème résolu. À la fin des années 40, R. P. Feynman, J. Schwinger et S.-I. Tomonaga (tous trois prix Nobel de physique en 1965) élaborent la théorie de la renormalisation, un ensemble de méthodes permettant d’éliminer les infinis mentionnés ci-dessus de manière cohérente et de donner un sens mathématique à la théorie. Le bien fondé de cette procédure, surprenante au premier abord, est confirmé par un excellent accord avec les mesures expérimentales, extrêmement précises, de différents processus électromagnétiques.

g th = 2,0023318362 ± 0,0000000030.


De la force faible...

DR

Et la symétrie de jauge dans tout ça ? Elle joue un rôle crucial dans la procédure de renormalisation, en particulier en interdisant l’apparition de certains infinis intempestifs. L’électrodynamique quantique (QED) devient la première théorie relativiste quantique mathématiquement cohérente. Elle est le prototype d’une classe de théories aujourd’hui appelées « théories de jauge ».

Faible, mais pas commode

Chen-Ning Yang (prix Nobel de physique avec Tsung-Dao Lee en 1957 pour leurs travaux sur la violation de la symétrie de parité par l’interaction faible) et David Mills.

Dans les années 1950, C. N. Yang et D. Mills tentent de reprendre l’idée de symétrie locale pour décrire l’interaction nucléaire forte. Cette dernière est insensible à la charge électrique de la particule sur laquelle elle agit. Par exemple elle ne fait pas de différence entre un proton et un neutron. Ceci est la manifestation d’une symétrie sous-jacente, appelée « symétrie d’isospin » : les équations doivent rester invariantes si on remplace partout les neutrons par des protons et vice-versa. L’idée de Yang et Mills est de construire une théorie dans laquelle cette symétrie serait locale – les équations seraient invariantes si on échange protons et neutrons de manière différente en différents points d’espace-temps – avec l’espoir d’en retirer autant de bénéfices qu’en QED. Mais la tâche n’est pas aisée, en particulier parce que la symétrie invoquée est de nature profondément différente de celle à l’œuvre en QED. Dans le cas de l’interaction forte, on a affaire à des transformations « non-abéliennes », ce qui signifie que l’effet combiné de deux transformations successives dépend de l’ordre dans lequel elles sont appliquées. Mais Yang et Mills franchissent cette barrière et réussissent à construire la théorie. Malheureusement, ils butent rapidement sur des obstacles qu’ils ne savent pas contourner. En fait, la théorie de Yang et Mills se révélera très féconde pour la physique des particules, mais pour l’heure, elle est tout à fait prématurée pour l’interaction forte : il lui manque en particulier le concept de « couleur », indispensable pour décrire de façon satisfaisante cette interaction (voir Élémentaire N°4). Niels Henrik Abel (1802 - 1829) est un mathématicien norvégien connu pour ses travaux sur la convergence de suites et de séries, sur la notion d’intégrale elliptique et sur la résolution d’équations. Abel montre au lycée un goût pour les mathématiques, et il démontre en 1923 qu’une équation quelconque de degré cinq n’est pas résoluble à partir de combinaisons de racines des coefficients. Ces travaux suffisent à convaincre les responsables de l’université de financer un séjour d’Abel à Paris. Il s’y rend en 1826, mais sur place, il ne parvient pas à entrer en contact avec les mathématiciens dont il a lu les livres, Legendre, Poisson et Cauchy. Pour se faire reconnaître, Abel dépose auprès de l’Académie des sciences un mémoire consacré aux intégrales elliptiques. Le rapporteur désigné, Cauchy, impressionné par la longueur du mémoire et la technicité du contenu, en remet la lecture à plus tard. Lassé et à court d’argent, Abel quitte finalement Paris en décembre 1826. De retour à Christiana (Oslo), il ne peut obtenir de poste à l’Université, et doit accepter un travail de répétiteur dans une académie militaire. Quelques mois après, il contracte la tuberculose. Ses travaux commencent à être reconnus par la communauté mathématicienne, y compris à Paris. Mais à la fin de 1828, son état de santé se dégrade rapidement et il meurt le 6 avril 1829.

page 54

DR

Transformations abéliennes et nonabéliennes La symétrie de jauge de l’électrodynamique quantique met en jeu des transformations dites abéliennes, du nom du mathématicien norvégien Niels Henrik Abel : l’effet combiné de plusieurs transformations successives est indépendant de l’ordre dans lequel on les effectue. C’est le cas par exemple des translations : faire d’abord un pas à gauche et ensuite un pas à droite ou l’inverse revient au même. En revanche, les transformations de la théorie de Yang et Mills sont dites non-abéliennes : l’effet de deux transformations quelconques dépend de l’ordre dans lequel elles sont appliquées. Un exemple de telles transformations est donné par les rotations dans l’espace à trois dimensions. Ainsi une rotation de 90 degrés autour de l’axe x, suivie d’une rotation de 90 autour de l’axe y, ne donne pas le même résultat qu’une rotation autour de l’axe y suivie d’une rotation autour de l’axe x.

ÉLÉMENTAÍRE


...à l’interaction électrofaible © S. Descotes-Genon

C’est à propos de l’interaction faible que la théorie de Yang et Mills va ressurgir... Les physiciens avaient étudié cette interaction très en détail à travers la désintégration bêta des noyaux atomiques. Par exemple, au niveau des nucléons, le processus bêta élémentaire est la désintégration d’un neutron en proton avec émission d’un électron et d’un antineutrino électronique.

La désintégration bêta du muon selon deux points de vue : la théorie de Fermi, valable à basse énergie, décrit ce processus comme une interaction ponctuelle entre quatre particules, tandis que la théorie électrofaible fait appel à un boson véhiculant l’interaction faible. Aux énergies mises en jeu dans ce processus (la masse du muon), le boson W, 800 fois plus lourd que le muon, ne se propage quasiment pas avant de se désintégrer, de sorte que les trois particules finales semblent provenir exactement du même point.

Au début des années 30, Enrico Fermi propose une théorie pour ce processus qu’il suppose ponctuel : tout se passe comme si les trois particules finales apparaissent au même point et au même instant lors de la désintégration du neutron. Cette même théorie prévoit la possibilité d’autres processus comme, par exemple, la fusion d’un neutrino électronique avec un neutron, pour donner un proton et un électron. Mais lorsqu’on calcule la probabilité que cette réaction se produise quand l’énergie du neutrino augmente au-delà d’une certaine énergie, on atteint des niveaux de probabilité... supérieurs à 100%. Impossible, ce qui signifie que la théorie est incomplète et que quelque chose d’autre doit se passer à cette échelle ! Dans les années 50, les physiciens théoriciens Julian Schwinger, Tsung-Dao Lee et Chen Ning Yang commencent à bâtir des théories où cette interaction ponctuelle n’est en fait qu’une approximation, valable à basse énergie, d’une théorie plus fondamentale, où, par analogie avec l’électrodynamique quantique, l’interaction est due à l’échange de bosons médiateurs, baptisés W pour « weak » (faible). Si on prend l’exemple de la désintégration bêta du muon, celui-ci se désintégrerait d’abord en un neutrino muonique tout en émettant un boson W, lequel se désintégrerait rapidement en un électron et un antineutrino électronique. Si la masse du boson médiateur est suffisamment élevée, tout se passe effectivement comme si l’interaction est ponctuelle.

La masse du boson médiateur Si on suppose que l’interaction ponctuelle de la théorie de Fermi est une approximation de basse énergie d’une interaction causée par un boson médiateur, on peut relier les paramètres de ces deux descriptions. On montre en particulier que la constante de Fermi GF, qui caractérise l’intensité des processus faibles à basse énergie, est inversement proportionnelle au carré de la masse du boson médiateur. La constante de Fermi peut être évaluée en mesurant les temps de vie de différentes particules subissant la désintégration bêta, comme le muon. On en déduit que la masse du boson médiateur de l’interaction faible doit être de l’ordre de 80 GeV/c2.

ÉLÉMENTAÍRE

page 55

Pourtant, les physiciens n’arrivent pas à obtenir une théorie satisfaisante. Tout d’abord, le problème des probabilités plus grandes que 100% n’est que repoussé à plus haute énergie. Mais la situation est encore plus grave... De même qu’en QED, si l’interaction élémentaire est véhiculée par un boson médiateur, il faut considérer les corrections (quantiques) dues à l’échange de plusieurs de ces mêmes bosons. Que se passe-t-il alors ? Eh bien les calculs deviennent absurdes, et donnent des réponses infinies. Même les meilleures recettes de QED sont inefficaces et aboutissent à des résultats inexploitables. Quelles différences entre les deux situations ? La masse et la symétrie : le photon est sans masse, ce qui, comme nous l’avons vu plus haut, est lié à l’existence de la symétrie de jauge de l’électrodynamique. Le boson de l’interaction faible est massif et ne bénéficie pas de la protection de symétries du type de celle de l’électrodynamique quantique contre l’apparition d’infinis mathématiques. On dit que cette théorie est « non-renormalisable ». Pour résoudre ce problème, les théoriciens s’inspirent du succès de QED et tentent d’incorporer l’interaction faible dans le cadre d’une symétrie de jauge.


De la force faible... 3, 2, 3, 4, 3... Combien de forces voyez-vous ? Dès 1956, Schwinger est convaincu qu’il faut exploiter les progrès de Yang et Mills pour se débarrasser des infinis retors qui affectent les calculs liés à l’interaction faible... en incluant dans un seul cadre théorique les interactions faible et électromagnétique. Son étudiant d’alors, Sheldon Glashow, « accepte cette croyance », selon ses propres mots, et se met au travail pour adapter la théorie de Yang et Mills au cas « électrofaible ». Dans un premier temps, il considère la même symétrie que celle étudiée par ces derniers. Cette théorie contient deux bosons chargés W+ et W-- responsables de l’interaction faible, ainsi qu’un boson neutre : le photon. Cependant, si elle est à peu près satisfaisante sur le plan mathématique, elle aboutit à une interaction électromagnétique qui ne respecte pas la symétrie de parité... en contradiction flagrante avec l’expérience.

Parité La symétrie de parité consiste à prendre l’opposé des trois coordonnées d’espace (x → -x, y → -y, z → -z) par rapport à un point arbitraire : on peut la voir comme une combinaison de symétries « miroir ». Les interactions électromagnétique et forte respectent cette symétrie : un processus a la même probabilité de se produire que le processus « miroir ». En revanche, l’interaction faible ne respecte pas cette symétrie : certaines désintégrations régies par la force faible sont observées dans la nature, alors que les processus « miroirs » correspondants ne le sont pas.

Peter Higgs qui a donné son nom au fameux boson.

page 56

© Peter Tuffy, Edinburgh University

En 1959, Abdus Salam et John Clive Ward essaient eux aussi de bâtir une telle théorie, sans plus de succès. Ils décident alors de choisir d’autres symétries afin de résoudre le problème. En 1960, ils optent pour une combinaison de la symétrie considérée par Yang et Mills (appelée « SU(2) ») et d’une symétrie semblable à celle de l’électrodynamique (nommée « U(1) »). Au même moment, Glashow considère indépendamment une théorie semblable... pour en tirer des conclusions similaires : outre le photon responsable de l’électromagnétisme, on y trouve 3 particules véhiculant l’interaction faible, les bosons chargés W+ et W-- et un boson neutre, le Z0. Leurs interactions avec la matière sont régies par la symétrie de jauge répondant au doux nom de « SU(2) x U(1) » (prononcer « SU deux croix U un »). Dans cette théorie, les interactions électromagnétiques respectent bien la symétrie de parité et l’on prévoit l’existence d’un nouveau type d’interaction faible, différent de celui responsable de la désintégration bêta, véhiculé par le boson Z0 : on l’appelle l’interaction par courant neutre (voir « Découvertes »). Les physiciens ont donc réussi à regrouper interactions faible et électromagnétique dans le cadre d’une théorie de jauge, ce qui devrait permettre d’éliminer les infinis par la procédure de renormalisation et donc de construire une théorie mathématiquement cohérente. Oui, mais voilà : tout comme en électrodynamique, la symétrie de jauge de cette théorie interdit que les bosons médiateurs soient massifs ! Si cela n’est évidemment pas un problème pour le photon, la faible portée des interactions faibles implique que les bosons W± et Z0 doivent être très lourds. La symétrie postulée par les théoriciens ne semble pas réalisée dans la Nature. En fait, la situation est encore plus grave car la symétrie implique qu’aucune des particules de matière interagissant avec les bosons médiateurs faibles et électromagnétique ne peut avoir de masse. Ce devrait donc être le cas de toutes les particules élémentaires connues actuellement (quarks, leptons, etc.), ce qui est manifestement faux ! Comment faire ? Prenons un problème après l’autre. Imposer « directement » dans les équations de l’interaction électrofaible que les bosons W et Z soient massifs brise de façon manifeste la symétrie de jauge (on parle de « brisure

ÉLÉMENTAÍRE


...à l’interaction électrofaible explicite de la symétrie ») et on revient à la case départ : la symétrie qui devait éviter l’apparition de résultats infinis est réduite en bouillie ! Il faut donc agir de façon plus subtile, en conservant la symétrie des équations... Au début des années 60, de nombreux théoriciens, dont Peter Higgs, réalisent progressivement qu’il est en fait possible de générer une masse pour les bosons faibles en brisant la symétrie selon un mode bien spécifique, dit de brisure spontanée. Ceci signifie, en substance, qu’il est possible que les interactions – et donc les équations – respectent la symétrie, mais que la solution des équations la brise. Bizarre ? Pas tant que ça : prenons l’exemple du jeu de pile ou face. La probabilité que la pièce tombe sur l’une ou l’autre de ses faces est la même, ce qui traduit le fait que les équations régissant sa chute sont symétriques. Cependant, pour un lancer donné, la pièce tombe soit sur pile, soit sur face, brisant ainsi la symétrie. Quel rapport avec notre problème ? Dans le cas de la brisure spontanée d’une symétrie de jauge (locale), les bosons médiateurs de l’interaction acquièrent spontanément une masse ! C’est le « mécanisme de Higgs ». Mais attention ! Si on sait maintenant comment donner une masse aux bosons médiateurs sans briser la symétrie des équations, ne va-t-on pas se retrouver avec un photon massif ?!?

Dans les années 60, Steven Weinberg essaie de comprendre ce que le mécanisme de Higgs pourrait apporter à la description des interactions fortes à basse énergie. Il cherche en particulier à expliquer les masses des mésons les plus légers, appelés π, ρ et a1. Malheureusement, son modèle aboutit à des résultats peu probants : si le méson a1 est bien massif, le ρ reste sans masse, et le π manque tout simplement à l’appel, en complète contradiction avec les résultats expérimentaux ! En 1967, alors qu’il prend le volant pour aller à son bureau du MIT, Weinberg réalise soudain que si son modèle n’est certainement pas très convaincant pour les interactions fortes, il semble très bien adapté à la description des interactions faibles : un boson sans masse (comme son pauvre ρ, qu’il suffit de rebaptiser photon), et des bosons massifs (comme le méson a1 dans son modèle, à identifier avec les bosons faibles). Weinberg développe sa théorie au même moment que Salam, mais indépendamment, ce qui montre à quel point les idées théoriques étaient mûres pour qu’une telle description des interactions faibles voie le jour. Par la suite, Martinus J. G. Veltman et Geraldus ‘t Hooft démontreront rigoureusement ce que Weinberg, Salam et leur prédécesseurs avaient seulement

ÉLÉMENTAÍRE

page 57

Des masses, des masses, encore des masses...

Brisure spontanée de symétrie Un exemple de brisure spontanée de symétrie est fourni par certains matériaux qui deviennent aimantés à basse température. Un modèle très simple de ces corps dits ferromagnétiques consiste en un ensemble d’atomes, disposés de manière régulière et possédant chacun un moment magnétique (un petit aimant orientable). Tout comme deux aimants placés à proximité l’un de l’autre, deux moments magnétiques voisins ont tendance à s’orienter dans la même direction. Cette interaction dépend de l’orientation relative des deux aimants, mais elle est de même intensité si on change simultanément leurs directions : les interactions ne privilégient donc aucune direction particulière dans l’espace. En termes plus savants, on parle d’invariance de l’interaction par rapport aux rotations. Si on chauffe maintenant ce système, l’énergie thermique fournie peut être utilisée par les aimants individuels pour changer leur orientation de façon aléatoire : c’est «l’agitation thermique». À haute température, celle-ci contrebalance aisément la tendance des moments magnétiques à s’aligner. Ils sont orientés en tout sens, et aucune direction n’est privilégiée. En revanche, à basse température (en dessous d’une température dite de Curie), un comportement intéressant apparaît. La grégarité naturelle des moments magnétiques l’emporte, de sorte que tous les moments sont orientés en moyenne dans une même direction. Cette aimantation spontanée du matériau définit une direction privilégiée dans l’espace, alors que les interactions ne privilégient aucune direction particulière. Autrement dit, bien que les équations soient invariantes par rotation, l’état physique du système ne l’est pas. Une situation intéressante, appelée brisure spontanée de symétrie.


conjecturé : non seulement les théories de jauge non-abéliennes sont bel et bien renormalisables, c’est-à-dire qu’il est possible d’éliminer les infinis de manière cohérente, mais cette propriété reste vraie si la symétrie de jauge est brisée de manière spontanée. C’est l’acte de naissance de la théorie électrofaible ! Comment brise-t-on spontanément une symétrie de jauge en pratique ? Une manière simple consiste à « inventer » une nouvelle particule, le boson de Higgs, dont les interactions avec les bosons de jauge sont choisies de manière appropriée. Et il y a mieux : si un tel boson existe, il doit a priori interagir avec les autres particules de matière. Pour ne pas écrouler notre château de cartes, il faut que les interactions préservent la symétrie des équations. Et là, après tous ces efforts laborieux pour construire une théorie cohérente, enfin un cadeau : de même que pour les bosons de jauge, toutes les particules qui interagissent avec le boson de Higgs acquièrent une masse non nulle quand la symétrie est spontanément brisée. On a le beurre et l’argent du beurre ! Sheldon Glashow, Steven Weinberg et Abdus Salam, prix Nobel de physique en 1979 pour leur travaux sur la théorie électrofaible.

La symétrie de jauge de cette théorie contraint fortement les masses des W+, W- et Z0 et leurs différentes interactions avec les particules de matière que sont les quarks et les leptons. Toutes les propriétés de ces particules s’expliquent en termes d’un nombre limité de paramètres. Cette avancée remarquable valut à Glashow, Salam et Weinberg le prix Nobel de Physique en 1979, et l’on donna le nom de « théorie GSW » à cette description unifiée des deux interactions.

Higgs et le Higgs

Épilogue : « z’avez pas vu un boson ? »

Les physiciens ont pris l’habitude de parler du mécanisme de Higgs et du boson de Higgs. De nombreux chercheurs ont en fait contribué à formaliser ces idées. Suivant les pays et les occasions, on associe Higgs aux physiciens belges Brout et Englert, ou encore au britannique Kibble. Mais quand le souffle vient à manquer, on se contente d’évoquer « le Higgs » pour parler du fameux boson.

page 58

Robert Brout et François Englert, récompensés, avec Peter Higgs, pour leurs contributions en physique des particules par le grand prix de la Société Européenne de Physique en 1997 et par le prix international Wolf en 2004.

Il est fascinant qu’à ce jour, aucune expérience ne soit venue contredire de façon directe les prédictions de la théorie GSW, depuis la découverte des courants neutres (voir « Centre ») jusqu’aux mesures de précision effectuées au CERN (voir « Expérience »). En fait, le boson de Higgs est la seule pièce manquante. S’il a échappé à toute détection directe jusqu’à présent, c’est, pense-t-on, parce que sa masse est relativement élevée. Cependant, les physiciens ont appris à connaître le mystérieux boson à travers ses interactions avec les autres particules et ils ont de bonnes raisons de penser que, s’il existe vraiment, il ne pourra échapper aux filets tendus au LHC. Cependant, il convient de remarquer que la véritable clé de voûte de la théorie électrofaible n’est pas tant le boson de Higgs que le phénomène même de brisure spontanée de la symétrie de jauge. En effet, l’accord remarquable entre la théorie et l’expérience montre que les interactions électrofaibles ont bien la structure prévue par la symétrie SU(2) x U(1) et que le mécanisme de génération de masse des bosons médiateurs est bien le phénomène de brisure spontanée. Mais, si postuler l’existence du boson de Higgs est la manière la plus simple de réaliser ce phénomène, il en existe bien d’autres. De nombreux modèles alternatifs, avec plusieurs bosons de Higgs... ou pas de boson de Higgs du tout, existent, et essaient de rendre compte des mêmes résultats que le Modèle Standard. Tout dépendra des résultats des expériences ATLAS et CMS au CERN, qui devraient nous aider à voir plus clair en ce qui concerne le mécanisme de génération des masses de toutes les particules élémentaires.

ÉLÉMENTAÍRE


Le LHC Le LHC : un accélérateur sans égal La longue marche du LHC

Il aura donc fallu beaucoup de temps pour réaliser cette machine... mais c’est à la mesure de sa complexité. Et c’est aussi cette complexité, ainsi que les coûts de conception et de construction, qui expliquent que le LHC soit un projet international sans concurrent. En effet, tous les pays engagés dans la recherche en physique des hautes énergies sont impliqués dans la construction de cette machine et/ou des expériences associées.

© CERN

Le LHC sera en 2008 l’accélérateur en fonctionnement le plus puissant au monde. Pour aboutir à une telle machine, les physiciens ont dû suivre un parcours long et compliqué. Il n’est donc guère étonnant que l’histoire du LHC, commencée en 1984, soit déjà ancienne et jalonnée de nombreuses dates clés, dont certaines marquent des prouesses techniques à elles seules remarquables.

Représentation schématique des trajectoires des deux faisceaux de protons, avec les quatre points de collision.

ÉLÉMENTAÍRE

page 59

Dates clés du LHC 1984 : Le projet LHC est officiellement lancé lors d’un symposium organisé à Lausanne. À cette date, le - tournait à plein régime au CERN, où on venait de fêter le prix Nobel collisionneur proton-antiproton SppS décerné suite à la découverte des bosons W+, W- et Z0. Le creusement du tunnel de 27 km de circonférence pour le LEP (collisionneur électron-positron) allait commencer. 1992 : Lors d’une réunion se tenant à Évian, des groupes de physiciens rédigent des textes appelés « expressions d’intérêt » décrivant des concepts d’expériences envisageables au LHC. La même année, on commence à construire des prototypes de parties de l’accélérateur, afin de tester si les différentes propositions sont techniquement réalisables. 1994 : Lors de sa réunion de décembre, le Conseil du CERN approuve la construction du LHC. 1995 : Un document décrivant la conception de la machine est publié. Le Japon prend le statut d’état observateur au CERN et annonce une contribution financière au LHC. 1996 : Des pays non-membres (Inde, Russie, Canada et États-Unis) décident de participer à la construction du LHC. Les expériences ATLAS et CMS sont approuvées, avec pour objectifs principaux de rechercher le boson de Higgs mais aussi des indications d’une physique au-delà du Modèle Standard. 1997 : Le projet de l’expérience ALICE est accepté, afin d’étudier des collisions d’ions lourds à haute énergie. Le Sénat américain vote l’arrêt du financement du projet concurrent SSC (Super Collisionneur Supraconducteur), de sorte que les États-Unis rejoignent définitivement le projet européen. 1998 : Les travaux d’excavation de la caverne destinée à recevoir le détecteur ATLAS commencent. Un aimant dipolaire prototype fonctionne pour la première fois au champ nominal de 8 teslas. L’expérience LHCb, destinée à étudier les différences de comportement entre particules et antiparticules contenant un quark b, est approuvée. 2000 : La première des 420 sections droites de l’accélérateur est testée avec succès. 2001 : Le LEP, prédécesseur du LHC (voir « Expérience »), est arrêté et progressivement démonté. Le premier tunnel qui conduira les faisceaux du SPS dans le LHC est achevé. De 2002 à 2006 : Un ballet continu de convois exceptionnels de camions livre au CERN des pièces du LHC en provenance du monde entier. 2004 : Début de l’installation des détecteurs. 2007 : Le dernier aimant dipolaire supraconducteur du LHC descend sous terre. Au CERN on peut rencontrer un endroit plus froid que le vide sidéral : le secteur 7-8 du LHC, correspondant au huitième de l’accélérateur et long de 3,3 km, est refroidi à 1,9 K (-271,3 °C). Quelques semaines plus tard un courant électrique de 12 000 A le parcourt. 2008 : Tout l’accélérateur est refroidi. Les zones expérimentales et les sas d’accès aux cavernes seront fermés avant que le LHC ne commence à fonctionner.


Le LHC : un accélérateur sans égal Le Tevatron est un accélérateur fonctionnant actuellement à Fermilab auprès de Chicago. Un faisceau de protons d’une énergie de 1TeV entre en collision avec un faisceau d’anti-protons de même énergie, les deux faisceaux circulant en sens inverse dans un tunnel de 6,3 km. Deux détecteurs sont placés aux points de collision des faisceaux, DØ et CDF.

La réalisation du LHC est particulièrement délicate en raison des objectifs très ambitieux qu’il doit remplir. Dans l’anneau du LHC, deux faisceaux de protons tournent en sens opposé, chacun dans un tuyau de cuivre, où règne un vide très poussé. Leurs trajectoires se croisent en quatre points de collisions où se situent les expériences. À ces croisements, les faisceaux échangent leurs trajectoires : le faisceau interne passe à l’extérieur et vice-versa... jusqu’au point suivant de collision. Ainsi, les longueurs de trajectoires sont globalement égales pour les protons des deux faisceaux. Les physiciens veulent procéder à des collisions entre des protons ayant chacun une énergie de 7 TeV. En tenant compte du fait que les quarks et gluons, constituants des protons, ne possèdent qu’une fraction de cette énergie, celle disponible pour produire de nouvelles particules sera de l’ordre du TeV, c’est-à-dire 10 fois supérieure à celle du LEP ou du Tevatron, fonctionnant actuellement près de Chicago. Pour garantir un grand nombre de collisions frontales de protons, il faut une luminosité forte. Celle du LHC atteindra à plein régime de fonctionnement une valeur de 1034 cm-2 s-1 grâce à la circulation dans chaque anneau de 2 808 paquets contenant chacun 1011 protons. Pour maintenir des protons animés d’une telle énergie sur des trajectoires stables à l’intérieur des anneaux, il faut appliquer un champ magnétique très puissant de 8,3 teslas (deux fois supérieur au champ actuellement utilisé au Tevatron). Pour atteindre un tel champ, on a construit environ 9000 aimants dont les bobinages sont faits d’un matériau supraconducteur qui nécessite un refroidissement permanent pour conserver ses qualités.

Les rondeurs du LHC La machine n’est pas parfaitement circulaire. Elle est composée de huit sections en forme d’arc et de huit autres sections droites. Chaque arc contient une trentaine d’unités magnétiques, qui sont les cellules du LHC, chacune comportant une succession d’aimants de types différents: • des dipôles et des quadrupôles qui maintiennent sur des trajectoires stables les protons ayant l’énergie souhaitée, • des sextupôles qui corrigent les trajectoires des protons dont l’énergie est légèrement différente de celle désirée, • d’autres multipôles, placés en bout des dipôles, qui compensent les imperfections du champ magnétique.

Cette cellule est l’unité du LHC. Longue de 110 m, elle comprend une série d’aimants de types différents. QF (QD) signifie quadrupôle focalisant (défocalisant).

Au total, le LHC contient près de 9 000 aimants de différents types. Mais ce n’est pas tout ! Car ces structures cohabitent avec d’autres systèmes dans le tunnel : page 60

© CERN

La luminosité caractérise les performances d’un collisionneur. Le nombre de collisions entre les faisceaux est proportionnel à la luminosité de la machine. Elle est d’autant plus élevée qu’il y a de particules dans les faisceaux et que leur taille transverse au point de collision est faible. Les réactions entre particules sont caractérisées par une quantité appelée section efficace. Le nombre d’événements produits par seconde pour un processus donné est égal au produit de sa section efficace par la luminosité de la machine. La probabilité d’interaction lors du croisement des 2 particules élémentaires d’énergie E varie comme 1/E2. Ainsi, lorsqu’on augmente l’énergie d’un faisceau, il faut lutter contre la diminution de la probabilité d’interaction, afin de conserver un nombre important de collisions intéressantes. Pour cela, on augmente la luminosité en faisant circuler dans l’accélérateur un grand nombre de paquets contenant chacun beaucoup de protons et qu’on focalise fortement aux points de collision.

ÉLÉMENTAÍRE


Le LHC : un accélérateur sans égal 1) Des circuits cryogéniques, nécessaires au fonctionnement des dipôles supraconducteurs. Pour refroidir ces derniers, on commence par faire circuler de l’azote liquide afin de descendre à une température de 80 K (soit -193,2°C). Au total, il faut douze mille tonnes d’azote liquide pour l’ensemble des enceintes cryogéniques. Puis on passe à l’hélium liquide pour abaisser la température de 80 K à 4,5 K. Cent tonnes d’hélium liquide circulent alors dans les parties froides du LHC. Finalement, on atteint la température de 1,9 K en procédant à un pompage dit «cryogénique » : en diminuant la pression de l’hélium jusqu’à 18 millibars, on diminue la température de l’ensemble jusqu’à une valeur... glaciale.

Les 1 232 dipôles définissent la courbure de la trajectoire. Leur conception et leur réalisation ont certainement constitué le défi technique le plus important de l’accélérateur. Chacun de ces dipôles contient deux chambres à vide placées côte-à-côte, dans lesquelles circulent les deux faisceaux de protons. Le champ magnétique qui y règne est créé par des bobines dipolaires faites de câble supraconducteur torsadé entourant les chambres à vide. Le champ magnétique engendre de puissantes forces mécaniques entre les deux chambres : ces dernières sont solidement maintenues en place par des colliers non magnétiques et par du fer. L’ensemble est placé dans un réservoir refroidi à 1,9 K grâce à un bain d’hélium superfluide.

© CERN

2) Des pompes qui garantissent le vide dans les chambres où circulent les faisceaux, et d’autres consacrées au vide nécessaire pour le système cryogénique. Au total, quatre systèmes de pompage, chacun de 27 km de long, courent le long du tunnel du LHC !

Dipôles : En haut à gauche, coupe d’un dipôle avec les deux chambres à vide entourées des bobines supraconductrices créant le champ magnétique. En bas à gauche, les deux chambres, les bobines et les lignes des champs. En bas à droite, une tranche de collier entourant la chambre à vide et les câbles supraconducteurs. En haut à droite : le premier dipôle lors de sa descente dans le tunnel du LHC par un puits d’accès.

ÉLÉMENTAÍRE

page 61

P


© CERN

Le LHC : un accélérateur sans égal Câble supraconducteur D’un diamètre de 15 mm, ce câble est constitué de 36 torsades, chacune ayant un diamètre de 0,8 mm. Chaque torsade comprend 6 426 filaments de niobium-titane, un matériau qui devient supraconducteur pour des températures inférieures à 10 K (-263,2 °C). Chaque filament a une épaisseur de 0,006 mm, dix fois plus fin qu’un cheveu humain. Il est entouré d’une gaine faite de 0,0005 mm de cuivre ultrapur supraconducteur. Les 1 200 tonnes de câbles supraconducteurs des dipôles du LHC ont une longueur totale de 7 300 kilomètres. Si on mettait bout à bout les filaments de niobium-titane qui les constituent, on obtiendrait plus de dix fois la distance de la Terre au Soleil !

Dix heures dans la vie d’un proton Suivons à la trace un paquet de protons lors de ses tours dans le LHC. Sa vie est loin d’être un long fleuve tranquille... Il voyage à une vitesse proche de celle de la lumière, de sorte qu’il est accompagné d’un champ électromagnétique qui, par son interaction avec les matériaux environnants, affecte les paquets suivants. Chaque perturbation est ainsi transmise d’un paquet à l’autre et peut être amplifiée... jusqu’à altérer gravement les trajectoires et aboutir à une perte des faisceaux: les paquets de protons sortiraient alors du tube censé les contenir ! Pour éviter un tel scénario catastrophe, les ingénieurs du LHC ont recouvert les tubes à vide de revêtement spéciaux qui minimisent les effets de ces champs, tandis que des systèmes élaborés de rétroaction contrôlent les trajectoires des protons pour compenser aussi vite que possible les instabilités qui apparaissent dans ces trajectoires.

À gauche, une coupe transversale d’une torsade où l’on distingue les groupements de filaments supraconducteurs. À droite, un zoom obtenu à l’aide d’un microscope électronique montre la disposition des filaments de niobiumtitane dans les groupements de filaments supraconducteurs.

© CERN

Mais cet effet n’est pas le seul ennemi de notre paquet. Le voici à présent qui s’approche d’un des quatre points de collision. Des aimants spécifiques sont installés de part et d’autre de cet emplacement afin de courber les trajectoires des deux faisceaux et les faire se croiser au centre du détecteur. Sous l’action de ces aimants, répondant au doux nom d’« inner triplets », notre paquet (appelons-le de façon très originale paquet 1) voit sa taille diminuer et se présente donc avec la plus grande densité possible au point de collision. Il est alors traversé par un autre paquet ar- Les inner-triplets sont une série de quadrupôles rivant en sens opposé (toujours qui assurent la convergence des faisceaux vers le animés d’une verve poétique, point de collision et leur focalisation. Ces aimants nous l’appellerons paquet 2). sont placés une cinquantaine de mètres avant les Seule une infime fraction des zones expérimentales. Ils réduisent chaque diprotons des paquets 1 et 2 va mension transverse des paquets d’un facteur 100 s’entrechoquer frontalement et et constituent un élément clé pour obtenir une donner lieu à des événements haute luminosité. En février 2007, lors d’un test de pression, une telle série a été endommagée. À intéressants que le détecteur va quelque chose malheur est bon : l’incident a perenregistrer. Mais le reste des pa- mis d’identifier des points faibles dans la consquets ne sort pas indemne de la truction de ces quadrupôles. En effet, un anneau « rencontre ». Car au moment de support n’était pas assez puissant pour conte-

page 62

En haut, dessin d’un inner triplet dont l’action réduit les dimensions transverses des faisceaux de 0,2 millimètres loin des expériences à 16 micromètres au point de collision. En bas, simulation de l’action de ces aimants sur les deux faisceaux arrivant à un point de collision.

nir les forces qui s’exerçaient sur les aimants. À la suite de cet accident, tous les inner-triplets (8 au total) ont été ouverts et réparés.

ÉLÉMENTAÍRE


Le LHC : un accélérateur sans égal du croisement, le paquet 1 va ressentir le champ électromagnétique du paquet 2 (et vice-versa), de sorte que la structure dans chaque paquet va être modifiée. Ainsi, une dizaine d’heures après avoir rempli le LHC de protons, et après des centaines de millions de tours qui auront à chaque fois perturbé les paquets, on risque d’observer une forte détérioration des caractéristiques des faisceaux : des oscillations apparaissent dans leurs orbites, ce qui dilue la densité des paquets et diminue donc la luminosité. Les protons ayant beaucoup dévié par rapport à la bonne trajectoire peuvent être absorbés par des collimateurs dédiés et disposés le long de l’anneau. Mais les oscillations risquent de susciter des mouvements chaotiques des faisceaux, qui ne pourront plus être contrôlés par les systèmes magnétiques. On préfère alors vider les anneaux de leurs protons, en les guidant vers des absorbeurs prévus à cet effet, plutôt que de courir le risque de voir le faisceau s’échapper en un point quelconque de l’accélérateur. Une telle perte, équivalente à une puissance électrique envoyée dans le système cryogénique, provoquerait de graves dégâts localement, ainsi qu’une brutale montée de la température. On verrait alors passer l’aimant de l’état supraconducteur à l’état normal, passage appelé « quench » des aimants. Après cette vidange du LHC, un autre remplissage peut commencer, en transférant des paquets tout beaux, tout denses depuis le SPS.

Le quench d’un aimant On désigne ici par ce terme le passage d’un aimant d’un état supraconducteur à l’état normal, en raison, par exemple, d’une augmentation de la température. La limite entre les deux états dépend de la température et du champ magnétique de l’aimant. Pour le LHC, dont les dipôles doivent fournir 8,3 teslas pour maintenir les protons de 7 TeV dans l’anneau, elle se situe entre 2 et 3 K. Un tel incident peut avoir de graves conséquences pour les installations. La perte de la supraconductivité accélère le réchauffement de l’hélium puisque le courant ne circule plus sans frottement dans les bobines et la résistance du matériau génère de la chaleur. Puisque la valeur de 8,3 teslas n’est plus assurée pour le champ magnétique, les protons ne sont plus assez courbés pour garder leurs trajectoires et une partie est rapidement perdue... au risque de perforer les chambres à vide là où les protons quittent leur trajectoire circulaire. Les physiciens du LHC ont effectué des essais de quenchs - en l’absence de faisceau ! - sur plusieurs dipôles, afin d’étudier leurs conséquences et la meilleure façon de les contrôler. En fonctionnement réel, la détection d’un quench déclenche l’envoi immédiat des faisceaux de protons vers les absorbeurs.

ÉLÉMENTAÍRE

page 63

© CERN

© CERN

Finalement, le destin d’un proton joignant le LHC est bien incertain ! Dans le meilleur des cas il entrera en collision avec un de ses congénères circulant dans le sens opposé. Et qui sait, peut-être cette collision engendrerat-elle le boson de Higgs ou une autre particule nouvelle, ouvrant de nouveaux chapitres en physique des particules. Mais l’immense majorité des protons connaîtra une fin bien moins glorieuse, envoyée par les opérateurs de l’accélérateur sur les absorbeurs... après dix heures de bons et loyaux tours de piste dans les chambres à vide. L’ingratitude des physiciens est sans borne !


© CERN

Le LHC : un accélérateur sans égal À quelques mois du démarrage Toutes les pièces du LHC sont à présent en place dans le tunnel. On procède à des tests avancés pour garantir le bon fonctionnement des différents composants et vérifier qu’ils sont bien reliés les uns aux autres. Une partie importante de ces essais concerne la cryogénie : il faut beaucoup de temps (1 à 2 mois) pour abaisser la température dans les sections courbes. Puis, les systèmes d’interconnections, de cryogénie et de pompage sont testés un par un sur place. On prévoit la fin de tous ces essais durant l’été 2008. Si tout va bien, évidemment, car la complexité de l’ensemble constitue une grande première technologique. Ainsi, tout problème nouveau – nécessitant par exemple l’ouverture d’un dipôle – risque de retarder le planning de 1 à 2 mois. Mais en regardant les pas de géant réalisés par les ingénieurs de cette machine, nous avons le droit de rester optimistes ! Alors, à la fin de l’été 2008, lorsque toutes les vérifications seront faites, on injectera un faisceau unique depuis le SPS pour le faire circuler dans le LHC sans subir d’accélération. Puis on entamera la phase d’accélération vers des énergies plus hautes, qui mettra en jeu toutes les parties du LHC et se fera d’abord à des luminosités « basses »... de façon à ne pas créer des problèmes importants en cas de perte du faisceau. Enfin, les deux faisceaux circuleront dans les anneaux. Ce sera alors le début d’une période attendue avec fébrilité par les physiciens, car ils pourront commencer leur moisson de résultats... qui s’avéreront certainement surprenants et excitants !

Températures d’un huitième des dipôles du LHC. La majorité est à température de 1,9 K tandis que 6 parmi eux sont plus « chauds », suite à un quench.

page 64

Quelques chiffres L’énergie emmagasinée dans les dipôles est de 10,5 gigajoules, ce qui équivaut à l’énergie cinétique d’un airbus A380 voyageant à 700 km/h ! Elle est suffisante pour faire fondre 12 tonnes de cuivre (le cuivre fond à 1356 K et a une chaleur spécifique 385 J/kg/K.). L’énergie cinétique des 2 808 paquets contenant chacun 1,15 x 1011 protons ayant chacun une énergie de 7 TeV, vaut 2 808 x 1,15 x 1011 (protons) x 7 (TeV) = 362 MJ. Quel est le prix du LHC ? La construction de la machine a coûté environ 5 milliards de francs suisses (~3 milliards d’euros) et plus de 5000 personnes ont travaillé à sa construction ou travailleront sur les détecteurs et l’analyse des données enregistrées, pendant environ 20 ans. Cette somme d’argent correspond au prix d’un porte-avion nucléaire (sans les avions !) ou à dix hôpitaux du type de l’hôpital Georges Pompidou ou encore, aux pertes d’une banque française qu’on ne nommera pas...

ÉLÉMENTAÍRE


ICPACKOI ? [isepasekwa] ? La feuille de déroute des États-Unis Les fêtes de fin d’année 2007 laisseront certainement un goût amer aux physiciens américains du DOE et plus généralement à la communauté scientifique internationale. En effet, le budget 2008 des États-Unis, présenté mi-décembre par le Congrès à majorité démocrate et signé par le président républicain Georges W. Bush quelques jours avant Noël, a été loin de satisfaire les attentes des chercheurs. Les dotations allouées sont nettement inférieures aux sommes demandées et les économies imposées par la loi de finance touchent de plein fouet les plus grands laboratoires américains, contraints de revoir à la baisse leurs effectifs, leur programme scientifique et leur implication dans des projets extérieurs, nationaux ou internationaux. Même si les promesses pour les budgets futurs se veulent encourageantes (bien que très hypothétiques), les conséquences de ces coupes sévères se feront sans doute sentir des années durant, tant sur les plans humains que scientifiques.

DOE Fondé en août 1977 par le président Carter, le département de l’énergie des États-Unis (« Department Of Energy », DOE) est chargé de la politique énergétique et de la sécurité nucléaire. Ses compétences sont très larges : nucléaire civil et militaire, production consommation et conservation de l’énergie, etc. Il finance plus de projets de recherche fondamentale ou appliquée que n’importe quelle autre agence fédérale. Ainsi, son « bureau de la science » (« Office of Science ») alloue plus de 40% des fonds consacrés à ces disciplines au niveau national et chapeaute les recherches en physique des hautes énergies, en physique nucléaire et en physique de la fusion.

Licenciements et économies dans les laboratoires américains

ÉLÉMENTAÍRE

page 65

Le budget 2008 du « bureau de la science » du DOE se monte à environ 4 milliards de dollars, soit 400 millions de moins que l’allocation demandée – pour 2007, le déficit de crédit s’était déjà élevé à 300 millions de dollars. Voté avec trois mois de retard, ces restrictions touchent des domaines très variés. Ainsi en physique nucléaire, l’accélérateur de Brookhaven (à Long Island, près de New York) ne fonctionnera que 13 semaines cette année au lieu des 30 prévues. Des centres produisant des faisceaux intenses de neutrons ou de lumière synchrotron (comme le SSRL à SLAC) verront également leur durée d’utilisation réduite ou seront fermés : là comme ailleurs, moins d’expériences seront menées et très peu de nouveaux projets verront le jour – la plupart sont purement et simplement abandonnés sine die. Le coup le plus sévère est porté à la physique des particules : trois mois de retard au lieu d’une augmentation espérée de 4%, le budget (690 Aux États-Unis, l’année fiscale dure du 1er octobre au 30 septembre millions de dollars) est en baisse de 8,5% par rapport à l’an de l’année suivante. En période de conflit entre les pouvoirs dernier, soit une coupe de 64 millions de dollars. La baisse exécutif et législatif – actuellement un parlement à majorité la plus importante (75%) affecte les activités de recherche et démocrate face à un président républicain – la loi de finances développement autour de « l’International Linear Collider », n’est pas toujours finalisée lorsque l’année fiscale commence. le projet international de futur collisionneur électron-posiLes dépenses sont alors régies par une « continuing resolution » tron prévu pour la prochaine décennie. Dans ce domaine la qui prolonge le budget de l’année précédente jusqu’à ce que le nouveau entre en application. Si le changement intervient au 1er situation est ubuesque : la loi de finance étant passée avec janvier – c’est-à-dire un trimestre en retard – les organisations un trimestre en retard, l’ILC avait déjà dépensé tout l’argent dont le budget est réduit de 75% se retrouvent sans argent pour alloué au 31 décembre ! En conséquence, tous les travaux les 9 mois restants. sont stoppés pour 9 mois et les personnels réaffectés dans d’autres services. Pour faire des économies, fermer la lumière et diminuer la masse salariale est une « solution » difficile à éviter quand la marge de manœuvre est réduite, voire quasi-nulle. C’est malheureusement la voie dans laquelle doivent s’engager les deux principaux laboratoires américains, SLAC et Fermilab. Le


ICPACKOI ? [isepasekwa] ? budget ne permettant de continuer à faire fonctionner leurs deux grands complexes accélérateurs, l’usine à B californienne et son expérience associée BaBar seront arrêtées autour du 1er mars, soit sept mois plus tôt que prévu – ce qui permettra une économie de 14 millions de dollars environ. En effet, la priorité au niveau national a été donnée au Tevatron qui permet l’étude de « la frontière en énergie » (presque 2 TeV) et garde l’espoir de faire une découverte majeure (le boson de Higgs) avant que le LHC ne fonctionne à plein régime dans les prochaines années. Même si Fermilab continue à exploiter le Tevatron, le laboratoire est sévèrement touché par les restrictions budgétaires : 200 licenciements sur un effectif de 1900 personnes sont programmés et les employés restants verront leur salaire amputé de 2 jours chômés et non payés chaque mois. Enfin, le site avait le vent en poupe pour accueillir l’ILC : même si le projet survit à l’interruption du financement américain (venant quelques semaines après le retrait des Anglais de la collaboration en gestation), cette éventualité apparaît maintenant bien mince. À SLAC, 125 nouveaux licenciements devraient s’ajouter aux 80 déjà prévus (pour la plupart des départs volontaires qui auraient dû s’étaler sur toute l’année mais qui ont été avancés au 1er avril). Les détails de ces réductions d’effectifs ne sont pas encore connus mais plus de la moitié des postes supprimés devraient provenir de la division « physique des particules » qui comporte environ 400 personnes.

4 milliards de dollars En 2007, le budget fédéral des États-Unis s’établit comme suit : 2 540 milliards de dollars de recettes (18,5 % du produit intérieur brut) pour 2 784 milliards de dollars de dépenses (soit 20,2% du PIB). Le déficit fédéral représente donc 1,8% du PIB des États-Unis – l’objectif affiché par le gouvernement fédéral américain pour justifier les coupes dans certaines activités est d’atteindre un budget excédentaire en 2012. Le budget militaire est le premier poste de dépense, avec plus de 700 milliards de dollars, en augmentation régulière chaque année (10% en 2008). À titre de comparaison, le secteur de l’éducation reçoit un peu moins de 90 milliards de dollars, et celui de l’énergie un peu plus de 20 milliards de dollars.

ITER Pour démontrer la possibilité scientifique et technologique de la production d’énergie par la fusion de noyaux atomiques, l’Union européenne, les ÉtatsUnis, le Japon et la Russie lancent, en 1986, le projet ITER (International Experimental Thermonuclear Reactor). Ils ont été rejoints ensuite par la Chine, la Corée du Sud et le Canada. Les travaux d’ingénierie et de coordination technique se sont achevés fin 2002 et la France a été choisie en 2004 parmi d’autres sites pour accueillir ce réacteur ITER. Sa construction devrait durer une dizaine d’années pour une exploitation pendant 20 ans et une production d’électricité éventuelle à l’horizon 2050.

page 66

© ITER

Conséquences pour la recherche européenne On pourrait croire l’Europe à l’abri de ces problèmes : il n’en est rien. La diminution du budget de la recherche américain met en péril de nombreuses collaborations internationales quand elle ne les rend pas complètement caduques. Ainsi la contribution des États-Unis au projet ITER sera... nulle en 2008, en contradiction avec des accords signés précédemment. Quant à l’expérience BaBar, elle avait pour projet d’augmenter de 50% sa masse de données en 2008 : les laboratoires européens parties prenantes de la collaboration ont investi beaucoup d’argent et de personnel dans les améliorations et la maintenance du détecteur en prévision de cette manne qui devait permettre d’améliorer de manière significative la précision des mesures déjà effectuées et, pourquoi pas, de découvrir de nouveaux phénomènes. L’arrêt de l’accélérateur (100% américain) ne permettra pas de concrétiser ces investissements. Enfin, que dire aux étudiants en thèse qui viennent d’être recrutés pour analyser des données qui ne seront jamais enregistrées ? Au-delà des conséquences humaines et scientifiques directes, c’est tout le climat de confiance nécessaire aux collaborations scientifiques internationales qui est remis en cause par ce budget et la forte inflexion « unilatéraliste » qui en découle. L’avenir dira comment les communautés de chercheurs réussiront à s’affranchir de ces nouvelles difficultés. Espérons que les politiques les aideront en apportant de la constance dans leurs investissements et dans leur soutien !

ÉLÉMENTAÍRE


[isepasekwa] ? Le réseau thématique P2I © CERN Antonio Saba

Le CNRS, le CEA et 5 établissements universitaires (l’École Polytechnique, l’Observatoire de Paris, et les Universités Paris 6, 7 et 11) ont créé en 2007 avec le soutien et un financement spécial du Ministère de la Recherche un réseau thématique de recherche en Ile de France. Il regroupe des équipes travaillant en physique (théorique et expérimentale) des interactions fondamentales auprès des accélérateurs et des équipes travaillant en cosmologie et dans le domaine des « astroparticules » : l’infiniment petit et l’infiniment grand.

La matière nucléaire dans ses états extrêmes Le comportement de la matière nucléaire est étudié depuis longtemps. Mais on connaît mal ses caractéristiques dans des conditions extrêmes. Ainsi, aux tous premiers instants du Big-Bang, lorsque les conditions de température et de pression le permettaient, et avant même la naissance de la matière hadronique, la matière aurait été un plasma de quarks et de gluons. C’est un scénario envisagé par la chromodynamique quantique que les physiciens de P2I cherchent à mettre en évidence dans des expériences à Brookhaven aux USA et dans l’expérience ALICE au LHC.

Le réseau thématique Physique des deux infinis (P2I) a pour objectif de maintenir la compétitivité des équipes françaises au niveau international et de développer une synergie nouvelle entre les19 laboratoires franciliens concernés (voir http://events.lal.in2p3.fr/P2I/). Parmi les thèmes couverts par ce réseau thématique on trouve : les astroparticules (photons de haute énergie rayons cosmiques, ondes gravitationnelles), la physique des particules (vérification du modèle standard, physique du boson de Higgs, recherche d’une nouvelle physique), la matière nucléaire dans des conditions extrêmes (plasma de quarks et de gluons, noyaux instables), la cosmologie (matière et énergie noires, relativité générale, asymétrie matière-antimatière)... L’enjeu de ce réseau est de permettre de conjuguer les connaissances acquises dans les domaines de l’infiniment petit et de l’infiniment grand afin de faire progresser notre compréhension de l’Univers.

ÉLÉMENTAÍRE

page 67

Cosmologie Nous savons que l’univers est constitué, à 95%, de matière et d’énergie dont la nature est inconnue. En effet, cela a été mis en évidence par les observations très précises de certaines caractéristiques de supernovae lointaines, par des effets de lentilles gravitationnelles sur le rayonnement des galaxies et par les anisotropies du rayonnement cosmologique, relique du Big-Bang. Comprendre la nature de ces 95% manquants est un grand défi de la physique actuelle étudié dans différents programmes comme Planck, représenté ci-contre, SNLS,...

Une autre situation extrême se rencontre au sein de noyaux très instables en raison d’un fort déséquilibre entre les nombres de protons et de neutrons. De nouveaux phénomènes ont été découverts montrant les limites des modèles conçus à partir des observations faites sur les noyaux stables. L’accélérateur SPIRAL2, en construction à Caen, devrait être un outil privilégié dans cette aventure scientifique. D’autres axes de recherche dans ce thème sont l’étude des étoiles à neutrons ou encore celle de la structure du nucléon.


La question qui tue ! Peut-on (doit-on) tout unifier ? L’union fait la force La recherche d’une théorie « unifiée » décrivant toutes les interactions connues comme dérivant d’une seule interaction fondamentale anime nombre de physiciens. L’histoire des sciences est parsemée de telles unifications. Par exemple la chute des corps et le mouvement des planètes sont tous deux décrits par la seule gravitation universelle. On a mentionné dans « Théorie » l’unification des phénomènes électriques et magnétiques par Maxwell, mais il existe de nombreux autres exemples. Tous les phénomènes chimiques, toute la physique atomique et moléculaire, ainsi que la physique des solides, sont régies, au niveau le plus fondamental, par la seule interaction électromagnétique (ce qui ne rend pas pour autant les problèmes faciles à résoudre !). Toute la physique nucléaire et la physique des particules sont gouvernées par les interactions forte et électrofaible. Ajoutez à cela l’interaction gravitationnelle et vous avez virtuellement de quoi décrire essentiellement (bien que de façon compliquée) toutes les situations physiques connues. Par exemple, l’écoulement de l’eau dans un verre résulte in fine de la combinaison de l’interaction gravitationnelle et des interactions électromagnétiques entre les molécules d’eau. C’est bien sûr un des objets principaux de la Science que de mettre en relation des phénomènes apparemment dissemblables et de tenter de leur donner une explication commune : on cherche à décrire le plus de processus possibles en faisant aussi peu d’hypothèses que possible. Et ça marche ! C’est là un fait des plus remarquables et des plus fascinants. Derrière la multiplicité et la complexité des phénomènes que nous pouvons observer, se cache une certaine simplicité que les scientifiques essaient de découvrir. Ce sont les succès de cette vision analytique de la nature qui ont d’ailleurs incité à formuler la démarche scientifique sous sa forme contemporaine.

Toutes pour une... Il est tentant de vouloir aller plus loin et de se demander si les quatre interactions connues ne sont pas, elles-mêmes, les différentes facettes d’un nombre plus restreint, voire d’une seule interaction fondamentale. C’est ce que l’on pourrait appeler une approche réductionniste.

page 68

Dans un premier temps, les physiciens ont cherché à unifier les interactions forte et électrofaible, qui ont de nombreuses similarités. En effet, elles reposent sur la même alliance de relativité restreinte, de mécanique quantique et de symétries, ce qui leur vaut le nom de « théories de jauge » (voir « Théorie »). Pour désigner cette unification des interactions forte et électrofaible, on parle de « théories de grande unification » (ou GUT pour « grand unified theories »). Outre la description des interactions actuellement observées, ces théories prévoient de nouvelles interactions, qui génèrent donc des processus spécifiques nouveaux...

ÉLÉMENTAÍRE


Peut-on (doit-on) tout unifier ? 1022 fois l’âge de l’Univers Mais comment diable mesurer une durée de vie moyenne de 1032 années ? D’après la définition de la durée de vie moyenne (voir Élémentaire N°2), un proton aurait moins d’une chance sur 1032 de se désintégrer au bout d’un an. La solution ? Fastoche : il suffit d’observer un grand nombre de protons. Une tonne d’eau contient environ 7 x 1028 noyaux d’hydrogène (proton). On voit que pour avoir la chance d’observer ne serait-ce qu’une désintégration de proton par an, il faut tout de même quelques kilotonnes d’eau ! Pas si facile après tout. Par exemple, l’expérience SuperKamiokaNDE a surveillé de près 2,2 kilotonnes d’eau pendant plusieurs années.

que l’on peut chercher à observer. Par exemple, dans la plupart de ces théories, le proton est une particule instable, qui peut se désintégrer en un électron et en deux photons (en fait, un électron et un pion neutre, qui se désintègre en deux photons). L’expérience SuperKamiokaNDE, qui a mis en évidence l’oscillation des neutrinos (voir Élémentaire N°5), avait, à l’origine, pour autre but de détecter d’éventuelles désintégrations de protons en observant une grande quantité de matière. Le fait qu’on n’en ait observé aucune à ce jour a permis d’exclure les modèles les plus simples de grande unification. Bien sûr, l’unification des interactions est une idée séduisante, mais il faut rester ouvert et garder à l’esprit qu’il n’y a aucune garantie qu’elle soit vraie. En fait, à ce jour, il n’existe aucune indication expérimentale en ce sens. Les expériences menées jusqu’à présent montrent que, si le proton est instable, sa durée de vie est au moins de 1032 années, soit 1022 fois l’âge de l’Univers. Mais les physiciens sont têtus et ne se découragent pas si facilement. La recherche de théories unifiées et de leur confirmation expérimentale est toujours un sujet de grande actualité.

... et une pour toutes ? Il existe un autre type « d’unification » qui, contrairement au précédent, semble nécessaire, au moins d’un point de vue logique. Il s’agit de l’unification des concepts. L’avènement de la mécanique quantique au début du siècle dernier a montré que les lois régissant les phénomènes microscopiques étaient fondamentalement différentes de celles du monde macroscopique « classique ». La séparation entre ces deux mondes est caractérisée par la constante de Planck ħ, qui quantifie l’importance des effets quantiques. Formellement, la mécanique classique, celle de la « vie quotidienne », correspond à la limite ħ = 0.

ÉLÉMENTAÍRE

page 69

Quelques années plus tôt, en 1905, était née la théorie de la relativité restreinte, selon laquelle les lois de la physique « galiléenne » doivent être modifiées lorsqu’on considère des systèmes se déplaçant à des vitesses proches de celle de la lumière dans le vide, notée c. Les lois de la mécanique non-relativiste ne sont valables que pour des vitesses négligeables comparées à c. Elles correspondent formellement à la limite c = infini. Problème : la toute nouvelle mécanique quantique est intrinsèquement une théorie non-relativiste... et elle est incompatible avec la relativité restreinte !


Peut-on (doit-on) tout unifier ? D’un autre côté, il n’y a aucune raison a priori pour que des systèmes microscopiques (donc obéissant aux lois de la mécanique quantique) ne puissent être relativistes... c’est d’ailleurs le cas pour de nombreux constituants élémentaires de la matière étudiée au sein des accélérateurs de particules. Il apparaît donc nécessaire d’unifier les concepts de la mécanique quantique et de la relativité restreinte pour pouvoir décrire ces situations. Ici l’unification n’apparaît pas comme une hypothèse, un rêve de physicien, mais bel et bien comme une nécessité logique.

Longueur Compton Pour se faire une idée, il est intéressant d’estimer la longueur Compton, en dessous de laquelle les effets quantiques et relativistes sont importants, pour différentes particules. Par exemple, Lelectron = 2500 fm, Lpion = 13 fm, Lproton = 3 fm.

En effet, considérons une particule de masse M. En combinant les constantes fondamentales de la mécanique quantique et de la relativité restreinte avec M, on peut construire une échelle de longueur absolue L = 2πħ/Mc, appelée « longueur Compton » de la particule. Notons que ceci n’était possible ni en relativité « classique » (où la seule constante fondamentale à disposition est c), ni en mécanique quantique non-relativiste (où la seule constante utilisable est ħ). On remarque que cette échelle absolue de longueur est nulle aussi bien dans la limite classique, ħ = 0, que dans la limite non-relativiste, c = infini. Donc, tant que l’on ne sonde que des distances grandes devant L, on peut considérer que L = 0 et on peut négliger soit les effets relativistes, soit les effets quantiques, selon les cas. À l’inverse, il est clair que si l’on sonde des échelles de longueurs inférieures à L, on doit s’attendre à ce qu’aussi bien les effets quantiques que relativistes jouent un rôle important.

Que se passe-t-il si on sonde des distances inférieures à la longueur Compton d’une particule donnée ? Eh bien, pour une particule relativiste, cela correspond à des échelles de temps de l’ordre de T = L/c, ce qui, d’après la mécanique quantique correspond à des échelles d’énergies supérieures à E = ħ/T= M c2. Mais c’est justement l’énergie nécessaire (à un facteur deux près) pour créer des paires particulesantiparticules de masse M. Conclusion : sur des échelles de distance inférieures à la longueur Compton, une particule donnée n’apparaît plus comme un objet ponctuel élémentaire, mais entourée d’un nuage de paires particules-antiparticules (voir Élémentaire N°4).

C’est Dirac qui, en 1932, pose les premières pierres de l’unification de la mécanique quantique avec la relativité restreinte, ce qui deviendra plus tard la « théorie quantique des champs ». Celle-ci est le cadre mathématique qui sert de base à la formulation du Modèle Standard des interactions forte et électrofaible.

C’est grave docteur ? Et la gravité dans tout ça ? Eh bien, on a affaire à une situation analogue : la théorie de la gravitation universelle de Newton est incompatible avec la relativité restreinte. Or on peut imaginer des situations où le champ gravitationnel est si intense qu’on ne peut plus négliger les effets relativistes, comme par exemple au voisinage d’un trou noir. C’est ce qui a conduit Einstein à unifier gravitation et relativité restreinte dans la théorie de la relativité générale. Il ne reste donc plus qu’à inclure les effets quantiques et le tour est joué ! Hmm... le problème est qu’à ce jour personne ne sait formuler une telle théorie quantique de la gravitation.

page 70

Cependant, comme dans le cas précédent, on sait qu’une telle unification doit avoir lieu. En effet, la gravitation introduit une nouvelle constante fondamentale, la constante de Newton G. En combinant celle-ci avec les constantes ħ (mécanique quantique) et c (relativité), on peut former une échelle de distance fondamentale – la même pour toutes les particules – appelée la longueur de Planck LP = √ħ G/c3 = 1,6 x 10-20 fm

ÉLÉMENTAÍRE


Peut-on (doit-on) tout unifier ? ou, de façon équivalente, une échelle fondamentale d’énergie EP = √ħ c5/G = 1019 GeV. Pour des énergies inférieures à EP , c’est-à-dire des distances supérieures à LP , on peut considérer en pratique que LP = 0, ce qui revient à prendre une des trois limites suivantes : ħ = 0 (mécanique classique) ; c = infini (mécanique non-relativiste); ou bien G = 0 (on néglige les effets gravitationnels). À l’inverse, si on sonde des échelles de distances inférieures à LP , ce qui correspond à des énergies supérieures à EP , on doit s’attendre à ce qu’aussi bien les effets relativistes, quantiques que gravitationnels jouent un rôle important. Il est alors nécessaire d’avoir une description unifiée de tous ces phénomènes.

Théorie quantique des champs Dans le cadre de la théorie quantique des champs, les particules ne sont plus l’objet central de la description mathématique. Elles sont les excitations élémentaires d’un objet plus fondamental : le champ. Ce dernier est une fonction prenant des valeurs différentes en différents points de l’espace-temps. En guise d’illustration, on peut imaginer un « champ » qui mesure la hauteur de l’eau sur l’océan par rapport à un certain niveau de référence. Ce champ prend des valeurs différentes à différents endroits. Les excitations élémentaires de ce champ sont des vagues qui se propagent sur l’océan. En mécanique quantique, la hauteur des vagues ne peut prendre que certaines valeurs précises (on dit qu’elles sont « quantifiées ») et ces « vagues élémentaires » ne sont autres que les particules. Il existe un type de champ pour chaque type de particule. Une conséquence remarquable de la théorie des champs est qu’elle permet d’expliquer pourquoi toutes les particules d’un même type (par exemple, tous les électrons de l’Univers) ont exactement les mêmes caractéristiques (masse, charge, etc...) : elles sont les excitations d’un seul et même champ (tout comme une vague sur l’Océan Indien n’est pas intrinsèquement différente d’une vague sur la Méditerranée).

Une telle description reste encore à inventer et c’est là une des questions majeures de la physique des hautes énergies. Des théories candidates ont été proposées, comme les théories de cordes et de supercordes, ou encore la gravité en boucles (« loop gravity »), mais aucune n’a reçu l’approbation unanime des physiciens pour le moment. Un des obstacles majeurs, outre le défi théorique que pose la construction d’une telle description, est qu’il est impossible à l’heure actuelle de tester directement ces théories. En effet, cela requiert des énergies plus de dix millions de milliards de fois plus élevées que celles que l’on est capable d’atteindre avec nos accélérateurs (si on prend 1 TeV comme l’énergie de référence de ces derniers). Ce n’est donc pas demain la veille !!!

ÉLÉMENTAÍRE

page 71

Cependant, l’espoir de certains physiciens est que l’étude de l’Univers primordial, où les échelles d’énergies mises en jeu peuvent atteindre des valeurs colossales, pourrait fournir une fenêtre sur ces processus. Comme à l’époque de la découverte des rayons cosmiques les physiciens tournent leur regard vers le ciel et vers l’infiniment grand pour mieux comprendre et décrire plus simplement l’infiniment petit... Feront-ils ainsi quelques pas supplémentaires sur le chemin de l’unification ?


page 72

ÉLÉMENTAÍRE


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.