Élémentaire - International Particle Physics Outreach Group

Transcription

Élémentaire - International Particle Physics Outreach Group
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand
Numéro 6
Revue d’information scientifique
Équinoxe de printemps 2008
Le Modèle
Standard
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand
À l’occasion de ce numéro d’Élémentaire, nous vous invitons à découvrir le « Modèle Standard ». Un curieux
nom qui s’est imposé au fil des années, même s’il évoque
plus les défilés de mode parisiens que la physique des
particules. Un modèle de quoi ? Et en quoi serait-il plus
standard que les autres ? C’est ce que nous allons essayer
d’expliquer à travers les rubriques de ce numéro.
En fait, pour concocter l’« Apéritif », mélangez des constituants élémentaires de matière (des quarks, des neutrinos,
des électrons...) avec des interactions bien choisies (électromagnétique, forte, faible), secouez bien fort et vous obtiendrez la description la plus aboutie de nos connaissances sur la structure intime de la matière... rien que ça !
Comme jadis à la Samaritaine, on trouve donc de tout dans
le Modèle Standard. Cette théorie est née progressivement
dans les années 60 et 70 afin de réunir les trois interactions qui interviennent en physique des hautes énergies :
l’électromagnétisme, l’interaction forte et l’interaction faible. C’est cette petite dernière qui donnera le plus de fil
à retordre aux théoriciens, ce que nous verrons dans la
rubrique « Théorie ». Elle sera aussi l’objet d’une attention toute particulière au CERN (« Centre ») pour identifier
les particules qui la transportent, les bosons W+, W- et Z0.
Cette saga commence dans les années 80 avec les expériences UA1 et UA2 (« Découverte ») pour se conclure en
beauté avec les mesures de précision effectuées au LEP
dans les années 90 (« Expérience »).
Pour l’ « Interview », nous donnerons la parole à Jean Iliopoulos, un théoricien qui a participé à l’élaboration du
fameux Modèle Standard.
Vous retrouverez également nos autres rubriques habituelles. « LHC » s’intéressera aux éléments accélérateurs
qui fourniront en faisceaux de protons les expériences du
LHC, et « Icpackoi » fera le point sur les coupes sombres
dans le budget fédéral des États-Unis et leur impact sur nos
disciplines.
Nous profitons de cet éditorial pour remercier chaleureusement les parrains qui nous accompagnent dans l’aventure « Élémentaire », en particulier l’IN2P3, ainsi que P2I
qui nous rejoint à l’occasion de ce numéro.
Au fil de ces pages, vous sentirez peut-être les émotions
contradictoires, tantôt admiratives, tantôt agacées, que suscitent le Modèle Standard. Au cours de sa brève existence,
il a déjà affronté de nombreux tests tout en expliquant un
vaste éventail de phénomènes. Et pourtant, nous savons
qu’il est incomplet, avec ses nombreux paramètres arbitraires, son ignorance de la gravitation, et son boson de Higgs
qui manque toujours à l’appel. De quoi justifier l’enthousiasme des physiciens pour les prochaines expériences du
LHC : si l’on s’attend à y confirmer de nombreux aspects
du Modèle Standard, on espère bien le mettre enfin en
défaut... Ce sera d’ailleurs le thème d’un prochain numéro
d’Élémentaire. Mais d’ici là, bonne lecture !
Nous en profiterons pour décrire certains outils qui se
sont avérés fort utiles dans cette chasse aux bosons de
l’interaction faible. « Détection » s’intéressera à des dispositifs appelés détecteurs de vertex, particulièrement utiles
pour identifier certaines particules issues d’une collision.
« Analyse » vous initiera à différentes méthodes inventées
par les physiciens pour repérer parmi ces collisions les
événements les plus intéressants, tout en vous offrant quelques détours botaniques, biologiques et informatiques.
Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex
Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Sébastien Descotes-Genon
Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, F. Fulda-Quenzer, M.-P. Gacoin, L. Iconomidou-Fayard, H. Kérec, G. Le Meur,
P. Roudeau, J.-A. Scarpaci, M.-H. Schune, J. Serreau, A. Stocchi.
Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec.
Ont participé à ce numéro : N. Alamanos, F. Couchot, J. Haissinski, J.-L. Puget, P. Royole-Degieux.
Remerciements : nos nombreux relecteurs.
Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/
Prix de l’abonnement : 6 euros pour 2 numéros (par site internet ou par courrier)
Imprimeur : Imprimerie Nouvelle de Viarmes. Numéro ISSN : 1774-4563
Apéritif p. 4
Un modèle tout en
séduction
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand
Histoire p. 7
Accélérateurs
p. 38
Les collisionneurs : révolution
Interview p. 10
Découvertes
p. 46
À la chasse aux bosons W et Z
Quelques dates marquantes
dans les accélérateurs
de particules
Jean Iliopoulos
Centre de
recherche p. 14
Le CERN
Théorie p. 52
De la force faible à l’interaction
électrofaible
La question qui tue p. 68
Peut-on (doit-on) tout unifier ?
Expérience p. 20
Le LEP
Détection p. 26
Les détecteurs de vertex en
silicium
Le LHC p. 59
Retombées p. 29
ICPACKOI p. 65
Le rayonnement synchrotron
Et le web fut !
Analyse p. 33
Discriminant de Fisher et
réseaux de neurones
Le LHC : un accélérateur sans égal
La feuille de déroute des États-Unis
Physique des deux infinis
Abonnement
: faites votre demande d’abonnement sur le
serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe
Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Prix pour
deux numéros (port inclus) : 6 euros au total, chèque libellé à l’ordre
de «AGENT COMPTABLE SECONDAIRE DU CNRS». Pour les
administrations les bons de commande sont bienvenus.
Contact : elementaire@lal.in2p3.fr
Apéritif
Un modèle tout en séduction
Le « Modèle Standard » de la physique des particules, élaboré dans
les années 60 et 70, est le cadre théorique permettant de décrire les
particules élémentaires connues actuellement ainsi que leurs interactions.
Il donne une description cohérente et unifiée des phénomènes aux
échelles subatomiques (c’est-à-dire à des distances inférieures à 10 -15 m
et supérieures à 10 -18 m). Comme nous l’avons vu dans les
numéros précédents d’Élémentaire, qui dit petites échelles
dit grandes énergies. C’est pourquoi le Modèle Standard
s’appuie d’une part sur la physique quantique (petites
échelles) et d’autre part sur la relativité restreinte d’Einstein
(grandes énergies).
Moyennant l’introduction d’un certain nombre de
paramètres qui ont été déterminés par des expériences,
le Modèle Standard rend compte de tous les phénomènes
microscopiques qui se manifestent lorsque l’on sonde la
matière jusqu’à des distances correspondant au centième
de la taille d’un proton. De telles distances peuvent être
explorées lors de collisions à haute énergie (de l’ordre de
100 GeV).
Pour des raisons historiques, il est d’usage de distinguer
les particules de matière et les particules d’interaction
(voir le tableau ci-contre). Les premières sont les quarks
et les leptons que nous avons déjà rencontrés dans les
précédents numéros d’Élémentaire. Elles interagissent en
« échangeant » des particules d’interaction, le photon, les
bosons W± et Z0 ainsi que les gluons.
Les différents constituants élémentaires du Modèle Standard : à
gauche ceux qui forment la matière,
à droite ceux qui véhiculent les 3
forces fondamentales au niveau
subatomique, et au centre le boson
de Higgs, la pièce qui manque encore
à l’appel.
Trois familles, égales en noblesse...
Le Modèle Standard regroupe les quarks et les leptons en trois familles
structurées de façon identique. Chacune d’elles est composée de deux
quarks et de deux leptons. On distingue les leptons des quarks par les
interactions auxquelles ils sont sensibles : les leptons, à la différence des
quarks, ne sont pas sensibles à l’interaction forte. En fait, une seule famille
(la première, composée de l’électron, de son neutrino, et des deux quarks u
et d) est suffisante pour rendre compte de la matière ordinaire. Les atomes,
par exemple, sont constitués d’électrons s’agitant autour d’un noyau, luimême composé de protons et de neutrons, c’est-à-dire in fine de quarks u
et d. Comme nous l’avons vu dans les précédents numéros d’Élémentaire,
les quarks et leptons des autres familles ont été découverts en étudiant les
rayons cosmiques et dans des expériences réalisées auprès d’accélérateurs
de très haute énergie. Il existe ainsi six types de leptons et six types de
quarks.
page 4
À cet ensemble, il faut en ajouter un autre, de structure identique, dans
lequel chaque particule est remplacée par son antiparticule, ayant la
ÉLÉMENTAÍRE
Un modèle tout en séduction
même masse mais dont la charge électrique a une valeur opposée.
À
_
l’électron est ainsi associé le positron, au quark u l’anti-quark noté u, etc...
La première antiparticule, l’anti-électron ou positron fut découverte en
1932 (Élémentaire N° 3).
Quelques questions que vous vous posez
sur le Modèle Standard... et toujours
sans réponse à l’heure actuelle !
Malgré l’apparente simplicité du monde
des particules, de nombreux mystères
restent à élucider.
Que les forces soient avec vous
Pourquoi quatre interactions ? Nous n’en
savons rien... mais nous rêvons d’unifier
tous les processus élémentaires en les
faisant découler d’une seule interaction,
comme l’a fait Maxwell pour l’électricité
et le magnétisme (voir « La question qui
tue »).
Dès les années 1930, les physiciens postulent que l’interaction entre deux
particules de matière est due à l’échange d’une troisième dont la masse
est directement reliée à la portée de l’interaction. Ce modèle permet une
interaction à distance entre deux particules. Plus la masse de la particule
échangée est petite plus la portée de l’interaction est grande. On appelle
particules d’interaction celles qui transmettent les forces fondamentales.
Elles font en quelque sorte office d’agents de liaison.
Pourquoi trois familles ? Là aussi, il
n’y a pas encore de réponse. On sait
simplement que des « répliques » des
constituants de la matière ordinaire
existent, et que jusqu’à présent on n’a vu
que trois familles...
Des quatre interactions fondamentales, deux nous sont connues par
l’expérience quotidienne et ont été étudiées en physique « classique » : la
gravitation et la force électromagnétique. Les forces correspondantes ont
en commun d’être de portée infinie et d’avoir une intensité qui décroît
comme le carré de la distance séparant les deux objets en interaction.
En théorie quantique, cela implique que les vecteurs de ces interactions
(leurs « messagers ») sont de masse nulle. Il s’agit du photon pour
l’électromagnétisme, et du graviton pour la gravitation. Il faut toutefois
noter que si l’existence du photon n’est plus à démontrer, on n’a pas
encore observé de graviton de manière directe. Cependant, la gravitation
joue un rôle mineur du fait de sa très faible intensité aux énergies atteintes
actuellement lors des collisions entre particules. Elle est donc tout
simplement négligée au niveau subatomique et n’est pas incluse dans le
« Modèle Standard ».
Pourquoi la charge de l’électron est-elle
exactement égale et de signe opposé à
celle du proton ?
Pourquoi les constituants de la matière
et les particules qui véhiculent les
interactions ont-elles des masses si
disparates ? On ne le sait pas non plus.
Pourquoi l’antimatière est-elle absente
de notre Univers actuel ? Tout de suite
après le Big-Bang, il y avait autant de
matière que d’antimatière qui auraient
dû s’annihiler complètement. Notre
Univers n’est donc que le fruit d’un petit
déséquilibre qui a mené à une très légère
surabondance de matière. On ne connaît
pas vraiment la source de ce déséquilibre,
mais l’étude de l’interaction faible dans
certains de ses aspects les plus subtils
permettra peut-être d’y voir plus clair.
Nous avons exploré les multiples facettes de l’interaction forte dans le N°4
d’Élémentaire. Nous avons en particulier noté que les gluons, messagers
de cette interaction, sont de masse nulle. Cependant, pour de subtiles
raisons d’écrantage, l’interaction forte reste de portée très petite, ce qui
explique qu’elle est cantonnée au sein des noyaux atomiques.
La quatrième interaction est l’interaction faible qui est responsable, entre
autres, de la désintégration bêta de certaines particules élémentaires et
de noyaux (Élémentaire N°2). Elle est aussi une force de portée inférieure
à la taille de l’atome à cause des masses élevées des messagers qui la
véhiculent, les bosons intermédiaires W± et Z0, plus de 80 fois plus massifs
qu’un proton !
D’autres questions ?...
ÉLÉMENTAÍRE
page 5
Un des grands succès de la physique du XXe siècle a été d’unifier dans
une même description l’interaction faible et l’électromagnétisme qui
apparaissent comme deux aspects d’une même force. Ce succès théorique
a été couronné expérimentalement par la découverte en 1984 au CERN
des particules W± et Z0 (« Histoire ») et par l’étude de leurs propriétés.
Un modèle tout en séduction
C’est ce cadre extrêmement fructueux qui constitue ce que les
physiciens des particules appellent le Modèle Standard. Il permet
de calculer toutes les réactions entre particules, moyennant la
connaissance des valeurs de 19 paramètres (parmi lesquels on
trouve les masses des leptons chargés et des différents quarks
ainsi que l’intensité des forces électromagnétique et forte, certains
paramètres liés à l’unification des forces électromagnétique et
faible...).
© CERN
Poids plume ou poids lourd : la faute
au Higgs !
Le Modèle Standard s’appuie sur un principe de symétrie qui a
comme conséquence que les particules ont une masse nulle, ce qui n’est
pas ce que l’on observe expérimentalement. Cette contradiction peut être
résolue par l’introduction du mécanisme de Higgs (« Théorie »), capable de
conférer une masse aux particules qui en étaient initialement dépourvues.
Postulé dans le Modèle Standard, ce mécanisme devrait avoir laissé des
traces sous la forme d’au moins une particule additionnelle encore à
découvrir : le boson de Higgs. Cette particule est maintenant recherchée
depuis plus de 30 ans ! On sait actuellement, principalement grâce aux
expériences du CERN, que sa masse est supérieure à 114 GeV/c2 et devrait
être inférieure à 200 GeV/c2. Elle est activement recherchée aujourd’hui
au Fermilab (Chicago) grâce à un collisionneur proton-antiproton appelé
le Tevatron, et devrait – si le Modèle Standard décrit bien la physique des
particules élémentaires – être vue au LHC.
page 6
Simulation de la production d’un
boson de Higgs dans le détecteur (ici
en coupe) CMS au CERN : dans cet
événement le Higgs se désintègre en
4 leptons représentés par les traces
roses.
ÉLÉMENTAÍRE
Histoire
Le Modèle Standard
Quelques dates marquantes du Modèle
Standard
Charge faible
Dans le langage courant, on parle
de « charge » pour décrire la charge
électrique. La force électrique qui
s’exerce entre deux objets « chargés »
est proportionnelle au produit de leurs
charges. Par un choix judicieux d’unité
on peut exprimer toute charge électrique
comme un multiple, ayant un signe positif
ou négatif, d’une charge élémentaire.
Ainsi, avec cette convention, l’électron
porte une charge égale à -1 alors que
celle du proton est +1. Les quarks ont
par contre des charges fractionnaires
(+2/3 et -1/3). Le photon qui transmet
l’interaction
électromagnétique
a une charge nulle. D’une façon
similaire, on peut définir une « charge
faible » pour les particules sensibles
à l’interaction faible. Mentionnons
qu’il existe aussi une « charge forte »
appelée couleur. Contrairement aux
« charges » précédentes, on n’observe
pas d’objet coloré dans le laboratoire
mais des particules neutres de couleur
(Élémentaire N°4).
1897 : J.J. Thomson découvre l’électron.
1905 : A. Einstein interprète l’effet photoélectrique par la nature corpusculaire
de la lumière (photons). La même année il propose la théorie de la relativité
restreinte.
De 1900 à 1930 : les lois de la mécanique quantique sont progressivement
établies.
1927 : P. Dirac publie un article donnant l’équation relativiste d’un système
constitué de charges et de champs électromagnétiques. C’est un premier pas
vers l’unification de la mécanique quantique et de la relativité restreinte, qui
trouvera son expression définitive avec la théorie quantique des champs.
1930 : W. Pauli propose l’existence du neutrino pour expliquer le spectre de
l’énergie de l’électron dans la désintégration bêta.
1934 : théorie d’E. Fermi de l’interaction faible, construite par analogie avec
l’interaction électromagnétique de J.-C. Maxwell.
1937 : découverte du muon ; environ 200 fois plus lourd que l’électron, il n’a
pas d’interaction forte avec la matière, exactement comme l’électron.
De 1930 à la fin des années 40 : les physiciens comprennent l’origine des
quantités infinies qui apparaissent dans les calculs en théorie quantique des
champs. S.-I. Tomonaga, J. Schwinger et R. Feynman élaborent la théorie de
la renormalisation pour éliminer ces quantités infinies et aboutir à des valeurs
finies que l’on peut comparer avec les mesures expérimentales (voir «Théorie»).
Cela leur vaudra le prix Nobel de physique en 1965.
1947 : B. Pontecorvo suggère que l’électron et le muon ont la même « charge
faible » c’est-à-dire se comportent de la même manière vis-à-vis de l’interaction
faible.
1949 : "θ→ππ, τ→3π" : parmi les particules produites par interaction de rayons
cosmiques, on observe que deux d’entre elles ayant même masse, charge et
durée de vie se désintègrent par interaction faible tantôt en deux pions (θ) et
tantôt en trois (τ). Le pion ayant une parité propre négative, le θ et le τ doivent
être considérées comme deux particules différentes, sauf s’il y a violation de
la parité lors de leur désintégration. Or, le fait que ces deux particules aient
des caractéristiques similaires donne à penser qu’il ne s’agit que d’une seule
et même particule. La parité serait-elle violée ?
Parité propre
L’opération de parité consiste à inverser
les trois directions spatiales :
x →-x, y→ -y, z→-z
Sous cette opération, un système de
parité donné, constitué d’une ou
plusieurs particules, est transformé en
un système décrit par un état quantique
identique, à un facteur + ou - près. Ce
facteur combine un terme dépendant du
mouvement relatif entre les différentes
particules, mais aussi des facteurs +
ou - qui varient selon la nature des
particules. Ces facteurs sont les parités
propres des particules considérées.
ÉLÉMENTAÍRE
page 7
De 1954 à 1970 : de C.N. Yang et D. Mills à G. t’Hooft et M. Veltman, c’est
la lente maturation des théories de jauge. Dans ces théories, les particules
véhiculant les interactions entre constituants de la matière doivent avoir une
masse nulle.
1956 : T.D. Lee et C.N. Yang proposent des tests pour établir la violation de la parité.
1956 : observation de l’interaction de neutrinos électroniques émis par
une centrale nucléaire américaine. La particule proposée par Pauli est ainsi
directement détectée.
1957 : observation de la violation de la parité (C.S. Wu, puis R. Garwin, L.
Lederman et M. Weinrich).
Le Modèle Standard
DR
1962 : découverte du neutrino muonique à Brookhaven (USA). Par interaction
faible dans la matière il donne naissance à un muon et non à un électron, ce
qui permet de le distinguer du neutrino électronique.
1964 : on observe, à Brookhaven, un comportement différent entre une
particule étrange et son antiparticule vis-à-vis de l’interaction faible. Cela
indique que la symétrie « CP » est violée.
1964 : P. Higgs propose un mécanisme qui confère une masse aux champs de
jauge et aux constituants de la matière.
1967 : à SLAC (USA), une expérience montre que le proton contient des
« grains » élémentaires, ponctuels : les «partons», qui seront par la suite
identifiés aux quarks.
1967 : modèle de Glashow-Salam-Weinberg (GSW) pour expliquer
l’interaction faible via des champs de jauge. Il prédit l’existence de courants
neutres faibles et unifie interaction faible et électromagnétique.
1968 : des neutrinos solaires manquent à l’appel. Est-ce dû au modèle utilisé
pour décrire la « chaudière solaire » ou bien à un autre phénomène (qui
pourrait bien être l’oscillation entre neutrinos de natures différentes ? La
réponse en 1998 et 2001...
1971 : G. t’Hooft et M. Veltman démontrent que le modèle GSW permet de
faire des calculs complets (on dit qu’il est renormalisable).
1972 : M. Kobayashi et T. Maskawa montrent que la violation de la symétrie
CP est « naturelle » s’il existe au moins trois familles de constituants
fondamentaux.
1973 : découverte des courants neutres faibles par l’expérience Gargamelle
(CERN).
1973 : théorie de l’interaction forte, transmise par 8 gluons de masse nulle.
La charge forte est appelée couleur. Les quarks existent suivant trois états de
couleurs différentes, les gluons portent deux couleurs distinctes. Cette théorie
fait appel aux champs de jauge, comme celle de l’interaction électro-faible.
1974 : découverte d’un nouveau quark, le charme, et d’un nouveau lepton,
le tau (SLAC et Brookhaven aux USA).
1977 : découverte d’un cinquième quark, le quark beau, à Fermilab (USA).
1979: observation du gluon, particule qui véhicule l’interaction forte, à DESY
(Hambourg).
DR
M. Kobayashi
T. Maskawa
1983 : découverte des bosons W+,W- et Z0 au CERN.
1989 : démarrage du LEP. Dix ans se sont écoulés entre sa conception, sa
construction ainsi que celle des quatre expériences qui l’utilisent. Jusqu’en
1995 (phase dite LEP1) des mesures de précision sont réalisées sur les
interactions faible et forte à partir de l’étude de désintégrations du boson
Z0. Dès 1989 ces mesures montrent que seules trois familles de constituants
existent dans la nature.
page 8
1992 : premiers résultats des expériences GALLEX (Italie) et SAGE (Russie)
qui confirment qu’il y a bien déficit du nombre des neutrinos-électron en
provenance du Soleil par rapport aux prévisions.
1994 : découverte du dernier des quarks connus, le top, à Fermilab (USA).
1995 : démarrage du programme LEP2 durant lequel l’énergie de la machine
est augmentée. Le seuil de production de paires W+W- est franchi et l’énergie
maximale atteinte sera de 208 GeV. Lors de l’arrêt du LEP en 2000, l’ensemble
ÉLÉMENTAÍRE
Le Modèle Standard
des mesures de précision montrent que le modèle GSW décrit bien tous les
résultats. Si le boson de Higgs manque toujours à l’appel une zone bien précise
est délimitée pour sa masse : entre 114 et 200 GeV/c2.
1998 : observation du phénomène d’oscillation des neutrinos-mu, produits
dans les rayons cosmiques, par l’expérience superKAMIO-KANDE (Japon). Cela
prouve que les neutrinos sont massifs.
1999 : démarrage des « usines à beauté » au Japon et aux USA. Leur but principal
est d’étudier la violation de la symétrie CP avec des particules contenant le
quark beau. On s’attend à des effets bien plus grands que ceux mesurés avec les
particules étranges qui sont au niveau de quelques pour mille. L’espoir est aussi
d’observer des contributions nouvelles à ce phénomène.
© Fermilab
2000 : l’existence du neutrino-tau est prouvée, à Fermilab, par
l’observation de quelques interactions caractéristiques de sa présence.
2001 : l’expérience SNO (Canada) montre que le Soleil produit bien
le nombre de neutrinos prévus mais qu’une partie de ceux-ci s’est
transformée en neutrinos-mu ou neutrinos-tau lors de son parcours.
2008 : arrêt de l’usine à beauté de SLAC. Avec celle de KEK, elles ont
montré que le Modèle Standard décrit la violation de la symétrie CP à partir
d’un seul paramètre, comme attendu dans la description de Kobayashi et
Maskawa. La précision des mesures exclut des déviations de plus de 1020% dues à la présence éventuelle de nouvelles particules. La violation
de la symétrie CP du modèle Standard est trop faible pour expliquer celle
de l’asymétrie entre matière et anti-matière dans l’Univers. Peut-être que
l’origine de cette dernière est à rechercher du côté des neutrinos ?
Seul le boson de Higgs manque encore au tableau et il devrait être découvert
au CERN grâce à la mise en fonctionnement du LHC. Cependant, si le Modèle
Standard est très habile à décrire l’essentiel des phénomènes observés jusqu’ici,
on sait qu’il est incomplet. Certaines observations ne s’inscrivent pas dans son
cadre, comme le fait que les neutrinos aient une masse, que l’Univers contienne
une forte proportion de matière noire et qu’il soit formé uniquement de matière.
Elles sont autant de pistes pour les années à venir. Le programme LHC est aussi
conçu pour observer une nouvelle série de particules dont les masses sont
attendues entre quelques centaines de GeV et quelques TeV. Parmi elles on
devrait en trouver au moins une, interagissant très peu avec la matière ordinaire,
et qui pourrait expliquer
la présence de « matière
noire » dans l’Univers.
Le détecteur CDF, fonctionnant sur
le Tevatron (Fermilab, USA), qui,
avec l’expérience DØ, a découvert le
quark top.
© SLAC
En résumé, de 1897 à 2000, tous les constituants du Modèle Standard ont été
observés, depuis l’électron jusqu’au neutrino-tau. On peut remarquer que,
depuis les années 1970, les particules de matière ont été découvertes aux USA
alors que celles assurant l’échange des forces l’ont été en Europe (gluon, W, Z).
ÉLÉMENTAÍRE
page 9
Le détecteur BaBar opérant sur le
collisionneur PEP-II de SLAC (USA).
Il a étudié la violation de la symétrie
CP avec les particules de beauté.
Interview
Jean Iliopoulos
Pourquoi avez-vous fait de la physique ?
J.-A. Scarpacci
Souvent ce sont des événements un peu aléatoires qui déterminent la
carrière de quelqu’un ! J’ai d’abord choisi la voie des mathématiques
plutôt que des études littéraires, puis j’ai fait des études d’ingénieur.
Mon premier travail a été dans la société Siemens, à Munich, en tant
qu’ingénieur ; c’était la fin des années 50 ; les transistors existaient mais
n’étaient pas assez fiables. On les utilisait dans les appareils radio, d’où
le nom de ces derniers au début. Siemens commençait à remplacer les
lampes par des transistors dans des appareils plus sophistiqués. Mais les
jeunes ingénieurs ne savaient pas ce qu’était un transistor ! On ne nous
l’enseignait pas ou seulement dans quelques écoles ! Le responsable de la
recherche chez Siemens nous a donc chargés, un collègue et moi-même,
de lire un gros dossier de notes sur le sujet, de comprendre la théorie
des transistors et de l’expliquer aux membres du département. Nous n’y
comprenions rien ! Dans ces notes, une phrase magique revenait à plusieurs
reprises, disant que tel et tel phénomène – au cœur du fonctionnement
des transistors – s’expliquait par les lois de la mécanique quantique. Nous
avons donc décidé de nous renseigner sur cette mystérieuse « quantum
mechanics » et avons acheté le tout nouveau livre de Messiah sur le sujet,
ainsi que le fameux texte de Landau et Lifshitz, qui venait d’être traduit
du russe en anglais.
Jean Iliopoulos lors de son interview à
l’École normale supérieure à Paris.
Jean Iliopoulos est né en 1940 à Kalamata,
au sud du Péloponnèse, en Grèce. Après des
études à l’École polytechnique d’Athènes, il
vient à Paris où il suit le DEA de physique
théorique à Orsay en 1963 et poursuit avec
une thèse de 3ème cycle et puis une thèse
d’État. Lors de cette dernière il séjourne
deux ans au CERN comme boursier à la
Division théorique. En 1969, il part deux ans
comme boursier à l’Université de Harvard
où il collabore avec Sheldon Glashow et
Luciano Maiani à la construction théorique
du mécanisme dit de GIM (initiales des trois
auteurs), prédisant l’existence du 4ème quark,
qu’on appellera par la suite «charme». À son
retour en France en 1971, il entre au CNRS
et il rejoint le groupe de Physique théorique
du laboratoire de l’École normale de Paris.
Jean Iliopoulos s’est intéressé à la théorie
des interactions des particules à hautes
énergies ainsi qu’à la gravitation. Tout au
long de sa carrière de chercheur il n’a cessé
d’enseigner : à l’École polytechnique, à
l’École normale ainsi qu’au DEA de Physique
théorique de Paris dont il était responsable
pendant plusieurs années. En parallèle, il
a activement contribué à l’administration
de la recherche, comme membre et puis
comme président de la section de Physique
théorique du Comité national du CNRS
et en faisant partie de plusieurs comités
scientifiques en France et au CERN. Il est
membre de l’Académie des sciences.
Jean Iliopoulos a reçu de nombreuses
récompenses internationales prestigieuses
dont la Médaille Dirac, en 2007.
Pour vous qu’est ce qu’une particule ?
Il est difficile de répondre à cette question ! Une particule, juste une
particule, c’est un objet qui a une masse et un spin bien déterminés
et aussi quelques autres nombres quantiques. Le noyau d’uranium est
une particule. Quant à définir ce qu’est une particule élémentaire, c’est
plus délicat. Pour moi, une bonne définition est la suivante : c’est un
objet qui figure dans la table des particules élémentaires (le « particle
data book », ou PDG, anciennement la table de Rosenfeld) ! Il faut bien
comprendre que l’élémentarité est une notion qui change avec le temps.
En effet, quand j’ai commencé la physique, les particules élémentaires
– qui figuraient dans les tables donc – étaient le proton, le neutron, les
pions, etc. On sait aujourd’hui que ces particules sont en fait composées
de quarks et de gluons. Les physiciens de demain découvriront peut-être
que ces derniers, ainsi que les autres particules que nous considérons
aujourd’hui comme « élémentaires » ne le sont pas !
page 10
Un nombre quantique est un nombre
qui caractérise l’état d’un système
quantique. Il peut être continu (masse,
impulsion...) ou discret (moment
cinétique...).
Nous avons trouvé cela tellement passionnant, que nous avons tous deux
démissionné de chez Siemens pour faire des études de physique théorique.
Je suis venu en France faire un certificat d’études supérieures (l’ancêtre
du DEA, lui-même ancêtre du Master 2). Mon ami est également devenu
théoricien et est aujourd’hui professeur à Bruxelles !
ÉLÉMENTAÍRE
Jean Iliopoulos
Quels sont les aspects qui ont le plus marqué votre vie
professionnelle ?
Ce qui m’a marqué le plus, ce sont les personnalités que j’ai eu la chance
de rencontrer ! Philippe Meyer (physicien théoricien du LPTHE-Orsay)
par exemple, qui a formé des générations de physiciens théoriciens et
expérimentateurs et qui vient de nous quitter. Je considère aussi que j’ai
eu énormément de chance dans ma jeunesse car j’ai vécu une époque
où il y a eu de grandes révolutions en physique. C’était une période de
grande activité, où de nouvelles idées étaient proposées tous les jours.
Une des personnalités de l’époque, André Lagarrigue, m’a beaucoup
marqué.
DR
C’était la période extraordinaire de la découverte des courants neutres
et nous avions des réunions tous les jours dans les années 69-72. C’est
durant cette période que les physiciens ont compris que le Modèle
Standard était bel et bien une réalité expérimentale ! Cette effervescence
est ensuite retombée et la période qui a suivi a été plus calme. Mais
avec le LHC, une nouvelle période d’intense activité scientifique et de
découvertes s’annonce. Les physiciens de votre génération auront la
même chance que moi !
Jean Iliopoulos lors de la Pâque Grecque
2007 fêtée entre amis, une occasion
qui lui permet de mettre en œuvre ses
talents de cuisinier !
Comment est venue l’idée d’« inventer » un 4ème quark (le
quark charmé) ?
L’idée, comme toujours, est venue par hasard. La problématique était
la même que celle que l’on a aujourd’hui avec le LHC : il est clair que
les expériences réalisées à une certaine échelle d’énergie permettent de
comprendre la physique à cette échelle. Mais elle permettent également
de deviner, de façon indirecte, ce qui se passe à des échelles d’énergies
encore plus grandes ! Imaginez des extra-terrestres sur une planète très
éloignée qui observent ce qui se passe sur Terre. Leurs instruments ont
un pouvoir de résolution de l’ordre de 10 mètres. Ces ET peuvent donc
voir les bâtiments que nous construisons, les avions, les routes, etc. Ils
ne peuvent nous voir mais ils peuvent deviner qu’il y a des « bêtes » ou
quelque chose qui sont à l’échelle du mètre, qui ont créé tout ça. Tout ce
qu’ils verraient ne pourrait pas être fait par des fourmis. Ils auraient donc
des arguments pour assurer qu’ils feraient à coup sûr une découverte
s’ils avaient des appareils d’observation avec un plus grand pouvoir de
résolution et ils pourraient ainsi convaincre le CNRS de leur planète de
financer leur recherche.
ÉLÉMENTAÍRE
page 11
À l’époque où nous avons proposé (avec Glashow et Maiani) l’idée qu’il
devait exister un 4ème type de quark (en plus des quarks u, d et s), il
existait deux mesures particulièrement précises. La première portait sur
la différence entre les masses de certains mésons K et l’autre sur leur
mode de désintégration en leptons chargés (électrons, muons et leurs
Jean Iliopoulos
antiparticules). Les calculs théoriques de ces quantités étaient en flagrant
désaccord avec ces mesures, de quelques six ordres de grandeur (un
facteur un million) ! À l’époque, on avait, d’un côté, quatre types de
leptons, les électrons, les muons et les neutrinos associés et, de l’autre
coté, trois types de quarks, u, d et s. L’idée d’introduire un quatrième quark
(le c) est venue naturellement pour avoir une situation plus symétrique.
Précisément grâce à cette symétrie, les calculs dans cette théorie à quatre
quarks étaient en accord avec les données expérimentales mentionnées
plus haut. Nous avons eu de la chance : cette idée était la bonne !
ILC (International Linear Collider) et CLIC (Compact LInear
Collider) sont deux projets de
collisionneurs linéaires électron-positron destinés à faire des
mesures de précision à des énergies de l’ordre du TeV – à la suite
des découvertes attendues au
LHC dans ce domaine d’énergie.
L’ILC est prévu pour fonctionner
à une énergie de collision de 500
GeV, avec une possibilité ultérieure de monter jusqu’à 1 TeV,
et devrait mesurer de 30 à 40 kilomètres de long. Le CLIC veut
exploiter d’autres technologies
pour l’accélération des faisceaux
pour atteindre une énergie de 3
à 5 TeV avec un dispositif plus
court. Les deux machines sont
pour l’instant à l’état de projet,
de même que les détecteurs qui
exploiteraient leurs collisions.
Des activités de recherche et de
développement liés à ces projets
sont menées dans de nombreux
laboratoires de physique des particules.
Que va apporter le LHC ?
Le LHC est la première machine dans l’histoire de la physique des
particules où les physiciens ont la garantie de découvrir une physique
nouvelle, même si personne ne peut dire à l’avance ce que sera cette
physique ! L’argument est le même que précédemment : les expériences
passées ont permis de réunir un ensemble d’indications fortes que des
« bêtes » existent à des échelles plus petites que celles testées jusqu’à
présent et que le pouvoir de résolution du LHC permettra de les mettre
en évidence de façon directe. Pour être plus précis, les expériences du
LEP (voir « Expérience ») indiquent que le boson de Higgs du Modèle
Standard doit être relativement léger (les résultats des expériences de
précision menées au LEP sont difficilement conciliables avec l’existence
d’un Higgs très lourd). Cependant, les calculs théoriques de la masse
du Higgs dans le cadre du Modèle Standard montrent qu’il est difficile
d’avoir un Higgs léger. Il doit donc exister un mécanisme permettant de
comprendre la légèreté du Higgs !
Quelle est, selon vous, la nouvelle physique ?
Ce n’est là que spéculation de ma part. Mon pari est sur la supersymétrie.
Tout d’abord parce que c’est une idée formidable, mais aussi parce
qu’elle permet de rendre le Modèle Standard plus naturel. Si vous essayez
d’expliquer le Modèle Standard à quelqu’un, il va voir que quelque
chose ne marche pas. Par exemple le Modèle Standard est bâti sur l’idée
d’une symétrie dite de jauge. Il s’agit d’une symétrie par rapport à des
transformations agissant dans un espace « interne » qui a une structure
compliquée parce que le Modèle Standard n’est pas symétrique par
rapport à toutes les transformations, mais seulement vis-à-vis de certaines
d’entre elles. Pourquoi ? Lorsqu’on inclut la supersymétrie, tout ceci
devient naturel, plus simple dans un certain sens. C’est là mon idée.
© CERN
Après le LHC ?
Il me paraît clair qu’il faudra aller plus loin. Cependant, il est impossible
de prévoir dans quelle direction. Tout dépendra des résultats du LHC,
c’est-à-dire de ce qu’est réellement la nouvelle physique. Si celle-ci se
manifeste à des échelles d’énergies de l’ordre de quelques centaines
de GeV, le collisionneur linéaire international (ILC), actuellement en
page 12
Vue du détecteur ATLAS au LHC
(CERN).
ÉLÉMENTAÍRE
Jean Iliopoulos
discussion, sera la machine appropriée. S’il faut aller jusqu’au TeV, il
faudra envisager une machine comme le CLIC, voire un super CLIC. Mais
pour une fois, je suis serein vis-à-vis de ces développements : que ce soit
l’un ou l’autre, je suis sûr de ne pas les voir !
Avez-vous des regrets ?
© ENS
Mes regrets : ne pas avoir trouvé ce que d’autres ont trouvé à l’époque
où le Modèle Standard s’est construit. Je suis passé à côté de grandes
découvertes ! Je ne peux pas regretter de ne pas avoir construit la
mécanique quantique, je n’étais pas là quand cela s’est fait. Mais pour le
Modèle Standard, j’étais présent et je travaillais sur le sujet ! Mais avec le
temps, je vois cela avec philosophie : j’étais présent, j’ai participé à ces
développements et c’est cela qui compte. De cela je suis content.
La cour intérieure, dite cour des Ernests,
de l’École normale supérieure, rue
d’Ulm, à Paris. Créée en 1794, l’École
accueille scientifiques et littéraires et est
l’un des plus prestigieux établissements
d’enseignement supérieur de France.
Votre rêve de physicien ?
Une chose... mais c’est vraiment du domaine de la science fiction, ce
serait de pouvoir observer l’Univers primordial avec autre chose que
des photons. Les photons nous donnent accès à l’Univers tel qu’il était
quelques centaines de milliers d’années après le Big-Bang. Si on pouvait
observer les neutrinos de l’Univers primordial, ou encore les ondes
gravitationnelles, on aurait accès aux tous premiers instants de l’Univers
après le Big-Bang.
Un message aux jeunes ?
D’abord, pour les jeunes physicien(ne)s, nous entrons dans une période
de physique extrêmement riche, donc vous avez de la chance ! Mon
conseil : n’écoutez pas les conseils des vieux !
Une question de physique à laquelle vous auriez aimé
répondre ?
Il y en a beaucoup ! C’est vaste la Physique ! Si je me restreins à la
physique des hautes énergies, alors une question dont j’aimerais connaître
la réponse est : quel est le rôle de la gravitation ?
ÉLÉMENTAÍRE
page 13
Et puis encore : est-ce qu’il y a vraiment eu un « Big-Bang » ? Le modèle
du Big-Bang est plutôt une paramétrisation de notre ignorance. Y-a-t-il
véritablement une singularité de l’espace-temps ? Dans un autre registre :
peut-on démontrer le confinement des quarks ? Pourra-t-on un jour
calculer les constantes sans dimensions de la Physique ? ...
Centre de recherche
Le CERN
Le CERN : le plus grand laboratoire au
monde pour la physique des particules
Les 12 pays fondateurs du CERN sont
l’Allemagne, la Belgique, le Danemark,
la France, la Grande-Bretagne, la
Grèce, la Hollande, l’Italie, la Norvège,
la Suède, la Suisse et la Yougoslavie. La
convention signée en 1954 décrit les
missions de l’organisme en ces termes :
« L’organisme doit promouvoir à
travers l’Europe une recherche en
physique nucléaire de caractère
purement scientifique et fondamental.
L’organisme ne doit avoir aucune
relation avec des projets militaires
et tous les résultats des travaux
expérimentaux ou théoriques seront
publiés et deviendront du domaine
public. ».
© CERN
L’idée d’un grand centre européen pour la physique nucléaire a germé
au lendemain de la seconde guerre mondiale. Pendant la guerre, nombre
de physiciens européens se sont exilés aux États-Unis qui, de par leur
effort pour mettre au point la bombe atomique, ont pris un rôle de leader
dans le domaine de la physique nucléaire. L’Europe, affaiblie dans tous
les domaines, cherche la meilleure voie pour réorganiser sa recherche.
Une poignée de scientifiques, parmi lesquels Pierre Auger, Raoul Dautry,
Lew Kowalski, Niels Bohr et Edoardo Amaldi, réfléchissent à la création
d’un laboratoire européen pour faire progresser la discipline, tout en
contribuant à réunifier et pacifier le vieux continent.
Un acte décisif sera accompli par un physicien américain, Isidor Rabi
en juin 1950, qui fait inscrire une résolution lors de la cinquième
conférence de l’UNESCO à Florence, pour « assister et encourager
la création de laboratoires régionaux afin d’accroître la coopération
scientifique internationale ». Dès lors, Pierre Auger et l’italien Edoardo
Amaldi se lancent dans une campagne de persuasion afin de rallier les
scientifiques européens. Ils se heurtent à quelques résistances, mais lors
de la conférence intergouvernementale de l’UNESCO à Paris en décembre
1951, la première résolution pour créer un Conseil Européen pour la
Recherche Nucléaire est adoptée. L’acronyme CERN était né.
Un an plus tard, en octobre 1952, ce conseil choisit Genève pour
accueillir le site. Quatre villes étaient en compétition : Copenhague, Paris,
Arnhem et Genève. La neutralité de la Suisse et sa position géographique
en Europe furent des atouts indiscutables.
Le 17 mai 1954 commençait la construction des premiers bâtiments à
Meyrin, dans la banlieue genèvoise. Le Centre
Européen pour la Recherche Nucléaire est
officiellement créé le 29 septembre 1954 par 12
pays fondateurs qui ratifient la convention.
Aujourd’hui le CERN a 20 pays membres assurant
son financement et plusieurs autres qui collaborent
dans des projets précis, comme la Russie, les ÉtatsUnis, le Japon, l’Inde, la Turquie et Israël.
© CERN
Une, deux, trois... machines
page 14
En haut : la session historique d’octobre
1952 du Conseil provisoire du CERN,
chargé de la rédaction de la convention
du laboratoire. À droite en bas : le 17
mai 1954, les premiers coups de pelle
étaient donnés sur le site de Meyrin.
L’histoire du CERN est indissociablement liée à la construction de grands
accélérateurs, une des raisons de sa création. Les projets d’accélérateurs
sont mis sur pied très tôt. Afin de permettre à une génération d’Européens
de se faire la main, un projet plus classique, un synchrocyclotron (SC) de
600 MeV, est construit et opérationnel dès 1957. Il fournit des faisceaux
aux premières expériences de physique des particules et de physique
nucléaire. À partir de 1964, le SC est réservé aux seules expériences de
physique nucléaire jusqu’en 1990, où il sera finalement arrêté après 33
ans de services.
ÉLÉMENTAÍRE
© CERN
Le CERN
Le PS (Proton Synchrotron) accélère ses premiers protons le 24 novembre
1959, devenant l’accélérateur produisant les plus hautes énergies au
monde (28 GeV) et se met ainsi au service du programme de physique
des particules du CERN. Plus tard, dans les années 1970, son rôle devient
l’alimentation des nouvelles machines. En 1971 par exemple, le PS
envoie deux faisceaux de protons dans deux anneaux à intersection (ISR),
permettant ainsi les premières collisions frontales de protons.
À partir de 1976, un nouvel outil voit le jour, le SPS (Super Proton
Synchrotron). Ayant une circonférence de 7 km, il est construit dans un
tunnel souterrain qui traverse la frontière franco-suisse. Prévu initialement
pour accélérer des protons jusqu’à une énergie de 300 GeV, il opère
aujourd’hui à 450 GeV. Un moment glorieux de son histoire est lié à la
découverte des bosons intermédiaires W+, W- et Z0 dans les années 80 (voir
« Découverte »). Le SPS a fourni pendant des années des faisceaux pour
des expériences de types variés, alimentant différents halls expérimentaux
du CERN. Il continue encore aujourd’hui son activité comme injecteur de
proton pour le LHC.
Transport d’une des deux bobines du
synchrocyclotron à travers le village de
Meyrin.
Dès 1985, un projet gigantesque commence sous les terres jurassiennes.
L’excavation d’un tunnel de 27 km de circonférence démarre en février
pour recevoir le LEP, collisionneur électron-positron, prévu pour devenir
une usine à bosons Z0. En dépit de la taille de l’entreprise, les progrès
furent impressionnants. La construction des éléments de l’accélérateur
(5176 aimants et 128 cavités accélératrices) fut tout aussi rapide. Le 8
février 1988, les deux extrémités du tunnel de 27 kilomètres se rejoignirent
avec une erreur d’un centimètre seulement !
Les premières collisions ont eu lieu le 13 août 1989 à une énergie de
91 GeV. La machine est restée à cette énergie plusieurs années (ce
qu’on appelle LEP Phase 1) afin d’accumuler une quantité abondante
d’événements Z0. Puis, l’énergie est montée à 160 GeV permettant la
création des paires de W. Toutes ces données accumulées ont abouti
à des mesures extrêmement précises des paramètres de la théorie
électrofaible et de l’interaction forte qui a établi le Modèle Standard (voir
«Expérience»). En parallèle à l’exploitation scientifique de l’anneau, un
programme de recherche et développement de cavités supraconductrices
(voir «Accélérateurs») a permis la montée progressive de son énergie
jusqu’à 208 GeV au LEP2. Ceci a donné lieu à une période passionnante
de la recherche du boson de Higgs qui a abouti aux meilleures limites
actuelles sur sa masse. Selon le Modèle Standard, ce boson a 95% de
chances d’avoir sa masse comprise entre 114 GeV/c2 et 200 GeV/c2. En
2001, le programme du LEP a pris fin afin de permettre le démontage de
la machine et la préparation du tunnel pour l’installation des éléments
du LHC.
Cette machine subit actuellement les derniers réglages. Elle constitue un
défi technologique et son fonctionnement – à partir de l’été 2008 – sera
considéré comme un tour de force.
page 15
ÉLÉMENTAÍRE
Vue de l’intérieur de la salle contenant
les anneaux des ISR.
© CERN
ISR
Les ISR (Intersecting Storage Rings)
étaient constitués de deux anneaux de
300 m de diamètre, légèrement déformés
de façon à permettre des intersections en
huit points répartis sur la machine. On y
accumulait des faisceaux de protons reçus
du PS jusqu’à atteindre une luminosité
élevée. Les ISR ont constitué le premier
collisionneur hadronique au monde et de ce
point de vue, furent le laboratoire d’étude
de plusieurs effets propres à ce type de
machine (technique du vide, stabilité de la
luminosité, contrôle des faisceaux, etc...).
C’est dans les ISR en 1981 qu’ont eu lieu
les premiers essais de collisions entre des
protons et des antiprotons suite aux études
que Simon Van der Meer a effectuées. Les
mêmes anneaux furent aussi utilisés pour
tester des aimants supra-conducteurs (voir
« Accélérateurs »). Aujourd’hui, les ISR sont
reconnus comme le projet de « référence »
pour tous les collisionneurs hadroniques
qui furent construits par la suite dans le
monde.
Le CERN
Les dates-clés du CERN et ses découvertes
© CERN
1954 : les Européens s’unissent pour la science fondamentale ;
1957 : le premier accélérateur est mis en service ;
1959 : le PS démarre ;
1968 : Georges Charpak révolutionne la détection en concevant la première
chambre multifils - il reçoit le Prix Nobel de Physique en 1992 ;
1971 : le premier collisionneur proton–proton entre en fonctionnement
(ISR) ;
1973 : découverte des courants neutres ;
1976 : le SPS est mis en service ;
1983 : les particules W et Z sont découvertes ;
1984 : le prix Nobel de physique est attribué à Carlo Rubbia et Simon Van
der Meer ;
1986 : les collisions d’ions lourds débutent ;
1989 : le LEP démarre ;
1990 : Tim Berners-Lee invente le Web ;
1993 : mesure de la composante de violation directe de l’asymétrie matièreantimatière ;
1995 : première observation d’anti-hydrogène ;
2000 : le LEP atteint une énergie de 208 GeV dans le centre de masse ;
2001 : différents résultats obtenus au cours de collisions d’ions lourds
suggèrent que le plasma de quarks et de gluons aurait été produit au CERN ;
2002 : capture de milliers d’atomes d’anti-hydrogène ;
2008 : le LHC démarre.
© CERN
Le « Mole », robot creusant les
galeries souterraines du SPS,
connecte le tunnel avec un hall
expérimental, en avril 1974.
La structuration de l’organisme
La division théorique, créée en 1952 autour de Niels
Bohr, a été le premier groupe de recherche du CERN. Les
théoriciens qui arrivent à Genève dès 1954 sont accueillis
temporairement dans des locaux de l’Université de Genève
avant de d’emménager dans des baraques à Cointrin, près
de l’aéroport.
Depuis, le CERN s’est agrandi, s’est développé et s’est adapté aux besoins de
la discipline. Aujourd’hui, il compte 2400 membres permanents, physiciens,
ingénieurs et administratifs. Comme tout laboratoire d’accueil, le rôle de
ses personnels est de faire « tourner la boutique CERN » : organisation des
groupes de travail, installation des détecteurs, recherche et développement,
préparation des aires expérimentales, mise en place et distribution de la
puissance de calcul, formation. Aux permanents s’ajoutent environ 5000
utilisateurs, qui sont des physiciens et ingénieurs du monde entier, impliqués
dans des expériences qui ont lieu au CERN. Le fonctionnement du laboratoire
est supervisé par un Conseil qui constitue la plus haute autorité en matière
de décisions concernant les programmes, leur financement ainsi que toutes
les questions administratives ou techniques. Il est composé de délégués
page 16
© CERN
Ci-dessus : les éléments
de couleur blanche à
l’arrière-plan sont les
aimants dipolaires du
LEP, qui se distinguent par
leur conception originale.
Ils sont constitués de
plaques d’acier avec
un garnissage de béton dans les interstices
séparant les plaques. Les aimants de couleur
bleue au premier plan sont des quadrupôles
de focalisation, et les petits aimants jaunes à
l’arrière-plan, des sextupôles qui corrigent la
« chromaticité » des faisceaux ; de même que
les systèmes optiques peuvent apporter des
corrections aux différentes longueurs d’ondes
constituant la lumière, ces sextupôles corrigent
la dispersion des impulsions dans les faisceaux
de particules du LEP. Au total, le LEP possède
3368 dipôles, 816 quadripôles, 504 sextupôles
et 700 autres aimants qui apportent de légères
corrections à l’orbite des faisceaux. À droite :
une des cavités supraconductrices qui furent
installées à partir de 1996 afin de doubler
l’énergie du LEP.
ÉLÉMENTAÍRE
© CERN
© DESY, Christian Schmid
Le CERN
scientifiques et gouvernementaux qui représentent les pays membres. Ce
Conseil est assisté du Comité de Politique Scientifique (Scientific Policy
Committee) et du Comité des Finances (Finances Committee). L’organisme
est dirigé par un Directeur Général nommé par le Conseil, lui-même assisté
d’un Directoire.
À gauche, l’actuel Directeur général du
CERN Robert Aymar, et à droite, le futur
directeur du CERN Rolf Heuer, qui prendra
le relais en janvier 2009.
© CERN
Et un et deux et trois... et sept
départements
L’organisme comprend aujourd’hui 7 départements dont font partie tant les
membres permanents du CERN que les utilisateurs :
❏ Accélérateurs et faisceaux (AB pour « Accelerators and Beams »)
❏ Technologies d’accélération (AT pour « Acceleration Technologies »)
❏ Physique (PH)
❏ Technologies de l’information (IT pour « Information Technologies »)
❏ Support technique (TS pour « Technical Support »)
❏ Ressources humaines (HR pour « Human Resources »)
❏ Services financiers (FI).
Le nouveau centre de contrôle du CERN, inauguré
en 2006, comprend maintenant les salles de
contrôle des huit accélérateurs du laboratoire,
du système de distribution cryogénique et de
l’infrastructure technique.
Le CERN aujourd’hui : le seigneur des
anneaux
ÉLÉMENTAÍRE
Production des faisceaux à ISOLDE :
l’interaction entre le faisceau de protons
incidents et la cible d’uranium donne
naissance, par différents mécanismes, à une
série d’ions radioactifs qui sont guidés et triés
par un aimant.
page 17
Le CERN est aujourd’hui le plus grand laboratoire de recherche du monde.
Des milliers de scientifiques le fréquentent pour des intervalles de temps
plus ou moins longs. Depuis la fin des expériences autour du LEP, le LHC
et les expériences associées ATLAS, CMS, LHCb et ALICE constituent le
principal projet du centre (voir « LHC »). D’autres expériences sur cible fixe
telle que COMPASS, continuent de sonder la nature des hadrons.
Le CERN n’est pas seulement l’antre de la physique des particules.
Les installations d’ISOLDE, placées auprès du PSB (ProtonSynchrotron Booster) rassemblent une vaste communauté de
physiciens nucléaires. Des nucléides radioactifs sont produits par
spallation, fission ou fragmentation, lors des chocs des faisceaux
de protons de 1 à 1,4 GeV sur des cibles. Après leur création,
ces ions sont accélérés, séparés suivant leur masse, rassemblés en
faisceaux et dirigés vers les détecteurs des expériences. Jusqu’à
présent, environ 60 éléments de Z=2 à Z=88 ont été produits sous
forme de faisceaux d’intensité importante (1011 ions par seconde).
Ces faisceaux permettent d’accéder aux propriétés de noyaux
instables qui n’existent pas dans la nature.
En 2002, une grande première a eu lieu au CERN : on a créé et conservé des
milliers d’atomes d’anti-hydrogène, un atome constitué d’un anti-proton
et d’un positron. En piégeant ces particules électromagnétiquement, on a
réussi à les faire se rencontrer et à former les atomes d’anti-hydrogène. Par la
suite le problème est de préserver cette (toute petite) quantité d’anti-matière,
ISOLDE
ISOLDE rassemble 270 utilisateurs
provenant de 22 pays et qui travaillent
autour de 35 expériences. En utilisant
les faisceaux d’ions extraits de cette
installation, on y étudie des sujets
aussi variés que la physique nucléaire,
l’interaction faible, la physique du solide,
l’astrophysique, la physique atomique et la
biologie.
Le CERN
L’anti-hydrogène est fait à partir d’un antiproton et d’un positron. Les anti-protons
produits lors des collisions de protons sur
une cible, sont rassemblés et ralentis. Cette
étape a lieu dans une machine dédiée du
CERN, le AD (Antiproton Decelerator).
De même, les positrons sont ralentis, leur
mouvement est « refroidi » de façon à
augmenter la probabilité de liaison avec
les antiprotons quasi-immobiles, lorsque
ces deux types de particules sont mis à
proximité. Cette phase « d’approche »
des anti-protons et des positrons, est
techniquement très ardue et constitue le
tour de force des expériences ATRAP et
ATHENA du CERN. À elles deux, elles
ont réussi en 2002 à créer et accumuler
des milliers d’atomes pendant un temps
suffisamment long pour les dénombrer et les
étudier. Dans l’avenir les physiciens veulent
déterminer systématiquement les propriétés
de l’anti-hydrogène et les comparer à celles
de l’hydrogène.
page 18
Le complexe d’accélérateurs du CERN est
composé d’un enchaînement d’accélérateurs
de particules permettant d’atteindre
progressivement de hautes énergies. Chaque
accélérateur augmente la vitesse d’un
faisceau de particules avant de l’injecter
dans l’accélérateur suivant. Les protons
sont produits à partir d’atomes d’hydrogène
dont on extrait les électrons. Ils commencent
leur parcours dans l’accélérateur linéaire
(LINAC), puis sont injectés tour à tour
dans le synchrotron injecteur du PS (PSB
ou PS Booster), le synchrotron à protons
(PS) et le super synchrotron à protons (SPS),
avant d’arriver au grand collisionneur de
hadrons (LHC). Une fois dans le LHC, les
protons y circulent pendant vingt minutes
avant d’atteindre l’énergie maximale. Les
ions de plomb pour le LHC sont produits
à partir d’une source de plomb vaporisé,
avant d’être envoyés dans le LINAC3. Ils
sont ensuite accélérés dans l’anneau d’ions à
basse énergie (LEIR) et empruntent le même
parcours que les protons.
loin de toute matière, afin qu’elle survive pour pouvoir être étudiée. Dans
le cas de l’anti-hydrogène, les physiciens veulent comparer ses propriétés
atomiques avec celles, bien connues, de l’hydrogène. Pourquoi ? Parce que
dans le Modèle Standard, la masse d’une particule doit être égale à celle
de son antiparticule ; les transitions de l’électron de l’hydrogène d’une
couche atomique à l’autre doivent être identiques à celles du positron de
l’anti-hydrogène. C’est ce que les physiciens veulent tester avec la plus
grande précision possible.
ÉLÉMENTAÍRE
Le CERN
Le CERN et le monde
« Le CERN rapproche les peuples », se plaît-on à rappeler à certaines
occasions au CERN. Ceci est vrai lorsqu’on voit les origines différentes
des scientifiques qui s’y retrouvent pour travailler ensemble. Cette phrase
rappelle aussi le caractère pacifique de ces recherches, conformément à
la Convention de la création du Centre. Le CERN joue un rôle d’ouverture
vers les pays qui n’ont pas développé la physique des particules, à
travers des contrats spéciaux permettant à des jeunes des séjours plus ou
moins longs. Par ailleurs, la direction du centre a toujours soutenu des
programmes de formation destinés aux jeunes du monde entier ; tous
les étés, environ 150 étudiants en fin d’études, rejoignent le CERN pour
y passer quatre mois en suivant des cours sur la physique moderne et en
effectuant un travail expérimental. Le CERN organise aussi des écoles
très recherchées pour les étudiants en thèse, en physique, physique des
accélérateurs et informatique, toujours dans le même esprit de formation
et d’ouverture vers le monde.
LCG (LHC Computing Grid)
Avec ses 40 millions d’événements par seconde,
le LHC va générer une quantité d’information
gigantesque. Même sévèrement filtrés après
une sélection stricte, ces événements vont
correspondre à 15 Pétaoctets de données à
traiter par an ! Pour satisfaire ce besoin, les
physiciens et ingénieurs ont imaginé et mis
en place une grille de calcul mondiale, en
interconnectant 140 centres de calcul situés
dans 35 pays. Ces centres sont partagés en
trois groupes : Tier0, Tier1 et Tier2. Ces noms
bizarres désignent le rôle de chaque centre
dans la grille. Le CERN est l’unique Tier0 :
c’est ici que se fera l’acquisition, le premier
traitement (calibration et reconstruction) et
la distribution des données vers les 12 centres
Tier1. Ces derniers reçoivent les données quasien ligne et doivent offrir tout le temps de calcul
nécessaire pour l’analyse.
Finalement, dans les 127
centres Tier2 se fera la
production des données
simulées
ainsi
que
l’analyse de physique faite
par différentes équipes de
chercheurs.
ÉLÉMENTAÍRE
page 19
Un peu de science et beaucoup de
fiction
Le livre « Anges et démons » de Dan
Brown raconte une histoire autour du
CERN et de la création d’antimatière dans
ce laboratoire. Mais le livre fabule sur les
quantités qui y sont fabriquées ; malgré
les 200 000 000 000 000 antiprotons
produits au CERN par an, ce nombre ne
représente que 0,0003 μg ; ce nombre
est très très loin du kilo volé par la secte
secrète afin de faire exploser le Vatican
(nous ne raconterons pas la suite..). En
plus il n’y a pas au CERN de bâtiment en
briques rouges et le directeur général ne
se déplace pas en X-33 à Mach 28.
Expérience
Le LEP et le modèle standard
DR
La découverte des courants neutres en 1972 puis celle du quark charmé et
d’un nouveau lepton, le tau, dans les années qui suivent focalisent l’attention
des physiciens sur l’interaction faible. Aussi, en 1976, Burton Richter qui est
un des découvreurs du charme, et se trouve alors en congé sabbatique au
CERN, tente de convaincre les physiciens européens de l’utilité de construire
un grand collisionneur électron-positron, fonctionnant à une énergie de l’ordre de la centaine de GeV, afin d’étudier en détail les propriétés de cette
interaction. À une telle énergie on s’attend à ce que l’interaction faible ne le
soit plus tellement et qu’elle ait une intensité voisine de celle de l’interaction
électromagnétique. En 1977, le Comité Européen pour les Futurs Accélérateurs exprime un large accord des physiciens pour réaliser ce qui deviendra le
LEP. Un an plus tard, aux Houches dans les Alpes, une réunion sur une dizaine
de jours regroupe 80 participants. Elle sera suivie de beaucoup d’autres, où
les différents aspects concrets du projet seront passés en revue. À la suite de
cet effort de la communauté scientifique, les représentants des états membres du CERN décident, en 1982, de construire le plus grand accélérateur du
monde pour explorer un domaine d’énergie allant de 70 à 200 GeV : le LEP
ou « Large Electron Positron collider ».
Burton Richter
Né à Brooklyn en 1931, il a fait ses études
au MIT où il a passé sa thèse en 1956. Il
a ensuite rejoint le laboratoire de physique
des hautes énergies de l’Université de
Stanford, puis le SLAC (Stanford Linear
Accelerator Center) en 1963, où il a effectué
le reste de sa carrière. Il en a été le directeur
de 1984 à 1999.
Il participe aux premières expériences
de collisions électron-électron au début
des années 1960, afin de tester les calculs
d’électromagnétisme à haute énergie (500
MeV par faisceau). Durant cette même
période il effectue des recherches sur les
collisions électron-positron. Un premier
projet de machine (SPEAR : Stanford
Positron Electron Asymmetric Ring)
est proposé en 1961 ; financé en 1964, il
fonctionne à partir de 1970.
En 1974, son groupe découvre, en utilisant
cette machine et le détecteur installé au
point de collision des faisceaux, la particule
ψ qui s’avère être formée d’un quark et d’un
antiquark d’un type nouveau : le charme.
Une découverte similaire, mais à partir
d’une expérience totalement différente,
est faite de façon quasi simultanée par
l’équipe de Samuel Ting, à Brookhaven.
Les deux physiciens partagent le prix Nobel
de physique en 1976.
De retour aux États-Unis, après un séjour
au CERN en 1976, B. Richter propose
également à ses collègues de construire un
accélérateur concurrent du LEP pouvant
étudier les mêmes phénomènes, le SLC.
En quête du Z0
En 1967 Glashow, Salam et Weinberg (GSW) proposent un modèle unifiant
les interactions faible et électromagnétique. Ils prédisent que l’interaction faible peut se produire non seulement par échange de particules chargées, les
bosons W+ et W- comme par exemple dans la désintégration bêta, mais aussi
par celui d’une particule neutre : le boson Z0. Une première indication de
l’existence de ce boson est obtenue au CERN en 1973. En 1983-84 les particules W± et Z0 sont observées, également au CERN (voir « Découverte »). Le
projet LEP doit permettre de faire des mesures de précision sur ces nouvelles
particules afin de valider le modèle de GSW et, espère-t-on, de découvrir de
nouveaux phénomènes.
Les paramètres du LEP
page 20
L’énergie de l’accélérateur est fixée par les objectifs de physique recherchés.
Il en est de même pour sa luminosité c’est-à-dire le taux de collisions obtenu
aux points de croisement des faisceaux, où sont installées les expériences. Sa
taille, dans le cas d’un collisionneur entre électrons et positrons, est par contre
déterminée par la perte d’énergie des faisceaux par rayonnement synchrotron
(voir « Retombées »). Cette perte croît comme l’énergie des électrons à la
Boson : Toutes les particules transmettant les interactions (photon, W± , Z0 et gluons) sont
des bosons. Par contre, quarks et leptons, qui constituent la matière, sont des fermions.
Les noms de boson et de fermion sont dérivés respectivement de ceux des physiciens
Satyendranath Bose et Enrico Fermi qui ont expliqué (avec plusieurs autres physiciens)
le comportement différent de ces particules: les bosons sont « grégaires » tandis que les
fermions sont « asociaux » (en termes plus techniques, deux fermions ne peuvent occuper
le même état quantique alors que ce n’est pas le cas pour les bosons). On les distingue par la
valeur de leur spin.
ÉLÉMENTAÍRE
Le LEP et
le
modèle
standard
�
�
��
W
��
�
��e
e�
Z�
��
Cavités
accélératrices
supraconductrices
Ces cavités installées sur le LEP sont, pour
l’essentiel, fabriquées en cuivre recouvert
de niobium et refroidies à la température
de l’hélium liquide soit 4,5 K (-268,7 °C).
Le niobium est alors supraconducteur et
les pertes d’énergie sur les parois de ces
cavités sont réduites à un niveau très bas.
Ceci permet d’atteindre des valeurs du
champ électrique accélérateur quatre fois
plus élevées (6 MV/m) qu’avec des cavités
classiques. L’installation des cavités a été
terminée au début de l’année 1999 et le
LEP fonctionnait alors avec 288 cavités
supraconductrices et 56 cavités standard
en cuivre opérant à la température
ambiante. Durant l’année 2000, afin
d’atteindre l’énergie la plus élevée
possible pour les collisions et dans le but
de découvrir le boson de Higgs, le système
a été poussé au maximum. Les faisceaux
ont ainsi atteint l’énergie de 104,5 GeV
chacun. Depuis lors, de grands progrès
ont été faits sur la construction des
cavités accélératrices supraconductrices
et des champs de 35 MV/m sont obtenus
couramment.
e�
e�
À gauche, un exemple de désintégration dite par courant chargé dans laquelle un
muon se désintègre en neutrino-mu (νμ), électron et anti-neutrino. On peut la
décomposer en deux étapes où le muon se transforme en neutrino-mu et émet un
W- puis ce dernier se désintègre en un électron (e-) et un anti-neutrino électron.
À droite, un exemple d’interaction dite par courant neutre entre un neutrinomu (νμ) et un électron (e-), due à l’échange d’un boson Z0. Seule l’existence de
courants neutres permet cette réaction.
puissance quatre et est inversement proportionnelle au carré du rayon de
l’anneau. Celui-ci doit donc être suffisamment grand pour que la puissance
rayonnée par tour, compensée en fournissant en permanence de l’énergie
aux faisceaux, reste faible devant l’énergie totale.
Afin d’optimiser le coût de fonctionnement et de construction du LEP on
a donc choisi un anneau de 27 km de circonférence pouvant fonctionner
jusqu’à des énergies de 100 GeV par faisceau. L’accélérateur est installé
dans un tunnel dont la profondeur varie de 50 à 175 m à cause de la présence du Jura. Le plan de l’anneau est incliné de 1,4% et son point le plus
haut est sous le Jura afin de tenir compte de différentes contraintes (profondeur des puits d’accès, qualité de la roche, ...). Le creusement du tunnel
a démarré le 13 septembre 1983 et la machine était terminée début 1988
pour un coût équivalent à 800 Meuros.
Les premières collisions ont lieu en août 1989. Pendant six ans (programme
LEP1) les études se concentrent sur la mesure des propriétés du boson Z0
dont 17 millions de désintégrations sont enregistrées. Toute manifestation
de phénomène non prévu par le Modèle Standard est aussi traquée activement. L’amélioration des performances de la machine, des appareillages,
ainsi que des moyens de calcul, fait que la précision des mesures est bien
supérieure à celle des prévisions les plus optimistes. En 1995 débute le
programme LEP2 durant lequel l’énergie de l’accélérateur est progressivement augmentée. Grâce au développement des cavités accélératrices
supraconductrices il est finalement possible d’atteindre une énergie totale
de 209 GeV.
La bande des quatre
ÉLÉMENTAÍRE
Quatre grandes expériences
Les noms de ces expériences sont :
ALEPH (Apparatus for LEp PHysics),
DELPHI (DEtector with Lepton,
Photon and Hadron Identification),
OPAL (Omni Purpose Apparatus for
Lep) et L3 (dont le nom correspond
simplement à sa position sur l’anneau
du LEP).
page 21
Quatre grandes expériences ont été installées aux points de collision des
faisceaux, pour un coût total de 300 Meuros dont 70% ont été payés par
les laboratoires participants et 30% par le CERN. Ces détecteurs sont de
conceptions légèrement différentes mais mesurent tous, avec une plus ou
moins grande précision selon les choix techniques, l’ensemble des propriétés (impulsion, charge, masse) des particules émises lors des interactions
électron-positron.
Chaque expérience regroupe plusieurs centaines de physiciens et d’ingénieurs. Pour assurer un bon fonctionnement de l’ensemble, l’expérience
Le LEP et le modèle standard
est structurée avec une organisation précise, dirigée par un porte-parole.
Elle a pour charge de s’assurer du bon fonctionnement des différentes parties du détecteur, des moyens informatiques d’analyse des données et de
la répartition des différents sujets de recherche entre les équipes de physiciens. Elle suit et valide les publications des résultats et fait en sorte que le
travail effectué par les membres de la collaboration soit remarqué au sein
de la communauté scientifique.
Les laboratoires associés à l’expérience construisent des éléments du détecteur, assurent leur intégration dans l’ensemble et, le plus souvent, suivent
leur fonctionnement. L’enregistrement des données se fait pendant quatre
mois par an ; le reste du temps est utilisé par d’autres programmes de physique développés au CERN ainsi qu’à l’amélioration de l’accélérateur et
des appareillages. Deux à trois physiciens sont, à tour de rôle, présents sur
le site pour vérifier la qualité des informations recueillies. Si un problème
survient, des spécialistes peuvent être appelés à tout moment pour une
intervention rapide.
Sa masse, sa largeur
Si l’on mesure la masse de particules Z0
produites dans des collisions à haute
énergie on va constater qu’elle n’a pas
une valeur fixe mais se répartit sur une
distribution en forme de « cloche » ou de
« résonance ». Par définition la valeur de
la masse qui correspond au sommet de
cette distribution, c’est-à-dire la valeur
la plus probable, est la masse du Z0. La
largeur du Z0 correspond à l’intervalle où
la distribution reste supérieure à la moitié
de sa valeur maximale. La « largeur »
d’une particule est une notion générale
qui traduit la facilité avec laquelle elle
peut se désintégrer. Une particule stable
(le proton, l’électron) a une largeur nulle.
La largeur (Γ) est intimement reliée à la
durée de vie (τ) de la particule par la
relation :
Γτ~h/2π=6,6 10 -22 MeV.s
Le Z0 ayant une largeur de l’ordre du GeV,
sa durée de vie est voisine de 10 -24 s.
Un des aspects du programme LEP1 a consisté à mesurer le plus précisément possible les propriétés du Z0 : sa masse, sa largeur, en quoi et comment il se désintègre.
Puisque, lors des collisions e+e-, on produit le Z0 seul, mesurer sa masse et sa largeur est tâche aisée a priori car il suffit, pour les expériences,
de compter les événements produits et, du côté machine, de connaître
l’énergie des faisceaux ce qui peut être fait par plusieurs méthodes. L’une
consiste à mesurer le champ magnétique dans les aimants qui assurent le
guidage des faisceaux dans l’anneau. On obtient ainsi une précision de
l’ordre de 10 MeV sur la mesure de l’énergie d’un faisceau de 45 GeV, soit
deux dix-millièmes. Une autre méthode, qui utilise la polarisation des faisceaux, limite l’incertitude à 2 MeV. Elle a le désavantage de ne pas pouvoir
être mise en œuvre pendant que les expériences prennent des données. Il
faut donc suivre la stabilité de la machine entre deux mesures
B
précises de l’énergie. Ceci a conduit les physiciens à corriger
les mesures de différents effets, certains inattendus, dont l’amplitude est bien supérieure à 2 MeV.
Il y a tout d’abord les marées terrestres qui modifient la taille
S de l’anneau géant de quelques millimètres. Comme les par-
e-
page 22
Polarisation des faisceaux
En circulant dans l’anneau, le
rayonnement de lumière synchrotron
conduit à une polarisation progressive des
électrons. C’est-à-dire qu’en moyenne et
au bout de quelques dizaines de minutes
un plus grand nombre d’électrons
verront leur spin orienté dans la direction
opposée au champ magnétique vertical
des aimants de guidage que l’inverse. Ce
degré de polarisation du faisceau peutêtre mesuré à partir de la diffusion, par
ces électrons, de photons issus d’un laser
et eux-mêmes polarisés circulairement.
Une installation spéciale a été utilisée à
LEP pour effectuer cette mesure. D’autre
part, lorsqu’un électron (e) est placé dans
un champ magnétique (B), la direction
de son spin (S) effectue un mouvement de
précession autour de celle du champ (voir
schéma ci-contre). Cette fréquence de
rotation est exactement proportionnelle à
celle des électrons dans l’anneau mais est
une centaine de fois plus élevée.
Le principe de la méthode pour
connaître l’énergie du faisceau à partir
de la polarisation consiste à mesurer
cette fréquence et à l’utiliser comme un
vernier.
Le Z0 a rendez-vous avec la lune, le lac
de Genève et la SNCF...
Le vernier
C’est un dispositif inventé par Pierre Vernier (1584-1638) pour
mesurer des distances avec une précision choisie en utilisant deux
règles graduées. La première est graduée avec l’unité donnée (par
exemple le mm) et la graduation de la seconde dépend de la précision
voulue (par exemple 0,1 mm). La seconde règle va alors, dans notre
exemple, comporter des graduations distantes de 0,9 mm.
ÉLÉMENTAÍRE
Le LEP et le modèle standard
Chambre à vide du LEP
Les faisceaux de particules circulent dans un tube dans lequel la pression résiduelle est
10 -11 torrs. Ce tube, divisé en tronçons allant de 4 à 12 m raccordés par des soufflets, a
une section de quelques centimètres. Il est principalement construit en aluminium et un
blindage de plomb de plusieurs millimètres d’épaisseur assure une protection vis-à-vis
des rayonnements émis par les faisceaux. Au niveau des expériences, des tubes minces en
béryllium sont installés afin de perturber le moins possible le passage des particules issues
des collisions et allant vers les détecteurs.
Corrélation entre les prévisions de l’effet des marées
ticules circulent à un rythme fixe dans la chambre à vide (déterminé par
terrestres sur l’énergie d’un faisceau circulant
la fréquence du champ accélérateur) leur trajectoire va s’écarter de l’ordans le LEP (courbe rouge) et les mesures de cette
bite nominale et elles sont alors soumises à des champs magnétiques
énergie obtenues en utilisant la polarisation du
faisceau (points verts). L’axe horizontal indique
un peu différents. Cet effet peut provoquer des variations d’énergie de
l’heure et l’axe vertical la variation d’énergie.
20 MeV. Le niveau du lac de Genève, situé à proximité, provoque des
Nous observons une modulation avec une période
mouvements saisonniers du sol qui induisent eux-mêmes des variations
de 12 heures et l’amplitude de la marée est
d’énergie d’amplitudes similaires à celles causées par les marées. Enfin,
moindre le jour que la nuit car ces mesures ont été
le passage du TGV Paris-Genève crée un courant de fuite qui, après avoir
faites en hiver, à la latitude de Genève.
circulé dans le sol atteint la chambre à vide métallique de l’accélérateur,
et génère un champ magnétique parasite et donc une variation de l’énergie du faisceau pouvant aller jusqu’à 10 MeV. Tous ces effets ont été pris
en compte et la masse du Z0 a été mesurée avec une précision relative de
0,00002 alors que les études, en 1978, prévoyaient seulement 0,001.
La mesure précise de la forme de la résonance du Z0 a permis d’établir
que la nature ne comportait que trois familles de quarks et de leptons
ressemblant à celles que nous connaissons c’est-à-dire dont les neutrinos
ont une masse inférieure à la moitié de celle du Z0. Lors des discussions
sur le projet LEP, au début des années 80 on envisageait même la possibilité qu’il y ait un nombre si grand de familles que le Z0 puisse passer
inaperçu, puisque très large. Notons que des études sur la création des
éléments à partir du Big-Bang concluaient à la même époque (1979),
mais de manière beaucoup plus indirecte, qu’il ne devait pas y avoir plus
de trois familles.
Les mesures obtenues à LEP de la production du Z0 sont en accord
Les mesures effectuées à LEP ont aussi montré que, mis à avec les prévisions du Modèle Standard pour trois familles de quarks
part les changements de saveur induits par l’interaction fai- et de leptons. Les points correspondent à la moyenne des résultat
ble, chaque interaction (faible, forte, électromagnétique) obtenus par les quatre expériences et les traits représentant les
traite de manière identique les trois familles.
incertitudes de ces mesures ont été multipliés par dix afin d’être
Les expériences ont pu séparer les différents types de désintégrations du
Z0. Des mesures précises de ces divers états ne sont en accord avec les
prévisions théoriques que si la contribution du quark top est prise en
compte ce qui a fourni une première évaluation de sa masse, avant qu’il
ne soit observé au TeVatron quelques années plus tard. Ainsi, bien que
les expériences aient lieu à l’énergie totale de 90 GeV, elles détectent
l’existence de particules ne pouvant être produites que pour une énergie
supérieure à 340 GeV (puisque la masse du quark top est voisine de 170
GeV/c2). Cette même approche a été appliquée à la recherche du boson
de Higgs et indique que la masse de cette particule doit être inférieure à
200 GeV/c2.
ÉLÉMENTAÍRE
page 23
La cloche du Z0 résonne au top
visibles. Les courbes correspondent aux prévisions si l’on suppose
deux, trois ou quatre familles.
Prévisions théoriques
L’énergie disponible au LEP est trop
faible pour que l’on puisse produire des
paires de quarks top-antitop détectables
dans les appareillages. Cependant
la mécanique quantique permet de
prédire, dans ces circonstances, l’effet
de l’existence du top ; on parle de
corrections quantiques. Pour ce quark on
montre que les effets sont proportionnels
au carré de sa masse et, comme le top est
très lourd, les mesures de précision de la
production et de la désintégration du Z0,
réalisées à LEP, ont abouti à une première
détermination de cette masse.
Le LEP et le modèle standard
© CERN
Trop fort le Z0
Vue transverse d’un événement e+e- → qqg
reconstruit dans le détecteur ALEPH.
Les particules se rassemblent suivant les
directions d’émission des quarks et du
gluon produits lors de l’annihilation de
l’électron et du positron.
Le Z0 peut aussi se désintégrer en produisant des « jets » de quarks et de
gluons qui ont été étudiés en détail à LEP. Les détecteurs au silicium (voir
« Détection ») ont notamment permis d’isoler de purs jets de quarks et de
gluons et de comparer leurs propriétés. Ces études ont établi que la théorie
actuelle de l’interaction forte avec trois couleurs et huit gluons colorés de
masse nulle était la seule qui soit en accord avec les mesures. Une valeur
très précise de la constante qui caractérise l’intensité de l’interaction forte
a aussi été obtenue.
Toujours plus haut
À partir de 1995 et jusqu’en 2000, l’énergie de l’accélérateur a été augmentée régulièrement. Ceci a été possible grâce au remplacement de cavités accélératrices classiques par des modèles supraconducteurs plus performants.
le SLC (Slac Linear Collider)
Les premières études sur le
SLC débutent en 1979. Sa
construction se déroule de 1985 à
1987 et le premier événement est
enregistré en avril 1989. En 1991
un détecteur plus performant,
le SLD, est installé au point
de collision des faisceaux. Fin
1995, 150 000 désintégrations
de boson Z0 ont été enregistrées.
La machine est alors améliorée
ainsi que le détecteur et 400 000
nouveaux événements auront
finalement été recueillis avant l’arrêt, en 1998. Contrairement au LEP il ne s’agit pas
d’un grand anneau de collisions dans lequel circulent des faisceaux stables d’électrons et
de positrons mais d’une machine de type nouveau. Les particules (électrons et positrons)
sont créées, accélérées puis mises en collision lors d’un seul croisement. Ce processus est
répété pour chaque collision. Cette approche ne peut fonctionner que si les faisceaux
ont une taille extrêmement petite (de l’ordre du micron, c’est-à-dire 100 fois inférieure
à celle des faisceaux dans un anneau comme le LEP à l’endroit où ils se croisent) afin
de pouvoir compenser le faible taux de répétition par une très forte densité de particules
au point de leur rencontre. Après une difficile période de mise au point le SLC a bien
fonctionné et un programme original a été développé grâce, en particulier, à l’utilisation
de faisceaux polarisés, non disponibles à LEP. Cependant, le nombre de Z0 enregistrés
par l’expérience SLD fonctionnant sur cet accélérateur a été 30 fois plus faible que celui
recueilli à LEP, ce qui explique pourquoi l’essentiel des résultats de physique provient des
expériences installées au CERN. Le SLC, qui avait également été conçu pour étudier le
moyen d’accéder à de plus hautes énergies que le LEP, constitue un prototype pour un
projet de futur collisionneur linéaire international.
page 24
Intensité de l’interaction
Les intensités des trois forces (faible,
électromagnétique et forte) ne sont pas
constantes mais dépendent de l’échelle à
laquelle on les mesure. Par exemple celle
de l’interaction forte diminue avec la
distance alors que celle de l’interaction
électromagnétique augmente. Si le
Modèle Standard ne donne pas la valeur
absolue de chacune de ces interactions
il permet d’en calculer précisément la
variation avec la distance ou, ce qui
revient au même, avec l’énergie. Ayant
mesuré les valeurs de ces interactions
en un point il est ainsi possible de faire
des extrapolations vers de plus hautes
énergies. On constate que les trois
forces sont d’intensités comparables à
très haute énergie.
ÉLÉMENTAÍRE
Le LEP et le modèle standard
Désintégration d’un Z0 en une paire μ+μ-.
Les deux particules chargées sont mesurées
dans le détecteur de traces, déposent
peu d’énergie dans les calorimètres
électromagnétique et hadronique et sont
détectées dans des chambres à fils situées
à l’extérieur du détecteur.
LEP a rempli le rôle qui lui avait été attribué lors de sa conception et bien
au-delà. Outre les mesures de précision que nous avons mentionnées et
qui ont permis de valider le modèle d’unification des interaction faible
et électromagnétique ainsi que la théorie de l’interaction forte, d’autres
études ont été réalisées. Citons notamment celles portant sur les leptons
τ et sur les particules contenant le quark beau.
Bien que le LEP ait été arrêté en 2000, il y a eu depuis 2005 (inclus) 120
publications par les quatre collaborations, dont 25 encore en 2007 et
2008.
Les données enregistrées jusqu’en 1995, sur le Z0, ont été analysées de
nouveau après que des progrès ont été réalisés sur la compréhension du
fonctionnement des appareillages et la mesure des particules produites
lors des collisions. Ceci a permis d’importantes améliorations sur la précision des résultats. Des groupes ont été formés afin de combiner les mesures réalisées par les différents expériences et extraire ainsi le maximum
d’informations.
Les mesures de précision pointent dans la direction d’un boson de Higgs
léger, dont la masse doit être entre 114 et 200 GeV/c2, bien qu’il soit
jusqu’ici inaccessible aux expérimentateurs. On peut donc espérer une
moisson abondante de découvertes au LHC.
Désintégration d’un Z0 en une paire e+ ereconstruite dans l’expérience ALEPH. Les
deux particules chargées sont mesurées
dans le détecteur de traces et déposent
toute leur énergie dans le calorimètre
électromagnétique.
© CERN
page 25
ÉLÉMENTAÍRE
© CERN
Au-delà de 160 GeV les physiciens du LEP ont étudié la production de
paires de W et montré qu’elle est bien décrite par le modèle proposé par
Glashow, Salam et Weinberg. Une mesure précise de la masse du W,
avec une incertitude de 30 MeV/c2, a finalement été obtenue, un résultat
toujours compétitif par rapport à des mesures plus récentes, et ce malgré
les fortes statistiques de W analysées au TeVatron (près de Chicago) ces
dernières années. La précision sur la masse du W est moins bonne que
celle sur le Z0. En effet pour cette dernière, comme seul le Z0 est produit,
la précision est entièrement déterminée par celle de l’énergie du faisceau.
En revanche, dans le cas des W, il faut attribuer à chacun d’eux les différentes particules reconstruites dans les appareillages et les performances
des détecteurs contribuent aussi à la précision sur la masse du W.
La recherche du boson de Higgs a été faite en poussant au maximum
l’énergie fournie par l’accélérateur et en mettant en commun les données
enregistrées par les quatre expériences. Aucun signal significatif n’ayant
été observé, la masse du boson de Higgs doit être supérieure à 114 GeV/
c2 avec 95% de probabilité.
Détection
Les détecteurs de vertex en siliciums
© CERN
Afin de pouvoir étudier les propriétés des différents quarks on doit distinguer les
particules issues de leur désintégration parmi toutes celles qui sont produites
lors de chaque collision. On utilise pour cela le fait que les particules les plus
légères qui contiennent un quark étrange, charmé ou beau se désintègrent par
interaction faible et ont ainsi une durée de vie qui, bien qu’elle soit très faible
à notre échelle, s’avère mesurable. On appelle vertex le point d’où sont émises
plusieurs particules issues d’une telle désintégration. Certains détecteurs sont
spécifiquement conçus pour permettre de reconstruire ces vertex.
Même pour les particules : plus on est lourd
et plus on meurt tôt
Éléments du détecteur de vertex de l’expérience LHCb. Contrairement à ceux des trois
autres expériences opérant sur le LHC, il n’est
pas formé de plaquettes placées sur des cylindres ayant pour axe la direction des faisceaux.
Ici les plaquettes sont perpendiculaires aux
faisceaux et laissent un passage pour ces derniers. En effet, cette expérience va reconstruire
les particules de beauté émises au voisinage de
la direction des faisceaux.
La durée de vie d’une particule dont un quark se désintègre par interaction
faible est inversement proportionnelle à la masse du quark élevée à la puissance
cinq. Ceci est valable également pour les leptons comme le muon ou le tau.
Sachant que la durée de vie du muon est égale à 2,2 microsecondes et que
sa masse vaut 106 MeV/c2, on peut estimer les durées de vie des particules
étranges, charmées et belles ainsi que du quark top à partir de leur masse. Pour
des valeurs typiques, on obtient :
Durée de vie
La durée de vie (τ) d’une particule est reliée
au taux avec lequel elle se désintègre. La
variation temporelle du nombre de particules
non désintégrées est donnée par une loi
exponentielle (e-t/τ, voir Élémentaire N°3 ).
Au bout d’un temps égal à la durée de vie il ne
reste plus que 37% des particules initiales en
moyenne. La durée de vie est une propriété
intrinsèque de la particule, elle ne dépend
pas de l’environnement et peut être calculée
à partir des caractéristiques de l’interaction
ayant provoqué la désintégration.
Quatre cylindres formés de plaquettes de
silicium constituent le détecteur interne de
l’expérience CMS dans laquelle le silicium
a remplacé les détecteurs à fils, plus classiques, de traces chargées.
page 26
© CERN
particule
masse (GeV/c2)
durée de vie
estimée (s)
étrange
0,5
charmée
1,8
belle
5,3
top
170
10-9
1,5 10-12
7 10-15
10-22
Le quark top est très massif et sa durée de vie est non mesurable. Pour le
charme, la valeur indiquée est en bon accord avec celle qui est mesurée. Par
contre il y a un désaccord pour les particules étranges et surtout pour la beauté.
Ceci peut s’expliquer de la manière suivante. L’interaction faible favorise les
transitions entre un quark top et un quark beau ou bien entre un quark charmé
et un quark étrange. Or, le quark top étant plus lourd que le quark beau, la
désintégration des particules belles est impossible par cette transition. Il en
est de même pour les particules étranges qui ne peuvent se désintégrer en
particules charmées, plus lourdes. Pour les particules étranges et belles
il y a donc une suppression de leurs possibilités de désintégration qui a
pour conséquence que leur durée de vie est plus grande que l’estimation
naïve donnée précédemment. La durée de vie des particules étranges
doit ainsi être augmentée d’un facteur 20 par rapport à cette estimation
et celle des particules belles par environ 600.
Cet « accident de la nature », qui fait que la durée de vie des particules
belles est voisine de celle des particules charmées et non 1000 fois plus
faible, est miraculeux. En son absence il n’y aurait pas d’ « usines à
beauté » comme celles construites à SLAC (USA) et à KEK (Japon), l’étude
du quark top serait quasi impossible et la recherche du boson de Higgs
très problématique. En effet le quark top aussi bien que le boson de Higgs
sont produits de façon rare au sein d’une grande quantité d’événements
que l’on enregistre. Il faut donc les isoler d’un énorme bruit de fond et on
utilise pour cela le fait que ces deux particules se désintègrent en émettant des
particules de beauté qu’il est possible d’identifier.
ÉLÉMENTAÍRE
Les détecteurs de vertex en silicium
L’explosion du silicium
Les détecteurs au silicium ont été utilisés depuis longtemps en physique
nucléaire. La création de charges au sein du silicium nécessite un dépôt
d’énergie environ cinq fois plus faible que pour ioniser un gaz comme l’argon.
Ceci permet d’avoir un grand nombre de charges mesurables et d’obtenir une
valeur précise de l’ionisation déposée. On peut ainsi en déduire la nature de
la particule qui a traversé le détecteur.
Les premiers détecteurs dits « de vertex » sont apparus au début des années
80 dans les expériences à haute énergie utilisant un faisceau de particules
interagissant avec une cible. L’expérience NA1 (1982-1984) au CERN avait
une cible formée de couches de silicium et mesurait l’ionisation créée dans
chaque couche par les particules chargées la traversant. Ce dispositif a permis
d’isoler des événements dans lesquels des particules charmées sont créées
au sein de la cible puis se désintègrent au bout de quelques millimètres de
parcours, à l’intérieur de cette dernière. Par exemple un méson charmé D0,
électriquement neutre, n’ionise pas le milieu entre son point de création et celui
où il se désintègre ; par contre à partir de l’endroit où il s’est désintégré, deux
ou quatre particules chargées apparaissent. Ceci se traduit par un saut dans
ÉLÉMENTAÍRE
1 cm
Événement enregistré par la collaboration ALEPH sur le collisionneur
LEP et qui correspond
à la réaction e+e-→b b. Un des quarks beaux se
matérialise sous la forme d’un méson B étrange
qui se désintègre en un électron, un antineutrino
électronique (invisible) et un méson charmé Ds+.
Ce dernier se désintègre à son tour en K+K-π+. La
figure en haut à gauche représente les informations enregistrées par le détecteur, en projection
sur un plan perpendiculaire à l’axe des faisceaux.
Les trajectoires reconstruites pour les particules
chargées sont indiquées. Elles se regroupent suivant deux jets émis dans des directions opposées.
La figure en haut à droite représente les informations recueillies au niveau du détecteur de vertex
qui est formé de deux cylindres de plaquettes de
silicium. Chaque point correspond à un signal
recueilli sur une piste de ces plaquettes et sa position est connue à mieux que 10 microns. Le rayon
du premier cylindre est d’environ 5 cm. La figure
du bas correspond à l’extrapolation des trajectoires des traces chargées en direction du point
d’interaction des faisceaux (noté IP). Les ellipses
rouges indiquent les incertitudes sur la position
des différents vertex reconstruits à partir de ces
traces : celui correspondant à IP, celui de la désintégration du Ds+, d’où partent K+, K- et π+, et
enfin celui de la désintégration du Bs d’où sont issus l’électron et le Ds+. Du point d’interaction des
faisceaux émergent 7 traces chargées ainsi que la
page 27
Les particules produites lors de collisions à haute énergie n’étant pas au
repos, la relativité restreinte nous apprend que leur durée de vie apparente est
plus longue que leur temps de vie propre (τ). C’est la dilatation relativiste du
temps (voir Élémentaire N°3). Ces particules vont ainsi parcourir une distance
variable, au sein des appareillages, avant de se désintégrer. Ce parcours moyen
peut être de l’ordre du mètre pour les particules étranges et seulement de
quelques millimètres pour les particules charmées ou belles.
Afin de pouvoir étudier ces particules il faut retrouver leurs
produits de désintégration qui sont créés à l’endroit où la
particule s’est désintégrée. S’il s’agit de particules chargées on
peut les distinguer de celles émises au point de la collision à
condition de mesurer les trajectoires de ces différentes particules
de manière suffisamment précise. Si l’on extrapole la trajectoire
d’un des produits de désintégration en direction du point de
collision elle s’en écartera, en moyenne, d’une distance voisine
de cτ, c désignant la vitesse de la lumière. Cet écart vaut 300
microns pour une durée de vie d’une picoseconde. On en
conclut que, pour pouvoir reconstruire le point de désintégration
des particules charmées ou belles et y associer les particules
chargées qui y ont été réellement émises, il faut mesurer les
positions des différentes trajectoires avec une précision de l’ordre
de la dizaine de microns. On doit aussi être capable de placer
des détecteurs à quelques dizaines de millimètres du point de collision afin de
minimiser la distance d’extrapolation entre ce point et celui où on effectue la
première mesure. Un événement enregistré par la collaboration ALEPH sur le
collisionneur LEP permet d’illustrer comment on peut distinguer les particules
issues de la désintégration de quarks lourds de celles produites au point de
collision des faisceaux.
© CERN
Durée de vie apparente
La durée de vie d’une particule est définie
lorsque cette dernière est au repos. Si
les particules, de masse (m), sont en
mouvement et ont une énergie (E), leur
durée de vie dans le laboratoire est égale à
celle au repos multipliée par E/m. Comme
l’énergie est toujours plus grande que la
masse, la durée de vie d’une particule dans
le laboratoire est toujours plus grande que
celle au repos.
Le parcours de toute une vie
Les détecteurs de vertex en siliciums
page 28
© CMS
© CERN
Principe de fonctionnement
Dans le cristal de silicium, les électrons
assurant la liaison entre les différents atomes
(4 par atome) peuplent des niveaux d’énergie
très voisins formant la bande de valence. Les
niveaux d’énergie supérieurs sont également
regroupés en une bande dite de conduction
située 1,1 eV au dessus de la précédente.
Au zéro absolu, la bande de conduction
est vide. À température finie des électrons
peuvent, par agitation thermique, passer de
la bande de valence à celle de conduction.
Soumis à un champ électrique ces électrons
vont donner un courant électrique. Si l’on
implante au sein du silicium des atomes
ayant plus d’électrons sur leur couche externe
(5 par exemple) les électrons excédentaires
vont se placer dans un niveau très proche
de la bande de conduction dans laquelle ils
peuvent passer aisément. La conduction du
cristal est alors définie par la concentration
en atomes implantés. On dit que le silicium
est dopé n (négativement). On peut de
même réaliser un dopage p (positif) par
implantation d’atomes ayant 3 électrons sur
leur couche externe. Si l’on met en contact,
dans un même cristal, deux zones dopées
respectivement n et p, les porteurs de charge
négative de la première vont migrer du coté p
et inversement. Au voisinage du contact entre
les deux zones se crée une région dépourvue
de porteurs de charge. Par application d’un
champ électrique il est possible d’étendre
ce phénomène et on peut obtenir des lames
qui n’ont pas de charges mobiles, sur toute
leur épaisseur. Un tel milieu est sensible à
l’apparition de toute nouvelle charge.
l’ionisation mesurée par les différentes couches de silicium. D’autres expériences
utilisèrent ce principe dit de cible « active » mais c’est surtout pour la mesure
de précision de la position des particules chargées créées au voisinage du point
de l’interaction entre un faisceau et une cible ou bien entre deux faisceaux que
ces détecteurs furent développés. Le principe de base de leur fonctionnement
est indiqué ci-contre. Une particule chargée qui traverse le silicium y crée des
charges par ionisation et celles-ci vont migrer, sous l’effet d’un champ électrique,
vers les deux faces, où elles sont collectées. En segmentant ces faces à l’aide
de pistes, seules celles qui se trouvent au voisinage du passage de la particule
fournissent un signal et ceci permet de mesurer la position de cette dernière.
Les propriétés des détecteurs résultent de compromis. On désire que les lames
de silicium soient les plus minces possibles afin de peu perturber les trajectoires
des particules qui les traversent mais ceci diminue la résistance mécanique
du détecteur ainsi que le signal mesuré sur les pistes. La largeur des pistes est
de quelques dizaines de microns ce qui, sachant que souvent plusieurs pistes
adjacentes recueillent du signal, permet de mesurer les positions avec une
précision de quelques microns. La longueur des pistes correspond généralement
à celle des lames mais peut être réduite si le détecteur doit fonctionner dans un
milieu où la densité de particules est très forte.
Si les premiers détecteurs utilisés dans les expériences sur cible fixe (début des
années 80) avaient une surface de quelques centimètres carrés, ceux installés
dans les expériences fonctionnant sur le LEP comportaient plusieurs cylindres
couvrant plusieurs centaines de centimètres carrés. En 1998 l’expérience AMS,
embarquée sur la navette spatiale, a un détecteur de plus d’un mètre carré. Les
expériences qui vont démarrer sur le LHC sont toutes équipées de détecteurs
de vertex, de types différents. La surface de celui de l’expérience CMS dépasse
la centaine de mètres carrés. Ceci a été possible grâce à l’augmentation du
diamètre des lingots de silicium cristallin dans lesquels sont découpées les
lamelles et aux progrès des systèmes de lecture électronique de l’ensemble
des pistes. L’électronique permettant de lire les canaux a été incorporée aux
plaques de silicium réduisant ainsi le nombre de câbles servant à transmettre
les informations au système d’acquisition des données. Ces détecteurs sont ainsi
formés de plusieurs centaines de plaquettes de silicium, ayant chacune des
milliers de pistes. Des supports, généralement en fibres de carbone, assurent la
rigidité de l’ensemble. L’alignement des plaquettes à quelques microns près est
crucial pour ne pas dégrader la précision attendue sur les positions des particules
qui les traversent.
Lingots de silicium
Les détecteurs de vertex ont tendance à
Ce sont des cylindres
occuper tout l’espace et à supplanter les
obtenus, par exemple, en
autres dispositifs de mesure des traces
faisant croître un cristal
chargées comme les chambres à fil, à
de silicium à partir d’un
dérive ou les chambres à projection
germe que l’on place dans un
temporelle
(TPC).
L’environnement
bain de silicium fondu. Un
hostile, c’est-à-dire très radioactif,
mouvement de rotation est
appliqué et progressivement le cristal formé
attendu au LHC fonctionnant à pleine
est retiré du bain. Des cylindres ayant des
puissance a nécessité la mise au point de
diamètres de 30 à 40 cm et pesant plusieurs
plaquettes et de dispositifs d’électronique
centaines de kilos sont produits. Les
plus résistants. On prévoit que ce type de
cylindres sont ensuite sciés en tranches de
détecteurs sera encore indispensable pour
quelques centaines de microns d’épaisseur
les prochaines expériences fonctionnant
pour la réalisation des détecteurs (ou d’autres
sur accélérateurs.
dispositifs électroniques).
ÉLÉMENTAÍRE
Retombées
Le rayonnement synchrotron
Le rayonnement synchrotron
© J.-A. Scarpacci
Les premiers accélérateurs circulaires ont été inventés dans les années 1930
afin d’augmenter l’énergie des particules accélérées tout en conservant
des instruments d’une taille raisonnable, ce qui n’était plus possible
avec les accélérateurs linéaires de l’époque. Dans un cyclotron ou un
synchrotron, les particules chargées sont accélérées par des cavités (voir
Élémentaire N°2) placées dans les sections rectilignes et leur trajectoire
est courbée grâce à de forts champs magnétiques localisés dans les parties
quasi-circulaires. Dans un synchrotron, l’intensité du champ magnétique
est adaptée de telle sorte que les particules restent sur la même orbite
quand leur énergie augmente. Les lois de l’électromagnétisme impliquent
qu’une particule chargée soumise à une force émette un rayonnement
électromagnétique (des photons) et donc perde de l’énergie, ce qui est
le cas lorsqu’elle suit une trajectoire circulaire. C’est le rayonnement
synchrotron. Pour des particules relativistes, comme les électrons
circulant dans un synchrotron tel que SOLEIL, le rayonnement est émis
dans un cône de très petite ouverture angulaire dont l’axe est tangent à
la trajectoire des électrons. Le rayonnement couvre une large gamme de
fréquences allant de l’infrarouge aux rayons X.
Les photons du rayonnement synchrotron
sont émis dans une direction quasi identique
à celle de l’électron. Lorsque la trajectoire de
l’électron tourne dans un plan, les photons
balaient toute une région dans ce plan.
La brillance
La brillance est le nombre de photons
émis par seconde, à une certaine longueur
d’onde et dans une bande spectrale
déterminée, par unité de surface de
source et par unité d’angle solide. C’est le
principal paramètre utilisé pour évaluer la
qualité des synchrotrons. Cette grandeur
permet de qualifier à la fois le flux de
photons disponibles sur l’échantillon
(nombre de photons par unité de
surface) et la possibilité de le focaliser
et de l’exploiter avec une très haute
résolution spectrale. Une des solutions
pour augmenter la brillance est d’équiper
l’anneau de stockage d’onduleurs et de
wigglers, éléments qui permettent de faire
onduler la trajectoire des électrons afin de
les faire rayonner. Près du tiers de l’anneau
de SOLEIL en est équipé.
Si ce rayonnement très intense s’est révélé extrêmement pénalisant pour
accélérer des électrons à de très hautes énergies, son intérêt dans d’autres
domaines de la physique a été compris très tôt, et, dès les années 70, des
synchrotrons ont été transformés pour étudier les propriétés de la matière.
Le rayonnement émis tangentiellement à la trajectoire des particules passe
à travers des hublots, puis est dirigé vers des zones expérimentales. Ce
sont les « lignes de lumière ». Le faisceau synchrotron qui a environ la
taille d’un cheveu est transporté grâce à des dispositifs optiques successifs.
Chaque ligne de lumière est composée de trois espaces. Tout d’abord,
comme le faisceau est continu sur une très large gamme spectrale, il passe
dans des monochromateurs pour sélectionner des longueurs d’ondes
particulières. On trouve ensuite un espace expérimental où la lumière
va interagir avec l’échantillon à étudier. Les photons (ou les électrons)
éjectés lors de l’interaction du faisceau avec la cible sont détectés par des
appareils de mesure (caméra CCD par exemple) pour étudier la géométrie
en surface et en volume de l’échantillon ainsi que ses propriétés. Enfin,
on arrive à l’espace de vie d’où les équipes pilotent l’expérience. Suivant
la taille de l’anneau du synchrotron, plusieurs expériences peuvent être
menées simultanément.
Angle solide
C’est l’équivalent de la notion
d’angle pour une géométrie à trois
dimensions. Il mesure le rapport
entre la surface formée par la
projection d’un objet sur une sphère
et le rayon au carré de cette dernière.
Son unité est le stéradian (sr).
Les utilisations
ÉLÉMENTAÍRE
page 29
La lumière synchrotron possède des caractéristiques remarquables par
rapport aux sources de lumière classiques disponibles en laboratoire :
son spectre d’émission s’étend de l’infrarouge aux rayons X avec une
brillance exceptionnelle. Le rayonnement est stable, pulsé (les électrons
circulent par paquets dans l’anneau), et avec une forte cohérence spatiale
Le rayonnement synchrotron
et temporelle. Il peut ainsi être comparé à un laser accordable sur une grande
gamme de fréquences spectrales.
© Soleil
Pour observer la matière à l’échelle de l’atome, il faut une « sonde » dont la taille
caractéristique soit du même ordre de grandeur. C’est typiquement le domaine
des rayons X, dont la longueur d’onde va de quelques picomètres à quelques
dizaines de nanomètres. Selon la longueur d’onde du faisceau incident
et les techniques d’analyse mises en œuvre, les utilisations de la lumière
synchrotron sont extrêmement variées, allant de la physique fondamentale à
la recherche industrielle en passant par la chimie, l’électronique, la biologie,
la santé et l’archéologie. Voici quelques exemples :
Structure d’une sous-unité du ribosome
(molécule faite de protéines et d’acide nucléiques présente dans toutes les cellules
et qui permet de synthétiser les protéines
en décodant l’information contenue dans
l’ARN messager). L’organisation de cette
macro-molécule, constituée de dizaines de
milliers d’atomes, a pu être élucidée grâce
au rayonnement synchrotron de l’ESRF situé à Grenoble (Élémentaire N°1).
• Physique atomique, moléculaire, chimie et sciences de la vie : les
radiographies faites avec des faisceaux de rayons X très intenses permettent
de reconstruire la structure tridimensionnelle de molécules contenues dans
des échantillons microscopiques ou bien d’analyser des éléments ultradilués, ou encore de suivre en direct des réactions chimiques sur des échelles
de temps extrêmement courtes (inférieures à la nanoseconde). Les fonctions
des protéines, qui sont de grosses molécules, dépendent de leur structure
tridimensionnelle. D’autre part,
le rayonnement synchrotron, s’il
n’est pas trop intense, permet
d’étudier des échantillons de
matière vivante sans les détruire.
© Soleil
• Structure électronique des
matériaux et nanostructures :
les nanomatériaux, c’est-à-dire
les matériaux faits de quelques
couches d’atomes, occupent
une place de choix dans ces
expériences en raison de leurs
applications industrielles. La lumière synchrotron est utilisée pour
étudier la structure géométrique
et électronique des surfaces
des nouveaux nanomatériaux
fabriqués.
Principe de fonctionnement de SOLEIL
page 30
Un faisceau d’électrons fin comme un cheveu, émis par un canon à électrons ➊, est d’abord accéléré dans un accélérateur linéaire de 16 m
de long. Les électrons atteignent une vitesse très proche de celle de la lumière et un premier niveau d’énergie : 100 MeV. Après cette première
accélération, le faisceau d’électrons est dirigé vers un deuxième accélérateur circulaire, appelé booster ➋, qui porte leur énergie à la valeur
de fonctionnement de SOLEIL soit 2,75 GeV. Les électrons sont alors injectés dans l’anneau de stockage de 354 mètres de circonférence ➌
et tournent pendant plusieurs heures. Là, des dispositifs magnétiques, les dipôles (aimants de courbure) ➍, et les onduleurs (succession
d’aimants créant des champs magnétiques de directions alternées), dévient la trajectoire des électrons ou les font osciller. Ces derniers
perdent alors de l’énergie sous forme de lumière : c’est le rayonnement synchrotron, qui est dirigé, sélectionné et conditionné par des
systèmes optiques vers les 25 stations expérimentales situées au bout des lignes de lumière ➐.
ÉLÉMENTAÍRE
Le rayonnement synchrotron
ÉLÉMENTAÍRE
Vue aérienne de SOLEIL en mars 2007
SOLEIL (Source Optimisée de Lumière
d’Énergie Intermédiaire du LURE)
est un centre de recherche implanté
sur le Plateau de Saclay à Saint-Aubin
(Essonne). Ce laboratoire a remplacé
le LURE (Laboratoire d’Utilisation du
Rayonnement
Électromagnétique),
créé dans les années 1970 sur le site de
l’Université Paris-Sud 11, où ont été
développées de nombreuses recherches
sur l’utilisation du rayonnement
synchrotron.
L’ESRF
(European
Synchrotron Radiation Facility), l’autre
centre de rayonnement synchrotron,
implanté à Grenoble, et auquel la
France contribue à hauteur de 25%, ne
permettait pas de couvrir l’ensemble des
besoins de la communauté scientifique
française. La construction de SOLEIL a
débuté en 2001. Les accélérateurs sont
opérationnels depuis mi-2006. Depuis
lors, 14 des 25 lignes de lumière ont
reçu leurs premiers photons. Plusieurs
dizaines d’autres sources de rayonnement
synchrotron existent de par le monde,
souvent au sein de centres de recherche
en physique subatomique : outre l’ESRF
à Grenoble citons, entre autres, Diamond
au Rutherford Appleton Laboratory
(Royaume-Uni), l’Advanced Photon
Source (APS) à Argonne (États-Unis),
mais aussi Swiss Light Source (SLS),
Villigen (Suisse), le Beijing Synchrotron
Radiation Facility (BSRF) à Beijing
(Chine)...
page 31
• Sciences de la Terre, environnement et patrimoine : l’analyse
d’échantillons archéologiques, par nature très hétérogènes et fragiles,
se fait déjà à l’aide de la lumière synchrotron. D’autres applications
comme l’étude de sols contaminés par des particules radioactives
ou la modélisation des phénomènes naturels tels que les volcans
ou les avalanches sont au programme des installations de lumière
synchrotron.
© Soleil
• Chimie et pharmacie : de grandes entreprises pharmaceutiques
bénéficient du rayonnement synchrotron pour leurs activités de
recherche de nouveaux principes actifs, à partir de la visualisation à
l’échelle atomique des interactions protéine-molécule. Deux autres
activités sont en plein développement : l’analyse des médicaments
sous forme de poudres et le suivi des effets de traitements sur les
tissus.
Retombées
© Elise Amendola/AP/Boomerang, Paris
Et le web fut !
Sur la toile
Le célébrissime World Wide Web que nous utilisons communément a été
inventé au CERN, il y a 17 ans. La création de cet outil, dorénavant d’utilité
publique, est finalement relativement récente.
Le projet WWW est né afin de permettre aux physiciens des hautes
énergies (participant aux collaborations travaillant sur le LEP) de partager,
depuis n’importe où dans le monde, leurs données acquises au cours des
expériences, ainsi que tout type de documentation et d’informations, et le
tout indépendamment du système informatique. Les premiers utilisateurs
du World Wide Web ont donc été des scientifiques, du CERN bien sûr,
mais aussi de Fermilab à Chicago et de SLAC en Californie.
C’est une collaboration entre Tim Berners-Lee (ingénieur informaticien
britannique et boursier au CERN) et Robert Cailliau (ingénieur au CERN
de nationalité belge) qui a construit les bases du WWW. Ils ont mis
sur pied à la fois le protocole de transfert HTTP (HyperTexte Transfert
Protocol), le langage d’écriture, HTML (HyperTexte Markup Language) et
le référencement des textes correspondant ou « pages » : l’URL (Uniform
Resource Locator). Le protocole de transfert HTTP permet de passer d’une
page HTML à une autre, située au même endroit ou ailleurs, et décrite par
son adresse Web (URL).
Cette organisation de l’information est la clef de voûte du WWW et
permet, grâce au réseau Internet (par lequel passe également, entre autres,
notre messagerie électronique), de surfer de page en page, au gré de nos
recherches, parmi la myriade d’informations qui sont mises à disposition.
Jusqu’en 1992, l’information n’était accessible que sous la forme de textes.
Ce n’est qu’au cours de cette année là que les premières applications ont
permis de visualiser des graphiques sur certains types d’ordinateurs. Après
1993, cette fonctionnalité s’est démocratisée, grâce à l’accès au Web à
travers plusieurs « browsers » (navigateurs). Fin 1993 il n’y avait encore que
500 sites Web de par le monde, et leur consultation n’occupait que 1% du
trafic Internet (le reste étant de l’accès à distance, du courrier électronique
et du transfert de fichiers). En 1994 on en trouve 10000 et en 2006 plus de
100 millions de sites Web peuplent le WWW !
Pour s’y retrouver ou pour trouver l’information la plus pertinente, on fait
maintenant appel à des moteurs de recherche qui indexent chaque page
présente sur le Web. C’est plus de 8 milliards d’adresses URL qui sont
recensées. Et si l’envie vous prend de venir nous voir, tapez
http://elementaire.web.lal.in2p3.fr/
dans votre navigateur favori et surfez sur les nombreuses pages qui
constituent notre site.
© CERN
Tim Berners-Lee
Croissance
spectaculaire
du
nombre de sites depuis la création
du WWW (d’après le CERN et
Wikipedia).
page 32
Robert Cailliau
ÉLÉMENTAÍRE
Analyse
Discriminant de Fisher
Trier le bon grain de l’ivraie
DR
En physique des particules comme dans bien d’autres disciplines, les
chercheurs partent d’un nombre considérable de données (enregistrées
par un détecteur chaque fois qu’il identifie un événement potentiellement
intéressant), et ils désirent distinguer des signaux, le plus souvent rares, au
milieu du bruit de fond formé par tous les autres processus possibles. En
général, une seule variable (énergie déposée par une particule, trajectoire
dans un sous-détecteur...) ne suffit pas à séparer complètement signaux
et bruit de fond.
Il faut donc disposer de méthodes pour « faire parler » les données afin
d’éliminer les processus qui ressemblent par certains aspects au signal
qui nous intéresse, mais s’en distinguent par d’autres. Si on réussit à en
extraire l’information la plus complète et la plus pertinente possible, on
peut sélectionner le signal et éliminer le bruit ! Supposons qu’on étudie
une particule X produite dans un accélérateur et qui se désintègre en
trois particules a, b et c que l’on sait détecter : X —> a + b + c. Pour
chaque événement enregistré et contenant les fameuses particules a, b et
c, on peut définir et calculer un paramètre correspondant à la masse de
la particule initiale. S’il est égal ou suffisamment « proche » de celle-ci
on a probablement affaire à une désintégration de X en a,b,c. Sinon, c’est
sûrement du bruit de fond.
Ronald Fisher (1890-1962), savant
anglais. Ses contributions couvrent
un large spectre, de la génétique
quantitative à des méthodes d’analyse de données en passant par la
biologie de l’évolution. Elles lui
valent d’être considéré comme l’un
des leurs à la fois par les statisticiens
et par les spécialistes des sciences de
la vie. Fisher a souffert très jeune de
troubles de la vue ce qui l’a conduit à
développer une conception abstraite
et géométrique des problèmes mathématiques qui se posaient à lui.
Cette capacité d’abstraction peu
commune explique sans doute en
partie ses multiples découvertes.
En règle générale, il faut construire de nombreux paramètres qui sont
ensuite combinés pour séparer de façon efficace le bon grain (le signal) de
l’ivraie (le bruit). Partons à la découverte de deux méthodes couramment
utilisées en physique subatomique pour ce faire : le discriminant de Fisher
et les réseaux de neurones.
Comment réduire le volume de données sans perdre des informations
utiles ? Commençons par un exemple très simple. On dispose d’objets
que l’on souhaite
classer
en
deux
catégories, « rouge »
et « bleue », à l’aide
de deux quantités,
x1 et x2. Les résultats
des mesures sont
présentés dans la
partie gauche de
la figure 1. Les
Un exemple simple de classement de données : pour une valeur de y inférieure à y0, un
objet appartient forcément à l’ellipse rouge alors que pour une valeur supérieure il se trouve
nécessairement dans l’ellipse bleue. Par contre, si l’on utilise uniquement les mesures de x1
ou de x2 on ne peut pas séparer les deux catégories d’objets.
ÉLÉMENTAÍRE
Un exemple simple
Tous les physiciens souhaiteraient
avoir des situations aussi simples ! Mais
malheureusement, leurs données sont
rarement d’une telle perfection. Bien
souvent les ensembles servant à leur
classement se superposent car certains
évènements (dont les paramètres sont
toujours connus avec une précision
limitée) peuvent tout aussi valablement
appartenir à plusieurs catégories. De
plus, l’échantillon analysé comporte en
général des désintégrations parasites qui
ne sont pas décrites par le modèle utilisé.
Enfin, toutes les mesures sont entachées
d’erreurs qu’il faut prendre en compte.
page 33
Elémentaire
Le discriminant de Fisher
Discriminant de Fisher et...
ensembles rouge et bleu forment deux ellipses distinctes : si on connaît
à la fois x1 et x2 pour un objet particulier, on sait immédiatement à quel
ensemble il appartient. Par contre, la situation n’est plus aussi simple si
on veut réduire la quantité d’information, c’est-à-dire n’utiliser qu’une
seule variable : prendre x1 ou x2 n’aurait pas de sens car des éléments des
deux catégories auraient alors le même identifiant, ce qui rendrait le tri
impossible. En revanche, on peut séparer à coup sûr les deux ensembles
en utilisant la variable y définie sur la partie droite de la figure 1 : bien
choisie, une seule quantité suffit donc pour un classement optimal !
DR
Passons de ce cas académique à un exemple concret : nous aimerions
séparer trois espèces d’iris (iris setosa, iris versicolor et iris virginica)
selon les dimensions (longueur et largeur) de leurs pétales et de leurs
sépales. Pour cela, ces quantités ont été mesurées sur cent cinquante iris
différents. Quelles sont à présent les variables pertinentes pour distinguer
les trois espèces ? C’est exactement le problème que le biologiste et
statisticien Ronald Fisher a résolu en 1936. Les données qu’il avait à sa
disposition sont représentées sur la figure 2 – comme il est impossible
de dessiner un nuage de points en quatre dimensions, chaque graphique
présente une quantité en fonction d’une autre. Le nom de la dimension
présentée en ordonnée se lit en ligne, le nom de l’axe des abscisses en
colonnes ; la couleur indique l’espèce concernée. Si l’iris setosa (en
rouge) se distingue clairement des deux autres espèces, les nuages de
points des iris versicolor (vert) et virginica (bleu) sont très proches... et
donc difficiles à séparer. Fisher s’intéresse d’abord à deux espèces – mais
sa méthode est généralisable à trois catégories ou plus. Il propose l’outil
de classement suivant : trouver la droite sur laquelle les projections des
deux ensembles sont les plus « éloignées » possibles (on peut définir une
droite en quatre dimensions exactement de la même manière qu’en deux
ou trois dimensions). La démarche de Fisher généralise l’idée qui nous a
conduit à choisir la droite verte (y) dans le premier exemple de l’article
pour projeter les ensembles bleu et rouge.
Figure 2 : données recueillies sur 150 iris :
50 iris setosa (en rouge), 50 iris versicolor
(en vert) et 50 iris virginica (en bleu).
Quatre quantités ont été mesurées pour
chaque fleur : la longueur et la largeur des
pétales et des sépales. Chaque graphique
montre le nuage de points obtenu en
représentant une variable (commune à
une ligne donnée) en fonction d’une autre
(commune à une colonne). Ainsi, le carré
en haut à droite représente la longueur des
sépales des différentes fleurs en fonction
de la largeur de leurs pétales. Deux
graphiques symétriques par rapport à la
diagonale contiennent donc les mêmes
données, mais avec les axes échangés.
La difficulté consiste à traduire en équation le concept intuitif
« d’éloignement ». On pourrait penser à séparer au maximum les
moyennes des projections (c’est-à-dire les positions moyennes des
centres des distributions). Pourquoi pas, mais si les projections sont très
étalées, elles pourraient se chevaucher et le tri ne serait pas très efficace.
On peut aussi chercher une projection qui « comprime » au maximum
les deux catégories et diminue donc leur étalement. Mais cette idée a
également un talon d’Achille : en procédant ainsi, on ne contrôle pas la
position relative (« en moyenne ») des deux projections l’une par rapport
à l’autre.
Pétales et sépales d’une fleur
d’Iris virginica.
page 34
DR
Fleurs
des
trois
espèces d’iris étudiées
par Ronald Fisher.
ÉLÉMENTAÍRE
...réseaux de neurones
Puisque ces deux propriétés ne peuvent pas être satisfaites simultanément,
Fisher décide de réaliser un compromis : il choisit la droite qui rend
maximal le rapport entre la différence des projections moyennes et la
somme des dispersions de ces projections (en gros, l’écart moyen divisé
par l’étalement total). Cette quantité, appelée discriminant de Fisher,
est d’autant plus grande que les projections moyennes sont éloignées
(grand numérateur) et que les ensembles projetés sont comprimés (petit
dénominateur). Mathématiquement, on peut démontrer que ce choix est
le meilleur dans une grande variété de situations, en particulier pour la
plupart des problèmes concrets que le chercheur doit affronter. Et même
dans les cas où ce critère n’est pas le meilleur, il est très simple à mettre
en œuvre et plutôt performant, ce qui explique sa grande popularité.
Réseaux de neurones
Séparation entre les trois espèces d’Iris
obtenue par Fisher avec son discriminant.
En se restreignant à deux espèces (setosa et
versicolor), on peut évaluer la probabilité
de mauvaise classification à moins de 3
chances sur 1 million (en supposant un
comportement gaussien).
© Elémentaire
Une autre approche, très en vogue ces dernières années, bien que les
premiers travaux s’y rapportant datent de la fin de la seconde guerre
mondiale, consiste à imiter le (ou plutôt à s’inspirer du) fonctionnement
du cerveau pour effectuer ces opérations de triage-classification. Par
analogie avec les neurones
qui peuplent nos boîtes
crâniennes, un neurone
mathématique est un objet
qui reçoit plusieurs signaux
en entrée et qui, selon les
informations
disponibles,
renvoie une valeur différente
en sortie. Une fois connectés
entre eux pour former un
variable 2
réseau, ces neurones affichent
un comportement global
complexe : un peu comme
Projections d’un ensemble de données
notre cerveau qui, à partir
bidimensionnel (en vert) sur des axes
d’informations très diverses
horizontal (en rouge) et vertical (en
en provenance de nos cinq
bleu). L’allure des distributions après
sens et de nos connaissances
projection dépend de la répartition des
acquises, nous restitue une
événements dans les deux dimensions.
perception précise de notre
environnement.
variable 1
ÉLÉMENTAÍRE
page 35
L’exemple le plus simple de neurone mathématique – qui répond au
nom barbare de « perceptron simple » – a été inventé en 1957 par Frank
Rosenblatt au laboratoire d’aéronautique de l’université de Cornell (ÉtatsUnis) : il sert à séparer les éléments de deux ensembles. Le neurone prend
n variables en entrée (par exemple, les dimensions des pétales et des
sépales des iris), calcule leur somme pondérée selon des poids définis
à l’avance, compare la quantité calculée à une valeur seuil et retourne
1 ou 0 selon que celle-ci est ou non dépassée. L’originalité de cette
Discriminant de Fisher et...
approche vient de la manière dont les poids sont déterminés :
contrairement au discriminant de Fisher, il n’existe pas de
méthode déterministe (c’est-à-dire de procédure toute faite)
pour les calculer ; on les obtient par approximation successive
en « entraînant » le neurone.
On veut que la réponse du perceptron traduise l’appartenance
à l’un ou l’autre ensemble. Avant de l’utiliser, on l’entraîne en
lui fournissant en entrée des données d’objets dont on connaît
la catégorie d’origine et on compare sa sortie binaire (ensemble
« 0 » ou ensemble « 1 ») avec les valeurs attendues. Si le
neurone se trompe, on modifie ses poids selon des algorithmes
mathématiques qui donnent plus d’importance aux entrées qui
aident à la bonne prise de décision et qui affaiblissent celles
qui n’apportent qu’une information marginale... et on reprend
l’entraînement. Le processus se poursuit jusqu’à ce que les
poids soient stables. Pour obtenir de bonnes performances, il faut éviter le
surentraînement ! Faute de quoi, le perceptron deviendrait trop spécialisé
et ne reconnaîtrait que les échantillons sur lesquels il s’est entraîné. Pour
un tel perceptron, l’arbre (qu’il a étudié pendant sa formation) cache la
forêt (qu’il devrait nous aider à reconnaître)...
Schéma de fonctionnement du perceptron
simple : n variables d’entrées, une sortie
binaire (0 ou 1) déterminée par la valeur
de la somme pondérée des entrées.
L’union faisant la force, on utilise toujours en pratique un ensemble de
neurones : selon le problème posé, on choisit le neurone élémentaire,
l’architecture du réseau et sa dynamique, c’est-à-dire la manière dont
les neurones communiquent entre eux. Une fois les connexions fixées,
l’entraînement consiste à optimiser les poids de chaque neurone. Pour
faciliter cette procédure, plus lourde que dans le cas du perceptron
simple, on n’utilise pas de neurone « binaire » : le passage de 0 à 1 au
seuil est trop brusque et on remplace donc cette fonction « créneau » par
une transition plus douce mais rapide. On utilise en général une sigmoïde
(« en forme de sigma », c’est-à-dire en S), également appelée « fonction
logistique », car elle apparaît souvent dans ce type de problèmes. Cette
régularisation accélère l’entraînement et permet l’utilisation de méthodes
d’optimisation plus puissantes.
Les réseaux de neurones utilisés en physique des constituants élémentaires
ont en général une structure en couches : les seules connexions
permises entre neurones vont d’une couche n à la couche n+1 située
immédiatement en aval. Les neurones de la première couche reçoivent
les données d’entrée et il y a un unique neurone sur la dernière couche
qui produit le résultat final du réseau. Même si l’entraînement a été de
qualité, un réseau de neurones n’est jamais parfait. Pour un seuil donné,
une fraction des événements de type « signal » sera vue comme du bruit
de fond et réciproquement. Selon l’utilisation que l’on veut faire du réseau
de neurones, on privilégie soit la pureté des évènements sélectionnés
(par exemple seulement 5% de bruit de fond pris pour du signal) soit
l’efficacité de la sélection (80 ou 90% d’événements de type « signal »
correctement identifiés). La qualité d’une telle méthode de tri (réseau
page 36
Comparaison des fonctions sigmoïde et
créneau (transition instantanée de 0 à 1
en x=0).
ÉLÉMENTAÍRE
...réseaux de neurones
de neurones comme discriminant de Fisher) séparant
signal et bruit de fond est en général résumée dans un
diagramme de performances.
Entre les deux, mon coeur
balance...
Dans nos disciplines, les discriminants de Fisher et les
réseaux de neurones ont en général des performances
voisines avec, assez souvent, un léger avantage pour
les seconds. D’un autre côté, l’atout principal du
discriminant de Fisher est sa simplicité : tant au niveau
de son optimisation que de son utilisation, le chercheur
comprend tout ce qui se passe. À l’opposé, le réseau
de neurones apparaît plutôt comme une sorte de boîte
noire dont l’entraînement comme la réponse aux
données d’entrée restent mystérieux – on voit que le
réseau fonctionne mais on ne comprend pas forcément
les détails de son fonctionnement. Cela explique que
de nombreux chercheurs privilégient les discriminants
de Fisher.
Exemple de diagramme de performances
pour une méthode de classification de
données (discriminant de Fisher ou réseau
de neurones). La figure du haut montre
l’efficacité de sélection du signal (en rouge)
et du bruit de fond (en bleu) en fonction du
seuil appliqué sur la sortie de l’algorithme.
On peut combiner ces deux courbes pour
montrer l’efficacité sur le signal (que l’on
souhaite élevée) en fonction de celle sur le
bruit de fond (que l’on veut faible), Cette
fonction est représentée en vert sur la
figure du bas : pour 5% de bruit de fond
on conserve environ 60% de signal et une
efficacité au signal de 90% garde environ
24% du bruit de fond. En moyenne, la
première coupure rejette 19 événements de
bruit de fond sur 20 tout en conservant 6
événements signal sur 10 ; la seconde garde
un quart des événements de bruit de fond
mais n’élimine qu’1 événement signal sur
10. On choisira plutôt le premier seuil
si on privilégie la pureté de l’échantillon
final et le second si on veut garder le plus
d’événements possibles. Pour chaque
méthode de classification, on peut ainsi
tracer de tels diagrammes de performances,
et déterminer, en fonction des besoins
de l’analyse, le critère de sélection le plus
approprié.
En dehors de la physique des particules, les réseaux de neurones
sont de plus en plus utilisés dans des domaines très variés et souvent
insoupçonnés.
• En contrôle industriel : l’examen simultané des vibrations, des bruits et
des émissions d’un moteur d’avion permet de mieux évaluer son état.
• Pour la reconnaissance de formes : visages sur des caméras de
surveillance ou aux douanes d’aéroport, signatures sur des chèques,
adresses écrites à la main sur des lettres, etc.
• En médecine : l’aide au diagnostic associe les symptômes et les
pathologies développés par les patients.
• Dans d’autres domaines : pour filtrer les pourriels (les fameux « spams »),
chercher de l’information à valeur ajoutée dans des grosses bases de
données, prévoir l’évolution des cours de la bourse, cibler les besoins
des consommateurs, trouver de bons clients pour une banque, etc.
ÉLÉMENTAÍRE
page 37
Les applications potentielles des réseaux de neurones ne manquent donc
pas !
Accélérateur
Les collisionneurs : révolution dans
À la suite des travaux pionniers de E.O. Lawrence avant la seconde guerre
mondiale, des synchrotrons de plus en plus puissants sont construits dans
les années 50. Ils profitent des avancées effectuées dans de nombreux
domaines : conception des accélérateurs, technologies d’accélération et de
guidage du faisceau, augmentation de la puissance électrique disponible,
etc. Les expériences réalisées alors sont dites « sur cible fixe » : le faisceau
accéléré est envoyé sur un échantillon de matière et les détecteurs
mesurent les produits des collisions des particules avec les atomes qui
composent la cible. Si la densité de cette dernière est suffisamment
élevée pour assurer l’observation d’événements à chaque passage des
projectiles, la réaction est loin d’être efficace énergétiquement : seule
une faible fraction de l’énergie de la particule incidente est utilisable pour
produire de nouvelles particules et ce pourcentage décroît même lorsque
l’énergie augmente ! Or, d’après la relation d’Einstein reliant énergie et
masse (E=Mc2), disposer de plus d’énergie permet de créer des particules
plus massives (et donc potentiellement nouvelles). Pour sortir de cette
impasse, il faut s’engager dans une nouvelle direction.
Mais revenons un instant sur les transferts d’énergie lors d’une expérience
sur cible fixe. Si seule une partie de l’énergie peut se transformer en masse,
où part le reste puisque l’énergie totale est conservée ? La réponse est
simple : comme la réaction est déséquilibrée – l’un des deux participants
à la collision est en mouvement alors que l’autre est au repos – une
grande partie de l’énergie totale est utilisée pour le déplacement global
de l’ensemble des particules produites. Comment s’affranchir de
ce phénomène ? En faisant bouger la cible pour contrer l’effet
précédent ! Une idée aussi prometteuse que compliquée au
niveau technique.
Dans le cas d’une collision frontale entre deux particules
identiques et de même énergie, le mouvement d’ensemble du
système – avant et après – est nul : toute l’énergie est absorbée
par la réaction. On trouve déjà cette idée pour le cas des systèmes
non-relativistes dans une lettre de R. Wideröe à E. Amaldi en
1943. Il dépose même un brevet pour un accélérateur de sa conception
mais ne l’exploite jamais, trop pris par son travail dans l’industrie. Le
concept est repris en 1956 par D.W. Kerst et ses collaborateurs qui
l’étendent aux expériences ultra-relativistes où l’écart entre les deux
types d’accélérateurs est encore plus marqué : par exemple, deux protons
de 21,6 GeV envoyés l’un sur l’autre ont le même potentiel qu’un proton
de 1000 GeV entrant en collision avec une cible fixe et ce, en fournissant
23 fois moins d’énergie !
Alors
qu’une
cible
n’est
Non-relativistes, ultra-relativistes
composée que de matière, ce
Une particule de masse M est dite nonnouveau concept d’accélérateur
relativiste lorsque son énergie cinétique
permet aussi de réaliser des
(c’est-à-dire son énergie de mouvement)
collisions matière-antimatière,
est très inférieure à son énergie de masse
intéressantes dans la mesure où
(Mc2). Elle est dite relativiste dans le cas
les deux projectiles s’annihilent.
contraire et ultra-relativiste lorsque son
Leur énergie est convertie
énergie est très supérieure à son énergie
en
nouveaux
constituants
de masse.
Efficace énergétiquement
L’énergie utilisable pour produire de
nouvelles particules lors de la collision
d’une particule d’énergie E avec une
autre particule au repos et de masse M
est approximativement
disponible
E cible fixe ~ √ 2Mc2E
lorsque E>>Mc2. Dans le cas d’une
collision frontale entre deux particules
d’énergie E/2, le résultat est
disponible
E collision = E
E disponible
cible fixe
Le rapport varie selon: disponible ~ 2Mc
√E
E collision
2
Cette fraction diminue à mesure que
l’énergie augmente et devient très
petite dans le cas d’une particule ultrarelativiste pour laquelle l’énergie totale
E est très supérieure à l’énergie de masse
Mc2. Cela montre que les collisionneurs
ont un rendement énergétique bien
meilleur que les collisions sur cible fixe,
en particulier à haute énergie.
Repos
Les atomes d’une cible fixe ne sont
pas complètement au repos puisqu’à
toute température est associée une
agitation aléatoire des particules au
niveau microscopique. Néanmoins les
énergies associées à ce mouvement sont
si faibles comparées à celles mises en
jeu dans les collisions produites par un
accélérateur qu’elles sont complètement
négligeables.
page 38
Comparaison entre : en haut, la collision
d’un proton énergétique (10 GeV) sur une
cible fixe (proton au repos de masse 1 GeV) ;
en bas, la collision de deux protons de
même énergie (5 GeV). Dans le second cas,
toute l’énergie disponible sert à produire de
nouvelles particules ; dans le premier, plus
de la moitié est utilisée pour le mouvement
global des particules produites.
ÉLÉMENTAÍRE
les accélérateurs de particules
élémentaires. De plus, comme particules et antiparticules ont des charges
opposées, un seul champ magnétique orienté perpendiculairement au
plan de leurs trajectoires permet de les faire tourner en sens opposés dans
un anneau circulaire.
Paquets
Pour des raisons tant fondamentales que techniques, le champ
électrique accélérateur nécessaire pour compenser les pertes
d’énergie dues au rayonnement synchrotron des particules
stockées n’est pas disponible en continu : il faut donc utiliser un
champ oscillant. Les particules sont alors organisées en paquets, les
plus denses possible, et dont les propriétés (dispersion de l’énergie,
volume, etc.) sont préservées au mieux dans les collisionneurs.
Moins ces paramètres sont perturbés, plus la durée de vie des
faisceaux est grande et l’accélérateur « efficace » !
Le fonctionnement du système R.F. est synchronisé avec le
mouvement des paquets afin que les cavités apportent l’énergie
appropriée aux particules lorsque celles-ci les traversent. En
dehors de ces périodes, le champ qu’elles délivrent n’est pas adapté
aux caractéristiques des faisceaux. Ainsi, une particule qui voit
son énergie modifiée de manière significative ne reçoit plus les
corrections nécessaires au maintien de son orbite : en quelques
millièmes de seconde elle est perdue.
ÉLÉMENTAÍRE
Durée de vie
À chaque tour, des particules sont perdues dans le
collisionneur : efficacité forcément limitée des systèmes
contrôlant leur trajectoire, interaction avec les molécules
de gaz résiduelles, conséquence des collisions au centre du
détecteur avec les particules tournant en sens inverse etc.
Ralentir cet effet – par exemple en améliorant le système
de pompage du tube à vide – permet d’augmenter la durée
de vie des faisceaux et donc le temps pendant lequel ils
produisent des collisions visibles dans les instruments.
page 39
Voilà pour la théorie. En pratique, réaliser un collisionneur
est tout sauf évident : quel que soit le soin apporté à leur
fabrication et à leur conservation, les faisceaux auront
toujours une densité bien plus faible qu’une cible solide, ce
qui limite la probabilité de collision entre les particules qu’ils
contiennent. Une manière de compenser cet effet consiste à
augmenter le nombre de fois où les particules se croisent. En
particulier, on cherche à allonger au maximum la durée de vie
des faisceaux en limitant la perte de particules en fonction du
temps. Voyons comment on en est arrivé aux collisionneurs
actuels avec les étapes les plus marquantes de ce processus
qui s’est déroulé sur plusieurs décennies.
Résumé (très simplifié) de ce qui se passe dans un collisionneur e+elorsque des faisceaux circulent à l’intérieur.
1 - Dans chaque section circulaire, les particules suivent une
trajectoire courbe sous l’action d’un champ magnétique. Elles
perdent alors de l’énergie par émission de lumière synchrotron.
2 - Des particules peuvent disparaître lorsqu’elles interagissent
avec les molécules de gaz résiduel présentes dans les tubes à
vide, maintenus à la pression la plus faible possible (quelques
milliardièmes de la pression atmosphérique) par un système de
pompage fonctionnant en permanence.
3 - Dans certaines sections droites, des cavités radio-fréquence
(« R.F. ») redonnent aux particules l’énergie perdue par émission
synchrotron. Ce système sert aussi à donner l’énergie nominale de
fonctionnement aux faisceaux.
4 - Les collisions entre particules ont lieu au centre du détecteur.
Ailleurs, les deux faisceaux circulent sur des trajectoires différentes,
voire dans des tubes à vide séparés. Près de la zone d’interaction,
des aimants très puissants forcent les faisceaux à se rapprocher,
puis à se traverser mutuellement avant de les séparer tout aussi
brusquement – chacune de ces étapes « coûte » des particules. Ces
dernières ne sont pas réparties uniformément dans le collisionneur
mais sont regroupées en paquets dont les passages sont synchronisés.
Les collisions sont d’autant plus efficaces que les paquets sont
denses, en particulier dans le plan transverse à leur propagation. La
quantité utilisée pour décrire la « qualité » des collisions est appelée
luminosité.
5 - Lorsque le nombre de particules disponibles dans les faisceaux
passe en dessous d’un certain seuil, les collisions ne se produisent
plus assez souvent pour justifier la poursuite de l’expérience. De
nouvelles particules sont alors injectées dans l’accélérateur. Les
collisionneurs actuels sont capables de « recharger » un paquet
particulièrement appauvri alors que les collisions ont encore lieu en
abondance. Leur efficacité est ainsi maximale.
Les collisionneurs : révolution dans
Les pionniers
L’intensité du courant électrique
mesure un nombre de charges
électriques par unité de temps. Ainsi,
un ampère de courant dans un fil
électrique correspond au passage de...
6 241 509 629 152 650 000 (et pas un de
moins !) électrons par seconde. Dans
un collisionneur, l’intensité I est donc
donnée par le nombre de particules N
qu’il contient multiplié par le nombre
de tours qu’elles effectuent par seconde.
Comme elles se déplacent à une vitesse
extrêmement proche de celle de la
lumière c, cette fréquence de rotation
s’exprime directement en fonction de la
longueur L de l’anneau : I= N.c/L
Quelques mois après la publication de l’article de Kerst, G. O’Neill (de
l’université américaine de Princeton) propose d’ajouter aux accélérateurs
existants des anneaux de stockage dans lesquels circuleraient des faisceaux
de particules accélérées en amont, par exemple par un synchrotron. Les
collisions auraient lieu dans une section droite commune. En 1958, W.
Panofsky (futur premier directeur du SLAC, voir Élémentaire N°4) obtient
une subvention de 800 000 dollars pour construire deux anneaux de
stockage au bout de l’accélérateur linéaire Mark-III de 700 MeV situé
sur le campus de l’université de Stanford. Ce projet s’accompagne de
plusieurs innovations technologiques, en particulier au niveau du contrôle
des particules stockées afin d’augmenter la longévité des faisceaux. Les
anneaux, en forme de « 8 », d’environ 2m de circonférence et dans
lesquels des électrons circulent en sens opposés, sont opérationnels
en 1962 : c’est un succès (énergie maximale de 1 GeV ; l’intensité du
courant atteint 600 mA, un record qui tiendra presque quatre décennies)
mais, en fait, les américains ne sont pas les premiers.
En effet, le 27 février 1961, une équipe du laboratoire italien de
Frascati (au sud de Rome) menée par Bruno Touschek réussit le premier
stockage d’électrons et de positrons dans l’anneau AdA (« Anello di
Accumulazione », soit « Anneau d’Accumulation » en français). AdA
comprend une chambre à vide toroïdale (c’est-à-dire en forme d’anneau),
placée dans un puissant champ magnétique orienté perpendiculairement
au plan de l’anneau et faisant tourner particules et anti-particules en sens
inverses, à des énergies pouvant atteindre 250 MeV. Des électrons frappent
une première cible ; des photons sont alors émis, lesquels atteignent
ensuite une seconde cible où les collisions donnent naissance à des paires
e+e−. Une petite fraction de ces particules est capturée dans la chambre
à vide qu’il faut renverser par rapport au système d’injection selon que
page 40
Effet Touscheck
L’effet Touscheck décrit la perte de particules par interaction coulombienne
au sein des paquets stockés dans un
collisionneur, en partie responsable de
la décroissance du courant circulant
dans l’anneau. Lors de leur parcours,
les particules oscillent autour de leur
orbite moyenne et peuvent donc entrer
en contact si elles sont voisines. De
tels chocs affectent le mouvement des
particules impliquées et modifient les
composantes longitudinale (dans le sens
du déplacement) et transverse (radiale)
de leurs quantités de mouvement. Si le
changement est suffisamment important,
les trajectoires des particules deviennent
instables et celles-ci se perdent dans le
tube à vide.
© LNF
Avec I=600 mA et L=2 m (paramètres
du premier collisionneur construit
à Stanford) on obtient un faisceau
constitué d’environ 25 milliards de
particules. Le collisionneur actuel de
Stanford, PEP-II, a une circonférence
de 2200 m et a récemment atteint un
courant de 3 ampères pour son faisceau
de positrons : un peu plus de 137 000
milliards de particules étaient alors
en circulation ! Ce nombre est certes
gigantesque mais un simple verre d’eau
contient environ 40 milliards de fois
plus d’électrons...
Physicien autrichien, Bruno Touschek est victime des lois
raciales nazies car sa mère est juive. Il s’installe à Hambourg où
il travaille sur les ancêtres des klystrons et est en contact avec
Wideröe. Finalement arrêté par la Gestapo en 1945, il est déporté
dans un camp de concentration d’où il s’échappe par miracle,
laissé pour mort par un S.S. Après la guerre, il complète sa
scolarité à Göttingen avant de rejoindre l’université de Glasgow
en 1947. En 1952 il devient chercheur au laboratoire national de
Frascati à Rome et y effectue le reste de sa carrière. Sa vision de la
physique des particules, à la fois théorique et pratique, lui donne
l’idée de construire le premier collisionneur électron-positron au
monde. Le 7 mars 1960, il donne un séminaire dans lequel il présente ce nouveau concept,
insistant à la fois sur l’intérêt scientifique de ce type d’accélérateur pour les expériences
de haute énergie et sur la simplicité de réalisation d’un prototype. Le premier faisceau
stocké (quelques électrons à peine) est obtenu moins d’un an plus tard, le 27 février 1961.
Non content d’avoir supervisé la construction d’AdA, Touschek participe activement aux
tests qui y furent menés, y compris après le transport de l’anneau à Orsay. En particulier,
il découvre et explique un effet de physique des accélérateurs qui porte aujourd’hui son
nom.
ÉLÉMENTAÍRE
les accélérateurs de particules
Transporter AdA de Frascati à Orsay sur
une distance de 1500 km ne fut pas une
mince affaire. L’anneau fonctionnait sous
ultravide (pour éviter les interactions
entre les faisceaux d’électrons et de
positrons avec les molécules du gaz
résiduel) et le ramener à la pression
atmosphérique normale pour le trajet
aurait nécessité de longues opérations de
nettoyage une fois arrivé à destination,
suivies de plusieurs semaines de pompage.
Il fallut donc se munir d’un système de
batteries pour que la pompe maintenant
l’ultravide dans l’anneau fonctionne
en permanence. Touschek en personne
voulut tester la stabilité du camion utilisé
pour le transport : peu habitué à conduire
un si grand véhicule, il détruisit un
lampadaire en le manœuvrant. Enfin, un
douanier zélé voulut à tout prix inspecter
l’intérieur de l’anneau à la frontière : il
fallut une intervention haut placée (le
ministre italien des affaires étrangères
ou le haut-commissaire à l’énergie
atomique français selon les versions et ...
la nationalité du conteur !) pour que les
choses rentrent dans l’ordre. Malgré ce
contretemps, la pompe fonctionna jusqu’à
l’arrivée au LAL.
l’on veut accumuler des positrons ou des électrons. L’efficacité de cette
procédure, ajoutée aux limitations de la source initiale d’électrons, est le
talon d’Achille de ce dispositif : seuls de très faibles courants circulent
dans la chambre à vide.
La décision est alors prise de transporter AdA en juin 1962 à Orsay où le
Laboratoire de l’Accélérateur Linéaire (LAL) dispose d’un ... accélérateur
linéaire (!) utilisable comme injecteur. Le transfert tient toutes ses
promesses : des collisions entre positrons et électrons sont observées en
décembre 1963 ; les faisceaux sont stockés jusqu’à 40 heures et, surtout,
AdA met en évidence un phénomène important, connu aujourd’hui sous
le nom d’effet Touschek qui limite la durée de vie du faisceau. Selon
la petite histoire, l’interprétation correcte du phénomène fut donnée la
nuit même où il apparut dans AdA ; une solution technique fut imaginée
le lendemain matin et mise en pratique dans les jours qui suivirent : la
science en direct en somme !
Plus tard, en mai 1964, le laboratoire de Novossibirsk (en Sibérie)
commence l’exploitation de son collisionneur e−e− VEPP1 dont l’énergie
est 160 MeV par faisceau : c’est le premier d’une longue série d’anneaux
qui eux furent des anneaux e+e- (VEPP2, VEPP-2M, VEPP4, etc.). Il est
à noter que l’équipe russe de Novossibirsk est restée pendant plusieurs
années dans un isolement total vis-à-vis des laboratoires de l’Europe de
l’Ouest et des États-Unis. Au sein de cette équipe, c’est Vladimir Baier
qui suggéra – de façon indépendante de Bruno Touschek – d’étendre le
programme des collisions e-e- aux collisions e+e− dont la physique est
beaucoup plus riche.
Il est intéressant de noter que les trois collisionneurs « pionniers » (les
anneaux doubles de Stanford et de VEPP1 ainsi qu’AdA) n’utilisent pas
les techniques de guidage de particules les plus récentes pour l’époque.
Leur but n’est pas tant d’obtenir un dispositif performant que de prouver
la validité du concept de collisionneur et de tester les choix techniques
permettant sa réalisation. L’exploitation scientifique sera assurée par la
seconde génération de machines.
Les collisionneurs électrons-positrons
ÉLÉMENTAÍRE
Démonstration de l’existence de collisions entre électrons
et positrons par l’observation de la réaction e+ e− → e+ e− γ
dans AdA. Le graphique montre le rapport (nombre de
photons détectés)/(nombre de particules dans le faisceau 1)
en fonction du nombre de particules dans le faisceau 2.
Les points de mesure s’ordonnent selon une droite dont la
pente est reliée à la performance du collisionneur, appelée
luminosité. Plus cette quantité est élevée, plus le taux de
collisions est grand. Le nombre de particules dans chaque
faisceau est estimé en mesurant la lumière synchrotron
qu’elles émettent lorsque leur trajectoire est courbée par
un champ magnétique. Le bruit de fond résiduel explique
l’observation de photons lorsque le nombre de particules
dans le faisceau 2 est nul.
page 41
Et, de fait, les collisionneurs e+e− se multiplient dans la seconde
moitié des années 60. À Orsay, l’exploitation d’ACO (« Anneau
de Collisions d’Orsay ») débute le 25 octobre 1965 ; l’énergie
des faisceaux est de 520 MeV. En plus de la mise en évidence
et de l’étude de nombreux phénomènes propres à la physique
des accélérateurs, ACO permet des avancées sur la physique
d’une classe de particules de spin 1 appelées mésons vecteurs.
Après de nombreuses années d’exploitation, ACO trouvera une
nouvelle jeunesse dans la production de lumière synchrotron ; la
salle d’expérience et l’anneau lui-même sont aujourd’hui inscrits
à l’inventaire supplémentaire des Monuments Historiques et
ouverts aux visiteurs.
En 1967, le laboratoire de Frascati met en service ADONE (« le
gros AdA » en italien) dont l’énergie disponible en collision
Les collisionneurs : révolution dans
atteint les 3,1 GeV avec une luminosité améliorée. Les données recueillies
montrent que le taux de production de hadrons (particules constituées
de quarks), e+e− → hadrons, est au moins aussi important que celui des
leptons, e+e− → µ+µ−, dont la théorie est alors bien établie. Ce résultat
– confirmé ensuite par l’expérience « By Pass » située à Cambridge dans
l’état du Massachusetts – est inattendu. On comprendra par la suite
que les prédictions théoriques (inspirées par l’analyse des neutrons et
des protons) n’étaient pas bien fondées. Ce domaine d’énergie n’avait
d’ailleurs pas fini de surprendre les physiciens.
En effet, après une longue période d’atermoiements bureaucratiques
et plusieurs demandes de crédit rejetées, SLAC reçoit finalement un
financement à l’été 1970 pour construire le collisionneur SPEAR (« Stanford
Positron Electron Accelerating Ring », « Anneau accélérateur de positrons
et d’électrons de Stanford »). Encore de taille modeste – un anneau
simple de 80 mètres de diamètre construit sur un parking près du bout de
l’accélérateur linéaire – il est terminé en 1972 et produit des faisceaux
de 4 GeV d’énergie. En quelques années, les découvertes s’enchaînent :
le méson J/Ψ en 1974 (formé de deux quarks d’un quatrième type encore
inconnu, le charme) et le lepton τ en 1976, premier représentant de la
troisième famille des constituants fondamentaux de la matière. En 1990,
SPEAR est converti en une source intense de lumière synchrotron, le
SSRL (« Stanford Synchrotron Radiation Light », « Source de rayonnement
synchrotron de Stanford »), encore en fonctionnement aujourd’hui.
L’Europe n’est pas en reste. À Orsay, l’anneau de stockage DCI (« Dispositif
de Collisions dans l’Igloo », nom donné au bâtiment en forme de dôme
situé au bout de l’accélérateur linéaire), fournit, dans les années 70, des
produits de collisions au détecteur DM2 (« Détecteur Magnétique 2 »)
qui réalise des mesures de précision sur les hadrons, en particulier sur
le J/Ψ récemment découvert – le nombre d’événements collectés reste
pendant longtemps le plus important au monde. Mais les avancées les
plus spectaculaires ont lieu au laboratoire DESY, près de Hambourg en
Allemagne. Au collisionneur e+e− en double anneau de 3 GeV, DORIS,
s’ajoute en 1978 PETRA (« Positron Electron Tandem Ring Accelerator »).
Cette machine est un vrai géant par rapport à ses prédécesseurs : 2300
mètres de circonférence ! En forme d’anneau, comme les machines e+e−
précédentes, elle comporte huit sections droites : six pour les expériences
et deux pour le système d’accélération R.F. Les particules sont créées par
un accélérateur linéaire, accélérées jusqu’à 6 GeV dans le synchrotron
de DESY avant d’être injectées dans PETRA. L’énergie des collisions
atteint rapidement les 22 GeV (record mondial à l’époque) et montera
ultérieurement jusqu’à 46,8 GeV.
Énergie des collisions, en GeV.
Section efficace de la réaction
e+e− → hadrons (divisée par celle de
production de muons e+e− → μ+ μ-)
enregistrée par le détecteur MarkI sur le collisionneur SPEAR. Le pic
correspond à la production du méson
Psi (ψ) découvert simultanément à
Brookhaven dans une expérience sur
cible fixe (et appelé J). En moins de
1 MeV (soit une variation d’énergie
inférieure au pourmille), la section
efficace est multipliée par 100 avant de
décroître presque aussi rapidement.
La position du pic donne la masse de
cette nouvelle particule, également
appelée « résonance ». Dix jours
après cette découverte, une seconde
résonance – le « ψ prime » de masse
3,7 GeV/c2 environ – est observée à
SPEAR (SLAC).
page 42
En 1979, le CERN publie une étude portant sur un collisionneur e+e−
d’une trentaine de kilomètres de circonférence. L’énergie prévue est de 70
GeV par faisceau avec des perspectives d’augmentation jusqu’à 100 GeV
grâce à l’utilisation de cavités R.F. supraconductrices. Une fois accepté,
ce projet devient le LEP (« Large Electron-Positron collider », « Grand
collisionneur à électrons et positrons », voir «Expérience»). Les travaux de
génie civil débutent en 1983 ; les premières collisions sont enregistrées le
ÉLÉMENTAÍRE
les accélérateurs de particules
13 août 1989 et l’accélérateur a été en service jusqu’en novembre 2000.
Le LEP a ensuite été démonté et c’est dans son tunnel que l’installation du
LHC se termine.
Les collisionneurs électrons-positrons les plus performants actuellement
sont les accélérateurs des « usines à B » Belle et BaBar : KEK-B au Japon
(l’accélérateur le plus efficace au monde, à la fois en termes de taux de
collisions instantané et du nombre total d’événements fournis depuis sa
mise en service) et PEP-II en Californie (qui détient les records de courant
dans chacun des deux faisceaux). Leur particularité principale est d’être
asymétriques : l’énergie des électrons est environ trois fois plus importante
que celle des positrons. Comme nous l’avons vu au début de l’article,
cette différence produit un mouvement d’ensemble qui affecte tous les
produits de la réaction, en particulier deux particules appelées mésons
B auxquelles BaBar et Belle s’intéressent particulièrement. Leur durée
de vie étant non nulle (mais très petite), la « pichenette » énergétique
qu’elles reçoivent fait qu’elles parcourent une distance mesurable dans le
détecteur avant de se désintégrer (à peine quelques millimètres). L’énergie
perdue pour la collision est ici sans conséquence dans la mesure où ces
expériences opèrent à une énergie fixée, bien inférieure aux records
atteints par ces accélérateurs. Leur but n’est pas d’atteindre l’énergie la
plus élevée possible mais d’augmenter autant que possible la luminosité,
c’est-à-dire le taux d’événements.
Collisionneurs protons-(anti)protons
Lors d’une collision entre des particules
ayant une structure interne (par exemple
pp), le choc a lieu entre des composants de
chaque particule (quarks ou gluons) qui
n’emportent qu’une fraction de l’énergie
totale – une fraction variable selon la
collision. Accumuler les événements
permet de balayer toute la gamme
d’énergie disponible. De plus, la perte
d’énergie par rayonnement synchrotron
d’un proton suivant une trajectoire
circulaire est bien plus faible que celle
d’un électron : à puissance électrique
égale, un collisionneur à protons peut
donc atteindre des énergies plus élevées.
Produire
Les antiprotons sont obtenus par collision
de protons de haute énergie sur une cible
dense (par exemple en tungstène). Les
particules produites ont alors des énergies
et des trajectoires initiales très différentes
les unes des autres, d’où la nécessité de
les « mettre en forme » avant de pouvoir
les utiliser. Sans cette étape essentielle,
les quantités d’anti-protons disponibles
pour des collisions seraient beaucoup trop
faibles.
Les collisionneurs hadroniques
ÉLÉMENTAÍRE
page 43
Historiquement les physiciens utilisèrent des électrons et des positrons
dans les collisionneurs avant de se tourner vers les collisionneurs protons(anti)protons. L’utilisation de deux faisceaux de protons nécessite deux
tubes à vide et un système magnétique très complexe pour que des
particules de même charge puissent tourner en sens opposés ; quant
aux anti-protons, il faut réussir à les produire en grande quantité et être
capable de les organiser en paquets denses, d’énergie et donc de trajectoire
Vue aérienne du site de DESY (près de
Hambourg) avec, en pointillés, le dessin
des différents collisionneurs : PETRA
(collisionneur e+e− puis injecteur
de HERA) et HERA (collisionneur
e−p). Les cercles (désignés par les
initiales des 4 points cardinaux en
allemand) correspondent aux zones
expérimentales.
© DESY
Les collisionneurs : révolution dans
données. Néanmoins, aucune de ces difficultés ne s’est avérée
rédhibitoire sur le long terme : toutes les configurations de
collisionneurs ont été réalisées, la seule règle étant d’utiliser des
particules stables et chargées.
Le premier collisionneur pp est construit au CERN : l’ISR
(« Intersecting Storage Rings », « Anneaux de stockage à
intersections ») y fonctionne de 1971 à 1984. Les deux anneaux
d’aimants concentriques font 300 m de diamètre et sont situés à
environ 200 m du synchrotron PS d’où les protons sont extraits
à une énergie allant jusqu’à 28 GeV. Un système accélérateur
situé dans les sections droites des anneaux permet d’atteindre
31,4 GeV. Afin d’augmenter la densité de protons dans les
anneaux, on « rassemble » plusieurs paquets injectés par le PS. La durée
de vie des faisceaux atteint les 36 heures.
Les antiprotons deviennent d’actualité dans la seconde moitié des années
70 grâce à la mise en œuvre d’un système d’asservissement inventé en
1968 par l’ingénieur du CERN S. Van der Meer : les écarts de trajectoire
des paquets d’antiprotons qui circulent dans l’anneau sont observés en
un emplacement particulier et atténués en un autre endroit où le signal
de correction arrive avant les particules. Ainsi domptés, les antiprotons se
laissent accumuler en nombre suffisant pour donner
des collisions productives sur une longue période.
Sous l’impulsion de Carlo Rubbia, le CERN transforme
son synchrotron à protons SpS en un collisionneur
- (le SppS)
p-p
dédié à la recherche des bosons W±
0
et Z . L’accélérateur atteint son but : le prix Nobel
de physique 1984 récompense Rubbia et Van der
Meer pour « leurs contributions décisives au grand
projet qui a permis la découverte des bosons W et
Z, médiateurs de l’interaction faible ». Par la suite, le
laboratoire Fermilab (près de Chicago) se lance dans la
construction d’un collisionneur p-p- géant, le Tevatron,
qui, encore aujourd’hui, détient le record absolu
d’énergie de collision (2 TeV, soit 2000 GeV !).
Enfin, suivant une logique de « recyclage » propre
à tous les grands complexes accélérateurs, DESY
transforme son collisionneur PETRA en un injecteur
pour le collisionneur électrons ou positrons (~30 GeV) contre protons
(~820 GeV) HERA (« Hadron Electron Ring Accelerator », « Accélérateur
en anneau hadrons-électrons ») dont la circonférence atteint 6,3 km.
Les électrons permettent de sonder la structure des protons et d’étudier
des détails de leurs comportements décrits plusieurs dizaines d’années
auparavant mais jamais observés jusqu’alors. Après une très longue
carrière, HERA a finalement été arrêté l’été dernier : le nouveau grand
projet du laboratoire DESY consiste à construire et mettre au point une
source cohérente et très brillante de lumière synchrotron dans le domaine
page 44
Énergie des collisionneurs e+e− en
fonction de leur date de mise en
service (ou en projet). L’échelle
verticale est logarithmique : chaque
ligne horizontale correspond à une
multiplication par dix de l’énergie.
ÉLÉMENTAÍRE
les accélérateurs de particules
© LNF
Bien qu’il n’ait pas encore été mis en
service, le LHC est actuellement l’objet
de toutes les attentions des physiciens
nucléaires et des particules du monde
entier. Repoussant les limites de la
« frontière en énergie » (collisions à 14
TeV, 7 fois l’énergie record du Tevatron), il
devrait permettre de découvrir la dernière
pièce majeure du Modèle Standard
à n’avoir pas reçu de confirmation
expérimentale (le boson de Higgs) et
mettre en évidence des effets nouveaux,
certains prédits par les théories actuelles
et, sans doute, d’autres tout à fait inattendus !
© INFN
des rayons X, utilisée par exemple pour
« observer » des phénomènes ultrarapides comme des réactions chimiques.
L’expérience AdA à travers les âges : à gauche, en service en 1961 au
laboratoire de Frascati ; au centre, en 1962 après son transfert au
Laboratoire de l’Accélérateur Linéaire ; à droite en 2007, exposée sous une
pyramide de verre à l’entrée du laboratoire de Frascati.
ÉLÉMENTAÍRE
Salle expérimentale « Pierre Marin »
montrant l’anneau de collisions
ACO (Orsay) conservé en l’état à
destination du public.
page 45
Les collisionneurs existent depuis un demi-siècle seulement mais ils ont
révolutionné la physique des constituants élémentaires en permettant
d’explorer des plages d’énergie toujours plus élevées et d’accumuler
des quantités impressionnantes d’événements (plusieurs centaines de
millions pour Belle et BaBar). Bien loin d’être rivaux, les différents types
de machines se sont révélés complémentaires : ainsi, les bosons Z0 et
– ont été étudiés en détail
– au SppS,
W±, découverts dans des collisions pp
au LEP, collisionneur e+e−. Après la découverte du sixième (et dernier !?)
– et les mesures de précision des usines à B (e+e−),
quark au Tevatron (p-p)
le LHC (pp) devrait bientôt apporter sa moisson de découvertes.
Le XXIe siècle sera-t-il pour autant celui des anneaux de collisions ? Rien
n’est moins sûr : la taille des accélérateurs et les pertes par rayonnement
synchrotron apparaissent aujourd’hui comme des obstacles insurmontables
pour la prochaine génération de collisionneurs circulaires à électrons. Il
faudra donc probablement concevoir de nouveaux collisionneurs au lieu
de reproduire en plus grand et en plus puissant les machines actuelles.
Ainsi, le prochain projet mondial devrait être un collisionneur linéaire
électron-positron de plusieurs centaines de GeV (l’ILC), formé de deux
accélérateurs linéaires se faisant face et injectant des paquets de particules
en collision frontale. La communauté des physiciens des hautes énergies
a l’habitude de ces remises en question : nul doute qu’elle saura relever
ce nouveau défi !
© ACO
Un nouveau siècle commence
Découvertes
À la chasse aux bosons W et Z
Des papillons bien énigmatiques
��
W
��
Dans les années 60, on s’interroge beaucoup sur les liens entre l’interaction
électromagnétique et l’interaction faible. Les physiciens théoriciens, en
particulier Steven Weinberg, Abdus Salam et Sheldon Glashow, mettent
au point une théorie selon laquelle ces deux interactions découleraient
d’une seule et même force, dite électrofaible (voir «Théorie»). Cette
théorie postule l’existence de trois bosons massifs, les W+ et W--, chargés,
et le Z0, neutre. Elle prévoit que la force électrofaible se manifeste de deux
manières. D’une part, on a des processus où la particule échangée est un
boson chargé et pour laquelle il y a donc transfert de charge électrique.
Par exemple :
μ-- —> νμ W-- —> νμ –νe e-où on voit que le muon « perd » sa charge électrique pour devenir un
neutrino mu, tandis que le W- se désintègre en une paire chargée électron
– antineutrino (on parle de « courant chargé »). D’autre part, il peut y
avoir des processus où un boson Z0 est échangé de sorte qu’il n’y a pas
de transfert de charge. C’est le cas si on prend
νμ + e-- —> νμ + e-où on retrouve dans l’état final les mêmes particules chargées que dans
l’état initial. Au moment où cette théorie est avancée, ce second type de
processus, appelé courant neutre, n’a encore jamais été observé.
�
��e
e�
��
Z�
��
Une première manifestation de l’existence de ce mécanisme d’unification
est apportée par le CERN en 1973 par la chambre à bulles Gargamelle.
L’année précédente, un événement historique νμ + e-- —> νμ + e-- a été
détecté. Cette réaction ne peut avoir lieu que par l’intermédiaire d’un Z0.
Ce cliché est donc la première preuve de l’existence des courants neutres.
Comme aucune autre expérience n’observait alors d’événement de ce
genre, de nombreuses voix s’élevèrent pour suggérer que l’observation
faite par les physiciens de Gargamelle n’était pas un signal mais du bruit
de fond imitant la réaction recherchée. Mais après de nombreuses études
et l’enregistrement d’autres événements similaires, la découverte des
courants neutres est finalement confirmée en 1973.
e�
e�
En haut : désintégration bêta d’un
muon par l’intermédiaire d’un W--.
On parle d’un processus de courant
chargé. En bas : diffusion νμ e-- par
courant neutre, c’est-à-dire par
l’intermédiaire d’un Z0.
page 46
Même s’il ne s’agit que d’indices laissés par le boson Z0 et pas d’une
preuve directe, l’unification électrofaible ne fait plus de doute. Mais
quelle est la masse de ces bosons et comment les détecter directement ?
Vers la fin des années 70, en combinant les observations faites sur les
courants neutres et les courants chargés dans les interactions de neutrinos,
ainsi que des études de taux de production des processus e+e-- —> µ+µ-menées à DESY, le modèle électrofaible permet d’indiquer que la masse
du Z0 doit être de l’ordre de 90 GeV/c2 et celle des W± comprise entre
80 GeV/c2 et celle du Z0. Pour prouver l’existence de ces bosons, il faut
pouvoir les créer lors de collisions et donc, disposer d’un accélérateur
capable d’atteindre les énergies correspondant à ces masses.
ÉLÉMENTAÍRE
À la chasse aux bosons W et Z
La collision proton-antiproton favorise
la production des W± et des Z0 par
rapport au mode proton-proton
À haute énergie, la collision entre deux
particules composites peut être vue comme
celle de leurs constituants fondamentaux,
à savoir les quarks, les antiquarks et
les gluons. Dans le cas d’un proton en
mouvement les quarks emportent la
majeure partie de son impulsion alors que
les antiquarks et les gluons en emportent
peu (voir Élémentaire N° 4). La situation
est inversée pour les antiprotons, où ce
sont les antiquarks qui jouent un rôle de
premier plan.
Les bosons W± et Z0 sont issus de la
rencontre d’un quark et d’un antiquark :
–
u d—>W+, u– d —> W- ou u u– —> Z0.
Pour faciliter la production des W± et des
Z0 on a donc intérêt à utiliser des collisions
de quarks (majoritaires dans les protons)
contre des anti-quarks (majoritaires dans
les antiprotons).
Dans les seventies...
Depuis 1976, le CERN s’est doté d’un nouvel accélérateur, le SPS (pour
Super Proton Synchroton), pouvant accélérer des protons jusqu’à une
énergie de 400 GeV. Des faisceaux en sont alors extraits et envoyés sur
des cibles fixes. Dans ce mode de fonctionnement, l’énergie disponible
pour les réactions ne dépasse pas 30 GeV... et n’est donc pas suffisante
pour permettre la création des particules plus lourdes, comme les W± et
les Z0.
C’est alors que David Cline, Carlo Rubbia et Peter McIntyre proposent
dans une publication historique, la transformation du SPS en collisionneur
proton-antiproton dans le but précis de permettre la découverte des
fameux bosons. Ils soulignent aussi que la collision proton-antiproton
favorise la production des W± et des Z0 par rapport au mode protonproton. Et c’est là le point délicat. Si on sait faire des faisceaux intenses
de protons, construire un faisceau d’antiprotons est une toute autre paire
de manches. Comment faire ? Les antiprotons sont produits en envoyant
des protons extraits du PS (Proton Synchrotron) sur une cible fixe. Des
antiprotons sont alors créés, mais le taux de production est extrêmement
faible : seulement un par million de protons incidents. Par conséquent,
Cline, Rubbia et McIntyre proposent d’accumuler et de stocker les
antiprotons le temps nécessaire pour en avoir un nombre suffisant. On
doit aussi uniformiser leurs caractéristiques (énergie et direction) pour
obtenir un faisceau homogène.
ÉLÉMENTAÍRE
Accumulateur
d’Antiprotons
Les antiprotons sont produits
sous des angles et avec des
énergies très variables. Pour
pouvoir les utiliser dans un
accélérateur, il faut au préalable
les capturer et les « refroidir »
en réduisant de plusieurs ordres
de grandeur les dimensions
du faisceau. Ce travail est
celui de l’Accumulateur d’Antiprotons (AA), projet achevé en 1980.
L’anneau AA met en application le principe du « refroidissement
stochastique ». Cette méthode, inventée par Simon van der Meer,
rend possible la production et l’utilisation de faisceaux d’antiprotons
d’intensité et de densité suffisantes. Le refroidissement stochastique a
pour but de diminuer le mouvement aléatoire des antiprotons dans
l’anneau de stockage. Après avoir mesuré les propriétés cinématiques
des antiprotons à un endroit de l’anneau, on envoie des signaux
électroniques au point diamètralement opposé de l’AA. Les impulsions
électriques arrivent avant les anti-protons, et donc à temps pour
modifier les paramètres des aimants et ainsi modifier la vitesse et la
trajectoire des anti-protons. Ainsi, l’accumulateur pouvait « refroidir»
et stocker jusqu’ à 1011 antiprotons en un jour.
page 47
Cette gageure est relevée grâce à l’Accumulateur
d’Antiprotons, un outil novateur conçu et réalisé
par Simon van der Meer. Une fois que le nombre
d’antiprotons est suffisant et que leurs caractéristiques
sont relativement uniformes, on les réinjecte dans le
PS où ils sont accélérés jusqu’à une énergie de 26
GeV, avant de les faire circuler dans le SPS où ils
atteignent une énergie de 270 GeV. Dans le SPS
circulent à chaque instant 3 paquets de protons et 3
paquets d’antiprotons. Ces paquets se croisent en 6
emplacements de la circonférence : en deux d’entre
eux, on procède effectivement à des collisions de
paquets. C’est là où sont installées les expériences
UA1 et UA2. Dans cette configuration et pendant
toute la période du fonctionnement des expériences
_
UA, le SPS s’appelle SppS (Super proton antiproton
Synchrotron).
À la chasse aux bosons W et Z
De très gros filets à papillon
Systèmes de déclenchement
Pour
récupérer
l’ensemble
des
informations issues des appareillages
complexes que sont UA1 et UA2, il faut un
temps « relativement long » pendant lequel
le détecteur reste aveugle aux collisions
suivantes. Pour diminuer ce temps mort,
on combine les informations issues
des sous-détecteurs les plus rapides, de
manière à décider la lecture de l’ensemble
de l’appareillage seulement si l’événement
paraît
suffisamment
« intéressant »,
compte tenu de ce que l’on recherche. La
plupart des collisions proton-antiproton
sont ainsi rejetées. Ce déclenchement
sélectif de l’enregistrement est basé sur des
calculs rapides effectués par des systèmes
électroniques programmables.
Les instruments de la découverte des bosons W± et Z0 répondent aux noms de
UA1 et UA2, où les initiales UA signifient Underground Area (zone souterraine).
En effet, UA1 et UA2 se trouvent respectivement à 20 et 50 m sous terre, dans
deux cavernes spécialement creusées autour de deux points de collision situés
le long de l’anneau du SPS. La décision de construire ces détecteurs est signée
en 1979, et ils sont prêts à fonctionner en 1981, ce qui constitue un record de
vitesse si on tient compte de leur complexité. Concurrents dans la course à la
découverte des W± et Z0, ces détecteurs doivent tous les deux être capables,
dès le démarrage du collisionneur SPS, de détecter les particules issues des
collisions proton-antiproton. Il faut donc qu’ils disposent d’une reconstruction
des trajectoires efficace, d’une bonne mesure des dépôts d’énergie et le tout en
perdant le moins possible de particules (on dit « avec la plus grande couverture
angulaire possible »).
© CERN
Il est important de noter un dernier point : les phénomènes recherchés sont
rares. Au cours d’une période de deux mois d’enregistrement de données,
on s’attend en effet à quelques événements contenant un boson Z0... alors
que quelques milliers de collisions protonantiproton ont lieu par seconde. Afin de
rechercher ce papillon dans cette jungle
épaisse, les deux collaborations inventent des
systèmes de déclenchement qui sélectionnent
les événements potentiellement intéressants
et les enregistrent sur bande pour les étudier
ultérieurement de façon détaillée.
page 48
© CERN
Un des événements enregistrés par le
détecteur UA1 lors de la prise de données
de la fin 1982. Au sein de cet événement
les physiciens ont pu identifier un électron
de grande énergie et un neutrino issus de
la désintégration d’un boson W-.
Ce détecteur est conçu comme « généraliste »,
c’est-à-dire sensible à de nombreux types
de particules. Le porte-parole de cette
collaboration de 130 physiciens n’est autre
Le détecteur UA1 lors de ses
que Carlo Rubbia, le promoteur acharné du derniers réglages. Sur la face
projet de collisionneur proton-antiproton. UA1 visible, on distingue les chambres
bat le record du plus gros détecteur jamais à muons. On peut déplacer ce
construit à l’époque, avec ses 2000 tonnes et détecteur sur les rails visibles
ses dimensions impressionnantes : 10 mètres au premier plan soit en position
de garage (pour les travaux de
de long pour 6 mètres de large et de haut.
maintenance) soit en position
Le champ magnétique de 7000 gauss est créé
de fonctionnement, c’est-à-dire
par un électro-aimant de 800 tonnes à l’intérieur autour du point de collision.
duquel sont disposées 6 couches de chambres
à fils qui entourent le tube à vide du SPS, telles des poupées russes. Grâce aux
6000 fils de ces chambres, la trajectoire des particules chargées est mesurée
avec précision dans un volume cylindrique de 6m de long et de 2,6 m de
diamètre. Autour de ce détecteur interne et dans le volume de l’électro-aimant,
on trouve un calorimètre électromagnétique qui arrête les électrons et les
© CERN
L’expérience UA1
Cellules du calorimètre électromagnétique de UA1 surnommées
« gondoles vénitiennes ».
ÉLÉMENTAÍRE
À la chasse aux bosons W et Z
photons tout en mesurant leur énergie. Ce calorimètre est composé
d’une superposition de couches de plomb et de scintillateurs usinées
en 2 ensembles semi-cylindriques, comportant chacun 25 cellules en
forme de gondoles vénitiennes. Le retour de fer de l’électro-aimant
est instrumenté et forme le calorimètre hadronique. À l’extérieur
on trouve 800 m2 de chambres à muons. Le détecteur UA1 peut
ainsi identifier les deux types de leptons (électrons et muons) dont la
présence caractérise la production d’un boson W+, W- ou Z0.
L’expérience UA2
Elle est acceptée par le CERN dans la foulée de UA1 pour rechercher
les W± et Z0 en se concentrant sur la détection des électrons et
des positrons issus de leurs désintégrations. Le détecteur est bien
plus compact et plus léger que UA1 - seulement 200 tonnes – et
rassemble une cinquantaine de physiciens issus de 6 instituts dont
Pierre Darriulat, porte-parole de la collaboration. UA2 ne comporte
pas d’aimant dans sa partie centrale mais seulement dans ses parties
« bouchons » (les extrémités du détecteur). Il ne peut donc mesurer
l’impulsion des particules et distinguer les électrons des positrons
que dans les zones avant et arrière.
Le détecteur de traces chargées est
entouré de 240 modules de calorimétrie
électromagnétique et hadronique pointant
vers le point de collision proton-antiproton.
La segmentation en profondeur des cellules
du calorimètre offre la possibilité de distinguer
des électrons et positrons par rapport aux
hadrons (particules consituées de quarks). En
effet, ces deux types de particules déposent
leurs énergies de manière différente dans
les parties électromagnétique et hadronique
du calorimètre. Ainsi, avec sa bonne granularité et son nombre élevé de cellules, la
calorimétrie de UA2 contrebalance l’absence
de champ magnétique. C’est grâce à elle que
la première observation des événements
comportant 2 jets de quarks dans un
collisionneur hadronique a été réalisée.
Première observation des événements comportant 2
jets de quarks
La première prise de données en décembre 1981,
connue sous le nom de « jet run », cherche à mettre en
évidence des jets de particules hadroniques (constitués
de quarks). Si ces jets ont déjà été observés dans les
accélérateurs e+e-, leur mise en évidence dans les
collisions hadroniques est une première mondiale.
L’effort de UA1 se concentre sur la reconstruction des
traces énergiques et de leurs distributions angulaires,
tout en ignorant le contenu des calorimètres. Au
contraire, les physiciens de UA2 affinent leurs analyses
des signaux enregistrés par le calorimètre. Cette
stratégie s’avère payante. À la conférence internationale
de physique des particules qui s’est tenue à Paris durant
l’été 1982, UA2 présente un événement spectaculaire
comportant deux jets de particules en configuration
dos-à-dos, d’une énergie totale de 130 GeV. Les
analyses qui suivent montrent un excellent accord avec
les prédictions de la Chromodynamique Quantique
appliquées à ce type de collisions (voir Élémentaire
N°4).
La chasse effrénée de la fin de l’alphabet
ÉLÉMENTAÍRE
page 49
En février 1981, le PS reçoit et accélère les premiers antiprotons. Dès le mois
de juillet ces particules sont transférées avec succès vers le SPS et brièvement
stockées à une énergie de 270 GeV. Le 10 juillet, Carlo Rubbia annonce
que les premières collisions proton-antiproton ont été enregistrées par UA1.
Néanmoins les intensités de protons et d’antiprotons sont encore trop modestes
pour que l’on puisse espérer voir des bosons W± ou Z0. Au mois de décembre
Événement comportant deux jets dos-àdos d’une énergie totale de 213 GeV. À
gauche on voit l’image du calorimètre
« déplié » : les tours correspondent au
contenu énergétique des cellules (plus
elles sont hautes et plus le dépôt d’énergie
dans la cellule est important). À droite,
une coupe du détecteur dans le plan
perpendiculaire au sens des faisceaux
indique toutes les traces mesurées dans
le détecteur central, dont certaines
pointent vers les dépôts calorimétriques.
La taille des trapèzes extérieurs est
proportionnelle à l’énergie déposée dans
les calorimètres.
À la chasse aux bosons W et Z
le détecteur UA2, opérationnel, est emmené dans sa zone de fonctionnement
et peut lui aussi commencer à enregistrer des collisions. Ce n’est que lors des
trois derniers mois de 1982 que quelques millions de collisions susceptibles de
révéler les bosons W± et Z0 ont pu être enregistrées, suite à des améliorations
de l’accélérateur. Les physiciens se concentrent d’abord sur les bosons W± parce
qu’ils ont une plus grande probabilité d’être produits que les Z0.
© CERN
Dans les deux expériences on cherche ainsi fiévreusement les W± dans leur
mode de désintégration en un électron (ou positron) et un anti-neutrino (ou
un neutrino) qui, lui, reste invisible. Le 21 janvier 1983, la collaboration UA1
annonce l’observation de cinq événements caractéristiques des désintégrations
des bosons W+ et W-. UA2 confirme la découverte avec l’observation de 4
événements similaires. Au printemps 1983, le nombre d’évènements accumulés
est multiplié par dix. Dans le courant du mois de mai, le CERN annonce la
découverte du troisième boson intermédiaire, le Z0, sur la base de quelques
événements observés comportant un électron et un positron. À la fin de la prise
de données de 1983, les expériences UA1 et UA2 ont enregistré environ une
douzaine de désintégrations de Z0 et environ une centaine de désintégrations
de bosons W±. Les masses des W± et Z0 sont estimées à 80 GeV/c2 et 91 GeV/
c2 respectivement, avec une incertitude de 5 GeV/c2, en bon accord avec les
prédictions théoriques. Champagne pour les chasseurs de papillons !
Le détecteur UA2. On distingue dans la
partie centrale le calorimètre finement
segmenté ainsi que les bouchons aux
deux extrémités qui permettent une
bonne couverture angulaire.
Carlo Rubbia (gauche) et Simon
van der Meer célébrant leur prix
Nobel en oc tobre 1984. Ce prix leur
a été conjointement décerné avec la
formulation suivante : « .. for their
decisive contributions to the large
project, which led to the discovery
of the field particles W and Z,
communicators of weak interaction ».
page 50
© CERN
À gauche, le contenu en énergie du calorimètre électromagnétique d’UA2 projeté sur un plan, dans le cas d’un
événement W : le pic correspond au dépôt d’énergie de
l’électron. À droite, on voit le contenu en énergie du calorimètre
électromagnétique de UA1 pour un événement Z0, avec les deux
pics de l’électron et du positron (et leurs énergies respectives).
Révéler les W± et les Z0
Les bosons découverts par UA1 et UA2 ont d’abord été recherchés par le biais de leurs
désintégrations en leptons, parce que l’image alors laissée dans les détecteurs était
relativement simple. Dans le cas de UA1, les détecteurs de type « leptons » identifiaient les
électrons (positrons) et les muons (anti-muons), alors que seuls les électrons (positrons)
étaient accessibles dans le cas de UA2. La signature de la désintégration d’un W± est alors
constituée d’un dépôt d’énergie dans le calorimètre électromagnétique, sans composante
hadronique. De plus une trace reconstruite par le détecteur central doit pointer vers ce
dépôt. L’électron ainsi identifié simultanément par le calorimètre et le détecteur central
s’accompagne d’un anti-neutrino, qui est vu comme de l’« impulsion manquante »
(Élémentaire N°5). Cette dernière a une direction opposée à celle de l’électron dans le
plan perpendiculaire à l’axe d’arrivée des protons et des antiprotons initiaux : on parle de
configuration dos-à-dos. Dans le cas des bosons neutres Z0, des paires électron-positron
ou muon-antimuon sont recherchées. Il s’agit donc de trouver des événements contenant
un électron et un positron (ou un muon et un antimuon), toujours dans la configuration
dos-à-dos. Après la phase de découverte, des analyses plus avancées de UA1 et de UA2
ont permis d’identifier d’autres modes de désintégration des bosons W± et Z0.
ÉLÉMENTAÍRE
À la chasse aux bosons W et Z
W, Z... et après ?
ÉLÉMENTAÍRE
page 51
© CERN
La découverte des bosons intermédiaires n’a pas seulement
confirmé la justesse de la théorie électrofaible. Elle a aussi
rassuré la communauté scientifique sur l’intérêt de construire
le gigantesque accélérateur LEP, qui sera mis en service en
1989. Cet accélérateur était une véritable usine à Z0 (environ
20 millions de bosons ont été produits en six ans) puis à W±.
Les quatre expériences construites auprès du LEP (ALEPH,
DELPHI, L3 et OPAL) ont mesuré avec une précision extrême
les propriétés des bosons véhiculant l’interaction électrofaible.
De l’autre côté de l’Atlantique, après l’étude du Z0 avec le SLC
au SLAC (près de San Francisco) dans les années 90, la chasse
aux papillons continue aujourd’hui avec le Tevatron au Fermilab
(près de Chicago). Il s’agit à présent de connaître aussi finement
que possible les propriétés de ces bosons, dont certaines peuvent
nous éclairer sur la masse du mystérieux boson de Higgs...
UA1 et UA2 : de « grosses » collaborations
UA1 avec ses cent trente membres et UA2 avec une
cinquantaine de collaborateurs, sont les premiers exemples
d’expériences rassemblant plus que l’habituelle vingtaine
(au maximum) de physiciens, la norme à l’époque. Ceci
introduit une nouvelle donne quant à l’organisation
du travail. Certains sujets par exemple sont partagés
entre plusieurs personnes dont les travaux doivent être
coordonnés. Une structuration en groupes apparaît ainsi :
chaque groupe rassemble les physiciens qui étudient le
même sujet et se voit coiffé d’un responsable. Ce type de
petite « société scientifique » est alors une nouveauté qui,
combinée avec l’intérêt porté par les découvertes et le prix
Nobel immédiat, attire des sociologues, des journalistes et
des écrivains qui vont « étudier » ces milieux particuliers
de physiciens. Ainsi pendant plusieurs années, des étudiants
en thèse de sociologie suivent attentivement les réunions
d’analyse notant les attitudes des uns et des autres. En
particulier, le journaliste américain Gary Taubes publie le
livre titré « A Nobel dream : power, deceit and the ultimate
experiment », après avoir arpenté pendant plusieurs mois les
couloirs du CERN. Dans ce document, Taubes
décrit les différentes étapes de discussion
et d’analyse dans UA1, l’interaction de ses
physiciens avec ceux de UA2 lors des périodes
de compétition ainsi que les traits de caractère
(bons ou mauvais) de certains chercheurs. Ce
livre est devenu fameux dans la communauté
des physiciens à travers le monde, tant les
anecdotes rapportées sont intéressantes sur les
plans sociologique, scientifique et humain. On y
apprend par exemple, que le premier événement
W montré par Carlo Rubbia lors des nombreux
séminaires à travers le monde, s’est avéré – suite à
une analyse avancée - ne pas en être un. Et que le
lendemain de la conférence de presse du CERN,
le New York Times a fait l’éditorial « Europe
3, US not even a Z0 ». Depuis les expériences
UA1 et UA2, les dimensions des collaborations
expérimentales n’ont cessé d’augmenter, pour
compter aujourd’hui des milliers de personnes
(dans ATLAS et CMS).
Conférence de presse donnée
au CERN le 25 Janvier 1983
pour annoncer la découverte
des bosons chargés W+ et
W--. De gauche à droite
participent : Carlo Rubbia
pour UA1, Simon Van der
Meer, Herwig Schopper
directeur général du CERN,
Erwin Gabathuler directeur
de la Physique au CERN et
Pierre Darriulat pour UA2.
Théorie
De la force faible...
Il en aura fallu du temps pour parvenir à percer les secrets de cette
force quelque peu mystérieuse, responsable de certaines désintégrations
nucléaires : l’interaction faible ! Rien d’étonnant à cela en fait, car la
construction d’une théorie satisfaisante a nécessité la combinaison
subtile de nombreuses idées théoriques et observations expérimentales.
La recette ? À base de symétrie, un concept puissant qui a guidé de
façon essentielle l’imagination des physiciennes et physiciens, elle
s’inspire fortement du formalisme conçu pour décrire les interactions
électromagnétiques : l’électrodynamique quantique. La touche finale est
apportée par le subtil concept de brisure spontanée de symétrie, véritable
clé de voûte de cet édifice théorique qu’est le Modèle Standard. Au bout
de ce chemin, qui fut parfois tortueux, les scientifiques aboutirent à
une conclusion inattendue : les processus électromagnétiques et faibles
ne sont que deux facettes d’une seule interaction plus fondamentale,
l’interaction « électrofaible ».
Emmy Noether
(1882, Erlangen,
Allemagne
1935, Pennsylvanie,
ÉtatsUnis) est la
fille du mathématicien
Max Noether.
Elle suit des
études de langues, puis de
mathématiques
à Erlangen et
à Göttingen, en tant qu’auditrice libre
(les femmes ne pouvaient s’inscrire
comme étudiantes à l’Université). Cela
ne l’empêche pas de soutenir une thèse en
mathématiques en 1908, avec les félicitations
du jury. Grâce à l’appui du mathématicien
David Hilbert, Emmy Noether enseigne à
Göttingen de façon officieuse, car seuls les
hommes peuvent alors enseigner comme
professeurs d’Université en Prusse. En
1919, une dérogation lui est accordée
pour l’enseignement et elle est nommée
professeur sans chaire en avril 1922. Les
nazis lui retirent son enseignement en
1933, et elle se réfugie aux États-Unis,
où elle donne des cours à l’université de
Princeton. Elle décèdera deux ans plus tard
des suites d’une opération. En 1918, elle
démontre un théorème capital, qui porte
son nom, selon lequel à toute symétrie des
lois de la physique est associée une loi de
conservation. Autrement dit, à chaque
transformation mathématique qui laisse
les équations invariantes correspond une
quantité conservée (constante) au cours
du temps. Si le théorème de Noether est
son résultat le plus connu, elle a aussi
participé à l’édification de l’algèbre
moderne, notamment en ce qui concerne
les notions mathématiques d’anneaux et
d’idéaux.
Les lois de conservation, boussoles du
physicien
Depuis Galilée, l’étude des lois physiques a permis de mettre en évidence
de nombreuses quantités qui se conservent lors de l’évolution d’un
système – on parle de principes de conservation. Ce fut d’abord le cas en
mécanique : ainsi, si un système est isolé, sans interaction avec l’extérieur,
la somme des quantités de mouvement des parties qui le constituent reste
constante, quelles que soient les interactions qui se produisent entre
elles. Puis, au XIXe siècle, le développement des théories de la chaleur
et de la thermodynamique a incité les savants à généraliser cette idée :
tout système physique, et non seulement mécanique, obéit à des lois de
conservation, comme celle de l’énergie.
page 52
Au cours du XXe siècle, les physiciens comprennent, notamment grâce
au théorème de Noether, que la plupart de ces lois de conservation sont
des conséquences de certaines symétries des lois de la physique, c’està-dire du fait que ces lois restent invariantes (inchangées) sous l’effet
de transformations spécifiques. Ainsi, la conservation de la quantité
de mouvement est due à l’invariance des équations de la physique par
translation des coordonnées d’espace : la physique est la même à Paris
et à Stanford. De même, le fait qu’elle fût, soit et sera la même hier,
aujourd’hui et demain, c’est-à-dire que les lois physiques soient invariantes
par translation dans le temps, a pour conséquence la conservation de
l’énergie.
La notion de symétrie, déjà utilisée depuis longtemps en physique et en
mathématiques, en particulier pour simplifier la résolution de certaines
équations, se révèle être un concept profond aux conséquences multiples.
En particulier, elle s’avère un outil puissant pour la construction de
théories physiques. En effet, si les lois de conservations observées
expérimentalement doivent être satisfaites, la théorie correspondante doit
ÉLÉMENTAÍRE
...à l’interaction électrofaible
respecter certaines symétries, ce qui restreint, parfois considérablement,
les théories possibles.
L’électrodynamique
exemple à suivre...
quantique
:
un
Excellent accord
Le moment magnétique anormal du muon
illustre l’excellent accord entre calculs
théoriques en électrodynamique quantique
(QED) et résultats expérimentaux. La
relation entre le moment magnétique
intrinsèque du muon et son spin est
caractérisée par le facteur de Landé, noté
g. Lors des premiers développements
de sa mécanique quantique relativiste,
Dirac avait montré que g = 2 à une bonne
approximation, en bon accord avec la
valeur mesurée à l’époque. Actuellement
les mesures les plus précises donnent :
À la fin du XIXe siècle, J. C. Maxwell et H. A. Lorentz proposent une
description unifiée de tous les phénomènes électriques et magnétiques
à l’aide d’une entité appelée « champ électromagnétique », solution de
certaines équations dites de Maxwell-Lorentz. Il apparaît que ce champ
peut lui-même être représenté à l’aide de fonctions abstraites, appelées
« potentiels ». Or la structure des équations est telle que cette physique,
uniquement déterminée par le champ électromagnétique, reste inchangée
sous l’effet d’une transformation spécifique de ces potentiels, appelée
transformation de « jauge » car elle consiste à modifier leur étalon absolu,
ou jauge. De plus, et c’est là une particularité importante, on peut modifier
la jauge de façon différente en chaque point d’espace et de temps sans
changer la physique : on parle alors de symétrie « locale ».
gmes = 2,0023318416 ± 0,0000000010.
Ce type de symétries dépasse le cadre du théorème de Noether, qui ne
s’applique qu’aux symétries relatives à des transformations « globales »,
identiques en tout point d’espace-temps. Si l’invariance de jauge des
équations de Maxwell-Lorentz implique automatiquement la conservation
de la charge électrique, les choses vont bien plus loin avec une symétrie
locale. Par exemple, celle-ci a pour conséquence le fait que les interactions
électromagnétiques sont de portée infinie.
La déviation par rapport à la valeur g = 2
(appelée moment magnétique anormal),
provient majoritairement des corrections
de l’électrodynamique quantique, comme
l’échange de photons virtuels, négligées
dans le calcul de Dirac. En 1948, Schwinger
calcule la contribution due à l’échange
d’un photon et obtient pour la valeur
théorique g th = 2,002322 démontrant ainsi
que les quatre premières décimales après
la virgule sont effectivement de purs effets
quantiques et sont complètement prévus
par la QED.
Depuis, les corrections dues à l’échange de
2, 3 et jusqu’à 4 photons ont été calculées. Ce
n’est pas une mince affaire, car la difficulté
du calcul augmente très rapidement avec le
nombre de photons échangés. On connaît
à présent la valeur théorique jusqu’à 10
chiffres significatifs :
Lorsqu’on généralise cette théorie dans le cadre de la mécanique
quantique, ceci se traduit par le fait que le boson médiateur de
l’interaction entre les particules chargées, le photon, est de masse nulle.
Mais dans le monde quantique, les conséquences de la symétrie de jauge
de l’électrodynamique sont encore plus inattendues. Prenons l’exemple
de l’interaction entre deux particules chargées, qui peut être vue comme
résultant de l’échange d’un, deux, trois... une multitude de photons
(voir Élémentaire N°4). Lorsqu’on essaie de calculer la probabilité d’un
tel processus, l’échange d’un unique photon semble donner la bonne
réponse avec une très bonne précision. Cependant, les contributions
venant de l’échange de deux photons et plus donnent des résultats infinis !
L’électrodynamique quantique serait-elle une théorie mathématiquement
absurde ?!?
ÉLÉMENTAÍRE
Les prédictions théoriques ne sont en
désaccord avec les mesures expérimentales
que sur les trois derniers chiffres, là où
interviennent d’autres effets, dus aux
interactions forte et faible. Un accord d’une
précision tout à fait remarquable !
page 53
Il faudra attendre quelques décennies pour voir ce problème résolu. À la
fin des années 40, R. P. Feynman, J. Schwinger et S.-I. Tomonaga (tous trois
prix Nobel de physique en 1965) élaborent la théorie de la renormalisation,
un ensemble de méthodes permettant d’éliminer les infinis mentionnés
ci-dessus de manière cohérente et de donner un sens mathématique à la
théorie. Le bien fondé de cette procédure, surprenante au premier abord,
est confirmé par un excellent accord avec les mesures expérimentales,
extrêmement précises, de différents processus électromagnétiques.
g th = 2,0023318362 ± 0,0000000030.
De la force faible...
DR
Et la symétrie de jauge dans tout ça ? Elle joue un rôle crucial dans la
procédure de renormalisation, en particulier en interdisant l’apparition de
certains infinis intempestifs. L’électrodynamique quantique (QED) devient
la première théorie relativiste quantique mathématiquement cohérente. Elle
est le prototype d’une classe de théories aujourd’hui appelées « théories de
jauge ».
Faible, mais pas commode
Chen-Ning Yang (prix Nobel de
physique avec Tsung-Dao Lee
en 1957 pour leurs travaux sur
la violation de la symétrie de
parité par l’interaction faible)
et David Mills.
Dans les années 1950, C. N. Yang et D. Mills tentent de reprendre l’idée de
symétrie locale pour décrire l’interaction nucléaire forte. Cette dernière est
insensible à la charge électrique de la particule sur laquelle elle agit. Par
exemple elle ne fait pas de différence entre un proton et un neutron. Ceci est
la manifestation d’une symétrie sous-jacente, appelée « symétrie d’isospin » :
les équations doivent rester invariantes si on remplace partout les neutrons par
des protons et vice-versa. L’idée de Yang et Mills est de construire une théorie
dans laquelle cette symétrie serait locale – les équations seraient invariantes
si on échange protons et neutrons de manière différente en différents points
d’espace-temps – avec l’espoir d’en retirer autant de bénéfices qu’en QED.
Mais la tâche n’est pas aisée, en particulier parce que la symétrie invoquée est
de nature profondément différente de celle à l’œuvre en QED. Dans le cas de
l’interaction forte, on a affaire à des transformations « non-abéliennes », ce
qui signifie que l’effet combiné de deux transformations successives dépend
de l’ordre dans lequel elles sont appliquées. Mais Yang et Mills franchissent
cette barrière et réussissent à construire la théorie. Malheureusement, ils
butent rapidement sur des obstacles qu’ils ne savent pas contourner. En fait,
la théorie de Yang et Mills se révélera très féconde pour la physique des
particules, mais pour l’heure, elle est tout à fait prématurée pour l’interaction
forte : il lui manque en particulier le concept de « couleur », indispensable
pour décrire de façon satisfaisante cette interaction (voir Élémentaire N°4).
Niels Henrik Abel (1802 - 1829) est un mathématicien norvégien
connu pour ses travaux sur la convergence de suites et de séries, sur
la notion d’intégrale elliptique et sur la résolution d’équations. Abel
montre au lycée un goût pour les mathématiques, et il démontre en
1923 qu’une équation quelconque de degré cinq n’est pas résoluble
à partir de combinaisons de racines des coefficients. Ces travaux
suffisent à convaincre les responsables de l’université de financer
un séjour d’Abel à Paris. Il s’y rend en 1826, mais sur place, il ne
parvient pas à entrer en contact avec les mathématiciens dont il a
lu les livres, Legendre, Poisson et Cauchy. Pour se faire reconnaître,
Abel dépose auprès de l’Académie des sciences un mémoire consacré
aux intégrales elliptiques. Le rapporteur désigné, Cauchy, impressionné par la longueur du
mémoire et la technicité du contenu, en remet la lecture à plus tard. Lassé et à court d’argent,
Abel quitte finalement Paris en décembre 1826. De retour à Christiana (Oslo), il ne peut obtenir
de poste à l’Université, et doit accepter un travail de répétiteur dans une académie militaire.
Quelques mois après, il contracte la tuberculose. Ses travaux commencent à être reconnus par
la communauté mathématicienne, y compris à Paris. Mais à la fin de 1828, son état de santé se
dégrade rapidement et il meurt le 6 avril 1829.
page 54
DR
Transformations abéliennes et nonabéliennes
La symétrie de jauge de l’électrodynamique quantique met en jeu des
transformations dites abéliennes, du
nom du mathématicien norvégien
Niels Henrik Abel : l’effet combiné de
plusieurs transformations successives
est indépendant de l’ordre dans lequel
on les effectue. C’est le cas par exemple
des translations : faire d’abord un pas
à gauche et ensuite un pas à droite ou
l’inverse revient au même. En revanche,
les transformations de la théorie de Yang
et Mills sont dites non-abéliennes : l’effet
de deux transformations quelconques
dépend de l’ordre dans lequel elles
sont appliquées. Un exemple de telles
transformations est donné par les
rotations dans l’espace à trois dimensions.
Ainsi une rotation de 90 degrés autour de
l’axe x, suivie d’une rotation de 90 autour
de l’axe y, ne donne pas le même résultat
qu’une rotation autour de l’axe y suivie
d’une rotation autour de l’axe x.
ÉLÉMENTAÍRE
...à l’interaction électrofaible
© S. Descotes-Genon
C’est à propos de l’interaction faible que la théorie de Yang
et Mills va ressurgir... Les physiciens avaient étudié cette
interaction très en détail à travers la désintégration bêta des
noyaux atomiques. Par exemple, au niveau des nucléons, le
processus bêta élémentaire est la désintégration d’un neutron
en proton avec émission d’un électron et d’un antineutrino
électronique.
La désintégration bêta du muon selon
deux points de vue : la théorie de Fermi,
valable à basse énergie, décrit ce processus
comme une interaction ponctuelle entre
quatre particules, tandis que la théorie
électrofaible fait appel à un boson
véhiculant l’interaction faible. Aux
énergies mises en jeu dans ce processus (la
masse du muon), le boson W, 800 fois plus
lourd que le muon, ne se propage quasiment
pas avant de se désintégrer, de sorte que les
trois particules finales semblent provenir
exactement du même point.
Au début des années 30, Enrico Fermi propose une théorie pour ce processus
qu’il suppose ponctuel : tout se passe comme si les trois particules finales
apparaissent au même point et au même instant lors de la désintégration du
neutron. Cette même théorie prévoit la possibilité d’autres processus comme,
par exemple, la fusion d’un neutrino électronique avec un neutron, pour donner
un proton et un électron. Mais lorsqu’on calcule la probabilité que cette réaction
se produise quand l’énergie du neutrino augmente au-delà d’une certaine
énergie, on atteint des niveaux de probabilité... supérieurs à 100%. Impossible,
ce qui signifie que la théorie est incomplète et que quelque chose d’autre doit
se passer à cette échelle !
Dans les années 50, les physiciens théoriciens Julian Schwinger, Tsung-Dao
Lee et Chen Ning Yang commencent à bâtir des théories où cette interaction
ponctuelle n’est en fait qu’une approximation, valable à basse énergie,
d’une théorie plus fondamentale, où, par analogie avec l’électrodynamique
quantique, l’interaction est due à l’échange de bosons médiateurs, baptisés W
pour « weak » (faible). Si on prend l’exemple de la désintégration bêta du muon,
celui-ci se désintégrerait d’abord en un neutrino muonique tout en émettant un
boson W, lequel se désintégrerait rapidement en un électron et un antineutrino
électronique. Si la masse du boson médiateur est suffisamment élevée, tout se
passe effectivement comme si l’interaction est ponctuelle.
La masse du boson médiateur
Si on suppose que l’interaction
ponctuelle de la théorie de Fermi est
une approximation de basse énergie
d’une interaction causée par un boson
médiateur, on peut relier les paramètres
de ces deux descriptions. On montre en
particulier que la constante de Fermi GF,
qui caractérise l’intensité des processus
faibles à basse énergie, est inversement
proportionnelle au carré de la masse du
boson médiateur. La constante de Fermi
peut être évaluée en mesurant les temps
de vie de différentes particules subissant
la désintégration bêta, comme le muon.
On en déduit que la masse du boson
médiateur de l’interaction faible doit être
de l’ordre de 80 GeV/c2.
ÉLÉMENTAÍRE
page 55
Pourtant, les physiciens n’arrivent pas à obtenir une théorie satisfaisante.
Tout d’abord, le problème des probabilités plus grandes que 100% n’est que
repoussé à plus haute énergie. Mais la situation est encore plus grave... De
même qu’en QED, si l’interaction élémentaire est véhiculée par un boson
médiateur, il faut considérer les corrections (quantiques) dues à l’échange de
plusieurs de ces mêmes bosons. Que se passe-t-il alors ? Eh bien les calculs
deviennent absurdes, et donnent des réponses infinies. Même les meilleures
recettes de QED sont inefficaces et aboutissent à des résultats inexploitables.
Quelles différences entre les deux situations ? La masse et la symétrie : le photon
est sans masse, ce qui, comme nous l’avons vu plus haut, est lié à l’existence
de la symétrie de jauge de l’électrodynamique. Le boson de l’interaction faible
est massif et ne bénéficie pas de la protection de symétries du type de celle de
l’électrodynamique quantique contre l’apparition d’infinis mathématiques. On
dit que cette théorie est « non-renormalisable ». Pour résoudre ce problème, les
théoriciens s’inspirent du succès de QED et tentent d’incorporer l’interaction
faible dans le cadre d’une symétrie de jauge.
De la force faible...
3, 2, 3, 4, 3... Combien de forces voyez-vous ?
Dès 1956, Schwinger est convaincu qu’il faut exploiter les progrès de Yang
et Mills pour se débarrasser des infinis retors qui affectent les calculs liés à
l’interaction faible... en incluant dans un seul cadre théorique les interactions
faible et électromagnétique. Son étudiant d’alors, Sheldon Glashow, « accepte
cette croyance », selon ses propres mots, et se met au travail pour adapter la
théorie de Yang et Mills au cas « électrofaible ». Dans un premier temps,
il considère la même symétrie que celle étudiée par ces derniers. Cette
théorie contient deux bosons chargés W+ et W-- responsables de l’interaction
faible, ainsi qu’un boson neutre : le photon. Cependant, si elle est à peu
près satisfaisante sur le plan mathématique, elle aboutit à une interaction
électromagnétique qui ne respecte pas la symétrie de parité... en contradiction
flagrante avec l’expérience.
Parité
La symétrie de parité consiste à prendre
l’opposé des trois coordonnées d’espace
(x → -x, y → -y, z → -z) par rapport à un
point arbitraire : on peut la voir comme
une combinaison de symétries « miroir ».
Les interactions électromagnétique
et forte respectent cette symétrie : un
processus a la même probabilité de se
produire que le processus « miroir ».
En revanche, l’interaction faible ne
respecte pas cette symétrie : certaines
désintégrations régies par la force faible
sont observées dans la nature, alors que
les processus « miroirs » correspondants
ne le sont pas.
Peter Higgs qui a donné son nom au
fameux boson.
page 56
© Peter Tuffy, Edinburgh University
En 1959, Abdus Salam et John Clive Ward essaient eux aussi de bâtir une telle
théorie, sans plus de succès. Ils décident alors de choisir d’autres symétries
afin de résoudre le problème. En 1960, ils optent pour une combinaison
de la symétrie considérée par Yang et Mills (appelée « SU(2) ») et d’une
symétrie semblable à celle de l’électrodynamique (nommée « U(1) »).
Au même moment, Glashow considère indépendamment une théorie
semblable... pour en tirer des conclusions similaires : outre le photon
responsable de l’électromagnétisme, on y trouve 3 particules véhiculant
l’interaction faible, les bosons chargés W+ et W-- et un boson neutre, le
Z0. Leurs interactions avec la matière sont régies par la symétrie de jauge
répondant au doux nom de « SU(2) x U(1) » (prononcer « SU deux croix
U un »). Dans cette théorie, les interactions électromagnétiques respectent
bien la symétrie de parité et l’on prévoit l’existence d’un nouveau type
d’interaction faible, différent de celui responsable de la désintégration
bêta, véhiculé par le boson Z0 : on l’appelle l’interaction par courant neutre
(voir « Découvertes »).
Les physiciens ont donc réussi à regrouper interactions faible et
électromagnétique dans le cadre d’une théorie de jauge, ce qui devrait
permettre d’éliminer les infinis par la procédure de renormalisation et donc
de construire une théorie mathématiquement cohérente. Oui, mais voilà : tout
comme en électrodynamique, la symétrie de jauge de cette théorie interdit
que les bosons médiateurs soient massifs ! Si cela n’est évidemment pas un
problème pour le photon, la faible portée des interactions faibles implique
que les bosons W± et Z0 doivent être très lourds. La symétrie postulée par
les théoriciens ne semble pas réalisée dans la Nature. En fait, la situation est
encore plus grave car la symétrie implique qu’aucune des particules de matière
interagissant avec les bosons médiateurs faibles et électromagnétique ne peut
avoir de masse. Ce devrait donc être le cas de toutes les particules élémentaires
connues actuellement (quarks, leptons, etc.), ce qui est manifestement faux !
Comment faire ? Prenons un problème après l’autre. Imposer « directement »
dans les équations de l’interaction électrofaible que les bosons W et Z soient
massifs brise de façon manifeste la symétrie de jauge (on parle de « brisure
ÉLÉMENTAÍRE
...à l’interaction électrofaible
explicite de la symétrie ») et on revient à la case départ : la symétrie qui
devait éviter l’apparition de résultats infinis est réduite en bouillie ! Il faut
donc agir de façon plus subtile, en conservant la symétrie des équations...
Au début des années 60, de nombreux théoriciens, dont Peter Higgs,
réalisent progressivement qu’il est en fait possible de générer une masse
pour les bosons faibles en brisant la symétrie selon un mode bien spécifique,
dit de brisure spontanée. Ceci signifie, en substance, qu’il est possible que
les interactions – et donc les équations – respectent la symétrie, mais que la
solution des équations la brise. Bizarre ? Pas tant que ça : prenons l’exemple
du jeu de pile ou face. La probabilité que la pièce tombe sur l’une ou l’autre
de ses faces est la même, ce qui traduit le fait que les équations régissant sa
chute sont symétriques. Cependant, pour un lancer donné, la pièce tombe
soit sur pile, soit sur face, brisant ainsi la symétrie.
Quel rapport avec notre problème ? Dans le cas de la brisure spontanée d’une
symétrie de jauge (locale), les bosons médiateurs de l’interaction acquièrent
spontanément une masse ! C’est le « mécanisme de Higgs ». Mais attention !
Si on sait maintenant comment donner une masse aux bosons médiateurs sans
briser la symétrie des équations, ne va-t-on pas se retrouver
avec un photon massif ?!?
Dans les années 60, Steven Weinberg essaie de comprendre ce
que le mécanisme de Higgs pourrait apporter à la description
des interactions fortes à basse énergie. Il cherche en particulier
à expliquer les masses des mésons les plus légers, appelés π,
ρ et a1. Malheureusement, son modèle aboutit à des résultats
peu probants : si le méson a1 est bien massif, le ρ reste sans
masse, et le π manque tout simplement à l’appel, en complète
contradiction avec les résultats expérimentaux !
En 1967, alors qu’il prend le volant pour aller à son bureau
du MIT, Weinberg réalise soudain que si son modèle n’est
certainement pas très convaincant pour les interactions fortes,
il semble très bien adapté à la description des interactions
faibles : un boson sans masse (comme son pauvre ρ, qu’il suffit
de rebaptiser photon), et des bosons massifs (comme le méson
a1 dans son modèle, à identifier avec les bosons faibles).
Weinberg développe sa théorie au même moment que Salam,
mais indépendamment, ce qui montre à quel point les idées
théoriques étaient mûres pour qu’une telle description des
interactions faibles voie le jour. Par la suite, Martinus J. G.
Veltman et Geraldus ‘t Hooft démontreront rigoureusement ce
que Weinberg, Salam et leur prédécesseurs avaient seulement
ÉLÉMENTAÍRE
page 57
Des masses, des masses, encore
des masses...
Brisure spontanée de symétrie
Un exemple de brisure spontanée de symétrie est fourni
par certains matériaux qui deviennent aimantés à basse
température. Un modèle très simple de ces corps dits
ferromagnétiques consiste en un ensemble d’atomes, disposés de
manière régulière et possédant chacun un moment magnétique
(un petit aimant orientable). Tout comme deux aimants
placés à proximité l’un de l’autre, deux moments magnétiques
voisins ont tendance à s’orienter dans la même direction. Cette
interaction dépend de l’orientation relative des deux aimants,
mais elle est de même intensité si on change simultanément
leurs directions : les interactions ne privilégient donc aucune
direction particulière dans l’espace. En termes plus savants, on
parle d’invariance de l’interaction par rapport aux rotations. Si
on chauffe maintenant ce système, l’énergie thermique fournie
peut être utilisée par les aimants individuels pour changer leur
orientation de façon aléatoire : c’est «l’agitation thermique». À
haute température, celle-ci contrebalance aisément la tendance
des moments magnétiques à s’aligner. Ils sont orientés en tout
sens, et aucune direction n’est privilégiée. En revanche, à basse
température (en dessous d’une température dite de Curie), un
comportement intéressant apparaît. La grégarité naturelle
des moments magnétiques l’emporte, de sorte que tous les
moments sont orientés en moyenne dans une même direction.
Cette aimantation spontanée du matériau définit une direction
privilégiée dans l’espace, alors que les interactions ne privilégient
aucune direction particulière. Autrement dit, bien que les
équations soient invariantes par rotation, l’état physique du
système ne l’est pas. Une situation intéressante, appelée brisure
spontanée de symétrie.
conjecturé : non seulement les
théories de jauge non-abéliennes
sont bel et bien renormalisables,
c’est-à-dire qu’il est possible
d’éliminer les infinis de manière cohérente, mais cette propriété reste vraie si
la symétrie de jauge est brisée de manière spontanée. C’est l’acte de naissance
de la théorie électrofaible !
Comment brise-t-on spontanément une symétrie de jauge en pratique ? Une
manière simple consiste à « inventer » une nouvelle particule, le boson de
Higgs, dont les interactions avec les bosons de jauge sont choisies de manière
appropriée. Et il y a mieux : si un tel boson existe, il doit a priori interagir
avec les autres particules de matière. Pour ne pas écrouler notre château de
cartes, il faut que les interactions préservent la symétrie des équations. Et là,
après tous ces efforts laborieux pour construire une théorie cohérente, enfin
un cadeau : de même que pour les bosons de jauge, toutes les particules qui
interagissent avec le boson de Higgs acquièrent une masse non nulle quand la
symétrie est spontanément brisée. On a le beurre et l’argent du beurre !
Sheldon Glashow, Steven Weinberg et
Abdus Salam, prix Nobel de physique
en 1979 pour leur travaux sur la théorie
électrofaible.
La symétrie de jauge de cette théorie contraint fortement les masses des W+,
W- et Z0 et leurs différentes interactions avec les particules de matière que sont
les quarks et les leptons. Toutes les propriétés de ces particules s’expliquent en
termes d’un nombre limité de paramètres. Cette avancée remarquable valut à
Glashow, Salam et Weinberg le prix Nobel de Physique en 1979, et l’on donna
le nom de « théorie GSW » à cette description unifiée des deux interactions.
Higgs et le Higgs
Épilogue : « z’avez pas vu un boson ? »
Les physiciens ont pris l’habitude
de parler du mécanisme de Higgs et
du boson de Higgs. De nombreux
chercheurs ont en fait contribué à
formaliser ces idées. Suivant les pays
et les occasions, on associe Higgs aux
physiciens belges Brout et Englert, ou
encore au britannique Kibble. Mais
quand le souffle vient à manquer, on se
contente d’évoquer « le Higgs » pour
parler du fameux boson.
page 58
Robert Brout et François Englert,
récompensés, avec Peter Higgs, pour
leurs contributions en physique des
particules par le grand prix de la Société
Européenne de Physique en 1997 et par
le prix international Wolf en 2004.
Il est fascinant qu’à ce jour, aucune expérience ne soit venue contredire de
façon directe les prédictions de la théorie GSW, depuis la découverte des
courants neutres (voir « Centre ») jusqu’aux mesures de précision effectuées
au CERN (voir « Expérience »). En fait, le boson de Higgs est la seule pièce
manquante. S’il a échappé à toute détection directe jusqu’à présent, c’est,
pense-t-on, parce que sa masse est relativement élevée. Cependant, les
physiciens ont appris à connaître le mystérieux boson à travers ses interactions
avec les autres particules et ils ont de bonnes raisons de penser que, s’il existe
vraiment, il ne pourra échapper aux filets tendus au LHC.
Cependant, il convient de remarquer que la véritable clé de voûte de la
théorie électrofaible n’est pas tant le boson de Higgs que le phénomène même
de brisure spontanée de la symétrie de jauge. En effet, l’accord remarquable
entre la théorie et l’expérience montre que les interactions électrofaibles ont
bien la structure prévue par la symétrie SU(2) x U(1) et que le mécanisme de
génération de masse des bosons médiateurs est bien le phénomène de brisure
spontanée. Mais, si postuler l’existence du boson de Higgs est la manière la
plus simple de réaliser ce phénomène, il en existe bien d’autres. De nombreux
modèles alternatifs, avec plusieurs bosons de Higgs... ou pas de boson de
Higgs du tout, existent, et essaient de rendre compte des mêmes résultats que
le Modèle Standard. Tout dépendra des résultats des expériences ATLAS et
CMS au CERN, qui devraient nous aider à voir plus clair en ce qui concerne le
mécanisme de génération des masses de toutes les particules élémentaires.
ÉLÉMENTAÍRE
Le LHC
Le LHC : un accélérateur sans égal
La longue marche du LHC
Il aura donc fallu beaucoup de temps pour réaliser cette machine... mais
c’est à la mesure de sa complexité. Et c’est aussi cette complexité, ainsi
que les coûts de conception et de construction, qui expliquent que le
LHC soit un projet international sans concurrent. En effet, tous les pays
engagés dans la recherche en physique des hautes énergies sont impliqués
dans la construction de cette machine et/ou des expériences associées.
© CERN
Le LHC sera en 2008 l’accélérateur en fonctionnement le plus puissant
au monde. Pour aboutir à une telle machine, les physiciens ont dû suivre un parcours long et compliqué. Il n’est donc guère étonnant que
l’histoire du LHC, commencée en 1984, soit déjà ancienne et jalonnée
de nombreuses dates clés, dont certaines marquent des prouesses techniques à elles seules remarquables.
Représentation schématique des trajectoires des deux faisceaux de protons, avec
les quatre points de collision.
ÉLÉMENTAÍRE
page 59
Dates clés du LHC
1984 : Le projet LHC est officiellement lancé lors d’un symposium organisé à Lausanne. À cette date, le
- tournait à plein régime au CERN, où on venait de fêter le prix Nobel
collisionneur proton-antiproton SppS
décerné suite à la découverte des bosons W+, W- et Z0. Le creusement du tunnel de 27 km de circonférence
pour le LEP (collisionneur électron-positron) allait commencer.
1992 : Lors d’une réunion se tenant à Évian, des groupes de physiciens rédigent des textes appelés « expressions d’intérêt » décrivant des concepts d’expériences envisageables au LHC. La même année, on commence
à construire des prototypes de parties de l’accélérateur, afin de tester si les différentes propositions sont techniquement réalisables.
1994 : Lors de sa réunion de décembre, le Conseil du CERN approuve la construction du LHC.
1995 : Un document décrivant la conception de la machine est publié. Le Japon prend le statut d’état observateur au CERN et annonce une contribution financière au LHC.
1996 : Des pays non-membres (Inde, Russie, Canada et États-Unis) décident de participer à la construction
du LHC. Les expériences ATLAS et CMS sont approuvées, avec pour objectifs principaux de rechercher le
boson de Higgs mais aussi des indications d’une physique au-delà du Modèle Standard.
1997 : Le projet de l’expérience ALICE est accepté, afin d’étudier des collisions d’ions lourds à haute énergie.
Le Sénat américain vote l’arrêt du financement du projet concurrent SSC (Super Collisionneur Supraconducteur), de sorte que les États-Unis rejoignent définitivement le projet européen.
1998 : Les travaux d’excavation de la caverne destinée à recevoir le détecteur ATLAS commencent. Un aimant
dipolaire prototype fonctionne pour la première fois au champ nominal de 8 teslas. L’expérience LHCb, destinée à étudier les différences de comportement entre particules et antiparticules contenant un quark b, est
approuvée.
2000 : La première des 420 sections droites de l’accélérateur est testée avec succès.
2001 : Le LEP, prédécesseur du LHC (voir « Expérience »), est arrêté et progressivement démonté. Le premier
tunnel qui conduira les faisceaux du SPS dans le LHC est achevé.
De 2002 à 2006 : Un ballet continu de convois exceptionnels de camions livre au CERN des pièces du LHC
en provenance du monde entier.
2004 : Début de l’installation des détecteurs.
2007 : Le dernier aimant dipolaire supraconducteur du LHC descend sous terre. Au CERN on peut rencontrer un endroit plus froid que le vide sidéral : le secteur 7-8 du LHC, correspondant au huitième de l’accélérateur et long de 3,3 km, est refroidi à 1,9 K (-271,3 °C). Quelques semaines plus tard un courant électrique
de 12 000 A le parcourt.
2008 : Tout l’accélérateur est refroidi. Les zones expérimentales et les sas d’accès aux cavernes seront fermés
avant que le LHC ne commence à fonctionner.
Le LHC : un accélérateur sans égal
Le Tevatron est un accélérateur fonctionnant actuellement à Fermilab auprès de
Chicago. Un faisceau de protons d’une
énergie de 1TeV entre en collision avec
un faisceau d’anti-protons de même énergie, les deux faisceaux circulant en sens
inverse dans un tunnel de 6,3 km. Deux
détecteurs sont placés aux points de collision des faisceaux, DØ et CDF.
La réalisation du LHC est particulièrement délicate en raison des objectifs
très ambitieux qu’il doit remplir. Dans l’anneau du LHC, deux faisceaux
de protons tournent en sens opposé, chacun dans un tuyau de cuivre, où
règne un vide très poussé. Leurs trajectoires se croisent en quatre points
de collisions où se situent les expériences. À ces croisements, les faisceaux échangent leurs trajectoires : le faisceau interne passe à l’extérieur
et vice-versa... jusqu’au point suivant de collision. Ainsi, les longueurs
de trajectoires sont globalement égales pour les protons des deux faisceaux.
Les physiciens veulent procéder à des collisions entre des protons ayant
chacun une énergie de 7 TeV. En tenant compte du fait que les quarks et
gluons, constituants des protons, ne possèdent qu’une fraction de cette
énergie, celle disponible pour produire de nouvelles particules sera de
l’ordre du TeV, c’est-à-dire 10 fois supérieure à celle du LEP ou du Tevatron, fonctionnant actuellement près de Chicago. Pour garantir un grand
nombre de collisions frontales de protons, il faut une luminosité forte.
Celle du LHC atteindra à plein régime de fonctionnement une valeur de
1034 cm-2 s-1 grâce à la circulation dans chaque anneau de 2 808 paquets
contenant chacun 1011 protons. Pour maintenir des protons animés d’une
telle énergie sur des trajectoires stables à l’intérieur des anneaux, il faut
appliquer un champ magnétique très puissant de 8,3 teslas (deux fois supérieur au champ actuellement utilisé au Tevatron). Pour atteindre un tel
champ, on a construit environ 9000 aimants dont les bobinages sont faits
d’un matériau supraconducteur qui nécessite un refroidissement permanent pour conserver ses qualités.
Les rondeurs du LHC
La machine n’est pas parfaitement circulaire. Elle est composée de huit
sections en forme d’arc et de huit autres sections droites. Chaque arc contient une trentaine d’unités magnétiques, qui sont les cellules du LHC,
chacune comportant une succession d’aimants de types différents:
• des dipôles et des quadrupôles qui maintiennent sur
des trajectoires stables les protons ayant l’énergie souhaitée,
• des sextupôles qui corrigent les trajectoires des protons dont l’énergie est légèrement différente de celle
désirée,
• d’autres multipôles, placés en bout des dipôles, qui
compensent les imperfections du champ magnétique.
Cette cellule est l’unité du
LHC. Longue de 110 m, elle
comprend une série d’aimants
de types différents. QF (QD)
signifie quadrupôle focalisant
(défocalisant).
Au total, le LHC contient près de 9 000 aimants de différents types. Mais
ce n’est pas tout ! Car ces structures cohabitent avec d’autres systèmes
dans le tunnel :
page 60
© CERN
La luminosité caractérise les performances d’un collisionneur. Le nombre de collisions entre les faisceaux est proportionnel à la luminosité de la machine. Elle est
d’autant plus élevée qu’il y a de particules
dans les faisceaux et que leur taille transverse au point de collision est faible. Les
réactions entre particules sont caractérisées par une quantité appelée section efficace. Le nombre d’événements produits
par seconde pour un processus donné est
égal au produit de sa section efficace par la
luminosité de la machine.
La probabilité d’interaction lors du croisement des 2 particules élémentaires d’énergie E varie comme 1/E2. Ainsi, lorsqu’on
augmente l’énergie d’un faisceau, il faut
lutter contre la diminution de la probabilité d’interaction, afin de conserver un
nombre important de collisions intéressantes. Pour cela, on augmente la luminosité en faisant circuler dans l’accélérateur
un grand nombre de paquets contenant
chacun beaucoup de protons et qu’on focalise fortement aux points de collision.
ÉLÉMENTAÍRE
Le LHC : un accélérateur sans égal
1) Des circuits cryogéniques, nécessaires au fonctionnement des dipôles supraconducteurs. Pour refroidir ces derniers, on commence par faire circuler de
l’azote liquide afin de descendre à une température de 80 K (soit -193,2°C). Au
total, il faut douze mille tonnes d’azote liquide pour l’ensemble des enceintes
cryogéniques. Puis on passe à l’hélium liquide pour abaisser la température
de 80 K à 4,5 K. Cent tonnes d’hélium liquide circulent alors dans les parties
froides du LHC. Finalement, on atteint la température de 1,9 K en procédant à
un pompage dit «cryogénique » : en diminuant la pression de l’hélium jusqu’à
18 millibars, on diminue la température de l’ensemble jusqu’à une valeur...
glaciale.
Les 1 232 dipôles définissent la courbure de la trajectoire. Leur conception et
leur réalisation ont certainement constitué le défi technique le plus important
de l’accélérateur. Chacun de ces dipôles
contient deux chambres à vide placées
côte-à-côte, dans lesquelles circulent les
deux faisceaux de protons. Le champ
magnétique qui y règne est créé par
des bobines dipolaires faites de câble
supraconducteur torsadé entourant les
chambres à vide. Le champ magnétique
engendre de puissantes forces mécaniques entre les deux chambres : ces dernières sont solidement maintenues en
place par des colliers non magnétiques
et par du fer. L’ensemble est placé dans
un réservoir refroidi à 1,9 K grâce à un
bain d’hélium superfluide.
© CERN
2) Des pompes qui garantissent le vide dans les chambres où circulent les faisceaux, et d’autres consacrées au vide nécessaire pour le système cryogénique.
Au total, quatre systèmes de pompage, chacun de 27 km de long, courent le
long du tunnel du LHC !
Dipôles : En haut à gauche, coupe d’un dipôle avec les deux chambres à vide entourées
des bobines supraconductrices créant le champ magnétique. En bas à gauche, les deux
chambres, les bobines et les lignes des champs. En bas à droite, une tranche de collier
entourant la chambre à vide et les câbles supraconducteurs. En haut à droite : le premier
dipôle lors de sa descente dans le tunnel du LHC par un puits d’accès.
ÉLÉMENTAÍRE
page 61
P
© CERN
Le LHC : un accélérateur sans égal
Câble supraconducteur
D’un diamètre de 15 mm, ce câble est constitué de 36 torsades, chacune ayant un
diamètre de 0,8 mm. Chaque torsade comprend 6 426 filaments de niobium-titane,
un matériau qui devient supraconducteur pour des températures inférieures à 10 K
(-263,2 °C). Chaque filament a une épaisseur de 0,006 mm, dix fois plus fin qu’un
cheveu humain. Il est entouré d’une gaine faite de 0,0005 mm de cuivre ultrapur
supraconducteur.
Les 1 200 tonnes de câbles supraconducteurs des dipôles du LHC ont une longueur
totale de 7 300 kilomètres. Si on mettait bout à bout les filaments de niobium-titane
qui les constituent, on obtiendrait plus de dix fois la distance de la Terre au Soleil !
Dix heures dans la vie d’un proton
Suivons à la trace un paquet de protons lors de ses tours dans le LHC.
Sa vie est loin d’être un long fleuve tranquille... Il voyage à une vitesse
proche de celle de la lumière, de sorte qu’il est accompagné d’un champ
électromagnétique qui, par son interaction avec les matériaux environnants, affecte les paquets suivants. Chaque perturbation est ainsi transmise d’un paquet à l’autre et peut être amplifiée... jusqu’à altérer gravement
les trajectoires et aboutir à une perte des faisceaux: les paquets de protons
sortiraient alors du tube censé les contenir ! Pour éviter un tel scénario
catastrophe, les ingénieurs du LHC ont recouvert les tubes à vide de revêtement spéciaux qui minimisent les effets de ces champs, tandis que des
systèmes élaborés de rétroaction contrôlent les trajectoires des protons
pour compenser aussi vite que possible les instabilités qui apparaissent
dans ces trajectoires.
À gauche, une coupe transversale d’une
torsade où l’on distingue les groupements
de filaments supraconducteurs. À
droite, un zoom obtenu à l’aide d’un
microscope électronique montre la
disposition des filaments de niobiumtitane dans les groupements de filaments
supraconducteurs.
© CERN
Mais cet effet n’est pas le seul ennemi de notre paquet. Le voici à présent
qui s’approche d’un des quatre points de collision. Des aimants spécifiques sont installés de part et d’autre de cet emplacement afin de courber
les trajectoires des deux faisceaux et les faire se croiser au centre du détecteur. Sous l’action de ces aimants, répondant au doux nom d’« inner
triplets », notre paquet (appelons-le de façon très originale paquet 1) voit
sa taille diminuer et se présente donc avec la plus grande densité possible
au point de collision. Il est alors
traversé par un autre paquet ar- Les inner-triplets sont une série de quadrupôles
rivant en sens opposé (toujours qui assurent la convergence des faisceaux vers le
animés d’une verve poétique, point de collision et leur focalisation. Ces aimants
nous l’appellerons paquet 2). sont placés une cinquantaine de mètres avant les
Seule une infime fraction des zones expérimentales. Ils réduisent chaque diprotons des paquets 1 et 2 va mension transverse des paquets d’un facteur 100
s’entrechoquer frontalement et et constituent un élément clé pour obtenir une
donner lieu à des événements haute luminosité. En février 2007, lors d’un test
de pression, une telle série a été endommagée. À
intéressants que le détecteur va
quelque chose malheur est bon : l’incident a perenregistrer. Mais le reste des pa- mis d’identifier des points faibles dans la consquets ne sort pas indemne de la truction de ces quadrupôles. En effet, un anneau
« rencontre ». Car au moment de support n’était pas assez puissant pour conte-
page 62
En haut, dessin d’un inner triplet dont
l’action réduit les dimensions transverses
des faisceaux de 0,2 millimètres loin des
expériences à 16 micromètres au point de
collision. En bas, simulation de l’action
de ces aimants sur les deux faisceaux
arrivant à un point de collision.
nir les forces qui s’exerçaient sur les aimants. À la
suite de cet accident, tous les inner-triplets (8 au
total) ont été ouverts et réparés.
ÉLÉMENTAÍRE
Le LHC : un accélérateur sans égal
du croisement, le paquet 1 va ressentir le champ électromagnétique du paquet 2 (et vice-versa), de sorte que la structure
dans chaque paquet va être modifiée.
Ainsi, une dizaine d’heures après avoir rempli le LHC de protons, et après des centaines de millions de tours qui auront à
chaque fois perturbé les paquets, on risque d’observer une forte détérioration des caractéristiques des faisceaux : des oscillations apparaissent dans leurs orbites, ce qui dilue la densité
des paquets et diminue donc la luminosité. Les protons ayant
beaucoup dévié par rapport à la bonne trajectoire peuvent être
absorbés par des collimateurs dédiés et disposés le long de
l’anneau. Mais les oscillations risquent de susciter des mouvements chaotiques des faisceaux, qui ne pourront plus être
contrôlés par les systèmes magnétiques. On préfère alors vider
les anneaux de leurs protons, en les guidant vers des absorbeurs prévus à cet effet, plutôt que de courir le risque de voir le
faisceau s’échapper en un point quelconque de l’accélérateur.
Une telle perte, équivalente à une puissance électrique
envoyée dans le système cryogénique, provoquerait de
graves dégâts localement, ainsi qu’une brutale montée
de la température. On verrait alors passer l’aimant de
l’état supraconducteur à l’état normal, passage appelé
« quench » des aimants. Après cette vidange du LHC,
un autre remplissage peut commencer, en transférant
des paquets tout beaux, tout denses depuis le SPS.
Le quench d’un aimant
On désigne ici par ce terme le passage d’un aimant d’un état
supraconducteur à l’état normal, en raison, par exemple, d’une
augmentation de la température. La limite entre les deux états
dépend de la température et du champ magnétique de l’aimant.
Pour le LHC, dont les dipôles doivent fournir 8,3 teslas pour
maintenir les protons de 7 TeV dans l’anneau, elle se situe entre
2 et 3 K.
Un tel incident peut avoir de graves conséquences pour les
installations. La perte de la supraconductivité accélère le réchauffement de l’hélium puisque le courant ne circule plus
sans frottement dans les bobines et la résistance du matériau
génère de la chaleur.
Puisque la valeur de 8,3 teslas n’est plus assurée pour le champ
magnétique, les protons ne sont plus assez courbés pour garder leurs trajectoires et une partie est rapidement perdue... au
risque de perforer les chambres à vide là où les protons quittent
leur trajectoire circulaire.
Les physiciens du LHC ont effectué des essais de quenchs - en
l’absence de faisceau ! - sur plusieurs dipôles, afin d’étudier
leurs conséquences et la meilleure façon de les contrôler. En
fonctionnement réel, la détection d’un quench déclenche l’envoi immédiat des faisceaux de protons vers les absorbeurs.
ÉLÉMENTAÍRE
page 63
© CERN
© CERN
Finalement, le destin d’un proton joignant le LHC est
bien incertain ! Dans le meilleur des cas il entrera en collision avec un de ses congénères circulant dans le sens
opposé. Et qui sait, peut-être cette collision engendrerat-elle le boson de Higgs ou une autre particule nouvelle,
ouvrant de nouveaux chapitres en physique des particules. Mais l’immense majorité des protons connaîtra une
fin bien moins glorieuse, envoyée par les opérateurs de
l’accélérateur sur les absorbeurs... après dix heures de
bons et loyaux tours de piste dans les chambres à vide.
L’ingratitude des physiciens est sans borne !
© CERN
Le LHC : un accélérateur sans égal
À quelques mois du démarrage
Toutes les pièces du LHC sont à présent en place dans le tunnel. On procède à des tests avancés pour garantir le bon fonctionnement des différents composants et vérifier qu’ils sont bien reliés les uns aux autres. Une
partie importante de ces essais concerne la cryogénie : il faut beaucoup
de temps (1 à 2 mois) pour abaisser la température dans les sections courbes. Puis, les systèmes d’interconnections, de cryogénie et de pompage
sont testés un par un sur place. On prévoit la fin de tous ces essais durant
l’été 2008. Si tout va bien, évidemment, car la complexité de l’ensemble constitue une grande première technologique. Ainsi, tout problème
nouveau – nécessitant par exemple l’ouverture d’un dipôle – risque de
retarder le planning de 1 à 2 mois. Mais en regardant les pas de géant
réalisés par les ingénieurs de cette machine, nous avons le droit de rester
optimistes ! Alors, à la fin de l’été 2008, lorsque toutes les vérifications
seront faites, on injectera un faisceau unique depuis le SPS pour le faire
circuler dans le LHC sans subir d’accélération. Puis on entamera la phase
d’accélération vers des énergies plus hautes, qui mettra en jeu toutes les
parties du LHC et se fera d’abord à des luminosités « basses »... de façon
à ne pas créer des problèmes importants en cas de perte du faisceau.
Enfin, les deux faisceaux circuleront dans les anneaux. Ce sera alors le
début d’une période attendue avec fébrilité par les physiciens, car ils
pourront commencer leur moisson de résultats... qui s’avéreront certainement surprenants et excitants !
Températures d’un huitième des dipôles
du LHC. La majorité est à température
de 1,9 K tandis que 6 parmi eux sont
plus « chauds », suite à un quench.
page 64
Quelques chiffres
L’énergie emmagasinée dans les dipôles
est de 10,5 gigajoules, ce qui équivaut
à l’énergie cinétique d’un airbus A380
voyageant à 700 km/h ! Elle est suffisante
pour faire fondre 12 tonnes de cuivre (le
cuivre fond à 1356 K et a une chaleur spécifique 385 J/kg/K.).
L’énergie cinétique des 2 808 paquets
contenant chacun 1,15 x 1011 protons
ayant chacun une énergie de 7 TeV, vaut
2 808 x 1,15 x 1011 (protons) x 7 (TeV) =
362 MJ.
Quel est le prix du LHC ? La construction
de la machine a coûté environ 5 milliards
de francs suisses (~3 milliards d’euros)
et plus de 5000 personnes ont travaillé
à sa construction ou travailleront sur les
détecteurs et l’analyse des données enregistrées, pendant environ 20 ans. Cette
somme d’argent correspond au prix d’un
porte-avion nucléaire (sans les avions !)
ou à dix hôpitaux du type de l’hôpital
Georges Pompidou ou encore, aux pertes
d’une banque française qu’on ne nommera pas...
ÉLÉMENTAÍRE
ICPACKOI ?
[isepasekwa] ?
La feuille de déroute des États-Unis
Les fêtes de fin d’année 2007 laisseront certainement un goût amer aux
physiciens américains du DOE et plus généralement à la communauté
scientifique internationale. En effet, le budget 2008 des États-Unis, présenté
mi-décembre par le Congrès à majorité démocrate et signé par le président
républicain Georges W. Bush quelques jours avant Noël, a été loin de
satisfaire les attentes des chercheurs. Les dotations allouées sont nettement
inférieures aux sommes demandées et les économies imposées par la loi
de finance touchent de plein fouet les plus grands laboratoires américains,
contraints de revoir à la baisse leurs effectifs, leur programme scientifique
et leur implication dans des projets extérieurs, nationaux ou internationaux.
Même si les promesses pour les budgets futurs se veulent encourageantes
(bien que très hypothétiques), les conséquences de ces coupes sévères se
feront sans doute sentir des années durant, tant sur les plans humains que
scientifiques.
DOE
Fondé en août 1977 par le président Carter,
le département de l’énergie des États-Unis
(« Department Of Energy », DOE) est
chargé de la politique énergétique et de la
sécurité nucléaire. Ses compétences sont
très larges : nucléaire civil et militaire,
production consommation et conservation
de l’énergie, etc. Il finance plus de projets
de recherche fondamentale ou appliquée
que n’importe quelle autre agence fédérale.
Ainsi, son « bureau de la science » (« Office
of Science ») alloue plus de 40% des fonds
consacrés à ces disciplines au niveau national
et chapeaute les recherches en physique des
hautes énergies, en physique nucléaire et en
physique de la fusion.
Licenciements et économies dans les laboratoires américains
ÉLÉMENTAÍRE
page 65
Le budget 2008 du « bureau de la science » du DOE se monte à environ
4 milliards de dollars, soit 400 millions de moins que l’allocation demandée
– pour 2007, le déficit de crédit s’était déjà élevé à 300 millions de dollars.
Voté avec trois mois de retard, ces restrictions touchent des domaines très
variés. Ainsi en physique nucléaire, l’accélérateur de Brookhaven (à Long Island, près de New York) ne fonctionnera que 13 semaines cette année au lieu
des 30 prévues. Des centres produisant des faisceaux intenses de neutrons ou
de lumière synchrotron (comme le SSRL à SLAC) verront également leur durée
d’utilisation réduite ou seront fermés : là comme ailleurs, moins d’expériences seront menées et très peu de nouveaux projets verront le jour – la plupart
sont purement et simplement abandonnés sine die.
Le coup le plus sévère est porté à la physique des particules :
trois mois de retard
au lieu d’une augmentation espérée de 4%, le budget (690
Aux États-Unis, l’année fiscale dure du 1er octobre au 30 septembre
millions de dollars) est en baisse de 8,5% par rapport à l’an
de l’année suivante. En période de conflit entre les pouvoirs
dernier, soit une coupe de 64 millions de dollars. La baisse
exécutif et législatif – actuellement un parlement à majorité
la plus importante (75%) affecte les activités de recherche et
démocrate face à un président républicain – la loi de finances
développement autour de « l’International Linear Collider »,
n’est pas toujours finalisée lorsque l’année fiscale commence.
le projet international de futur collisionneur électron-posiLes dépenses sont alors régies par une « continuing resolution »
tron prévu pour la prochaine décennie. Dans ce domaine la
qui prolonge le budget de l’année précédente jusqu’à ce que le
nouveau entre en application. Si le changement intervient au 1er
situation est ubuesque : la loi de finance étant passée avec
janvier – c’est-à-dire un trimestre en retard – les organisations
un trimestre en retard, l’ILC avait déjà dépensé tout l’argent
dont le budget est réduit de 75% se retrouvent sans argent pour
alloué au 31 décembre ! En conséquence, tous les travaux
les 9 mois restants.
sont stoppés pour 9 mois et les personnels réaffectés dans
d’autres services.
Pour faire des économies, fermer la lumière et diminuer la masse salariale
est une « solution » difficile à éviter quand la marge de manœuvre est réduite, voire quasi-nulle. C’est malheureusement la voie dans laquelle doivent
s’engager les deux principaux laboratoires américains, SLAC et Fermilab. Le
ICPACKOI ?
[isepasekwa] ?
budget ne permettant de continuer à faire fonctionner leurs deux grands complexes accélérateurs, l’usine à B californienne et son expérience associée BaBar seront arrêtées autour du 1er mars, soit sept mois plus tôt que prévu – ce
qui permettra une économie de 14 millions de dollars environ. En effet, la
priorité au niveau national a été donnée au Tevatron qui permet l’étude de « la
frontière en énergie » (presque 2 TeV) et garde l’espoir de faire une découverte
majeure (le boson de Higgs) avant que le LHC ne fonctionne à plein régime
dans les prochaines années.
Même si Fermilab continue à exploiter le Tevatron, le laboratoire est sévèrement touché par les restrictions budgétaires : 200 licenciements sur un effectif
de 1900 personnes sont programmés et les employés restants verront leur salaire amputé de 2 jours chômés et non payés chaque mois. Enfin, le site avait
le vent en poupe pour accueillir l’ILC : même si le projet survit à l’interruption
du financement américain (venant quelques semaines après le retrait des Anglais de la collaboration en gestation), cette éventualité apparaît maintenant
bien mince.
À SLAC, 125 nouveaux licenciements devraient s’ajouter aux 80 déjà prévus
(pour la plupart des départs volontaires qui auraient dû s’étaler sur toute l’année mais qui ont été avancés au 1er avril). Les détails de ces réductions d’effectifs ne sont pas encore connus mais plus de la moitié des postes supprimés
devraient provenir de la division « physique des particules » qui comporte
environ 400 personnes.
4 milliards de dollars
En 2007, le budget fédéral des États-Unis
s’établit comme suit : 2 540 milliards de
dollars de recettes (18,5 % du produit
intérieur brut) pour 2 784 milliards de
dollars de dépenses (soit 20,2% du PIB).
Le déficit fédéral représente donc 1,8% du
PIB des États-Unis – l’objectif affiché par
le gouvernement fédéral américain pour
justifier les coupes dans certaines activités
est d’atteindre un budget excédentaire en
2012.
Le budget militaire est le premier poste
de dépense, avec plus de 700 milliards
de dollars, en augmentation régulière
chaque année (10% en 2008). À titre de
comparaison, le secteur de l’éducation
reçoit un peu moins de 90 milliards de
dollars, et celui de l’énergie un peu plus de
20 milliards de dollars.
ITER
Pour démontrer la possibilité scientifique et technologique de la production
d’énergie par la fusion de noyaux atomiques, l’Union européenne, les ÉtatsUnis, le Japon et la Russie lancent, en
1986, le projet ITER (International Experimental Thermonuclear Reactor).
Ils ont été rejoints ensuite par la Chine,
la Corée du Sud et le Canada.
Les travaux d’ingénierie et de coordination technique se sont achevés fin
2002 et la France a été choisie en 2004
parmi d’autres sites pour accueillir ce
réacteur ITER.
Sa construction devrait durer une dizaine d’années pour une exploitation pendant 20 ans et une production d’électricité éventuelle à l’horizon 2050.
page 66
© ITER
Conséquences pour la recherche européenne
On pourrait croire l’Europe à l’abri de ces problèmes : il n’en est rien. La
diminution du budget de la recherche américain met en péril de nombreuses collaborations internationales quand elle ne les rend pas complètement
caduques. Ainsi la contribution des États-Unis au projet ITER sera... nulle en
2008, en contradiction avec des accords signés précédemment. Quant à l’expérience BaBar, elle avait pour projet d’augmenter de 50% sa masse de données en 2008 : les laboratoires européens parties prenantes de la collaboration
ont investi beaucoup d’argent et de personnel dans les améliorations et la
maintenance du détecteur en prévision de cette manne qui devait permettre
d’améliorer de manière significative la précision des mesures déjà effectuées
et, pourquoi pas, de découvrir de nouveaux phénomènes. L’arrêt de l’accélérateur (100% américain) ne permettra pas de concrétiser ces investissements.
Enfin, que dire aux étudiants en thèse qui viennent d’être recrutés pour analyser des données qui ne seront jamais enregistrées ?
Au-delà des conséquences humaines et scientifiques directes, c’est tout le climat de confiance nécessaire aux collaborations scientifiques internationales
qui est remis en cause par ce budget et la forte inflexion « unilatéraliste » qui
en découle. L’avenir dira comment les communautés de chercheurs réussiront à s’affranchir de ces nouvelles difficultés. Espérons que les politiques les
aideront en apportant de la constance dans leurs investissements et dans leur
soutien !
ÉLÉMENTAÍRE
[isepasekwa] ?
Le réseau thématique P2I
© CERN Antonio Saba
Le CNRS, le CEA et 5 établissements universitaires (l’École Polytechnique,
l’Observatoire de Paris, et les Universités Paris 6, 7 et 11) ont créé en 2007
avec le soutien et un financement spécial du Ministère de la Recherche un
réseau thématique de recherche en Ile de France. Il regroupe des équipes
travaillant en physique (théorique et expérimentale) des interactions
fondamentales auprès des accélérateurs et des équipes travaillant en
cosmologie et dans le domaine des « astroparticules » : l’infiniment petit
et l’infiniment grand.
La matière nucléaire dans ses états
extrêmes
Le comportement de la matière nucléaire
est étudié depuis longtemps. Mais on
connaît mal ses caractéristiques dans
des conditions extrêmes. Ainsi, aux tous
premiers instants du Big-Bang, lorsque
les conditions de température et de
pression le permettaient, et avant même
la naissance de la matière hadronique, la
matière aurait été un plasma de quarks
et de gluons. C’est un scénario envisagé
par la chromodynamique quantique que
les physiciens de P2I cherchent à mettre
en évidence dans des expériences à
Brookhaven aux USA et dans l’expérience
ALICE au LHC.
Le réseau thématique Physique des deux infinis (P2I) a pour objectif de
maintenir la compétitivité des équipes françaises au niveau international
et de développer une synergie nouvelle entre les19 laboratoires franciliens
concernés (voir http://events.lal.in2p3.fr/P2I/).
Parmi les thèmes couverts par ce réseau thématique on trouve : les
astroparticules (photons de haute énergie rayons cosmiques, ondes
gravitationnelles), la physique des particules (vérification du modèle
standard, physique du boson de Higgs, recherche d’une nouvelle
physique), la matière nucléaire dans des conditions extrêmes (plasma de
quarks et de gluons, noyaux instables), la cosmologie (matière et énergie
noires, relativité générale, asymétrie matière-antimatière)...
L’enjeu de ce réseau est de permettre de conjuguer les connaissances
acquises dans les domaines de l’infiniment petit et de l’infiniment grand
afin de faire progresser notre compréhension de l’Univers.
ÉLÉMENTAÍRE
page 67
Cosmologie
Nous savons que l’univers est constitué,
à 95%, de matière et d’énergie dont
la nature est inconnue. En effet,
cela a été mis en évidence par les
observations très précises de certaines
caractéristiques
de
supernovae
lointaines, par des effets de lentilles
gravitationnelles sur le rayonnement
des galaxies et par les anisotropies du
rayonnement cosmologique, relique
du Big-Bang. Comprendre la nature de
ces 95% manquants est un grand défi
de la physique actuelle étudié dans
différents programmes comme Planck,
représenté ci-contre, SNLS,...
Une autre situation extrême se rencontre
au sein de noyaux très instables en raison
d’un fort déséquilibre entre les nombres
de protons et de neutrons. De nouveaux
phénomènes ont été découverts montrant
les limites des modèles conçus à partir des
observations faites sur les noyaux stables.
L’accélérateur SPIRAL2, en construction à
Caen, devrait être un outil privilégié dans
cette aventure scientifique. D’autres axes
de recherche dans ce thème sont l’étude
des étoiles à neutrons ou encore celle de la
structure du nucléon.
La question qui tue !
Peut-on (doit-on) tout unifier ?
L’union fait la force
La recherche d’une théorie « unifiée » décrivant toutes les interactions
connues comme dérivant d’une seule interaction fondamentale anime
nombre de physiciens. L’histoire des sciences est parsemée de telles
unifications. Par exemple la chute des corps et le mouvement des planètes
sont tous deux décrits par la seule gravitation universelle. On a mentionné
dans « Théorie » l’unification des phénomènes électriques et magnétiques
par Maxwell, mais il existe de nombreux autres exemples. Tous les
phénomènes chimiques, toute la physique atomique et moléculaire, ainsi
que la physique des solides, sont régies, au niveau le plus fondamental, par
la seule interaction électromagnétique (ce qui ne rend pas pour autant les
problèmes faciles à résoudre !). Toute la physique nucléaire et la physique
des particules sont gouvernées par les interactions forte et électrofaible.
Ajoutez à cela l’interaction gravitationnelle et vous avez virtuellement de
quoi décrire essentiellement (bien que de façon compliquée) toutes les
situations physiques connues. Par exemple, l’écoulement de l’eau dans
un verre résulte in fine de la combinaison de l’interaction gravitationnelle
et des interactions électromagnétiques entre les molécules d’eau.
C’est bien sûr un des objets principaux de la Science que de mettre en
relation des phénomènes apparemment dissemblables et de tenter de
leur donner une explication commune : on cherche à décrire le plus de
processus possibles en faisant aussi peu d’hypothèses que possible. Et
ça marche ! C’est là un fait des plus remarquables et des plus fascinants.
Derrière la multiplicité et la complexité des phénomènes que nous
pouvons observer, se cache une certaine simplicité que les scientifiques
essaient de découvrir. Ce sont les succès de cette vision analytique de la
nature qui ont d’ailleurs incité à formuler la démarche scientifique sous
sa forme contemporaine.
Toutes pour une...
Il est tentant de vouloir aller plus loin et de se demander si les quatre
interactions connues ne sont pas, elles-mêmes, les différentes facettes
d’un nombre plus restreint, voire d’une seule interaction fondamentale.
C’est ce que l’on pourrait appeler une approche réductionniste.
page 68
Dans un premier temps, les physiciens ont cherché à unifier les interactions
forte et électrofaible, qui ont de nombreuses similarités. En effet, elles
reposent sur la même alliance de relativité restreinte, de mécanique
quantique et de symétries, ce qui leur vaut le nom de « théories de
jauge » (voir « Théorie »). Pour désigner cette unification des interactions
forte et électrofaible, on parle de « théories de grande unification »
(ou GUT pour « grand unified theories »). Outre la description des
interactions actuellement observées, ces théories prévoient de nouvelles
interactions, qui génèrent donc des processus spécifiques nouveaux...
ÉLÉMENTAÍRE
Peut-on (doit-on) tout unifier ?
1022 fois l’âge de l’Univers
Mais comment diable mesurer une
durée de vie moyenne de 1032 années ?
D’après la définition de la durée de vie
moyenne (voir Élémentaire N°2), un
proton aurait moins d’une chance sur
1032 de se désintégrer au bout d’un an. La
solution ? Fastoche : il suffit d’observer
un grand nombre de protons. Une
tonne d’eau contient environ 7 x 1028
noyaux d’hydrogène (proton). On voit
que pour avoir la chance d’observer
ne serait-ce qu’une désintégration de
proton par an, il faut tout de même
quelques kilotonnes d’eau ! Pas si facile
après tout. Par exemple, l’expérience
SuperKamiokaNDE a surveillé de près
2,2 kilotonnes d’eau pendant plusieurs
années.
que l’on peut chercher à observer. Par exemple, dans la plupart de ces
théories, le proton est une particule instable, qui peut se désintégrer en
un électron et en deux photons (en fait, un électron et un pion neutre, qui
se désintègre en deux photons). L’expérience SuperKamiokaNDE, qui a
mis en évidence l’oscillation des neutrinos (voir Élémentaire N°5), avait,
à l’origine, pour autre but de détecter d’éventuelles désintégrations de
protons en observant une grande quantité de matière. Le fait qu’on n’en
ait observé aucune à ce jour a permis d’exclure les modèles les plus
simples de grande unification.
Bien sûr, l’unification des interactions est une idée séduisante, mais il faut
rester ouvert et garder à l’esprit qu’il n’y a aucune garantie qu’elle soit
vraie. En fait, à ce jour, il n’existe aucune indication expérimentale en ce
sens. Les expériences menées jusqu’à présent montrent que, si le proton
est instable, sa durée de vie est au moins de 1032 années, soit 1022 fois
l’âge de l’Univers. Mais les physiciens sont têtus et ne se découragent pas
si facilement. La recherche de théories unifiées et de leur confirmation
expérimentale est toujours un sujet de grande actualité.
... et une pour toutes ?
Il existe un autre type « d’unification » qui,
contrairement au précédent, semble nécessaire,
au moins d’un point de vue logique. Il s’agit de
l’unification des concepts.
L’avènement de la mécanique quantique au
début du siècle dernier a montré que les lois
régissant les phénomènes microscopiques étaient
fondamentalement différentes de celles du monde
macroscopique « classique ». La séparation entre
ces deux mondes est caractérisée par la constante
de Planck ħ, qui quantifie l’importance des effets
quantiques. Formellement, la mécanique classique,
celle de la « vie quotidienne », correspond à la
limite ħ = 0.
ÉLÉMENTAÍRE
page 69
Quelques années plus tôt, en 1905, était née la théorie de la relativité
restreinte, selon laquelle les lois de la physique « galiléenne » doivent
être modifiées lorsqu’on considère des systèmes se déplaçant à des
vitesses proches de celle de la lumière dans le vide, notée c. Les lois
de la mécanique non-relativiste ne sont valables que pour des vitesses
négligeables comparées à c. Elles correspondent formellement à la
limite c = infini. Problème : la toute nouvelle mécanique quantique est
intrinsèquement une théorie non-relativiste... et elle est incompatible
avec la relativité restreinte !
Peut-on (doit-on) tout unifier ?
D’un autre côté, il n’y a aucune raison a priori pour que des systèmes
microscopiques (donc obéissant aux lois de la mécanique quantique)
ne puissent être relativistes... c’est d’ailleurs le cas pour de nombreux
constituants élémentaires de la matière étudiée au sein des accélérateurs de
particules. Il apparaît donc nécessaire d’unifier les concepts de la mécanique
quantique et de la relativité restreinte pour pouvoir décrire ces situations. Ici
l’unification n’apparaît pas comme une hypothèse, un rêve de physicien,
mais bel et bien comme une nécessité logique.
Longueur Compton
Pour se faire une idée, il est intéressant
d’estimer la longueur Compton, en
dessous de laquelle les effets quantiques
et relativistes sont importants, pour
différentes particules.
Par exemple, Lelectron = 2500 fm,
Lpion = 13 fm,
Lproton = 3 fm.
En effet, considérons une particule de masse M. En combinant les constantes
fondamentales de la mécanique quantique et de la relativité restreinte avec
M, on peut construire une échelle de longueur absolue L = 2πħ/Mc, appelée
« longueur Compton » de la particule. Notons que ceci n’était possible ni en
relativité « classique » (où la seule constante fondamentale à disposition est
c), ni en mécanique quantique non-relativiste (où la seule constante utilisable
est ħ). On remarque que cette échelle absolue de longueur est nulle aussi
bien dans la limite classique, ħ = 0, que dans la limite non-relativiste, c =
infini. Donc, tant que l’on ne sonde que des distances grandes devant L, on
peut considérer que L = 0 et on peut négliger soit les effets relativistes, soit
les effets quantiques, selon les cas. À l’inverse, il est clair que si l’on sonde
des échelles de longueurs inférieures à L, on doit s’attendre à ce qu’aussi
bien les effets quantiques que relativistes jouent un rôle important.
Que se passe-t-il si on sonde des distances
inférieures à la longueur Compton d’une
particule donnée ? Eh bien, pour une
particule relativiste, cela correspond à des
échelles de temps de l’ordre de T = L/c,
ce qui, d’après la mécanique quantique
correspond à des échelles d’énergies
supérieures à E = ħ/T= M c2. Mais c’est
justement l’énergie nécessaire (à un facteur
deux près) pour créer des paires particulesantiparticules de masse M. Conclusion :
sur des échelles de distance inférieures à la
longueur Compton, une particule donnée
n’apparaît plus comme un objet ponctuel
élémentaire, mais entourée d’un nuage
de paires particules-antiparticules (voir
Élémentaire N°4).
C’est Dirac qui, en 1932, pose les premières pierres de l’unification de la
mécanique quantique avec la relativité restreinte, ce qui deviendra plus tard
la « théorie quantique des champs ». Celle-ci est le cadre mathématique qui
sert de base à la formulation du Modèle Standard des interactions forte et
électrofaible.
C’est grave docteur ?
Et la gravité dans tout ça ? Eh bien, on a affaire à une situation analogue :
la théorie de la gravitation universelle de Newton est incompatible avec
la relativité restreinte. Or on peut imaginer des situations où le champ
gravitationnel est si intense qu’on ne peut plus négliger les effets relativistes,
comme par exemple au voisinage d’un trou noir. C’est ce qui a conduit
Einstein à unifier gravitation et relativité restreinte dans la théorie de la
relativité générale. Il ne reste donc plus qu’à inclure les effets quantiques
et le tour est joué ! Hmm... le problème est qu’à ce jour personne ne sait
formuler une telle théorie quantique de la gravitation.
page 70
Cependant, comme dans le cas précédent, on sait qu’une telle unification
doit avoir lieu. En effet, la gravitation introduit une nouvelle constante
fondamentale, la constante de Newton G. En combinant celle-ci avec les
constantes ħ (mécanique quantique) et c (relativité), on peut former une
échelle de distance fondamentale – la même pour toutes les particules –
appelée la longueur de Planck
LP = √ħ G/c3 = 1,6 x 10-20 fm
ÉLÉMENTAÍRE
Peut-on (doit-on) tout unifier ?
ou, de façon équivalente, une échelle fondamentale d’énergie
EP = √ħ c5/G = 1019 GeV.
Pour des énergies inférieures à EP , c’est-à-dire des distances supérieures
à LP , on peut considérer en pratique que LP = 0, ce qui revient à
prendre une des trois limites suivantes : ħ = 0 (mécanique classique) ;
c = infini (mécanique non-relativiste); ou bien G = 0 (on néglige les
effets gravitationnels). À l’inverse, si on sonde des échelles de distances
inférieures à LP , ce qui correspond à des énergies supérieures à EP , on
doit s’attendre à ce qu’aussi bien les effets relativistes, quantiques que
gravitationnels jouent un rôle important. Il est alors nécessaire d’avoir une
description unifiée de tous ces phénomènes.
Théorie quantique des champs
Dans le cadre de la théorie quantique des
champs, les particules ne sont plus l’objet
central de la description mathématique.
Elles sont les excitations élémentaires
d’un objet plus fondamental : le champ.
Ce dernier est une fonction prenant des
valeurs différentes en différents points de
l’espace-temps. En guise d’illustration, on
peut imaginer un « champ » qui mesure la
hauteur de l’eau sur l’océan par rapport à
un certain niveau de référence. Ce champ
prend des valeurs différentes à différents
endroits. Les excitations élémentaires de
ce champ sont des vagues qui se propagent
sur l’océan. En mécanique quantique, la
hauteur des vagues ne peut prendre que
certaines valeurs précises (on dit qu’elles
sont « quantifiées ») et ces « vagues
élémentaires » ne sont autres que les
particules.
Il existe un type de champ pour chaque
type de particule. Une conséquence
remarquable de la théorie des champs
est qu’elle permet d’expliquer pourquoi
toutes les particules d’un même type (par
exemple, tous les électrons de l’Univers)
ont exactement les mêmes caractéristiques
(masse, charge, etc...) : elles sont les
excitations d’un seul et même champ (tout
comme une vague sur l’Océan Indien n’est
pas intrinsèquement différente d’une vague
sur la Méditerranée).
Une telle description reste encore à inventer et c’est là une des questions
majeures de la physique des hautes énergies. Des théories candidates ont
été proposées, comme les théories de cordes et de supercordes, ou encore
la gravité en boucles (« loop gravity »), mais aucune n’a reçu l’approbation
unanime des physiciens pour le moment. Un des obstacles majeurs, outre
le défi théorique que pose la construction d’une telle description, est qu’il
est impossible à l’heure actuelle de tester directement ces théories. En effet,
cela requiert des énergies plus de dix millions de milliards de fois plus
élevées que celles que l’on est capable d’atteindre avec nos accélérateurs
(si on prend 1 TeV comme l’énergie de référence de ces derniers). Ce n’est
donc pas demain la veille !!!
ÉLÉMENTAÍRE
page 71
Cependant, l’espoir de certains physiciens est que l’étude de l’Univers
primordial, où les échelles d’énergies mises en jeu peuvent atteindre des
valeurs colossales, pourrait fournir une fenêtre sur ces processus. Comme
à l’époque de la découverte des rayons cosmiques les physiciens tournent
leur regard vers le ciel et vers l’infiniment grand pour mieux comprendre
et décrire plus simplement l’infiniment petit... Feront-ils ainsi quelques pas
supplémentaires sur le chemin de l’unification ?
page 72
ÉLÉMENTAÍRE