la masse.pdf

66

Upload: deedee81

Post on 29-Oct-2015

778 views

Category:

Documents


0 download

TRANSCRIPT

La masse Didier Lauwaert. Copyright © 2013. I. Introduction II. La masse en mécanique classique

II.1. La masse inerte La sensation d’inertie ; Quantification ; Loi de Newton

II.2. La masse pesante Attraction universelle ; Poids ; Masse pesante ; Loi de la gravitation ; Confusion entre poids et masse

II.3. Mesure de la masse Instruments de mesure ; Dynamomètre ; Balance ; Etalons de mesure ; Unités

II.4. Le principe d’équivalence Equivalence entre masse inerte et masse pesante ; Conséquence ; Proportionnalité

III. La masse en relativité restreinte III.1. Masse et énergie Les repères ; La relativité restreinte ; Relation masse énergie ; Masse relativiste et masse invariante ; Formule complète ; Les photons

III.2. Systèmes composites Système composite ; Système global ; Défaut de masse ; Système à deux photons

IV. La masse en relativité générale Expérience avec des cabines ; Un autre cas ; Principe d’équivalence fort ; La masse

V. Le champ électromagnétique Champs électriques et magnétiques ; Théorie de Maxwell ; Ondes électromagnétiques ; Potentiel électromagnétique ; Jauge

VI. La mécanique quantique Mécanique quantique ondulatoire ; Principe d’indétermination ; Description par les états ; Evolution et mesure

VII. La théorie quantique des champs VII.1. La quantification du champ L’oscillateur harmonique ; Champs libres ; Espace de Fock ; Champs en interaction

VII.2. La théorie des perturbations Développement perturbatif ; Théorie des collisions ; Traduction graphique ; Convergence du calcul ; Portée des interactions

VII.3. La renormalisation Divergences ; Interprétation ; Méthode de calcul ; Régularisation ; Renormalisation ; Théories renormalisables ; Théories non renormalisables

VIII. Les théories des champs de jauge VIII.1. Les interactions Les interactions fondamentales ; Gravitation ; Electromagnétisme ; Interaction faible ; Interaction forte ; Théories asymptotiquement libre ; Confinement ; Les forces nucléaires

VIII.2. Les particules Leptons ; Baryons ; Hadron ; Mésons ; Bosons

VIII.3. La masse des nucléons VIII.4. Les symétries Les différents types de symétrie ; Exemple de symétrie interne ; Jauge en électromagnétisme ; Autres symétries internes

VIII.5. Les théories de jauge Invariance locale et globale ; Le cas de l’électron ; Autres symétries

VIII.6. La théorie électrofaible Théorie électrofaible ; Le cas de l’interaction forte ; Masse des bosons de jauge

IX. Le mécanisme de Higgs IX.1. Brisure spontanée de symétrie IX.2. Le champ de Higgs Energie du champ de Higgs ; Brisure spontanée de symétrie

IX.3. Bosons de Goldstone Théorème de Goldstone ; Les bosons de Goldstone

IX.4. La masse Champ de Higgs ; Brisure spontanée de symétrie ; Masse des bosons de jauge ; Explications de cette masse

IX.5. Les leptons et les quarks X. Le boson de Higgs La particule ; Formation et désintégration ; Détection ; Au-delà du Modèle Standard de la physique des particules

XI. Références

I. Introduction La masse est à la fois quelque chose de simple et intuitif et en même temps quelque chose dont la nature peut sembler assez mystérieuse. Elle intervient partout en physique mais aussi dans la vie quotidienne. Il n’est donc pas d’esprit curieux qui se soit poser des questions sur « qu’est-ce que la masse ». De plus, le sujet est revenu dans l’actualité avec la découverte très médiatisée du boson de Higgs. Nous allons donc présenter une étude assez complète sur la masse en physique, du point de vue du physicien théoricien. L’étude sera assez approfondie mais restera dans le cadre de la vulgarisation. Il y aura un peu de mathématiques mais toujours très simple et accessible à tous. C’est d’autant plus important que le chemin à parcourir est assez long.

II. La masse en mécanique classique

II.1. La masse inerte

La sensation d’inertie Nous avons tous l’intuition de la masse. Celle-ci se traduit par l’inertie. C’est-à-dire la tendance à résister aux sollicitations. Si nous voulons déplacer un objet, certains objets offriront peu de résistance, d’autres une grande résistance. Bien entendu, on doit faire attention à tout frottement de l’objet avec d’autres surfaces (comme le sol) ou tout point d’ancrage de toute nature. Sinon, ce n’est pas l’objet que nous essayons de mettre en mouvement mais l’objet et tout ou partie de son environnement ! Pour déterminer cette inertie de manière plus précise on peut, par exemple, considérer divers objets posés sur des roulettes et voir de quelle manière plus ou moins aisée on les met en mouvement.

Quantification Nous avons aussi une notion intuitive de la force. C’est l’effort que l’on doit mettre en jeu pour mettre en mouvement l’objet. C’est l’action exercée par une pièce mécanique sur une autre, pouvant la déplacer ou la déformer. C’est l’action du vent qui nous force à exercer une certaine résistance pour ne pas tomber. C’est cette action entraînant des conséquences que l’on qualifie de force. Considérons un objet déterminé, disons une caisse remplie d’une quantité bien précise d’un matériau bien précis. Essayons de pousser cette caisse.

Essayons maintenant de doubler la force appliquée. Un moyen simple et relativement précis (plus précis que de doubler son effort, ce qui nécessite une estimation individuelle subjective) est de pousser de la même manière mais à deux.

On constate alors que l’objet se met deux fois plus facilement en mouvement. Cela peut se vérifier de manière précise. Il faut pour cela mesurer avec une grande précision la vitesse de la caisse ainsi que son accélération (c’est-à-dire la variation de la vitesse au cours du temps). Essayons maintenant de pousser une caisse deux fois plus massive. Il suffit pour cela d’empiler deux caisses identiques l’une sur l’autre.

On constate que les caisses se mettent en mouvement deux fois moins vite.

On peut confirmer cette proportionnalité en poussant à deux sur les deux casses. Elles se mettent alors en mouvement de la même manière que si l’on pousse seul sur une seule caisse. Cela revient au même que de pousser chacun sa propre caisse. On dira ainsi que la caisse possède une certaine masse m qui s’oppose à la mise en mouvement. Et deux caisses identiques ont une masse 2m. Ainsi, de proche en proche, par comparaison, doublement des forces et des masses, on peut comparer et donner des masses bien précises à tous les objets.

Loi de Newton Si l’on mesure avec des instruments adéquats (nous en verrons plus loin) les forces, masses et accélération, on découvre une loi simple reliant les trois. Loi découverte par Isaac Newton. C’est le principe de la dynamique. F = ma C’est-à-dire que la force appliquée est égale à la masse du corps fois son accélération. On retrouve bien les lois empiriques de proportionnalités constatées avec les caisses. Si la force est deux fois plus grande, pour la même masse, l’accélération est deux fois plus grande. Si la masse est deux fois plus grande, pour la même force, l’accélération est deux fois plus petite. Pour être plus précis, on peut aussi constater que le mouvement se produit dans le même sens que la direction vers laquelle on applique la force. On représente une telle grandeur par F ou a. Elles sont appelées vecteurs et se représentent de manière commode par une flèche comme dans les dessins ci-dessus. La valeur de la force ou de l’accélération est représentée par la longueur de la flèche et la direction de la flèche indique la direction de la force ou de l’accélération. On a ainsi : F = ma

II.2. La masse pesante

Attraction universelle Comme l’a compris Newton, tous les corps s’attirent. C’est qui fait tomber une pomme qui tombe d’un arbre, suite à l’attraction exercée par la Terre. De même, le Soleil attire les planètes et celle-ci n’évitent le sort funeste d’une chute dans la fournaise que grâce à leur mouvement latéral leur donnant un mouvement orbital.

Poids Cette attraction se traduit par une force exercée sur les objets. Par exemple, la force exercée sur le sol par une caisse qui est posée ou sur vos épaules ou vos bras lorsque vous devez porter un objet lourd.

Cette force, dirigée vers le bas, ou plutôt vers le centre du corps attracteur, est appelée le poids.

Masse pesante Si l’on empile deux caisses identiques l’une sur l’autre, on constate que le poids double. On peut donc définir une masse pesante associée au corps et proportionnelle à son poids en un lieu donné. Tout comme précédemment, on peut procéder par des comparaisons afin d’attribuer une masse pesante à chaque objet.

Loi de la gravitation Newton a découvert que la force d’attraction entre deux objets massifs de masse pesante m et m’ était donnée par :

Où G est la constante de gravitation universelle et r la distance qui sépare les deux corps (le carré signifie donc que la force est divisée par quatre si la distance double). Cette force est exercée sur chacun des deux corps et dirigée vers l’autre corps le long de la ligne joignant les deux corps.

Confusion entre poids et masse Notons que les gens confondent souvent masse (pesante) et poids. Ces deux grandeurs sont pourtant différentes. La masse représente une certaine quantité de matière (sensible à la gravité) et le poids est une force. Mais comme au même endroit (au sol, en un lieu donné) une même masse donne un même poids, la confusion est facile. Par exemple, un objet de même masse mais posé sur la Lune y a un poids six fois plus faible. La masse et le poids se mesurent dans des unités différentes que nous allons voir.

II.3. Mesure de la masse

Instruments de mesure Il existe toutes sortes d’instruments pour mesurer les forces et masses. Voyons en deux très communs.

Dynamomètre

Cet instrument permet de mesurer les forces.

Il est constitué d’un ressort qui se déforme et s’étire sous l’action, d’une force. L’expérience montre que pour des déformations modérées, l’allongement du ressort est proportionnel à la force. Ce qui donne un moyen commode de mesurer une force. A l’aide de cet instrument, on peut mesurer les forces et donc les masses à travers l’action des forces. Par exemple, une mesure commune à l’aide de cet instrument est la mesure du poids. Il suffit de placer l’objet en dessous, attaché au ressort. Le poids est alors appliqué au ressort. Un dispositif analogue est le pèse-personne où le poids est appliqué sur un ressort ou une lame métallique qui se déforme sous le poids.

Balance

Une balance, qu’il ne faut pas confondre avec le pèse-personne, permet de mesurer les masses par comparaison.

Lorsque les poids sont égaux de chaque côté, c’est-à-dire lorsque les masses sont égales, le fléau de la balance est en équilibre. Il suffit alors de placée des masses marquées (étalons) d’un côté et l’objet à mesurer de l’autre pour avoir une mesure de la masse. Pour éliminer l’influence de petites imperfections dans la balance on peut procéder par double pesée. On place l’objet à mesurer d’un côté et on équilibre avec une masse quelconque (par exemple du sable), puis on remplace l’objet à mesurer par des masses marquées qui équilibrent de la même manière la masse de sable.

Etalons de mesure Pour attribuer des grandeurs précises par comparaison, il faut faire le choix d’un étalon. C’est-à-dire un objet ou un phénomène servant de référence et auquel on attribue la grandeur 1. Ainsi pour le mètre on a utilisé une barre en platine iridié (maintenant on utilise la longueur parcoure par la lumière en un certain temps). La seconde est basée sur la fréquence de vibration d’un atome de césium placé dans des circonstances précises. Et la masse est définie par un étalon en platine iridié. Les étalons matériels sont disposés et protégés dans des conditions drastiques au pavillon de Breteuil du Bureau des Poids et Mesure.

Unités Une fois un étalon choisi, il peut servir de référence pour définir une unité de mesure. Ainsi les étalons précédents permettent de définir les unités de base :

La longueur est donnée par le mètre. L’étalon de longueur étant de longueur 1 mètre. Le symbole de l’unité est m.

Le temps est mesuré en secondes. Symbole s.

Et la masse est mesurée en kilogrammes. Symbole kg. On peut aussi à partir de là définir les unités dérivées. Ainsi, la vitesse est mesurée en mètres par seconde. Une vitesse d’un mètre par seconde est bien entendu la vitesse d’un objet qui parcourt un mètre à chaque seconde écoulée. Symbole m/s. L’accélération est mesurée en mètres par seconde au carré, de symbole m/s². C’est l’accélération d’un corps dont la vitesse augmente de 1 m/s à chaque seconde écoulée. La force peut se définir à partir de la loi de Newton. On définit ainsi l’unité de force : le Newton noté N. C’est la force appliquée à un objet de 1 kilogramme qui subit une accélération de 1 m/s². Il existe d’autres unités comme les kilomètres, les heures, la tonne, etc. Ces unités sont des multiples ou sous-multiples des unités précédentes qui font partie du Système International. Nous nous limiterons à ces unités.

II.4. Le principe d’équivalence

Equivalence entre masse inerte et masse pesante Nous avons défini deux types de masse, la mase inerte et la masse pesante. On peut donc les comparer par la mesure. L’expérience montre que, quels que soient les corps, leur taille, leur composition, on trouve toujours que ces deux masses sont identiques avec une grande précision. On peut donc postuler qu’il en est toujours ainsi. C’est le principe d’équivalence.

Conséquence Ces deux masses interviennent dans deux lois. Supposons que ces masses sont vraiment identiques. Quelle est la conséquence sur ces lois de cette identité ? Considérons un corps en chute libre. Ce corps tombe car il est attiré par la Terre. Cette attraction est son poids P. En tombant il accélère. Cette accélération est appelée accélération de la pesanteur et est habituelle notée g. La première loi nous dit donc que : P = mg Où m est la masse du corps (pesante ou inerte, peu importe puisque nous les identifions). Mais la deuxième loi nous dit que : P = GmM / h² Où G est la constante de gravitation, M la masse de la Terre qui attire le corps et h la distance du corps au centre de la Terre (environ 6000 kilomètres). On peut égaler les deux relations : mg = GmM / h² Et comme on a la même masse des deux côtés, on peut simplifier : g = GM / h²

L’accélération de la pesanteur est donc une quantité qui dépend de la masse de la planète (elle est donc différente sur la Lune) ainsi que de la distance au centre de la Terre (elle est donc différente en altitude, par exemple). Mais elle ne dépend pas de la masse du corps qui chute. Cela signifie que tous les corps tombent avec la même accélération (au même endroit). Cette lois a été découverte par Galilée lors d’une expérience à la tour de Pise :

En lâchant en même temps deux boulets, l’un plein et l’autre creux, de poids très différent, du haut de la tour de Pise, on constate que ceux-ci viennent heurter le sol en même temps. Galilée semble plutôt avoir réaliser ce genre de constat avec l’étude des pendules, mais l’histoire est assez jolie pour la raconter. Cela elle quelque peu contraire à l’intuition qui pourrait laisser croire qu’un corps plus lourd tombe plus vite, ce que l’on croyait avant Galilée. Il n’en est rien. Un corps plus massif a un poids plus grand, l’attirant plus fort vers la Terre, mais un corps plus massif est aussi plus difficile à mettre en mouvement. Les masses pesantes et inertes étant identiques, les deux effets se compensent et la chute est la même pour un corps léger et un corps lourd. Notons qu’il faut tenir compte de la résistance de l’air. Il suffit de lâcher une feuille ou un plume pour constater qu’elle « plane » dans l’air et tombe ainsi moins vite qu’une bille. C’est aussi ce qui permet à un parachute de fonctionner. Ce genre d’effet a pu jouer sur la mauvaise intuition des prédécesseurs de Galilée. Le choix de deux gros boulets bien ronds n’est pas anodin car ce genre de forme, de surcroit identique, minimise les effets de la résistance de l’air tant que la vitesse des boulets reste modérée. Notons une petite imprécision dans les raisonnements qui précèdent. En effet, la loi de la gravitation universelle dit que la force (le poids en l’occurrence) s’applique aux deux corps qui s’attirent. Cette force devrait donc agir aussi sur la Terre. La Terre devrait donc se déplacer à la rencontre du corps. C’est bien le cas, mais la Terre a une masse gigantesque et son accélération sous cette faible force sera donc infime et même impossible à mesurer. Ce n’est qu’avec des corps de masse sensiblement égale que l’effet devient important (par exemple, la Lune et la Terre tournent autour d’un centre

commun et cet effet sur l’étoile dû au mouvement de la planète est même utilisé pour détecter la présence de planètes autour des étoiles proches). Ce principe de l’accélération de pesanteur identique n’est donc vrai que pour des corps tests, c’est-à-dire des corps de masse très petite par rapport à la masse de la Terre.

Proportionnalité Expérimentalement, nous avons dit que l’on trouvait toujours les mêmes masses inertes et pesantes pour les corps. En réalité, cela dépend de la façon de les mesurer et tout ce qu’on peut dire c’est qu’elles sont toujours proportionnelles : Masse inerte = k * masse pesante Où k est une certaine constante universelle. On choisit les mêmes unités pour mesurer les deux masses. C’est-à-dire qu’on choisit le même étalon de masse. Ce qui permet de poser k = 1. Ces deux masses sont donc égales en grandeur. Cela ne signifie pas nécessairement, du moins à ce stade, qu’il s’agit de la même masse. Une égalité numérique ne garantit pas une égalité de nature.

III. La masse en relativité restreinte

III.1. Masse et énergie

Les repères Pour pouvoir faire des mesures, des expériences, des études de phénomènes physiques, il est nécessaire de donner de valeurs numériques précises aux positions et aux instants auxquels se produisent les phénomènes. Cela se fait en utilisant des repères précis par rapport auquel on détermine la position des objets. Un exemple bien connu est le système des latitudes et longitudes qui repèrent les lieux par rapport à la Terre. En plus de repérer les positions, on détermine les instants à l’aide d’horloges. Considérons deux observateurs A et B, chacun équipés de son horloge. Par facilité, nous

considérerons la situation suivante.

L’observateur A est situé au point O, il utilise trois directions (x, y et z non représenté) pour identifier

la position de chaque objet ou événement auquel il attribue ainsi trois coordonnées x, y et z. Il a aussi

une horloge indiquant le temps t. Ce système de repérage constitue son repère (K) par rapport

auquel il peut donner des coordonnées (position et instant) précis à chaque événement. Nous avons

l’habitude de tels repères quand on dit « la colline est à trois kilomètres de ma maison » ou « l’île se

situe à 45° de longitude ouest avec le méridien de Greenwich », anciennement on utilisait le

méridien de Paris).

De même, l’observateur B est situé au point O’ et utilise les trois directions (axes) x’, y’, et z’ et il

dispose d’une horloge indiquant le temps t’. Le repère sera noté K’. Les axes sont disposés comme

sur la figure.

L’observateur B est en mouvement par rapport à A à la vitesse V, qui est aussi la vitesse de O’ par

rapport à O (ou de O par rapport à O’ avec renversement du sens de la vitesse) ou la vitesse de K’ par

rapport à K. Lorsque les points O et O’ coïncident, on choisit les coordonnées du temps telles qu’à cet

instant t = t’ = 0 (c’est juste une question de facilité).

Par exemple, A pourrait être immobile sur le quai d’une gare et B pourrait être dans un train où il

effectue toutes ses mesures par rapport à sa propre position.

Seule les variables x, t et x’, t’ seront utilisées ci-dessous.

La relativité restreinte La relativité utilise deux postulats :

Principe de relativité restreinte : tous les repères inertiels sont équivalents. Un repère inertiel est un repère en mouvement à vitesse constante où l’on ne ressent aucune accélération et où les lois classiques de la mécanique (les lois de Newton) sont valides. Ce principe signifie que les lois physiques décrivant les phénomènes doivent garder la même forme quel que soit le repère utilisé pour les formuler. Cela ne signifie évidemment pas que ces repères sont identiques et que tout ce qui s’y passe aussi. Par exemple, notre observateur A sur voit le train en mouvement tandis que B considère que le train ne bouge pas par rapport à lui. Ce principe est en fait assez naturel. Il est difficile d’imaginer un repère absolu, spécial, par rapport auquel repérer les événements. Par exemple, on pourrait dire que A a un « meilleur » repère que B car il est immobile tandis que B est dans un train. Mais le repère de A est-il si bon ? Après tout la Terre n’est pas immobile, elle tourne autour du Soleil. Et l’ensemble Terre – Soleil tourne autour de la Galaxie. En réalité, il n’y a pas de repère absolu. Il n’y a que des choix arbitraires, humains. C’est nous qui choisissons de déterminer les positions par rapport à tel ou tel repère. Ce choix n’influence évidemment pas la manière dont les phénomènes physiques se produisent (un passager sur le quai laisse tomber son billet : ce phénomène se produit autant du point de vue de A que de B). Ce choix n’influence que la manière de décrire le phénomène. On souhaite donc que cette description soit la plus universelle possible et ne dépende pas du repère. Le choix des repères inertiels est un choix restreint, d’où le nom de relativité restreinte. On généralisera plus tard.

La vitesse de la lumière dans le vide, c, est constante et invariante. Cela signifie que cette vitesse ne varie pas au cours du temps et qu’elle est identique pour tout observateur. Cette vitesse a été mesurée dans de nombreuses circonstances et à l’aide de nombreux

moyens. Ce postulat est vérifié expérimentalement avec une précision extrêmement grande (à tel point qu’on se sert maintenant de la vitesse de la lumière pour définir le mètre étalon pour la mesure des longueurs). La vitesse de la lumière ne dépend pas du mouvement de l’émetteur ni du récepteur. En physique classique, cela peut sembler étrange. En effet, si l’observateur B émet un rayon lumineux vers l’avant du train et que ce rayon se déplace à la vitesse c par rapport à lui, on s‘attend à ce que la vitesse du rayon lumineux mesurée par A soit V + c. Ce n’est pas ce qui est expérimentalement constaté. De toute évidence, la simple addition des vitesses ne marche pas lorsque l’on envisage des vitesses très élevées comme celle de la lumière. Comme la vitesse n’est rien d’autre qu’une certaine distance parcourue en un certain temps, cela signifie qu’il doit y avoir des changements dans les concepts d’espace et de temps. Ces changements ne nous concernent qu’indirectement, puisque nous nous intéressons qu’à la masse.

La mesure de l’espace peut se faire en utilisant des règles étalons disposées de la manière indiquée pour les repères ci-dessus. La mesure du temps peut se faire en utilisant des horloges. Il reste un détail important à régler. Comme on a deux observateurs, on a deux horloges. Comment

les synchroniser ? En fait, comme les observateurs vont noter des phénomènes se produisant à

différents endroits, il faut aussi se poser la question : comment mesurer le temps à un endroit

différent de O ou O’ ?

Pour cette deuxième question on peut, au moins par la pensée, disposer des horloges un peu partout

de façon à en avoir une à chaque endroit où l’on désire mesurer le temps. Il reste donc la question de

synchronisation des horloges. Voici une procédure possible (procédure d’Einstein, plusieurs

procédures sont possibles et elles sont équivalentes au prix, éventuellement, d’une redéfinition des

coordonnées).

Pour A, on dispose un ensemble d’horloges immobiles par rapport à A. C’est-à-dire que les

coordonnées x, y, z de chaque horloge ne varient pas au cours du temps. Ainsi, la distance

entre O et chaque horloge peut être mesurée en utilisant le repère et cette valeur ne change

pas.

A synchronise alors toutes ses horloges avec l’horloge H située en O. Pour ce faire, il envoie

des signaux entre les horloges en tenant compte du temps de propagation du signal entre

chaque horloge. S’il utilise la lumière, connaissant la distance entre les horloges et

connaissant la vitesse de la lumière, le temps de propagation est facile à calculer. Ainsi,

l’ensemble des horloges mesurera un temps t concordant dans l’ensemble du repère K.

B peut faire de même avec des horloges immobiles par rapport à O’ (donc différentes de

celles utilisées par A même si d’aventure elles peuvent se croiser) et il les synchronise par

rapport à son horloge H’ située en O’.

Pour pouvoir comparer les mesures effectuées par A et B, il reste à synchroniser les horloges

H et H’. La définition des repères ci-dessus en donne la clef. Au moment où O et O’ se

croisent, les horloges H et H’ sont situées au même endroit. On peut aisément les

synchroniser en réglant t = t’ = 0, puis A et B synchronisent les autres horloges comme

expliqué ci-dessus.

Avec les conventions précédentes, la théorie de la relativité restreinte donne les règles permettant de relier les variables x, t et les variables

x’, t’ pour un événement donné E mesuré à la fois par A et B. La relation entre les variables est donnée par les transformations de Lorentz :

( )

(

)

Le facteur gamma vaut :

Sans entrer dans les détails techniques, notons deux choses importantes :

Il entre dans les différentes relations en relativité, un facteur, appelé « facteur gamma » ( )

qui est environ égal à un pour des vitesses V faibles et qui diverge lorsque V tend vers c. La

valeur de gamma ne diffère de un que pour des valeurs notables de V par rapport à la vitesse

de la lumière. Ainsi, même à 100000 km/s, gamma vaut seulement 1.06.

En général, pour un événement donné E, on aura , même si l’on a synchronisé les

horloges.

Relation masse énergie La relativité montre qu’il existe une relation entre l’énergie et la masse des objets. Pour un objet au repos, c’est-à-dire immobile dans le repère considéré, on a :

Formule célèbre s’il en est. Cela montre qu’il existe une relation entre masse et énergie. Tout au moins pour un objet au repos. Cette énergie correspondant à la masse s’appelle énergie propre et donc on parle aussi de masse propre, de masse au repos ou tout simplement de masse.

Masse relativiste et masse invariante Pour un objet en mouvement, avec un facteur gamma donné, on a : Cette énergie croît donc très vite. En fait, même pour un objet au repos, l’énergie propre donnée ci-dessus est très élevée, à cause du facteur (carré de la vitesse de la lumière, en mètres par seconde, il vaut 90000000000000000). Ainsi, l’énergie d’un électron au repos est de 512000 électronvolts, à comparer aux 13.6 de l’ionisation de l’hydrogène. Il existe dans la nature des particules appelée antimatière qui sont simplement les mêmes particules que celles que nous connaissons mais avec des charges opposés. Ainsi, l’antiélectron, ou positron, est exactement identique à l’électron mais avec une charge électrique positive. Lorsqu’une particule rencontre une antiparticule correspondante, elles s’annihilent en se transformant en photons. Par exemple, un électron et un positron s’annihilent (par exemple) en donnant deux photons de 512000 électronvolts, ce qui est considérable (rayons gammas). Anciennement, on définissait la masse relativiste comme étant , ce qui rendait la formule

valable même pour un objet en mouvement. Ce concept est tombé en désuétude pour trois raisons :

Parler de deux sortes de masse risque de prêter à confusion. La masse relativiste n’introduit pas réellement de concept nouveau car ce n’est rien d’autre

que l’énergie totale (divisé par la constante ). Le photon, qu’on verra plus bas, n’a pas de masse relativiste.

On considère donc la masse comme étant la masse au repos ou plus généralement la « masse propre ». La masse propre est constante et invariante, c’est donc une bonne caractéristique des corps.

Formule complète L’énergie peut aussi être mise sous une autre forme. L’impulsion classique d’une particule est une quantité qui vaut . Mais en relativité, on obtient . Un peu de travail donne alors la relation très utile :

Pour une particule au repos (p = 0) on retrouve l’énergie propre habituelle.

Les photons La lumière est une onde électromagnétique composée de photons, on y reviendra. Ce sont de petits paquets d’ondes électromagnétiques d’énergie où h est la constante de Planck et la fréquence de l’onde électromagnétique. Cette relation fut découverte par Planck et Einstein. La lumière est assez particulière puisque elle se déplace toujours à la vitesse c, du moins dans le vide. Cela veut dire qu’il n’y a pas de sens à parler de photon au repos. De plus, l’expérience montre que la lumière n’a pas de masse. On peut d’ailleurs aussi le voir avec la formule donnant l’énergie d’un objet en mouvement. Pour la vitesse de la lumière, le facteur gamma devient infini et si la masse était non nulle, l’énergie de la lumière serait infinie.

Avec m= 0, la formule devient « zéro fois l’infini », ce qui est indéterminé. La formule perd son utilité. Par contre, la dernière formule donnée ci-dessus reste valide. Pour m = 0, on obtient : En fait, cette formule sert surtout à donner l’impulsion du photon. L’énergie doit être donnée autrement, c’est la relation donnée ci-dessus. Comme on le voit, des objets peuvent être sans masse. La masse ne doit donc pas être considérée comme une qualité définissant l’existence d’un objet, c’est une propriété des corps au même titre que leur position, leur couleur ou leur charge électrique.

III.2. Systèmes composites

Système composite Considérons un système composé de plusieurs parties. Ces différentes parties sont éventuellement en mouvement et éventuellement liées entre-elles. Pour simplifier, considérons deux particules liées, par exemple deux nucléons dans un noyau d’atome. Notons la masse de la première particule et celle de l’autre. Les deux nucléons étant en mouvement (un peu comme les électrons autour de l’atome, sauf qu’ici c’est au sein du noyau), ils ont une certaine vitesse se caractérisant par un certain facteur gamma. Pour les deux particules, notons-les et . L’énergie totale est alors :

C’est-à-dire la somme de l’énergie de chaque particule plus l’énergie de liaison U qui est habituellement négative pour un système stable. L’énergie totale est donc plus faible que celle des composants séparés. Cette somme est encore valable en physique non relativiste, il suffit de remplacer les termes relativistes par l’énergie cinétique classique.

Système global On peut aussi considérer le système globalement, comme un tout. On considère donc le noyau sans se préoccuper des détails. Si l’on note m la masse de ce noyau et si le noyau est au repos (même si les constituants à l’intérieur sont peut-être très remuants, mais ils tournent autour d’un centre commun appelé centre d’inertie, qui est le centre du noyau) on a : C’est-à-dire :

Défaut de masse La dernière relation est particulièrement intéressante. On constate que la masse du noyau n’est pas la somme des masses de ses constituants :

En particulier, si les vitesses ne sont pas trop élevées, les facteurs gamma sont proches de 1. Et on a : Comme U est négatif, on voit que la masse totale est inférieure à la masse de chaque composant. Cette différence (n’oublions pas que U est négatif) est appelée défaut de masse. Dans les noyaux, l’énergie de liaison U étant très élevée, ce défaut de masse n’est pas négligeable et est tout à fait mesurable. Pour les électrons liés au noyau, on a aussi un phénomène semblable mais l’énergie de liaison U est beaucoup plus faible, comme nous l’avons vu, et le défaut de masse est tout à fait négligeable. Dans les réactions nucléaires, après réarrangement des nucléons, l’énergie libérée (par exemple par la fission nucléaire dans un réacteur nucléaire) est donnée par le défaut de masse = , énergie considérable.

Système à deux photons Considérons un système particulièrement frappant. Soit deux photons de même énergie, se dirigeant dans la même direction mais dans des sens opposés.

Le centre est situé à distance des deux photons. Il est facile de voir qu’il reste toujours au même endroit puisque les deux photons vont à la même vitesse. On sait qu’un photon n’est jamais au repos. Mais si on considère l’ensemble des deux photons comme un tout, le centre est immobile, et on peut donc considérer cet ensemble comme au repos. On peut lui appliquer la formule . Appelons l’énergie de chaque photon. Comme il

n’y a pas d’interaction entre les deux, il n’y a pas de liaison et U = 0. On a donc :

Soit :

C’est-à-dire que la masse de l’ensemble est non nulle même si les photons eux sont sans masse ! Notons que si on a un électron et un positron de masses qui se désintègrent en deux

photons, on a aussi m égal la somme des masses des deux particules. Cela signifie que la masse totale est conservée. Les physiciens aiment bien les quantités constantes (qui ne varient pas), invariantes (identiques pour tout observateur) et conservées (elle n’est pas modifiée lors d’un processus physique). C’est le cas de la masse (l’énergie elle n’est pas invariante comme on peut le voir avec l’énergie cinétique : elle dépend de la vitesse et la vitesse dépend de l’observateur selon qu’il est lui-même en mouvement ou pas).

Curieusement, il n’est pas possible de définir une masse qui serait à la fois constante, invariante, conservée et additive. Il faut sacrifier une propriété et on a choisi de ne pas avoir une masse ayant la propriété additive (alors que c’est le cas pour l’énergie).

IV. La masse en relativité générale Nous n’allons pas présenter la relativité générale. Seul nous intéressera ici la discussion sur le principe d’équivalence qui permet de préciser le statut de la masse en relativité générale.

Expérience avec des cabines Considérons une cabine posée sur le sol.

On supposera cette cabine complètement fermée. C’est-à-dire que notre petit personnage ne peut étudier les lois physiques que localement, dans le cadre de son environnement dans la cabine. Cet personnage a un poids P qui le tire vers le bas. Si celui-ci reste immobile c’est parce que le sol exerce sur une lui une force de résistance de même grandeur et dirigée vers le haut. Les deux forces se compensent et il reste immobile. Ceci est d’ailleurs une conséquence du principe de l’action et de la réaction (troisième loi de Newton) qui dit que si A exerce une force F sur B, alors B exerce une force –F sur A. Nous avons déjà eu une occurrence de cela avec la gravité. Si un ballon (boule grise) est lâché, celui-ci tombe en chute libre vers le bas. Et si une balle de fusil traverse la cabine, elle subit une trajectoire légèrement incurvée à cause de son poids qui la fait tomber vers le bas. Considérons maintenant la même cabine mais loin dans l’espace, très loin, hors de toute influence notable de la gravité. Attachons une fusée au bas de la cabine afin de l’accélérer vers le haut.

On choisir une accélération a identique en grandeur à l’accélération g de la pesanteur. Le plancher va alors pousser le personnage vers le haut et il va être accéléré par la cabine. La force appliquée sera telle que F = ma. Mais on sait que pour le poids on a P = mg. Comme les deux accélérations sont égales, on a F = P. Le personnage ressent exactement la même sensation que lorsqu’il est au sol. Un ballon lâché va « tomber » vers le plancher aussi de manière accélérée simplement parce qu’ici, c’est la cabine qui rattrape le ballon. Et il en est de même de la balle fusil, le temps de son passage la cabine s’est déplacée et la trajectoire semble donc incurvée. En fait, le « semble » est même de trop. On est libre de prendre n’importe quel repère pour identifier les positions et mouvements des corps et si on prend un repère attaché à la cabine, les deux situations sont strictement équivalente au moins localement (dans la cabine).

Un autre cas On peut considérer un autre cas analogue. Soit la cabine loin dans l’espace mais sans fusée.

Dans ce cas, le personnage est en apesanteur, il flotte. De même le ballon. Et la balle n’étant ni déviée par la gravité ni rattrapée par la cabine se déplace en ligne droite. Mais on peut aussi considérer que cette cabine est près de la Terre mais en chute libre (en négligeant la résistance de l’air). A cause du principe d’équivalence (il intervenait aussi ci-dessus à travers le fait que l’accélération de pesanteur est la même pour tous), tous le contenu de la cabine tombe en même temps, à la même vitesse, et de l’intérieur de la cabine on ne peut pas faire la différence. Les situations physiques sont identiques. Un tel effet serait ressenti par quelqu’un prenant un ascenseur qui aurait le malheur de se décrocher. Pendant le bref instant de la chute libre, le passager serait en apesanteur. Cet effet est aussi ce que l’on ressent lorsqu’un wagonnet de montagne russe entame sa descente vertigineuse. Ce principe est utilisé par des avions en vol balistique qui coupent leur réacteur en pleine ascension et se retrouvent sur une trajectoire libre (sans force autre que la gravité). L’avion rallume ses réacteurs lors de sa redescente et avant, bien entendu, le crash au sol. Cela donne quelques minutes d’apesanteur mises à profit pour entraîner des astronautes, effectuer des mesures expérimentales ou même pour tourner un film (comme le film Apollo 13 avec Tom Hanks).

Principe d’équivalence fort Une telle identité des comportements semble difficile à admettre comme coïncidence. On peut alors affirmer (ce qui est un postulat) que les comportements identiques sont vraiment physiquement impossibles à distinguer localement. Cela revient à dire que masse pesante et masse inerte ne sont pas seulement identiques en valeur mais sont réellement une seule et même masse. C’est le principe d’équivalence fort. Notons qu’une fois cela établit et la gravité étant identique localement à un repère accéléré en absence de gravité, il devient possible de formuler la gravité de manière purement géométrique. Cela nécessite quelques outils sophistiqués car on doit voir recours à des espace-temps où les lignes les plus courtes ne sont plus des droites mais des courbes (espaces courbes comme, par exemple, la surface d’une sphère). En effet, si une accélération de la cabine est uniforme en tout point, la gravité elle varie selon le lieu (elle diminue avec l’altitude et de chaque côté de la Terre elle pointe dans des directions différentes), ce qui implique une équivalence globalement assez tortueuse. Dans cette optique, une trajectoire courbe comme celle de la balle de fusil est due à la forme courbe de l’espace-temps.

Notons que localement, il existe toujours un choix de repère tel que la relativité restreinte est d’application puisque l’on a localement équivalence entre gravité et accélération en l’absence de gravité (et en l’absence de gravité). Cela offre un outil privilégié pour la formulation de la relativité générale. C’est la formulation moderne du principe d’équivalence. Arrêtons ici avec la relativité générale.

La masse La conclusion est que dans ce cadre théorique, remarquablement vérifié à ce jour, il n’y a donc plus qu’une seule masse. En dehors de cette identification, le statut de la masse reste le même qu’en relativité restreinte ou en physique classique.

V. Le champ électromagnétique Pour arriver jusqu’à notre but final, comprendre la nature de la masse, il va falloir parcourir un chemin assez long à travers la théorie des champs. Il est donc utile de présenter le champ électromagnétique comme exemple (il jouera d’ailleurs un rôle important).

Champs électriques et magnétiques On trouve dans la nature des objets chargés électriquement ainsi que des aimants. Les charges électriques peuvent se classer en charges négatives et en charges positives. Les aimants possèdent un pôle nord et un pôle sud. Les charges électriques de même signe ainsi que les pôles de même nature se repoussent, tandis que ceux de signes opposés s’attirent. Ce phénomène se transmet par l’intermédiaire d’un champ, c’est-à-dire une grandeur prenant des valeurs en tout point de l’espace et pouvant varier autant dans l’espace que le temps. Les charges électriques sont la source du champ électrique et les aimants sont la source d’un champ magnétique. On peut aisément visualiser ces champs avec, par exemple, de la limaille de fer. Ces champs sont caractérisés par une intensité, en chaque point, mais aussi par une direction. Ce qu’on peut représenter par une flèche. A titre d’exemple, voici les champs électriques émis par des charges électriques :

Les charges électriques sont également sensibles aux champs électriques, ce qui explique les propriétés d’attraction et de répulsion. Voici par exemple les champs électriques lorsque l’on a deux charges :

Et voici le champ magnétique émit par un aimant :

L’important est que ces deux champs ne sont pas indépendants. Ainsi, une charge électrique en mouvement peut être déviée par un champ magnétique. De même, une charge électrique en mouvement crée non seulement un champ électrique mais aussi un champ magnétique. Mais il y a mieux. Imaginons une charge électrique immobile par rapport à nous. Ce que nous voyons (par diverses mesures) est un champ électrique émit par la charge et pas de champ magnétique. Maintenant, considérons toujours la même charge dans la même situation, mais c’est nous qui nous déplaçons. Dans ce cas, nous allons observer un champ électrique et un champ magnétique ! La forme du champ électrique ou magnétique dépend autant de sa source que de l’observateur. Cela montre que ces deux champs sont seulement les deux facettes d’un seul et même champ (plus complexe) appelé champ électromagnétique. Notons en passant que l’on obtient le même résultat avec une charge en mouvement ou avec un observateur en mouvement. Ce qui compte est la vitesse relative entre la charge et l’observateur. C’est une manifestation du principe de relativité. Notons que puisque ces champs sont caractérisés en chaque point par une intensité et une direction, on les représentes par des vecteurs (respectivement E et B pour les champs électriques et magnétiques) qui prennent une valeur en chaque point. Le formalisme associant les deux, le champ électromagnétique, est un peu plus compliqué.

Théorie de Maxwell Maxwell, au dix-neuvième siècle, réussi à réunir l’ensemble des propriétés et lois décrivant les phénomènes électriques et magnétiques en un tout cohérent et élégant. L’ensemble tient en cinq équations (après les remaniements de ses successeurs dont Heaviside). Quatre équations décrivent les comportements des champs en fonction des sources (charges, aimants,…) et donnent leur variation dans l’espace et le temps et une équation décrit comment une charge électrique est influencée par le champ électromagnétique. Ce sont les quatre premières équations qui vont nous intéresser. Inutile d’entrer dans le détail ni même de présenter chacune des équations. Les résultats nous suffirons. Disons juste que ces équations sont très largement validées par l’expérience, dans tous les domaines et avec une très grande précision. Elles sont à la base du fonctionnement des télécommunications, des moteurs électriques, des dynamos et alternateurs, des transformateurs et de bien d’autres dispositifs. Signalons juste qu’on peut séparer les équations en deux groupes :

- Deux équations décrivant comment les champs sont reliés aux sources (charges et courants électriques).

- Deux équations décrivant comment les champs sont liés entre eux, indépendamment des sources.

Ondes électromagnétiques Les équations de Maxwell admettent des solutions sous forme d’ondes électromagnétiques qui se propagent. Dans ces ondes les champs électriques et magnétiques ont cet aspect :

La lumière n’est rien d’autre qu’une onde électromagnétique. Il en est de même de bien d’autres phénomènes tel que les ondes radios et les rayons X. La seule différence entre ces ondes est la longueur d’onde (ou la fréquence d’oscillations).

Un point important est à préciser. Contrairement à ce que pourrait laisser croire le dessin de l’onde électromagnétique, il n’y a aucune oscillation latérale de l’onde. Les flèches transversales représentent seulement la direction des champs électriques et magnétiques sur la ligne de propagation de l’onde et l’oscillation qui est représentée est seulement la variation de l’intensité des champs électriques et magnétiques en ces points. Il n’y a donc aucune vibration. L’onde électromagnétique est un champ électromagnétique qui se propage avec des valeurs variant périodiquement des champs électriques et magnétiques.

Potentiel électromagnétique Les équations de Maxwell permettent une simplification importante. Il est possible de définir un potentiel électromagnétique décrit par un potentiel vecteur, noté A, et un potentiel scalaire , noté U. Comme nos champs électriques et magnétiques, ils prennent une valeur en chaque point.

On peut alors décrire des formules donnant le champ électrique et le champ magnétique en fonction des potentiels. Les deux dernières équations de Maxwell sont alors automatiquement satisfaites. Cette formulation avec le potentiel est donc formellement équivalente, rien de physique n’en ressort à ce stade. Toutefois il présente des avantages :

Au lieu d’avoir deux champs, on n’en a plus qu’un (les deux potentiels se marient élégamment en relativité car le potentiel vecteur devient les composantes spatiales et le potentiel scalaire la composante temporelle d’un seul champ).

Le formalisme ainsi obtenu est explicitement relativiste car les champs E et B eux ne sont pas des invariants en relativité, changer d’observateur change un champ en l’autre champ.

Il n’y a plus que deux équations de Maxwell, celles avec les sources. Elles sont particulièrement compactes avec le formalisme de la relativité (elles s’expriment avec une seule équation très courte).

Jauge Il reste ce qu’on appelle un arbitraire de jauge. C’est-à-dire que plusieurs potentiels sont possibles pour avoir les mêmes champs électriques et magnétiques. Comme ce sont ces derniers qui ont une signification physique (c’est eux que l’on mesure), cet arbitraire n’a pas de conséquence physique. On peut faire un choix de potentiel bien précis en ajoutant une règle disant comment choisir ces potentiels. Cela s’appelle fixer la jauge ou faire un choix de jauge. Le nom « jauge » lui-même a des origines historiques. Plusieurs choix sont possibles. Chaque choix ayant ses avantages et inconvénients. Citons deux jauges assez communes.

La jauge de Coulomb. Elle consiste à choisir U = 0, tout simplement. Son avantage est que dans le cas où les charges électriques sont immobiles (charges statiques) dans le repère considéré, les équations se simplifient considérablement. Son désavantage est qu’elle fait disparaitre la forme explicitement relativiste. Notons que la théorie respecte toujours la relativité, c’est juste plus difficile à voir.

La jauge de Lorentz. Elle consiste à fixer une règle sur A et U, sous forme d’une relation mathématique, qui a une forme manifestement relativiste, d’où son avantage. Dans cette jauge les calculs peuvent parfois être plus simples, parfois plus compliqués. Il reste de plus un tout petit arbitraire de jauge mais généralement sans que cela entraîne de complications.

VI. La mécanique quantique La mécanique quantique est la théorie qui s’applique aux atomes et aux particules élémentaires. En

toute rigueur, elle s’applique à toutes les situations, y compris par exemple le lancer d’une balle de

golf. Mais les corrections infimes apportées par la mécanique quantique à ce genre de cas et la

difficulté des équations rendent inutile son usage et l’on préfère alors utiliser les théories

« classiques » (mécanique classique, hydrodynamique, etc.) Elle est malgré tout utilisée dans certains

cas complexes tel que la chimie ou des objets macroscopiques (superfluides, supraconducteurs,

ferromagnétisme, …) à l’aide de la physique statistique ou d’outils mathématiques particuliers.

La mécanique quantique est une théorie très puissante. C’est la théorie la mieux vérifiée de toutes

les théories, dans tous les domaines (sauf la gravité) et toutes les expériences, avec une précision

exceptionnelle. Elle explique nombre de phénomènes : les atomes, le magnétisme, la chimie, le laser,

etc. La liste est longue.

On ne va pas tout présenter en détail, loin de là. On va expliquer un minimum pour comprendre

l’essentiel des bases (ce sera déjà assez costaud comme ça). De même, on ne verra pas toutes les

subtilités, propriétés, mystères et aspects parfois intriguant. C’est intéressant mais trop vaste pour

cette petite étude sur la masse.

Rappelons brièvement les bases mathématiques de la mécanique quantique.

Un système a un état décrit par un vecteur dans un espace de Hilbert H complexe, il sera noté typiquement comme .

Les variables physiques sont des opérateurs agissant sur les vecteurs d’état.

Les variables mesurables (les observables) sont des opérateurs hermitiques, c’est-à-dire tel que .

Les valeurs prises par les variables sont le spectre des valeurs propres de l’opérateur (ces valeurs sont réelles pour les observables). Les

seules valeurs mesurables sont ces valeurs.

L’espace de Hilbert étant un espace vectoriel, on peut définir différentes bases, totalement équivalentes. Par exemple les bases (ou bases

d’un sous-espace) positions, impulsions, spins, énergie, etc.

Le passage d’une base à l’autre s’effectue par une transformation unitaire U (avec ).

Le commutateur de deux opérateurs est : [ ] .

Pour la quantification, on part de l’hamiltonien classique (au moins quand il existe) et on obtient l’hamiltonien quantique après

symétrisation (du type ab+ba) et remplacement des variables par des opérateurs. On impose entre valeurs conjuguées la relation

[ ] où est la constante de Planck divisée par .C’est suffisant pour résoudre tout problème typique.

L’évolution dans le temps peut adopter plusieurs point de vue : ce sont les états qui varient (Schrödinger), ou les observables (Heisenberg)

ou des cas mixtes (représentation interaction). On passe de l’un à l’autre par une transformation unitaire (qui ne correspond pas à un

changement de base). Par exemple, dans le point de vue de Heisenberg, l’équation d’évolution d’un opérateur O est donné par :

[ ]

Qui a l’avantage de mettre clairement en évidence les grandeurs constantes et le rapport à la physique classique (équation d’évolution dans

l’espace des phases utilisant les crochets de Poisson).

Dans le point de vue de Schrödinger, on a :

On travaille souvent dans la base position, dans ce cas les composantes d’un état s’obtiennent par le produit scalaire (complexe) ⟨ ⟩ où

est la base position. On peut écrire ce produit scalaire comme une fonction de la position : ( ) appelé fonction d’onde. Pour

une particule de masse m soumise à un potentiel V, l’équation de Schrödinger prend la forme :

Elle peut être utilisée, par exemple, pour calculer les fonctions d’ondes et les niveaux d’énergie (valeurs propres de l’hamiltonien) d’un

électron dans le potentiel coulombien d’un noyau (cas typique de l’hydrogène).

Mécanique quantique ondulatoire Une représentation typique des particules quantiques (électrons, photons,…) est sous forme d’ondes.

Cela peut sembler étrange aux néophytes, qui auraient tendance à voir un électron comme une

petite bille, mais la représentation sous forme d’ondes est bien plus proche de la réalité.

Comme exemple, citons juste l’expérience de Young :

Dans cette expérience, on envoie des vagues à travers deux ouvertures. Lorsque le creux d’une vague

passant par une ouverture rencontre la basse d’une vague passant par l’autre ouverture, on obtient

ce qu’on appelle une interférence : le niveau de l’eau s’égalise. On observe ainsi une figure

d’interférences typique qui peut servir, par exemple, à calculer la longueur d’onde.

Cette expérience peut être réalisée avec de la lumière (ayant une longueur d’onde bien précise, avec

un laser), le résultat est semblable. Cela montre le caractère ondulatoire indubitable des ondes

électromagnétiques.

Mais l’expérience peut aussi être réalisée avec des électrons.

Une figure d’interférences est aussi observée. Cela montre que les électrons ont un caractère

ondulatoire.

Il y a tout de même une différence typique par rapport aux vagues. Les impacts sur la cible sont

ponctuels. Les électrons se comportent aussi, tout au moins lors de l’interaction avec la cible, comme

de petits corpuscules. Mais cela ne concerne que l’interaction, pour l’essentiel l’électron se

comportant bien comme une onde.

Notons que ces impacts ponctuels s’observent aussi avec la lumière si on utilise une lumière

suffisamment faible pour avoir un photon à la fois.

L’expérience montre aussi qu’il y a une correspondance univoque entre l’énergie de la particule et sa

fréquence : où est la fréquence et h la constante de Planck. C’est Planck avec l’émission du

corps noir puis Einstein avec l’effet photoélectrique (électrons arrachés d’un métal par de la lumière

ultraviolette) qui ont découvert cette relation avec la lumière, montrant son caractère corpusculaire

(petits paquets d’ondes d’énergie bien définie).

Il existe aussi une relation univoque entre la longueur d’onde et l’impulsion de la particule (pour une

particule massive comme l’électron, c’est la masse fois la vitesse). C’est Louis de Broglie qui a

découvert cette relation.

Notons que ces relations ainsi que le caractère ondulatoire des électrons sont utilisés couramment

dans divers dispositifs comme, par exemple, les microscopes électroniques.

Principe d’indétermination L’onde correspondant à l’électron est généralement appelée fonction d’onde. Une représentation

d’un électron localisé dans une petite région de l’espace peut être le paquet d’ondes :

La particule (le paquet d’ondes) a une certaine largeur que l’on peut noter qui représente aussi

une certaine incertitude sur la position de la particule puisque cette position n’est pas tout à fait

précise.

De plus, il ne s’agit pas d’une onde sinusoïdale. Les lois mathématiques sur les ondes montrent que la

longueur d’onde a aussi une certaine incertitude . Les deux étant lié par :

Et ce quel que soit la forme du paquet d’ondes.

Puisque l’on peut relier la longueur d’onde à l’impulsion, la masse fois la vitesse, on trouve :

Où h est la constante de Planck.

On voit que la position et la vitesse ne peuvent pas être infiniment précis simultanément. Il y a

forcément une certaine incertitude. Notons aussi que cette incertitude minimale est fort petite car la

constante de Planck est minuscule. Ce n’est que pour des objets ayant une masse m très petite que

cette incertitude devient appréciable (des électrons, par exemple).

Cette relation est appelée relation d’indetermination de Heisenberg. On peut la vérifier

expérimentalement de toutes sortes de manière. Elle est parfois vue comme un effet de la mesure,

les particules quantiques étant tellement légère que la moindre perturbation modifie leur position et

leur vitesse. Il est vrai que des expériences de pensée impliquant toutes sortes de dispositifs

ingénieux et tenant compte de ces perturbations conduisent à ces relations. Mais en réalité cette

indétermination est plus fondamentale qu’une simple incertitude de mesure et est liée à la nature

ondulatoire des particules.

Ce phénomène a fait couler beaucoup d’encre et il a même semblé insupportable à certains (dont

Einstein) au début de la mécanique quantique, et même encore maintenant pour quelques

irréductibles. Les débats sur ce « principe d’incertitude » sont souvent interminables. Pourtant, vu

sous l’angle ondulatoire, il n’est pas si mystérieux.

On peut montrer qu’il existe d’autres principes d’indétermination. L’un fort important est le suivant. Considérons un processus changeant d’énergie, E, en un temps t. Il y a là aussi une certaine incertitude sur les valeurs que l’on notre et . Alors on doit avoir :

Cette relation peut aussi se démontrer avec les propriétés ondulatoires du paquet d’ondes, avec le rapport entre fréquence de l’onde et durée du paquet. Attention, cela ne signifie pas que l’énergie devient imprécise. Elle est simplement comme les autres grandeurs en mécanique quantique.

Description par les états L’explication ondulatoire a toutefois ses limites car les particules quantiques ne sont pas des ondes

classiques. Plusieurs aspects les en distinguent. Citons les deux principaux :

On l’a vu plus haut, les interactions entre particules (électrons et cibles ci-dessus) sont

ponctuelles. Ce n’est pas du tout comme ça que réagissent des ondes classiques comme les

vagues ou le son où l’effet de l’onde est répartit tout le long du front d’onde (par exemple la

trace mouillée très étendue d’une vague sur le sable).

Lorsque l’on a deux particules, la théorie nécessite de les décrire comme un tout. Il faut donc

une onde décrite par sept paramètres : six variables positions (trois par particules) plus le

temps. Alors qu’une onde classique a une valeur qui ne dépend que de quatre paramètres

(trois de position et une de temps). En règle générale, il n’est pas possible de décomposer

l’onde quantique totale en une somme ou un produit ou une quelconque relation

mathématique générale de deux ondes classiques.

Il est donc utile d’introduire un autre formalisme. Nous allons le présenter ici mais sans entrer dans

les aspects mathématiques qui ne seront pas nécessaires. Ce formalisme a l’avantage aussi d’être

fort parlant et intuitif.

Considérons un système physique quelconque : une particule, un atome, un caillou, … Celui-ci peut

être dans différents états que l’on peut caractériser par un certain nombre de variables tel que

position, vitesse, etc. Nous représenterons l’ensemble de ces variables par α. L’état physique du

système s’écrit symboliquement : appelé un ket. Peu importe sa signification mathématique,

c’est avant tout une représentation simple et commode.

Parfois, seules certaines variables nous intéressent. Par exemple, si la particule est à la position x, on

écrira son état , en ignorant volontairement le détail des autres variables comme la vitesse, par

exemple.

Une particularité de ces états est qu’ils sont soumis au principe de superposition. Par exemple, si

l’état est une solution possible pour l’état d’un système dans une situation donnée, et si

est une autre possibilité, alors la somme est aussi une solution possible.

Comment interpréter cette solution ? Prenons un exemple. Soit une particule qui peut se trouver en

ou bien en , alors elle peut être dans les états ou indiquant que la particule est à la

position précise concernée. Mais l’état est aussi une possibilité. Cet état signifie que la

particule peut être aussi bien en qu’en . Cela ne signifie pas que sa position est précise mais

inconnue. C’est plutôt comme si la particule était aux deux endroits en même temps !

Ce caractère ubiquitaire des particules peut sembler extrêmement étrange. Il l’est beaucoup moins

après ce que nous avons vu ci-dessus. Nous savons que la position peut être imprécise et qu’il s’agit

d’une caractéristique fondamentale de la particule. Si on la représente comme une onde, on aurait

une représentation pour cet état comme suit :

Notons que les ondes aussi sont soumises au principe de superposition. Quand deux ondes sont deux

solutions possibles d’une équation des ondes, leur somme est aussi une solution possible.

Supposons que l’on ait une particule dans l’état , on aimerait savoir si dans cet état on peut la

trouver à la position x ou bien si on peut la trouver avec une vitesse v. On écrira ça comme, par

exemple :

⟨ ⟩

Peu importe sa signification mathématique. On peut le traduire par « c’est la possibilité que la

particule dans l’état soit aussi dans l’état », c’est-à-dire que la particule avec les propriétés

α soit à la position x. On traduit cela par le terme amplitude, c’est l’amplitude que la particule soit

dans l’état demandé.

L’ensemble de tous les états possibles forme un espace mathématique aux propriétés assez simples.

Il permet en particulier de choisir des bases d’états qui d’une certaine manière couvrent toutes les

possibilités.

Un exemple est la base position : c’est l’ensemble des états pour toutes les positions x

possibles.

Notons que, puisque ces états décrivent des situations de « position x précise », alors :

⟨ ⟩

La particule ayant une position x précise est évidemment trouvée en x.

Et :

⟨ ⟩

(pour des positions différentes)

La particule ayant une position x précise ne sera évidemment pas à un autre endroit.

Revenons à notre particule décrite par . On aura, pour toute position x, une

valeur ⟨ ⟩ sauf dans deux cas :

⟨ ⟩ ⟨ ⟩ ⟨ ⟩

Et

⟨ ⟩

C’est-à-dire que la particule a autant de chance d’être dans une des deux positions. En fait, pour être

exact on devrait écrire ½ (une chance sur deux) mais nous ferons le lien avec les probabilités plus

bas. D’ailleurs mathématiquement on n’a ni 1 ni ½, mais peu importe. Ce qui compte ici c’est que les

deux positions donnent des résultats identiques.

Tout état peut se décrire comme une superposition des états de base :

En disant qu’elle peut être en x, en y, en z, etc… C’est dans ce sens que la base couvre toute les

possibilités.

Notons que cette gymnastique n’est pas inutile. Il est plus facile de travailler uniquement avec les

états de base, bien définis et peu nombreux, que sur l’infinie possibilité de tous les états possibles.

Il est également possible de choisir d’autres bases, par exemple la base des vitesses précises .

Toutes les bases sont équivalentes d’un point de vue mathématique. On passe aisément de l’une à

l’autre par des opérations mathématiques élémentaires. On peut choisir toute base qui s’avère

pratique pour les raisonnements. Notons juste que ⟨ ⟩ ne peut pas être non nul pour une seule

position précise, à cause du principe d’indétermination.

Pour terminer cette petite excursion élémentaire dans les notations et leur usage, notons que l’on

notre traditionnellement :

( ) ⟨ ⟩

Qui est juste une autre notation. On l’appelle fonction d’onde, un terme que vous avez sûrement

déjà entendu.

On peut aussi montrer qu’il y a une équivalence mathématique totale entre la représentation sous

forme de ket (aussi appelés vecteurs d’état) et la représentation ondulatoire (non classique) avec la

fonction d’onde.

Pour les explications, les deux sont parfois utiles. On peut aisément passer de l’une à l’autre.

Mais attention en raisonnant, car sans connaitre le formalisme mathématique rigoureux caché

derrière il peut être impossible de voir pourquoi tel ou tel raisonnement est correct et tel autre

complètement erroné. Une connaissance vulgarisée permet de comprendre certain aspects mais

n’offre pas la moindre aide pour bâtir ses propres raisonnements, ce n’est qu’une traduction

grossière d’un raisonnement mathématique rigoureux. C’est une faute très fréquente chez le

néophyte qui, en plus, n’est même pas armé pour découvrir par lui-même qu’il commet une telle

faute. Vous voilà prévenu, aussi décevant que cela puisse être. Aller au-delà d’une simple

compréhension « superficielle » nécessite un travail certain impliquant d’absorber des connaissances

mathématiques.

Revenons au cas de l’énergie. Pour un système S quelconque, il y a une série d’états correspondant à

des énergies précises : , , etc. Formant là aussi une base (la base énergie). Et un état

quelconque peut être dans une superposition quantique d’états d’énergie différente.

Selon les systèmes, on peut avoir une série d’énergies bien séparées (spectre discret), toutes les

valeurs possibles (spectre continu) ou une partie des valeurs discrètes et une partie continue.

Ces états d’énergie bien définie ont une particularité : ils sont « stables » c’est-à-dire qu’ils ne varient

pas au cours du temps (en dehors de l’oscillation de l’onde). Ils sont donc aussi « éternels » (ce qui en

pratique n’arrive jamais vraiment, mais un état peut être de durée très longue).

Pour un état de courte durée, on a forcément une superposition d’états d’énergie différente. C’est

de là que vient le principe d’indétermination de l’énergie.

Evolution et mesure On peut écrire une équation d’évolution pour la particule qui n’est autre qu’une équation d’ondes.

Quoi d’étonnant ? Ecrivons là sous une forme simplifiée :

Ici représente la variation de l’état au cours du temps. H est appelé hamiltonien du système. Il

contient sa description physique permettant de calculer son évolution et il a même un lien important

avec l’énergie.

La seule chose qui nous importe ici est que cette équation est linéaire (on dit même unitaire qui a

une signification plus forte mais dont nous n’avons pas vraiment besoin ici). Cela signifie qu’elle

respecte le principe de superposition. Si on a une autre solution de la même équation :

Alors on a aussi :

( ) ( )

Cette propriété que l’on prouve mathématiquement (ce qui est élémentaire) est à mettre en

parallèle avec ce que nous avons dit sur le principe de superposition.

Supposons que notre particule soit dans l’état avec diverses possibilités pour sa position : x, y,

z,… Que se passe-t-il si on mesure sa position ? Dans ce cas, le postulat de probabilité de Born dit

que l’on aura une certaine probabilité de la trouver en x, en y ou en z. Cette probabilité est reliée à

l’amplitude (peu importe comment, le lien n’est pas trivial, ce qui compte c’est que si l’amplitude est

grande, la probabilité aussi).

De plus, la somme des probabilités pour toutes les possibilités doit être égale à un (cent pour cent de

chance de la trouver quelque part). Par exemple, avec notre particule à deux endroits, on aura une

chance sur deux (1/2) de la trouver en l’une ou l’autre position. D’autres valeurs sont évidemment

possibles, par exemple 1/4 et 3/4.

Supposons maintenant que je mesure la position de la particule dans l’état et que je la trouve à

la position x. Dans ce cas, nous savons maintenant avec certitude qu’elle est en x : c’est là que nous

l’avons trouvé. Son état peut donc être décrit par . On dit que l’état de la particule s’est réduit à

un état plus précis (pour la variable concernée). On parle de réduction du vecteur d’état ou de

réduction de la fonction d’onde. C’est le postulat de réduction.

Bien qu’il semble que nous ayons déduit clairement ce résultat, il s’agit en fait bien d’une hypothèse supplémentaire. Après tout, le fait de savoir que la position est x n’exclut nullement d’autres possibilités. Que devient la masse dans tout ça. Elle intervient dans les équations, en particulier dans l’équation de Schrödinger décrivant l’évolution de l’état du système. Le statut de la masse, sa nature, sa signification, est la même qu’en physique classique ou qu’en relativité restreinte (pour la formulation relativiste de la mécanique quantique).

VII. La théorie quantique des champs

VII.1. La quantification du champ Le défaut de la mécanique quantique tel que nous l’avons vue jusqu’ici c’est qu’elle ne décrit que des systèmes avec un nombre bien déterminé de particules. Or, l’expérience montre que des particules peuvent être créées ou détruites dans divers processus. Ce phénomène est particulièrement flagrant avec la lumière, les photons, car une simple lampe électrique produit un flot ininterrompu de photons qui clairement ne sont pas présent initialement dans l’ampoule, leur énergie correspond d’ailleurs à l’énergie apportée à l’ampoule et non à une « baisse d’énergie » de l’ampoule qui perdrait des photons préexistants. L’expérience montre aussi la création de particules dans d’autres phénomènes (plus énergétiques) tel que la radioactivité ou des collisions violentes entre particules. Ce phénomène n’est pas très étonnant à cause de la relativité. Celle-ci établit une équivalence entre masse et énergie : . Il n’est donc pas surprenant qu’en présence d’énergie suffisante, une particule de masse puisse être produite. Avec les photons c’est encore plus facile puisque la lumière n’a même pas de masse. Il faut donc trouver un moyen de décrire des systèmes comportant un nombre quelconque et variable de particules. La solution est la quantification du champ. Elle consiste à considérer un système non plus constitué d’une particule mais d’un champ et de lui appliquer les méthodes quantiques que nous avons vues. Dans ce cas, les excitations du champ sont quantifiées et deviennent les particules, en nombre variable (nombre variables d’excitations du champ).

Cette approche est assez évidente pour le champ électromagnétique puisque au départ l’objet fondamental est déjà un champ. Dans le cas des électrons, il n’y a pas d’équivalent en physique classique. Mais nous avons déjà une description d’un électron seul. On part alors de la fonction d’onde de cet électron (décrite par l’équation de Dirac qui est la version relativiste de l’équation de Schrödinger) et on considère cette fonction d’onde non plus comme une description quantique mais comme un champ classique. Ensuite, on peut quantifier ce champ. C’est cette approche qui a parfois fait appeler la procédure seconde quantification puisque l’on part d’une équation quantique, mais cette appellation est impropre car on effectue la quantification qu’une seule fois, le champ de Dirac étant ici considéré comme classique, non quantique. Voyons cela d’un peu plus près.

L’oscillateur harmonique Le cas d’un oscillateur harmonique est celui d’un système ou la force de rappel est proportionnel à la distance. C’est le cas d’un ressort idéal (un peu comme celui de notre dynamomètre) dont la longueur (ou plutôt l’écart à la position d’équilibre) est proportionnel à la force. La résolution des équations d’un tel système, en physique classique, montre que les solutions sont des oscillations de fréquence bien déterminée (qui dépend du système, par exemple la raideur et la masse du ressort) d’amplitude quelconque. On peut alors passer à la description quantique de ce système. On constate alors que les vibrations ne peuvent plus être quelconques. L’énergie de l’oscillateur est :

(

)

Où h est la constante de Planck et n un nombre entier prenant des valeurs 0, 1, 2, … Le spectre d’énergie de l’oscillateur est alors très simple :

Un point intéressant est que l’état de base (l’état d’énergie minimale) a pour énergie :

Cette énergie n’est donc pas nulle. C’est une conséquence du principe d’indétermination. Le ressort -(par exemple) ne peut jamais être totalement au repos car il aurait alors une longueur (équilibre) et une vitesse (zéro) parfaitement déterminée, ce qui n’est pas possible en mécanique quantique. Prenons l’état de l’oscillateur dans le nième niveau d’énergie . On peut écrire des opérateurs appelés opérateur de création et opérateur de destruction ( et a) qui agissent sur un état pour obtenir un état avec n différent. A ce stade ces opérateurs ne correspondent pas à quelque chose de physique, c’est juste une opération mathématique. On a : (à une constante de multiplication près sans importance pour nous ici). Ces opérateurs ajoutent ou soustraient donc un quantum d’énergie au système. On peut donc s’en servir pour décrire des opérateurs ayant une signification physique et permettant de modifier l’état de l’oscillateur. Par exemple, l’opérateur qui donne l’énergie d’un état (appelé hamiltonien) s’écrit très simplement comme :

Champs libres Revenons à notre champ. Les solutions classiques peuvent être des ondes. Nous l’avons vu avec les ondes électromagnétiques. Ces ondes peuvent être d’amplitudes et de fréquences quelconques. Pour chaque fréquence on peut considérer que c’est l’oscillation correspondant à un seul oscillateur de fréquence . Classiquement, cela revient à modéliser un champ comme une association d’une infinité de petits oscillateurs, comme des ressorts :

Sauf qu’ici, à cause des vibrations collectives de l’ensemble des ressorts, toutes les fréquences sont possibles. Mathématiquement cela revient donc à considérer le cas d’une infinité d’oscillateurs, un pour chaque fréquence d’oscillation d’une onde. La quantification devient alors évidente, c’est exactement comme ci-dessus mais pour une infinité d’oscillateurs de fréquences différentes.

Espace de Fock Quels sont les états possibles pour le champ quantifié ?

On peut pour cela partir des opérateurs de création et destruction que nous avons vu. Sauf qu’il y en a une paire pour chaque fréquence possible. Définissons d’abord l’état de base que nous appellerons le vide et que nous noterons . C’est l’état tel que , pour tout opérateur de destruction. On ne peut pas enlever d’énergie à cet état. Appliquons l’opérateur de création pour une fréquence, disons , et appliquons le fois. De même, appliquons l’opérateur de création pour fois, etc. L’état obtenu sera qui décrit un état avec quanta d’énergie , quanta d’énergie , etc. On dira que l’état contient particules d’énergie etc. L’ensemble de tous les états possibles forme ce que l’on appelle l’espace de Fock du champ. Notons qu’il faut aussi ajouter quelques détails supplémentaires que nous avons négligés : direction de l’onde / excitation / particule, d’éventuelles autres propriétés tel que la polarisation (direction du champ électrique pour une onde électromagnétique), etc. Nous avons atteint notre but, du moins la première étape. L’application de cette procédure au champ électromagnétique seul (sans charge électrique présente, d’om le nom de champ libre) donne le même résultat que ci-dessus, les particules étant appelées photons. La procédure appliquée au champ de Dirac donne deux sortes de particules, l’électron et le positron (identique à l’électron mais de charge positive, c’est un antiélectron ou particule d’antimatière). Notons que nous avons une difficulté. Quelle est l’énergie de l’état de base ? Nous avons vu que l’énergie d’un oscillateur n’était jamais zéro. Si on ajoute l’énergie d’une infinité d’oscillateurs, on obtient un résultat infini. Ce qui est évidemment problématique ! La solution est celle-ci. Ce que l’on n’observe ce n’est jamais l’énergie de l’état mais seulement ses variations, par l’ajout ou la suppression de quanta d’énergie bien définie . L’énergie du vide n’est donc pas directement observable. Il faudrait pour cela détruire le vide pour en récupérer l’énergie, ce qui semble plutôt difficile ! On prend alors la convention arbitraire de dire que l’énergie du vide est zéro. Tout simplement. Mathématiquement, cela revient à veiller dans les opérateurs à mettre l’opérateur de destruction à droite (avec une petite manipulation mathématique). Par exemple, l’opérateur énergie devient : Appliqué à l’état de base, il donne bien zéro. Dans le cas d’un champ, c’est la même relation mais on doit faire la somme sur toutes les fréquences (les opérateurs création destruction pour toutes les fréquences). Notons qu’il y a d’autres complications. Elles ne nous concernent pas ici, notre objectif c’est la masse, mais pour l’exemple, citons le cas du champ électromagnétique. Nous avons vu deux choses :

- Les ondes électromagnétiques sont transverses (champs E et B perpendiculaires à la propagation).

- Il existe un arbitraire de jauge.

On ne peut pas facilement fixer ici l’arbitraire de jauge. Le choix de la jauge de Coulomb fait disparaitre la forme relativiste (bien qu’une telle approche reste envisageable, elle s’appelle « électrodynamique quantique en jauge de Coulomb » et est surtout pratique à faible énergie). Et le choix de la jauge de Lorentz mène à une situation où la procédure de quantification ne marche plus (il y a violation du principe d’indétermination, inutile de creuser pourquoi ici). L’idée est alors de quantifier sans la jauge. Mais le résultat est étrange : on obtient quatre types de photons, deux photons transverses (les deux directions perpendiculaires), un photon longitudinal (correspondant à une onde vibrant dans le sens de propagation) et un photon scalaire (sans direction de vibration). Les deux derniers n’ont pas d’existence physique. De plus, les probabilités calculées avec les états peuvent être négatives ! Ce qui est absurde. On impose alors une condition aux états permettant de reproduire la jauge de Lorentz au moins en moyenne. On constate alors que les photons longitudinaux et scalaires disparaissent de toutes les formules représentant des quantités physiques et les probabilités redeviennent toutes positives. Cela illustre bien les difficultés mathématiques (que nous ne pouvons pas voir ici) qu’il faut surmonter.

Champs en interaction L’étape suivante est de considérer plusieurs champs en même temps. Nous savons par exemple qu’une charge électrique est la source d’un champ électromagnétique et que, de même, un champ électromagnétique influence le mouvement d’une charge électrique. Par conséquent il doit exister un couplage entre les deux. Ce couplage est connu à travers les équations de l’électromagnétisme classique. On peut donc prendre les équations des deux champs et leur adjoindre un terme supplémentaire décrivant le couplage entre les deux champs. Ce couplage est proportionnel à la charge électrique mais il est plus intéressant de faire apparaitre une constante de couplage ne dépendant pas des unités de mesure. Dans ce cas précis on obtient une constante appelée constante de structure fine qui vaut environ 0.01. On peut ensuite appliquer les procédures quantiques à ce résultat. Malheureusement, la situation est infiniment plus complexe et il n’est pas possible de donner des solutions directes aux équations. On est obligé de recourir à diverses approximations. Certains problèmes simples peuvent toutefois être abordés. Puisque les deux champs sont couplés (un peu comme si on avait deux chaines de ressorts, comme ci-dessus, parallèles, pour les deux champs, et reliées par de petites ficelles). Les excitations d’un champ vont avoir un effet sur l’autre champ. En effet, on vérifie sans peine que des excitations d’un des deux champs peuvent se transformer en excitations de l’autre champ. La seule règle étant que l’énergie totale reste conservée ainsi que la charge électrique totale. Avec ce que nous avons vu, nous savons que les excitations du champ ne sont rien d’autre que des particules. Ainsi se trouve traduit l’observation expérimentale que des particules peuvent être créées ou annihilées.

Certains cas simples permettent un traitement direct des calculs. Par exemple, lorsqu’une charge subit une accélération brutale, celle-ci émet un rayonnement appelé rayonnement de freinage ou bremsstrahlung. C’est en effet ce que le calcul montre.

Lorsque la particule subit une brusque accélération (par exemple suite à une collision avec une autre particule, comme un atome), elle émet un flot de photons. On peut calculer le spectre en énergie de ces photons et leurs directions. Le résultat correspond parfaitement à l’expérience. Notons qu’une chose curieuse est constatée. L’énergie totale émise est finie. Mais le nombre de photons est infini ! Ceci est dû au faut que le résultat donne un nombre arbitrairement grands de photons de trait faible énergie, arbitrairement petite, appelés photons mous. Comme les détecteurs sont insensibles à des photons de trop faible énergie (qui sont aussi de très grande longueur d’onde et un capteur doit au moins être égal à la moitié de la longueur d’onde pour réagir au passage de cette onde, c’est une limite d’origine ondulatoire), ce nombre infini de photons ne peut jamais être constaté. Il suffit dans le calcul de tenir compte de la résolution finie des appareils de mesure, ce qui coupe une partie de l’émission d’énergie totale très petite. Ce genre de phénomène, qui se traite sans difficulté, s’appelle divergence infrarouge (les rayons infrarouges ayant une plus grande longueur d’onde que la lumière visible, l’expression vient de là, bien que dans ce flot de photons mous ont aie aussi des longueurs d’onde encore plus grandes, dans le domaine des ondes radios).

VII.2. La théorie des perturbations

Développement perturbatif Une méthode de calcul approchée très efficace et d’ailleurs utilisée dans bien d’autres domaines est la méthode des perturbations. Le principe est le suivant. Supposons que l’on ait un phénomène physique décrit par une équation que l’on peut séparer en deux contributions : . Le terme H seul correspond à une situation où l’on sait résoudre les équations. P est un terme supplémentaire appelé perturbation. Et est un paramètre très petit. Dans ce cas, on peut élaborer une solution mathématique aux calculs qui est la suivante. La solution est donnée par la somme :

est la solution où l’on a H tout seul. est une solution plus compliquée mais que l’on sait calculer exactement à partir de et de P. Et ainsi de suite. Le paramètre étant petit, les coefficients , , , etc. deviennent de plus en plus petit jusqu’à devenir complètement négligeables. On peut alors arrêter cette somme infinie à quelques termes pour avoir une solution approchée aussi précise que l’on souhaite.

Cette méthode s’applique très bien ici car on a pour H le cas du champ libre, que l’on sait résoudre, P est le terme d’interaction entre les champs et est la constante de structure finie que l’on sait petite (0.01, donc , , etc.). La forme des équations quantiques reste malgré tout fort difficile, mais il y a heureusement un cas important où cette méthode s’applique très bien, c’est la théorie des collisions.

Théorie des collisions Considérons deux particules venant de loin, se heurtant, puis se séparant. Dans le processus, des particules peuvent éventuellement être détruites ou créées.

Avant la collision ainsi qu’après, on peut considérer que les particules sont largement séparées et que les interactions entre elles sont très faibles et même totalement négligeables. Par contre, le processus de collision peut être extrêmement complexe. Dans ce cas, il est possible d’utiliser la théorie des perturbations. L’état non perturbé est simplement la situation où il n’y a pas collision. Les particules se croisent et s’éloignent. On considère l’interaction comme une perturbation, et on calcule le processus comme plus haut. Si l’état du système (l’ensemble des particules) est noté au départ et à la fin, on sait parfaitement décrire ces états puisque ce sont des particules libres (des champs libres) que l’on connait parfaitement. La relation entre les deux s’écrit : La matrice S (c’est son nom) fait la liaison entre les états entrant et sortant. On peut calculer la matrice S à l’aide de la théorie des perturbations puis calculer l’état . Connaissant cet état, on peut alors calculer la probabilité d’avoir en sortie telles ou telles particules avec telle ou telle énergie et telle ou telle direction.

Traduction graphique Le calcul est fort complexe, mais il existe heureusement une traduction graphique de ce calcul. Chaque terme de la série perturbative va prendre une forme comme :

Ou des diagrammes plus simples ou plus complexes. Nous avons représenté les électrons et positrons par des lignes épaisses et les photons par des lignes fines. Ce diagramme est appelé diagramme de Feynman. Le premier terme de la série de perturbation est constitué de diagrammes en arbres comme par exemple :

C’est-à-dire de diagrammes sans boucle. Le deuxième terme est constitué de diagrammes avec une boucle. Par exemple :

Ou

Et ainsi de suite. Les diagrammes obéissent à des règles de construction précises ainsi que des règles permettant d’avoir une formule associée au graphe. Le calcul complet se fait en effectuant la somme sur tous les graphes possibles et en calculant le résultat de chaque graphe en fonction de toutes les valeurs possibles des paramètres tel que

l’énergie des lignes « internes » aux graphes (les lignes entrantes et sortantes étant les variables du problème fixées à l’avance). Les lignes internes sont appelées particules virtuelles. Les autres particules réelles. Leur appellation de virtuel ne vient pas d’un caractère mystérieux mais simplement du fait qu’elles sont créées et détruites dans le processus. Sinon ce sont des particules comme les autres. On prendra garde toutefois à donner un sens physique trop strict à ces diagrammes qui ne sont qu’une illustration commode du calcul. Elles ont toutefois un caractère intuitif indéniable et on peut concevoir le processus de collision comme une superposition quantique de tous les diagrammes possibles.

Convergence du calcul Pour chaque diagramme, le terme correspondant est proportionnel à la constante de couplage exposant le nombre de boucles (1, , , …) La constante de couplage étant 0.01, l’importance de ces termes diminuent très vite. On peut donc limiter le calcul au cas des diagrammes les plus simples, selon la précision demandée. Le nombre de diagrammes possibles augmente toutefois fort vite et un calcul complet va facilement de quelques diagrammes à plusieurs milliers. Les calculs deviennent vite extrêmement lourds et l’aide de l’informatique est bienvenue.

Portée des interactions Sans se lancer dans des calculs compliqués on peut déjà interpréter les résultats à partir du cas le plus simple, c’est-à-dire les diagrammes en arbre. Imaginons deux électrons s’approchant et échangeant juste un seul photon virtuel. C’est le diagramme que l’on a vu plus haut :

On peut ainsi dire que l’interaction à distance se fait par l’échange d’une particule transmettant cette interaction. Ce type de modèle simple a même été utilisé avant l’élaboration complète des calculs avec les diagrammes de Feynman. Ici le calcul montre que l’effet sur le processus sera une attraction ou une répulsion selon les signes des charges. On retrouve par cette méthode la loi classique de l’électromagnétisme (appelée loi de Coulomb). A quelle distance l’interaction entre les deux charges peut-elle avoir lieu ? Et comment se comporte la force d’interaction en fonction de la distance ? C’est ce qu’on appelle la portée des interactions. On peut estimer le résultat à partir d’un raisonnement fort simple avec des calculs aisés (que nous ne donnerons pas ici).

Si un photon apparait au niveau d’une charge, en vertu de la conservation de l’énergie, cela n’est possible que grâce au principe d’indétermination qui permet sur un intervalle de temps assez court d’avoir une certaine imprécision sur l’énergie.

Le photon, ou tout autre particule échangée, va parcourir une certaine distance r jusque l’autre charge. Elle peut le faire en un temps au mieux de r / c, c étant la vitesse de la lumière.

Cette durée minimale implique, via le principe d’indétermination énergie – temps, une certaine variation maximale temporaire de l’énergie, E.

La suite de l’histoire dépend du fait que la particule échangée a une masse ou pas. Ce qui nous intéresse au premier chef ici. Si la particule a une masse m, on a : L’énergie est donc au moins égale à , le reste se retrouvant dans l’impulsion p (on peut même affiner le calcul car l’impulsion donne la vitesse et donc une durée plus précise de parcourt jusqu’à l’autre charge).

Si l’énergie disponible par le principe d’indétermination est supérieur à (durée très courte, distance r très petite), alors il n’y a pas de problème.

Si l’énergie est plus faible (durée longue, distance r grande), alors la création de la particule n’est plus possible (en fait, le principe étant statistique, c’est encore possible mais avec une probabilité extrêmement faible).

Par contre, si la particule est sans masse, on a , et l’énergie peut être aussi petite que l’on veut, même pour une grande distance et une longue durée.

Evidemment, l’interaction sera d’autant plus intense que l’énergie de la particule est grande. A grande distance, l’énergie disponible est faible et donc l’interaction faible.

Un calcul précis (bien que cette méthode reste très approximative) montre que :

Pour une particule sans masse, comme le photon, la portée est infinie mais diminue comme . C’est exactement le comportement de la loi de Coulomb.

Pour une particule massive, l’intensité de la force diminue extrêmement vite avec la distance (exponentiellement) jusqu’à devenir totalement négligeable jusqu’à une certaine portée proportionnelle à 1 / m. Certaines interactions se comportent en effet comme cela, nous verrons ça un peu plus loin.

VII.3. La renormalisation

Divergences Dans les calculs qui précèdent, on rencontre la même difficulté qu’avec l’énergie du vide, c’est-à-dire que l’on trouve des valeurs infinies (malgré l’usage de l’ordre normal). C’est d’autant plus gênant que ces calculs ont pour but de calculer des probabilités et qu’une valeur infinie est totalement sans signification. Le problème vient des paramètres internes de graphes. On doit faire la somme sur toutes les énergies de particules virtuelles. Mais ces énergie peuvent varier de zéro à l’infini. Le résultat donne très facilement l’infini. En fait, la difficulté apparait déjà avec des diagrammes comportant une seule boucle.

Interprétation Comment interpréter un résultat aussi absurde ? Considérons un électron seul qui se propage sans contrainte. Si l’on calcule tous les graphes, on a quelque chose comme :

On a l’électron seul, l’électron plus un photon virtuel, l’électron avec deux photons virtuels, un photon virtuel se divisant lui-même en une parie virtuelle électron – positron, etc. etc. etc. Si l’on calcule le résultat, l’ensemble de ces diagrammes influent sur la masse apparente (masse effective). Le calcul donne en fait une masse infinie ! On parle de particule nue (l’électron seul, sans particule virtuelle) et de particule habillée (l’électron et son nuage de particules virtuelles autour de lui). Mais en réalité ce nuage de particules virtuelles ne disparait jamais. Il est là en permanence. Une particule nue est une vue de l’esprit. La décomposition en diagrammes avec des particules nues et des particules virtuelles n’est que la conséquence de la traduction graphique de notre procédure de calcul. L’électron physique, le seul qui existe, est l’électron habillé. Et on sait, par l’expérience, que la masse de cet électron n’est pas infinie. C’est ce nuage dans les calculs qui donne un résultat infini. Cela va nous donner un moyen de résoudre le problème. Simplement, en prenant le problème par l’autre bout : de la particule physique vers les particules nues.

Méthode de calcul

Régularisation

On commence d’abord par une régularisation. Cela consiste à rendre les résultats finis. Il existe plusieurs méthodes ayant des avantages et des inconvénients mais la plus simple à comprendre et de restreindre arbitrairement la somme sur les énergies des particules virtuelles à une valeur maximale . Cette valeur est totalement arbitraire, mais peu importe. Ce qui compte est d’avoir des valeurs finies ayant un sens mathématique et on éliminera à la fin des calculs.

Renormalisation

On effectue ensuite ce que l’on appelle la renormalisation. Cela consiste à « renormaliser » certaines grandeurs en considérant que la somme des diagramme est la grandeur réellement physique. Le calcul pour l’électron ci-dessus donne cette fois une valeur finie à la masse habillée, grâce à la régularisation. On sait que c’est la masse physique. On pose donc d’office cette valeur égale à la masse de l’électron qui a été mesurée. Techniquement, cela revient à dire (sans la régularisation) que c’est la masse nue qui est infinie et que le nuage de particules virtuelles donne au résultat final une valeur apparente finie. Diverses méthodes mathématiques permettent de construire ainsi un résultat fini pour les diagrammes. On fait ensuite disparaitre en laissant tendre sa valeur vers l’infini. On vérifie que le résultat final reste fini.

Théories renormalisables Tous les diagrammes à l’ordre d’une boucle sont infinis. On doit effectuer le calcul précédent pour chaque diagramme manifestant cette pathologie.

Il y a un inconvénient majeur à cette façon de faire : à chaque fois on doit introduire une grandeur mesurée et qui donc ne peut être prédite par la théorie. On impose le résultat. Comme il y a une infinité de diagrammes, cela rend la procédure douteuse. Heureusement, il y a des facilités. Ainsi, les diagrammes complexes sont eux-mêmes constitués de sous-diagrammes plus simples. Il peut arriver qu’en rendant fini quelques diagrammes simples cela conduise à des diagrammes finis dans tous les cas. C’est effectivement ce que l’on rencontre avec la théorie de l’électron et du photon. Il suffit simplement d’avoir deux quantités renormalisées : la masse de l’électron et la charge électrique de l’électron. On dit que la théorie est renormalisable. Et ça marche extraordinairement bien. Ainsi, avec ce procédé on a pu calculer et vérifier expérimentalement le moment magnétique dit « anomal » (sans r) de l’électron. Le résultat est d’une précision diabolique (jusqu’à 10 chiffres après la virgule). C’est le résultat le plus précis de toute l’histoire de la physique. C’est sans nul doute la théorie la plus efficace et la plus précise de tous les temps ! Et cela peut sembler étonnant après les efforts quelque peu artificiels que l’on a dû faire pour introduire ce qui ressemble assez à une recette de cuisine. La raison physique de cette difficulté est maintenant mieux comprise (à travers le « groupe de renormalisation » et les « phénomènes critiques », que nous ne verrons pas ici) mais il nous manque toujours une théorie évitant de recourir à la renormalisation, malgré des efforts importants.

Théories non renormalisables Si chaque fois que l’on ajoute une valeur mesurée il reste encore des diagrammes infinis, cela veut dire qu’il va falloir ajouter une infinité de constantes mesurées. La théorie ne prédit plus rien (ou presque) car on doit ajouter des résultats mesurés pour pratiquement tout calcul que l’on voudrait mener, cela va à l’encontre du but qui est de prédire les résultats et non pas de les mesurer et de les introduire exprès dans les calculs ! Nous n’aborderons pas cela ici, mais la gravité est un exemple d’interaction qui, en théorie quantique, conduit à une théorie non renormalisable. Toutes celles que nous verrons sont renormalisables. Mais cela est déjà gênant pour nous. La masse de l’électron n’est pas prédite mais mesurée et injectée exprès dans la théorie, comme paramètre imposé. Pourquoi la masse de l’électron a-t-elle cette valeur ? Nous allons y venir, mais pour cela il y a encore du chemin à parcourir.

VIII. Les théories des champs de jauge

VIII.1. Les interactions

Les interactions fondamentales L’expérience montre que l’ensemble de tous les phénomènes physiques connus peut s’expliquer à

partir de seulement quatre interactions fondamentales. Elles impliquent diverses particules que nous

présenterons de manière un peu plus synthétique après.

Gravitation

La gravitation est sans doute l’interaction la mieux connue du grand public puisque c’est celle qui

nous maintient au sol, fait tomber les pommes et permet aux planètes de tourner autour du Soleil.

C’est aussi et de loin l’interaction la plus faible. Elle ne devient dominante qu’aux grandes dimensions

suite au fait qu’elle est toujours attractive. L’accumulation de masse (générant la gravité) finit donc

par toujours surmonter toute autre interaction.

La faiblesse de la gravitation se constate aisément en soulevant un petit morceau de fer avec un

aimant. L’attraction de l’aimant est suffisante pour soulever le morceau de fer alors que celui-ci est

attiré par une planète toute entière.

La gravité diminue comme l’inverse du carré de la distance.

Electromagnétisme

Les interactions électromagnétiques sont dues aux charges électriques. Elles sont très communes et

se retrouvent aussi bien dans les aimants que l’électricité, la foudre, les ondes radios ou la lumière.

Elle est attractive entre charge électrique de signes opposés et répulsive entre charges de même

signe. Lorsque l'on a de grandes quantités de matière, les charges électriques positives et négatives

ont fortement tendance à être en quantités égales et à se neutraliser. Le moindre déséquilibre dans

les charges provoque une intense force attractive ou répulsive, déplaçant les charges et rétablissant

la neutralité. Un exemple typique est la charge électrique acquise par les nuages suite à divers

mécanismes dont les frottements des grains de glace avec l’air. Les nuages une fois trop chargés

perdent leur excès de charge par la foudre.

Les forces électromagnétiques diminuent aussi comme l’inverse du carré de la distance.

L’interaction est transmise par le photon, particule sans charge et sans masse.

Interaction faible

Les interactions faibles sont des interactions se produisant à l’échelle des particules élémentaires.

Elles sont responsables de certaines désintégration de particules donnant, par exemple, la

radioactivité bêta (émission d’électrons rapides par la matière radioactive).

La particule emblématique de cette interaction, qui est de loin la plus faible après la gravitation, est

le neutrino. Du fait que celui-ci est sans charge électrique (et également insensible à l’interaction

forte ci-dessous) le neutrino n’interagit que par la gravitation et l’interaction faible. Cela le rend très

peu sensible à la présence d’autres particules. Ainsi, sur les neutrinos émis par le Soleil (suite aux

réactions nucléaires en son sein), des milliards traversent votre corps le temps de la lecture de ces

lignes, et très peu seront arrêtés. La plupart traverseront la Terre entière comme si de rien n’était.

La désintégration du neutron suit un processus comme celui-ci :

Les processus liés à l’interaction faible sont « lent » (tout est relatif) par rapport aux processus impliquant l’électromagnétisme ou l’interaction forte. Le neutron a par exemple une durée de vie moyenne de vingt minutes. L’interaction faible a une portée extrêmement courte, elle n’agit quasiment que sur des distances de

l’ordre de la taille des particules élémentaires.

Les particules échangées responsables de l’interaction sont appelées bosons intermédiaires et sont

le boson Z neutre et le boson W chargé positivement ou négativement. Leur masse est extrêmement

élevée expliquant la portée très faible de l’interaction.

Interaction forte

L’interaction forte est la plus puissante des interactions. Elle n’est ressentie que par certaines

particules (les baryons). L’électron et le neutrino y sont insensibles. Mais les neutrons et les protons

y sont sensibles. Cela explique que le noyau d’un atome soit si compact malgré sa masse : c’est

l’interaction forte qui les maintient.

Les neutrons et protons sont composés de particules plus élémentaires appelées quarks. Ces quarks

interagissent par interaction forte via une charge non électrique appelée charge de couleur. Cette

couleur n’a évidemment rien à voir avec la couleur ordinaire. Ce nom a été choisi à cause de

l’analogie avec les mélanges de couleurs. Il y a trois types de charge de couleur et leur combinaison

donne une charge neutre (ou absence de charge), tout comme la combinaison de trois couleurs de

base donne du blanc. Le proton et le neutron sont composés de trois quarks avec trois couleurs

différentes.

Les particules échangées sont les gluons, particules sans masse mais portant elles aussi une charge de couleur. La combinaison de couleur est même plus complexe et il existe huit gluons colorés.

Théories asymptotiquement libre L’interaction forte doit son nom au fait que la constante de couplage est très élevée. En fait, la constante équivalente à est nettement supérieure à un. Cela implique que les termes dans le développement perturbatifs deviennent de plus en plus grand avec l’ordre de la perturbation, cela rend cette approche inefficace. Par conséquent les études de l’interaction forte nécessitent parfois l’usage d’autres techniques de calculs particulièrement complexes et lourds (pouvant nécessiter un temps de calcul considérable même sur un supercalculateur).

Mais l’interaction forte a aussi un comportement étonnant, qui ne peut s’expliquer avec le modèle simple que nous avons vu. Son intensité augmente avec la distance ! A contrario, à très haute énergie, lorsque les particules s’approchent extrêmement près dans des collisions très violentes, par exemple, l’intensité de l’interaction forte devient très faible. Cela permet d’appliquer la théorie des perturbations.

Confinement Du fait que l’intensité de l’interaction est élevée et d’autant plus grande que la distance est grande, on n’observe dans la nature que des particules de couleur neutre comme le proton ou le neutron. C’est ce que l’on appelle le confinement. Les quarks ne sont jamais libres et leur observation directe nécessite des collisions extrêmement forte avec des protons. Les calculs des états confinés étant à faible énergie, ils sont automatiquement très difficile même si l’usage de supercalculateur a permis des progrès sensibles. On peut toutefois utiliser une analyse intuitive.

Supposons que l’on veuille isoler des quarks. On leur applique une force pour les écarter. Mais plus ils s’éloignent, plus la force à appliquer est grande. Elle devient très vite gigantesque. Cette force peut être fournie, par exemple, par des impacts violents avec d’autres particules. L’énergie fournie ainsi (qu’on peut voir comme étant la valeur de la force fois la distance de déplacement, ou l’énergie apportée par les particules lors de la collision) fini par devenir tellement grande qu’elle permet la création de particules suivant . A travers l’influence de l’interaction forte, de nouvelles particules apparaissent (un peu comme un processus de désintégration, si ce n’est que le quark d’origine peut très bien subsister) et on se retrouve au final avec un ensemble de quarks avec une couleur globale neutre. La collision extrêmement violente ne produit pas de quark isolé mais à la place un flot de particules composites sans couleur dans lesquelles les quarks sont confinés.

Les quarks ne sont libres qu’un court instant en général dans un nuage de particules, quarks et gluons, extrêmement énergétique rendant l’interaction forte très faible. L’étude de ces milieux, appelés plasmas quarks – gluons ou boules de glu, a montré que leur propriété est celle d’un superfluide (fluide s’écoulant sans aucune viscosité).

Les forces nucléaires Considérons deux nucléons, par exemple un proton et un neutron formant le noyau d’un atome de deutérium. Comment ces deux nucléons sont-ils liés ? Quelles est la nature de la force les reliant ? Etant donné qu’ils sont de couleur neutre, il ne devrait pas y avoir d’interaction forte entre les deux. En réalité, l’interaction forte agit encore lorsqu’ils sont très près, les quarks de l’un et de l’autre s’approchant suffisamment. Toutefois l’échange de gluons n’est pas aisé car eux aussi portent une charge de couleur et sont confinés à l’intérieur des nucléons. Toutefois, l’échange de particule peut encore se faire mais avec des particules de charge de couleur neutre. La plus légère de ces particules est le méson pi composé d’un quark et d’un antiquark (leurs couleurs étant complémentaires, elles se neutralisent). Le méson pi étant massif (moins que les bosons intermédiaires mais plus que l’électron) la portée de ce qu’on appelle interaction nucléaire est faible, de l’ordre de la taille d’un ou deux nucléons.

VIII.2. Les particules Un petit récapitulatif des particules existantes n’est pas inutile, sans trop entrer toutefois dans le détail de leurs propriétés, ce n’est pas utile ici. Ces particules sont organisées en trois familles, chaque famille étant plus massive que la précédente avec des particules se désintégrant en particules plus légères. Nous donnerons les particules des trois familles. Il faut aussi ajouter les particules d’antimatière (mêmes particules, charges opposées). On utilise le même symbole pour la particule avec une barre au-dessus.

Leptons Les leptons sont des particules légères sensibles à l’interaction faible mais pas à l’interaction forte. On a les leptons chargés avec les trois familles suivantes :

Electron (e). Muon (parfois appelées électron lourd) ( ). Tau ( ).

A chacune de ces particules correspond un neutrino, de très faible masse et sans charge électrique :

Neutrino électronique ( ou ). Neutrino muonique ( ).

Neutrino tauique ( ).

Baryons Les baryons sont des particules massives sensibles à l’interaction faible et à l’interaction forte. Ce sont les quarks ou les particules composées de quarks. On a pour les trois familles de quarks :

Up (haut, u) et down (bas, d).

Strange (quark étrange, s) et charm (c). Bottom (beauté en français, b) et top (sommet, t).

Hadron Ils sont composés de trois quarks. Les deux plus légers sont les nucléons :

Proton (uud). Neutron (udd).

Mésons Ils sont composés d’un quark et d’un antiquark.

Le plus léger est le méson pi. Le est composé de la paire ( ). Le méson est son antiparticule ( ). Le méson pi neutre qui est sa propre antiparticule est une superposition quantique de et

.

Bosons Les particules se décomposent en deux grands groupes, les fermions (comme les leptons et les quarks) et les bosons. Les groupes paires de fermions donnent des bosons, les groupes impairs des fermions. Parmi les bosons élémentaires on trouve :

Photon ( ). Vecteur de l’interaction électromagnétique, sans charge ni masse. Bosons intermédiaires , , Z. Vecteurs de l’interaction faible. Très massif, portant une

charge faible et éventuellement une charge électrique. Gluons (g). Vecteurs de l’interaction forte, portant une charge de couleur et sans masse.

A ce tableau il faut ajouter le boson de Higgs que nous verrons plus tard lorsque nous serons armés pour comprendre son rôle dans la masse.

VIII.3. La masse des nucléons Les protons et neutrons étant des particules composites, de quoi se compose la masse de ces particules ? Il faut tout d’abord inclure la masse des trois quarks composant les nucléons. Mais le résultat est beaucoup trop petit et d’autres éléments doivent entrer en ligne de compte. Nous avons vu à propos des objets composites en relativité que les formes d’énergie entrant dans la structure jouent un rôle. Le calcul est très compliqué mais il a pu être mené à bien. Une partie de l’énergie est sous forme d’énergie cinétique des quarks et gluons dû à leur vitesse relativement élevée au sein du nucléon. Mais l’essentiel de l’énergie est due à l’interaction forte et sa grande intensité. L’énergie de liaison des trois quarks est grande et positive. Normalement, un édifice stable a toujours une énergie de liaison négative, diminuant l’énergie totale et assurant la stabilité de l’assemblage qui nécessite un apport d’énergie pour être brisé. Mais les quarks sont soumis au mécanisme du confinement qui les tient ensemble. Leur énergie de liaison peut donc être très grande et positive sans que cette énergie puisse aisément être libérée.

Les protons et les neutrons sont environ mille fois plus lourds que les électrons. L’essentiel de la masse de la matière vient donc de l’énergie de liaison due à l’interaction forte. Une partie du mystère de l’origine de la masse est donc maintenant levé. Mais il reste que les particules élémentaires qui ne sont pas des particules composites, comme les électrons et les quarks, ont eux aussi une masse. Et cette masse, même si elle n’entre pas pour une part importante dans le bilan complète, existe néanmoins. Elle joue même un rôle capital dans le cas de l’interaction faible et des processus de radioactivité et même dans les réactions nucléaires via la très faible portée de cette interaction due à la masse élevée des bosons intermédiaires. Et cette masse, à ce stade, nous est encore d’origine inconnue puisque, nous l’avons vu, la théorie ne permet pas son calcul.

VIII.4. Les symétries

Les différents types de symétrie Le mot symétrie a un sens beaucoup plus large en physique que dans le langage courant. Si l’on a

une transformation (mathématique) quelconque agissant sur les grandeurs d’un système physique

(positions et autres grandeurs) et si cette transformation laisse le système invariant (il continue à

évoluer de la même manière et être décrit par les mêmes équations) ont dit qu’il s’agit d’une

transformation de symétrie.

Un exemple est le déplacement. Si on déplace une horloge, les conditions extérieures restant les

mêmes, l’horloge continuera à fonctionner à son nouvel emplacement comme elle l’aurait fait de

l’ancien. On parle de symétrie par translation dans l’espace et plus généralement de

transformations géométriques.

On parle de symétries discrètes lorsque la transformation correspond à seulement un nombre fini de

cas. Par exemple, deux cas avec la symétrie gauche - droite.

Enfin, la transformation peut agir sur une grandeur interne au système, une grandeur qui caractérise

l’état du système mais qui n’est pas géométrique. On parle alors de symétries internes. Elles jouent

un rôle capital dans notre histoire sur la masse, alors voyons les d’un peu plus près.

Exemple de symétrie interne Les ondes sont caractérisées par une grandeur appelée la phase. Elles ne diffèrent que par un décalage de l’onde :

Il en est ainsi aussi de la phase de la fonction d’onde des électrons.

Un changement global de la phase n’a pas d’effet physique sur un champ possédant une phase (c’est-à-dire en effectuant le même changement de phase en tout point de l’espace). En effet, les interférences entre les ondes dépendent uniquement de leur phase relative et, par exemple, les probabilités issues de la fonction d’onde dépendent de leur amplitude et non de leur phase. C’est donc une symétrie du système. Ce que montre en effet les équations décrivant le comportement de l’électron (équation de Dirac dans le cas relativiste). Cette phase est un simple décalage et est donc décrire par un seul paramètre (un peu comme une translation sauf qu’ici la transformation n’est pas nécessairement géométrique, l’image ci-dessus étant quelque peu trompeuse car il peut s’agit d’une oscillation au cours du temps et une oscillation n’est pas nécessairement une vibration). Cette symétrie est notée U(1). L’équation de Dirac permet de montrer que cette symétrie est liée à une grandeur conservée : la charge électrique.

Jauge en électromagnétisme Rappelons-nous que la description des potentiels (intervenant dans la description du champ en théorie quantique) est soumise à un arbitraire de jauge. Un changement de jauge n’a pas d’effet physique car elle conduit aux mêmes champs E et B. C’est donc aussi une symétrie. Elle est d’ailleurs liée à la précédente. Dans les équations décrivant le champ électromagnétique et les charges électriques (pas nécessairement quantique, la théorie de Maxwell et l’équation de Newton-Lorentz) il y a un terme décrivant le couplage entre charges et champ électromagnétique. Pour que le système soit invariant, sans modification physique, il faut un changement commun de la phase et de la jauge. Le seul terme permettant cela est appelé couplage minimal et il permet ainsi de conserver l’invariance de jauge.

Autres symétries internes Citons aussi les deux autres interactions :

L’interaction faible est liée à une symétrie notée SU(2), plus complexe, liée également à la charge faible.

L’interaction forte est liée à une symétrie notée SU(3) et à la charge de couleur.

VIII.5. Les théories de jauge

Invariance locale et globale On a vu que la physique était invariante sous certaines symétries globales. Et si on voulait avoir la même invariance mais locale ? C’est-à-dire en effectuant une transformation de symétrie différente en chaque point de l’espace. Par exemple un changement de phase du champ de Dirac différent en chaque point. Cette exigence est assez naturelle à cause de la relativité. Cette théorie montre que la physique est locale, c’est-à-dire que le comportement d’un système ne dépend que de l’endroit où il se trouve, de son voisinage immédiat dans l’espace et le temps et qu’en outre toute influence se transmet de proche en proche à la vitesse maximale de celle de la lumière dans le vide. Même en théorie quantique des champs cela subsiste à travers une formulation mathématique adéquate qui montre

que les champs mesurés en des points séparés par un intervalle spatial (impossible à joindre à une vitesse inférieure ou égale à celle de la lumière) sont toujours indépendant (non soumis au principe d’indétermination). Un changement global, en quelque sorte instantané en tout point de l’univers, semble assez peu naturel en relativité.

Le cas de l’électron Cette invariance locale ne va pas de soi. Si l’on prend l’équation de Dirac décrivant un électron relativiste, on constate que l’équation est invariante sous un changement U(1) global de phase. Mas si l’on effectue un changement local, ça ne marche plus. L’équation transformée est affublée d’un terme supplémentaire qui a bel et bien une influence sur les solutions de l’équation. L’idée est alors d’introduire un autre champ qui joue le rôle de compensation. On l’appelle pour des raisons historiques lié au champ électromagnétique : champ de jauge. Champ auquel correspond en théorie quantique des particules appelées bosons de jauge. C’est en effet possible. On peut calculer les termes liés à ce champ à introduire dans l’équation ainsi que le terme de couplage entre l’électron et ce champ de manière à ce que sous une transformation de phase locale plus une transformation de jauge locale tous les termes ennuyant disparaissent. La théorie devient invariante locale. Mieux encore, la solution est unique. Un seul champ de jauge convient et il s’identifie au champ électromagnétique. Ce résultat est assez profond car il montre que l’existence du champ de Dirac des électrons, de sa symétrie U(1) liée à sa charge électrique et l’invariance locale liée à la relativité implique nécessairement l’existence du champ électromagnétique, c’est-à-dire des photons ! C’est une forme d’unification assez remarquable.

Autres symétries Cette méthode peut être prolongée aux autres symétries. La méthode peut être appliquée de manière systématique à toute symétrie et la façon de procéder est relativement simple bien qu’elle nécessite une bonne maîtrise de la théorie mathématique des groupes de symétrie. Ainsi la symétrie SU(2) conduit aux bosons intermédiaires et la symétrie SU(3) conduit aux gluons.

VIII.6. La théorie électrofaible Les théories de jauge autorisent des constructions permettant d’unifier les interactions, c’est-à-dire de faire dériver les interactions fondamentales d’une seule interaction.

Théorie électrofaible On considère au départ une seule interaction dérivant d’une symétrie SU(2)xU(1) (combinant donc les deux types de symétrie que nous avons vu). Les particules (électrons, neutrinos) sont classées en multiplets correspondants aux représentations de la symétrie. On peut ensuite appliquer la méthode des jauges locales.

La symétrie SU(2) est décrite par trois paramètres, la symétrie U(1) est décrite par un paramètre. Dans le calculs pour passer à la jauge locale, on observe les résultats suivant :

Un des paramètres de SU(2) se combine au paramètre de U(1) pour former deux nouveaux paramètres.

Un de ces paramètres nouveaux obéit à une symétrie U(1) et correspond au boson de jauge identifié avec le photon.

L’autre paramètre nouveau se combine aux deux paramètres restant de SU(2) pour former une nouvelle symétrie obéissant également à la symétrie SU(2). Le premier paramètre correspond au boson de jauge Z et les deux autres aux bosons et .

Notons que la symétrie initiale, même si elles ressemble aux symétries des interactions connues, n’est en fait pas la même et le lien se fait après remaniement des différents paramètres de symétrie. Le résultat est un champ unifié donnant deux champs séparés avec des propriétés différentes. C’est en ce sens que l’on peut vraiment parler d’unification. Cette théorie a été remarquablement vérifiée, dans tous ses aspects, par les expériences de collisions avec les grands accélérateurs de particules.

Le cas de l’interaction forte On peut aussi ajouter l’interaction forte au modèle. Le modèle précédent s’étend sans difficulté en ajoutant les quarks aux multiplets. On ajoute une symétrie SU(3) pour les quarks. L’application des méthodes de jauge locale redonne alors le résultat précédent et la symétrie SU(3) donne les gluons. Notons que cette fois il s’agit plus d’une « juxtaposition » de deux interactions (électrofaible et forte) plutôt que d’une véritable unification. Les tentatives de faire dériver les trois interactions d’une seule symétrie ne fonctionnent pas ou, plutôt, elles fonctionnent mais conduisent aussi à diverses particules jamais observée.

Masse des bosons de jauge Tel quel la théorie ne prédit ni n’utilise de masses pour les particules. C’est contraire à l’évidence, les électrons ont une masse, ainsi que les neutrinos, les quarks, les bosons W et Z. Si l’on introduit des masses pour les bosons de jauge W et Z, sans autre précaution, directement dans les équations, la théorie obtenue est non renormalisable. De même, si on introduit des masses pour les fermions, on obtient une violation de la symétrie de jauge qui là aussi est extrêmement gênante bien que plus facile à accommoder. Cette théorie a beau être élégante, elle prédit des particules sans masse, ce qui ne correspond pas vraiment à la réalité. Comment surmonter ces problèmes ?

IX.1. Brisure spontanée de symétrie Les symétries ne sont pas toujours respectées. On dit alors que la symétrie est brisée.

Une symétrie n’est pas nécessairement brisée en permanence. Lors de l’évolution du système, la

symétrie peut être respectée puis, dans certaines circonstances, être brisée. La rupture de symétrie

peut être imposée de l’extérieure mais cas le plus intéressant est celui où cette rupture est

spontanée (brisure spontanée de symétrie).

Donnons quelques exemples.

Soit une colonne verticale, un piquet. Pressons dessus verticalement. Même si le piquet est bien

droit et même si l’on appuie le plus verticalement possible, le piquet va plier au lieu de se tasser sur

lui-même. D’autant plus facilement qu’il est long et mince. La raison en est que la situation où le

piquet se comprime sur lui-même est fortement instable. La moindre perturbation, aussi infime soit-

elle, et le piquet se plie comme un arc. On dit qu’il flambe.

Initialement, il y a une symétrie à la rotation (avec l’axe comme piquet). Peu importe les directions

considérées dans le plan horizontal puisque tout est vertical. Mais dès que le piquet se plie, il y a une

direction horizontale privilégiée : c’est la direction dans laquelle se déplace le piquet en pliant. Cette

direction est aléatoire. Elle dépend en fait de minuscules détails microscopiques du piquet et de la

perturbation qui a rompu l’équilibre.

Avec le flambage, une partie de la symétrie de la situation a été perdue.

Un autre exemple est la solidification d’un liquide. La plupart des matériaux se solidifient en formant

une structure cristalline (même les métaux, bien que la taille des cristaux soit généralement petite et

ces derniers orientés de toutes sortes de manière dans le métal, donnant une apparence homogène).

Au départ, dans le liquide, chaque molécule se balade n’importe où. Le milieu est totalement

invariant sous une translation quelconque, dans n’importe quel sens (si l’on ignore la position des

parois). Par contre, une fois cristallisées, les molécules ne sont plus disposées au hasard. Elles sont

arrangées dans une structure géométrique bien ordonnée. Si l’on déplace l’ensemble d’une distance

inférieure à la maille cristalline (de l’ordre de la distance entre les molécules) on obtient une

structure qui n’est pas la même (les molécules ne sont pas au même endroit).

De même il existe des directions privilégiées, ce qui se voit par les facettes d’un gros cristal (par

exemple une pierre précieuse comme un saphir ou un rubis). Là aussi il y a perte de symétrie. La

structure cristalline, lors de la solidification, va dépendre de la position des premières molécules qui

se disposent au hasard (éventuellement sur des centres de nucléations, tel que des poussières dans

le récipient). Il y a brisure spontanée de la symétrie.

Notons que lors de la rupture de symétrie, une certaine quantité d’énergie est libérée. Par exemple,

la solidification libère la chaleur latente de solidification. En se liant entres-elles, les molécules

perdent un peu d’énergie (ce qui rend la liaison stable car pour la briser il faut apporter de l’énergie)

qui est libérée sous forme de vibrations. C’est d’ailleurs parce que le système passe dans un état

d’énergie plus faible que l’état avec symétrie brisée est plus table et que la symétrie se brise

spontanément en libérant l’excès d’énergie. Pour revenir à l’état symétrique, il faut fournir de

l’énergie.

Un autre cas de brisure spontanée de symétrie est donné par le ferromagnétisme (le magnétisme des

aimants que l’on trouve dans le commerce). Chaque atome se comporte, dans certains matériaux

comme le fer, comme un petit aimant qui tend à s’aligner avec ses voisins. Lorsque l’on se situe à

haute température, l’agitation thermique perturbe ces atomes et empêche tout alignement. Mais

dès que l’on descend en dessous d’une température critique appelée température de Curie, les

aimants atomiques s’alignent donnant une aimantation globale au matériau (aimant). Là aussi il y a

rupture de la symétrie car initialement il n’y a aucune direction privilégiée, mais dès que

l’aimantation apparait, il y a une direction privilégiée donnée par la direction d’alignement des

aimants atomiques.

Dans la terminologie en physique, on parle aussi de transition de phase. On passe d’une phase

liquide à une phase solide, ou d’une phase sans aimantation à une phase aimantée. Selon le type de

transition on parle de transition de phase du premier ordre (comme la solidification qui a la

particularité de faire cohabiter les deux phases en même temps, par exemple un glaçon qui flotte

dans de l’eau) ou de transition de phase du second ordre (comme le magnétisme, où tout le

matériau change en même temps). Les transitions de phase du second ordre jouent un rôle

important dans beaucoup de phénomènes physiques.

IX.2. Le champ de Higgs Le mécanisme permettant de donner une masse aux particules nécessite l’introduction d’un champ appelé champ de Higgs. La méthode a été trouvée indépendamment par trois groupes, à quelques mois d’intervalles, dans l’ordre :

Les Belges François Englert et Robert Brout. L’Ecossais Peter Higgs. Le groupe Gerald Gulranik, Carl Hagen et Tom Kibble.

Ce champ dépend de deux paramètres et . Les différentes valeurs de ces deux paramètres donnent différents états du champ.

Energie du champ de Higgs L’énergie du champ dépend des deux paramètres et et des équations qui les décrivent. Les coefficients dans les équations sont choisi pour avoir la forme suivante pour la valeur de l’énergie.

Le premier cas (correspondant aux situations à haute énergie) présente une symétrie par rotation dans le plan et et un état d’énergie minimale (le vide) avec . Le second, à basse énergie, a pour une valeur d’énergie non minimale. On l’appelle faux vide. On a par contre un minimum pour des valeurs non nulles de et , ces valeurs minimales sont disposées le long d’un cercle. On a toujours une symétrie par rotation.

Brisure spontanée de symétrie L’état du système ne reste pas dans l’état de faux vide. Il évolue spontanément vers un état d’énergie plus base. Il va le faire vers un des points du cercle. Peu importe lequel car tous les points du cercle correspondent, à cause de la symétrie, à des situations physiquement équivalentes.

Lorsque l’état se retrouve à un des points du cercle, il est stable et correspond au « vrai » vide. Dans cette situation, puisque l’on a un état dans un des points particuliers du cercle, on perd la symétrie par rotation. Il y a brisure spontanée de la symétrie.

IX.3. Bosons de Goldstone

Théorème de Goldstone Un théorème dû à Goldstone montre que lors d’une telle brisure spontanée de symétrie, on a apparition d’états d’excitations sans masse du champ correspondant. Ce théorème fut décrit bien avant le mécanisme de Higgs dans le cadre d’autres phénomènes, classiques, de brisure spontanée de la symétrie. En particulier dans des phénomènes impliquant la supraconductivité et dont se sont inspirés les groupes ayant trouvé le mécanisme de Higgs.

Les bosons de Goldstone Ici, en théorie quantique des champs, avec la quantification des excitations, nous savons que ces états excités vont correspondre à des particules. Ces particules sont appelées bosons de Goldstone. Voyons à quoi ils correspondent :

Dans l’état du vide, après brisure de symétrie, les états voisins sur le cercle ont la même énergie (à cause de la symétrie par rotation du potentiel du champ). On passe donc aisément d’un état à l’autre sans devoir communiquer d’énergie. Les excitations de Goldstone sont dirigées selon ce cercle. Le fait qu’une énergie nulle permette de créer de telles excitations (il faut juste fournir l’énergie cinétique qui peut être aussi faible que voulue) correspond à l’absence de masse des bosons de Goldstone (la présence d’une masse impliquerait une énergie de création au moins égale à ). Ce mécanisme crée donc des particules sans masse. Cela sembler aller à l’encontre de ce qu’on attend, puisque on veut avoir une masse ! Mais l’histoire n’est pas tout à fait finie, il reste un dernier acte.

IX.4. La masse Le mécanisme de Higgs marche comme suit.

Champ de Higgs On choisit un champ dépendant de quatre paramètres , , , . Les deux premiers sont liés par une symétrie de phase ainsi que les deux derniers plus une relation entre les deux paires. La structure globale de la symétrie est SU(2), symétrie à trois paramètres. On choisir une équation du potentiel analogue à ce que nous avons vu ci-dessus, parfois appelé « potentiel Sombrero » à cause de sa forme. On ajoute des couplages entre le champ de Higgs et les champs de jauge de manière à préserver la symétrie de jauge.

Brisure spontanée de symétrie Ensuite, la brisure spontanée de la symétrie intervient. L’état du vide correspond à , tandis que a une valeur moyenne non nulle, c’est un paramètre libre du modèle. Le phénomène entraine l’apparition de bosons de Goldstone, il y en a trois (à cause des trois paramètres nuls, un pour chaque paire de combinaison de ces trois paramètres). Dans les équations, avec les différents couplages choisi, ces trois bosons de Goldstone se combinent aux bosons , et Z. Le photon reste ce qu’il est.

Masse des bosons de jauge Des bosons sans masse décrivent toujours des ondes comme pour le champ électromagnétique : ce sont des ondes transverses. Le boson de Goldstone apparait dans les équations comme une composante longitudinale des bosons avec lesquels il se combine. Ce résultat est équivalent de l’introduction d’une masse pour les bosons de jauge, masse qui dépend de v et de la constante de couplage. Dans l’opération, les bosons de Goldstone disparaissent, « absorbés » par les bosons W et Z. Le photon reste, lui, sans masse. La théorie est invariante de jauge et renormalisable. Les termes supplémentaires dans les équations sont plus compliqués que l’introduction directe, simple et artificielle d’une masse aux bosons de jauge. La forme est d’ailleurs difficile à deviner à l’avance.

Explications de cette masse En l’absence ici d’une description mathématique détaillée et les explications précédentes étant assez abstraites, une explication plus intuitive est la bienvenue. Mais attention, une explication intuitive utilisant des analogies reste forcément grossière. La bonne explication reste ce qui précèdre. Techniquement, la masse apparait à cause du couplage des particules avec le champ de Higgs. On cite parfois l’analogie suivante. Imaginons une salle remplie de personnes participant à un cocktail (le champ de Higgs). Un inconnu rentre dans la salle (le photon) et personne ne le regarde, il avance sans difficulté dans la foule. Une personne célèbre rentre dans la salle (monsieur Z par exemple), les gens se pressent autour de lui formant un groupe dont l’avance est difficile.

Cette image est parlante mais risque d’être trompeuse. Le champ de Higgs n’agit pas comme un frein ou une viscosité qui ralentirait la particule, aucune énergie n’est dissipée. Il s’agit d’une énergie de liaison (le groupe de gens) équivalent à une masse (comme pour une particule composite) et qui donc avance moins facilement. On peut tracer un des diagrammes de Feynman correspondant aux interactions d’un boson Z avec le Higgs.

Le boson est entouré d’un nuage de Higgs virtuels. Comme nous l’avons vu, ce boson Z habillé est la particule physique, le Z nu n’est qu’une abstraction visualisée par la procédure de calcul. Et ce nuage a une masse finie différente de zéro. Les photons virtuels autour d’une particule chargée comme le a aussi une telle forme, mais un tel nuage n’implique pas nécessairement que le tout ait une masse. Le photon n’interagit pas avec lui-même, tandis que le Higgs a aussi une constante de couplage avec lui-même. Cela donne pour les Higgs des diagrammes comme :

Le nuage de Higgs est donc considérablement plus intriqué. Il est infiniment plus touffu que le nuage de photons virtuels et conduit à une énergie totale non nulle correspondant à une masse. Donnons une autre image de la particule.

Le photon porte à sac-à-dos vide. Il n’a aucune masse. A la moindre pichenette, si on lui donne un peu d’énergie, même très peu, il peut tranquillement courir à toute vitesse. Il se déplace à la vitesse

maximale c (sauf s’il est gêné par des particules chargés avec lesquelles il interagit, comme dans un milieu transparent). Le boson W, sans mécanisme de Higgs, transporte un sac-à-dos chargé de photons mais se sac reste infiniment léger et il est toujours sans masse. Le boson W ou Z, avec mécanisme de Higgs, se retrouve avec un sac-à-dos rempli de Higgs. Ce sac est lourdement chargé car les Higgs eux-mêmes portent leur propre sac-à-dos remplis de Higgs qui eux-mêmes etc. Même si on le pousse très fort, si on lui communique beaucoup d’énergie, il se déplace lentement car l’essentiel de cette énergie sert à faire avancer l’ensemble boson plus son sac-à-dos très lourd.

IX.5. Les leptons et les quarks Le mécanisme précédent donne une masse aux bosons de jauge. Mais nous n’avons toujours pas de masse pour les électrons ou les quarks. L’absence de masse ou plutôt l’ajout d’une masse arbitraire trouvée par la mesure (à travers le mécanisme de renormalisation) est possible et marche plutôt bien. Mais on aimerait aussi avoir une explication sur l’origine de cette masse. Puisque le champ de Higgs est couplé aux champs de jauge, il n’y a pas de raison de croire qu’aucun couplage ne puisse exister avec les autres champs, comme ceux des électrons et les quarks. Ainsi, si l’on introduit un tel couplage, de manière correcte (respect de la jauge et de propriétés de symétries propres aux électrons, neutrinos ou quarks), on aboutit aussi à une masse pour ces particules. Nous sommes presque au bout, la masse est entièrement expliquée, il reste à voir le Higgs lui-même

X. Le boson de Higgs

La particule Si l’on injecte suffisamment d’énergie dans des processus de collision très violents, avec des particules couplées au boson de Higgs, on peut espérer provoquer des excitations du champ qui se manifestent comme des particules. Les particules associées au champ de Higgs sont le boson de Higgs lui-même, comme particule réelle et non comme particules virtuelles comme dans ce qui précède. Comme trois des composantes du champ se combinent aux bosons de jauge pour donner leur masse, il ne reste qu’une composante. Le boson de Higgs est donc une particule scalaire. Notons que le champ de Higgs comporte aussi un terme de couplage avec lui-même ! La constante de couplage et donc la masse du boson de Higgs sont inconnus a priori, c’est un paramètre libre du modèle. Diverses considérations théoriques et expérimentales (un boson de Higgs très léger aurait déjà été observé depuis longtemps) laissaient espérer sa détection avec le LHC, accélérateur de particules, de très grande taille équipé d’aimants supraconducteurs capable d’injecter plusieurs milliards d’électrons-volt dans des protons que l’on fait entrer en collision.

Notons que si la masse du Higgs est élevée, il est d’autant plus instable.

Formation et désintégration En utilisant les outils de la théorie quantique des champs et connaissant exactement les champs et leurs couplages, on peut calculer les différentes réactions qui peuvent se produire. On peut ainsi calculer le taux de formation du boson de Higgs dans les collisions. On peut aussi calculer les modes de désintégration et la probabilité de chaque mode. Le résultat dépend fortement de la masse du Higgs. Par exemple, il ne peut se désintégrer en donnant des quarks lourds que s’il est lui-même très massif. Pour un boson de l’ordre de 126 Mev (millions d’électrons-volt, on a l’habitude pour les particules de donner leur masse sous la forme d’une énergie ) on trouve :

Désintégration en une paire bottom – antibottom : 56.1 %. Désintégration en une paire de bosons W : 23.1 %. Désintégration en une paire de photons : 8.5 %. Désintégration en deux bosons Z : 2.9 %. Autres désintégrations plus rares : 9.4 %.

Détection On ne peut détecter directement le Higgs car il est électriquement neutre et seule les particules chargées laissent une trace dans les détecteurs ou les particules de longue vie (photons) faciles à absorber dans des détecteurs calorimétriques ou photosensibles. Le principe consiste donc a étudié ses produits de désintégration. Dans cette gamme d’énergie, toutes ces particules sont produites en grand nombre dans toutes sortes d’interactions. Le bruit de fond est énorme par rapport aux résultats attendus pour le Higgs. La méthode pour détecter sa désintégration est donc la suivante :

Calculer pour chaque mécanisme de production des particules les quantités, énergies et directions des particules produites dans la collision.

Identification d’un excès de particules correspondant aux modes de désintégration du boson de Higgs.

Etant donné les processus en cours, ceux donnant le meilleur signal sont la désintégration en deux bosons Z et deux photons. Fin 2011 à juillet 2012, le LHC a accumulé un nombre considérable de données et a pu ainsi confirmer avec une grande précision (risque d’erreur de moins de un sur un millions) d’une nouvelle particule scalaire ou vectorielle (comme le photon) de 126 Mev se désintégrant selon ces deux modes. Cette particule était compatible avec le Higgs. Cette découverte a fait grand bruit et a été largement médiatisée. Il restait malgré tout à s’assurer qu’il s’agissait bien du Higgs et pas d’une particule exotique encore inconnue. C’est maintenant pratiquement chose faites. Les données accumulées jusqu’à début 2013 ont permis de confirmer qu’il s’agit d’une particule scalaire et que les proportions dans les différents canaux de désintégration. Les couplages du Higgs avec les différents champs ont pu être précisés et la particule découverte est certainement le Higgs avec une probabilité de plus de 99%.

Au-delà du Modèle Standard de la physique des particules Les constantes de couplage avec la matière étaient connues puisque les masses des particules étaient connues (sauf celle du Higgs). Mais la théorie ne prédit pas ces couplages, ce sont des paramètres libres du modèle. Il reste donc à comprendre pourquoi on a ces valeurs là et pas d’autres. Ainsi que d’autres paramètres libres du Modèle Standard de la physique des particules (modèles incluant l’ensemble des particules connues, leurs symétrie et la théorie quantique des champs). Aller au-delà du Modèle Standard ne sera pas facile vu la validité de celui-ci jusqu’à de hautes énergies, confirmé avec une extrême précision. Il faut pour cela atteindre des énergies colossales. Les données trouvées permettront alors de trancher entre plusieurs extensions du modèle (par exemple les théories dites supersymétriques unifiant bosons et fermions). Le LHC rependra du service en 2015à un niveau d’énergie encore plus grand. Cela permettra de préciser toutes les propriétés du Higgs et peut-être de découvrir des effets nouveaux. Espérons que les éléments trouvés permettront de progresser. Mais on est déjà là au-delà de la compréhension de l’origine de la masse.

XI. Références - Alain Orzak, Masse, Encycopedia Universalis.

- Jacques Franeau, Physique, Tome Premier, Editions Lielens, Bruxelles.

- Charles W. Misner, Kip S. Thorne, John Archibald Wheeler, Gravitation, W. H. Freeman and

Comany, New York.

- V. Ougarov, Théorie de la relativité restreinte, Editions Mir, Moscou.

- Feynman, Leigthon, Sands, Le cours de physique de Feynman, Mécanique quantique,

InterEditions, Paris.

- Claude Itzykson, Jean-Bernard Zuber, Quantum Field Theory, McGraw-Hill International

Editions, Physics Series.

- N. Nelipa, Physique des particules élémentaires, Editions Mir, Moscou.

- Les particules élémentaires, Les dossiers de La Recherche, Juin-Juillet 2013.

- Higgs boson, Wikipedia.

- Higgs mechanism, Wikipedia.

- Théorie électrofaible, Diffusion ENS.

- Englert-Brout-Higgs-Gulranik-Hagen mechanism (history), Scholarpedia.