Une histoire standard de l'Universpeople.mpim-bonn.mpg.de/gborot/files/Univers.pdf · Sommaire...

69
Une histoire standard de l’Univers

Transcript of Une histoire standard de l'Universpeople.mpim-bonn.mpg.de/gborot/files/Univers.pdf · Sommaire...

Une histoire standard de l’Univers

Cet ouvrage tend à montrer les éléments qui ont permis de comprendre les tous débuts de l’Univers, et propose ainsi de découvrir la vision actuelle et globale des processus « historiques » de l’Univers pendant ses 300 000 premières années, en évoquant une histoire plus contemporaine ainsi qu’un futur incertain. Deux parties de notions permettent de faire le point sur les deux domaines principaux auquel fait référence cet exposé : la physique des particules et la relativité, en expliquant plus en détail certaines idées utilisées dans l’exposé stricto sensu. Des annexes et des notes complètent le tout, en présentant certaines données par exemple, ou en mentionnant des domaines qui ne font pas l’objet d’une description approfondie.

Corentin Lena

Gaëtan Borot

Sommaire

APPROCHE I – Vues relativistes La relativité restreinte Applications : élasticité de l’espace et du temps La notion d’espace-temps (Un peu) de relativité générale

II – Eléments de physique des particules Energie, température & retour dans le temps Principes d’incertitude et fluctuations quantiques Invariants et symétries : le concept de particule élémentaire Les quatre interactions fondamentales Le Modèle Standard Conclusion - L’état du vide, une hypothèse utile

CORPUS III – Arguments astronomiques Introduction – Dynamique générale actuelle Mesures de distances Principe cosmologique et modèles d’Univers Le rayonnement de fond cosmologique

IV– Le début de l’Univers Introduction – Pourquoi le Big Bang ?

En approchant du Big Bang … Histoire universelle

V– 15 milliards d’années plus tard (conclusion) Evolutions possibles

ANNEXES A Constantes et données physiques B Grandeurs et unités de base C Eléments de photométrie D Calculs sur les Modèles d’Univers E Les relations entre ρ, t, T, H et R F L’âge de l’Univers G Les atomes H Eléments de bibliographie

Une histoire standard de l’Univers I – Vues relativistes

1

I – Vues relativistes

La théorie de la gravitation de Newton est inadéquate en cosmologie. En effet, elle est incompatible avec un Univers conforme au principe cosmologique. A grande échelle, la seule théorie valable de la gravitation est celle d’Einstein. Pour la comprendre, il faut passer par plusieurs étapes.

La relativité restreinte Cette théorie repose sur deux principes, valables dans les référentiels galiléens, c'est-à-dire les référentiels où le principe d’inertie s’applique : un corps qui n’est soumis à aucune force (isolé) ou soumis à des forces qui se compensent (pseudo-isolé) reste immobile ou en mouvement rectiligne uniforme. En premier lieu, les lois de la physique sont identiques pour tout référentiel galiléen. D’après le principe de relativité, un référentiel se déplaçant en ligne droite à vitesse constante dans un référentiel galiléen est un référentiel galiléen. En second lieu, la vitesse de la lumière c – qui vaut environ 3.108 m.s-1 – est identique

dans tout référentiel galiléen. Ces deux principes nous obligent à repenser la mécanique classique. Considérons deux observateurs O et O′. Ils font correspondre à chaque évènement observé trois coordonnées d’espace (x ; y ; z) – respectivement (x’ ; y’ ; z’) pour O’ – et une coordonnée de temps t – respectivement t′. Ils rapportent ainsi les évènements à un repère S – respectivement S′. Supposons que O′ possède un mouvement rectiligne uniforme de vitesse v dans le repère S. Pour simplifier, considérons que ce mouvement ne possède qu’une seule composante, suivant l’axe des x, qu’à t = 0, les positions O et O′ coïncident et t′ = 0. Selon la mécanique classique, les systèmes de coordonnées de S et de S′ seront tels que : x’ = x – vt y’ = y z’ = z t’ = t Ce système d’équations est appelé transformation de Galilée. Nous pouvons en déduire par exemple la règle d’addition des vitesses 1 : si un corps se déplace à une vitesse w dans S′, sa vitesse dans S s’écrit : u = v + w. Or, ceci est incompatible avec le second principe énoncé. Si la lumière se déplace à une vitesse c dans S′, sa vitesse dans S devrait être de c + v. Pour respecter les deux principes, nous devons la remplacer par la transformation de Lorentz, dont la démonstration sera donnée ultérieurement. x’ = γ(x – vt) y’ = y z’ = z t’ = γ(t – vx/c²) avec γ = 1/√(1 – v²/c²)

O

O’ x’

y’

z’ z

y

x vt

Une histoire standard de l’Univers I – Vues relativistes

2

Cette transformation a des conséquences « étranges », nous forçant à réviser nos idées sur l’espace et le temps. Ainsi deux évènements éloignés qui sont simultanés pour O ne le sont pas pour O′. Pour O, les règles se déplaçant à une vitesse v sont plus courte d’un facteur √(1 – v²/c²), soit 1/γ par rapport à O’, et les horloges fonctionnent plus lentement : elles donnent une seconde contre γ secondes pour les horloges liées à S′. Dans cette nouvelle mécanique, la formule de composition des vitesses ² devient u = (v + w)/(1 + vw/c²), et la contradiction entre les principes est éliminée. La variation de ce facteur gamma est donnée, en fonction du rapport v/c, dans le graphique précédent. Notons toutefois que les effets relativistes n’ont aucune incidence sur la vie courante : à notre échelle, la loi relativiste de composition des vitesses admet pour approximation la loi d’additivité de Galilée.

Applications : élasticité de l’espace et du temps Nous pouvons présenter certaines conséquences de la théorie de la relativité restreinte à l’aide « d’expériences de pensée », et comprendre l’origine du facteur gamma des lois précédemment admises. Nous reprendrons les conventions concernant les référentiels introduites au paragraphe précédent. Intéressons-nous tout d’abord à la rupture de la simultanéité. Imaginons deux vaisseaux spatiaux se croisant au temps t0. Dans l’un d’eux (système S), deux horloges une à l’avant, une à l’arrière émettent un flash lumineux. Un homme est placé au milieu de ce vaisseau et perçoit les deux flashs en même temps. Pour lui, leurs émissions sont simultanées. Il est évident qu’un homme situé dans le deuxième vaisseau (système S’) percevra la lumière venue de (2) avant celle venue de (1). Pour lui, le flash (1) est postérieur au flash (2) ; la simultanéité a disparu.

1 v/c

γ

0,8 0,6 0,4 0,2 0

2

6

10

14

+∞

(1) (2)

v

S

S’

Variations du facteur gamma en fonction du rapport v/c

Une histoire standard de l’Univers I – Vues relativistes

3

C

A B B’ D D’

v

t3

>> t1

<< t2

Considérons à présent le phénomène de la dilatation du temps. Poursuivons cette expérience en imaginant que l’homme en S’ veuille mesurer une durée. Pour cela il se sert d’un dispositif comme horloge : un battement est représenté par la durée du trajet vertical de hauteur h d’un rayon lumineux. Supposons une horloge H en S et une horloge H’ en S’. Pour l’homme de S la lumière se déplace toujours à la vitesse c. Si nous comparons le trajet parcouru par la lumière dans H et dans H’, nous comprenons que dans le référentiel S, un battement de H’ dure plus longtemps qu’un battement de H. Ceci peut être quantifié grâce au théorème de Pythagore. Les distances étant dans le même rapport que les temps, nous avons : t²/t’ ² = h²/(h² + v²t²) = c²t²/(c²t² + v²t²) = 1/(1 + v²/c²) donc : t/t’ = 1/√(1 + v²/c²) Pour étudier la contraction des longueurs, nous devrons cette fois imaginer un dispositif légèrement plus complexe, inspiré de la fameuse expérience de Michelson et Morley. L’appareil suivant est placé en S’. Un faisceau de lumière est divisé en deux par un miroir semi-réfléchissant au point B. Les deux faisceaux résultants sont réfléchis, l’un en C, l’autre en D au terme de leur parcours de même longueur L et reviennent vers le miroir. Pour l’homme de S’, les deux rayons reviennent en même temps, il doit en être de même pour l’homme de S, puisque la vitesse de la lumière est constante. Faisons le calcul :

Soit t1 la durée du trajet BD et t2 la durée du trajet DB’. ct1 = L + vt1 ou t1 = L/(c – v) ; ct2 = L – vt2 ou t2 = L/(c + v) ; donc t1 + t2 = (2L/c)/(1 – v2/c2) Soit t3 la durée du trajet BC. D’après le théorème de Pythagore : c²t3² = L² + v²t3² donc t3 = L/√(c² – v²) Par symétrie, la durée du trajet CB’ est la même. La durée de l’aller-retour est donc 2t3 = (2L/c)/√(1 – v²/c²).

vt

h

H’ vue de S’

H vue de S

H’ vue de S

Une histoire standard de l’Univers I – Vues relativistes

4

Selon nos calculs, l’aller-retour le long de la branche BC est plus long que l’aller-retour le long de la branche BD pour S, qui voit donc les deux faisceaux arriver à deux instants différents ; or ceci est absurde, car la simultanéité de deux évènements en un même point est maintenue. Cette contradiction est résolue en supposant que la longueur BD est contractée d’un facteur √(1 – v²/c²), c'est-à-dire BD = L/√(1 – v²/c²). Ce coefficient 1/√(1 – v²/c²) apparaît comme le facteur γ de la transformation de Lorentz.

La notion d’espace-temps La transformation de Lorentz « mélange » l’espace et le temps. L’espace et le temps n’étant plus indépendants, il est possible de les regrouper dans un système de quatre coordonnées dites d’espace-temps (la généralisation en terme de quadrivecteur position est possible, alors noté rμ) : trois coordonnées d’espace e1, e2, e3, et une coordonnée de temps τ. Les coordonnées d’espace-temps sont définies de la façon suivante, en introduisant le complexe pur (ou imaginaire) i = √-1 :

e1 = x e2 = y e3 = z τ = ict

Dans un tel espace, le passage du système S au système S′ correspond à une « rotation » du système de coordonnées (cet rotation est un peu différente des rotations de la géométrie euclidienne, elle se pratique en géométrie hyperbolique). Les nouvelles coordonnées du quadrivecteur vérifient :

e1² + e2² + e3² + τ² = e1’² + e2’² + e3’² + τ’²

Il est également possible de définir un équivalent à la distance dans l’espace-temps, qui sera la norme de ce quadrivecteur : l’intervalle (différentiel) ds, tel que ds² = dx² + dy² + dz² – c²dt². Cet intervalle reste le même lorsqu’est appliquée la transformation de Lorentz aux coordonnées : c’est une caractéristique des quadrivecteurs. Contrairement à une distance euclidienne, il peut être réel positif, ou bien imaginaire. Si il est imaginaire, c’est un intervalle de nature spatiale ; si il est réel positif : intervalle de nature temporel ; et si il est nul : intervalle de nature lumière. Ceci se comprend mieux devant un diagramme d’espace-temps, une représentation dans le plan de la coordonnée de temps (axe des imaginaires) et d’une coordonnée spatiale (axe des réels ; nous avons simplifié le diagramme, qui comporte généralement trois coordonnées spatiales : ici, y et z sont pris nuls). Un point de ce diagramme est appelé évènement. Un tel diagramme montre que l’espace-temps peut se diviser en trois régions : le passé (bleu), c'est-à-dire l’ensemble des évènements ayant pu influencer O ; le futur (jaune), ou ensemble des évènements pouvant être affectés par O ; et l’ailleurs

(gris), avec lequel O ne possède aucun lien causal.

Une histoire standard de l’Univers I – Vues relativistes

5

Les intervalles entre O et un point du futur ou du passé sont de nature temporelle ; les intervalles entre O et les évènements de l’ailleurs sont de nature spatiale. L’ensemble des points ayant des intervalles de nature lumière, correspond dans notre cas aux droites d’équation ct = ± e1. Si nous généralisons à trois coordonnées d’espaces, les évènements à intervalles de nature lumière constituent l’horizon des évènements (ou cône de lumière). Il sépare passé et futur de l’ailleurs. En effet, aucun corps ou signal ne peut voyager plus vite que la lumière si le principe de causalité est admis. Ce type de représentation est très utilisé en physique des particules.

(Un peu) de relativité générale Il s’agit d’une théorie mathématiquement complexe, nous nous limiterons donc à des idées également générales. La relativité générale repose sur une observation apparemment banale : un homme qui tombe (en chute libre) ne sent pas son propre poids. S’il tentait de peser un objet, il mesurerait un poids nul. Einstein en a tiré le principe d’équivalence : localement, la gravitation peut être annulée par une accélération. Il nous est impossible de distinguer les effets gravitationnels des effets inertiels : la gravitation est équivalente à l’accélération. Il n’existe donc pas de force de gravitation. Mais si tel était le cas, les corps (par exemple les planètes) se déplaceraient en ligne droite, ce qui est manifestement contraire à l’observation. Cette contradiction peut être résolue en supposant que l’espace-temps est « déformé ». La ligne de plus court chemin, la géodésique, n’est plus une droite euclidienne (et n’est pas forcément unique !). Les corps suivent donc une ligne d’univers – trajectoire dans l’espace temps - déterminée par sa géométrie. Qu’est ce qui détermine la géométrie de l’espace-temps ? La présence et la répartition de la matière, ou plus exactement de l’énergie puisque E0 = m0c². La relativité générale permet de calculer la géométrie de l’espace-temps, représentée par un « tenseur métrique » à partir de la distribution des masses, notée sous forme d’un « tenseur énergie-impulsion ». La théorie de la gravitation ainsi exprimée supprime l’action à distance instantanée prévue par la théorie de Newton : les modifications de répartition de l’énergie se propage par ondes gravitationnelles. D’après le principe d’équivalence, il s’agit aussi d’une théorie des référentiels accélérés, qui contient la relativité restreinte comme cas limite – lorsqu’il n’y a ni champ de gravitation ni accélération.

e1

ct

futur

passé

ailleurs

ailleurs

O

Horizon des évènements

Diagramme de Minkowski ou d’espace-temps Ce diagramme comporte généralement quatre dimensions. Nous l’avons simplifié pour permettre une représentation dans le plan, avec e2 et e3 qui sont prises nulles.

Une histoire standard de l’Univers I – Vues relativistes

6

Notes (1) Pour démontrer cela, nous considérons les vitesses instantanées u, v et w, avec pour origine des coordonnées de temps et d’espace le point O. Les mouvements ici étudiés sont rectilignes le long de l’axe des abscisses, tels que : u soit la vitesse du mobile dans S, soit u = dx/dt ; v soit la vitesse du mobile dans S’ comme précédemment ; w soit la vitesse du mobile dans S’, soit w = dx’/dt’. En la transformation de Galilée, nous avons simplement : x = x’ + vt, d’où u = dx/dt = d(x’ + vt)/dt = dx’/dt + d(vt)/dt

Utilisons le théorème de dérivation d’une fonction composée, qui s’exprimera en notation différentielle : dx’/dt = (dx’/dt’) (dt’/dt). Soit, en sachant que t’ = t : u = (dx’/dt’) (dt’/dt) + v = w(dt/dt) + v D’où la règle d’additivité des vitesses en mécanique classique ou galiléenne : u = v + w. (2) La méthode est similaire à la précédente. nous considérons les vitesses instantanées u, v et w, avec pour origine des coordonnées de temps et d’espace le point O. Les mouvements ici étudiés sont rectilignes le long de l’axe des abscisses, tels que : u soit la vitesse du mobile dans S, soit u = dx/dt ; v soit la vitesse du mobile dans S’ comme précédemment ; w soit la vitesse du mobile dans S’, soit w = dx’/dt’. En utilisant la transformation de Lorentz, nous avons simplement : x = x’/γ + vt, d’où : u = dx/dt = d(x’/γ + vt)/dt = γ-1(dx’/dt) + d(vt)/dt Avec le théorème de dérivation d’une fonction composée et sachant que t’ = γ(t – vx/c²) u = γ-1(dx’/dt’) (dt’/dt) + v = (wγ-1) [d(γt – γvx/c²)/dt] + v u = w [1 – v/c²(dx/dt)] + v = w(1 – uv/c²) + v = w + v – u(vw/c²) u(1 + vw/c²) = v + w Si le produit vw est différent de –c², alors nous avons bien la composition des vitesses : u = (v + w)/(1 + vw/c²). Si les deux vitesses sont égales à c en valeur absolue mais de sens opposé, alors la somme v + w est nulle, donc u est nulle. Quelles que soient les vitesses v et w inférieures ou égales à c que nous pouvons considérer, nous constatons que leur produit peut être au plus de c² ; en ce cas, u vaut également c. La vitesse de la lumière dans le vide agit comme une limite. La composition des vitesses de Lorentz est bien en accord avec les principes de la relativité restreinte. (3) En effet, nous avions précisé que l’observateur de S’, les deux rayons reviennent en même temps au point B’. Deux évènements simultanés en un même point sont dits coponctuels, et ils seront simultanés dans tout référentiel.

Une histoire standard de l’Univers II – Eléments de physique des particules

7

II – Eléments de physique des particules

Energie, température et retour dans le temps L’énergie peut être exprimée comme un potentiel : ce serait la capacité chiffrée d’un système à agir sur un autre. Sa conservation dans un système fermé (l’Univers, par exemple) est sa caractéristique principale (c’est une autre définition de l’énergie : une grandeur qui se conserve). Elle peut se manifester de plusieurs manières : l’énergie de masse, donnée, pour une particule au repos, par le postulat d’Einstein 1 : E0 = m0c² ; l’énergie cinétique, qui caractérise un système en mouvement ; … Pour exprimer les énergies à l’échelle microscopique, l’électron-volt (eV) – et ses multiples – est préféré au joule (J) : 1 électron-volt correspond à l’énergie communiquée à un électron sous une tension de 1 V (l’énergie se manifeste dans ce cas par une accélération). Cette énergie électrique étant liée à la charge élémentaire e, 1 eV vaut 1,6.10 –19 J. Précisons quelques ordres de grandeur : 1 eV est environ l’énergie mise en jeu par atome lors d’une réaction chimique ; l’énergie de masse d’un électron est de 0,5 MeV ; celle d’un proton, 0,94 GeV ; … Dans nos Arguments astronomiques, nous montrerons que l’Univers s’est dilaté au cours du temps. Si aujourd’hui il possède une très faible densité de matière, celle-ci devait être bien plus élevée par le passé. Or, si il est considéré comme un fluide, une densité de matière élevée est liée à une température élevée. Celle-ci se manifeste par une grande énergie cinétique des particules. Les hautes énergies sont donc un outil pour comprendre l’histoire primordiale de l’Univers. Par « hautes énergies », nous entendons « énergie de collision » : c’est le mode d’interaction privilégié à l’échelle microscopique. Nous voyons donc apparaître un parallèle entre un retour dans le temps, l’énergie (ou la densité) et la température (ou agitation moléculaire). En effet, la température absolue (grandeur positive exprimée en degrés Kelvin : à 0°C correspond 273 K environ) est liée à la valeur moyenne de l’énergie cinétique des particules. La relation de Boltzmann, dans le cadre de la physique statistique, définit cette énergie moyenne : <E> = (3/2)kT . La figure ci-contre montre l’échelle de temps de l’Univers en parallèle avec les échelles de température et d’énergies (le graphe est approximatif ; le temps, en ordonnée logarithmique, constitue l’échelle de base). Il faut noter que cette relation n’est pas linéaire. Nous détaillerons ces évolutions et préciserons ce modèle dans la partie Le Big Bang. Actuellement, au bout de 15 milliards d’années (Ga) environ, la température de 2,7 K que nous constatons provient du « rayonnement de fond », expliqué dans les Arguments astronomiques. Outre un retour vers le passé, la physique des hautes énergies implique – nous le justifierons – l’étude des constituants fondamentaux de la matière. A cette échelle, notre vision classique est surannée : il nous faut une conception quantique.

temps (t)

température absolue

( T)

15 Ga

10 Ga

3 Ga

3 min 100 s

2,7 K

3,5 K

8 K

108 K 109 K

1 s

1 ms

1 μs

10–10 s

10–12 s

10–34 s

10–43 s

1010 K

1012 K

1013 K

1015 K

1016 K

1027 K

1032

K 1028

eV

1023 eV

1012 eV

1011 eV

109 eV

108 eV

106 eV

105 eV 104 eV

10–3 eV

5.10–4 eV

4.10-4 eV

énergie moyenne

(<E>)

Parallèle entre l’échelle de

temps et l’échelle des

températures

Une histoire standard de l’Univers II – Eléments de physique des particules

8

Principes d’incertitude et fluctuations quantiques La théorie quantique est un formalisme complexe élaboré dans la première moitié du XXe siècle, qui permet de comprendre le comportement de systèmes – et plus particulièrement des particules – à l’échelle « quasi-infinitésimale ». Lequel diffère profondément de celui du monde macroscopique. Nous n’évoquerons bien sûr que les idées générales utiles à notre projet. En mécanique quantique, le déterminisme de la vision classique quant à la description d’un système disparaît : la théorie est régie par les principes d’incertitude de Heisenberg. Explicitement : nous ne pouvons connaître précisément la position et la quantité de mouvement d’une particule (produit de la masse et de la vitesse pour une particule massive, appelée aussi « impulsion » ; attention néanmoins, puisqu’en situation relativiste, il faut ajouter le facteur γ de Lorentz, la masse étant variable). Cette aberration au niveau macroscopique peut aisément se comprendre, si nous considérons la mesure physique comme une interaction entre l’appareil de mesure et le système à étudier : plus nous voulons déterminer avec précision la position d’une particule, plus nous devons lui communiquer d’énergie, et donc la perturber. La mesure de son impulsion p sera donc faussée. Nous pouvons mesurer ces grandeurs selon les trois composantes spatiales (x ; y ; z), il existe donc trois relations d’incertitude. Le calcul montre que les incertitudes Δx (par exemple) et Δp sont liées, tel que : Δx.Δp ≥ h (c’est la constante de Planck qui vaut 6,626.10-34 J.s). De plus, les observables en physique quantique sont des quantités « non commutatives » : la mesure de la position puis de la vitesse ne donnera pas le même résultat que la mesure de la vitesse puis de la position. Nous retrouvons bien l’idée de l’incertitude : la théorie quantique ne détermine les observables que de manière

probabiliste. Notons que ces relations ne constituent pas une méconnaissance de notre part, mais bien une loi physique qui délimite un niveau de précision, où l’idée de trajectoire est un non-sens. Il existe une quatrième relation d’incertitude, qui est temporelle, que nous allons établir. Nous voulons mesurer un intervalle de temps Δt (s). Pour ce faire, nous pouvons utiliser une onde électromagnétique de période T (s), nécessairement inférieure à l’intervalle de temps : T ≤ Δt. Rappelons la relation en période et fréquence : ν = 1/T (Hz). Dans le cadre de la mécanique quantique, nous sommes confrontés à la dualité onde-particule formulée en 1922 par de Broglie : l’objet quantique que nous étudions se comporte de manière ondulatoire ou/et de manière corpusculaire. Certes, il ne peut être réduit à l’un ou l’autre, ni au deux (paragraphe suivant). Mais nous pouvons utiliser cette dualité pour établir une correspondance entre les propriétés de chaque « nature ». Ainsi, à notre rayonnement électromagnétique est associé le quantum « photon » dont l’énergie W (J) est liée à sa fréquence – cette description fut utilisée notamment par Einstein pour expliquer l’effet photoélectrique : W = hν. Nous pouvons donc exprimer la fréquence en fonction de l’énergie, et la période qui vaut alors : T = h/W. En s’assurant que W et Δt sont des grandeurs positives non nulles, et en utilisant l’inéquation initiale, nous obtenons : W ≥ h/Δt. Remarquons que, pendant un temps très court, un quantum très énergétique peut être absorbé. Nous pouvons interpréter également cette incertitude comme une « probabilité non nulle » de voir apparaître (spontanément) pendant un temps très court un quantum d’énergie W : « tout se passe comme si » celle-ci était disponible pendant Δt. Ainsi, en 10-21 s, une paire électron-positron « virtuelle » (son antiparticule que nous définirons dans le paragraphe suivant) d’énergie de masse 1 MeV peut apparaître puis s’évanouir ; en 10-23 s, une fluctuation quantique de l’ordre de 100 MeV peut survenir (nous préciserons ces notions dans L’état du vide (p 17).

Une histoire standard de l’Univers II – Eléments de physique des particules

9

Invariants et symétries : le concept de particule élémentaire La démarche scientifique tend à trouver des lois (physiques, dans notre cas) universelles, c'est-à-dire applicables en tout occasion. Elle cherche aussi dans ces lois une certaine symétrie, caractérisée par des invariances. Prenons un exemple plus concret. L’équation fondamentale de la dynamique (ici sous sa forme relativiste contenant le facteur γ, la loi de Newton supposant une masse non variable) relie la force F (ou la somme des forces) exercée sur un système à son accélération a (la dérivée seconde de la position en fonction du temps). C’est une équation vectorielle (les vecteurs apportent plus que grandeurs scalaires, c'est-à-dire numériques ; ils sont ici notés soulignés et en gras) :

F = γm0a Grâce à cette équation, nous pouvons étudier un système en mouvement après avoir fixé un référentiel : origine et axes. Maintenant, procédons à une translation de notre origine. Dans notre nouveau référentiel, la force mesurée sera identique ainsi que l’accélération (ce qui est facilement vérifié) : L’équation

fondamentale de la dynamique est invariante par translation d’espace 2. Nous ne pouvons ainsi pas définir d’origine absolue pour l’étude d’un système. Ensuite, nous pouvons également faire tourner nos axes autour de l’origine : le vecteur force va tourner, ainsi que le vecteur accélération. Second principe : l’équation

fondamentale de la dynamique est invariante par rotation d’espace. Nous ne pouvons donc pas définir d’axes et de direction absolus. Continuons, et décalons notre référentiel dans le temps 3, cela signifie que nous déplaçons notre origine des temps. Puisque nous ne mesurons que des intervalles de temps, nous pouvons affirmer : l’équation fondamentale de la dynamique est invariante par translation de temps. Il n’existe donc pas de temps absolu, mais seulement un temps relatif (nous pouvons par contre définir un temps utile pour la compréhension de phénomène physique, comme le temps cosmique ; mais il n’est pas privilégié par rapport aux temps de référentiels différents). Enfin, selon la relativité restreinte (cela est aussi valable pour la « version » générale), cette équation est aussi invariante par une « rotation d’espace-temps » qui est la transformation de Lorentz (cf. La relativité restreinte, p 1). Celle-ci a été découverte notamment pour les lois de l’électromagnétisme de Maxwell. Plus globalement, est défini le groupe de symétrie de Poincaré qui contient toutes ces transformations, et nous pouvons dire : la physique est invariante selon le groupe de

Poincaré. Nous nous approchons considérablement de l’idéal d’universalité … En physique des particules sont considérées d’autres invariances et transformations plus adaptées, qui découlent du formalisme appelé théorie quantique des champs. Nous allons maintenant aborder une énumération peu engageante de faits, pourtant nécessaire, pour introduire le Modèle Standard. D’autre part, nous utiliserons à présent un système d’unité « fondamental » plus pratique : ħ (constante de Planck modifiée), c (célérité de la lumière dans le vide) et e (charge ‘élémentaire’ du proton) sont pris pour unités. La ‘théorie quantique des champs’ combine la mécanique quantique et la relativité restreinte (une théorie quantique de la gravitation est toujours recherchée), et permet de conserver le principe de causalité (un effet ne précède jamais sa cause). Nous avons déjà parlé de la « dualité onde-particule » ; l’objet quantique est en fait décrit par une fonction d’onde Ψ qui traduit l’évolution des ses propriétés diverses 4. Une fonction d’onde correspond dans le cas le plus simple à une amplitude complexe ρeiθ en tout point (ρ étant le module, θ la phase, comme pour une onde électromagnétique). Intéressons-nous à présent au concept de particule élémentaire, qui est supposé à la base de notre « Univers ». Une particule élémentaire est caractérisée par deux invariants relativistes : une masse au repos, et un moment angulaire, ou spin. Attardons-nous quelque peu sur celui-ci, qui a la dimension d’une action (une énergie multiplié par un temps ; en fait, il est égal à r ∧ p ; r, vecteur position ; p, impulsion) et est exprimé en multiple de ħ selon notre système d’unités. Interprété de manière classique, il rend compte d’une « rotation sur elle-même » de la particule. Son orientation peut être variable, mais sa valeur est constante. Il est fractionnaire pour les fermions (particules de « matière » usuelle ; 1/2 pour l’électron) et entier pour les bosons (particules vecteurs des forces ; 1 pour le photon). De plus, les particules élémentaires peuvent avoir des variables internes, c'est-à-dire des nombres

Une histoire standard de l’Univers II – Eléments de physique des particules

10

quantiques, qui précisent entièrement leur nature : la charge, la couleur, la parité, la saveur, l’étrangeté … ; dont nous reparlerons. Une propriété à retenir : le principe d’exclusion de Pauli. Il stipule que deux particules de spin fractionnaire ne peuvent être dans le même état quantique (ce qui est dû à certaines propriétés de leur fonction d’onde). Un exemple simple : deux électrons ne peuvent occuper la même position la plus proche du noyau (le plus bas niveau d’énergie) car ils possèdent un spin demi-entier. En fait, comme il existe pour ces électrons deux orientations de spin possibles, ce niveau énergétique minimal peut être occupé par deux électrons. Autre principe en théorie quantique des champs : toutes les particules sont

identiques. Ce qui signifie que nous ne pouvons distinguer deux particules élémentaires de même nature : il est impossible, par exemple, de suivre un électron en particulier sortant d’un canon à électrons. En effet, vous serez, d’après les relations d’incertitude, incapable de dire : « Cet électron qui est sorti du canon tout à l’heure a atteint l’écran » ; quelque soit la précision du matériel dont vous disposez. Il a très bien pu être absorbé, puis réémis. Nous ne pouvons donc pas parler de cet électron, mais d’un électron seulement. Singulariser une particule élémentaire n’a aucun sens : avec le concept de champ quantique, nous pouvons comprendre qu’une particule élémentaire comme l’électron symbolise un certain type d’excitation de ce champ 5.

Nous pouvons revenir à nos symétries. A partir des équations de Maxwell, nous pouvons définir une invariance par conjugaison de charge, noté C : si nous changeons le signe de toutes les charges mises en jeu, notre physique est toujours valable. Et il n’y pas de charge absolue, le signe étant fixé par convention. Appliqué à la physique des particules grâce à la théorie quantique des champs, cette invariance est quelque peu modifiée : nous pouvons cette fois remplacer les particules mises en jeu par leurs antiparticules. La conjugaison de charge apparaît en fait comme une symétrie entre la matière et l’antimatière. Différencions-les : la particule et son antiparticule ont des caractéristiques identiques (même masse et même spin) et des « variables internes » opposées (charge, couleur, …). A cet invariance est adjointe l’inversion des coordonnées d’espace P (pour parité) et l’inversion du sens du temps T : nous dirons que la physique des

particules est invariante par la transformation CPT. Combinées séparément, ces transformations ne conduisent pas obligatoirement à des invariances, comme nous le verrons pour les forces fondamentales 6. Néanmoins, la symétrie globale par CPT est toujours respectée ; elle permet de donner un cadre consistant à la physique des particules. Notons enfin que, si de nombreux phénomènes peuvent être modifiés par l’application de cette transformation, les lois physiques, elles, ne changent pas. Enfin, il existe une autre invariance qui fonde toute notre physique élémentaire, c’est l’invariance de jauge. La « jauge » correspond à l’unité, l’étalon, que nous employons lors de nos mesures ; toutefois, le terme « invariance de jauge » ne traduit pas ici une invariance d’échelle. Nous préciserons seulement en quoi cette symétrie consiste, car les détails deviennent rapidement techniques. Le principe de jauge nous permet de procéder localement et librement à des changements de phase et même de nature sur les champs de spin 1/2 (les fermions). Les lois de la physique sont toujours invariantes, si et seulement si leur sont adjoints des champs vectoriels (de spin entier) : ces derniers traduisent les interactions des fermions ! Ces considérations abstraites seront illustrées lorsque nous aborderons l’interaction nucléaire forte. Retenir seulement que la présence et les modalités des interactions fondamentales découlent de cette symétrie de jauge.

Une histoire standard de l’Univers II – Eléments de physique des particules

11

Les quatre interactions fondamentales

Les « interactions » entre divers corps - que ce soit entre particules élémentaires, ou, à plus grande échelle, entre planètes – permettent de rendre compte de la dynamique de l’Univers. Auparavant, nous avions précisé que leurs propriétés se déduisaient du principe de jauge, et nous y reviendrons. Fondamentalement, c'est-à-dire au niveau ultime des particules élémentaires, nous en connaissons quatre : l’électromagnétisme, l’interaction nucléaire faible, l’interaction nucléaire forte et la gravitation. Toute interaction – ou force – constatée à quelque échelle que ce soit, découle actuellement de ces quatre-là. Nous allons les détailler, tout en apprivoisant progressivement le zoo de particules élémentaires présenté explicitement dans le paragraphe suivant. L’électromagnétisme fut la première intégrée dans le cadre de la théorie quantique des champs. Cette interaction se manifeste de la manière la plus évidente, sous nos yeux, chaque instant. Elle est à l’origine, par exemple, de nos sensations colorées et plus généralement de la lumière, de l’électricité bien sûr, mais aussi de la solidité – ou de la fluidité – des matériaux, de la structure de l’ADN et de tout autre molécule … Son vecteur est un boson de masse nulle et de spin 1 : c’est le photon. Il se couple à la charge seulement mais n’est lui même pas chargé. L’interaction électromagnétique respecte les nombres quantiques : elle ne modifie pas les valeurs internes telles que la couleur, la saveur ou encore la charge. Le photon a une masse nulle, la portée de l’interaction est donc infinie (cette relation masse du boson/portée sera discutée pour l’interaction faible). Il existe un moyen formel assez simple de représenter les interactions : le graphe de Feynman. Voici une situation élémentaire de l’électromagnétisme : deux électrons e- échangeant un photon γ (1), c’est la diffusion.

Deux principes de lecture des graphes de Feynman : une rotation ne change pas le mécanisme ,et une particule dans un sens équivaut à une antiparticule dans le sens contraire. Ces règles permettent de formuler une seconde interprétation (2) (voilà l’utilité des graphes de Feynman) : un électron e- et son antiparticule, le positron e+ s’annihilent en un photon γ, qui à son tour produit une paire électron-positron. Notons enfin que le photon est ici virtuel 5 : il ne résulte que d’une fluctuation quantique. L’interaction nucléaire faible a initialement été appréhendée à la fin du XIXe siècle, avec la découverte de la radioactivité β (mutation d’un proton en neutron ou inversement). Ce processus fut expliqué par Fermi dans les années 1930, par analogie avec l’électromagnétisme. Le graphe de Feynman en rendant compte est présenté sur la page suivante. L’interaction faible se caractérise par la production d’un boson W qui se couple à toute particule. Ce W est chargé (soit W–, soit W+ son antiparticule, selon l’interaction) et modifie la charge et donc la nature d’une particule (la saveur si nous considérons les quarks). Il agit symétriquement pour la famille de l’électron (les leptons) mais peut changer indépendamment la saveur des quarks. Sa masse est de 81 GeV, et son spin 1. Il existe également une interaction faible, dite « par courants neutres », procédant de l’échange d’un boson Z neutre (de masse 91 GeV ; de spin 1) : celui-ci ne change pas la nature de la particule. Tous ces bosons vecteurs sont massifs, si bien que l’interaction faible est de courte portée. En effet, la fluctuation quantique permettant leur production (et donc l’interaction) ne peut

e– e–

e– e–

γ

e+

e–

e+

γ

e–

(1) (2)

Une histoire standard de l’Univers II – Eléments de physique des particules

12

se produire que pendant un temps très court. La distance parcourue x par le boson (plus exactement la paire constituée du boson et de son antiparticule) à une vitesse v s’exprime grâce à la quatrième relation d’incertitude : x = v.Δt, soit x ≥ ħv/W. Nous trouvons que la portée d’une interaction est inversement proportionnelle à (l’énergie de) masse de son boson. Dans notre cas, la fluctuation quantique nécessaire est d’environ 200 GeV : sa portée est de l’ordre de 10–18 m, inférieur au noyau atomique d’un facteur mille. Au-delà, la probabilité d’une telle fluctuation est infime : la force est nommée « faible ». Pour des distances de l’ordre de 1 fermi, l’interaction est inférieure à l’électromagnétisme d’un facteur 107. Ces deux interactions sont comparables dès 10–18 m, c'est-à-dire à hautes énergies : la théorie électrofaible de Salam et Weinberg développée dans les années 1970 les unifie. Attardons-nous à présent aux transformations par C, P et T. Nous savons que les lois de la physique sont invariantes par CPT ; cependant, contrairement à l’électromagnétisme, l’interaction nucléaire faible viole la symétrie selon CP : plus exactement, la parité n’est pas respectée. Prenons un exemple avec l’hélicité d’un électron : celle-ci correspond à la composante du spin le long de l’impulsion (c'est-à-dire, la quantité de mouvement). Pour un fermion comme l’électron, elle peut être soit positive, soit négative. Intéressons-nous à la désintégration β– d’un noyau radioactif, qui libère un électron et possède un spin global non nul. Si nous appliquons une inversion des coordonnées d’espace (parité ; l’axe représenté dans le schéma est en quelques sorte un miroir), nous observons une hélicité opposée : P = –1, l’invariance par parité est violée, et nous pouvons distinguer droite et gauche 7 ! La situation étant identique en présence d’antiparticules (C = 1) et l’invariance globale étant toujours vérifiée (CPT = 1), nous déduisons que l’invariance par inversion du sens du temps se trouve également violée (T = –1). La symétrie est (partiellement) brisée : voici pourquoi nous ne pouvons affirmer « La physique est invariante par le groupe de transformation CPT ».

e–

hélicité positive

PARITE

e–

hélicité négative

spin

NOYAU RADIOACTIF

Radioactivité β– Ce type d’interaction correspond entre autres à la désintégration naturelle du neutron, dont le temps de vie moyen est de 920 s. Ainsi, le neutron n mute par l’intermédiaire d’un W en un proton p et un électron e–, avec émission d’un neutrino (plus précisément, l’antineutrino électronique νe. Le cercle entre le neutron et le proton indique qu’il existe une structure interne plus complexe dont le graphe ne tient pas compte.

e-

n p

W

νe

Illustration de la violation de la symétrie CP

Une histoire standard de l’Univers II – Eléments de physique des particules

13

L’interaction nucléaire forte est décrite par la chromodynamique quantique développée dans les années 1970, parallèlement au concept de quark que nous présenterons dans le paragraphe suivant. Précisons seulement que ce sont des fermions, constituants fondamentaux du noyau atomique, et qu’ils se déclinent en trois couleurs : bleu B, vert V, rouge R. Cette force « forte » explique la cohésion nucléaire, au-delà de la répulsion électrostatique, et détermine l’interaction des quarks. En fait, les quarks q échangent leur couleur par l’intermédiaire de gluons g, qui sont eux-mêmes porteurs de couleur. Voici un exemple de graphe de Feynman correspondant. Nous avons déjà rencontré le principe de jauge, et nous pouvons à présent l’illustrer simplement. Considérons un quark rouge : celui-ci peut s’avérer être un quark vert, s’il est associé à un gluon antivert/rouge. Nous avons effectué un changement de jauge local sur un champ de spin 1/2, et ce processus ne modifie en rien la nature du quark, si nous postulons l’existence du gluon porteur d’une couleur et d’une anticouleur, décrit par un champ de spin 1 et de masse nulle : c’est un boson. Voici « l’origine » de l’interaction forte qui découle du principe de jauge. Puisqu’il existe 3 couleurs de quarks différentes, la théorie de jauge implique 8 gluons différents (selon la paire couleur/anticouleur qu’ils portent). Une des propriétés essentielles de cette force forte : le couplage augmente avec la distance. En dessous de 10–18 m, elle est comparable à l’électromagnétisme. A cette distance (ce qui revient à grand transfert ou temps infime), les quarks semblent libres : ce phénomène est nommé liberté asymptotique. Néanmoins, à 10–18 m, le rapport des forces est de 25 (pour l’interaction forte). Pour une distance de 1 fermi, l’échange de couleur est intense, et le couplage entre eux des gluons entraîne leur dénaturation. En effet, lorsque deux quarks sont étirés, un flux de couleur s’intensifiant les retient. Si l’énergie fournie pour la séparation est supérieure à l’énergie de masse d’un méson (paire quark-antiquark neutre de couleur et de charge), celui-ci apparaît : de deux quarks initialement, vous en obtenez quatre ! Et, bien que la masse des gluons soit nulle, leur dénaturation et l’apparition des mésons (dont le plus léger possède une masse de 140 MeV) limite la portée de l’interaction , alors appelée « forte », à 10–15 m, soit 1 fermi. De même, la couleur est confinée à l’intérieur de « bulles » de ce rayon environ, globalement blanches (neutre de couleur ; en effet, R + V + B = 0 en chromodynamique) : pour nos noyaux atomiques, ces bulles correspondent aux protons et aux neutrons. Ces nucléons, quoique globalement blancs, sont sensibles à leur distribution interne de couleur, et c’est l’origine de la cohésion du noyau : cette interaction résiduelle est supérieure à la répulsion électrostatique d’un facteur 20. Enfin, la gravitation est mise quelque peu à l’écart par rapport aux trois autres interactions fondamentales, car elle n’est pas encore intégrée au cadre de la théorie quantique des champs. Elle permet d’expliquer le mécanisme du système solaire, aussi bien que la structure globale de l’Univers et en partie sa dynamique – cet aspect sera discuté dans les Arguments astronomiques. Sa formulation actuelle se trouve dans la théorie de la relativité générale d’Einstein. Toutefois, elle est approchée avec une assez grande précision par la célèbre loi de Newton (ici sous forme vectorielle) : F12 = (Gm1m2/d²)u21. En première approximation donc, l’interaction gravitationnelle agit sur des corps massifs. En fait, elle est sensible à l’énergie (qui se ramène à l’énergie de masse pour de faibles vitesses). Une formulation quantique de la gravitation impliquerait un boson de spin 2 (pour ne pas différencier matière et antimatière) et de masse nulle : l’hypothétique graviton. A l’instar de l’électromagnétisme, la gravitation souvent appelée « universelle » a une portée infinie, due à la masse nulle de son boson. Cependant, son action est négligeable à l’échelle des particules élémentaires (et à notre échelle d’énergie) : un simple calcul utilisant la loi de Newton et celle de

qR qV

qV qR

g

Echange d’un gluon entre deux quarks

ici, vert et rouge Le gluon porte une couleur et une anticouleur conformément au principe de jauge.

Une histoire standard de l’Univers II – Eléments de physique des particules

14

Coulomb montre qu’entre deux nucléons au repos, la gravitation est plus faible que l’interaction électrostatique d’un facteur 1036 ! Par contre, elle domine l’Univers à grande échelle, les masses en jeu étant alors énormes. La théorie montre qu’elle devient comparable à l’électromagnétisme à hautes énergies, de l’ordre de 1019 GeV (elle est sensible à l’énergie !). Ainsi, nous ne pouvons la négliger : même si nous sommes éloignés de ces ordres de grandeurs dans nos accélérateurs de particules, la gravitation tient une place capitale dans les tout premiers instants de l’Univers.

Le Modèle Standard Nous en arrivons donc au Modèle Standard, notre théorie actuelle des particules élémentaires. Nous avons précédemment précisé leurs interactions, et, à présent, nous en venons à décrire les différents groupes de particules élémentaires, et leurs combinaisons pour former un large zoo de nouvelles particules (nous en avons déjà rencontré quelques-unes). Dans le tableau 1 de la page suivante figurent toutes les particules élémentaires du Modèle Standard, ainsi que leurs caractéristiques (en gris) et nombres quantiques intéressants (en noir). A chacune d’entre elles peut également être associée son antiparticule (qui a, rappelons-le, des caractéristiques identiques et des nombres quantiques opposés : charge, couleur …). Remarquons cependant que l’antiparticule et la particule peuvent parfois être identiques : c’est le cas pour le photon de symbole γ, dont les variables internes sont nulles. Nous avions auparavant différencié : les fermions, qui correspondaient à notre matière traditionnelle, de spin 1/2 (le fait important est leur expression fractionnaire), soumis au principe d’exclusion de Pauli ; les bosons, qui sont les vecteurs des interactions fondamentales que nous avons déjà rencontrés, de spin entier. Parmi les fermions, nous distinguons les quarks (évoqués pour l’interaction forte) et les leptons. Il existe trois doublets de quarks et trois doublets de leptons qui fonctionnent de pair lors des interactions. Considérons tout d’abord les quarks qui existent en six saveurs : u (up), d (down), s (strange), c (charmed), b (bottom ou beauty), t (top) ; par ordre croissant de masse. Chaque quark se décline comme nous l’avons vu en trois variétés de couleurs : bleu B, vert V, rouge R ; qu’il peut échanger avec d’autres quarks par le mécanisme de l’interaction forte. Quant aux antiquarks correspondants (que nous noterons soulignés : l’antiquark up s’écrira u), ils portent une anticouleur. Tous ces noms ne sont donnés, bien sûr, que par convention, et ne sont pas observés des quarks de couleur verte, par exemple. D’autre part, certains quarks présentent de nouveaux nombres quantiques (nuls pour les autres) : le quark s possède une étrangeté de –1 ; de la même manière, le quark c possède un charme, le quark b est porteur de beauté. Ces nombres quantiques sont conservés – à l’instar de l’énergie – lors des interactions des quarks. Intéressons-nous ensuite aux leptons. Chaque doublet est constitué d’une particule et de son neutrino : l’électron e– et le neutrino électronique νe ; le muon μ– et le neutrino muonique νμ ; le tau τ– et le neutrino tau ντ. Lorsqu’un lepton est produit ou absorbé, son neutrino est absorbé ou produit, de sorte que le nombre leptonique (la différence du nombre de leptons et d’antileptons) au cours d’une interaction est conservé. Ajoutons que le muon et le tau sont, de même que les quarks les plus massifs, instables : le temps de vie du muon, par exemple, est de l’ordre de 1 ms. Voici donc les fameuses particules élémentaires 8 : 6 quarks et 6 leptons liés par doublet, auxquels sont adjoints 13 bosons vecteurs (si nous incluons le graviton).

Une histoire standard de l’Univers II – Eléments de physique des particules

15

Tableau 1 Les particules élémentaires

ELECTROMAGNETISME ________ γ (photon) masse 0 ; spin 1 ; charge 0

Interaction FAIBLE ___________ W+ et W– masse 81 GeV ; spin 1 ; charge ± 1

par courants neutres _________ Z

Interaction FORTE ____________ g (8 gluons) masse 0 ; spin 1 ; charge 0 une couleur et une anticouleur

GRAVITATION _______________ G (graviton) masse 0 ; spin 2 ; charge 0

Quarks

charge 2/3

charge –1/3

u

d

c

s

t

b

7 MeV 0,15 GeV 4,7 GeV

4 MeV

- 6 saveurs - 3 couleurs

Leptons

charge –1

neutre

e–

νe

μ–

νμ

τ–

ντ

106 MeV 1,74 GeV 0,51 MeV

neutrinos masse ≤ 100 eV

FERMIONS

spin ½

1,5 GeV 175 GeV

BOSONS

spin entier

masse 91 GeV ; spin 1 ; charge 0

Une histoire standard de l’Univers II – Eléments de physique des particules

16

Pour former les structures atomiques stables que nous connaissons et décrire la quasi-totalité des phénomènes de l’Univers, la combinaison du premier doublet de quarks et de leptons suffit. En effet, les quarks u et d constituent les protons et les neutrons. Introduisons les électrons pour expliquer l’atome, et les neutrinos électroniques pour préserver le nombre leptonique lors des interactions faibles. Les deux autres doublets peuvent nous sembler superflus – les particules les composant sont d’ailleurs instables, avec un temps de vie inférieur à 10–10 s, et donnent par désintégration faible les particules du premier doublet. Néanmoins, ils sont imposés par la dynamique du premier doublet (nous en aborderons un aspect dans la partie Une histoire de l’Univers). Enfin, nous allons évoquer les combinaisons possibles de quarks pour former une gamme étendue de particules appelées hadrons. Le vide étant opaque à la couleur (à basse énergie) comme nous l’avons expliqué auparavant, les quarks doivent se regrouper pour former des particules « blanches » et donc libres. Deux types de constructions simples existent, qui sont observées lors des expériences en accélérateurs de particules : l’association d’un quark et d’un antiquark, qui donne un méson ; la combinaison de trois quarks de couleurs différentes (B, V, R) qui constitue un baryon 10. Dans le tableau 2

sont présentés quelques hadrons résultant de la combinaison des quarks u, d et s (les plus courants car peu massifs). Remarquons comment, à partir de trois saveurs de quarks seulement, en utilisant le principe de jauge, sont obtenus une multiplicité de particules nouvelles 9. Elles sont classés par type, charge, et étrangeté (celle-ci est additive ; un hadron contenant deux quarks s porte une étrangeté de –2). Nous reconnaissons parmi ce défilé les nucléons : proton et neutron. D’autre part, notons que la masse des hadrons ne correspond pas à la somme directe des quarks les composant : la masse (ou l’énergie de masse) se révèle en fait comme un effet dynamique. Les quarks s’échangeant de nombreux gluons, leur combinaison apparaît bien plus massive (environ 0,94 GeV pour un nucléon).

MESONS quark + antiquark

spin 0

pion π-

ud ≈150 MeV π0

uu π+

du

êta η0

dd

kaon ≈500 MeV K-

us K0

sd K+

su K0 sd

BARYONS 3 quarks

spin 1/2

nucléon ≈0,94 GeV n

d(du)

sigma

lambda ≈1,10 GeV

≈1,20 GeV

p

u(ud)

Σ0 d(us)

Σ+ u(us)

Σ–

d(ds)

Λ0 s(ud)

ksi ≈1,30 GeV

Ξ0 s(us)

Ξ–

s(ds)

delta ≈1,23 GeV Δ0

udd

sigma*

ksi* ≈1,53 GeV

≈1,38 GeV

Δ+

uud

*Σ0 uds

*Σ+

uus

*Σ–

dds

oméga ≈1,67 GeV

*Ξ0 uss

*Ξ–

dss

BARYONS 3 quarks

spin 3/2

Δ–

ddd

Δ++

uuu

Ω–

dss

charge -1 0 1 2 étrangeté

–3

–2

–1

0

–2

–1

–1

0

±1

0

0

Tableau 2 Quelques hadrons simples avec les quarks : u ; d ; s.

Une histoire standard de l’Univers II – Eléments de physique des particules

17

L’état du vide

Jusqu’à présent, nous avions supposé implicitement que les interactions entre acteurs du Modèle Standard se déroulaient dans le vide. Mais qu’est ce que le vide, physiquement ? Procédons à une expérience de pensée : supposons que nous contrôlions entièrement un certain espace dans l’Univers, et que nous tentions d’atteindre l’état de vide. Notre première idée serait d’évacuer la matière. L’Univers, à grande échelle (cf. Arguments astronomiques) peut être considéré comme un fluide homogène de densité ρ0 ≈ 10–27 kg.m–3. Admettons qu’il soit constitué uniquement d’hydrogène 1H ; nous pouvons alors annoncer une concentration moyenne de l’ordre d’un atome par mètre cube 11. Nous voici sans plus aucune matière, croyons-nous. Car notre approximation est erronée, puisque l’Univers contient également du rayonnement, plus ou moins énergétique. Et, connaissant l’équivalence matière-énergie, nous pouvons définir plus précisément le vide : c’est l’état qui minimise l’énergie. Toutefois, nous ne pouvons conclure que le vide équivaut au néant.

En effet, les fluctuations quantiques sont toujours présentes. A long terme, l’énergie moyenne du vide peut être nulle. Mais les relations d’incertitude (notamment la quatrième, temporelle : W ≥ h/Δt) nous rappellent que le vide « bouillonne » d’activité. Cette énergie « disponible » nous apparaît en effet comme un potentiel, telle que nous l’avions appréhendée dans Energie, température & retour dans le temps (p 7). Donnons quelques évaluations chiffrées de fluctuations quantiques. En 10–21 s, l’apparition d’une paire virtuelle électron-positron (c'est-à-dire antiélectron) de masse 1 MeV est probable. Une paire de pions π+/π– de masse 300 MeV pourra être produite dans un intervalle de 10–23 s. Encore plus loin, en 10–26 s, la fluctuation probable atteint l’énergie de masse d’une paire de W : c’est le domaine d’expérimentation de l’ancien LEP de Genève. A des énergies encore plus élevées, le « vide » devient une « mousse quantique » où le temps et l’espace perdent leur signification (l’intervalle de temps correspondant est le temps de Planck τp ≈ 10-43 s). Toute la physique est sous-jacente au vide, du moins ponctuellement. Le vide comme néant n’est donc valable que classiquement, en tant qu’approximation à l’échelle humaine. D’autre part, pour reprendre notre premier exemple, comment savoir quand l’espace dont nous contrôlons les échanges est définitivement vide ? Nous n’avons aucune limite, a priori, pour enlever « ce qu’il contient ». Justement, il se trouverait que l’état de vide minimisant l’énergie est réalisé pour une énergie non nulle. De plus, conférer au vide une structure et certaines propriétés – que le néant ne pourrait voir apparaître – permet d’expliquer certaines divergences entre les contraintes du principe de jauge et l’expérience. Par exemple, les bosons de l’interaction électrofaible devraient tous posséder une masse nulle : seul le photon y satisfait, les W et le Z étant massifs. Les théories actuelles postulent l’existence d’un champ de Higgs qui serait couplé à de nouvelles variables internes des particules (l’hypercharge, vous connaissez ?) et qui prendrait une valeur non nulle dans le vide. Celle-ci dépendrait de la densité d’énergie du vide, qui pourrait donc présenter des structures (ou phases) différentes selon sa température. Toutes ces hypothèses ne sont pas encore vérifiées, mais nous les mentionnons car elles nous seront utiles pour notre retour dans le temps. Notons, enfin, que ces phases sont liées à une hypothétique unification des forces fondamentales à hautes énergies comme il fut réalisé pour l’électromagnétisme et l’interaction faible.

Une histoire standard de l’Univers II – Eléments de physique des particules

18

Notes (1) Ce postulat dit d’équivalence masse-énergie peut en fait être démontré (assez laborieusement par ailleurs) grâce à la théorie de la relativité restreinte et la théorie de l’électromagnétisme de Maxwell.

(2) Lorsque nous disons que l’équation fondamentale de la dynamique est invariante par translation d’espace, nous nous référons à un espace idéalisé qui satisfait au principe cosmologique en tout point : il est continu, isotrope et homogène. Ces conventions posées, alors il existe bien une invariance par translation d’espace. Néanmoins, rien n’empêche leur mise en défaut par des éléments qui seront considérés comme extrinsèques à cet espace (champ de gravitation variable ou potentiel électrique par exemple), substrat d’évènements et lui même contenu de l’Univers. (3) Là encore, l’invariance par translation de temps est valable à notre échelle. Puisque le temps est au même titre que l’espace contenu en quelque sorte de l’Univers, nous pouvons nous demander si cette invariance serait toujours valable dans un Univers en inflation comme nous le décrirons par la suite. Certes, si nous considérons que l’espace et le temps sont préexistant , ce qui est ici l’objet d’une idéalisation mais non d’une réalité expérimentale, alors les invariances décrites sont valables universellement. Toutefois, ce serait oublier la théorie relativiste et l’interdépendance qu’elle décrit entre l’espace-temps et l’Univers en lui-même. (4) Mentionnons l’équation de Schrödinger qui régit sa « propagation », pour sa beauté et sa simplicité mathématique : iħ(∂Ψ/∂t) = HΨ. H est un opérateur appelé ‘hamiltonien’ dépendant des formes cinétique et potentielles de l’énergie du système ; cette équation permet de connaître l’évolution de Ψ en fonction du temps. La probabilité de trouver la particule ainsi décrite en un point est donnée par le carré du module de l’amplitude (ρ²) à cet endroit (règle de Born), la ponctualité étant vidée de son sens comme nous l’avons vu. (5) Il est tentant d’ « ontologiser » les particules élémentaires, c'est-à-dire de leur conférer une existence, une réalité. Cependant, il ne faut pas oublier qu’elles résultent avant tout de conventions de descriptions, généralement avantageuses, témoignant de la stabilité d’un certain niveau d’exploration (l’atome, avant l’accès au noyau, était la particule élémentaire : l’insécable, étymologiquement). (6) Cela signifie entre autres que nous ne pouvons pas le « voir », le détecter. (7) Il est possible d’accéder de manière plus « quotidienne » au résultat en faisant tourner, devant un miroir, un objet cylindrique placé à l’horizontale, dans le sens des aiguilles d’une montre par exemple (les conventions étant respectées, nous pouvons formuler une grossière interprétation quantique : son spin pointera vers le bas). Toutefois, son image dans le miroir tournera dans le sens contraire des aiguilles d’une montre (son spin pointera vers le haut) : le spin est un vecteur axial, ou glissant. Cette expérience illustre la validité du schéma proposé.

Une histoire standard de l’Univers II – Eléments de physique des particules

19

(8) La métaphore « briques de l’Univers » pour désigner les particules élémentaires rejoint la tendance d’ « ontologisation » que nous avons soulignée en (5). Elle nous paraît ici trop liée à la vision classique et matérielle : disons plutôt que la réduction des phénomènes de l’Univers à l’interaction entre des entités stables nous conduit à un ensemble d’entités élémentaires, à l’origine par leurs combinaisons et résonances de structures plus complexes. (9) Pour les baryons de spin 1/2, deux des trois quarks sont dans un état dit « antisymétrique » où leurs nombres quantiques sont opposés. Dans ce doublet antisymétrique (indiqué dans le tableau entre parenthèses), les deux quarks, pour ne pas être l’antiparticule l’un de l’autre, doivent avoir une saveur différente, et ce doublet a un spin nul. Le spin 1/2 « provient » du troisième quark. Nous distinguons ainsi par leur doublet antisymétrique le lambda 0 et le sigma 0. Pour les baryons de spin 3/2, les trois quarks sont dans un état dit au contraire « symétrique », où leurs spins pointent dans la même direction et s’ajoutent. Chaque quark a une couleur différente, ce qui les rend globalement blanc d’une part, et satisfait au principe de Pauli d’autre part (les quarks sont des fermions). (10) Et la liste n’est pas exhaustive ! Toutes ces particules ont été découvertes en parallèle, à la fois de manière théorique et expérimentale (dans les accélérateurs de particules toujours plus puissants). Le Modèle Standard est l’aboutissement de ce travail dans les années 1970-80. Citons récemment (1995) la mise en évidence du quark top. Il en constitue également la limite d’une certaine manière, car il montre aujourd’hui des lacunes pour expliquer certains phénomènes (la masse des W et du Z, les quarks ‘libres’, …) pressentie dès sa constitution : en ce sens il ne constitue pas une rupture ou un palier. Son intérêt est donc de synthétiser les acquis, ce qui nous intéresse pour bâtir une théorie de l’Univers. (11) Voici les détails de cette estimation avec des relations basiques en chimie. Soit V (L), le volume de notre portion d’Univers ; m (kg), la masse de matière qu’il contient. Nous avons alors ρ0 = m/V. Soit n (mol), la quantité d’atome d’hydrogène associée. Sachant que MH (kg.mol–1) est la masse molaire d’un atome d’hydrogène 1H, nous avons également n = m/Mh. Le nombre d’atome N correspond à la quantité n est donnée par la relation, avec NA (mol–1), nombre d’Avogadro : N = nNA. Le nombre d’atome par unité de volume C (m–3) dans notre portion d’espace est de C = N/V. En rassemblant successivement ces relations : C = nNA/V = mNA/(VMH) = ρ0VNA/(VMH) = ρ0NA/MH. Utilisons les approximations suivantes : ρ0 = 10–27 kg.m–3 ; NA = 6.1023 ; MH = 10–3 kg.mol–1. Nous obtenons la concentration de 0,6 atomes par mètre cube, donc C est de l’ordre d’un atome par mètre cube.

Une histoire standard de l’Univers III – Arguments astronomiques

20

III – Arguments astronomiques

Introduction – Dynamique générale actuelle Cette description à pour but de présenter les différents objets étudiés par l’astronomie, des plus « petits » aux plus immenses, et de manière très simple. Elle est illustrée par des vues d’artistes (par Sylvain Borot), complétée par des ordres de grandeur. Etoiles et systèmes solaires Les étoiles peuvent être sommairement définies comme d’énormes boules de gaz. La lumière qu’elles émettent provient de réactions de fusion entre les atomes qui les constituent. Leurs tailles varient de 0,001 à 1000 fois celle du Soleil. Leurs luminosités et leurs températures sont également variables. Ces informations sont regroupées sur le diagramme d’Hertzsprung-Russell, dit HR, que nous présenterons plus tard. Ce diagramme permet aussi de prévoir l’évolution d’une étoile : par exemple notre Soleil va passer dans 4,5 milliard d’années à l’état de géante rouge, puis à celui de naine blanche. Autour de certaines étoiles gravitent des planètes, des corps plus petits, qui n’émettent pas de lumière. Leur mouvement autour de l’étoile centrale est dû à la combinaison de « l’élan » qu’elles possèdent et qu’elles conservent en vertu du principe d’inertie, et de la force qui les attire vers l’étoile centrale. Cette force est déterminée par la loi de la gravitation de Newton que nous énoncerons ainsi : les corps s’attirent avec une force proportionnelle à leurs masses et inversement proportionnelle au carré de leur éloignement. Cet énoncé est résumé par l’équation (ici sous forme vectorielle) : F12 = (Gm1m2/d²)u21. Il est possible de prouver qu’alors les planètes doivent décrire des ellipses et c’est bien ce qui est observé. Mais la loi de la gravitation est universelle, et elle se manifeste à d’autres échelles. Nous retrouvons les ellipses, donc cette loi, si nous étudions la trajectoire relative des couples d’étoiles. Et à plus grande échelle encore. Amas d’étoiles et galaxies Les amas d’étoiles sont des regroupements d’étoiles, sous l’action de la gravitation. Nous connaissons des amas d’étoiles jeunes comportant quelque dizaines ou centaines d’étoiles, ou des amas globulaires rassemblant plusieurs millions d’étoiles très anciennes. Les étoiles, les amas, les poussières et les gaz interstellaires se regroupent dans de grandes structures nommées galaxies. Ces galaxies ont la forme générale d’un disque de diamètre environ égal à 100 000 années-lumière. Au centre du disque se trouve un bulbe, et un vaste halo sphérique peu dense entoure le tout.

Système solaire 1013 m

Galaxie

1021 m, 105 al, 30000 pc

Une histoire standard de l’Univers III – Arguments astronomiques

21

Structures d’ordre supérieur Les galaxies se regroupent en amas comprenant plusieurs centaines ou milliers de galaxies. Ces amas se regroupent en superamas, qui peuvent atteindre des tailles de l’ordre de 300 millions d’années lumières. D’après des études récentes, il semble que ces amas se repartissent en filaments encadrant des espaces vides. La répartition des galaxies à des échelles supérieures pose problème : l’emboîtement continue-t-il à l’infini, donnant à l’Univers une structure fractale, ou bien l’Univers est-il homogène à grande échelle ? Bilan L’origine et la forme des structures existant dans l’Univers s’expliquent par la gravitation universelle qui est la seule force agissant à grande échelle. Toutefois nous verrons qu’il existe un fait qu’elle ne peut pas expliquer : la fuite des galaxies. En effet, des observations astronomiques ont montré que la distance entre les galaxies augmente, et ce d’autant plus vite que cette distance est plus grande.

Amas de galaxies 1023 m, 107 al, 3 Mpc

Superamas 1024 m, 108 al, 30 Mpc

Regroupement d’amas 1025 m, 109 al, 300 Mpc

Une histoire standard de l’Univers III – Arguments astronomiques

22

Distances et mesures

La mesure des distances est une clé de la cosmologie. Elle a permis de mettre en évidence l’existence d’autres galaxies que la nôtre (pensées auparavant par Kant), ainsi que la loi de Hubble qui décrit l’expansion de l’espace. Elle repose sur une démarche progressive : il faut s’appuyer sur la distance déjà mesurée pour mesurer à une autre échelle. Ces mesures sont cependant entachées d’erreurs expérimentales et deviennent de moins en moins précises quand l’échelle augmente. C’est pourquoi les principaux paramètres cosmologiques ne sont connus que de façon très approximative. Nous allons exposer de façon simplifiée quelques méthodes de mesure de distances.

Les méthodes trigonométriques La trigonométrie repose sur la géométrie du triangle. Si nous connaissons un côté (la base) et deux angles d’un triangle, nous savons calculer les longueurs des autres côtés (cela s’appelle résoudre le triangle).

Cette méthode peut être utilisée en astronomie pour mesurer des distances relativement faibles (les corps du système solaire, les étoiles proches …). Les angles mesurés sont de plus en plus petits lorsque les objets sont plus éloignés : il faut donc utiliser des bases de plus en plus grandes. Il est possible, grâce à la trigonométrie, de déterminer les distances relatives dans le système solaire. Une mesure précise, utilisant le diamètre de Terre comme base permet alors d’étalonner ces mesures. Les étoiles sont tellement éloignées qu’il faut, pour mesurer leur distance, utiliser une base beaucoup plus grande. En faisant des mesures à six mois d’intervalle, le diamètre de l’orbite terrestre peut être utilisé comme base. Nous pouvons par cette méthode mesurer la distance d’étoiles « proches » : c’est la parallaxe.

β c

α

b

a

γ

Triangle à résoudre Les éléments (généralement) connus sont en rouge. Le théorème le plus important en trigonométrie est la règle des sinus : a/sin α = b/sin β = c/sin γ. Mentionnons également le théorème d’Al-Kashi, dont Pythagore est un cas limite dans un triangle rectangle : a² = b² + c² – 2bc.cos α. L’utilisation de ces relations permet de résoudre tout triangle, lorsque sont connus au moins trois éléments. Seule exception : trois angles ne définissent pas entièrement un triangle (deux triangles homothétiques ont des angles égaux).

Une histoire standard de l’Univers III – Arguments astronomiques

23

Mesure par parallaxe Soit une étoile lointaine E, dont nous voulons mesurer la distance. Il nous suffit de déterminer les angles α et β à 6 mois d’intervalle, la Terre se trouvant à des positions diamétralement opposées par rapport au Soleil. Ces angles se mesurent par rapport à une visée vers une étoile de référence (supposée à l’infini). La distance D étant très grande par rapport au diamètre 2r de l’orbite terrestre, nous pouvons assimiler la médiane (ES) à la bissectrice du triangle ET0T6. La parallaxe π (en radians) est définie comme le demi-angle en E, c'est-à-dire (α + β)/2. De même, la précision relative des mesures d’angles nous permet d’assimiler le segment [ST0] à un arc de cercle, soit : r = πD. Par conséquent, la distance D a pour expression : D = r/π.

Le parsec (pc) est une unité de distance : 1 parsec est la distance d’une étoile possédant une parallaxe de 1 seconde d’arc, et vaut environ 3,26 années-lumière. Attention à la confrontation des unités tout de même : pour que la formule donnée soit correcte, π doit s’exprimer en radians.

La première mesure de parallaxe stellaire a été effectuée par l’astronome allemand Bessel sur l’étoile 61 Cygni, en 1838. Il a fallu attendre cette date pour que les techniques permettent de mesurer des angles assez petits. Les mesures les plus précises à l’heure actuelle ont été effectuées par le satellite européen Hipparcos. Pour Proxima Centauri, l’étoile la plus proche du Soleil, la parallaxe vaut 0,772’’ selon le satellite : elle se situe donc à 0,772 parsec (pc), soit une distance de 2,39.1017 m, ou encore 2,51 al. En théorie, Hipparcos peut étudier les étoiles éloignées de plus de 300 pc. Mais ces mesures sont encore d’une échelle trop petite pour nous être suffisantes en cosmologie, puisque nous n’atteignons alors que la « banlieue » de notre bras galactique.

Mesure des distances galactiques et photométrie Comme nous l’avons vu, à l’échelle des galaxies, les parallaxes sont inutilisables, les astronomes emploient donc des méthodes indirectes. Nous allons ici présenter la méthode photométrique. La photométrie est basée sur une relation fondamentale, qui énonce que l’éclairement Ee varie en inverse carré de la distance d, l’éclairement correspondant à la puissance de rayonnement reçue par une surface. Ceci peut aisément se comprendre par un schéma de sphères emboîtées (ci-contre) : le flux Φ est constant, et la surface qui le reçoit augmente comme le carré de la distance. Pour une description des grandeurs utilisées, se référer à l’Annexe C.

S T0 T6

∞ ∞ E

α β

π

α + β

r

D

s 4s 9s

Φ

Φ

d

2d

3d

s, 4s, 9s représentent les surfaces successives sur lesquelles sont réparties le même flux Φ à une distance d de l’étoile

Une histoire standard de l’Univers III – Arguments astronomiques

24

La méthode photométrique doit tout d’abord être étalonnée : l’étude de systèmes de référence situés à une distance bien connue – par des méthodes plus élémentaires comme la trigonométrie ou la parallaxe – permet de construire une relation entre une caractéristique physique de l’étoile (un paramètre observable P) ne dépendant pas de la distance, et l’éclairement. Pratiquement, si nous étudions P pour le système voulu, nous en déduisons l’éclairement, et nous pouvons obtenir la distance. Nous prendrons plusieurs exemples courants. En premier lieu, l’astronome a à sa disposition un diagramme appelé de Hertzsprung-Russell, ou HR, qui représente la relation entre le spectre d’émission d’une étoile et sa température de surface T (absolue bien sûr). Ici, le graphique présente la luminosité L d’étoiles (à rapproche du flux émis) en rapport de la luminosité LS du Soleil, en fonction de T. La lumière des étoiles (ou plutôt émise par leur couche superficielle) reçue par les télescopes est analysée par un spectroscope, qui sépare les différentes composantes de la lumière selon leurs longueurs d’ondes, comme le prisme dissocie la lumière blanche – nous présenterons plus en détail ce spectre dans le paragraphe suivant. A partir des caractéristiques de ce spectre, il est possible de déduire la température superficielle de l’étoile T : soit en utilisant la loi de Wien, λmax = w/T, avec w constante de proportionnalité, où λmax est la longueur d’onde pour laquelle l’émittance est maximale ; soit par la loi de Stefan-Boltzmann, E = σT4, avec σ, constante de proportionnalité et E, émittance totale (ces relations seront utilisées dans Le rayonnement de fond, p 33). Nous disposons donc de T, reste à reporter sur HR pour trouver L et par suite l’éclairement Ee et la distance d grâce à l’étalonnage.

Diagramme de Hertzsprung-Russell

constitué grâce aux étoiles proches du Soleil

Notre Soleil est matérialisé par un cercle épais dans la séquence principale. Sa température superficielle est d’environ 5700 K. Près de 80% des étoiles se situent dans la séquence principale. Celle-ci correspond à la plus longue période de leur vie, où elles transforment grâce à la fusion thermonucléaire l’hydrogène (H) en hélium (He). En effet, les étoiles évoluent sur ce diagramme, notamment en fin de vie. Selon leur masse, elles deviennent des naines blanches, ou des géantes, voir supergéantes …

0

Supergéantes

Géantes

Naines

2500 20000 10000 5000 T (K)

10–4

10-–2

1

102

104

106

L/LS

Séquence

principale

Une histoire standard de l’Univers III – Arguments astronomiques

25

Toutefois, l’astronome préfère travailler avec la grandeur appelée magnitude, qui augmente lorsque l’éclat diminue – c'est-à-dire la puissance reçue perpendiculairement à la surface, divisée par cette surface. Il n’est possible de mesurer que des différences de magnitudes, dites apparentes et notées m. Entre deux étoiles 1 et 2, cette différence est une fonction du logarithme décimal de leur éclairement d’après la loi de Pogson : m1 – m2 = – 2,5 log(E1/E2). Là encore, en utilisant un système de référence connu, il est possible de trouver m. Les étoiles étalons de nos jours sont nombreuses (plus d’une centaine) et constituent à la séquence polaire. Remarquons enfin que le choix du système de référence ne fait qu’ajouter une constante à la magnitude apparente. En photométrie, l’astronome préférera utiliser la magnitude absolue M qui est la magnitude apparente de l’étoile si elle était situé à 10 pc, et la relier à sa magnitude apparente réelle m (en utilisant la variation en inverse carré de l’éclairement) selon la relation1 M – m = – 5 log d + 5. Cette différence, appelée module de distance, est indépendante du système de référence. Un exemple assez connu : la relation période-luminosité des Céphéides. Il s’agit de jeunes étoiles géantes dont la luminosité L varie de façon périodique et pour lesquelles il existe une relation entre la période – la plus courte durée séparant deux instants où l’étoile a le même éclat – et la luminosité ; plus la période est longue, plus la luminosité est élevée. En mesurant la période, nous déduisons la luminosité. Connaissant la luminosité, la distance se calcule aisément. Cette méthode correspond à un indicateur primaire de distance car il est calibré dans notre galaxie, en observant des astres dont la distance à été mesuré par la méthode des parallaxes statiques. Il peut permettre de déterminer la distance de galaxies relativement proches (celle du groupe local). Ces distances, une fois connue, pourront servir à déterminer des indicateurs secondaires, qui permettront de déterminer les distances de galaxies plus éloignées et de construire des indicateurs tertiaires, qui eux-mêmes permettront de connaître la distance de groupes et d’amas proches. Le diamètre des régions HII (nuages de gaz les plus brillants dans une galaxie) est un indicateur secondaire (de l’ordre de 10 Mpc) ; le diamètre, la luminosité et les émissions radio des galaxies sont des indicateurs tertiaires (de l’ordre de 100 Mpc).

Mesures de distances de proche en proche Imbrication d’échelles et indicateurs

Distance (Mpc)

4 1.1018

Distance (m)

25 7.1018

100 3.1019

Distance des galaxies du Groupe local

Distance de galaxies proches

Distances des amas proches

Indicateurs primaires

Céphéides, novae

Indicateurs secondaires

Supergéantes, amas globulaires

Indicateurs tertiaires

Luminosité, spectroscopie

Une histoire standard de l’Univers III – Arguments astronomiques

26

Après cette rapide présentation des méthodes de mesures de distance, des remarques s’imposent. Tout d’abord, comme il s'agit d’une démarche de proche en proche, les mesures des distances d’objets de plus en plus éloignées sont de moins en moins précises. Elles ont dû être corrigées plusieurs fois et sont encore discutées, comme nous le verrons au sujet de la constante de Hubble. Toutefois, elles ont fait progresser l’astronomie. Avant le début du XXe siècle, toutes les tâches floues sur la voûte céleste étaient appelées « nébuleuses », par opposition aux étoiles nettes. Grâce aux mesures de distances, il a été découvert que, si certaines étaient des nuages de gaz situés dans notre galaxie, il existait aussi d’autres galaxies, si lointaines qu’elles étaient perçues sous cette forme de tâche floue. Enfin ces mesures permirent à Hubble de faire une découverte qui a révolutionné notre conception de l’Univers.

Décalage vers le rouge et loi de Hubble Reprenons notre spectroscope, qui permet d’observer en détail le spectre électromagnétique émis par les couches superficielles d’une étoile. Ce spectre apporte des informations car il n’est pas continu : il présente des raies sombres dite raies d’absorption. En effet, un gaz excité (par décharges électriques par exemple) est caractérisé par différentes « raies spectrales » d’émission de longueur d’onde bien définie. Ces émissions discrètes s’expliquent dans le cadre de la quantification des niveaux d’énergies électroniques autour du noyau atomique ². Ci-dessous, le spectre d’émission en lumière visible de l’atome d’hydrogène 1H. De la même manière, les couches supérieures d’une étoile absorbent certaines fréquences de la lumière « blanche » provenant de l’intérieur, le spectre d’absorption étant simplement le « négatif » du spectre d’émission – puisque, au niveau électronique, cela correspond à des transitions de sens opposé entre les niveaux d’énergie. Les fréquences d’absorption dépendent uniquement des atomes composant les couches supérieures : les raies du spectre peuvent alors être considérées comme la « signature » d’un élément. La réalisation du spectre des galaxies montre que ces raies sont systématiquement décalées vers le rouge : vers les grandes longueurs d’onde, c'est-à-dire que nous observons des photons moins énergétiques. Ce décalage est mesuré par la différence entre la longueur d’onde pour un système au repos, λ0, et la longueur d’onde observée λ. Le rapport (λ – λ0)/λ0 = Δλ/λ, noté z, est appelé décalage spectral relatif vers le rouge ou redshift. Par ses observations, Hubble a montré en 1929 que le décalage vers le rouge est

proportionnel à la distance : le diagramme de Hubble de la page suivante met en évidence une relation linéaire de log z avec la magnitude apparente m ; donc z et d sont proportionnels, à une constante ajoutée près ! Mais il va plus loin, car il explique le décalage vers le rouge par l’effet Doppler-Fizeau. En première approximation, la relation de Doppler-Fizeau s’écrit z = vr/c, où vr est la vitesse le long de la ligne de visée (vitesse radiale). L’observation de Hubble implique donc que les galaxies sont animées d’une vitesse de

fuite proportionnelle à leur distance, ce qui peut s’écrire vr = H0d, avec H0 constante de Hubble, aujourd’hui estimée entre 50 et 100 km.s–1.Mpc–1 (ici intervient l’imprécision dont nous parlions précédemment).

400 500 600 700

Longueur d’onde λ (nm)

Hδ Hγ Hβ Hα

Une histoire standard de l’Univers III – Arguments astronomiques

27

Néanmoins, cette loi de Hubble est prise en défaut dès que z > 0,03. Au-delà, les effets relativistes sont à prendre en compte, et le redshift relativiste s’exprime par Z = – 1 + √(1 + z)/(1 – z), et alors H0 correspond à l’inverse de l’âge de l’Univers. C’est pourquoi, si nous tenons compte en outre des imprécisions, nous n’obtenons pas une droite. Dans la partie suivante concernant les « modèles d’Univers », nous verrons comment la cosmologie moderne explique ce nouvel Univers, non plus statique mais en expansion.

Diagramme de Hubble simplifié

L’axe du décalage spectral z possède une échelle logarithmique. La distance d étant reliée par une relation logarithmique à la magnitude apparente m accessible par des méthodes photométriques, il est possible les intervertir et donc de placer le décalage spectral z en fonction de d. Les points rouges font état de diverses mesures au cours des années 90. Nous découvrirons le diagramme complet lorsque nous traiterons des modèles d’Univers. La loi de Hubble (cf. Décalage vers le rouge et loi de Hubble), donnant la vitesse v = H0.d est bien valable dans le coin inférieur gauche, pour des décalages spectraux inférieurs à 0,03 (région orangée) : en effet, la relation est ici approximativement proportionnelle. Au-delà, les effets relativistes sont à prendre en compte (le décalage spectral pouvant éventuellement être supérieur à 1 comme nous le verrons ultérieurement), et H0 ne peut plus être considérée constante.

z 0,02 0,05 0,1 0,2 0,5

14

0

16

18

20

22

m

Une histoire standard de l’Univers III – Arguments astronomiques

28

Principe cosmologique et modèles d’Univers

Quelques hypothèses En premier lieu, la relativité restreinte – et par conséquent, la théorie « générale » - nous a appris qu’il n’existait pas de référentiel privilégié pour décrire la dynamique d’un système : tous les référentiels se valent. A nous de choisir le plus « pratique ». Et, si nous voulons connaître, dans un nouveau référentiel, la dynamique d’un système déjà étudié, il nous suffit d’employer la transformation de Lorentz. Nous pouvons donc comprendre qu’il n’existe pas de « centre » de l’Univers, ni de direction privilégiée, ni d’axes de référence. Ces affirmations sont, comme il se doit, confirmées par l’observation. Ainsi, la loi de Hubble, reste valable localement – ne généralisons pas … –, mais dans toutes les directions. Un autre exemple : le rayonnement de fond cosmologique (que nous expliquerons ultérieurement ; précisons seulement qu’il témoigne des tout débuts de l’Univers) observé est quasiment uniforme. Les divergences de température – appelées anisotropies – constatées sont de l’ordre de 10–5 K ! Statistiquement, et à grande échelle, la répartition des galaxies et des radiosources (sources de rayonnement électromagnétique) est isotrope. C'est-à-dire qu’aucune région du ciel que vous pourriez observer ne serait plus brillante qu’une autre : la matière est, globalement, uniformément répartie dans tout l’espace et dans toutes les directions. Ces deux hypothèses d’isotropie et (en conséquence) d’homogénéité constituent le principe cosmologique. Le principe cosmologique est, comme nous l’avons montré, vraisemblable, et certainement vérifié ; néanmoins, nous ne pouvons l’affirmer catégoriquement. C’est pourquoi il est nommé « principe » (notons que pour Poincaré, le principe cosmologique serait une définition déguisée). Quoiqu’il en soit, sa formulation nous permettra de nombreuses simplifications bienvenues lorsque nous nous initierons aux modèles d’Univers. Nous pourrons alors juger de la validité de ses implications. D’autre part, la relativité de l’espace-temps – toujours comme conséquence des théories d’Einstein – nous enseigne la dépendance du temps – notamment - au référentiel choisi (de sa position dans l’espace-temps, du champ de gravitation, ou de l’accélération, subis, de sa vitesse ...). Les aspects présentés dans les Vues relativistes (p 2) illustrent bien cette situation … La leçon est, bien sûr, qu’il existe pas de temps privilégié, nous mesurons un temps relatif. Comment alors parler de l’âge de l’Univers – quelque soit sa valeur – et d’un « temps absolu », c'est-à-dire utile, précisément définissable ? Nous allons suivre un raisonnement valable grâce au principe cosmologique, et précisons-le une nouvelle fois, à grande échelle. Prenons un système de corps ; ils sont entraînés dans la dilatation de l’espace-temps, qui est isotrope. D’autre part, si nous mesurons la vitesse relative d’éloignement, et que nous constatons une anisotropie, nous pouvons affirmer que nous sommes en mouvement « propre » par rapport à ces corps. Au contraire, si nous observons une isotropie par rapport à ce système, nous sommes « immobiles ». Le plus simple est d’utiliser, en lieu et place d’un système de corps, le rayonnement de fond cosmologique : il baigne l’Univers entier et se trouve en effet isotrope (voici une première utilité à notre principe cosmologique). De cette manière, il a été constaté que la Terre avait un mouvement propre dans l’espace-temps, ce qui est caractérisé par l’observation du présent dipôle : c’est l’anisotropie du rayonnement de fond que nous détectons sur notre planète. Grâce à ces considérations, est défini le temps cosmique : c’est celui d’un référentiel lié à un observateur qui constate une isotropie (globale) du rayonnement de fond, donc pour lequel, (globalement), l’intensité des radiosources est uniforme dans toutes les directions.

NASA

La « preuve » du mouvement propre de la Terre

Une histoire standard de l’Univers III – Arguments astronomiques

29

Définitions et notions Avant de continuer, nous devons préciser quelques notions, notamment en ce qui concerne la dynamique de l’Univers. L’application du principe cosmologique (qui contient les deux hypothèses d’isotropie et d’homogénéité à grande échelle, rappelons-le) nous conduit à considérer un Univers fluide homogène de densité moyenne actuelle ρ0 ≈ 10–27 kg.m–3. Les équations de la relativité générale sont alors considérablement simplifiées et nous les présentons ci-dessous. Elles décrivent « la dynamique » à grande échelle de l’Univers, et ses caractéristiques, en fonction de paramètres à déterminer par l’observation et de certaines constantes.

Les équations de la relativité générale simplifiées par l’application du principe cosmologique.

C’est un système d’équations différentielles (reproduit partiellement ici), dit de Friedman-Lemaître.

Le paramètre R est le facteur d’échelle, équivalent au rayon de courbure au temps t, noté également R(t). Dans les équations apparaissent également ses dérivées première R’ et seconde R’’ par rapport au temps. C’est une fonction du temps qui intervient dans la définition d’une distance dans un espace en extension. Nous en reparlerons. ρ est la densité moyenne de l’Univers au temps t, déterminée par l’observation, actuellement de l’ordre de 10–27 kg.m–3 P est sa pression moyenne, en tant que fluide homogène et isotrope. Λ (s–2) représente la fameuse constante cosmologique introduite arbitrairement (au départ) par Einstein, ou paramètre de pression négatif. Elle rend compte d’une accélération de l’expansion. k est une constante d’intégration normalisée. Pratiquement, elle prendra les valeurs +1 ; 0 ; –1 selon que la courbure de l’Univers décrit est positive, nulle, ou négative (ces termes sont précisés dans les Modèles d’Univers). H (s-1) est un paramètre dont la valeur actuelle est la « constante » de Hubble H0. q est le paramètre de décélération, qui « s’oppose » à une expansion (sans dimension). G est bien sûr la constante universelle de gravitation, et c correspond à la vitesse de la lumière. Il existe une troisième équation, qui rend compte de la conservation de l’énergie et où interviennent ρ et P, dont nous ne nous servirons pas, et que nous n’avons donc pas fait figurer.

R

R&=H

²q

R

RR

&

&&

−=

(E1)

(E2)

3G8

3²c

²H²²c

kρπ=Λ−+⋅

R

²cGP8

²c2²H²²c

kπ=Λ+−−⋅−

R

R

R

&&

Une histoire standard de l’Univers III – Arguments astronomiques

30

A présent, définissons la densité critique ρC : c’est la densité d’énergie pour laquelle la courbure de l’Univers est nulle : il est « plat ». L’espace-temps peut alors, à grande échelle toujours, être assimilé à un espace euclidien (dans lequel la somme des angles d’un triangle est de 180°). Les observations actuelles semblent montrer que la densité de l’Univers est effectivement critique, mais nous ignorerons pour l’instant ce fait expérimental. Nous pouvons alors introduire de nouveaux paramètres cosmologiques intéressants (Annexe D) : ceux-ci seront exprimés en rapport de la situation critique, constituant ainsi des grandeurs sans dimension, pratique à manier. Soit ΩU, la densité totale de l’Univers. Elle sera définie comme la somme du paramètre densité de matière ΩM (ou d’énergie) et du paramètre de pression négatif ΩΛ : ΩU = ΩM + ΩΛ. Explicitons ces deux termes de la somme. ΩΛ, aussi noté λ, correspond à un paramètre d’expansion, dit de « pression négatif ». Il correspondrait à une « énergie du vide », concept que nous avons rencontré dans les Eléments de physique des particules (p 17). Le paramètre de densité ΩM est son antagoniste, c'est-à-dire qu’il tend à ralentir l’expansion (par l’intermédiaire de la force de gravitation) : il est ainsi lié au paramètre de décélération q. Tous ces paramètres doivent être précisés par l’observation – la théorie d’Einstein ne les fixe pas. Une voie prometteuse est l’étude de supernovae de type Ia – les plus brillantes – à grands décalages spectraux : z > 0,2. En effet, dans l’Univers, la vitesse d’éloignement de deux points dépend de ΩM et ΩΛ. Le diagramme de Hubble suivant (cf. Distances et mesures, p 27) rend compte de récentes études, et indiquent pour un Univers à densité critique (ΩU = 1) différentes combinaisons des deux paramètres cosmologiques. Avec ces notions, nous pouvons construire des modèles d’Univers : ce sont des variétés d’espace-temps qui satisfont aux équations de la relativité générale (en rapport avec leurs caractéristiques topologiques notamment).

Diagramme de Hubble complet

Nous connaissons déjà en partie ce diagramme, avec le décalage spectral z en échelle logarithmique sur l’axe des abscisses, et la magnitude apparente sur l’échelle . De surcroît, nous y présentons les résultats (en jaune) d’observations récentes de supernovae (plus précisément de type Ia, les plus brillantes, visibles à très grande distance), juste avant leur maximum de luminosité. Ces travaux ont été réalisés par l’équipe de Perlmutter (Berkeley) engagée dans le Supernovae Cosmology Project. Selon ce diagramme, divers scénarios et jeu de constantes sont encore envisageable. Nous évoquerons ces possibilités en conclusion.

(ΩM ; ΩΛ)

(0 ; 1) (1/2 ; 1/2) (1 ; 0)

0,02 0,05 0,1 0,2 0,5 1

14

0

16

18

20

22

24

26

z

m

Une histoire standard de l’Univers III – Arguments astronomiques

31

Modèles d’Univers Le concept de modèles d’Univers nous familiarise avec les caractéristiques de notre Univers : son origine, son évolution … Notre seule hypothèse est le principe cosmologique, et nous déterminerons les différents modèles d’Univers s’y conformant, selon les valeurs des paramètres cosmologiques. En fait, il existe une infinité d’espaces-temps solutions des équations de la relativité générale ainsi simplifiées. Nous en distinguerons deux types, selon la valeur de Λ. Pour une constante cosmologique nulle, nous considérerons les Univers de Friedman ; sa généralisation à des valeurs autres de Λ est réalisée dans les Univers de Lemaître. Le diagramme ci-dessous rassemble tous ces modèles (si la matière domine). La majorité des résultats présentés sont détaillés en Annexe D.

Modèles d’Univers de Friedman-Lemaître et paramètres cosmologiques

Trois grands types d’Univers sont à distinguer selon les valeurs des constantes cosmologiques : en bleu, Univers décrit par la géométrie hyperbolique, dit ouvert ; en rouge, par la géométrie euclidienne, dit plat ; en jaune, par la géométrie sphérique, dit fermé. Ce diagramme est valable quantitativement pour une domination de la matière.

λ

q

0 1 2

1/2

1

2

1/3

Densité négative Pas de modèle d’Univers

Courbure positive

Courbure négative

Courbure nulle

Univers plat

-1

-1

U

n

i

v

e

r

s

d

e

F

r

i

e

d

m

a

n

Une histoire standard de l’Univers III – Arguments astronomiques

32

Le physicien et mathématicien russe Aleksandr Friedman étudia, en 1922, les solutions des équations de la relativité générale pour des Univers isotropes et homogènes, sans paramètre de pression négatif. Ce qui implique qu’il n’y ait pas de force contrecarrant la gravitation à grande échelle. En terme de paramètres cosmologiques, nous avons : λ = 0, soit ΩU = ΩM et q > 0, paramètre de décélération. Ces modèles d’Univers sont situés, sur notre diagramme, sur la droite d’équation λ = 0. Et, grâce au principe cosmologique, le temps et l’espace peuvent être en tout point séparés par l’introduction d’un facteur d’échelle R(t), ou R (nous en donnerons un exemple). Il existe un cas particulier parmi les modèles de Friedman : c’est celui d’un Univers plat, à densité critique : Ωk = 0 ; ΩU = ΩM = 1 ; mis en évidence par l’intersection de la droite (rouge) de courbure nulle et celle des solutions de Friedman. Attardons-nous sur les caractéristiques d’un tel Univers. En remplaçant ces valeurs dans l’équation (E1), nous déduisons la densité (critique) correspondante 4 : ρc = 3H²/8πG. La courbure nulle implique un Univers infini et plat : euclidien donc, que nous savons manier. Dans ce cas, un élément de distance dr a pour expression : dr² = R(dx² + dy² + dz²). L’espace (décrit par la somme des carrés entre parenthèses) et le temps (contenu dans le facteur d’échelle) sont ainsi séparés : les coordonnées (x ; y ; z) des points sont fixes ; il est possible de définir la distance euclidienne entre les coordonnées, et le facteur R, facteur d’échelle, traduit la dilatation de l’espace. D’autre part, en intégrant les équations de la relativité pour ce cas précis, il est possible de montrer que R est une puissance du temps. Puissance 1/2 si l’Univers est dominé par le rayonnement, puissance 2/3 s’il est dominé par la matière : ces lois sont expliquées en Annexes D et E. Par conséquent, pour t = 0, nous trouvons des distances nulles, une pression ainsi qu’une température infinie ! Cet élément excentrique tiré de nos calculs mathématiques s’appelle une singularité. La physique y perd pied devant les infinis ! Enfin, l’expression de R en puissance de t implique une singularité initiale, et une expansion infinie … Outre ce cas particulier à densité critique, nous trouvons deux autres ‘types’ d’Univers de Friedman. Premier genre, un espace-temps ouvert, à courbure négative : celui-ci est infini, et se réalise pour les paramètres ΩM < 1 et k = –1. Globalement, il est démontré qu’un tel Univers admet une seule singularité, donc une expansion infinie. Second genre, un espace-temps fermé, à courbure positive : celui-ci est fini, et se réalise pour les paramètres ΩM > 1 et k = 1. Globalement, il est démontré qu’un tel Univers admet plusieurs singularités, il est donc cyclique.

Les modèles d’Univers de Lemaître sont une généralisation des solutions de Friedman – donc satisfaisant au principe cosmologique – à des valeurs non nulles de la constante cosmologique Λ. Ce paramètre a été initialement introduit dans les équations par Einstein pour permettre un Univers statique. L’abbé belge Georges Lemaître démontra que ce type d’espace-temps est nécessairement instable. Il conserva néanmoins la constante cosmologique, et développa de 1927 à 1933 les modèles d’Univers portant son nom. Aujourd’hui, nous pouvons interpréter cette constante cosmologique à l’aide des avancées de la mécanique quantique comme une « énergie du vide ». Par conséquent, la densité totale de l’Univers est bien : ΩU = ΩM + ΩΛ. A Λ s’oppose le paramètre de décélération q, comme nous l’avons expliqué. Sur notre diagramme, les Univers de Lemaître couvrent tout le plan. Ou presque, car il ne peut exister d’Univers à densité totale négative : nous avons obligatoirement ΩU > 0, c'est-à-dire q + λ > 0, en reprenant les notations du diagramme. C’est pourquoi la zone grisée en dessous de la droite d’équation q = – λ ne rend compte d’aucune situation physique. D’autre part, nous trouvons des Univers de Lemaître aussi bien à densité critique (courbure nulle) et plat sur la droite d’équation q = (-3/2)λ + 1/2, que ouvert ou fermé de part et d’autre de la droite. Enfin, les singularités que nous avons rencontré pour les Univers de Friedman ne sont pas obligatoires dans un Univers de Lemaître : leur présence et leur nombre dépend de la solution en R des équations de la relativité générale. Ainsi, avec une constante cosmologique non nulle, nous pouvons trouver tous types d’Univers : certains ayant un âge fini avec une singularité à leur origine, d’autre ayant un âge infini ! De même, les scénarii de leur évolution dépend de la valeur exacte des paramètres ΩM et ΩΛ : soit une accélération de l’expansion, soit une « taille » limite, ou encore un Big Crunch, c'est-à-dire la contraction de l’espace-temps en une singularité. Notre intérêt à déterminer les paramètres cosmologiques est nourri par notre curiosité du passé mais aussi de l’avenir (lointain …) : au menu de notre Conclusion.

Une histoire standard de l’Univers III – Arguments astronomiques

33

Le rayonnement de fond cosmologique

L’Univers entier est baigné par un rayonnement de fond peu énergétique et isotrope, comme nous l’avions souligné dans notre partie précédente. Pour comprendre son origine et ses propriétés, nous devons aborder la théorie du corps noir. Ensuite, nous retracerons l’historique de sa découverte. Nous serons alors en mesure de discuter des apports de ce rayonnement de fond au modèle standard de la cosmologie, et des perspectives qu’il ouvre en ce qui concerne les modèles d’Univers.

Rayonnement de corps noir Un corps noir est un système idéalisé isolé – il n’existe aucun transfert d’énergie avec l’extérieur – où la matière et le rayonnement sont en équilibre thermique. C’est-à-dire que la matière absorbe autant d’énergie qu’elle en émet. Nous pouvons étudier le corps de noir de manière théorique, grâce à la thermodynamique, ou de manière expérimentale par l’utilisation d’un four comme corps noir approché (cf. schéma ci-contre). Quelles sont les propriétés découlant de l’isolement et de cet équilibre thermique ? Tout d’abord, pour un observateur placé à l’intérieur du corps noir, celui-ci est homogène et isotrope, le rayonnement électromagnétique possédant (et conservant) en tout point les mêmes propriétés. Par conséquent, le corps noir conserve indéfiniment sa température initiale. Le rayonnement échangé à l’intérieur du corps noir ne dépend ni de sa forme, ni de sa composition. Il possède un spectre complet (cela signifie que toutes les longueurs d’onde sont présentes) déterminé totalement par la température du système.

parois isolantes

résistances chauffantes corps noir

analyse spectrale par dispersion

rayonnement et paroi du four en équilibre thermique

Le four : approximation de corps noir

pour l’étude expérimentale

Une histoire standard de l’Univers III – Arguments astronomiques

34

La loi de Stefan-Boltzmann nous permet de connaître l’émittance totale (en W.m-2) : E = σT4 ; T étant la température absolue. D’autre part, une étude plus approfondie de la théorie du corps noir donne la loi de Wien, qui exprime la longueur d’onde d’émission maximale λmax en fonction de la température absolue T : λmax = w/T ; w étant une constante de proportionnalité. Voici un exemple de spectre émittance/longueur E–λ d’onde de corps noir (pour une température de 3000 K ; la zone verte représente le rayonnement visible), qui est décrit dans son ensemble par la loi de Planck 5, qui suit une expression mathématique assez complexe.

Découverte et explication Nous pouvons observer actuellement un rayonnement de corps noir qui semble baigner l’Univers tout entier, nommé « fond diffus cosmologique », ou CMB en anglais (Cosmic Microwave Background). Son existence fut prédite par l’astrophysicien américain Gamow : partant de l’idée d’une explosion primordiale de température 1010 K, il en déduit l’existence d’un rayonnement fossile homogène et isotrope à la température d’environ 10 K. Cette prédiction fut vérifiée en 1964 par la découverte fortuite d’une composante d’un rayonnement de fond pour λ = 7,3 cm par deux radioastronomes américains, Arno Penzias et Robert Wilson. Ceux-ci testaient une antenne radio de transmission satellite, et voulaient éliminer le bruit perturbant les signaux. Une fois écartés les parasites dus à leur appareillage, il subsistait un rayonnement électromagnétique universel, ne provenant d’aucun point particulier de l’espace et restant constant dans le temps. Le spectre E–λ de cette émission fut progressivement reconstruit, et fut identifié un rayonnement de corps noir à 2,735 K (à 0,3% près), soit une émittance maximale pour la composante micro-onde λ = 1,06 mm, selon la loi de Wien.

Spectre E– λ du rayonnement de fond

L’échelle des longueurs d’onde est logarithmique.

E/Emax

λ (μm) 0,5 1,0 1,5 2,0 2,5 3,0 3,5

1 λmax = 0,97 μm

0,8

0,6

0,4

0,2

0

λmax = 1,06 mm

λ (mm)

10 1 0,1

1

0,8

0,6

0,4

0,2

0

E/Emax

Une histoire standard de l’Univers III – Arguments astronomiques

35

Le CMB est expliqué dans le cadre du modèle standard de la cosmologie : la théorie du Big Bang permet de le comprendre comme rayonnement fossile. Au début de l’Univers, les photons sont constamment absorbés puis émis par les électrons : matière et rayonnement sont en équilibre thermique, l’Univers est donc un corps noir. Mais, 300 000 ans après le Big Bang, la température descend à 3000 K, soit une énergie moyenne inférieure à 1 eV, les électrons pouvant alors être capturés par les noyaux légers pour former les premiers atomes : c’est la recombinaison. Les photons peu énergétiques n’interagissent pratiquement plus avec la matière : il y a découplage. Le rayonnement peut donc se propager librement. D’autre part, la multiplication par 1000 du facteur d’échelle R dilue cette émission de corps noir de 3000 K à environ 3 K. Ces mécanismes sont expliqués plus largement dans le paragraphe En approchant du Big Bang. Récemment, la mission COBE (COsmic Background Explorer) lancée par la NASA en 1989, a permis de constater la quasi-isotropie (globale) du CMB. Notons que c’est un argument en faveur du principe cosmologique. Cette observation a été réalisée en soustrayant aux résultats expérimentaux le composante dipolaire du rayonnement, que nous avons déjà rencontrée, due au mouvement propre de la Terre. Toutefois, une étude plus fine des observations (en leur soustrayant un rayonnement de corps noir de température 2,735 K) permet de détecter des anisotropies locales, l’écart relatif mesuré étant de ΔT/T ~ 10-5. La célèbre carte de ces anisotropies est reproduite ci-dessous. La résolution angulaire du satellite COBE était de 7°, les résultats sont alors grossiers, et encore insuffisant pour confirmer le modèle standard de la cosmologie qui prévoit des fluctuations de température actuelles de ΔT/T ~ 10-6. En 2007, le satellite Planck déterminera une nouvelle carte des anisotropies avec une meilleure résolution angulaire, de 7’ et une sensibilité thermique de ΔT/T ~ 2.10-6. Il permettra de mieux tester le modèle standard de la cosmologie, et aussi l’hypothèse de l’inflation. Nous détaillerons ces aspects dans le paragraphe Un modèle inflationniste (p 40).

La carte des anisotropies du CMB

réalisée par la mission COBE de la NASA

Une histoire standard de l’Univers III – Arguments astronomiques

36

Notes (1) Nous allons démontrer cette relation, et justifier son indépendance vis-à-vis du système de référence. Considérons une étoile de référence dont la magnitude apparente sera nulle par définition, et produisant un éclairement E0. Pour une étoile produisant un éclairement E et de magnitude apparente m dans ce système de magnitude, nous aurons : m = – 2,5 log(E/E0). Plaçons cette même étoile à 10 pc, elle produit un éclairement E’, et d’après, la définition de la magnitude absolue : M = – 2,5 log(E’/E0). Exprimons leur différence, puis utilisons les règles de calcul des logarithmes :

M – m = – 2,5 log(E’/E0) + 2,5 log(E/E0) = –2,5 [log(E’/E0) – log(E/E0)] = – 2,5 log[(E’/E0) (E/E0)] = – 2,5 log(E’/E)

Nous constatons que notre système de référence n’intervient pas dans cette différence entre magnitude absolue et magnitude apparente d’une étoile. De plus, nous savons que le rapport des éclairements varie en inverse carré du rapport des distances de l’étoile. Exprimons ces distances en parsecs, nous avons alors, si d est la distance de l’étoile : E’/E = (10/d)–². D’où :

M – m = – 2,5 log[(10/d)–²] = 5 log(10/d) = 5 log 10 – 5 log d

Nous retrouvons la relation annoncée : M – m = – 5 log d + 5 (2) Les énergies des niveaux électroniques sont bien définies pour chaque type d’atome, de sorte que seules les photons dont l’énergie W (J) correspond exactement à une transition possible sont absorbés. Cela se traduit par des raies d’absorption où tous les photons de fréquence ν (Hz) telle que : W = hν ; sont absorbés. En utilisant la relation entre fréquence et longueur d’onde λ (m), les longueurs d’onde des raies d’absorption sont : λ = hc/W. (3) Cet observateur particulier est dit comobile, et c’est à lui que se rapportent les coordonnées d’un évènement en cosmologie. (4) Ce modèle d’Univers euclidien (plat) nous amène à prendre, comme nous l’avions indiqué, une constante d’intégration k nulle. Dans cet Univers de Friedman, la constante cosmologique Λ est nulle. D’où le second membre de l’équation (1) est nul, et celle-ci devient : H² – 8πGρC/3 = 0. Et le résultat : ρC = 3H²/8πG. (5) La loi de Planck, qui peut s’établir en assimilant les atomes à des oscillateurs harmoniques, donne la relation à l’équilibre thermique entre <E>, énergie moyenne d’un oscillateur (J), la longueur d’onde λ correspondante (m) et la température absolue T du corps noir (K), en faisant intervenir la constante de Planck h, la constante de Boltzmann k, et la célérité de la lumière dans le vide c : L’émittance, compte tenu des éléments indiqués en Annexe C, peut être considérée comme proportionnelle à cette énergie moyenne. Nous ne présentons par ailleurs dans les graphiques E–λ qu’une grandeur sans dimension, l’émittance en une longueur d’onde étant rapportée à l’émittance maximale.

1

hc1E kT/hc −

⋅λ

= λe

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

37

IV – Aux débuts de l’Univers

Introduction – Pourquoi le Big Bang ? Nous avons présenté les différents modèles d’Univers respectant le principe cosmologique, et introduit le concept de singularité. Nous savons, d’après les récentes observations, que la constante cosmologique ne peut être nulle : l’Univers peut ou non admettre une singularité initiale. L’existence d’une singularité (Big Bang) à l’origine de l’Univers impliquerait un âge fini. Pourquoi préférer le Big Bang ? L’attrait principal de cette théorie est qu’elle permet de décrire une évolution physique pour l’Univers, selon les paramètres macroscopiques que sont la température, la densité, etc … Avec nos connaissances en physique de la matière, nous pouvons faire des prédictions sur l’état et la composition de l’Univers en un instant donné, qui peuvent être comparées aux observations « actuelles » 1 : rayonnement de fond cosmologique, proportions des éléments légers hydrogène et hélium, loi de Hubble … et y sont conformes. Ainsi, le modèle du Big Bang1 est cohérent expérimentalement, et de plus compatible avec les paramètres cosmologiques mesurés.

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

38

En approchant du Big Bang

Le retour vers le passé, nous le savons à présent, implique des températures – donc des énergies cinétiques moyennes – de plus en plus élevées. Les mécanismes mis en jeu à cette échelle nous sont dévoilés par l’étude en accélérateurs de particules, et nous pouvons alors y trouver la physique du tout début de l’Univers. Concrètement, le LEP (Large Electron-Positron collider) du CERN nous a permis d’atteindre les énergies de l’ordre de 1011 eV (soit 100 GeV). Voici un graphique présentant en parallèle – décrit dans les Eléments de physique des particules, p 7 – l’âge de l’Univers et la température absolue y régnant. Comparons notre niveau de connaissance à cette échelle : nous connaissons, actuellement, assez de physique pour décrire l’Univers dès l’âge de 10–10 s ! Au-delà, nous pouvons seulement conjecturer, avec plus ou moins de réussite, quant aux « évènements » déroulés. Mais il n’est pas nécessaire d’atteindre de plus hautes énergies – ou un passé plus reculé – pour que se manifestent des phénomènes intéressants. Nous les rencontrerons dans notre approche du Big Bang, c’est pourquoi, pour une meilleure compréhension, nous les détaillons dans cette partie. Que sont donc les effets de seuil et la dilution énergétique ? Enfin, il est accepté actuellement que l’Univers a subi une phase d’expansion exponentielle à son tout début : comment accréditer cette théorie ?

Les effets de seuil Tout d’abord, nous nous intéresserons aux effets de seuil, qui règlent les transitions entre les différents stades traversés par notre Univers. Comment ? Illustrons-les par un exemple, grâce à des analogies à la physique statistique. Le mode d’interaction privilégié, pour les énergies élevées que nous utilisons, c’est la collision. En effet, le libre parcours moyen d’une particule est d’autant plus court que la température est élevée, par analogie avec la physique statistique. Voici un exemple d’interaction, la diffusion, représentée par le graphe de Feynman suivant (cf. Les quatre interactions fondamentales, p 11). Elle est constatée expérimentalement, aussi admettrons-nous qu’elle a effectivement lieu pour des conditions adéquates.

Deux interprétations possibles : 1) la collision d’un électron et un positron (ou antiélectron) produit un photon ;

2) un photon produit une paire électron-positron (il est possible aussi d’interpréter, comme nous le ferons dorénavant, ce phénomène comme une collision de photons donnant une paire e–/e+)

La première réaction est en quelque sorte spontanée : quelque soit l’énergie de collision des leptons, deux photons seront produits, plus ou moins énergétiques, car leur masse est nulle. Au contraire, la réaction réciproque est spécifique à certaines conditions : en effet, l’énergie de masse de la paire électron-positron est de 1 MeV. Sa production nécessite donc une énergie de collision supérieure pour les photons.

e+

e-

e+

γ

e-

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

39

Subséquemment, pour des énergies moyennes de 1 MeV ou plus, la réaction est réversible, les particules continuellement « renouvelées » : c’est l’équilibre thermique. Et, lorsqu’une paire électron-positron est produite, l’excédent de l’énergie de collision initiale se retrouve en tant qu’énergie cinétique du système. En revanche, en deçà du seuil, la transformation se fait à sens unique : les leptons s’annihilent en rayonnement électromagnétique sans ne plus être produits. Ainsi, les effets de seuil déterminent les compositions

successives (en particules) de l’Univers à son début. Ces modifications radicales nous permettent de définir des ères traversées par l’Univers. Consultons notre échelle de temps et d’énergie : l’effet de seuil à 1 MeV que nous avons décrit annonce l’avènement de l’ère des photons, à 1s AB – nous utiliserons dorénavant cette notation pour « après le Big Bang ». Un autre effet de seuil à 1 eV mettra un terme à cette ère, en 1013 s AB (300000 ans environ). Nous aurons le soin de détailler ces transitions dans la partie suivante. A retenir comme conclusion : chaque fois que l’énergie moyenne de l’Univers s’abaissera en dessous de l’énergie de

masse d’une paire particule-antiparticule, celles-ci disparaîtront de la scène cosmique, avec des conséquences plus ou moins prononcées. Toutes ? Non, car l’annihilation (la collision) est d’autant moins probable que les particules se trouvent moins nombreuses (encore une analogie à la physique statistique). En fait, il restera une particule sur un milliard, mais plus aucune antiparticule. Nous évoquerons plus tard certaines hypothèses avancées par les théoriciens pour expliquer ces observations. Finalement, précisons que ces annihilations de particules et antiparticules n’interdisent pas leur création ultérieure lors de mécanismes divers.

Dilution énergétique et découplage Les effets de seuil que nous avons décrits aboutissent tous à une hécatombe de particules et antiparticules, dès que la température « ambiante » atteint leur énergie de masse : nous en avons détaillé le mécanisme. Toutefois, il existe une seconde catégorie d’ « effets de seuil », dits de formation. En effet, les structures atomiques évoluées que nous connaissons, ne se trouvent stables qu’à basse température. Nous pouvons justifier cette affirmation si nous nous rappelons que les énergies élevées permettent de casser les atomes pour observer protons et neutrons. En fait, l’énergie de liaison des nucléons dans le noyau est d’environ 1 MeV : le seuil correspondant se situe à 1s AB approximativement, soit pour une température de l’ordre de 1010 K. Pour un Univers plus jeune, les regroupements de nucléons sont sans cesse dissociés par les collisions, avec les photons notamment. Pour que des noyaux atomiques stables (les plus simples donc, comme le deutérium : un neutron et un proton) puissent apparaître durablement, il faudra attendre 100s AB : l’énergie de choc de 1 MeV est alors rarement atteinte, les photons ne sont plus en mesure de casser ces noyaux. Abaissons encore la température … Outre le fait que les collisions soient moins nombreuses, il devient évident que les photons interagissent de moins en moins appréciablement avec la matière, plus exactement les regroupements de nucléons. A 1013 s AB (300 000 ans), le rayonnement ne parvient plus à casser ni même à exciter les atomes formés entre-temps : l’Univers devient transparent, c’est l’origine du rayonnement cosmologique dont nous avons parlé auparavant ! Dorénavant, l’évolution des photons se fait indépendamment de notre matière atomique, c’est le découplage matière/rayonnement. Pourquoi cette séparation ? C’est que les photons ont une masse nulle. L’énergie (entièrement cinétique) W d’un photon dépend de sa fréquence ν, comme nous l’avions vu dans Principes d’incertitude et fluctuations quantiques : W = hν. Notre étude des modèles d’Univers et les observations astronomiques nous montrent que l’Univers a toujours été en expansion (plus ou moins forte, nous en discuterons). Ainsi, d’après l’effet Doppler-Fizeau, la fréquence du rayonnement a diminué : cela revient à dire que la longueur d’onde s’est allongée, parallèlement à l’expansion de l’espace-temps. Ainsi, les photons semblent avoir été

« dilués » par l’inflation de l’Univers : leur énergie a peu à peu diminué au cours du temps. Par conséquent, leurs interactions avec les particules massives que sont les nucléons, et les structures évoluées que sont les atomes, sont devenues minimes. Cette dilution aboutissant à un découplage se révèle analogue pour des

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

40

particules de masse faible, tels les neutrinos (nous en reparlerons). En revanche, les particules massives continuent d’interagir de manière notoire, car il subsiste, malgré le refroidissement de l’Univers, leur énergie de masse. En fait, l’énergie totale E d’une particule massive est donnée par la relation : E = γm0c², avec le facteur γ de Lorentz que multiplie l’énergie de masse (cf. Vues relativistes). Bien que la composante cinétique de cette énergie totale diminue au cours du temps, les interactions par collision des particules massives restent donc appréciables au début de l’Univers : la dilution énergétique en est moins significative.

Un modèle inflationniste Pour des énergies supérieures à 100 GeV, le Modèle Standard est dépassé : nous ne pouvons qu’émettre des conjectures quant aux évènements se produisant dans ces conditions, c’est-à-dire avant 10-10 s AB, grâce à des hypothèses d’invariance plus générales. Outre une expansion continue décrite par les équations de la relativité générale et constatée expérimentalement, la théorie actuelle précise que l’Univers a

connu une phase d’expansion supplémentaire, exponentielle, quelque part entre 10–43 et 10–34 s. Cette hypothèse a été proposée par Alan Guth en 1980. Mais quels sont les faits cosmologiques qui accréditent cette conjecture ? Tout d’abord, nous pouvons nous étonner de l’isotropie et de l’homogénéité de l’Univers. Comment des régions spatialement éloignées – et donc supposées séparées causalement – peuvent-elles présenter des caractéristiques identiques ? C’est pourtant ce que nous constatons avec le rayonnement de fond cosmologique qui présente (globalement) partout la même température. Ce fait nécessite des conditions initiales identiques, et de plus, est valable en tout point. Par conséquent, il doit exister un lien causal entre ces régions, qui furent rapprochées spatialement dans les premiers instants de l’Univers. L’expansion rapide que nous avons évoquée permet d’expliquer l’absence de lien causal de nos jours : cette inflation serait donc plus rapide que la vitesse de la lumière (cela n’est pas interdit, puisque pratiquée sur des points non « matériels »). Dans les tout premiers instants de l’Univers, dès 10–43 s AB – nous ne pouvons remonter plus loin : c’est le temps de Planck -, les fluctuations quantiques, que nous rencontrées auparavant, engendrent des anisotropies de densité microscopiques et locales. Une période d’inflation exponentielle de l’espace-temps aurait considérablement dilaté ces variations, pour aboutir à des anisotropies macroscopiques et locales, que nous observons dans le fond diffus cosmologique. Le modèle standard de la cosmologie prévoit alors des fluctuations de l’ordre de ΔT/T ~ 10-6, d’une dispersion angulaire d’environ 10’. Le satellite Planck doit effectuer des mesures précises dès 2007 qui confirmeront ou infirmeront cette hypothèse. Enfin, il est probable, que, par des phénomènes encore incompris, elles soient à l’origine des structures à grande échelle observées dans l’Univers actuel. De plus, cette inflation rapide conduit à l’élimination de toute courbure initiale : la densité devient obligatoirement critique, et l’Univers plat. Aujourd’hui, les observations et les études de modèles d’Univers nous conduisent à penser que l’Univers a en effet une densité critique. Ceci corrobore l’hypothèse de l’inflation, qui est donc solidement ancrée dans le modèle actuel. Ce mécanisme d’expansion peut être compris physiquement grâce la théorie quantique et une certaine structure du vide.

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

41

Une histoire de l’Univers

Tous les faits, les modèles, les hypothèses que nous avons évoqués jusqu’à présent sont autant d’éléments de réponses aux questions sur l’Univers originel. Ou du moins son approche. Effectivement, nous ne pouvons pas remonter au-delà de 10–43 s AB : notre physique actuelle n’aurait plus d’application. Le temps, l’espace, tel que nous le connaissons grâce à la relativité générale n’ont dès lors plus de sens, distordus par une gravitation forte et quantique. En revanche, nous pouvons décrire l’Univers à ses débuts, plus ou moins efficacement : pour des temps supérieurs à 10–

10 s, nous disposons du Modèle Standard de la physique des particules, vérifié expérimentalement. Nous sommes en mesure de « prédire le passé » avec une précision correcte, de déterminer les évènements « historiques » et leurs conséquences sur l’Univers d’aujourd’hui. En ce qui concerne la période initiale, des hypothèses sur la structure du vide, peuvent, par exemple, nous éclaircir la situation, et estomper certaines incertitudes. Nous examinerons ces aspects, en reliant l’évolution de l’Univers aux paramètres déterminants que sont la densité, la température et le rayon de courbure. Toutes les informations importantes, les ères, les transitions, sont rassemblées à la fin, dans un graphique de l’histoire thermique de l’Univers. Parallèlement seront présentés l’évolution temporelle de deux autres de ses caractéristiques essentielles : facteur d’échelle et densité totale. Rappelons en dernier lieu que l’histoire que nous présenterons dans cette partie, si fortement affirmée qu’elle soit, n’est qu’un modèle : une manière standard de comprendre l’évolution universelle.

Au commencement : de 10–43 à 10–10 AB L’Univers naît d’un Big Bang, à partir d’une singularité initiale où, théoriquement, la température, la pression, la densité sont infinies. Il en résulte bien sûr une expansion. Nous ne connaissons rien de physique jusqu’à 10–43 s AB : c’est la mystérieuse ère de Planck. Cependant, à de 10–43 s AB, la densité d’énergie est assez faible (équivalente à une température de l’ordre de 1032 K !) pour que la gravitation s’affaiblisse et se dissocie des autres interactions, alors regroupées en une seule « superforce ». Dans ces conditions, le temps et l’espace relativiste prennent alors forme. Nous voici dans un espace-temps profondément dominé par les fluctuations quantiques, alors de l’ordre de 1028 eV ! C’est l’ère de grande unification. Les particules élémentaires du Modèle Standard, telles que nous les connaissons sont présentes dans des états liés dits « supersymétriques ». Aux alentours de 10–38 s AB, les théories prévoient un « changement de phase » du vide qui permet la différenciation des quarks et des leptons. La grande unification se trouve également brisée : la force nucléaire forte et la force électrofaible se séparent. Cette modification de la structure du vide déclenche alors l’inflation exponentielle que nous avons rencontrée dans le paragraphe Un modèle inflationniste. Outre la dilation « commune » de l’espace-temps, l’Univers entre dans une phase d’expansion qui le refroidit brusquement. Cet état explosif adjoint à la manifestation d’interactions faibles violant la symétrie par CP (introduites dans Les quatre interactions fondamentales, p 11) vis-à-vis des quarks permettrait un léger excédent de matière rapport à l’antimatière. C’est une hypothèse formulée par le physicien nucléaire russe Andreï Sakharov : la rapidité de cette expansion exponentielle rendrait ce déséquilibre irréversible, malgré une invariance globale par CPT. Comme la théorie de grande unification relie la densité de quarks à la densité de leptons, l’excédent de matière vaut pour tous les fermions. Déjà, une nouvelle transition de phase du vide met fin à la dilatation exponentielle, qui serait situé vers 10–34 s AB : l’augmentation du facteur d’échelle reprend son cours normal. Mais quel est-il ? L’énergie cinétique moyenne par particule associée à ce temps infime est de l’ordre de 1023 eV, soit 1014 GeV. L’énergie de masse la plus élevée pour une particule élémentaire (dans le cadre du Modèle Standard) correspond à 175

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

42

GeV, celle du quark top : par conséquent, à ces énergies, l’énergie de masse est négligeable devant l’énergie cinétique. Est considérée comme rayonnement la propagation de particules dont l’énergie de masse peut être ainsi négligée 2. Nous pouvons donc raisonner pour un Univers dominé, en ce temps-là, par le rayonnement. Ainsi, nous pouvons utiliser les résultats énoncés en Annexe D : le rayon de courbure R (ou facteur d’échelle) de l’Univers varie selon la racine carrée du temps. Cela signifie que, si l’âge de l’Univers quadruple, le facteur d’échelle double ; nous résumerons cette relation en écrivant : 4t implique 2R. De la même manière, nous annonçons que la densité totale ρ est proportionnelle à l’inverse du carré du temps (4t implique ρ/16), et que la température T chute comme la racine carrée de l’inverse du temps (4t implique T/2). Reprenons notre cours du temps, en gardant à l’esprit l’évolution de ces paramètres. De 10-34 à 10-10 AB, la composition de l’Univers ne change guère, c’est l’ère des quarks. Les hypothèses prédisent, pour ces énergies supérieures à 100 GeV, que le vide ne manifeste aucune « aversion » pour la couleur (la « charge » des quarks). Les quarks sont donc libres pendant l’ère éponyme : ils interagissent constamment, si bien que l’Univers est constitué d’un plasma de quarks et de gluons. Cette théorie doit être vérifiée sous peu par l’étude de la physique du TeV au LHC (Large Hadron Collider), parachevé en 2005 : il permettra de remonter jusqu’à 10–

12 AB.

Des quarks aux photons : de 10-10 à 1 s AB Pourquoi les quarks dominent-ils l’Univers depuis 10–38 s AB, alors que les leptons sont également présents ? Les énergies en jeu pendant cette période sont encore très supérieures aux premières températures de seuil : en fait, toutes les particules sont en équilibre thermique, étant continuellement détruites puis renouvelées. Pour répondre, il nous faut définir le nombre effectifs d’espèces : c’est la contribution de chaque type de particules élémentaires à la densité totale ρ. Le nombre effectif d’espèces des leptons constitue le tiers de celui des quarks, ces derniers se déclinant en trois variétés de couleur. Leur contribution à l’énergie de l’Univers est donc triple. De même, nous comprenons la « discrétion » des bosons : les quarks dominent la scène ! Remarquons enfin que les charges des quarks s’expriment en tiers de la charge élémentaire de l’électron et que le principe de la conservation de la charge reste donc bien valable 3. Nous atteignons 10–11 s AB et une énergie moyenne de 200 GeV. Jusqu’à présent, la symétrie de jauge (cf. Invariants et symétries, p 10) a été respectée : les bosons vecteurs des interactions fondamentales (cf. Les quatre interactions fondamentales, p 11) possèdent tous des masses nulles. Néanmoins, pour des énergies inférieures à 200 GeV, la symétrie se brise par un changement de structure du vide (ici, expliqué par l’apparition d’une valeur non nulle du champ de Higgs, qui conférerait leur masse aux particules, cf. L’état du vide, p 17) : les quanta de champ de l’interaction faible deviennent massifs. 81 GeV pour le W chargé, 91 GeV pour le Z neutre. Aussitôt, leur température de seuil est atteinte, et leur population initiale disparaît. D’autre part, l’interaction électrofaible se dédouble en interactions électromagnétique et nucléaire faible. La température décroît toujours comme l’inverse de la racine carrée du temps. Entre 10–11 et 10–5 s AB, l’âge de l’Univers a été multiplié par 106 (un million), la température s’est donc abaissée d’un facteur mille, pour atteindre 200 MeV. La précédente transition de phase du vide a permis de favoriser les particules légères, qui sont plus facilement produites, vis-à-vis des particules massives, d’autant plus que l’énergie moyenne diminue. Ainsi, les quarks les plus légers (qui de surcroît sont les plus stables), c'est-à-dire u, d, s, se trouvent les plus nombreux. Déjà, la température de seuil (300 MeV) des quarks s est atteinte, et rapidement, la quasi-totalité des quarks et des antiquarks s’annihilent. Il subsiste un milliardième du « stock » de quarks. L’équilibre thermique est ainsi rompu et, parallèlement, lorsque l’Univers a vécu 10–5 s, le vide devient opaque à la couleur, selon les modalités précisées dans Les quatre interactions fondamentales (p 11). Pour minimiser leur énergie, les quarks doivent se lier en une combinaison globalement blanche. Ne restant que peu d’antiquarks pour former des mésons, ils se combinent par trois en hadrons, dont les plus légers sont les nucléons (proton et neutron). Bien que disparus de la scène cosmique, des antiquarks peuvent

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

43

être produits par fluctuations quantiques ou d’autres phénomènes. Cette hécatombe clôt le règne des quarks : voici l’ère des leptons. A cette époque, l’Univers se compose d’un grand nombre d’électrons, de muons et de leurs neutrinos (la température de seuil des taus est déjà dépassée), en équilibre thermique avec le rayonnement électromagnétique, c'est-à-dire les photons. Les premiers éléments de matière que sont les nucléons sont moins nombreux que les photons d’un facteur 109 (un milliard) ! Après la transition de phase du vide à 10–5 s AB, les deux types de nucléons sont en nombre quasi égaux, avec un léger déséquilibre en faveur des protons, plus légers de 1 MeV. Néanmoins, la proportion en neutrons décroît avec le temps. En fait, les nucléons subissent des processus faibles : les neutrons mutent en protons et vice versa. Cependant, la création de neutrons se révèle plus difficile lorsque la température diminue, en raison de cet écart de masse. Plusieurs phénomènes intéressants se manifestent lors de cette période leptonique. En premier lieu, la disparition des muons. Membres du second doublet de leptons, les muons sont instables, avec un temps de vie de l’ordre de la microseconde (10–6 s). A 10–5 s AB, bien qu’ils se désintègrent aussitôt produits, l’équilibre thermique permet leur renouvellement instantané. Mais, l’effet de seuil à 200 MeV entraîne leur annihilation mutuelle (lorsque nous parlons de muons en général, nous entendons les particules et antiparticules) : l’âge de l’Univers est de 10–4 s. En second lieu, le découplage des neutrinos. Ceux-ci ne subissent que des interactions faibles : leur masse de quelques eV et leur neutralité électrique les rend insensibles à tout autre type de force. De plus, la chute de la densité adjointe à la diminution de la température dilue les neutrinos : l’importance des interactions faibles se trouvant moindre à faibles transferts, le libre parcours moyen des neutrinos croît plus rapidement que le rayon de courbure de l’Univers (sa taille en quelque sorte). Subséquemment, les neutrinos se découplent, à 10–1 s AB, soit des énergies moyennes de l’ordre de 10 MeV : ils n’interagissent quasiment plus avec la matière ordinaire. Actuellement, il existe, à l’instar du CMB, un rayonnement de fond de neutrinos, non encore détecté, dilué par l’expansion à la température de 2 K environ. Les muons anéantis, les neutrinos découplés, les électrons vont à présent disparaître. Jusqu’à présent, les électrons et leurs antiparticules, les positrons, se trouvaient en équilibre thermique avec les photons : sans les muons, ils représentaient, seuls, l’importante contribution des leptons à l’énergie de l’Univers. Aux alentours de 1s AB, ils s’annihilent comme décrit dans Les effets de seuil (p 38) : l’énergie moyenne est alors de 1 MeV. Ne subsiste qu’un électron pour un milliard de photons. L’énergie thermique dégagée lors de cette gigantesque annihilation – qui se terminera vers 100 s AB - contribue à diminuer quelque peu la densité d’énergie de l’Univers et surtout à ralentir son refroidissement pour un instant : en fait, toutes les particules en présence exceptés les neutrinos en bénéficient, c’est pourquoi la température actuelle des neutrinos dilués est 40% plus faible que celle des photons. Par la température de l’Univers, nous entendrons à présent température du rayonnement électromagnétique.

La fabrication de la matière atomique : de 1 s à 300 000 ans AB Ainsi débute l’ère des photons, à 1s AB, pour une température de 1010 K, soit 1 MeV. A cette énergie, le seuil de formation des noyaux atomiques comme l’hélium 4He est atteint : l’Univers s’assimile à un réacteur de fusion nucléaire (cf. Dilution énergétique et découplage, p 39). Toutefois, le mécanisme ne se met pas en place immédiatement. Car l’expansion de l’Univers est encore conséquente, et les particules ne peuvent s’assembler que par deux, dans des réactions rapides (cf. Annexe G). Sont alors formés, par l’intervention de l’interaction nucléaire forte véhiculé par mésons, des noyaux de deutérium 2H, un isotope de l’hydrogène noté aussi D, composés d’un neutron et d’un proton. Ils constituent les briques initiales avec les protons isolés (ou noyaux d’hydrogène 1H). Le deutérium est un système faiblement lié – le noyau de 4He est trois fois plus solide 4 – donc les noyaux sont constamment brisés par les photons du rayonnement ambiant. De même, les noyaux plus évolués de tritium 3H et d’hélium 3He sont fragilisés. Par conséquent, il faut attendre

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

44

100 s AB et des énergies moyennes de 0,1 MeV (soit 109 K, 70 fois plus chaud que le centre du Soleil) pour amorcer la nucléosynthèse. Le noyau stable le plus simple correspond donc à celui de l’hélium 4He (c’est également la particule α qui caractérise une certaine forme de radioactivité). Il se forme par la combinaison de deux noyaux de deutérium – alors stabilisés par la baisse de la température. En fait, presque tous les neutrons présents entrent dans la composition de ces noyaux de 4He, car les noyaux atomiques plus lourds sont bien moins stables. Ainsi, l’Univers a préfabriqué les noyaux des deux éléments chimiques 4He et 1H (ou proton isolé), principalement entre 100 s AB et 180 s AB – les trois premières minutes. De nos jours (à 1017 s AB), hélium et hydrogène dominent l’Univers, en constituant respectivement 26% et 74% en masse des éléments chimiques. Nous pouvons comprendre ce rapport. Les neutrons ne se présentent que dans les noyaux d’hélium 4He : instables isolés, ils se désintègrent radioactivement avec un temps de demi-vie de 920 s. D’autre part, ils constituent la moitié des nucléons (2 sur 4) présents dans 4He. Appelons kα, la proportion en masse des noyaux de 4He sur l’ensemble des noyaux, et kn, la proportion en masse des neutrons sur l’ensemble des nucléons. Avec des masses égales pour le proton et le neutron, nous trouvons : kα = 2kn. Or, nous savons que kn diminue en fonction du temps (et donc de la température) en raison de l’écart de masse de 1 MeV entre le neutron et le proton. Nous pouvons inférer que le rapport kα vaut entre 20 et 30 %, et confirmer notre modélisation de la nucléosynthèse

Evolution de la proportion de neutrons

en fonction du temps et de la température Insistons encore sur cette étape-clef de l’Univers. Grâce à la compréhension et l’utilisation des proportions en éléments légers, Gamow et son équipe purent prédire le CMB. A partir de certaines hypothèses (cf. Le rayonnement de fond, p 33), il détermina grâce à kα et kn la « date » du début de la nucléosynthèse. Mais son initiation dépend de la densité de nucléons en présence (liée à leur nombre), qui est évaluée en rapport de la densité de photons (déduite de la théorie du corps noir) : nous noterons ce nouveau rapport kN. En effet, plus kN est élevé, plus les nucléons sont nombreux, et de même pour les noyaux de deutérium formés et non détruits : la nucléosynthèse débuterait alors plus tôt, lorsque les neutrons sont plus nombreux (kn élevé), et l’hélium se retrouverait en plus grande proportion (kα élevé). Par la suite, le rapport kN est resté constant. Alors, connaissant la densité de nucléons aujourd’hui, nous en déduisons la densité de photons actuelle : Gamow a pu prédire un fond diffus et sa température approximative. D’autre part, nous avons déjà rencontré kN au début de l’ère des quarks : nous soulignions que la densité de nucléons en rapport de la densité de photons valait 10–9. Cette valeur se déduit en fait de l’âge de l’Univers à l’initiation de la nucléosynthèse. Et, remontant dans le passé, nous pouvons nous rendre compte qu’en fait kN représente indirectement l’excédent de matière par rapport à l’antimatière ! Nous voici à 6,3.1012 s AB (soit un âge d’environ 200000 ans). La température, chutant toujours comme la racine carrée de l’inverse du temps atteint 4000 K, c'est-à-dire une énergie moyenne de 1,3 eV. Depuis le début de l’ère des photons, le facteur d’échelle R a été multiplié par 2.106 environ, la densité totale

103 5.103

Température (K)

1010 109 5.108 1011

Nucléosynthèse

Temps (s)

kn (%)

50

40

30

20

10

0

0,1 1 10 100

Désintégration des neutrons

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

45

ρ a diminué d’un facteur supérieur à 1025. Le rayonnement électromagnétique s’est dilué avec la dilatation de l’espace-temps (décrite par la variation du facteur d’échelle) : sa longueur d’onde typique est alors de l’ordre du micromètre, soit dans le domaine de l’infrarouge. Les photons peuvent encore exciter les noyaux d’hélium et d’hydrogène. Par contre, la contribution de cette proto-matière, massive et quoique peu nombreuse (kN ~ 10–9), à la densité de l’Univers devient supérieure à celle des photons, dilués et sans masse : ainsi s’annonce la domination des particules massives. Considérons alors les nouvelles lois qui régissent l’évolution temporelle des caractéristiques de l’Univers, établies en Annexe D : la densité totale ρ évolue de même qu’auparavant, en fonction de l’inverse du carré du temps : 4t implique ρ/16. En revanche, le rayon de courbure R varie plus rapidement dorénavant, comme la puissance deux tiers du temps. C'est-à-dire : 4t implique 2,5R environ. Enfin, la température T se trouve à présent fonction de l’inverse de la puissance deux tiers du temps : 4t implique 0,4T environ. Peu de temps s’écoule jusqu’à la formation des premiers atomes : c’est la recombinaison. En effet, la température moyenne tombée à 3000 K – soit environ 1 eV -, les noyaux d’hydrogène et d’hélium peuvent capturer des électrons par interaction électromagnétique, pour former des structures désormais stables. Le rapport kN déterminant l’excédent de matière par rapport à l’antimatière, qui subsiste après les effets de seuil, les électrons et les protons sont en nombre égaux. Par conséquent, ils peuvent constituer les systèmes neutres que sont les atomes d’hydrogène et d’hélium. L’âge de l’Univers est alors de 1,1.1013 s : 350 000 années sidérales sont écoulées depuis le Big Bang. Cette fabrication des édifices atomiques primordiaux annonce l’avènement de l’ère de la matière. Cette recombinaison – qui devrait se nommer plutôt « combinaison », les noyaux et les électrons étant séparés avant l’évènement –, ajoutée à la dilution énergétique, entraîne le découplage des photons : ils ne peuvent plus exciter sensiblement les atomes (la longueur d’onde typique est de 3 μm) et ne sont plus absorbés significativement. Ainsi, les vestiges de cet Univers jeune de 350 000 ans nous parvient sous la forme du fond diffus cosmologique : le rayonnement électromagnétique se sépare définitivement de la matière. L’Univers devient transparent. Fiat lux !

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

46

particules dominantes NS nucléosynthèse

. effet de seuil

transition de phase du vide

(…) découplage Eres

Synthèse : une histoire thermique de l’Univers Nous avons utilisé pour créer les courbes suivantes les lois établies en Annexe D, mais elles ne sont présentées qu’à titre indicatif et non quantitatif. La vue de l’inflation entre 10–38 et 10–34 s AB est très grossière. La densité ρ et le facteur d’échelle R sont exprimés (arbitrairement) en rapport de leur valeur à 1 s AB, lors du passage de l’entrée dans l’ère des photons.

Reconstitution de l’histoire thermique de l’Univers

Ici est présentée l’évolution de la température de l’Univers en fonction de son âge, de 10–43 s AB à de nos jours. Nous avons fait figurer sur ce graphique les principaux évènements ayant affecté l’Univers au cours de son histoire, et les différentes ères que nous avions auparavant distingué. Voici la légende du diagramme :

t (s)

Gde

unificat°

Inflat° Quarks Leptons Photons Matière

10–43 10–36 10–30 10–24 10–18 10–12 10–6 1 106 1012 1017

1

104

108

1012

1016

1020

1024

1028

1032

Température (eV/K)

10–4

1

104

108

1012

1016

1020

1024

1028

Plasma : q, g

Faible ≠ Electromagnétisme

LHC

Couleur confinée

ν (ν)

p, n

kN ~ 10–9

γ …………………... (γ) : CMB dilué p, α, e

NS kα ~ 26 % kn ~ 13 %

Matière Rayonnemt

ATOMES : 1H, 4He

e q

e, γ

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

47

Reconstitution de l’évolution de la densité de l’Univers

en rapport de sa densité à l’âge de 1 s

Reconstitution de l’évolution de la « taille » de l’Univers

en rapport de sa « taille » à l’âge de 1 s

1080

1060

1040

1020

1

10–20

10–40

10–43 10–36 10–30 10–24 10–18 10–12 10–6 1

106 1012 1017

t (s)

Densité ρ/ρ1

ρ1, densité à 1s AB

R1, facteur d’échelle à 1s AB

10–43 10–36 10–30 10–24 10–18 10–12 10–6 1

106 1012 1017

t (s)

Facteur d’échelle

R/R1

1010

10–10

1

10–20

10–30

Une histoire standard de l’Univers IV – Aux débuts de l’Univers

48

Notes (1) Le modèle du Big Bang consiste surtout à donner à notre Univers un âge fini, et non une existence éternelle (dans le passé, comme l’Univers statique proposé par Einstein). Ce qui est associé à des paramètres physiques (pression, température, densité) de plus en plus extrêmes lorsque nous nous rapprochons de sa « création ». Par contre, un fait critique est que le Big Bang ainsi supposé est lui-même situé en dehors du cadre conceptuel qui lui a donné naissance, c'est-à-dire qu’il n’est pas un objet de science. C’est pourquoi diverses tentatives proposent de redonner un sens physique à la théorie du Big Bang en supprimant justement le Big Bang comme « explosion » (au sens figuré bien sûr) primordiale issue d’une singularité. Cela passe par la détermination de « conditions d’existence » ou de création d’un Univers, par la transformation de cette création en un phénomène physique susceptible d’étude scientifique, alors qu’elle était jusque là pensée unique et métaphysique. Ce renversement de point de vue n’est cependant qu’ébauché et n’a pas encore abouti. (2) C’est en effet la caractéristique du rayonnement électromagnétique (par abus de langage, la lumière) : toute l’énergie de la particule élémentaire « photon » correspond à son énergie cinétique, d’expression E = hν. (3) La moitié des quarks possèdent une charge de (2/3)e, l’autre moitié une charge de –(1/3)e : la charge moyenne d’un quark est donc de (1/6)e. La moitié des leptons portent la charge –e, et l’autre moitié la charge nulle. La charge moyenne des leptons est donc de –(1/2)e. Le nombre effectif de quarks étant trois fois plus important que le nombre effectif de leptons, leurs charges globales se compensent exactement, de sorte que nous retrouvons un Univers neutre. Nous pouvons ainsi constater la grande cohérence (d’où l’intérêt) du Modèle Standard, qui relie bien un nombre identique de doublets chez les leptons et les quarks, l’existence d’une variable interne des quarks pouvant prendre trois valeurs (la couleur), et les charges fractionnaires des quarks. (4) La « solidité » d’un noyau atomique se traduit par l’énergie qu’il faut fournir par nucléon pour dissocier les nucléons qui le composent (il est courant de parler d’énergie de liaison par nucléon). Par exemple, dire que le noyau 4He est trois fois plus solide 2H signifie en fait que les nucléons sont trois fois plus liés dans le noyau d’hélium 4 que dans le noyau de deutérium.

Une histoire standard de l’Univers V – Conclusion

49

V – 15 milliards d’années plus tard

Conclusion : évolutions possibles De 350 000 ans AB à nos jours (un âge de l’ordre de 1017 s), le rayonnement électromagnétique découplé s’est dilué, suivant l’expansion de l’espace-temps. Conformément aux lois précédemment établies, le facteur d’échelle R a dû augmenter comme la puissance 2/3 du temps : il aurait été multiplié par plus de 500. La température des photons (à laquelle nous avons assimilé la température de l’Univers à la fin de l’ère des leptons) se trouverait divisée du même facteur. En fait, ces évolutions détaillées en Annexe E ne sont qu’approximatives, construites avec des modèles d’Univers de Friedman, et commencent à diverger des observations. En plus de 10 milliards d’années, la température du fond diffus cosmologique a diminué d’un facteur supérieur à 1 000, pour atteindre aujourd’hui 2,7 K environ (cf. Le rayonnement de fond), la longueur d’onde typique des photons étant de 106 μm. Parallèlement, se sont formés les structures que nous connaissons, étoiles, galaxies, amas, superamas, présentées dans Dynamique générale actuelle. Nous pouvons nous interroger sur le devenir de cet Univers, à la lumière des Arguments astronomiques. Actuellement, de nombreux programmes de recherches traitent de la détermination des paramètres cosmologiques. Comme le montre le graphique de la page suivante, la contribution du paramètre de densité de matière ΩM est assimilée à la matière baryonique (matière stellaire, nébuleuses, nuages de gaz interstellaires, trous noirs …) : les estimations récentes conduisent à une valeur maximale de 5 %. Comme il est couramment admis que l’Univers possède une densité critique (un espace-temps plat à grande échelle), le paramètre ΩΛ vaudrait 95 %. Les théories quantiques attribueraient cette contribution à une énergie du vide, mais les astrophysiciens cherchent également la matière noire, qui faciliterait l’explication des structures galactiques : des particules lourdes, vestiges de temps reculés de l’Univers et non prédites par le modèle standard (mais par une théorie dite supersymétrique). Les observations et théories actuelles situent leur contribution à ¼ de la densité critique, soit un paramètre de densité de matière ΩM atteignant 30%, tout en laissant une valeur proche de 70% pour ΩΛ. De l’imprécision sur ces paramètres, nous pouvons supposer deux scénarii « standards » probables pour l’Univers, dont aucun ne conduit à une nouvelle singularité. Tout d’abord, la thèse de l’accélération de l’expansion est accréditée par les observations récentes (diagramme de Hubble dans Principe cosmologique et modèles d’Univers) : l’espace-temps se dilate indéfiniment, le facteur d’échelle tend vers l’infini (pour un temps infini), la température tend vers le zéro absolu. A terme, toute « activité » stellaire (étoiles, galaxies, trous noirs …) se dilue et disparaît, l’Univers ne devient alors qu’un espace-temps quasi-vide. Ou alors, le facteur d’échelle possède une limite finie lorsque le temps tend vers l’infini : il augmente de moins en moins rapidement, et l’Univers tend vers un état d’équilibre. La température se trouve fixée à une certaine valeur ainsi que la densité totale. D’autre part, l’aboutissement des travaux du LHC va relancer la recherche européenne en ce qui concerne le passé reculé de l’Univers : la physique du TeV, soit des temps de l’ordre de 10–12 s, sera explorée grâce à des collisions proton-proton ou proton-antiproton. Les résultats préciseraient la structure du vide à ces énergies, notamment la brisure de la symétrie de jauge présumée à 10–11 s : le boson de Higgs y est attendu. De plus, nous espérons observer un plasma de quarks et de gluons, qui constituait a priori la matière de l’Univers pendant l’ère des quarks. Par conséquent, ce nouvel accélérateur de particules permettra de confirmer et de dépasser le cadre du Modèle standard, pour mieux connaître les débuts de l’Univers 1. Ainsi, la recherche est tournée à la fois vers le passé et le futur, l’infiniment petit et l’infiniment grand.

Une histoire standard de l’Univers V – Conclusion

50

ΩΛ

ΩM

70 %

25 %

0,3 %

5 % (étoiles 0,5 %)

Energie du vide ?

ΩU = 1

Neutrinos

0,005 %

Matière noire (particules

supersymétriques)

Matière baryonique

(protons, neutrons …)

Photons

Nb de particules

1087

1077

1078

1087

Energie moyenne des particules

1 eV

100 GeV

1 GeV

1 meV

Contributions à la densité totale de l’Univers ΩU

pour un Univers à densité critique

Malgré l’énorme masse que représente a priori la matière connue (baryonique), elle ne contribue à la densité totale qu’à la hauteur de 5%, dont 0,5 % grâce aux étoiles. Les 4,5 % restant proviennent de la matière plus « sombre » : nuages de gaz interstellaires mais aussi trous noirs, … Cependant, les effets gravitationnels dans les galaxies nous conduisent à supposer l’existence d’une grande quantité de matière noire (particules exotiques non encore découvertes en accélérateurs de particules. Matière baryonique et matière noire sont les deux contributions à la densité de matière Ωm. La densité de rayonnement Ωr prend part à la densité totale à une très faible proportion, avec les neutrinos (de masse faible de l’ordre de quelques eV mais en très grand nombre) et les photons, tous deux découplés de la matière. Enfin, subsiste 70 % de ΩU pour atteindre la densité critique, attribués à ΩΛ, et éventuellement à l’énergie du vide dont nous avons émis l’hypothèse.

Ce graphique est réalisé d’après un document issu de : « Pour la Science », n° 305, Le côté obscur de la matière, David Cline.

Une histoire standard de l’Univers V – Conclusion

51

Notes (1) Tout au long de cet ouvrage, nous avons pris le soin de parler des « débuts de l’Univers », tout en écartant l’idée d’origine de l’Univers, ou des origines de l’Univers. La question de l’origine, qui s’inscrirait dans un cadre temporel dépassant l’Univers, n’a pas véritablement de sens pour la physique actuelle. La question des origines, qui correspondrait à un mode de formation d’un Univers, est actuellement débattue, de manière uniquement spéculative. Après que l’Univers soit devenu avec la cosmologie un objet de science, certaines tentatives visent à faire de la création de l’Univers (et plus généralement d’un Univers) également un objet de physique (comme nous l’avons évoqué dans la note (1) p 48).

Une histoire standard de l’Univers VI – Annexes

52

VI – Annexes

A – Constantes et données physiques Constantes physiques Charge élémentaire du proton e = 1,602.10–19 C Célérité de la lumière dans le vide c = 2,998.108 m.s-1 Constante de Boltzmann k = 1,381.10-23 J.K-1 Constante de gravitation universelle G = 6,672.10–11 m3.s-2.kg Constante de Stefan-Boltzmann (corps noir) σ = 5,669.10–8 W.m-2.K-4 Constante de la loi de Wien (corps noir) w = 2,898.10–3 m.K Unités de Planck Constante de Planck h = 6,626.10–34 J.s Action élémentaire Constante de Planck réajustée (h/2π) ћ = 1,055.10–34 J.s Longueur de Planck (√Gh/c3) lp = 4,050.10–35 m Temps de Planck (√Gh/c5) τp = 1,351.10–43 s Données de masse et d’énergie Masse au repos de l’électron me- = 9,108.10–31 kg Energie de masse associée Ee- = 5,11.105 eV Masse au repos du proton mp = 1,673.10–27 kg Energie de masse associée Ep = 9,39.108 eV Masse au repos du neutron mn = 1,675.10–27 kg Energie de masse associée En = 9,40.108 eV

Une histoire standard de l’Univers VI – Annexes

53

B – Grandeurs et unités de base L’unité du Système International (S.I.) est en caractères gras.

Angle Radian (rad) Degré (°) 1° = π/180 rad Minute (‘), seconde (‘’) 1° = 60 ‘ = 3600 ‘’ Distance Fermi (fm) 1 fm = 10–15 m Rayon approximatif d’un nucléon Mètre (m) Unité astronomique (U.A.) 1 UA ≈ 1,50.1011 m Distance Terre-Soleil Année-lumière (al) 1 al ≈ 9,46.1015 m Parsec (pc) 1 pc ≈ 3,09.1017 m Distance d’une étoile vue sous une parallaxe de 1’’ Temps Seconde (s)

Année sidérale (a) 1 a ≈ 3,16.107 s Période de révolution de la Terre autour du Soleil dans le référentiel héliocentrique Masse Kilogramme (kg)

Température Kelvin (K)

Degré Celsius (°C) 0°C = 273,15 K L’échelle est dans les deux cas centigrade Energie Joule (J)

Electron-volt (eV) 1 eV ≈ 1,602.10–19 J Energie communiquée à un électron accéléré sous une tension de 1 V

Une histoire standard de l’Univers VI – Annexes

54

C – Eléments de photométrie

Grandeurs physiques

Les mesures sont effectuées par des capteurs physiques, avec une correction en fonction de la

réponse selon les longueurs d’onde

Grandeurs visuelles

L’œil est le capteur par défaut, mais sont aussi utilisés des instruments étalonnés pour la

photométrie visuelle

Flux énergétique (ou puissance rayonnante)

Φe en watt « physique » (W)

Puissance transportée sous forme de rayonnement

Flux lumineux

Φv en lumen (lm) ou « watt visuel »

Puissance lumineuse tenant compte de la

sensibilité de l’œil.

Eclairement énergétique

Ee = Φe / S en W.m-2

Flux énergétique Φe reçu par une surface S

Eclairement lumineux (ou éclat)

Ev = Φv / S en lux (lx)

ou « W.m-2 visuel »

Flux lumineux Φv reçu par une surface S

La correspondance entre grandeurs physiques et visuelles passe donc par la sensibilité de l’œil, caractérisée par l’efficacité lumineuse K exprimée en lm.W-1 : K = Φv/Φe = Ev/Ee Celle-ci dépend bien sûr de la longueur d’onde, et présente un maximum dans le vert pour λ(Kmax) = 555 nm ; alors Kmax = 660 lm.W-1. Elle s’annule presque pour les limites inférieures et supérieures du spectre de la lumière visible, qui s’étend de 400 nm (violet) à 800 nm (rouge). Nous donnons quelques valeurs numériques pour se situer par rapport aux unités employées.

Une histoire standard de l’Univers VI – Annexes

55

Seuil de visibilité Seuil de visibilité au maximum de sensibilité de l’œil, à λ(Kmax) = 555 nm Φv = 10–13 lm Φe = 1,5.10–16 W Eclairement lumineux nécessaire pour la lecture quelques lux

sous le soleil au zénith Ev ≈ 105 lx

sous la pleine lune Ev ≈ 0,2 lx

Efficacités lumineuses

à la lumière solaire K ≈ 100 lm.W-1

sous une lampe à incandescence K ≈ 20 lm.W-1

Remarque En spectroscopie sont utilisées : la luminosité (L en W) et l’émittance (E en W.m-2). Ces grandeurs peuvent être rapprochées, en première approximation, respectivement du flux énergétique et de l’éclairement énergétique.

Une histoire standard de l’Univers VI – Annexes

56

D – Calculs sur les Modèles d’Univers Dans cette annexe, nous avons voulu présenter les relations pouvant être assez simplement établies à partir des équations (E1) et (E2) de la relativité générale, simplifiées par l’application du principe cosmologique (Univers assimilé à un fluide homogène et isotrope de pression P et de densité ρ). Ainsi, nous montrerons l’origine des constantes cosmologiques vaguement définies au paragraphe Modèles d’Univers, nous développerons les calculs sur l’Univers plat de Friedman, nous nous intéresserons au cas plus général d’un Univers à densité critique … Tous les paramètres utilisés dépendent du temps cosmique t, exceptés les constantes c, G, k et Λ. Introduction des paramètres cosmologiques Considérons l’équation (E1) Divisons par H² et regroupons (qui est non nul car R ≠ 0) Nous identifions ici trois termes distincts, sans dimension, nommés constantes cosmologiques : le premier dépend de ρ, c’est le paramètre de densité que nous noterons ΩM = 8πGρ/3H² ; le second dépend de Λ, il correspond à un paramètre « de pression négative », aussi appelé constante cosmologique réduite, que nous noterons λ = ΩΛ = Λc²/3H² ; le dernier dépend de la géométrie de l’Univers selon k, il est appelé paramètre de courbure Ωk = – kc²/R²H². Avec ces notations : ΩM + ΩΛ + Ωk = 1. Est définie également la densité totale de l’Univers : ΩU = ΩM + ΩΛ. Fluide homogène et isotrope Les paramètres physiques pression et densité de l’Univers peuvent être décomposés en deux termes, séparant ainsi la matière du rayonnement. Nous avons ainsi : ρ = ρr + ρm, ainsi que P = Pr + Pm. Pour le rayonnement, la théorie cinétique des fluides donne la relation, applicable en cosmologie : Pr = c²ρr/3. La pression exercée le contenu matériel de l’Univers, dans le cas d’une matière « incohérente » est en revanche négligeable. Pour comprendre ceci, il nous faut rappeler la distinction que nous avions fait (Une histoire de l’Univers) entre matière et rayonnement : est considéré comme rayonnement la propagation de particules dont l’énergie de masse est négligeable devant l’énergie cinétique. La pression étant un effet dynamique, nous avons Pm ≈ 0, et P ≈ Pr. De même nous décomposerons le paramètre de densité en paramètre de densité de matière, et de densité de rayonnement : ΩM = Ωm + Ωr = 8πG(ρr + ρm)/3. Remarquons enfin que, d’après l’équivalence masse-énergie, il est possible de définir une densité d’énergie ρ associée à la densité ρ, telle que : ρ = ρc². Cette densité d’énergie, qui a la dimension d’une pression, se décompose également en deux termes.

3G8

3²c

²H²²c

kρπ=Λ−+⋅

R

1²H²

²ck

²H3²c

²H3G8 =⋅−⋅Λ+ρπ

R

Une histoire standard de l’Univers VI – Annexes

57

Paramètre de décélération A présent que sont définis les paramètres cosmologiques, nous sommes en mesure de comprendre leur rôle sur l’évolution de l’Univers, par leur intervention dans le paramètre de décélération q, moyennant quelques calculs. Considérons l’équation (E2)

Divisons par H², sachant que H = R’/R

Nous reconnaissons q = – R’’R/R’²

et les paramètres cosmologiques ΩΛ et Ωk Utilisons la relation d’état entre P et ρr, nous obtenons (E3) :

Remplaçons 1 par la somme ΩM + ΩΛ + Ωk et identifions le second membre comme Ωr Réduisons cette somme et insérons ΩM = Ωm + Ωr Réduisons une nouvelle fois et isolons q Ainsi, les densités de rayonnement et de matière apportent une contribution positive à q, s’opposant à l’expansion de l’Univers, alors que la constante cosmologique réduite se révèle être un paramètre contribuant à cette expansion. Condition d’existence d’un Univers Pour qu’un Univers non vide existe, il faut que sa densité soit positive, soit respectivement Ωm > 0 et Ωr > 0. Ces deux inéquations impliquent Ωr + Ωm/2 > 0. Nous retranchons alors à chaque membre la constante cosmologique réduite : Ωr + Ωm/2 – λ > – λ, pour retrouver le paramètre de décélération dans le membre de gauche. Ainsi, l’inéquation q > – λ est une condition d’existence d’un Univers. Sur un diagramme q-λ, elle délimitera une partie du plan (en bas à gauche) de frontière la droite d’équation q = – λ, dans laquelle les combinaisons des paramètres q et λ ne peuvent être associées à aucune entité physique.

²c²HGP8

²H²c

²²

21²H²

²ck

π=Λ+−−⋅−R

R

R

R

R &

&&

²c²HGP8

3q21kπ=Ω++−Ω Λ

²H3G8

3q21 rk

ρπ=Ω++−Ω Λ

rkMk 3q2 Ω=Ω++Ω−Ω−Ω−Ω ΛΛ

²cGP8

²c2²H²²c

kπ=Λ+−−⋅−

R

R

R

&&

rrm 2q2 Ω=Ω++Ω−Ω− Λ

ΛΩ−Ω

+Ω=2

q mr

Une histoire standard de l’Univers VI – Annexes

58

Univers à densité critique C’est un Univers à géométrie euclidienne à grande échelle, avec k = 0 ; le paramètre de courbure est alors nul, et nous obtenons : ΩU = ΩM + ΩΛ = 1. Nous avons démontré en notes (p 36) que la densité critique est ρC = 3H²/8πG. Partons de l’équation (E3) Utilisons k = 0 et la notation λ = ΩΛ

Nous reconnaissons la densité critique ρC Pour construire notre graphique des modèles d’Univers, nous avons considéré un Univers dominé par la matière, d’où ρr/ρC ≈ 0 et la relation, pour un Univers critique : q = –(3/2)λ + 1/2. D’autre part, pour un Univers critique dominé par le rayonnement : ρr/ρC ≈ 1 et q = –(3/2)λ + 1. Univers de Friedman à densité critique Dans ce modèle d’Univers, la constante cosmologique est prise nulle, soit ΩU = ΩM = 1. Par conséquent, le paramètre de décélération q prend des valeurs entre 1/2 (domination de la matière) et 1 (domination du rayonnement). Le facteur d’échelle R vérifie l’équation différentielle (A) : q = – R’’R/R’². Nous nous contenterons de vérifier que R peut alors s’exprimer comme une puissance du temps, c'est-à-dire R = a.tu,, a et u étant deux constantes positives strictement. La dérivée première du facteur d’échelle est R’ = au.tu – 1 ; sa dérivée seconde R’’ = au(u – 1).tu – 2. Calculons le second membre de (A) : Ce qui nous donne (1 – u)/u = q, d’où 1 – u = uq, soit u = 1/(q + 1). Dans le cas d’un dominé par la matière, R est proportionnel à t2/3 ; pour un Univers dominé par le rayonnement, il est proportionnel à t1/2. Dans tous les cas, l’Univers modélisé est en expansion et admet une singularité à son origine.

c

r3q21ρρ

=λ++−

u

u1

t²u²a

t)1u(u²a

)²tau(

)ta()t)1u(au(

² 2u2

2u2

1u

u2u −=

⋅−−=

⋅⋅⋅−−=− −

R

RR&

&&

²H3G8

3q21 rk

ρπ=Ω++−Ω Λ

²H3G8

3q21 rρπ=λ++−

Une histoire standard de l’Univers VI – Annexes

59

E – Les relations entre ρ, t, T, H et R Nous considérerons un Univers de Friedman, satisfaisant au principe cosmologique, en expansion et de densité critique, selon les aspects étudiés dans les Arguments astronomiques et en Annexe D. Nous recherchons une relation entre le temps cosmique t et les paramètres : densité totale ρ et facteur d’échelle R (ou rayon de courbure) et température T. Le symbole ~ indique des relations de proportionnalité. Généralisation Dans l’annexe précédente, il a été démontré, pour l’Univers considéré, la relation (1) : R = a.tu ; u vaut 2/3 pour une dominance de la matière, ou 1/2 pour une dominance du rayonnement. Il est possible d’en déduire une relation entre temps et H, dont la valeur actuelle est la constante de Hubble que nous mesurons : H = R’/R = au.tu – 1/a.tu = u/t, soit la relation de proportionnalité (2) : H ~ 1/t. Le modèle d’Univers étudié est à densité critique, celle-ci valant ρC = 3H²/8πG. Et nous obtenons (3) : ρ ~ 1/t². Pour établir une relation entre densité totale et facteur d’échelle, utilisons (1) pour tirer : t ~ R1/u. En remplaçant dans (3), cela nous fournit (4) : ρ ~ 1/R2/u. Si nous désirons aller plus loin, nous devrons désormais distinguer deux cas : domination de la matière (ρ ~ 1/R3) et domination du rayonnement (ρ ~ 1/R4). Domination du rayonnement En ce cas la matière est négligeable, l’énergie du rayonnement constitue l’essentiel de la contribution à la densité totale : ρ ≈ ρr . L’Univers étant considéré comme un corps noir (cf. Le rayonnement de fond, p 33), l’émittance totale E est donnée la loi de Stefan-Boltzmann : E = σT4 ; T étant la température absolue. Cette émittance correspond, en première approximation, à la puissance émise par unité de surface : elle est proportionnelle à l’énergie du rayonnement, et donc à la densité de rayonnement ρr. Par conséquent, nous écrivons (5r) : ρr ~ T4. Nous pouvons transformer (4) pour obtenir : R ~ 1/ρr1/4. Ce qui nous amène avec (5) à la relation entre facteur d’échelle (ou taille de l’Univers) et température, soit (6r) : R ~ 1/T, écrite aussi T ~ 1/R. Sous cette forme enfin, nous aboutissons grâce à (1) à la relation (7r) : T ~ 1/t1/2. Domination de la matière Dans ce second cas, le rayonnement est négligeable, l’essentiel de la densité totale ρ se trouvant dans l’énergie de masse (matérielle) : ρ ≈ ρm. Nous pouvons comprendre que la relation (6r) s’applique également dans ce cas, c'est-à-dire que la température est, indépendamment du contenu de l’Univers, inversement proportionnelle à sa taille : T ~ 1/R. Reprenant la relation (1), nous obtenons la relation température-âge de l’Univers si la matière domine ; (7m) : T ~ 1/t2/3. De (3) nous tirons : t ~ 1/ρm1/2, et nous pouvons également écrire la relation température-densité de matière ; (5m) : T ~ ρm1/3, que nous écrirons sous la forme ρm ~ T3.

Une histoire standard de l’Univers VI – Annexes

60

Synthèse des relations Domination du rayonnement ρ varie en R–4; t-2 ; T4 R varie en t1/2 ; T–1 T varie en t–1/2 Domination de la matière ρ varie en R–3 ; t–2 ; T3 R varie en t2/3 ; T–1 T varie en t–2/3 Ces calculs utilisent certes de nombreuses approximations, mais ils nous permettrons de présenter pour les premiers instants de l’Univers, globalement, l’évolution de des paramètres : densité totale, facteur d’échelle, « constante » de Hubble et température en fonction du temps. Nous pourrons donc donner des ordres de grandeur. Mais, au-delà, les divergences de ce modèle ne permettent plus son utilisation pour des prédictions quantitatives fiables.

Une histoire standard de l’Univers VI – Annexes

61

F – L’âge de l’Univers Grâce aux équations de la relativité générale et aux lois établies précédemment, il est possible de calculer rigoureusement l’âge de l’Univers. Nous détaillons ici les calculs (assez fastidieux par ailleurs) permettant d’y aboutir. D’autre part, nous noterons avec un indice 0 les valeurs actuelles (à t = t0) des paramètres : par exemple, R(t) = R et R(t0) = R0 ; la référence des temps étant t = 0 au Big Bang, t0 est simplement l’âge de l’Univers, que nous recherchons. La variable temps dont nous parlons est le temps cosmique (celui d’un observateur comobile). La dérivée en fonction du temps d’une variable sera notée

indifféremment avec un ‘ ou un point au-dessus de la variable : dR/dt = R’ = R& Relation entre R’ et paramètres actuels Avec (E1) en distinguant matière et rayonnement

Exprimons alors H²

Avec les valeurs actuelles des paramètres

Reconnaissons les valeurs actuelles des Ω

Utilisons H = R’/R Nous savons d’autre part que ρm est proportionnelle à l’inverse du cube du facteur d’échelle, ce qui implique : ρm/ρm0 = R03/R3. De même, ρr étant proportionnelle à la puissance quatrième de R, nous aurons : ρr/ρr0 = R04/R4. En remplaçant

Avec R0²/ R² en facteur et en simplifiant

Introduisons le facteur d’échelle réduit a = R/R0, qui donne le facteur d’échelle en fonction du temps en rapport de sa valeur actuelle. D’autre part, nous pouvons utiliser la relation Ωm + Ωr + ΩΛ + Ωk = 1 pour éliminer Ωk. Ce qui nous donne

Réduisons la somme

Voici la relation que nous voulions établir. Elle lie la valeur actuelle des paramètres cosmologiques et du facteur d’échelle, à déterminer par l’expérience, à la variation temporelle du facteur d’échelle. Nous pouvons également l’écrire (E4) :

3)(G8

3²c

²H²²c

k rm ρ+ρπ=Λ−+⋅

R

3²c

²²c

k3G8

3G8

²H rm Λ+⋅−ρπ

+ρπ

=R

Λ+⋅⋅−ρρ

⋅ρπ

+ρρ

⋅ρπ

=²H3

²c²²

²H²²c

k²H3

G8²H3

G8²H²H

0

0

000r

r

0

0r

0m

m

0

0m0

R

R

R

Ω+⋅Ω+

ρρ

⋅Ω+ρρ

⋅Ω= Λ 00

0k0r

r0r

0m

m0m0 ²

²²H²H

R

R

Ω+⋅Ω+

ρρ

⋅Ω+ρρ

⋅Ω== Λ 00

0k0r

r0r

0m

m0m0 ²

²²H²²H²²

R

RRRR&

Ω+⋅Ω+⋅Ω+⋅Ω= Λ 0

00k4

40

0r3

30

0m0 ²²

²H²²R

R

R

R

R

RRR&

⋅Ω+Ω+⋅Ω+⋅Ω= Λ ²

²²H²²

000k2

20

0r0

0m00R

R

R

R

R

RRR&

⋅Ω+Ω−Ω−Ω−+Ω

= ΛΛ ²a1²aa

²H²² 000r0m0r0m

00RR&

[ ]

+−Ω+

−Ω+

−Ω= Λ 11²a

²a

²a1

a

a1²H²² 00r0m00RR&

( ) 11²a²a

²a1a

a1²H²

²00r0m

00+−Ω+

−Ω+

−Ω= Λ

R

R&

Une histoire standard de l’Univers VI – Annexes

62

Variation du facteur d’échelle réduit Intéressons-nous au rapport R’²/R0²H0² que nous avons fait apparaître dans l’équation (E4) : Nous pouvons incorporer la constante R/R0 dans la dérivée

D’après le théorème de dérivation des fonctions composées

Incorporons la constante H0² dans la variable selon laquelle nous dérivons

Introduisons un nouveau paramètre sans dimension, τ = H0.(t – t0), qui nous permettra de relier l’âge de l’Univers t0 aux paramètres cosmologiques. Nous avons ainsi R’²/R0²H0² = (da/dτ)², et la variation du facteur d’échelle réduit est donc déterminée par les valeurs actuelles des paramètres Ωm0, Ωr0 et ΩΛ0, car nous obtenons en remplaçant dans (E4) : Développons et organisons le polynôme suivant les puissances de a

Avec a² en facteur

Introduction d’un nouveau paramètre χ Il est intéressant de poser a = 1/(1+χ), avec χ, paramètre sans dimension. Transformons (E5) grâce à cette notation, en utilisant la densité totale de l’Univers ΩU = Ωm + Ωr + ΩΛ : Nous désignerons ensuite la somme entre parenthèses par S pour alléger les calculs. Utilisons le théorème de dérivation des fonctions composées

Remplaçons a par son expression en χ

Dérivons l’expression entre parenthèses en fonction de χ

Si le second membre est positif, cette égalité est équivalente à

Deux solutions se présentent ici, mais, par la suite, nous éliminerons celle des deux qui impliquera un âge de l’Univers négatif. Nous admettrons de plus que S est positif. De plus, les conditions sur les signes étant respectées, nous aurons :

( ) 11²a²a

²a1a

a1dda

00r0m

2+−Ω+

−Ω+

−Ω=

τ Λ

²a)1(a²ad

da000r0m

0m0r2

ΛΛ Ω+−Ω+Ω+Ω−Ω

=

τ

Ω+−Ω+Ω+Ω

−Ω

=

τ ΛΛ

000r0m

30m

40r

2

²a)1(

aa²a

dda

( )0U3

0m4

0r

2)²1)(1()1()1(

)²1(1

dda

ΛΩ+χ+−Ω−χ+Ω+χ+Ωχ+

=

τ

S)²1(

1dd

dda

2

χ+=

τχ⋅

χ

S)²1(

1dd

11

dd

2

χ+=

τχ⋅

χ+χ

S)²1(

1dd

)²1(1

2

χ+=

τχ⋅

χ+−

2

00

2

0000 dtd

²H1

dtd

²H²1

²H²²

⋅=

⋅=R

RR

RR

R&

−⋅=

−⋅

−⋅⋅=

)tt(dda

²H1

dt)tt(d

)tt(ddt

dtda

²H1

²H²²

00

20

0000R

R&

( )2

0000 )tt(Hdda

²H²²

−=

R

R&

S)²1(

1dd

)²1(1

χ+±=

τχ⋅

χ+−

Une histoire standard de l’Univers VI – Annexes

63

En simplifiant par 1/(1 + χ) puis en isolant dτ

Remplaçons τ par son expression

Sortons la constante H0 et divisons par H0

Détermination de t0 Cette relation est valable pour tout instant t, choisissons donc l’instant de référence t = 0. Il nous faut donc intégrer cette relation de t = 0 à t = t0, soit du Big Bang jusqu’à aujourd’hui. A l’instant t = 0, le facteur d’échelle tend vers 0, d’où a, facteur d’échelle réduit, qui tend également vers 0. Nous avons posé de plus a = 1/(1 + χ), d’où nous pouvons tirer χ = (1 – a )/a. Ainsi, lorsque t tend vers 0, x tend vers + ∞. A l’instant t = t0, le facteur d’échelle prend sa valeur actuelle donc le facteur d’échelle réduit a tend vers 1. En utilisant la relation donnant x en fonction de a, nous en déduisons que, lorsque t tend vers t0, χ tend vers 0. Intégrer de t = 0 à t = t0 revient par conséquent à intégrer de χ = + ∞ à χ = 0. Soit, en prenant t = 0

Choisissons alors la solution positive sachant que les facteurs sous l’intégrale sont tous positifs sur l’intervalle considéré

Nous pouvons alors sortir la constante 1/H0 de l’intégrale, et voici l’expression de l’âge de l’Univers dans un modèle Friedman-Lemaître : Application numérique L’Univers actuel est dominé par la matière d’où Ωr0 ≈ 0. Ce qui implique ΩM0 ≈ Ωm0 et ΩU ≈ Ωm0 + ΩΛ0. Les valeurs les plus probables pour les paramètres cosmologiques sont : Ωm0 = 0,3 et ΩΛ0 = 0,7, pour une densité totale critique : ΩU = 1. Si nous donnons à la constante de Hubble la valeur de 62,5 km.s–1.Mpc–1, soit environ 2,02.10–19 s–1, un logiciel de calcul formel (sur TI-89 par exemple) nous donne un âge d’environ 15,1 milliards d’années.

S1

1dd

)²1(1

χ+±=

τχ⋅

χ+−

χ⋅⋅χ+

=τ dS

11

1d m

( ) χ⋅⋅χ+

=− dS

11

1)tt(Hd 00 m

( ) χ⋅⋅χ+

⋅=− dS

11

1H

1ttd

00 m

χ⋅⋅χ+

⋅=− ∫∞+

dS

11

1H

1t

00

0

m

χ⋅⋅χ+

⋅= ∫+∞

dS

11

1H

1t

00

0

0U3

0m4

0r00

0)²1)(1()1()1(

d1

1H

1t

Λ

+∞

Ω+χ+−Ω−χ+Ω+χ+Ω

χ⋅χ+

= ∫

Une histoire standard de l’Univers VI – Annexes

64

G – Les atomes Un atome est constitué d’un assemblage de neutrons et de protons, le noyau, et d’électrons disposés en niveaux d’énergie autour de ce noyau (nous dirons nuage électronique, car les principes d’incertitude ne nous permettent pas de préciser une position pour ces électrons). L’atome est globalement neutre, c'est-à-dire qu’il possède autant d’électrons que de protons (sinon, c’est un ion). L’atome est représenté par une notation écrite (ici quelque peu simplifiée au besoin) qui permet de définir ses caractéristiques. Celle-ci se compose : - d’un symbole, variable selon le nom donné à l’élément (un élément est déterminé par le nombre de protons du noyau). Par exemple, un atome dont le noyau comporte deux protons s’appelle hélium, de symbole He. - d’un exposant, qui précise le nombre de nucléons dans le noyau. Notre atome d’hélium courant possède 4 nucléons, aussi le notons-nous 4He. Nous précisons que cet atome d’hélium est courant car le type d’atome d’hélium présent en plus grande quantité possède 4 nucléons : c’est 4He. Il existe cependant un atome d’hélium, plus rare, avec trois nucléons : 3He, nous en déduisons que son noyau est formé de deux protons (c’est bien de l’hélium) et d’un neutron. Deux atomes possédant le même nombre de protons (donc le même symbole) et un nombre de neutron (donc de nucléons) différents sont des isotopes. Lorsque nous évoquerons la nucléosynthèse (la formation des premiers noyaux atomiques), nous assimileront le symbole de l’atome à celui du noyau. Voici les noyaux les plus simples (nombre de protons/nombre de neutrons) : en rouge, le premier noyau solidement lié. 1H hydrogène (1p/0n) 2H ou D hydrogène (1p/1n) ou deutérium 3H ou T hydrogène (1p/2n) ou tritium

3He hélium (2p/1n) 4He hélium (2p/2n) Voici la chaîne de fusion thermonucléaire, nommée proton-proton ou PPI, mise en jeu lors de la nucléosynthèse primordiale. Ces réactions se déroulent également au cœur du Soleil, fournissant 56 % de son énergie : 1H + 1H → 2H + e+ + νe 2H + 1H → 3He 3He + 3He → 4He + 1H

Remarquons que la première réaction met en jeu une désintégration β+ qui transforme un proton en un neutron, par émission d’un positron et d’un neutrino électronique.

Une histoire standard de l’Univers VI – Annexes

65

G – Eléments de bibliographie ADASTA : fiches pédagogiques (Eléments de photométrie visuelle) Bases en photométrie et application à la mesure de distances. Au cœur de la matière, Maurice Jacob, ed. Odile Jacob Complet sur la physique des particules et son histoire, pose les principaux problèmes encore à résoudre et évoque certaines hypothèses. CLEA : fascicules pour la formation des maîtres en astrophysique (La lumière messagère des astres ; Naissance, vie et mort des étoiles ; Univers extragalactique et cosmologie) Sont présentés efficacement, en quelques pages : la structure de l’Univers à grande échelle, les arguments en faveur du Big Bang que sont la loi de Hubble et le CMB, et l’idée d’un âge pour l’Univers. Plusieurs idées également en ce qui concerne les mesures de distances. La science et l’univers, de l’expérience au mythe, Remi Hakim, ed. Syros Très axé sur la théorie de la relativité et la cosmologie, et le tout début de l’Univers.

Les trois premières minutes, Steven Weinberg, ed. du Seuil Le grand classique sur le début de l’Univers paru à la fin des années 1970, du premier centième de seconde aux premières minutes, avec les explications données par le Modèle Standard. L’Univers : des faits aux théories, Pour la Science, ed. Belin Une compilation d’articles concernant la cosmologie, l’astrophysique, avec de nombreux schémas explicatifs.

Corentin Lena, Gaëtan Borot 2002 – 2003

~

Imprimé en août 2003