Universjhbvf
Universjhbvf
Universjhbvf
Cet ouvrage tend à montrer les éléments qui ont permis de comprendre les tous débuts de l’Univers,
et propose ainsi de découvrir la vision actuelle et globale des processus « historiques » de l’Univers pendant
ses 300 000 premières années, en évoquant une histoire plus contemporaine ainsi qu’un futur incertain. Deux
parties de notions permettent de faire le point sur les deux domaines principaux auquel fait référence cet
exposé : la physique des particules et la relativité, en expliquant plus en détail certaines idées utilisées dans
l’exposé stricto sensu. Des annexes et des notes complètent le tout, en présentant certaines données par
exemple, ou en mentionnant des domaines qui ne font pas l’objet d’une description approfondie.
Corentin Lena
Gaëtan Borot
Sommaire
I – Vues relativistes
La théorie de la gravitation de Newton est inadéquate en cosmologie. En effet, elle est incompatible avec un
Univers conforme au principe cosmologique. A grande échelle, la seule théorie valable de la gravitation est celle
d’Einstein. Pour la comprendre, il faut passer par plusieurs étapes.
La relativité restreinte
Cette théorie repose sur deux principes, valables dans les référentiels galiléens, c'est-à-dire les
référentiels où le principe d’inertie s’applique : un corps qui n’est soumis à aucune force (isolé) ou soumis à
des forces qui se compensent (pseudo-isolé) reste immobile ou en mouvement rectiligne uniforme. En
premier lieu, les lois de la physique sont identiques pour tout référentiel galiléen. D’après le principe de
relativité, un référentiel se déplaçant en ligne droite à vitesse constante dans un référentiel galiléen est un
référentiel galiléen. En second lieu, la vitesse de la lumière c – qui vaut environ 3.108 m.s-1 – est identique
dans tout référentiel galiléen. Ces deux principes nous obligent à repenser la mécanique classique.
Considérons deux observateurs O et O′. Ils font correspondre à chaque évènement observé trois
coordonnées d’espace (x ; y ; z) – respectivement (x’ ; y’ ; z’) pour O’ – et une coordonnée de temps t –
respectivement t′. Ils rapportent ainsi les évènements à un repère S – respectivement S′. Supposons que O′
possède un mouvement rectiligne uniforme de vitesse v dans le repère S. Pour simplifier, considérons que ce
mouvement ne possède qu’une seule composante, suivant l’axe des x, qu’à t = 0, les positions O et O′
coïncident et t′ = 0. Selon la mécanique classique, les systèmes de coordonnées de S et de S′ seront tels que :
y y’
x’ = x – vt
y’ = y
O vt x
x’ z’ = z
O’
t’ = t
z z’
Ce système d’équations est appelé transformation de Galilée. Nous pouvons en déduire par exemple la règle
d’addition des vitesses 1 : si un corps se déplace à une vitesse w dans S′, sa vitesse dans S s’écrit : u = v + w.
Or, ceci est incompatible avec le second principe énoncé. Si la lumière se déplace à une vitesse c dans S′, sa
vitesse dans S devrait être de c + v. Pour respecter les deux principes, nous devons la remplacer par la
transformation de Lorentz, dont la démonstration sera donnée ultérieurement.
x’ = γ(x – vt)
y’ = y
z’ = z
t’ = γ(t – vx/c²) avec γ = 1/√(1 – v²/c²)
1
Une histoire standard de l’Univers I – Vues relativistes
Cette transformation a des conséquences « étranges », nous forçant à réviser nos idées sur l’espace et le
temps. Ainsi deux évènements éloignés qui sont simultanés pour O ne le sont pas pour O′. Pour O, les règles
se déplaçant à une vitesse v sont plus courte d’un facteur √(1 – v²/c²), soit 1/γ par rapport à O’, et les horloges
fonctionnent plus lentement : elles donnent une seconde contre γ secondes pour les horloges liées à S′. Dans
cette nouvelle mécanique, la formule de composition des vitesses ² devient u = (v + w)/(1 + vw/c²), et la
contradiction entre les principes est éliminée. La variation de ce facteur gamma est donnée, en fonction du
rapport v/c, dans le graphique précédent. Notons toutefois que les effets relativistes n’ont aucune incidence
sur la vie courante : à notre échelle, la loi relativiste de composition des vitesses admet pour approximation
la loi d’additivité de Galilée.
γ
+∞
14
10
2
0 v/c
0,2 0,4 0,6 0,8 1
(1) (2)
S
v
S’
2
Une histoire standard de l’Univers I – Vues relativistes
vt
H’ H’ H
vue de S’ vue de S vue de S
t²/t’ ² = h²/(h² + v²t²) = c²t²/(c²t² + v²t²) = 1/(1 + v²/c²) donc : t/t’ = 1/√(1 + v²/c²)
Pour étudier la contraction des longueurs, nous devrons cette fois imaginer un dispositif légèrement
plus complexe, inspiré de la fameuse expérience de Michelson et Morley. L’appareil suivant est placé en S’.
Un faisceau de lumière est divisé en deux par un miroir semi-réfléchissant au point B. Les deux faisceaux
résultants sont réfléchis, l’un en C, l’autre en D au terme de leur parcours de même longueur L et reviennent
vers le miroir. Pour l’homme de S’, les deux rayons reviennent en même temps, il doit en être de même pour
l’homme de S, puisque la vitesse de la lumière est constante. Faisons le calcul :
C
Soit t1 la durée du trajet BD et t2 la durée du trajet DB’.
ct1 = L + vt1 ou t1 = L/(c – v) ;
ct2 = L – vt2 ou t2 = L/(c + v) ;
donc t1 + t2 = (2L/c)/(1 – v2/c2)
<< t2
A
B B’ D D’
>> t1
3
Une histoire standard de l’Univers I – Vues relativistes
Selon nos calculs, l’aller-retour le long de la branche BC est plus long que l’aller-retour le long de la
branche BD pour S, qui voit donc les deux faisceaux arriver à deux instants différents ; or ceci est absurde,
car la simultanéité de deux évènements en un même point est maintenue. Cette contradiction est résolue en
supposant que la longueur BD est contractée d’un facteur √(1 – v²/c²), c'est-à-dire BD = L/√(1 – v²/c²). Ce
coefficient 1/√(1 – v²/c²) apparaît comme le facteur γ de la transformation de Lorentz.
La notion d’espace-temps
e1 = x
e2 = y
e3 = z
τ = ict
Dans un tel espace, le passage du système S au système S′ correspond à une « rotation » du système
de coordonnées (cet rotation est un peu différente des rotations de la géométrie euclidienne, elle se pratique
en géométrie hyperbolique). Les nouvelles coordonnées du quadrivecteur vérifient :
Il est également possible de définir un équivalent à la distance dans l’espace-temps, qui sera la norme de ce
quadrivecteur : l’intervalle (différentiel) ds, tel que ds² = dx² + dy² + dz² – c²dt². Cet intervalle reste le même
lorsqu’est appliquée la transformation de Lorentz aux coordonnées : c’est une caractéristique des
quadrivecteurs. Contrairement à une distance euclidienne, il peut être réel positif, ou bien imaginaire. Si il
est imaginaire, c’est un intervalle de nature spatiale ; si il est réel positif : intervalle de nature temporel ; et si
il est nul : intervalle de nature lumière. Ceci se comprend mieux devant un diagramme d’espace-temps, une
représentation dans le plan de la coordonnée de temps (axe des imaginaires) et d’une coordonnée spatiale
(axe des réels ; nous avons simplifié le diagramme, qui comporte généralement trois coordonnées spatiales :
ici, y et z sont pris nuls). Un point de ce diagramme est appelé évènement. Un tel diagramme montre que
l’espace-temps peut se diviser en trois régions : le passé (bleu), c'est-à-dire l’ensemble des évènements ayant
pu influencer O ; le futur (jaune), ou ensemble des évènements pouvant être affectés par O ; et l’ailleurs
(gris), avec lequel O ne possède aucun lien causal.
4
Une histoire standard de l’Univers I – Vues relativistes
ct
futur
Diagramme de Minkowski
Horizon des
ou d’espace-temps
évènements
ailleurs
e1 Ce diagramme comporte généralement
O
quatre dimensions. Nous l’avons
ailleurs
simplifié pour permettre une
représentation dans le plan, avec e2 et e3
qui sont prises nulles.
passé
Les intervalles entre O et un point du futur ou du passé sont de nature temporelle ; les intervalles
entre O et les évènements de l’ailleurs sont de nature spatiale. L’ensemble des points ayant des intervalles de
nature lumière, correspond dans notre cas aux droites d’équation ct = ± e1. Si nous généralisons à trois
coordonnées d’espaces, les évènements à intervalles de nature lumière constituent l’horizon des évènements
(ou cône de lumière). Il sépare passé et futur de l’ailleurs. En effet, aucun corps ou signal ne peut voyager
plus vite que la lumière si le principe de causalité est admis. Ce type de représentation est très utilisé en
physique des particules.
Il s’agit d’une théorie mathématiquement complexe, nous nous limiterons donc à des idées
également générales. La relativité générale repose sur une observation apparemment banale : un homme qui
tombe (en chute libre) ne sent pas son propre poids. S’il tentait de peser un objet, il mesurerait un poids nul.
Einstein en a tiré le principe d’équivalence : localement, la gravitation peut être annulée par une accélération.
Il nous est impossible de distinguer les effets gravitationnels des effets inertiels : la gravitation est
équivalente à l’accélération. Il n’existe donc pas de force de gravitation. Mais si tel était le cas, les corps (par
exemple les planètes) se déplaceraient en ligne droite, ce qui est manifestement contraire à l’observation.
Cette contradiction peut être résolue en supposant que l’espace-temps est « déformé ». La ligne de plus court
chemin, la géodésique, n’est plus une droite euclidienne (et n’est pas forcément unique !). Les corps suivent
donc une ligne d’univers – trajectoire dans l’espace temps - déterminée par sa géométrie.
Qu’est ce qui détermine la géométrie de l’espace-temps ? La présence et la répartition de la matière,
ou plus exactement de l’énergie puisque E0 = m0c². La relativité générale permet de calculer la géométrie de
l’espace-temps, représentée par un « tenseur métrique » à partir de la distribution des masses, notée sous
forme d’un « tenseur énergie-impulsion ». La théorie de la gravitation ainsi exprimée supprime l’action à
distance instantanée prévue par la théorie de Newton : les modifications de répartition de l’énergie se
propage par ondes gravitationnelles. D’après le principe d’équivalence, il s’agit aussi d’une théorie des
référentiels accélérés, qui contient la relativité restreinte comme cas limite – lorsqu’il n’y a ni champ de
gravitation ni accélération.
5
Une histoire standard de l’Univers I – Vues relativistes
Notes
(1) Pour démontrer cela, nous considérons les vitesses instantanées u, v et w, avec pour origine des
coordonnées de temps et d’espace le point O. Les mouvements ici étudiés sont rectilignes le long de l’axe des
abscisses, tels que : u soit la vitesse du mobile dans S, soit u = dx/dt ; v soit la vitesse du mobile dans
S’ comme précédemment ; w soit la vitesse du mobile dans S’, soit w = dx’/dt’. En la transformation de
Galilée, nous avons simplement : x = x’ + vt, d’où
Utilisons le théorème de dérivation d’une fonction composée, qui s’exprimera en notation différentielle :
dx’/dt = (dx’/dt’) (dt’/dt). Soit, en sachant que t’ = t :
(2) La méthode est similaire à la précédente. nous considérons les vitesses instantanées u, v et w, avec pour
origine des coordonnées de temps et d’espace le point O. Les mouvements ici étudiés sont rectilignes le long
de l’axe des abscisses, tels que : u soit la vitesse du mobile dans S, soit u = dx/dt ; v soit la vitesse du mobile
dans S’ comme précédemment ; w soit la vitesse du mobile dans S’, soit w = dx’/dt’. En utilisant la
transformation de Lorentz, nous avons simplement : x = x’/γ + vt, d’où :
Avec le théorème de dérivation d’une fonction composée et sachant que t’ = γ(t – vx/c²)
u(1 + vw/c²) = v + w
Si le produit vw est différent de –c², alors nous avons bien la composition des vitesses : u = (v + w)/(1 + vw/c²).
Si les deux vitesses sont égales à c en valeur absolue mais de sens opposé, alors la somme v + w est nulle,
donc u est nulle. Quelles que soient les vitesses v et w inférieures ou égales à c que nous pouvons considérer,
nous constatons que leur produit peut être au plus de c² ; en ce cas, u vaut également c. La vitesse de la
lumière dans le vide agit comme une limite. La composition des vitesses de Lorentz est bien en accord avec
les principes de la relativité restreinte.
(3)En effet, nous avions précisé que l’observateur de S’, les deux rayons reviennent en même temps au point
B’. Deux évènements simultanés en un même point sont dits coponctuels, et ils seront simultanés dans tout
référentiel.
6
Une histoire standard de l’Univers II – Eléments de physique des particules
7
Une histoire standard de l’Univers II – Eléments de physique des particules
La théorie quantique est un formalisme complexe élaboré dans la première moitié du XXe siècle, qui
permet de comprendre le comportement de systèmes – et plus particulièrement des particules – à l’échelle
« quasi-infinitésimale ». Lequel diffère profondément de celui du monde macroscopique. Nous
n’évoquerons bien sûr que les idées générales utiles à notre projet.
Il existe une quatrième relation d’incertitude, qui est temporelle, que nous allons établir. Nous
voulons mesurer un intervalle de temps Δt (s). Pour ce faire, nous pouvons utiliser une onde
électromagnétique de période T (s), nécessairement inférieure à l’intervalle de temps : T ≤ Δt. Rappelons la
relation en période et fréquence : ν = 1/T (Hz). Dans le cadre de la mécanique quantique, nous sommes
confrontés à la dualité onde-particule formulée en 1922 par de Broglie : l’objet quantique que nous étudions
se comporte de manière ondulatoire ou/et de manière corpusculaire. Certes, il ne peut être réduit à l’un ou
l’autre, ni au deux (paragraphe suivant). Mais nous pouvons utiliser cette dualité pour établir une
correspondance entre les propriétés de chaque « nature ». Ainsi, à notre rayonnement électromagnétique est
associé le quantum « photon » dont l’énergie W (J) est liée à sa fréquence – cette description fut utilisée
notamment par Einstein pour expliquer l’effet photoélectrique : W = hν. Nous pouvons donc exprimer la
fréquence en fonction de l’énergie, et la période qui vaut alors : T = h/W. En s’assurant que W et Δt sont des
grandeurs positives non nulles, et en utilisant l’inéquation initiale, nous obtenons : W ≥ h/Δt. Remarquons
que, pendant un temps très court, un quantum très énergétique peut être absorbé. Nous pouvons interpréter
également cette incertitude comme une « probabilité non nulle » de voir apparaître (spontanément) pendant
un temps très court un quantum d’énergie W : « tout se passe comme si » celle-ci était disponible pendant Δt.
Ainsi, en 10-21 s, une paire électron-positron « virtuelle » (son antiparticule que nous définirons dans le
paragraphe suivant) d’énergie de masse 1 MeV peut apparaître puis s’évanouir ; en 10-23 s, une fluctuation
quantique de l’ordre de 100 MeV peut survenir (nous préciserons ces notions dans L’état du vide (p 17).
8
Une histoire standard de l’Univers II – Eléments de physique des particules
La démarche scientifique tend à trouver des lois (physiques, dans notre cas) universelles, c'est-à-dire
applicables en tout occasion. Elle cherche aussi dans ces lois une certaine symétrie, caractérisée par des
invariances. Prenons un exemple plus concret. L’équation fondamentale de la dynamique (ici sous sa forme
relativiste contenant le facteur γ, la loi de Newton supposant une masse non variable) relie la force F (ou la
somme des forces) exercée sur un système à son accélération a (la dérivée seconde de la position en fonction
du temps). C’est une équation vectorielle (les vecteurs apportent plus que grandeurs scalaires, c'est-à-dire
numériques ; ils sont ici notés soulignés et en gras) :
F = γm0a
Grâce à cette équation, nous pouvons étudier un système en mouvement après avoir fixé un
référentiel : origine et axes. Maintenant, procédons à une translation de notre origine. Dans notre nouveau
référentiel, la force mesurée sera identique ainsi que l’accélération (ce qui est facilement vérifié) : L’équation
fondamentale de la dynamique est invariante par translation d’espace 2. Nous ne pouvons ainsi pas définir
d’origine absolue pour l’étude d’un système. Ensuite, nous pouvons également faire tourner nos axes autour
de l’origine : le vecteur force va tourner, ainsi que le vecteur accélération. Second principe : l’équation
fondamentale de la dynamique est invariante par rotation d’espace. Nous ne pouvons donc pas définir
d’axes et de direction absolus. Continuons, et décalons notre référentiel dans le temps 3, cela signifie que
nous déplaçons notre origine des temps. Puisque nous ne mesurons que des intervalles de temps, nous
pouvons affirmer : l’équation fondamentale de la dynamique est invariante par translation de temps. Il
n’existe donc pas de temps absolu, mais seulement un temps relatif (nous pouvons par contre définir un
temps utile pour la compréhension de phénomène physique, comme le temps cosmique ; mais il n’est pas
privilégié par rapport aux temps de référentiels différents). Enfin, selon la relativité restreinte (cela est aussi
valable pour la « version » générale), cette équation est aussi invariante par une « rotation d’espace-temps »
qui est la transformation de Lorentz (cf. La relativité restreinte, p 1). Celle-ci a été découverte notamment pour les
lois de l’électromagnétisme de Maxwell. Plus globalement, est défini le groupe de symétrie de Poincaré qui
contient toutes ces transformations, et nous pouvons dire : la physique est invariante selon le groupe de
Poincaré. Nous nous approchons considérablement de l’idéal d’universalité …
En physique des particules sont considérées d’autres invariances et transformations plus adaptées,
qui découlent du formalisme appelé théorie quantique des champs. Nous allons maintenant aborder une
énumération peu engageante de faits, pourtant nécessaire, pour introduire le Modèle Standard. D’autre part,
nous utiliserons à présent un système d’unité « fondamental » plus pratique : ħ (constante de Planck
modifiée), c (célérité de la lumière dans le vide) et e (charge ‘élémentaire’ du proton) sont pris pour unités.
La ‘théorie quantique des champs’ combine la mécanique quantique et la relativité restreinte (une théorie
quantique de la gravitation est toujours recherchée), et permet de conserver le principe de causalité (un effet
ne précède jamais sa cause). Nous avons déjà parlé de la « dualité onde-particule » ; l’objet quantique est en
fait décrit par une fonction d’onde Ψ qui traduit l’évolution des ses propriétés diverses 4. Une fonction d’onde
correspond dans le cas le plus simple à une amplitude complexe ρeiθ en tout point (ρ étant le module, θ la
phase, comme pour une onde électromagnétique). Intéressons-nous à présent au concept de
particule élémentaire, qui est supposé à la base de notre « Univers ». Une particule élémentaire est caractérisée
par deux invariants relativistes : une masse au repos, et un moment angulaire, ou spin. Attardons-nous
quelque peu sur celui-ci, qui a la dimension d’une action (une énergie multiplié par un temps ; en fait, il est
égal à r ∧ p ; r, vecteur position ; p, impulsion) et est exprimé en multiple de ħ selon notre système d’unités.
Interprété de manière classique, il rend compte d’une « rotation sur elle-même » de la particule. Son
orientation peut être variable, mais sa valeur est constante. Il est fractionnaire pour les fermions (particules
de « matière » usuelle ; 1/2 pour l’électron) et entier pour les bosons (particules vecteurs des forces ; 1 pour le
photon). De plus, les particules élémentaires peuvent avoir des variables internes, c'est-à-dire des nombres
9
Une histoire standard de l’Univers II – Eléments de physique des particules
quantiques, qui précisent entièrement leur nature : la charge, la couleur, la parité, la saveur, l’étrangeté … ;
dont nous reparlerons. Une propriété à retenir : le principe d’exclusion de Pauli. Il stipule que deux
particules de spin fractionnaire ne peuvent être dans le même état quantique (ce qui est dû à certaines
propriétés de leur fonction d’onde). Un exemple simple : deux électrons ne peuvent occuper la même
position la plus proche du noyau (le plus bas niveau d’énergie) car ils possèdent un spin demi-entier. En fait,
comme il existe pour ces électrons deux orientations de spin possibles, ce niveau énergétique minimal peut
être occupé par deux électrons. Autre principe en théorie quantique des champs : toutes les particules sont
identiques. Ce qui signifie que nous ne pouvons distinguer deux particules élémentaires de même nature : il
est impossible, par exemple, de suivre un électron en particulier sortant d’un canon à électrons. En effet,
vous serez, d’après les relations d’incertitude, incapable de dire : « Cet électron qui est sorti du canon tout à
l’heure a atteint l’écran » ; quelque soit la précision du matériel dont vous disposez. Il a très bien pu être
absorbé, puis réémis. Nous ne pouvons donc pas parler de cet électron, mais d’un électron seulement.
Singulariser une particule élémentaire n’a aucun sens : avec le concept de champ quantique, nous pouvons
comprendre qu’une particule élémentaire comme l’électron symbolise un certain type d’excitation de ce
champ 5.
Nous pouvons revenir à nos symétries. A partir des équations de Maxwell, nous pouvons définir
une invariance par conjugaison de charge, noté C : si nous changeons le signe de toutes les charges mises en
jeu, notre physique est toujours valable. Et il n’y pas de charge absolue, le signe étant fixé par convention.
Appliqué à la physique des particules grâce à la théorie quantique des champs, cette invariance est quelque
peu modifiée : nous pouvons cette fois remplacer les particules mises en jeu par leurs antiparticules. La
conjugaison de charge apparaît en fait comme une symétrie entre la matière et l’antimatière. Différencions-
les : la particule et son antiparticule ont des caractéristiques identiques (même masse et même spin) et des
« variables internes » opposées (charge, couleur, …). A cet invariance est adjointe l’inversion des
coordonnées d’espace P (pour parité) et l’inversion du sens du temps T : nous dirons que la physique des
particules est invariante par la transformation CPT. Combinées séparément, ces transformations ne
conduisent pas obligatoirement à des invariances, comme nous le verrons pour les forces fondamentales 6.
Néanmoins, la symétrie globale par CPT est toujours respectée ; elle permet de donner un cadre consistant à
la physique des particules. Notons enfin que, si de nombreux phénomènes peuvent être modifiés par
l’application de cette transformation, les lois physiques, elles, ne changent pas.
Enfin, il existe une autre invariance qui fonde toute notre physique élémentaire, c’est l’invariance de
jauge. La « jauge » correspond à l’unité, l’étalon, que nous employons lors de nos mesures ; toutefois, le
terme « invariance de jauge » ne traduit pas ici une invariance d’échelle. Nous préciserons seulement en quoi
cette symétrie consiste, car les détails deviennent rapidement techniques. Le principe de jauge nous permet de
procéder localement et librement à des changements de phase et même de nature sur les champs de spin 1/2
(les fermions). Les lois de la physique sont toujours invariantes, si et seulement si leur sont adjoints des
champs vectoriels (de spin entier) : ces derniers traduisent les interactions des fermions ! Ces considérations
abstraites seront illustrées lorsque nous aborderons l’interaction nucléaire forte. Retenir seulement que la
présence et les modalités des interactions fondamentales découlent de cette symétrie de jauge.
10
Une histoire standard de l’Univers II – Eléments de physique des particules
Les « interactions » entre divers corps - que ce soit entre particules élémentaires, ou, à plus grande
échelle, entre planètes – permettent de rendre compte de la dynamique de l’Univers. Auparavant, nous
avions précisé que leurs propriétés se déduisaient du principe de jauge, et nous y reviendrons.
Fondamentalement, c'est-à-dire au niveau ultime des particules élémentaires, nous en connaissons quatre :
l’électromagnétisme, l’interaction nucléaire faible, l’interaction nucléaire forte et la gravitation. Toute
interaction – ou force – constatée à quelque échelle que ce soit, découle actuellement de ces quatre-là. Nous
allons les détailler, tout en apprivoisant progressivement le zoo de particules élémentaires présenté
explicitement dans le paragraphe suivant.
L’électromagnétisme fut la première intégrée dans le cadre de la théorie quantique des champs.
Cette interaction se manifeste de la manière la plus évidente, sous nos yeux, chaque instant. Elle est à
l’origine, par exemple, de nos sensations colorées et plus généralement de la lumière, de l’électricité bien sûr,
mais aussi de la solidité – ou de la fluidité – des matériaux, de la structure de l’ADN et de tout autre
molécule … Son vecteur est un boson de masse nulle et de spin 1 : c’est le photon. Il se couple à la charge
seulement mais n’est lui même pas chargé. L’interaction électromagnétique respecte les nombres
quantiques : elle ne modifie pas les valeurs internes telles que la couleur, la saveur ou encore la charge. Le
photon a une masse nulle, la portée de l’interaction est donc infinie (cette relation masse du boson/portée
sera discutée pour l’interaction faible). Il existe un moyen formel assez simple de représenter les
interactions : le graphe de Feynman. Voici une situation élémentaire de l’électromagnétisme : deux électrons e-
échangeant un photon γ (1), c’est la diffusion.
e– e– e+ e+
γ
γ
e– e– e– e–
(1) (2)
Deux principes de lecture des graphes de Feynman : une rotation ne change pas le mécanisme ,et une
particule dans un sens équivaut à une antiparticule dans le sens contraire. Ces règles permettent de formuler
une seconde interprétation (2) (voilà l’utilité des graphes de Feynman) : un électron e- et son antiparticule, le
positron e+ s’annihilent en un photon γ, qui à son tour produit une paire électron-positron. Notons enfin que
le photon est ici virtuel 5 : il ne résulte que d’une fluctuation quantique.
L’interaction nucléaire faible a initialement été appréhendée à la fin du XIXe siècle, avec la
découverte de la radioactivité β (mutation d’un proton en neutron ou inversement). Ce processus fut
expliqué par Fermi dans les années 1930, par analogie avec l’électromagnétisme. Le graphe de Feynman en
rendant compte est présenté sur la page suivante. L’interaction faible se caractérise par la production d’un
boson W qui se couple à toute particule. Ce W est chargé (soit W–, soit W+ son antiparticule, selon
l’interaction) et modifie la charge et donc la nature d’une particule (la saveur si nous considérons les quarks).
Il agit symétriquement pour la famille de l’électron (les leptons) mais peut changer indépendamment la
saveur des quarks. Sa masse est de 81 GeV, et son spin 1. Il existe également une interaction faible, dite « par
courants neutres », procédant de l’échange d’un boson Z neutre (de masse 91 GeV ; de spin 1) : celui-ci ne
change pas la nature de la particule. Tous ces bosons vecteurs sont massifs, si bien que l’interaction faible est
de courte portée. En effet, la fluctuation quantique permettant leur production (et donc l’interaction) ne peut
11
Une histoire standard de l’Univers II – Eléments de physique des particules
se produire que pendant un temps très court. La distance parcourue x par le boson (plus exactement la paire
constituée du boson et de son antiparticule) à une vitesse v s’exprime grâce à la quatrième relation
d’incertitude : x = v.Δt, soit x ≥ ħv/W. Nous trouvons que la portée d’une interaction est inversement
proportionnelle à (l’énergie de) masse de son boson. Dans notre cas, la fluctuation quantique nécessaire est
d’environ 200 GeV : sa portée est de l’ordre de 10–18 m, inférieur au noyau atomique d’un facteur mille. Au-
delà, la probabilité d’une telle fluctuation est infime : la force est nommée « faible ». Pour des distances de
l’ordre de 1 fermi, l’interaction est inférieure à l’électromagnétisme d’un facteur 107. Ces deux interactions
sont comparables dès 10–18 m, c'est-à-dire à hautes énergies : la théorie électrofaible de Salam et Weinberg
développée dans les années 1970 les unifie.
Radioactivité β–
Attardons-nous à présent aux transformations par C, P et T. Nous savons que les lois de la physique
sont invariantes par CPT ; cependant, contrairement à l’électromagnétisme, l’interaction nucléaire faible
viole la symétrie selon CP : plus exactement, la parité n’est pas respectée. Prenons un exemple avec l’hélicité
d’un électron : celle-ci correspond à la composante du spin le long de l’impulsion (c'est-à-dire, la quantité de
mouvement). Pour un fermion comme l’électron, elle peut être soit positive, soit négative. Intéressons-nous à
la désintégration β– d’un noyau radioactif, qui libère un électron et possède un spin global non nul. Si nous
appliquons une inversion des coordonnées d’espace (parité ; l’axe représenté dans le schéma est en quelques
sorte un miroir), nous observons une hélicité opposée : P = –1, l’invariance par parité est violée, et nous
pouvons distinguer droite et gauche 7 ! La situation étant identique en présence d’antiparticules (C = 1) et
l’invariance globale étant toujours vérifiée (CPT = 1), nous déduisons que l’invariance par inversion du sens
du temps se trouve également violée (T = –1). La symétrie est (partiellement) brisée : voici pourquoi nous ne
pouvons affirmer « La physique est invariante par le groupe de transformation CPT ».
spin
e– e–
NOYAU
RADIOACTIF
Illustration de la violation
de la symétrie CP
PARITE
12
Une histoire standard de l’Univers II – Eléments de physique des particules
L’interaction nucléaire forte est décrite par la chromodynamique quantique développée dans les
années 1970, parallèlement au concept de quark que nous présenterons dans le paragraphe suivant. Précisons
seulement que ce sont des fermions, constituants fondamentaux du noyau atomique, et qu’ils se déclinent en
trois couleurs : bleu B, vert V, rouge R. Cette force « forte » explique la cohésion nucléaire, au-delà de la
répulsion électrostatique, et détermine l’interaction des quarks. En fait, les quarks q échangent leur couleur
par l’intermédiaire de gluons g, qui sont eux-mêmes porteurs de couleur. Voici un exemple de graphe de
Feynman correspondant.
qR qV
Echange d’un gluon entre deux quarks
ici, vert et rouge
g
Le gluon porte une couleur et une anticouleur
conformément au principe de jauge.
qV qR
Nous avons déjà rencontré le principe de jauge, et nous pouvons à présent l’illustrer simplement.
Considérons un quark rouge : celui-ci peut s’avérer être un quark vert, s’il est associé à un gluon
antivert/rouge. Nous avons effectué un changement de jauge local sur un champ de spin 1/2, et ce processus
ne modifie en rien la nature du quark, si nous postulons l’existence du gluon porteur d’une couleur et d’une
anticouleur, décrit par un champ de spin 1 et de masse nulle : c’est un boson. Voici « l’origine » de
l’interaction forte qui découle du principe de jauge. Puisqu’il existe 3 couleurs de quarks différentes, la
théorie de jauge implique 8 gluons différents (selon la paire couleur/anticouleur qu’ils portent). Une des
propriétés essentielles de cette force forte : le couplage augmente avec la distance. En dessous de 10–18 m,
elle est comparable à l’électromagnétisme. A cette distance (ce qui revient à grand transfert ou temps infime),
les quarks semblent libres : ce phénomène est nommé liberté asymptotique. Néanmoins, à 10–18 m, le rapport
des forces est de 25 (pour l’interaction forte). Pour une distance de 1 fermi, l’échange de couleur est intense,
et le couplage entre eux des gluons entraîne leur dénaturation. En effet, lorsque deux quarks sont étirés, un
flux de couleur s’intensifiant les retient. Si l’énergie fournie pour la séparation est supérieure à l’énergie de
masse d’un méson (paire quark-antiquark neutre de couleur et de charge), celui-ci apparaît : de deux quarks
initialement, vous en obtenez quatre ! Et, bien que la masse des gluons soit nulle, leur dénaturation et
l’apparition des mésons (dont le plus léger possède une masse de 140 MeV) limite la portée de l’interaction ,
alors appelée « forte », à 10–15 m, soit 1 fermi. De même, la couleur est confinée à l’intérieur de « bulles » de ce
rayon environ, globalement blanches (neutre de couleur ; en effet, R + V + B = 0 en chromodynamique) : pour
nos noyaux atomiques, ces bulles correspondent aux protons et aux neutrons. Ces nucléons, quoique
globalement blancs, sont sensibles à leur distribution interne de couleur, et c’est l’origine de la cohésion du
noyau : cette interaction résiduelle est supérieure à la répulsion électrostatique d’un facteur 20.
Enfin, la gravitation est mise quelque peu à l’écart par rapport aux trois autres interactions
fondamentales, car elle n’est pas encore intégrée au cadre de la théorie quantique des champs. Elle permet
d’expliquer le mécanisme du système solaire, aussi bien que la structure globale de l’Univers et en partie sa
dynamique – cet aspect sera discuté dans les Arguments astronomiques. Sa formulation actuelle se trouve dans
la théorie de la relativité générale d’Einstein. Toutefois, elle est approchée avec une assez grande précision
par la célèbre loi de Newton (ici sous forme vectorielle) : F12 = (Gm1m2/d²)u21. En première approximation
donc, l’interaction gravitationnelle agit sur des corps massifs. En fait, elle est sensible à l’énergie (qui se
ramène à l’énergie de masse pour de faibles vitesses). Une formulation quantique de la gravitation
impliquerait un boson de spin 2 (pour ne pas différencier matière et antimatière) et de masse nulle :
l’hypothétique graviton. A l’instar de l’électromagnétisme, la gravitation souvent appelée « universelle » a
une portée infinie, due à la masse nulle de son boson. Cependant, son action est négligeable à l’échelle des
particules élémentaires (et à notre échelle d’énergie) : un simple calcul utilisant la loi de Newton et celle de
13
Une histoire standard de l’Univers II – Eléments de physique des particules
Coulomb montre qu’entre deux nucléons au repos, la gravitation est plus faible que l’interaction
électrostatique d’un facteur 1036 ! Par contre, elle domine l’Univers à grande échelle, les masses en jeu étant
alors énormes. La théorie montre qu’elle devient comparable à l’électromagnétisme à hautes énergies, de
l’ordre de 1019 GeV (elle est sensible à l’énergie !). Ainsi, nous ne pouvons la négliger : même si nous sommes
éloignés de ces ordres de grandeurs dans nos accélérateurs de particules, la gravitation tient une place
capitale dans les tout premiers instants de l’Univers.
Le Modèle Standard
Nous en arrivons donc au Modèle Standard, notre théorie actuelle des particules élémentaires. Nous
avons précédemment précisé leurs interactions, et, à présent, nous en venons à décrire les différents groupes
de particules élémentaires, et leurs combinaisons pour former un large zoo de nouvelles particules (nous en
avons déjà rencontré quelques-unes).
Dans le tableau 1 de la page suivante figurent toutes les particules élémentaires du Modèle Standard,
ainsi que leurs caractéristiques (en gris) et nombres quantiques intéressants (en noir). A chacune d’entre elles
peut également être associée son antiparticule (qui a, rappelons-le, des caractéristiques identiques et des
nombres quantiques opposés : charge, couleur …). Remarquons cependant que l’antiparticule et la particule
peuvent parfois être identiques : c’est le cas pour le photon de symbole γ, dont les variables internes sont
nulles.
Nous avions auparavant différencié : les fermions, qui correspondaient à notre matière
traditionnelle, de spin 1/2 (le fait important est leur expression fractionnaire), soumis au principe d’exclusion
de Pauli ; les bosons, qui sont les vecteurs des interactions fondamentales que nous avons déjà rencontrés, de
spin entier.
Parmi les fermions, nous distinguons les quarks (évoqués pour l’interaction forte) et les leptons. Il
existe trois doublets de quarks et trois doublets de leptons qui fonctionnent de pair lors des interactions.
Considérons tout d’abord les quarks qui existent en six saveurs : u (up), d (down), s (strange), c (charmed), b
(bottom ou beauty), t (top) ; par ordre croissant de masse. Chaque quark se décline comme nous l’avons vu
en trois variétés de couleurs : bleu B, vert V, rouge R ; qu’il peut échanger avec d’autres quarks par le
mécanisme de l’interaction forte. Quant aux antiquarks correspondants (que nous noterons soulignés :
l’antiquark up s’écrira u), ils portent une anticouleur. Tous ces noms ne sont donnés, bien sûr, que par
convention, et ne sont pas observés des quarks de couleur verte, par exemple. D’autre part, certains quarks
présentent de nouveaux nombres quantiques (nuls pour les autres) : le quark s possède une étrangeté de –1 ;
de la même manière, le quark c possède un charme, le quark b est porteur de beauté. Ces nombres quantiques
sont conservés – à l’instar de l’énergie – lors des interactions des quarks. Intéressons-nous ensuite aux
leptons. Chaque doublet est constitué d’une particule et de son neutrino : l’électron e– et le neutrino
électronique νe ; le muon μ– et le neutrino muonique νμ ; le tau τ– et le neutrino tau ντ. Lorsqu’un lepton est
produit ou absorbé, son neutrino est absorbé ou produit, de sorte que le nombre leptonique (la différence du
nombre de leptons et d’antileptons) au cours d’une interaction est conservé. Ajoutons que le muon et le tau
sont, de même que les quarks les plus massifs, instables : le temps de vie du muon, par exemple, est de
l’ordre de 1 ms. Voici donc les fameuses particules élémentaires 8 : 6 quarks et 6 leptons liés par doublet,
auxquels sont adjoints 13 bosons vecteurs (si nous incluons le graviton).
14
Une histoire standard de l’Univers II – Eléments de physique des particules
Quarks
4 MeV 1,5 GeV 175 GeV
charge 2/3 u c t - 6 saveurs
- 3 couleurs
charge –1/3 d s b
7 MeV 0,15 GeV 4,7 GeV
FERMIONS
spin ½
Leptons
0,51 MeV 106 MeV 1,74 GeV
charge –1 e – μ – τ–
neutrinos
neutre νe νμ ντ masse ≤ 100 eV
Tableau 1
Les particules élémentaires
15
Une histoire standard de l’Univers II – Eléments de physique des particules
Pour former les structures atomiques stables que nous connaissons et décrire la quasi-totalité des
phénomènes de l’Univers, la combinaison du premier doublet de quarks et de leptons suffit. En effet, les
quarks u et d constituent les protons et les neutrons. Introduisons les électrons pour expliquer l’atome, et les
neutrinos électroniques pour préserver le nombre leptonique lors des interactions faibles. Les deux autres
doublets peuvent nous sembler superflus – les particules les composant sont d’ailleurs instables, avec un
temps de vie inférieur à 10–10 s, et donnent par désintégration faible les particules du premier doublet.
Néanmoins, ils sont imposés par la dynamique du premier doublet (nous en aborderons un aspect dans la
partie Une histoire de l’Univers). Enfin, nous allons évoquer les combinaisons possibles de quarks pour former
une gamme étendue de particules appelées hadrons. Le vide étant opaque à la couleur (à basse énergie)
comme nous l’avons expliqué auparavant, les quarks doivent se regrouper pour former des particules
« blanches » et donc libres. Deux types de constructions simples existent, qui sont observées lors des
expériences en accélérateurs de particules : l’association d’un quark et d’un antiquark, qui donne un méson ;
la combinaison de trois quarks de couleurs différentes (B, V, R) qui constitue un baryon 10. Dans le tableau 2
sont présentés quelques hadrons résultant de la combinaison des quarks u, d et s (les plus courants car peu
massifs). Remarquons comment, à partir de trois saveurs de quarks seulement, en utilisant le principe de
jauge, sont obtenus une multiplicité de particules nouvelles 9. Elles sont classés par type, charge, et étrangeté
(celle-ci est additive ; un hadron contenant deux quarks s porte une étrangeté de –2). Nous reconnaissons
parmi ce défilé les nucléons : proton et neutron. D’autre part, notons que la masse des hadrons ne
correspond pas à la somme directe des quarks les composant : la masse (ou l’énergie de masse) se révèle en
fait comme un effet dynamique. Les quarks s’échangeant de nombreux gluons, leur combinaison apparaît
bien plus massive (environ 0,94 GeV pour un nucléon).
π- π0 π+ 0
MESONS ≈150 MeV pion ud uu du
quark + antiquark η0 0
êta dd
spin 0 K- K0 K0 K+
≈500 MeV kaon us sd sd su
±1
n p 0
≈0,94 GeV nucléon d(du) u(ud)
Δ– Δ0 Δ+ Δ++ 0
≈1,23 GeV delta ddd udd uud uuu
BARYONS *Σ– *Σ0 *Σ+ –1
3 quarks ≈1,38 GeV sigma*
dds uds uus
charge -1 0 1 2 étrangeté
Tableau 2
Quelques hadrons simples avec les quarks : u ; d ; s. 16
Une histoire standard de l’Univers II – Eléments de physique des particules
L’état du vide
Jusqu’à présent, nous avions supposé implicitement que les interactions entre acteurs du Modèle
Standard se déroulaient dans le vide. Mais qu’est ce que le vide, physiquement ? Procédons à une expérience
de pensée : supposons que nous contrôlions entièrement un certain espace dans l’Univers, et que nous
tentions d’atteindre l’état de vide. Notre première idée serait d’évacuer la matière. L’Univers, à grande échelle
(cf. Arguments astronomiques) peut être considéré comme un fluide homogène de densité ρ0 ≈ 10–27 kg.m–3.
Admettons qu’il soit constitué uniquement d’hydrogène 1H ; nous pouvons alors annoncer une
concentration moyenne de l’ordre d’un atome par mètre cube 11. Nous voici sans plus aucune matière,
croyons-nous. Car notre approximation est erronée, puisque l’Univers contient également du rayonnement,
plus ou moins énergétique. Et, connaissant l’équivalence matière-énergie, nous pouvons définir plus
précisément le vide : c’est l’état qui minimise l’énergie. Toutefois, nous ne pouvons conclure que le vide
équivaut au néant.
En effet, les fluctuations quantiques sont toujours présentes. A long terme, l’énergie moyenne du
vide peut être nulle. Mais les relations d’incertitude (notamment la quatrième, temporelle : W ≥ h/Δt) nous
rappellent que le vide « bouillonne » d’activité. Cette énergie « disponible » nous apparaît en effet comme
un potentiel, telle que nous l’avions appréhendée dans Energie, température & retour dans le temps (p 7).
Donnons quelques évaluations chiffrées de fluctuations quantiques. En 10–21 s, l’apparition d’une paire
virtuelle électron-positron (c'est-à-dire antiélectron) de masse 1 MeV est probable. Une paire de pions π+/π–
de masse 300 MeV pourra être produite dans un intervalle de 10–23 s. Encore plus loin, en 10–26 s, la
fluctuation probable atteint l’énergie de masse d’une paire de W : c’est le domaine d’expérimentation de
l’ancien LEP de Genève. A des énergies encore plus élevées, le « vide » devient une « mousse quantique » où
le temps et l’espace perdent leur signification (l’intervalle de temps correspondant est le temps de Planck τp ≈
10-43 s). Toute la physique est sous-jacente au vide, du moins ponctuellement. Le vide comme néant n’est
donc valable que classiquement, en tant qu’approximation à l’échelle humaine. D’autre part, pour reprendre
notre premier exemple, comment savoir quand l’espace dont nous contrôlons les échanges est définitivement
vide ? Nous n’avons aucune limite, a priori, pour enlever « ce qu’il contient ». Justement, il se trouverait que
l’état de vide minimisant l’énergie est réalisé pour une énergie non nulle.
De plus, conférer au vide une structure et certaines propriétés – que le néant ne pourrait voir
apparaître – permet d’expliquer certaines divergences entre les contraintes du principe de jauge et
l’expérience. Par exemple, les bosons de l’interaction électrofaible devraient tous posséder une masse nulle :
seul le photon y satisfait, les W et le Z étant massifs. Les théories actuelles postulent l’existence d’un champ de
Higgs qui serait couplé à de nouvelles variables internes des particules (l’hypercharge, vous connaissez ?) et
qui prendrait une valeur non nulle dans le vide. Celle-ci dépendrait de la densité d’énergie du vide, qui
pourrait donc présenter des structures (ou phases) différentes selon sa température. Toutes ces hypothèses ne
sont pas encore vérifiées, mais nous les mentionnons car elles nous seront utiles pour notre retour dans le
temps. Notons, enfin, que ces phases sont liées à une hypothétique unification des forces fondamentales à
hautes énergies comme il fut réalisé pour l’électromagnétisme et l’interaction faible.
17
Une histoire standard de l’Univers II – Eléments de physique des particules
Notes
(1)Ce postulat dit d’équivalence masse-énergie peut en fait être démontré (assez laborieusement par ailleurs)
grâce à la théorie de la relativité restreinte et la théorie de l’électromagnétisme de Maxwell.
(2) Lorsque nous disons que l’équation fondamentale de la dynamique est invariante par translation
d’espace, nous nous référons à un espace idéalisé qui satisfait au principe cosmologique en tout point : il est
continu, isotrope et homogène. Ces conventions posées, alors il existe bien une invariance par translation
d’espace. Néanmoins, rien n’empêche leur mise en défaut par des éléments qui seront considérés comme
extrinsèques à cet espace (champ de gravitation variable ou potentiel électrique par exemple), substrat
d’évènements et lui même contenu de l’Univers.
(3) Là encore, l’invariance par translation de temps est valable à notre échelle. Puisque le temps est au même
titre que l’espace contenu en quelque sorte de l’Univers, nous pouvons nous demander si cette invariance
serait toujours valable dans un Univers en inflation comme nous le décrirons par la suite. Certes, si nous
considérons que l’espace et le temps sont préexistant , ce qui est ici l’objet d’une idéalisation mais non d’une
réalité expérimentale, alors les invariances décrites sont valables universellement. Toutefois, ce serait oublier
la théorie relativiste et l’interdépendance qu’elle décrit entre l’espace-temps et l’Univers en lui-même.
(4) Mentionnons l’équation de Schrödinger qui régit sa « propagation », pour sa beauté et sa simplicité
mathématique : iħ(∂Ψ/∂t) = HΨ. H est un opérateur appelé ‘hamiltonien’ dépendant des formes cinétique et
potentielles de l’énergie du système ; cette équation permet de connaître l’évolution de Ψ en fonction du
temps. La probabilité de trouver la particule ainsi décrite en un point est donnée par le carré du module de
l’amplitude (ρ²) à cet endroit (règle de Born), la ponctualité étant vidée de son sens comme nous l’avons vu.
(5)Il est tentant d’ « ontologiser » les particules élémentaires, c'est-à-dire de leur conférer une existence, une
réalité. Cependant, il ne faut pas oublier qu’elles résultent avant tout de conventions de descriptions,
généralement avantageuses, témoignant de la stabilité d’un certain niveau d’exploration (l’atome, avant
l’accès au noyau, était la particule élémentaire : l’insécable, étymologiquement).
(6) Cela signifie entre autres que nous ne pouvons pas le « voir », le détecter.
Il est possible d’accéder de manière plus « quotidienne » au résultat en faisant tourner, devant un miroir,
(7)
un objet cylindrique placé à l’horizontale, dans le sens des aiguilles d’une montre par exemple (les
conventions étant respectées, nous pouvons formuler une grossière interprétation quantique : son spin
pointera vers le bas). Toutefois, son image dans le miroir tournera dans le sens contraire des aiguilles d’une
montre (son spin pointera vers le haut) : le spin est un vecteur axial, ou glissant. Cette expérience illustre la
validité du schéma proposé.
18
Une histoire standard de l’Univers II – Eléments de physique des particules
(8) La métaphore « briques de l’Univers » pour désigner les particules élémentaires rejoint la tendance
d’ « ontologisation » que nous avons soulignée en (5). Elle nous paraît ici trop liée à la vision classique et
matérielle : disons plutôt que la réduction des phénomènes de l’Univers à l’interaction entre des entités
stables nous conduit à un ensemble d’entités élémentaires, à l’origine par leurs combinaisons et résonances
de structures plus complexes.
(9)Pour les baryons de spin 1/2, deux des trois quarks sont dans un état dit « antisymétrique » où leurs
nombres quantiques sont opposés. Dans ce doublet antisymétrique (indiqué dans le tableau entre
parenthèses), les deux quarks, pour ne pas être l’antiparticule l’un de l’autre, doivent avoir une saveur
différente, et ce doublet a un spin nul. Le spin 1/2 « provient » du troisième quark. Nous distinguons ainsi
par leur doublet antisymétrique le lambda 0 et le sigma 0. Pour les baryons de spin 3/2, les trois quarks sont
dans un état dit au contraire « symétrique », où leurs spins pointent dans la même direction et s’ajoutent.
Chaque quark a une couleur différente, ce qui les rend globalement blanc d’une part, et satisfait au principe
de Pauli d’autre part (les quarks sont des fermions).
(10) Et la liste n’est pas exhaustive ! Toutes ces particules ont été découvertes en parallèle, à la fois de manière
théorique et expérimentale (dans les accélérateurs de particules toujours plus puissants). Le Modèle
Standard est l’aboutissement de ce travail dans les années 1970-80. Citons récemment (1995) la mise en
évidence du quark top. Il en constitue également la limite d’une certaine manière, car il montre aujourd’hui
des lacunes pour expliquer certains phénomènes (la masse des W et du Z, les quarks ‘libres’, …) pressentie
dès sa constitution : en ce sens il ne constitue pas une rupture ou un palier. Son intérêt est donc de
synthétiser les acquis, ce qui nous intéresse pour bâtir une théorie de l’Univers.
Voici les détails de cette estimation avec des relations basiques en chimie. Soit V (L), le volume de notre
(11)
portion d’Univers ; m (kg), la masse de matière qu’il contient. Nous avons alors ρ0 = m/V. Soit n (mol), la
quantité d’atome d’hydrogène associée. Sachant que MH (kg.mol–1) est la masse molaire d’un atome
d’hydrogène 1H, nous avons également n = m/Mh. Le nombre d’atome N correspond à la quantité n est
donnée par la relation, avec NA (mol–1), nombre d’Avogadro : N = nNA. Le nombre d’atome par unité de
volume C (m–3) dans notre portion d’espace est de C = N/V.
Utilisons les approximations suivantes : ρ0 = 10–27 kg.m–3 ; NA = 6.1023 ; MH = 10–3 kg.mol–1. Nous obtenons la
concentration de 0,6 atomes par mètre cube, donc C est de l’ordre d’un atome par mètre cube.
19
Une histoire standard de l’Univers III – Arguments astronomiques
Cette description à pour but de présenter les différents objets étudiés par l’astronomie, des plus
« petits » aux plus immenses, et de manière très simple. Elle est illustrée par des vues d’artistes (par Sylvain
Borot), complétée par des ordres de grandeur.
Les étoiles peuvent être sommairement définies comme d’énormes boules de gaz. La lumière
qu’elles émettent provient de réactions de fusion entre les atomes qui les constituent. Leurs tailles varient de
0,001 à 1000 fois celle du Soleil. Leurs luminosités et leurs températures sont également variables. Ces
informations sont regroupées sur le diagramme d’Hertzsprung-Russell, dit HR, que nous présenterons plus
tard. Ce diagramme permet aussi de prévoir l’évolution d’une étoile : par exemple notre Soleil va passer
dans 4,5 milliard d’années à l’état de géante rouge, puis à celui de naine blanche.
Autour de certaines étoiles gravitent des planètes, des corps plus petits, qui n’émettent pas de
lumière. Leur mouvement autour de l’étoile centrale est dû à la combinaison de « l’élan » qu’elles possèdent
et qu’elles conservent en vertu du principe d’inertie, et de la force qui les attire vers l’étoile centrale. Cette
force est déterminée par la loi de la gravitation de Newton que nous énoncerons ainsi : les corps s’attirent
avec une force proportionnelle à leurs masses et inversement
proportionnelle au carré de leur éloignement. Cet énoncé est
résumé par l’équation (ici sous forme vectorielle) : F12 =
(Gm1m2/d²)u21. Il est possible de prouver qu’alors les planètes
doivent décrire des ellipses et c’est bien ce qui est observé. Mais la
loi de la gravitation est universelle, et elle se manifeste à d’autres
échelles. Nous retrouvons les ellipses, donc cette loi, si nous
étudions la trajectoire relative des couples d’étoiles. Et à plus Système solaire
grande échelle encore. 1013 m
20
Une histoire standard de l’Univers III – Arguments astronomiques
Les galaxies se regroupent en amas comprenant plusieurs centaines ou milliers de galaxies. Ces
amas se regroupent en superamas, qui peuvent atteindre des tailles de l’ordre de 300 millions d’années
lumières. D’après des études récentes, il semble que ces amas se repartissent en filaments encadrant des
espaces vides. La répartition des galaxies à des échelles supérieures pose problème : l’emboîtement continue-
t-il à l’infini, donnant à l’Univers une structure fractale, ou bien l’Univers est-il homogène à grande échelle ?
Regroupement d’amas
1025 m, 109 al, 300 Mpc
Bilan
L’origine et la forme des structures existant dans l’Univers s’expliquent par la gravitation universelle qui est
la seule force agissant à grande échelle. Toutefois nous verrons qu’il existe un fait qu’elle ne peut pas
expliquer : la fuite des galaxies. En effet, des observations astronomiques ont montré que la distance entre les
galaxies augmente, et ce d’autant plus vite que cette distance est plus grande.
21
Une histoire standard de l’Univers III – Arguments astronomiques
Distances et mesures
La mesure des distances est une clé de la cosmologie. Elle a permis de mettre en évidence l’existence d’autres
galaxies que la nôtre (pensées auparavant par Kant), ainsi que la loi de Hubble qui décrit l’expansion de l’espace. Elle
repose sur une démarche progressive : il faut s’appuyer sur la distance déjà mesurée pour mesurer à une autre échelle.
Ces mesures sont cependant entachées d’erreurs expérimentales et deviennent de moins en moins précises quand
l’échelle augmente. C’est pourquoi les principaux paramètres cosmologiques ne sont connus que de façon très
approximative. Nous allons exposer de façon simplifiée quelques méthodes de mesure de distances.
La trigonométrie repose sur la géométrie du triangle. Si nous connaissons un côté (la base) et deux
angles d’un triangle, nous savons calculer les longueurs des autres côtés (cela s’appelle résoudre le triangle).
Triangle à résoudre
c β L’utilisation de ces relations permet de résoudre tout triangle, lorsque sont connus
au moins trois éléments. Seule exception : trois angles ne définissent pas entièrement
un triangle (deux triangles homothétiques ont des angles égaux).
Cette méthode peut être utilisée en astronomie pour mesurer des distances relativement faibles (les
corps du système solaire, les étoiles proches …). Les angles mesurés sont de plus en plus petits lorsque les
objets sont plus éloignés : il faut donc utiliser des bases de plus en plus grandes. Il est possible, grâce à la
trigonométrie, de déterminer les distances relatives dans le système solaire. Une mesure précise, utilisant le
diamètre de Terre comme base permet alors d’étalonner ces mesures. Les étoiles sont tellement éloignées
qu’il faut, pour mesurer leur distance, utiliser une base beaucoup plus grande. En faisant des mesures à six
mois d’intervalle, le diamètre de l’orbite terrestre peut être utilisé comme base. Nous pouvons par cette
méthode mesurer la distance d’étoiles « proches » : c’est la parallaxe.
22
Une histoire standard de l’Univers III – Arguments astronomiques
S r
De même, la précision relative des mesures d’angles nous permet d’assimiler le
T6 T0
segment [ST0] à un arc de cercle, soit : r = πD. Par conséquent, la distance D a
pour expression : D = r/π.
Le parsec (pc) est une unité de distance : 1 parsec est la distance d’une étoile possédant une parallaxe de 1 seconde d’arc,
et vaut environ 3,26 années-lumière. Attention à la confrontation des unités tout de même : pour que la formule donnée
soit correcte, π doit s’exprimer en radians.
La première mesure de parallaxe stellaire a été effectuée par l’astronome allemand Bessel sur l’étoile
61 Cygni, en 1838. Il a fallu attendre cette date pour que les techniques permettent de mesurer des angles
assez petits. Les mesures les plus précises à l’heure actuelle ont été effectuées par le satellite européen
Hipparcos. Pour Proxima Centauri, l’étoile la plus proche du Soleil, la parallaxe vaut 0,772’’ selon le satellite :
elle se situe donc à 0,772 parsec (pc), soit une distance de 2,39.1017 m, ou encore 2,51 al. En théorie, Hipparcos
peut étudier les étoiles éloignées de plus de 300 pc. Mais ces mesures sont encore d’une échelle trop petite
pour nous être suffisantes en cosmologie, puisque nous n’atteignons alors que la « banlieue » de notre bras
galactique.
La méthode photométrique doit tout d’abord être étalonnée : l’étude de systèmes de référence situés
à une distance bien connue – par des méthodes plus élémentaires comme la trigonométrie ou la parallaxe –
permet de construire une relation entre une caractéristique physique de l’étoile (un paramètre observable P) ne
dépendant pas de la distance, et l’éclairement. Pratiquement, si nous étudions P pour le système voulu, nous
en déduisons l’éclairement, et nous pouvons obtenir la distance. Nous prendrons plusieurs exemples
courants.
L/LS
106
Supergéantes
104
102
Géantes
Séquence
principale 10-–2
Naines 10–4
T (K) 0
20000 10000 5000 2500
Diagramme de Hertzsprung-Russell
constitué grâce aux étoiles proches du Soleil
Notre Soleil est matérialisé par un cercle épais dans la séquence principale. Sa température superficielle est d’environ
5700 K.
Près de 80% des étoiles se situent dans la séquence principale. Celle-ci correspond à la plus longue période de leur vie,
où elles transforment grâce à la fusion thermonucléaire l’hydrogène (H) en hélium (He). En effet, les étoiles évoluent
sur ce diagramme, notamment en fin de vie. Selon leur masse, elles deviennent des naines blanches, ou des géantes, voir
supergéantes …
24
Une histoire standard de l’Univers III – Arguments astronomiques
Toutefois, l’astronome préfère travailler avec la grandeur appelée magnitude, qui augmente lorsque
l’éclat diminue – c'est-à-dire la puissance reçue perpendiculairement à la surface, divisée par cette surface. Il
n’est possible de mesurer que des différences de magnitudes, dites apparentes et notées m. Entre deux étoiles
1 et 2, cette différence est une fonction du logarithme décimal de leur éclairement d’après la loi de Pogson :
m1 – m2 = – 2,5 log(E1/E2). Là encore, en utilisant un système de référence connu, il est possible de trouver m.
Les étoiles étalons de nos jours sont nombreuses (plus d’une centaine) et constituent à la séquence polaire.
Remarquons enfin que le choix du système de référence ne fait qu’ajouter une constante à la magnitude
apparente. En photométrie, l’astronome préférera utiliser la magnitude absolue M qui est la magnitude
apparente de l’étoile si elle était situé à 10 pc, et la relier à sa magnitude apparente réelle m (en utilisant la
variation en inverse carré de l’éclairement) selon la relation1 M – m = – 5 log d + 5. Cette différence, appelée
module de distance, est indépendante du système de référence.
Un exemple assez connu : la relation période-luminosité des Céphéides. Il s’agit de jeunes étoiles
géantes dont la luminosité L varie de façon périodique et pour lesquelles il existe une relation entre la
période – la plus courte durée séparant deux instants où l’étoile a le même éclat – et la luminosité ; plus la
période est longue, plus la luminosité est élevée. En mesurant la période, nous déduisons la luminosité.
Connaissant la luminosité, la distance se calcule aisément. Cette méthode correspond à un indicateur primaire
de distance car il est calibré dans notre galaxie, en observant des astres dont la distance à été mesuré par la
méthode des parallaxes statiques. Il peut permettre de déterminer la distance de galaxies relativement
proches (celle du groupe local). Ces distances, une fois connue, pourront servir à déterminer des indicateurs
secondaires, qui permettront de déterminer les distances de galaxies plus éloignées et de construire des
indicateurs tertiaires, qui eux-mêmes permettront de connaître la distance de groupes et d’amas proches. Le
diamètre des régions HII (nuages de gaz les plus brillants dans une galaxie) est un indicateur secondaire (de
l’ordre de 10 Mpc) ; le diamètre, la luminosité et les émissions radio des galaxies sont des indicateurs
tertiaires (de l’ordre de 100 Mpc).
25 Indicateurs secondaires
7.1018
Supergéantes, amas globulaires
25
Une histoire standard de l’Univers III – Arguments astronomiques
Après cette rapide présentation des méthodes de mesures de distance, des remarques s’imposent.
Tout d’abord, comme il s'agit d’une démarche de proche en proche, les mesures des distances d’objets de
plus en plus éloignées sont de moins en moins précises. Elles ont dû être corrigées plusieurs fois et sont
encore discutées, comme nous le verrons au sujet de la constante de Hubble. Toutefois, elles ont fait
progresser l’astronomie. Avant le début du XXe siècle, toutes les tâches floues sur la voûte céleste étaient
appelées « nébuleuses », par opposition aux étoiles nettes. Grâce aux mesures de distances, il a été découvert
que, si certaines étaient des nuages de gaz situés dans notre galaxie, il existait aussi d’autres galaxies, si
lointaines qu’elles étaient perçues sous cette forme de tâche floue. Enfin ces mesures permirent à Hubble de
faire une découverte qui a révolutionné notre conception de l’Univers.
Reprenons notre spectroscope, qui permet d’observer en détail le spectre électromagnétique émis
par les couches superficielles d’une étoile. Ce spectre apporte des informations car il n’est pas continu : il
présente des raies sombres dite raies d’absorption. En effet, un gaz excité (par décharges électriques par
exemple) est caractérisé par différentes « raies spectrales » d’émission de longueur d’onde bien définie. Ces
émissions discrètes s’expliquent dans le cadre de la quantification des niveaux d’énergies électroniques
autour du noyau atomique ². Ci-dessous, le spectre d’émission en lumière visible de l’atome d’hydrogène 1H.
Hα Hβ Hγ Hδ
Longueur d’onde
λ (nm)
400 500 600 700
De la même manière, les couches supérieures d’une étoile absorbent certaines fréquences de la lumière
« blanche » provenant de l’intérieur, le spectre d’absorption étant simplement le « négatif » du spectre
d’émission – puisque, au niveau électronique, cela correspond à des transitions de sens opposé entre les
niveaux d’énergie. Les fréquences d’absorption dépendent uniquement des atomes composant les couches
supérieures : les raies du spectre peuvent alors être considérées comme la « signature » d’un élément.
La réalisation du spectre des galaxies montre que ces raies sont systématiquement décalées vers le
rouge : vers les grandes longueurs d’onde, c'est-à-dire que nous observons des photons moins énergétiques.
Ce décalage est mesuré par la différence entre la longueur d’onde pour un système au repos, λ0, et la
longueur d’onde observée λ. Le rapport (λ – λ0)/λ0 = Δλ/λ, noté z, est appelé décalage spectral relatif vers le
rouge ou redshift. Par ses observations, Hubble a montré en 1929 que le décalage vers le rouge est
proportionnel à la distance : le diagramme de Hubble de la page suivante met en évidence une relation
linéaire de log z avec la magnitude apparente m ; donc z et d sont proportionnels, à une constante ajoutée
près ! Mais il va plus loin, car il explique le décalage vers le rouge par l’effet Doppler-Fizeau. En première
approximation, la relation de Doppler-Fizeau s’écrit z = vr/c, où vr est la vitesse le long de la ligne de visée
(vitesse radiale). L’observation de Hubble implique donc que les galaxies sont animées d’une vitesse de
fuite proportionnelle à leur distance, ce qui peut s’écrire vr = H0d, avec H0 constante de Hubble, aujourd’hui
estimée entre 50 et 100 km.s–1.Mpc–1 (ici intervient l’imprécision dont nous parlions précédemment).
26
Une histoire standard de l’Univers III – Arguments astronomiques
Néanmoins, cette loi de Hubble est prise en défaut dès que z > 0,03. Au-delà, les effets relativistes
sont à prendre en compte, et le redshift relativiste s’exprime par Z = – 1 + √(1 + z)/(1 – z), et alors H0
correspond à l’inverse de l’âge de l’Univers. C’est pourquoi, si nous tenons compte en outre des
imprécisions, nous n’obtenons pas une droite. Dans la partie suivante concernant les « modèles d’Univers »,
nous verrons comment la cosmologie moderne explique ce nouvel Univers, non plus statique mais en
expansion.
22
20
18
16
14
0 z
0,02 0,05 0,1 0,2 0,5
L’axe du décalage spectral z possède une échelle logarithmique. La distance d étant reliée par une relation logarithmique
à la magnitude apparente m accessible par des méthodes photométriques, il est possible les intervertir et donc de placer
le décalage spectral z en fonction de d.
Les points rouges font état de diverses mesures au cours des années 90. Nous découvrirons le diagramme complet
lorsque nous traiterons des modèles d’Univers.
La loi de Hubble (cf. Décalage vers le rouge et loi de Hubble), donnant la vitesse v = H0.d est bien valable dans le
coin inférieur gauche, pour des décalages spectraux inférieurs à 0,03 (région orangée) : en effet, la relation est ici
approximativement proportionnelle. Au-delà, les effets relativistes sont à prendre en compte (le décalage spectral
pouvant éventuellement être supérieur à 1 comme nous le verrons ultérieurement), et H0 ne peut plus être considérée
constante.
27
Une histoire standard de l’Univers III – Arguments astronomiques
Quelques hypothèses
En premier lieu, la relativité restreinte – et par conséquent, la théorie « générale » - nous a appris
qu’il n’existait pas de référentiel privilégié pour décrire la dynamique d’un système : tous les référentiels se
valent. A nous de choisir le plus « pratique ». Et, si nous voulons connaître, dans un nouveau référentiel, la
dynamique d’un système déjà étudié, il nous suffit d’employer la transformation de Lorentz. Nous pouvons
donc comprendre qu’il n’existe pas de « centre » de l’Univers, ni de direction privilégiée, ni d’axes de
référence. Ces affirmations sont, comme il se doit, confirmées par l’observation. Ainsi, la loi de Hubble, reste
valable localement – ne généralisons pas … –, mais dans toutes les directions. Un autre exemple : le
rayonnement de fond cosmologique (que nous expliquerons ultérieurement ; précisons seulement qu’il témoigne
des tout débuts de l’Univers) observé est quasiment uniforme. Les divergences de température – appelées
anisotropies – constatées sont de l’ordre de 10–5 K ! Statistiquement, et à grande échelle, la répartition des
galaxies et des radiosources (sources de rayonnement électromagnétique) est isotrope. C'est-à-dire qu’aucune
région du ciel que vous pourriez observer ne serait plus brillante qu’une autre : la matière est, globalement,
uniformément répartie dans tout l’espace et dans toutes les directions. Ces deux hypothèses d’isotropie et
(en conséquence) d’homogénéité constituent le principe cosmologique. Le principe cosmologique est,
comme nous l’avons montré, vraisemblable, et certainement vérifié ; néanmoins, nous ne pouvons l’affirmer
catégoriquement. C’est pourquoi il est nommé « principe » (notons que pour Poincaré, le principe
cosmologique serait une définition déguisée). Quoiqu’il en soit, sa formulation nous permettra de
nombreuses simplifications bienvenues lorsque nous nous initierons aux modèles d’Univers. Nous pourrons
alors juger de la validité de ses implications.
D’autre part, la relativité de l’espace-temps – toujours comme conséquence des théories d’Einstein –
nous enseigne la dépendance du temps – notamment - au référentiel choisi (de sa position dans l’espace-
temps, du champ de gravitation, ou de l’accélération, subis, de sa vitesse ...). Les aspects présentés dans les
Vues relativistes (p 2) illustrent bien cette situation … La leçon est, bien sûr, qu’il existe pas de temps
privilégié, nous mesurons un temps relatif. Comment alors parler de l’âge de l’Univers – quelque soit sa
valeur – et d’un « temps absolu », c'est-à-dire utile, précisément définissable ? Nous allons suivre un
raisonnement valable grâce au principe cosmologique, et précisons-le une nouvelle fois, à grande échelle.
Prenons un système de corps ; ils sont entraînés dans la dilatation de l’espace-temps, qui est isotrope.
D’autre part, si nous mesurons la vitesse relative d’éloignement, et que nous constatons une anisotropie,
nous pouvons affirmer que nous sommes en mouvement « propre » par rapport à ces corps. Au contraire, si
nous observons une isotropie par rapport à ce système, nous sommes « immobiles ». Le plus simple est
d’utiliser, en lieu et place d’un système de corps, le rayonnement
de fond cosmologique : il baigne l’Univers entier et se trouve en
effet isotrope (voici une première utilité à notre principe
cosmologique). De cette manière, il a été constaté que la Terre avait
un mouvement propre dans l’espace-temps, ce qui est caractérisé
par l’observation du présent dipôle : c’est l’anisotropie du
rayonnement de fond que nous détectons sur notre planète. Grâce à
ces considérations, est défini le temps cosmique : c’est celui d’un NASA
référentiel lié à un observateur qui constate une isotropie (globale) La « preuve » du
du rayonnement de fond, donc pour lequel, (globalement), mouvement propre de la Terre
l’intensité des radiosources est uniforme dans toutes les directions.
28
Une histoire standard de l’Univers III – Arguments astronomiques
Définitions et notions
Avant de continuer, nous devons préciser quelques notions, notamment en ce qui concerne la
dynamique de l’Univers. L’application du principe cosmologique (qui contient les deux hypothèses
d’isotropie et d’homogénéité à grande échelle, rappelons-le) nous conduit à considérer un Univers fluide
homogène de densité moyenne actuelle ρ0 ≈ 10–27 kg.m–3. Les équations de la relativité générale sont alors
considérablement simplifiées et nous les présentons ci-dessous. Elles décrivent « la dynamique » à grande
échelle de l’Univers, et ses caractéristiques, en fonction de paramètres à déterminer par l’observation et de
certaines constantes.
c² Λc² 8 πG ρ R&
(E1) k ⋅ + H² − = H=
R² 3 3 R
c² &&
R 8 πGP && R
R
(E2) −k⋅ − H ² − 2 + Λc ² = q=−
R² R c² R&²
Le paramètre R est le facteur d’échelle, équivalent au rayon de courbure au temps t, noté également R(t). Dans les
équations apparaissent également ses dérivées première R’ et seconde R’’ par rapport au temps. C’est une fonction du
temps qui intervient dans la définition d’une distance dans un espace en extension. Nous en reparlerons.
ρ est la densité moyenne de l’Univers au temps t, déterminée par l’observation, actuellement de l’ordre de 10–27 kg.m–3
P est sa pression moyenne, en tant que fluide homogène et isotrope.
Λ (s–2) représente la fameuse constante cosmologique introduite arbitrairement (au départ) par Einstein, ou paramètre
de pression négatif. Elle rend compte d’une accélération de l’expansion.
k est une constante d’intégration normalisée. Pratiquement, elle prendra les valeurs +1 ; 0 ; –1 selon que la courbure de
l’Univers décrit est positive, nulle, ou négative (ces termes sont précisés dans les Modèles d’Univers).
H (s-1) est un paramètre dont la valeur actuelle est la « constante » de Hubble H0.
Il existe une troisième équation, qui rend compte de la conservation de l’énergie et où interviennent ρ et P, dont nous ne
nous servirons pas, et que nous n’avons donc pas fait figurer.
29
Une histoire standard de l’Univers III – Arguments astronomiques
A présent, définissons la densité critique ρC : c’est la densité d’énergie pour laquelle la courbure de
l’Univers est nulle : il est « plat ». L’espace-temps peut alors, à grande échelle toujours, être assimilé à un
espace euclidien (dans lequel la somme des angles d’un triangle est de 180°). Les observations actuelles
semblent montrer que la densité de l’Univers est effectivement critique, mais nous ignorerons pour l’instant
ce fait expérimental.
Nous pouvons alors introduire de nouveaux paramètres cosmologiques intéressants (Annexe D) : ceux-ci
seront exprimés en rapport de la situation critique, constituant ainsi des grandeurs sans dimension, pratique
à manier. Soit ΩU, la densité totale de l’Univers. Elle sera définie comme la somme du paramètre densité de
matière ΩM (ou d’énergie) et du paramètre de pression négatif ΩΛ : ΩU = ΩM + ΩΛ. Explicitons ces deux termes
de la somme. ΩΛ, aussi noté λ, correspond à un paramètre d’expansion, dit de « pression négatif ». Il
correspondrait à une « énergie du vide », concept que nous avons rencontré dans les Eléments de physique des
particules (p 17). Le paramètre de densité ΩM est son antagoniste, c'est-à-dire qu’il tend à ralentir l’expansion
(par l’intermédiaire de la force de gravitation) : il est ainsi lié au paramètre de décélération q. Tous ces
paramètres doivent être précisés par l’observation – la théorie d’Einstein ne les fixe pas. Une voie
prometteuse est l’étude de supernovae de type Ia – les plus brillantes – à grands décalages spectraux : z > 0,2.
En effet, dans l’Univers, la vitesse d’éloignement de deux points dépend de ΩM et ΩΛ. Le diagramme de
Hubble suivant (cf. Distances et mesures, p 27) rend compte de récentes études, et indiquent pour un Univers
à densité critique (ΩU = 1) différentes combinaisons des deux paramètres cosmologiques. Avec ces notions,
nous pouvons construire des modèles d’Univers : ce sont des variétés d’espace-temps qui satisfont aux
équations de la relativité générale (en rapport avec leurs caractéristiques topologiques notamment).
m
(ΩM ; ΩΛ)
26
(0 ; 1)
(1/2 ; 1/2)
24
(1 ; 0)
22
20
18
16
14
0 z
0,02 0,05 0,1 0,2 0,5 1
Nous connaissons déjà en partie ce diagramme, avec le décalage spectral z en échelle logarithmique sur l’axe des
abscisses, et la magnitude apparente sur l’échelle . De surcroît, nous y présentons les résultats (en jaune) d’observations
récentes de supernovae (plus précisément de type Ia, les plus brillantes, visibles à très grande distance), juste avant leur
maximum de luminosité. Ces travaux ont été réalisés par l’équipe de Perlmutter (Berkeley) engagée dans le Supernovae
Cosmology Project. Selon ce diagramme, divers scénarios et jeu de constantes sont encore envisageable. Nous
évoquerons ces possibilités en conclusion.
30
Une histoire standard de l’Univers III – Arguments astronomiques
Modèles d’Univers
Le concept de modèles d’Univers nous familiarise avec les caractéristiques de notre Univers : son
origine, son évolution … Notre seule hypothèse est le principe cosmologique, et nous déterminerons les
différents modèles d’Univers s’y conformant, selon les valeurs des paramètres cosmologiques. En fait, il
existe une infinité d’espaces-temps solutions des équations de la relativité générale ainsi simplifiées. Nous en
distinguerons deux types, selon la valeur de Λ. Pour une constante cosmologique nulle, nous considérerons
les Univers de Friedman ; sa généralisation à des valeurs autres de Λ est réalisée dans les Univers de
Lemaître. Le diagramme ci-dessous rassemble tous ces modèles (si la matière domine). La majorité des
résultats présentés sont détaillés en Annexe D.
U
2
n
i
v
e
r
s
Courbure
négative d
e
1
F
r
i
e
1/2 d
m Courbure nulle
a Univers plat
n
λ
-1 0 1/3 1 2
Densité négative
Pas de modèle d’Univers
Courbure positive
-1
Trois grands types d’Univers sont à distinguer selon les valeurs des constantes cosmologiques : en bleu, Univers décrit
par la géométrie hyperbolique, dit ouvert ; en rouge, par la géométrie euclidienne, dit plat ; en jaune, par la géométrie
sphérique, dit fermé. Ce diagramme est valable quantitativement pour une domination de la matière.
31
Une histoire standard de l’Univers III – Arguments astronomiques
Le physicien et mathématicien russe Aleksandr Friedman étudia, en 1922, les solutions des équations
de la relativité générale pour des Univers isotropes et homogènes, sans paramètre de pression négatif. Ce
qui implique qu’il n’y ait pas de force contrecarrant la gravitation à grande échelle. En terme de paramètres
cosmologiques, nous avons : λ = 0, soit ΩU = ΩM et q > 0, paramètre de décélération. Ces modèles d’Univers
sont situés, sur notre diagramme, sur la droite d’équation λ = 0. Et, grâce au principe cosmologique, le temps
et l’espace peuvent être en tout point séparés par l’introduction d’un facteur d’échelle R(t), ou R (nous en
donnerons un exemple).
Il existe un cas particulier parmi les modèles de Friedman : c’est celui d’un Univers plat, à densité
critique : Ωk = 0 ; ΩU = ΩM = 1 ; mis en évidence par l’intersection de la droite (rouge) de courbure nulle et
celle des solutions de Friedman. Attardons-nous sur les caractéristiques d’un tel Univers. En remplaçant ces
valeurs dans l’équation (E1), nous déduisons la densité (critique) correspondante 4 : ρc = 3H²/8πG. La
courbure nulle implique un Univers infini et plat : euclidien donc, que nous savons manier. Dans ce cas, un
élément de distance dr a pour expression : dr² = R(dx² + dy² + dz²). L’espace (décrit par la somme des carrés
entre parenthèses) et le temps (contenu dans le facteur d’échelle) sont ainsi séparés : les coordonnées (x ; y ;
z) des points sont fixes ; il est possible de définir la distance euclidienne entre les coordonnées, et le facteur
R, facteur d’échelle, traduit la dilatation de l’espace. D’autre part, en intégrant les équations de la relativité
pour ce cas précis, il est possible de montrer que R est une puissance du temps. Puissance 1/2 si l’Univers
est dominé par le rayonnement, puissance 2/3 s’il est dominé par la matière : ces lois sont expliquées en
Annexes D et E. Par conséquent, pour t = 0, nous trouvons des distances nulles, une pression ainsi qu’une
température infinie ! Cet élément excentrique tiré de nos calculs mathématiques s’appelle une singularité. La
physique y perd pied devant les infinis ! Enfin, l’expression de R en puissance de t implique une singularité
initiale, et une expansion infinie …
Outre ce cas particulier à densité critique, nous trouvons deux autres ‘types’ d’Univers de Friedman.
Premier genre, un espace-temps ouvert, à courbure négative : celui-ci est infini, et se réalise pour les
paramètres ΩM < 1 et k = –1. Globalement, il est démontré qu’un tel Univers admet une seule singularité,
donc une expansion infinie. Second genre, un espace-temps fermé, à courbure positive : celui-ci est fini, et se
réalise pour les paramètres ΩM > 1 et k = 1. Globalement, il est démontré qu’un tel Univers admet plusieurs
singularités, il est donc cyclique.
Les modèles d’Univers de Lemaître sont une généralisation des solutions de Friedman – donc
satisfaisant au principe cosmologique – à des valeurs non nulles de la constante cosmologique Λ. Ce
paramètre a été initialement introduit dans les équations par Einstein pour permettre un Univers statique.
L’abbé belge Georges Lemaître démontra que ce type d’espace-temps est nécessairement instable. Il conserva
néanmoins la constante cosmologique, et développa de 1927 à 1933 les modèles d’Univers portant son nom.
Aujourd’hui, nous pouvons interpréter cette constante cosmologique à l’aide des avancées de la mécanique
quantique comme une « énergie du vide ». Par conséquent, la densité totale de l’Univers est bien : ΩU = ΩM +
ΩΛ. A Λ s’oppose le paramètre de décélération q, comme nous l’avons expliqué. Sur notre diagramme, les
Univers de Lemaître couvrent tout le plan. Ou presque, car il ne peut exister d’Univers à densité totale
négative : nous avons obligatoirement ΩU > 0, c'est-à-dire q + λ > 0, en reprenant les notations du diagramme.
C’est pourquoi la zone grisée en dessous de la droite d’équation q = – λ ne rend compte d’aucune situation
physique. D’autre part, nous trouvons des Univers de Lemaître aussi bien à densité critique (courbure nulle)
et plat sur la droite d’équation q = (-3/2)λ + 1/2, que ouvert ou fermé de part et d’autre de la droite. Enfin, les
singularités que nous avons rencontré pour les Univers de Friedman ne sont pas obligatoires dans un
Univers de Lemaître : leur présence et leur nombre dépend de la solution en R des équations de la relativité
générale. Ainsi, avec une constante cosmologique non nulle, nous pouvons trouver tous types d’Univers :
certains ayant un âge fini avec une singularité à leur origine, d’autre ayant un âge infini ! De même, les
scénarii de leur évolution dépend de la valeur exacte des paramètres ΩM et ΩΛ : soit une accélération de
l’expansion, soit une « taille » limite, ou encore un Big Crunch, c'est-à-dire la contraction de l’espace-temps en
une singularité. Notre intérêt à déterminer les paramètres cosmologiques est nourri par notre curiosité du
passé mais aussi de l’avenir (lointain …) : au menu de notre Conclusion.
32
Une histoire standard de l’Univers III – Arguments astronomiques
L’Univers entier est baigné par un rayonnement de fond peu énergétique et isotrope, comme nous l’avions
souligné dans notre partie précédente. Pour comprendre son origine et ses propriétés, nous devons aborder la théorie du
corps noir. Ensuite, nous retracerons l’historique de sa découverte. Nous serons alors en mesure de discuter des apports
de ce rayonnement de fond au modèle standard de la cosmologie, et des perspectives qu’il ouvre en ce qui concerne les
modèles d’Univers.
Un corps noir est un système idéalisé isolé – il n’existe aucun transfert d’énergie avec l’extérieur – où
la matière et le rayonnement sont en équilibre thermique. C’est-à-dire que la matière absorbe autant
d’énergie qu’elle en émet. Nous pouvons étudier le corps de noir de manière théorique, grâce à la
thermodynamique, ou de manière expérimentale par l’utilisation d’un four comme corps noir approché (cf.
schéma ci-contre). Quelles sont les propriétés découlant de l’isolement et de cet équilibre thermique ? Tout
d’abord, pour un observateur placé à l’intérieur du corps noir, celui-ci est homogène et isotrope, le
rayonnement électromagnétique possédant (et conservant) en tout point les mêmes propriétés. Par
conséquent, le corps noir conserve indéfiniment sa température initiale. Le rayonnement échangé à
l’intérieur du corps noir ne dépend ni de sa forme, ni de sa composition. Il possède un spectre complet (cela
signifie que toutes les longueurs d’onde sont présentes) déterminé totalement par la température du
système.
parois isolantes
résistances chauffantes
corps noir
33
Une histoire standard de l’Univers III – Arguments astronomiques
La loi de Stefan-Boltzmann nous permet de connaître l’émittance totale (en W.m-2) : E = σT4 ; T étant
la température absolue. D’autre part, une étude plus approfondie de la théorie du corps noir donne la loi de
Wien, qui exprime la longueur d’onde d’émission maximale λmax en fonction de la température absolue T :
λmax = w/T ; w étant une constante de proportionnalité. Voici un exemple de spectre émittance/longueur E–λ
d’onde de corps noir (pour une température de 3000 K ; la zone verte représente le rayonnement visible), qui
est décrit dans son ensemble par la loi de Planck 5, qui suit une expression mathématique assez complexe.
E/Emax
λmax = 0,97 μm
1
0,8
0,6
0,4
0,2
0 λ (μm)
0,5 1,0 1,5 2,0 2,5 3,0 3,5
Découverte et explication
Nous pouvons observer actuellement un rayonnement de corps noir qui semble baigner l’Univers
tout entier, nommé « fond diffus cosmologique », ou CMB en anglais (Cosmic Microwave Background). Son
existence fut prédite par l’astrophysicien américain Gamow : partant de l’idée d’une explosion primordiale
de température 1010 K, il en déduit l’existence d’un rayonnement fossile homogène et isotrope à la
température d’environ 10 K. Cette prédiction fut vérifiée en 1964 par la découverte fortuite d’une
composante d’un rayonnement de fond pour λ = 7,3 cm par deux radioastronomes américains, Arno Penzias
et Robert Wilson. Ceux-ci testaient une antenne radio de transmission satellite, et voulaient éliminer le bruit
perturbant les signaux. Une fois écartés les parasites dus à leur appareillage, il subsistait un rayonnement
électromagnétique universel, ne provenant d’aucun point particulier de l’espace et restant constant dans le
temps. Le spectre E–λ de cette émission fut E/Emax
progressivement reconstruit, et fut identifié un λmax = 1,06 mm
1
rayonnement de corps noir à 2,735 K (à 0,3%
près), soit une émittance maximale pour la
0,8
composante micro-onde λ = 1,06 mm, selon la loi
de Wien. 0,6
0,4
Spectre E– λ du rayonnement de fond
0,2
L’échelle des longueurs d’onde est logarithmique.
0 λ (mm)
0,1 1 10
34
Une histoire standard de l’Univers III – Arguments astronomiques
Le CMB est expliqué dans le cadre du modèle standard de la cosmologie : la théorie du Big Bang permet
de le comprendre comme rayonnement fossile. Au début de l’Univers, les photons sont constamment
absorbés puis émis par les électrons : matière et rayonnement sont en équilibre thermique, l’Univers est donc
un corps noir. Mais, 300 000 ans après le Big Bang, la température descend à 3000 K, soit une énergie
moyenne inférieure à 1 eV, les électrons pouvant alors être capturés par les noyaux légers pour former les
premiers atomes : c’est la recombinaison. Les photons peu énergétiques n’interagissent pratiquement plus
avec la matière : il y a découplage. Le rayonnement peut donc se propager librement. D’autre part, la
multiplication par 1000 du facteur d’échelle R dilue cette émission de corps noir de 3000 K à environ 3 K. Ces
mécanismes sont expliqués plus largement dans le paragraphe En approchant du Big Bang.
Récemment, la mission COBE (COsmic Background Explorer) lancée par la NASA en 1989, a permis
de constater la quasi-isotropie (globale) du CMB. Notons que c’est un argument en faveur du principe
cosmologique. Cette observation a été réalisée en soustrayant aux résultats expérimentaux le composante
dipolaire du rayonnement, que nous avons déjà rencontrée, due au mouvement propre de la Terre.
Toutefois, une étude plus fine des observations (en leur soustrayant un rayonnement de corps noir de
température 2,735 K) permet de détecter des anisotropies locales, l’écart relatif mesuré étant de ΔT/T ~ 10-5.
La célèbre carte de ces anisotropies est reproduite ci-dessous. La résolution angulaire du satellite COBE était
de 7°, les résultats sont alors grossiers, et encore insuffisant pour confirmer le modèle standard de la
cosmologie qui prévoit des fluctuations de température actuelles de ΔT/T ~ 10-6. En 2007, le satellite Planck
déterminera une nouvelle carte des anisotropies avec une meilleure résolution angulaire, de 7’ et une
sensibilité thermique de ΔT/T ~ 2.10-6. Il permettra de mieux tester le modèle standard de la cosmologie, et
aussi l’hypothèse de l’inflation. Nous détaillerons ces aspects dans le paragraphe Un modèle inflationniste (p
40).
35
Une histoire standard de l’Univers III – Arguments astronomiques
Notes
(1) Nous allons démontrer cette relation, et justifier son indépendance vis-à-vis du système de
référence. Considérons une étoile de référence dont la magnitude apparente sera nulle par définition, et
produisant un éclairement E0. Pour une étoile produisant un éclairement E et de magnitude apparente m
dans ce système de magnitude, nous aurons : m = – 2,5 log(E/E0).
Plaçons cette même étoile à 10 pc, elle produit un éclairement E’, et d’après, la définition de la magnitude
absolue : M = – 2,5 log(E’/E0).
Exprimons leur différence, puis utilisons les règles de calcul des logarithmes :
M – m = – 2,5 log(E’/E0) + 2,5 log(E/E0) = –2,5 [log(E’/E0) – log(E/E0)] = – 2,5 log[(E’/E0) (E/E0)] = – 2,5 log(E’/E)
Nous constatons que notre système de référence n’intervient pas dans cette différence entre magnitude
absolue et magnitude apparente d’une étoile. De plus, nous savons que le rapport des éclairements varie en
inverse carré du rapport des distances de l’étoile. Exprimons ces distances en parsecs, nous avons alors, si d
est la distance de l’étoile : E’/E = (10/d)–². D’où :
(2) Les énergies des niveaux électroniques sont bien définies pour chaque type d’atome, de sorte que seules
les photons dont l’énergie W (J) correspond exactement à une transition possible sont absorbés. Cela se
traduit par des raies d’absorption où tous les photons de fréquence ν (Hz) telle que : W = hν ; sont absorbés.
En utilisant la relation entre fréquence et longueur d’onde λ (m), les longueurs d’onde des raies d’absorption
sont : λ = hc/W.
(3) Cet observateur particulier est dit comobile, et c’est à lui que se rapportent les coordonnées d’un
évènement en cosmologie.
(4)Ce modèle d’Univers euclidien (plat) nous amène à prendre, comme nous l’avions indiqué, une constante
d’intégration k nulle. Dans cet Univers de Friedman, la constante cosmologique Λ est nulle. D’où le second
membre de l’équation (1) est nul, et celle-ci devient : H² – 8πGρC/3 = 0. Et le résultat : ρC = 3H²/8πG.
(5)La loi de Planck, qui peut s’établir en assimilant les atomes à des oscillateurs harmoniques, donne la
relation à l’équilibre thermique entre <E>, énergie moyenne d’un oscillateur (J), la longueur d’onde λ
correspondante (m) et la température absolue T du corps noir (K), en faisant intervenir la constante de
Planck h, la constante de Boltzmann k, et la célérité de la lumière dans le vide c :
1 hc
E = ⋅
λ e hc / λ kT − 1
L’émittance, compte tenu des éléments indiqués en Annexe C, peut être considérée comme proportionnelle à
cette énergie moyenne. Nous ne présentons par ailleurs dans les graphiques E–λ qu’une grandeur sans
dimension, l’émittance en une longueur d’onde étant rapportée à l’émittance maximale.
36
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
Nous avons présenté les différents modèles d’Univers respectant le principe cosmologique, et
introduit le concept de singularité. Nous savons, d’après les récentes observations, que la constante
cosmologique ne peut être nulle : l’Univers peut ou non admettre une singularité initiale. L’existence d’une
singularité (Big Bang) à l’origine de l’Univers impliquerait un âge fini. Pourquoi préférer le Big Bang ?
L’attrait principal de cette théorie est qu’elle permet de décrire une évolution physique pour l’Univers, selon
les paramètres macroscopiques que sont la température, la densité, etc … Avec nos connaissances en
physique de la matière, nous pouvons faire des prédictions sur l’état et la composition de l’Univers en un
instant donné, qui peuvent être comparées aux observations « actuelles » 1 : rayonnement de fond
cosmologique, proportions des éléments légers hydrogène et hélium, loi de Hubble … et y sont conformes.
Ainsi, le modèle du Big Bang1 est cohérent expérimentalement, et de plus compatible avec les paramètres
cosmologiques mesurés.
37
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
Le retour vers le passé, nous le savons à présent, implique des températures – donc des énergies cinétiques
moyennes – de plus en plus élevées. Les mécanismes mis en jeu à cette échelle nous sont dévoilés par l’étude en
accélérateurs de particules, et nous pouvons alors y trouver la physique du tout début de l’Univers. Concrètement, le
LEP (Large Electron-Positron collider) du CERN nous a permis d’atteindre les énergies de l’ordre de 1011 eV (soit 100
GeV). Voici un graphique présentant en parallèle – décrit dans les Eléments de physique des particules, p 7 – l’âge
de l’Univers et la température absolue y régnant. Comparons notre niveau de connaissance à cette échelle : nous
connaissons, actuellement, assez de physique pour décrire l’Univers dès l’âge de 10–10 s ! Au-delà, nous pouvons
seulement conjecturer, avec plus ou moins de réussite, quant aux « évènements » déroulés. Mais il n’est pas nécessaire
d’atteindre de plus hautes énergies – ou un passé plus reculé – pour que se manifestent des phénomènes intéressants.
Nous les rencontrerons dans notre approche du Big Bang, c’est pourquoi, pour une meilleure compréhension, nous les
détaillons dans cette partie. Que sont donc les effets de seuil et la dilution énergétique ? Enfin, il est accepté
actuellement que l’Univers a subi une phase d’expansion exponentielle à son tout début : comment accréditer cette
théorie ?
Tout d’abord, nous nous intéresserons aux effets de seuil, qui règlent les transitions entre les différents
stades traversés par notre Univers. Comment ? Illustrons-les par un exemple, grâce à des analogies à la
physique statistique. Le mode d’interaction privilégié, pour les énergies élevées que nous utilisons, c’est la
collision. En effet, le libre parcours moyen d’une particule est d’autant plus court que la température est
élevée, par analogie avec la physique statistique. Voici un exemple d’interaction, la diffusion, représentée
par le graphe de Feynman suivant (cf. Les quatre interactions fondamentales, p 11). Elle est constatée
expérimentalement, aussi admettrons-nous qu’elle a effectivement lieu pour des conditions adéquates.
La première réaction est en quelque sorte spontanée : quelque soit l’énergie de collision des leptons,
deux photons seront produits, plus ou moins énergétiques, car leur masse est nulle. Au contraire, la réaction
réciproque est spécifique à certaines conditions : en effet, l’énergie de masse de la paire électron-positron est
de 1 MeV. Sa production nécessite donc une énergie de collision supérieure pour les photons.
38
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
Subséquemment, pour des énergies moyennes de 1 MeV ou plus, la réaction est réversible, les particules
continuellement « renouvelées » : c’est l’équilibre thermique. Et, lorsqu’une paire électron-positron est
produite, l’excédent de l’énergie de collision initiale se retrouve en tant qu’énergie cinétique du système. En
revanche, en deçà du seuil, la transformation se fait à sens unique : les leptons s’annihilent en rayonnement
électromagnétique sans ne plus être produits. Ainsi, les effets de seuil déterminent les compositions
successives (en particules) de l’Univers à son début. Ces modifications radicales nous permettent de définir
des ères traversées par l’Univers. Consultons notre échelle de temps et d’énergie : l’effet de seuil à 1 MeV que
nous avons décrit annonce l’avènement de l’ère des photons, à 1s AB – nous utiliserons dorénavant cette
notation pour « après le Big Bang ». Un autre effet de seuil à 1 eV mettra un terme à cette ère, en 1013 s AB
(300000 ans environ). Nous aurons le soin de détailler ces transitions dans la partie suivante. A retenir
comme conclusion : chaque fois que l’énergie moyenne de l’Univers s’abaissera en dessous de l’énergie de
masse d’une paire particule-antiparticule, celles-ci disparaîtront de la scène cosmique, avec des
conséquences plus ou moins prononcées. Toutes ? Non, car l’annihilation (la collision) est d’autant moins
probable que les particules se trouvent moins nombreuses (encore une analogie à la physique statistique). En
fait, il restera une particule sur un milliard, mais plus aucune antiparticule. Nous évoquerons plus tard
certaines hypothèses avancées par les théoriciens pour expliquer ces observations. Finalement, précisons que
ces annihilations de particules et antiparticules n’interdisent pas leur création ultérieure lors de mécanismes
divers.
Les effets de seuil que nous avons décrits aboutissent tous à une hécatombe de particules et
antiparticules, dès que la température « ambiante » atteint leur énergie de masse : nous en avons détaillé le
mécanisme. Toutefois, il existe une seconde catégorie d’ « effets de seuil », dits de formation. En effet, les
structures atomiques évoluées que nous connaissons, ne se trouvent stables qu’à basse température. Nous
pouvons justifier cette affirmation si nous nous rappelons que les énergies élevées permettent de casser les
atomes pour observer protons et neutrons. En fait, l’énergie de liaison des nucléons dans le noyau est
d’environ 1 MeV : le seuil correspondant se situe à 1s AB approximativement, soit pour une température de
l’ordre de 1010 K. Pour un Univers plus jeune, les regroupements de nucléons sont sans cesse dissociés par
les collisions, avec les photons notamment. Pour que des noyaux atomiques stables (les plus simples donc,
comme le deutérium : un neutron et un proton) puissent apparaître durablement, il faudra attendre 100s
AB : l’énergie de choc de 1 MeV est alors rarement atteinte, les photons ne sont plus en mesure de casser ces
noyaux. Abaissons encore la température … Outre le fait que les collisions soient moins nombreuses, il
devient évident que les photons interagissent de moins en moins appréciablement avec la matière, plus
exactement les regroupements de nucléons. A 1013 s AB (300 000 ans), le rayonnement ne parvient plus à
casser ni même à exciter les atomes formés entre-temps : l’Univers devient transparent, c’est l’origine du
rayonnement cosmologique dont nous avons parlé auparavant ! Dorénavant, l’évolution des photons se fait
indépendamment de notre matière atomique, c’est le découplage matière/rayonnement.
Pourquoi cette séparation ? C’est que les photons ont une masse nulle. L’énergie (entièrement
cinétique) W d’un photon dépend de sa fréquence ν, comme nous l’avions vu dans Principes d’incertitude et
fluctuations quantiques : W = hν. Notre étude des modèles d’Univers et les observations astronomiques nous
montrent que l’Univers a toujours été en expansion (plus ou moins forte, nous en discuterons). Ainsi, d’après
l’effet Doppler-Fizeau, la fréquence du rayonnement a diminué : cela revient à dire que la longueur d’onde
s’est allongée, parallèlement à l’expansion de l’espace-temps. Ainsi, les photons semblent avoir été
« dilués » par l’inflation de l’Univers : leur énergie a peu à peu diminué au cours du temps. Par conséquent,
leurs interactions avec les particules massives que sont les nucléons, et les structures évoluées que sont les
atomes, sont devenues minimes. Cette dilution aboutissant à un découplage se révèle analogue pour des
39
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
particules de masse faible, tels les neutrinos (nous en reparlerons). En revanche, les particules massives
continuent d’interagir de manière notoire, car il subsiste, malgré le refroidissement de l’Univers, leur énergie
de masse. En fait, l’énergie totale E d’une particule massive est donnée par la relation : E = γm0c², avec le
facteur γ de Lorentz que multiplie l’énergie de masse (cf. Vues relativistes). Bien que la composante cinétique
de cette énergie totale diminue au cours du temps, les interactions par collision des particules massives
restent donc appréciables au début de l’Univers : la dilution énergétique en est moins significative.
Un modèle inflationniste
Pour des énergies supérieures à 100 GeV, le Modèle Standard est dépassé : nous ne pouvons
qu’émettre des conjectures quant aux évènements se produisant dans ces conditions, c’est-à-dire avant 10-10 s
AB, grâce à des hypothèses d’invariance plus générales. Outre une expansion continue décrite par les
équations de la relativité générale et constatée expérimentalement, la théorie actuelle précise que l’Univers a
connu une phase d’expansion supplémentaire, exponentielle, quelque part entre 10–43 et 10–34 s. Cette
hypothèse a été proposée par Alan Guth en 1980. Mais quels sont les faits cosmologiques qui accréditent
cette conjecture ?
Tout d’abord, nous pouvons nous étonner de l’isotropie et de l’homogénéité de l’Univers. Comment
des régions spatialement éloignées – et donc supposées séparées causalement – peuvent-elles présenter des
caractéristiques identiques ? C’est pourtant ce que nous constatons avec le rayonnement de fond
cosmologique qui présente (globalement) partout la même température. Ce fait nécessite des conditions
initiales identiques, et de plus, est valable en tout point. Par conséquent, il doit exister un lien causal entre
ces régions, qui furent rapprochées spatialement dans les premiers instants de l’Univers. L’expansion rapide
que nous avons évoquée permet d’expliquer l’absence de lien causal de nos jours : cette inflation serait donc
plus rapide que la vitesse de la lumière (cela n’est pas interdit, puisque pratiquée sur des points non
« matériels »). Dans les tout premiers instants de l’Univers, dès 10–43 s AB – nous ne pouvons remonter plus
loin : c’est le temps de Planck -, les fluctuations quantiques, que nous rencontrées auparavant, engendrent
des anisotropies de densité microscopiques et locales. Une période d’inflation exponentielle de l’espace-
temps aurait considérablement dilaté ces variations, pour aboutir à des anisotropies macroscopiques et
locales, que nous observons dans le fond diffus cosmologique. Le modèle standard de la cosmologie prévoit
alors des fluctuations de l’ordre de ΔT/T ~ 10-6, d’une dispersion angulaire d’environ 10’. Le satellite Planck
doit effectuer des mesures précises dès 2007 qui confirmeront ou infirmeront cette hypothèse. Enfin, il est
probable, que, par des phénomènes encore incompris, elles soient à l’origine des structures à grande échelle
observées dans l’Univers actuel.
De plus, cette inflation rapide conduit à l’élimination de toute courbure initiale : la densité devient
obligatoirement critique, et l’Univers plat. Aujourd’hui, les observations et les études de modèles d’Univers
nous conduisent à penser que l’Univers a en effet une densité critique. Ceci corrobore l’hypothèse de
l’inflation, qui est donc solidement ancrée dans le modèle actuel.
Ce mécanisme d’expansion peut être compris physiquement grâce la théorie quantique et une
certaine structure du vide.
40
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
Tous les faits, les modèles, les hypothèses que nous avons évoqués jusqu’à présent sont autant d’éléments de
réponses aux questions sur l’Univers originel. Ou du moins son approche. Effectivement, nous ne pouvons pas
remonter au-delà de 10–43 s AB : notre physique actuelle n’aurait plus d’application. Le temps, l’espace, tel que nous le
connaissons grâce à la relativité générale n’ont dès lors plus de sens, distordus par une gravitation forte et quantique.
En revanche, nous pouvons décrire l’Univers à ses débuts, plus ou moins efficacement : pour des temps supérieurs à 10–
10 s, nous disposons du Modèle Standard de la physique des particules, vérifié expérimentalement. Nous sommes en
mesure de « prédire le passé » avec une précision correcte, de déterminer les évènements « historiques » et leurs
conséquences sur l’Univers d’aujourd’hui. En ce qui concerne la période initiale, des hypothèses sur la structure du
vide, peuvent, par exemple, nous éclaircir la situation, et estomper certaines incertitudes. Nous examinerons ces
aspects, en reliant l’évolution de l’Univers aux paramètres déterminants que sont la densité, la température et le rayon
de courbure. Toutes les informations importantes, les ères, les transitions, sont rassemblées à la fin, dans un graphique
de l’histoire thermique de l’Univers. Parallèlement seront présentés l’évolution temporelle de deux autres de ses
caractéristiques essentielles : facteur d’échelle et densité totale. Rappelons en dernier lieu que l’histoire que nous
présenterons dans cette partie, si fortement affirmée qu’elle soit, n’est qu’un modèle : une manière standard de
comprendre l’évolution universelle.
L’Univers naît d’un Big Bang, à partir d’une singularité initiale où, théoriquement, la température, la
pression, la densité sont infinies. Il en résulte bien sûr une expansion. Nous ne connaissons rien de physique
jusqu’à 10–43 s AB : c’est la mystérieuse ère de Planck.
Cependant, à de 10–43 s AB, la densité d’énergie est assez faible (équivalente à une température de
l’ordre de 1032 K !) pour que la gravitation s’affaiblisse et se dissocie des autres interactions, alors regroupées
en une seule « superforce ». Dans ces conditions, le temps et l’espace relativiste prennent alors forme. Nous
voici dans un espace-temps profondément dominé par les fluctuations quantiques, alors de l’ordre de 1028
eV ! C’est l’ère de grande unification. Les particules élémentaires du Modèle Standard, telles que nous les
connaissons sont présentes dans des états liés dits « supersymétriques ». Aux alentours de 10–38 s AB, les
théories prévoient un « changement de phase » du vide qui permet la différenciation des quarks et des
leptons. La grande unification se trouve également brisée : la force nucléaire forte et la force électrofaible se
séparent. Cette modification de la structure du vide déclenche alors l’inflation exponentielle que nous avons
rencontrée dans le paragraphe Un modèle inflationniste. Outre la dilation « commune » de l’espace-temps,
l’Univers entre dans une phase d’expansion qui le refroidit brusquement. Cet état explosif adjoint à la
manifestation d’interactions faibles violant la symétrie par CP (introduites dans Les quatre interactions
fondamentales, p 11) vis-à-vis des quarks permettrait un léger excédent de matière rapport à l’antimatière.
C’est une hypothèse formulée par le physicien nucléaire russe Andreï Sakharov : la rapidité de cette
expansion exponentielle rendrait ce déséquilibre irréversible, malgré une invariance globale par CPT.
Comme la théorie de grande unification relie la densité de quarks à la densité de leptons, l’excédent de
matière vaut pour tous les fermions.
Déjà, une nouvelle transition de phase du vide met fin à la dilatation exponentielle, qui serait situé
vers 10–34 s AB : l’augmentation du facteur d’échelle reprend son cours normal. Mais quel est-il ? L’énergie
cinétique moyenne par particule associée à ce temps infime est de l’ordre de 1023 eV, soit 1014 GeV. L’énergie
de masse la plus élevée pour une particule élémentaire (dans le cadre du Modèle Standard) correspond à 175
41
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
GeV, celle du quark top : par conséquent, à ces énergies, l’énergie de masse est négligeable devant l’énergie
cinétique. Est considérée comme rayonnement la propagation de particules dont l’énergie de masse peut être
ainsi négligée 2. Nous pouvons donc raisonner pour un Univers dominé, en ce temps-là, par le rayonnement.
Ainsi, nous pouvons utiliser les résultats énoncés en Annexe D : le rayon de courbure R (ou facteur d’échelle)
de l’Univers varie selon la racine carrée du temps. Cela signifie que, si l’âge de l’Univers quadruple, le
facteur d’échelle double ; nous résumerons cette relation en écrivant : 4t implique 2R. De la même manière,
nous annonçons que la densité totale ρ est proportionnelle à l’inverse du carré du temps (4t implique ρ/16),
et que la température T chute comme la racine carrée de l’inverse du temps (4t implique T/2). Reprenons
notre cours du temps, en gardant à l’esprit l’évolution de ces paramètres. De 10-34 à 10-10 AB, la composition
de l’Univers ne change guère, c’est l’ère des quarks. Les hypothèses prédisent, pour ces énergies supérieures
à 100 GeV, que le vide ne manifeste aucune « aversion » pour la couleur (la « charge » des quarks). Les
quarks sont donc libres pendant l’ère éponyme : ils interagissent constamment, si bien que l’Univers est
constitué d’un plasma de quarks et de gluons. Cette théorie doit être vérifiée sous peu par l’étude de la
physique du TeV au LHC (Large Hadron Collider), parachevé en 2005 : il permettra de remonter jusqu’à 10–
12 AB.
Pourquoi les quarks dominent-ils l’Univers depuis 10–38 s AB, alors que les leptons sont également
présents ? Les énergies en jeu pendant cette période sont encore très supérieures aux premières températures
de seuil : en fait, toutes les particules sont en équilibre thermique, étant continuellement détruites puis
renouvelées. Pour répondre, il nous faut définir le nombre effectifs d’espèces : c’est la contribution de chaque
type de particules élémentaires à la densité totale ρ. Le nombre effectif d’espèces des leptons constitue le
tiers de celui des quarks, ces derniers se déclinant en trois variétés de couleur. Leur contribution à l’énergie
de l’Univers est donc triple. De même, nous comprenons la « discrétion » des bosons : les quarks dominent la
scène ! Remarquons enfin que les charges des quarks s’expriment en tiers de la charge élémentaire de
l’électron et que le principe de la conservation de la charge reste donc bien valable 3.
Nous atteignons 10–11 s AB et une énergie moyenne de 200 GeV. Jusqu’à présent, la symétrie de jauge
(cf. Invariants et symétries, p 10) a été respectée : les bosons vecteurs des interactions fondamentales (cf. Les
quatre interactions fondamentales, p 11) possèdent tous des masses nulles. Néanmoins, pour des énergies
inférieures à 200 GeV, la symétrie se brise par un changement de structure du vide (ici, expliqué par
l’apparition d’une valeur non nulle du champ de Higgs, qui conférerait leur masse aux particules, cf. L’état du
vide, p 17) : les quanta de champ de l’interaction faible deviennent massifs. 81 GeV pour le W chargé, 91 GeV
pour le Z neutre. Aussitôt, leur température de seuil est atteinte, et leur population initiale disparaît. D’autre
part, l’interaction électrofaible se dédouble en interactions électromagnétique et nucléaire faible.
La température décroît toujours comme l’inverse de la racine carrée du temps. Entre 10–11 et 10–5 s
AB, l’âge de l’Univers a été multiplié par 106 (un million), la température s’est donc abaissée d’un facteur
mille, pour atteindre 200 MeV. La précédente transition de phase du vide a permis de favoriser les particules
légères, qui sont plus facilement produites, vis-à-vis des particules massives, d’autant plus que l’énergie
moyenne diminue. Ainsi, les quarks les plus légers (qui de surcroît sont les plus stables), c'est-à-dire u, d, s,
se trouvent les plus nombreux. Déjà, la température de seuil (300 MeV) des quarks s est atteinte, et
rapidement, la quasi-totalité des quarks et des antiquarks s’annihilent. Il subsiste un milliardième du
« stock » de quarks. L’équilibre thermique est ainsi rompu et, parallèlement, lorsque l’Univers a vécu 10–5 s,
le vide devient opaque à la couleur, selon les modalités précisées dans Les quatre interactions fondamentales (p
11). Pour minimiser leur énergie, les quarks doivent se lier en une combinaison globalement blanche. Ne
restant que peu d’antiquarks pour former des mésons, ils se combinent par trois en hadrons, dont les plus
légers sont les nucléons (proton et neutron). Bien que disparus de la scène cosmique, des antiquarks peuvent
42
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
être produits par fluctuations quantiques ou d’autres phénomènes. Cette hécatombe clôt le règne des
quarks : voici l’ère des leptons.
A cette époque, l’Univers se compose d’un grand nombre d’électrons, de muons et de leurs
neutrinos (la température de seuil des taus est déjà dépassée), en équilibre thermique avec le rayonnement
électromagnétique, c'est-à-dire les photons. Les premiers éléments de matière que sont les nucléons sont
moins nombreux que les photons d’un facteur 109 (un milliard) ! Après la transition de phase du vide à 10–5 s
AB, les deux types de nucléons sont en nombre quasi égaux, avec un léger déséquilibre en faveur des
protons, plus légers de 1 MeV. Néanmoins, la proportion en neutrons décroît avec le temps. En fait, les
nucléons subissent des processus faibles : les neutrons mutent en protons et vice versa. Cependant, la
création de neutrons se révèle plus difficile lorsque la température diminue, en raison de cet écart de masse.
Plusieurs phénomènes intéressants se manifestent lors de cette période leptonique. En premier lieu,
la disparition des muons. Membres du second doublet de leptons, les muons sont instables, avec un temps
de vie de l’ordre de la microseconde (10–6 s). A 10–5 s AB, bien qu’ils se désintègrent aussitôt produits,
l’équilibre thermique permet leur renouvellement instantané. Mais, l’effet de seuil à 200 MeV entraîne leur
annihilation mutuelle (lorsque nous parlons de muons en général, nous entendons les particules et
antiparticules) : l’âge de l’Univers est de 10–4 s. En second lieu, le découplage des neutrinos. Ceux-ci ne
subissent que des interactions faibles : leur masse de quelques eV et leur neutralité électrique les rend
insensibles à tout autre type de force. De plus, la chute de la densité adjointe à la diminution de la
température dilue les neutrinos : l’importance des interactions faibles se trouvant moindre à faibles
transferts, le libre parcours moyen des neutrinos croît plus rapidement que le rayon de courbure de
l’Univers (sa taille en quelque sorte). Subséquemment, les neutrinos se découplent, à 10–1 s AB, soit des
énergies moyennes de l’ordre de 10 MeV : ils n’interagissent quasiment plus avec la matière ordinaire.
Actuellement, il existe, à l’instar du CMB, un rayonnement de fond de neutrinos, non encore détecté, dilué
par l’expansion à la température de 2 K environ. Les muons anéantis, les neutrinos découplés, les électrons
vont à présent disparaître. Jusqu’à présent, les électrons et leurs antiparticules, les positrons, se trouvaient en
équilibre thermique avec les photons : sans les muons, ils représentaient, seuls, l’importante contribution des
leptons à l’énergie de l’Univers. Aux alentours de 1s AB, ils s’annihilent comme décrit dans Les effets de seuil
(p 38) : l’énergie moyenne est alors de 1 MeV. Ne subsiste qu’un électron pour un milliard de photons.
L’énergie thermique dégagée lors de cette gigantesque annihilation – qui se terminera vers 100 s AB -
contribue à diminuer quelque peu la densité d’énergie de l’Univers et surtout à ralentir son refroidissement
pour un instant : en fait, toutes les particules en présence exceptés les neutrinos en bénéficient, c’est
pourquoi la température actuelle des neutrinos dilués est 40% plus faible que celle des photons. Par la
température de l’Univers, nous entendrons à présent température du rayonnement électromagnétique.
Ainsi débute l’ère des photons, à 1s AB, pour une température de 1010 K, soit 1 MeV. A cette énergie,
le seuil de formation des noyaux atomiques comme l’hélium 4He est atteint : l’Univers s’assimile à un
réacteur de fusion nucléaire (cf. Dilution énergétique et découplage, p 39). Toutefois, le mécanisme ne se met pas
en place immédiatement. Car l’expansion de l’Univers est encore conséquente, et les particules ne peuvent
s’assembler que par deux, dans des réactions rapides (cf. Annexe G). Sont alors formés, par l’intervention de
l’interaction nucléaire forte véhiculé par mésons, des noyaux de deutérium 2H, un isotope de l’hydrogène
noté aussi D, composés d’un neutron et d’un proton. Ils constituent les briques initiales avec les protons
isolés (ou noyaux d’hydrogène 1H). Le deutérium est un système faiblement lié – le noyau de 4He est trois
fois plus solide 4 – donc les noyaux sont constamment brisés par les photons du rayonnement ambiant. De
même, les noyaux plus évolués de tritium 3H et d’hélium 3He sont fragilisés. Par conséquent, il faut attendre
43
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
100 s AB et des énergies moyennes de 0,1 MeV (soit 109 K, 70 fois plus chaud que le centre du Soleil) pour
amorcer la nucléosynthèse. Le noyau stable le plus simple correspond donc à celui de l’hélium 4He (c’est
également la particule α qui caractérise une certaine forme de radioactivité). Il se forme par la combinaison
de deux noyaux de deutérium – alors stabilisés par la baisse de la température. En fait, presque tous les
neutrons présents entrent dans la composition de ces noyaux de 4He, car les noyaux atomiques plus lourds
sont bien moins stables.
Ainsi, l’Univers a préfabriqué les noyaux des deux éléments chimiques 4He et 1H (ou proton isolé),
principalement entre 100 s AB et 180 s AB – les trois premières minutes. De nos jours (à 1017 s AB), hélium et
hydrogène dominent l’Univers, en constituant respectivement 26% et 74% en masse des éléments chimiques.
Nous pouvons comprendre ce rapport. Les neutrons ne se présentent que dans les noyaux d’hélium 4He :
instables isolés, ils se désintègrent radioactivement avec un temps de demi-vie de 920 s. D’autre part, ils
constituent la moitié des nucléons (2 sur 4) présents dans 4He. Appelons kα, la proportion en masse des
noyaux de 4He sur l’ensemble des noyaux, et kn, la proportion en masse des neutrons sur l’ensemble des
nucléons. Avec des masses égales pour le proton et le neutron, nous trouvons : kα = 2kn. Or, nous savons que
kn diminue en fonction du temps (et donc de la température) en raison de l’écart de masse de 1 MeV entre le
neutron et le proton. Nous pouvons inférer que le rapport kα vaut entre 20 et 30 %, et confirmer notre
modélisation de la nucléosynthèse
kn (%)
0,1 1 10 100 103 5.103
50 Temps
(s)
40
30
Evolution de la proportion de neutrons
en fonction du temps et de la température Nucléosynthèse
20
10 Désintégration
des neutrons
0 Température
(K)
1011 1010 109 5.108
Insistons encore sur cette étape-clef de l’Univers. Grâce à la compréhension et l’utilisation des
proportions en éléments légers, Gamow et son équipe purent prédire le CMB. A partir de certaines
hypothèses (cf. Le rayonnement de fond, p 33), il détermina grâce à kα et kn la « date » du début de la
nucléosynthèse. Mais son initiation dépend de la densité de nucléons en présence (liée à leur nombre), qui
est évaluée en rapport de la densité de photons (déduite de la théorie du corps noir) : nous noterons ce
nouveau rapport kN. En effet, plus kN est élevé, plus les nucléons sont nombreux, et de même pour les
noyaux de deutérium formés et non détruits : la nucléosynthèse débuterait alors plus tôt, lorsque les
neutrons sont plus nombreux (kn élevé), et l’hélium se retrouverait en plus grande proportion (kα élevé). Par
la suite, le rapport kN est resté constant. Alors, connaissant la densité de nucléons aujourd’hui, nous en
déduisons la densité de photons actuelle : Gamow a pu prédire un fond diffus et sa température
approximative. D’autre part, nous avons déjà rencontré kN au début de l’ère des quarks : nous soulignions
que la densité de nucléons en rapport de la densité de photons valait 10–9. Cette valeur se déduit en fait de
l’âge de l’Univers à l’initiation de la nucléosynthèse. Et, remontant dans le passé, nous pouvons nous rendre
compte qu’en fait kN représente indirectement l’excédent de matière par rapport à l’antimatière !
Nous voici à 6,3.1012 s AB (soit un âge d’environ 200000 ans). La température, chutant toujours
comme la racine carrée de l’inverse du temps atteint 4000 K, c'est-à-dire une énergie moyenne de 1,3 eV.
Depuis le début de l’ère des photons, le facteur d’échelle R a été multiplié par 2.106 environ, la densité totale
44
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
ρ a diminué d’un facteur supérieur à 1025. Le rayonnement électromagnétique s’est dilué avec la dilatation de
l’espace-temps (décrite par la variation du facteur d’échelle) : sa longueur d’onde typique est alors de l’ordre
du micromètre, soit dans le domaine de l’infrarouge. Les photons peuvent encore exciter les noyaux
d’hélium et d’hydrogène. Par contre, la contribution de cette proto-matière, massive et quoique peu
nombreuse (kN ~ 10–9), à la densité de l’Univers devient supérieure à celle des photons, dilués et sans masse :
ainsi s’annonce la domination des particules massives. Considérons alors les nouvelles lois qui régissent
l’évolution temporelle des caractéristiques de l’Univers, établies en Annexe D : la densité totale ρ évolue de
même qu’auparavant, en fonction de l’inverse du carré du temps : 4t implique ρ/16. En revanche, le rayon de
courbure R varie plus rapidement dorénavant, comme la puissance deux tiers du temps. C'est-à-dire : 4t
implique 2,5R environ. Enfin, la température T se trouve à présent fonction de l’inverse de la puissance deux
tiers du temps : 4t implique 0,4T environ.
Peu de temps s’écoule jusqu’à la formation des premiers atomes : c’est la recombinaison. En effet, la
température moyenne tombée à 3000 K – soit environ 1 eV -, les noyaux d’hydrogène et d’hélium peuvent
capturer des électrons par interaction électromagnétique, pour former des structures désormais stables. Le
rapport kN déterminant l’excédent de matière par rapport à l’antimatière, qui subsiste après les effets de
seuil, les électrons et les protons sont en nombre égaux. Par conséquent, ils peuvent constituer les systèmes
neutres que sont les atomes d’hydrogène et d’hélium. L’âge de l’Univers est alors de 1,1.1013 s : 350 000
années sidérales sont écoulées depuis le Big Bang. Cette fabrication des édifices atomiques primordiaux
annonce l’avènement de l’ère de la matière. Cette recombinaison – qui devrait se nommer plutôt
« combinaison », les noyaux et les électrons étant séparés avant l’évènement –, ajoutée à la dilution
énergétique, entraîne le découplage des photons : ils ne peuvent plus exciter sensiblement les atomes (la
longueur d’onde typique est de 3 μm) et ne sont plus absorbés significativement. Ainsi, les vestiges de cet
Univers jeune de 350 000 ans nous parvient sous la forme du fond diffus cosmologique : le rayonnement
électromagnétique se sépare définitivement de la matière. L’Univers devient transparent. Fiat lux !
45
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
Nous avons utilisé pour créer les courbes suivantes les lois établies en Annexe D, mais elles ne sont
présentées qu’à titre indicatif et non quantitatif. La vue de l’inflation entre 10–38 et 10–34 s AB est très grossière.
La densité ρ et le facteur d’échelle R sont exprimés (arbitrairement) en rapport de leur valeur à 1 s AB, lors
du passage de l’entrée dans l’ère des photons.
Température (eV/K)
1028 1032
Plasma : q, g e, γ γ …………………... (γ) : CMB dilué
1024 1028 ν (ν) p, α, e
1020 q e
1016
1012 1016
NS kα ~ 26 %
Faible ≠ Electromagnétisme kn ~ 13 %
108 1012
Couleur p, n
108 confinée ATOMES : 1H, 4He
104
kN ~ 10–9
LHC
1 104 Gde Inflat° Quarks Leptons Photons Matière
unificat°
10–4 1
1 t (s)
10–43 10–36 10–30 10–24 10–18 10–12 10–6 106 1012 1017
Ici est présentée l’évolution de la température de l’Univers en fonction de son âge, de 10–43 s AB à de nos jours. Nous
avons fait figurer sur ce graphique les principaux évènements ayant affecté l’Univers au cours de son histoire, et les
différentes ères que nous avions auparavant distingué. Voici la légende du diagramme :
46
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
Densité ρ/ρ1
1080
1060
1040
1020
1
ρ1, densité à 1s AB
10–20
10–40 t (s)
10–43 10–36 10–30 10–24 10–18 10–12 10–6 1 106 1012 1017
Facteur d’échelle
R/R1
1010
10–10
10–20
10–30 t (s)
10–43 10–36 10–30 10–24 10–18 10–12 10–6 1 106 1012 1017
47
Une histoire standard de l’Univers IV – Aux débuts de l’Univers
Notes
(1) Le modèle du Big Bang consiste surtout à donner à notre Univers un âge fini, et non une existence
éternelle (dans le passé, comme l’Univers statique proposé par Einstein). Ce qui est associé à des paramètres
physiques (pression, température, densité) de plus en plus extrêmes lorsque nous nous rapprochons de sa
« création ». Par contre, un fait critique est que le Big Bang ainsi supposé est lui-même situé en dehors du
cadre conceptuel qui lui a donné naissance, c'est-à-dire qu’il n’est pas un objet de science. C’est pourquoi
diverses tentatives proposent de redonner un sens physique à la théorie du Big Bang en supprimant
justement le Big Bang comme « explosion » (au sens figuré bien sûr) primordiale issue d’une singularité.
Cela passe par la détermination de « conditions d’existence » ou de création d’un Univers, par la
transformation de cette création en un phénomène physique susceptible d’étude scientifique, alors qu’elle
était jusque là pensée unique et métaphysique. Ce renversement de point de vue n’est cependant qu’ébauché
et n’a pas encore abouti.
(2) C’est en effet la caractéristique du rayonnement électromagnétique (par abus de langage, la lumière) :
toute l’énergie de la particule élémentaire « photon » correspond à son énergie cinétique, d’expression E = hν.
(3) La moitié des quarks possèdent une charge de (2/3)e, l’autre moitié une charge de –(1/3)e : la charge
moyenne d’un quark est donc de (1/6)e. La moitié des leptons portent la charge –e, et l’autre moitié la charge
nulle. La charge moyenne des leptons est donc de –(1/2)e. Le nombre effectif de quarks étant trois fois plus
important que le nombre effectif de leptons, leurs charges globales se compensent exactement, de sorte que
nous retrouvons un Univers neutre. Nous pouvons ainsi constater la grande cohérence (d’où l’intérêt) du
Modèle Standard, qui relie bien un nombre identique de doublets chez les leptons et les quarks, l’existence
d’une variable interne des quarks pouvant prendre trois valeurs (la couleur), et les charges fractionnaires des
quarks.
(4) La « solidité » d’un noyau atomique se traduit par l’énergie qu’il faut fournir par nucléon pour dissocier
les nucléons qui le composent (il est courant de parler d’énergie de liaison par nucléon). Par exemple, dire
que le noyau 4He est trois fois plus solide 2H signifie en fait que les nucléons sont trois fois plus liés dans le
noyau d’hélium 4 que dans le noyau de deutérium.
48
Une histoire standard de l’Univers V – Conclusion
De 350 000 ans AB à nos jours (un âge de l’ordre de 1017 s), le rayonnement électromagnétique
découplé s’est dilué, suivant l’expansion de l’espace-temps. Conformément aux lois précédemment établies,
le facteur d’échelle R a dû augmenter comme la puissance 2/3 du temps : il aurait été multiplié par plus de
500. La température des photons (à laquelle nous avons assimilé la température de l’Univers à la fin de l’ère
des leptons) se trouverait divisée du même facteur. En fait, ces évolutions détaillées en Annexe E ne sont
qu’approximatives, construites avec des modèles d’Univers de Friedman, et commencent à diverger des
observations. En plus de 10 milliards d’années, la température du fond diffus cosmologique a diminué d’un
facteur supérieur à 1 000, pour atteindre aujourd’hui 2,7 K environ (cf. Le rayonnement de fond), la longueur
d’onde typique des photons étant de 106 μm. Parallèlement, se sont formés les structures que nous
connaissons, étoiles, galaxies, amas, superamas, présentées dans Dynamique générale actuelle. Nous pouvons
nous interroger sur le devenir de cet Univers, à la lumière des Arguments astronomiques.
Actuellement, de nombreux programmes de recherches traitent de la détermination des paramètres
cosmologiques. Comme le montre le graphique de la page suivante, la contribution du paramètre de densité
de matière ΩM est assimilée à la matière baryonique (matière stellaire, nébuleuses, nuages de gaz
interstellaires, trous noirs …) : les estimations récentes conduisent à une valeur maximale de 5 %. Comme il
est couramment admis que l’Univers possède une densité critique (un espace-temps plat à grande échelle), le
paramètre ΩΛ vaudrait 95 %. Les théories quantiques attribueraient cette contribution à une énergie du vide,
mais les astrophysiciens cherchent également la matière noire, qui faciliterait l’explication des structures
galactiques : des particules lourdes, vestiges de temps reculés de l’Univers et non prédites par le modèle
standard (mais par une théorie dite supersymétrique). Les observations et théories actuelles situent leur
contribution à ¼ de la densité critique, soit un paramètre de densité de matière ΩM atteignant 30%, tout en
laissant une valeur proche de 70% pour ΩΛ. De l’imprécision sur ces paramètres, nous pouvons supposer
deux scénarii « standards » probables pour l’Univers, dont aucun ne conduit à une nouvelle singularité. Tout
d’abord, la thèse de l’accélération de l’expansion est accréditée par les observations récentes (diagramme de
Hubble dans Principe cosmologique et modèles d’Univers) : l’espace-temps se dilate indéfiniment, le facteur
d’échelle tend vers l’infini (pour un temps infini), la température tend vers le zéro absolu. A terme, toute
« activité » stellaire (étoiles, galaxies, trous noirs …) se dilue et disparaît, l’Univers ne devient alors qu’un
espace-temps quasi-vide. Ou alors, le facteur d’échelle possède une limite finie lorsque le temps tend vers
l’infini : il augmente de moins en moins rapidement, et l’Univers tend vers un état d’équilibre. La
température se trouve fixée à une certaine valeur ainsi que la densité totale.
D’autre part, l’aboutissement des travaux du LHC va relancer la recherche européenne en ce qui
concerne le passé reculé de l’Univers : la physique du TeV, soit des temps de l’ordre de 10–12 s, sera explorée
grâce à des collisions proton-proton ou proton-antiproton. Les résultats préciseraient la structure du vide à
ces énergies, notamment la brisure de la symétrie de jauge présumée à 10–11 s : le boson de Higgs y est
attendu. De plus, nous espérons observer un plasma de quarks et de gluons, qui constituait a priori la
matière de l’Univers pendant l’ère des quarks. Par conséquent, ce nouvel accélérateur de particules
permettra de confirmer et de dépasser le cadre du Modèle standard, pour mieux connaître les débuts de
l’Univers 1.
Ainsi, la recherche est tournée à la fois vers le passé et le futur, l’infiniment petit et l’infiniment grand.
49
Une histoire standard de l’Univers V – Conclusion
Nb de Energie moyenne
ΩU = 1 particules des particules
Energie
du vide ?
ΩΛ
Neutrinos 1087 1 eV
70 %
Matière noire
(particules 1077 100 GeV
supersymétriques)
0,3 %
Matière
1078 1 GeV
baryonique
25 % (protons, neutrons …)
ΩM
Malgré l’énorme masse que représente a priori la matière connue (baryonique), elle ne contribue à la densité totale qu’à
la hauteur de 5%, dont 0,5 % grâce aux étoiles. Les 4,5 % restant proviennent de la matière plus « sombre » : nuages de
gaz interstellaires mais aussi trous noirs, … Cependant, les effets gravitationnels dans les galaxies nous conduisent à
supposer l’existence d’une grande quantité de matière noire (particules exotiques non encore découvertes en
accélérateurs de particules. Matière baryonique et matière noire sont les deux contributions à la densité de matière Ωm.
La densité de rayonnement Ωr prend part à la densité totale à une très faible proportion, avec les neutrinos (de masse
faible de l’ordre de quelques eV mais en très grand nombre) et les photons, tous deux découplés de la matière. Enfin,
subsiste 70 % de ΩU pour atteindre la densité critique, attribués à ΩΛ, et éventuellement à l’énergie du vide dont nous
avons émis l’hypothèse.
Ce graphique est réalisé d’après un document issu de : « Pour la Science », n° 305, Le côté obscur de la matière,
David Cline.
50
Une histoire standard de l’Univers V – Conclusion
Notes
(1) Tout au long de cet ouvrage, nous avons pris le soin de parler des « débuts de l’Univers », tout en écartant
l’idée d’origine de l’Univers, ou des origines de l’Univers. La question de l’origine, qui s’inscrirait dans un
cadre temporel dépassant l’Univers, n’a pas véritablement de sens pour la physique actuelle. La question des
origines, qui correspondrait à un mode de formation d’un Univers, est actuellement débattue, de manière
uniquement spéculative. Après que l’Univers soit devenu avec la cosmologie un objet de science, certaines
tentatives visent à faire de la création de l’Univers (et plus généralement d’un Univers) également un objet
de physique (comme nous l’avons évoqué dans la note (1) p 48).
51
Une histoire standard de l’Univers VI – Annexes
VI – Annexes
Constantes physiques
Unités de Planck
52
Une histoire standard de l’Univers VI – Annexes
Angle
Radian (rad)
Degré (°) 1° = π/180 rad
Minute (‘), seconde (‘’) 1° = 60 ‘ = 3600 ‘’
Distance
Temps
Seconde (s)
Année sidérale (a) 1 a ≈ 3,16.107 s Période de révolution de la Terre autour du Soleil
dans le référentiel héliocentrique
Masse
Kilogramme (kg)
Température
Kelvin (K)
Degré Celsius (°C) 0°C = 273,15 K L’échelle est dans les deux cas centigrade
Energie
Joule (J)
Electron-volt (eV) 1 eV ≈ 1,602.10–19 J Energie communiquée à un électron accéléré sous
une tension de 1 V
53
Une histoire standard de l’Univers VI – Annexes
C – Eléments de photométrie
Les mesures sont effectuées par des capteurs L’œil est le capteur par défaut, mais sont aussi
physiques, avec une correction en fonction de la utilisés des instruments étalonnés pour la
réponse selon les longueurs d’onde photométrie visuelle
Flux lumineux
Flux énergétique
(ou puissance rayonnante)
Φv en lumen (lm)
Φe en watt « physique » (W)
ou « watt visuel »
Flux énergétique Φe reçu par une surface S Flux lumineux Φv reçu par une surface S
La correspondance entre grandeurs physiques et visuelles passe donc par la sensibilité de l’œil, caractérisée
par l’efficacité lumineuse K exprimée en lm.W-1 : K = Φv/Φe = Ev/Ee
Celle-ci dépend bien sûr de la longueur d’onde, et présente un maximum dans le vert pour λ(Kmax) = 555 nm ;
alors Kmax = 660 lm.W-1. Elle s’annule presque pour les limites inférieures et supérieures du spectre de la
lumière visible, qui s’étend de 400 nm (violet) à 800 nm (rouge). Nous donnons quelques valeurs
numériques pour se situer par rapport aux unités employées.
54
Une histoire standard de l’Univers VI – Annexes
Seuil de visibilité
Φv = 10–13 lm
Φe = 1,5.10–16 W
Eclairement lumineux
Efficacités lumineuses
Remarque
En spectroscopie sont utilisées : la luminosité (L en W) et l’émittance (E en W.m-2). Ces grandeurs peuvent être
rapprochées, en première approximation, respectivement du flux énergétique et de l’éclairement
énergétique.
55
Une histoire standard de l’Univers VI – Annexes
Dans cette annexe, nous avons voulu présenter les relations pouvant être assez simplement établies à
partir des équations (E1) et (E2) de la relativité générale, simplifiées par l’application du principe
cosmologique (Univers assimilé à un fluide homogène et isotrope de pression P et de densité ρ). Ainsi, nous
montrerons l’origine des constantes cosmologiques vaguement définies au paragraphe Modèles d’Univers,
nous développerons les calculs sur l’Univers plat de Friedman, nous nous intéresserons au cas plus général
d’un Univers à densité critique … Tous les paramètres utilisés dépendent du temps cosmique t, exceptés les
constantes c, G, k et Λ.
c² Λc² 8 πG ρ
Considérons l’équation (E1) k ⋅ + H² − =
R² 3 3
Nous identifions ici trois termes distincts, sans dimension, nommés constantes cosmologiques : le premier
dépend de ρ, c’est le paramètre de densité que nous noterons ΩM = 8πGρ/3H² ; le second dépend de Λ, il
correspond à un paramètre « de pression négative », aussi appelé constante cosmologique réduite, que nous
noterons λ = ΩΛ = Λc²/3H² ; le dernier dépend de la géométrie de l’Univers selon k, il est appelé paramètre de
courbure Ωk = – kc²/R²H². Avec ces notations : ΩM + ΩΛ + Ωk = 1. Est définie également la densité totale de
l’Univers : ΩU = ΩM + ΩΛ.
Les paramètres physiques pression et densité de l’Univers peuvent être décomposés en deux termes,
séparant ainsi la matière du rayonnement. Nous avons ainsi : ρ = ρr + ρm, ainsi que P = Pr + Pm. Pour le
rayonnement, la théorie cinétique des fluides donne la relation, applicable en cosmologie : Pr = c²ρr/3. La
pression exercée le contenu matériel de l’Univers, dans le cas d’une matière « incohérente » est en revanche
négligeable. Pour comprendre ceci, il nous faut rappeler la distinction que nous avions fait (Une histoire de
l’Univers) entre matière et rayonnement : est considéré comme rayonnement la propagation de particules
dont l’énergie de masse est négligeable devant l’énergie cinétique. La pression étant un effet dynamique,
nous avons Pm ≈ 0, et P ≈ Pr.
De même nous décomposerons le paramètre de densité en paramètre de densité de matière, et de
densité de rayonnement : ΩM = Ωm + Ωr = 8πG(ρr + ρm)/3.
Remarquons enfin que, d’après l’équivalence masse-énergie, il est possible de définir une densité
d’énergie ρ associée à la densité ρ, telle que : ρ = ρc². Cette densité d’énergie, qui a la dimension d’une
pression, se décompose également en deux termes.
56
Une histoire standard de l’Univers VI – Annexes
Paramètre de décélération
A présent que sont définis les paramètres cosmologiques, nous sommes en mesure de comprendre
leur rôle sur l’évolution de l’Univers, par leur intervention dans le paramètre de décélération q, moyennant
quelques calculs.
c² &&
R 8 πGP
Considérons l’équation (E2) −k⋅ − H ² − 2 + Λc ² =
R² R c²
c² && R ² Λ c ² 8 πGP
R
Divisons par H², sachant que H = R’/R −k⋅ −1−2 + =
R ²H ² R R& ² H² H ²c ²
8 πG ρ r
Utilisons la relation d’état entre P et ρr, nous obtenons (E3) : Ω k − 1 + 2 q + 3Ω Λ =
3H ²
Remplaçons 1 par la somme ΩM + ΩΛ + Ωk
Ω k − Ω M − Ω Λ − Ω k + 2 q + 3Ω Λ = Ω r
et identifions le second membre comme Ωr
Ωm
Réduisons une nouvelle fois et isolons q q = Ωr + − ΩΛ
2
Ainsi, les densités de rayonnement et de matière apportent une contribution positive à q, s’opposant à
l’expansion de l’Univers, alors que la constante cosmologique réduite se révèle être un paramètre
contribuant à cette expansion.
Pour qu’un Univers non vide existe, il faut que sa densité soit positive, soit respectivement Ωm > 0 et
Ωr > 0. Ces deux inéquations impliquent Ωr + Ωm/2 > 0. Nous retranchons alors à chaque membre la
constante cosmologique réduite : Ωr + Ωm/2 – λ > – λ, pour retrouver le paramètre de décélération dans le
membre de gauche. Ainsi, l’inéquation q > – λ est une condition d’existence d’un Univers. Sur un diagramme
q-λ, elle délimitera une partie du plan (en bas à gauche) de frontière la droite d’équation q = – λ, dans
laquelle les combinaisons des paramètres q et λ ne peuvent être associées à aucune entité physique.
57
Une histoire standard de l’Univers VI – Annexes
C’est un Univers à géométrie euclidienne à grande échelle, avec k = 0 ; le paramètre de courbure est
alors nul, et nous obtenons : ΩU = ΩM + ΩΛ = 1. Nous avons démontré en notes (p 36) que la densité critique
est ρC = 3H²/8πG.
8 πG ρ r
Partons de l’équation (E3) Ω k − 1 + 2 q + 3Ω Λ =
3H ²
8 πG ρ r
Utilisons k = 0 et la notation λ = ΩΛ − 1 + 2 q + 3λ =
3H ²
ρr
Nous reconnaissons la densité critique ρC − 1 + 2 q + 3λ =
ρc
Pour construire notre graphique des modèles d’Univers, nous avons considéré un Univers dominé par la
matière, d’où ρr/ρC ≈ 0 et la relation, pour un Univers critique : q = –(3/2)λ + 1/2. D’autre part, pour un
Univers critique dominé par le rayonnement : ρr/ρC ≈ 1 et q = –(3/2)λ + 1.
Dans ce modèle d’Univers, la constante cosmologique est prise nulle, soit ΩU = ΩM = 1. Par
conséquent, le paramètre de décélération q prend des valeurs entre 1/2 (domination de la matière) et 1
(domination du rayonnement). Le facteur d’échelle R vérifie l’équation différentielle (A) : q = – R’’R/R’².
Nous nous contenterons de vérifier que R peut alors s’exprimer comme une puissance du temps, c'est-à-dire
R = a.tu,, a et u étant deux constantes positives strictement. La dérivée première du facteur d’échelle est R’ =
au.tu – 1 ; sa dérivée seconde R’’ = au(u – 1).tu – 2. Calculons le second membre de (A) :
&& R
R ( au ( u − 1) ⋅ t u − 2 ) ⋅ ( a ⋅ t u ) a ² u ( u − 1) ⋅ t 2 u − 2 1−u
− =− =− =
& u − 1 2 u − 2 u
R² ( au ⋅ t )² a ²u ² ⋅ t
Ce qui nous donne (1 – u)/u = q, d’où 1 – u = uq, soit u = 1/(q + 1). Dans le cas d’un dominé par la matière, R
est proportionnel à t2/3 ; pour un Univers dominé par le rayonnement, il est proportionnel à t1/2. Dans tous les
cas, l’Univers modélisé est en expansion et admet une singularité à son origine.
58
Une histoire standard de l’Univers VI – Annexes
Généralisation
Dans l’annexe précédente, il a été démontré, pour l’Univers considéré, la relation (1) : R = a.tu ; u vaut
2/3 pour une dominance de la matière, ou 1/2 pour une dominance du rayonnement. Il est possible d’en
déduire une relation entre temps et H, dont la valeur actuelle est la constante de Hubble que nous
mesurons : H = R’/R = au.tu – 1/a.tu = u/t, soit la relation de proportionnalité (2) : H ~ 1/t. Le modèle d’Univers
étudié est à densité critique, celle-ci valant ρC = 3H²/8πG. Et nous obtenons (3) : ρ ~ 1/t². Pour établir une
relation entre densité totale et facteur d’échelle, utilisons (1) pour tirer : t ~ R1/u. En remplaçant dans (3), cela
nous fournit (4) : ρ ~ 1/R2/u. Si nous désirons aller plus loin, nous devrons désormais distinguer deux cas :
domination de la matière (ρ ~ 1/R3) et domination du rayonnement (ρ ~ 1/R4).
Domination du rayonnement
Domination de la matière
Dans ce second cas, le rayonnement est négligeable, l’essentiel de la densité totale ρ se trouvant dans
l’énergie de masse (matérielle) : ρ ≈ ρm. Nous pouvons comprendre que la relation (6r) s’applique également
dans ce cas, c'est-à-dire que la température est, indépendamment du contenu de l’Univers, inversement
proportionnelle à sa taille : T ~ 1/R. Reprenant la relation (1), nous obtenons la relation température-âge de
l’Univers si la matière domine ; (7m) : T ~ 1/t2/3. De (3) nous tirons : t ~ 1/ρm1/2, et nous pouvons également
écrire la relation température-densité de matière ; (5m) : T ~ ρm1/3, que nous écrirons sous la forme ρm ~ T3.
59
Une histoire standard de l’Univers VI – Annexes
Ces calculs utilisent certes de nombreuses approximations, mais ils nous permettrons de présenter pour les
premiers instants de l’Univers, globalement, l’évolution de des paramètres : densité totale, facteur d’échelle,
« constante » de Hubble et température en fonction du temps. Nous pourrons donc donner des ordres de
grandeur. Mais, au-delà, les divergences de ce modèle ne permettent plus son utilisation pour des
prédictions quantitatives fiables.
60
Une histoire standard de l’Univers VI – Annexes
F – L’âge de l’Univers
Grâce aux équations de la relativité générale et aux lois établies précédemment, il est possible de
calculer rigoureusement l’âge de l’Univers. Nous détaillons ici les calculs (assez fastidieux par ailleurs)
permettant d’y aboutir. D’autre part, nous noterons avec un indice 0 les valeurs actuelles (à t = t0) des
paramètres : par exemple, R(t) = R et R(t0) = R0 ; la référence des temps étant t = 0 au Big Bang, t0 est
simplement l’âge de l’Univers, que nous recherchons. La variable temps dont nous parlons est le temps
cosmique (celui d’un observateur comobile). La dérivée en fonction du temps d’une variable sera notée
&
indifféremment avec un ‘ ou un point au-dessus de la variable : dR/dt = R’ = R
ρm ρr R0²
Utilisons H = R’/R R& ² = R ² H ² = R ² H 0 ² Ω m0 ⋅ + Ω r0 ⋅ + Ω k0 ⋅ + Ω Λ0
ρm0 ρ r0 R²
Nous savons d’autre part que ρm est proportionnelle à l’inverse du cube du facteur d’échelle, ce qui
implique : ρm/ρm0 = R03/R3. De même, ρr étant proportionnelle à la puissance quatrième de R, nous aurons :
ρr/ρr0 = R04/R4.
3 4
R 0 R 0 R0²
En remplaçant R& ² = R ² H 0 ² Ω m0 ⋅ + Ω r0 ⋅ + Ω k0 ⋅ + Ω Λ0
R 3
R 4 R²
2
Avec R0²/ R² en facteur R0 R 0 R²
R& ² = R 0 ²H 0 ² Ω m0 ⋅ + Ω r0 ⋅ + Ω k0 + Ω Λ0 ⋅
et en simplifiant R R 2 R0²
Introduisons le facteur d’échelle réduit a = R/R0, qui donne le facteur d’échelle en fonction du temps en rapport
de sa valeur actuelle. D’autre part, nous pouvons utiliser la relation Ωm + Ωr + ΩΛ + Ωk = 1 pour éliminer Ωk.
Ω Ω r0
Ce qui nous donne R& ² = R 0 ²H 0 ² m 0 + + 1 − Ω m0 − Ω r0 − Ω Λ0 + Ω Λ0 ⋅ a²
a a²
1 − a 1 − a²
Réduisons la somme R& ² = R 0 ²H 0 ² Ω m0 a + Ω r0 a² + Ω Λ0 [a ² − 1 ] + 1
Voici la relation que nous voulions établir. Elle lie la valeur actuelle des paramètres cosmologiques et du
facteur d’échelle, à déterminer par l’expérience, à la variation temporelle du facteur d’échelle. Nous pouvons
également l’écrire (E4) :
R& ² 1 − a 1 − a²
= Ωm0 + Ω r0 + Ω Λ 0 (a ² − 1 ) + 1
R 0 ²H 0 ² a a²
61
Une histoire standard de l’Univers VI – Annexes
Intéressons-nous au rapport R’²/R0²H0² que nous avons fait apparaître dans l’équation (E4) :
2 2
Nous pouvons incorporer R& ² 1 dR 1 d R
= ⋅ = ⋅
la constante R/R0 dans la dérivée R 0 ²H ² R0 ²H ² dt H ² dt R
0 0 0 0
2
D’après le théorème de dérivation R& ² 1 da dt d(t − t 0 ) 1 da
= ⋅ ⋅ ⋅ = ⋅
des fonctions composées R 0 ²H 0 ² H 0 ² dt d ( t − t 0 ) dt
H 0 ² d ( t − t )
0
2
R& ² da
Incorporons la constante H0² dans la =
variable selon laquelle nous dérivons R 0 ²H 0 ² d (H 0 ( t − t 0 ) )
Introduisons un nouveau paramètre sans dimension, τ = H0.(t – t0), qui nous permettra de relier l’âge de
l’Univers t0 aux paramètres cosmologiques. Nous avons ainsi R’²/R0²H0² = (da/dτ)², et la variation du facteur
d’échelle réduit est donc déterminée par les valeurs actuelles des paramètres Ωm0, Ωr0 et ΩΛ0, car nous
obtenons en remplaçant dans (E4) :
2
da 1 − a 1 − a²
= Ω m0 + Ω r0 + Ω Λ0 (a ² − 1) + 1
dτ a a²
Développons et organisons 2
da Ω r0 Ωm0
le polynôme suivant les = + − (Ω m0 + Ω r0 + Ω Λ0 − 1) + Ω Λ0a²
puissances de a
dτ a² a
2
da Ω Ωm0 (Ω m0 + Ω r0 + Ω Λ0 − 1)
Avec a² en facteur = a ² r40 + 3
− + Ω Λ0
dτ a a a²
Il est intéressant de poser a = 1/(1+χ), avec χ, paramètre sans dimension. Transformons (E5) grâce à cette
notation, en utilisant la densité totale de l’Univers ΩU = Ωm + Ωr + ΩΛ :
( )
2
da 1
= Ω r 0 ( 1 + χ ) 4 + Ω m 0 ( 1 + χ ) 3 − ( Ω U − 1 )( 1 + χ )² + Ω Λ 0
dτ ( 1 + χ )²
Nous désignerons ensuite la somme entre parenthèses par S pour alléger les calculs.
2
Utilisons le théorème de da d χ 1
⋅ = S
dérivation des fonctions composées dχ dτ ( 1 + χ )²
2
Remplaçons a par son expression en χ
d 1 dχ 1
1 + χ ⋅ dτ = S
d χ ( 1 + χ )²
2
Dérivons l’expression entre parenthèses 1 dχ 1
en fonction de χ − ⋅ = S
( 1 + χ )² dτ ( 1 + χ )²
Deux solutions se présentent ici, mais, par la suite, nous éliminerons celle des deux qui impliquera un âge de
l’Univers négatif. Nous admettrons de plus que S est positif. De plus, les conditions sur les signes étant
respectées, nous aurons :
62
Une histoire standard de l’Univers VI – Annexes
1 dχ 1
− ⋅ = ± S
( 1 + χ )² d τ 1 + χ
Détermination de t0
Cette relation est valable pour tout instant t, choisissons donc l’instant de référence t = 0. Il nous faut donc
intégrer cette relation de t = 0 à t = t0, soit du Big Bang jusqu’à aujourd’hui. A l’instant t = 0, le facteur
d’échelle tend vers 0, d’où a, facteur d’échelle réduit, qui tend également vers 0. Nous avons posé de plus a =
1/(1 + χ), d’où nous pouvons tirer χ = (1 – a )/a. Ainsi, lorsque t tend vers 0, x tend vers + ∞. A l’instant t = t0,
le facteur d’échelle prend sa valeur actuelle donc le facteur d’échelle réduit a tend vers 1. En utilisant la
relation donnant x en fonction de a, nous en déduisons que, lorsque t tend vers t0, χ tend vers 0. Intégrer de t
= 0 à t = t0 revient par conséquent à intégrer de χ = + ∞ à χ = 0.
0
1 1 1
Soit, en prenant t = 0 − t0 = m
∫
+∞
⋅
H0 1 + χ
⋅
S
⋅ dχ
Nous pouvons alors sortir la constante 1/H0 de l’intégrale, et voici l’expression de l’âge de l’Univers dans un
modèle Friedman-Lemaître :
+∞
1 1 dχ
t0 =
H0 ∫
0
1 + χ
⋅
Ω r 0 (1 + χ ) 4
+ Ω m 0 ( 1 + χ ) 3 − ( Ω U − 1 )( 1 + χ )² + Ω Λ0
Application numérique
L’Univers actuel est dominé par la matière d’où Ωr0 ≈ 0. Ce qui implique ΩM0 ≈ Ωm0 et ΩU ≈ Ωm0 + ΩΛ0. Les
valeurs les plus probables pour les paramètres cosmologiques sont : Ωm0 = 0,3 et ΩΛ0 = 0,7, pour une densité
totale critique : ΩU = 1. Si nous donnons à la constante de Hubble la valeur de 62,5 km.s–1.Mpc–1, soit environ
2,02.10–19 s–1, un logiciel de calcul formel (sur TI-89 par exemple) nous donne un âge d’environ 15,1 milliards
d’années.
63
Une histoire standard de l’Univers VI – Annexes
G – Les atomes
Un atome est constitué d’un assemblage de neutrons et de protons, le noyau, et d’électrons disposés
en niveaux d’énergie autour de ce noyau (nous dirons nuage électronique, car les principes d’incertitude ne
nous permettent pas de préciser une position pour ces électrons). L’atome est globalement neutre, c'est-à-
dire qu’il possède autant d’électrons que de protons (sinon, c’est un ion). L’atome est représenté par une
notation écrite (ici quelque peu simplifiée au besoin) qui permet de définir ses caractéristiques. Celle-ci se
compose :
- d’un symbole, variable selon le nom donné à l’élément (un élément est déterminé par le nombre de protons
du noyau). Par exemple, un atome dont le noyau comporte deux protons s’appelle hélium, de symbole He.
- d’un exposant, qui précise le nombre de nucléons dans le noyau. Notre atome d’hélium courant possède 4
nucléons, aussi le notons-nous 4He.
Nous précisons que cet atome d’hélium est courant car le type d’atome d’hélium présent en plus
grande quantité possède 4 nucléons : c’est 4He. Il existe cependant un atome d’hélium, plus rare, avec trois
nucléons : 3He, nous en déduisons que son noyau est formé de deux protons (c’est bien de l’hélium) et d’un
neutron. Deux atomes possédant le même nombre de protons (donc le même symbole) et un nombre de
neutron (donc de nucléons) différents sont des isotopes.
Lorsque nous évoquerons la nucléosynthèse (la formation des premiers noyaux atomiques), nous
assimileront le symbole de l’atome à celui du noyau. Voici les noyaux les plus simples (nombre de
protons/nombre de neutrons) : en rouge, le premier noyau solidement lié.
1H hydrogène (1p/0n)
2H ou D hydrogène (1p/1n) ou deutérium
3H ou T hydrogène (1p/2n) ou tritium
3 He hélium (2p/1n)
4 He hélium (2p/2n)
Voici la chaîne de fusion thermonucléaire, nommée proton-proton ou PPI, mise en jeu lors de la
nucléosynthèse primordiale. Ces réactions se déroulent également au cœur du Soleil, fournissant 56 % de
son énergie :
1H + 1H → 2H + e+ + νe
2H + 1H → 3He
Remarquons que la première réaction met en jeu une désintégration β+ qui transforme un proton en un
neutron, par émission d’un positron et d’un neutrino électronique.
64
Une histoire standard de l’Univers VI – Annexes
G – Eléments de bibliographie
65
Corentin Lena, Gaëtan Borot
2002 – 2003