La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.
  • 1980 : Alan Guth suggère un scénario d'expansion très rapide de l'Univers à son commencement qu'il appelle "Inflation". Ce scénario vise à résoudre plusieurs problèmes comme celui de l'ajustement fin de la densité ou encore de l'homogénéité de l'Univers incluant des régions causalement séparées.

Inflation et physique des particules

Caractéristiques intrigantes du Big-Bang

Vers la fin des années 1970, le modèle du Big Bang fait consensus. Pourtant, il soulève déjà plusieurs problèmes :

  • Problème de la platitude (flatness problem) : A l'époque, on n'observe aucune indication d'une courbure éventuelle de l'Univers. Le paramètre de courbure $\Omega_k$ étant relié à la densité d'énergie et la densité critique de l'Univers par $\Omega_k = \frac{\rho - \rho_c}{\rho_c}$, ces deux densités doivent être raisonnablement proches (pas plus d'un ordre de grandeur d'écart), $\Omega_k$ devant être raisonnablement petit. Si elles ne l'étaient pas, l'Univers serait très différent, et la formation des grandes structures en aurait été grandement affectée. Or, le paramètre de courbure évolue au cours du temps : \begin{equation} |\Omega_k(t)| = |\Omega_{k0}| \dfrac{\rho_0}{\rho(t) a(t)^2} \end{equation} Dans une phase où l'Univers est dominé par le rayonnement (ce qui est le cas pour l'Univers à ses débuts dans le cadre d'un Big-Bang chaud) alors $\rho \propto T^4$, $a \propto T^{-1}$ et donc : \begin{equation} |\Omega_k(t)| = |\Omega_{k0}| \dfrac{T_0^2}{T(t)^2} \end{equation} Plus on remonte dans le temps, plus l'Univers devait être chaud et plus il devait donc être plat ! En prenant $T_0 = $ 3 K, et l'instant $t$ tel que $T(t) = $ 1 TeV $ = 10^{16}$ K, alors la courbure de l'Univers devait être $10^{32}$ fois plus faible qu'aujourd'hui à cette époque, donc remarquablement minuscule. Si elle n'avait pas été ajustée alors pour être si petite, l'Univers aurait été très différent aujourd'hui.
  • Problème de l'Horizon : L'Univers est supposé en tout temps homogène et isotrope bien que régions aient été et soient "causalement déconnectées" (aucune interaction n'a pu se propager de l'une à l'autre, pas même la lumière), et donc ne peuvent être maintenues en équilibre par un processus physique.

Les théories de grande unification

Parallèlement à ces problèmes relevant du domaine de la Cosmologie, la physique des particules connait de très grands progrès durant les années 1970, qui virent en effet le modèle standard prendre forme. La découverte des courants neutres (interactions avec des neutrinos ne faisant par intervenir de charge électrique) en 1973 supporta largement la théorie d'unification des interactions faible et électromagnétique construite à la décennie précédente par Sheldon Glashow, Abdus Salam et Steven Weinberg, ce qui leur valut le prix nobel en 1979. De même, la théorie de la chromodynamique quantique dont le but est de décrire l'interaction forte prend alors forme et en 1979 l'expérience PETRA confirme l'existence des gluons. Le modèle standard qui se construit requiert un nombre importants de paramètres, et certaines symétries ne sont pas bien expliquées (par exemple, l'égalité en valeur absolue de la charge de l'électron et du proton). Il est alors proposé (Howard Georgi, S. L. Glashow  1974) (A.J. Buras, J. Ellis et al.  1978) que les différentes interactions du modèle standard soient la manifestation d'une brisure de symétrie à partir d'une structure plus simple. Les théories qui visent à unifier ces interactions sont appelées "Théories de Grande Unification".

Par ailleurs, plusieurs théories de grande unification suggèrent l'existence de monopôles magnétiques (des particules qui possédraient une "charge magnétique" ayant le même effet sur le champ $\vec{B}$ qu'une charge électrique a sur le champ $\vec{E}$). Cependant, il est attendu qu'il n'y a pas vraiment espoir de produire de telles particules - si elles existent - dans des accélérateurs. Le physicien Henry Tye suggère alors à son collègue Alan Guth, qui a déjà travaillé sur les monopôles magnétiques, de réfléchir à leur éventuelle production et existence au début du Big Bang, lorsque la température de l'Univers était suffisante. Incidemment, Alan Guth assiste à un séminaire donné par R. Dicke dans lequel celui-ci expose le problème de la platitude.

Émergence de la théorie de l'inflation

A. Guth et ses collaborateurs remarquent que les théories GUT prédisent dans le cadre de la théorie du Big Bang de l'époque la création de monopôles magnétiques en très grande quantité ce qui n'est a priori pas possible puisque ceux-ci n'ont pour l'instant pas été observés. Pour l'expliquer, ils suggèrent une phase de refroidissement très rapide due à une transition de phase d'un champ scalaire pendant les tous premiers instants du Big-Bang, ce qui équivaut à une expansion dramatiquement rapide de l'Univers, de telle sorte que les monopôles magnétiques sont tellement dilués qu'inobservables. De plus, il comprend que cette expansion très rapide permet à la fois de résoudre le problème de la platitude, ainsi que celui de l'Horizon ! En effet, si l'on reprend le problème de la platitude, on observe qu'il apparait parce que dans un scénario sans inflation, l'écart à la platitude de l'Univers est inversement proportionnelle à $\rho a^2$ et donc proportionnelle à $1/T^2$ durant l'ère radiative. Cela est du au fait que la densité diminue fortement avec l'expansion. Or, pour un champ scalaire, sous certaines conditions, cette densité demeure à peu près constante (voir énergie du vide). Dès lors $\Omega_k \propto 1/a^2 \propto T^2$. Si l'Univers était dominé par une forme d'énergie du vide et a subi une forte expansion (donc de refroidissement) avant l'ère radiative, alors il a été fortement aplati. C'est ainsi qu'Alan Guth suggère le recours à l'inflation pour résoudre ces difficultés du Big-Bang (Alan H. Guth  1981) . Le mécanisme initialement proposé est donc le suivant :

  1. Un champ scalaire $\phi$ de potentiel $V(\phi)$ représenté sur la figure ci-dessous se trouve initialement dans un état de faux-vide (minimum d'énergie local, $\phi = 0$, mais qui n'est pas un minimum global).
    Potentiel du champ scalaire responsable de l'inflation
    Potentiel du champ scalaire responsable de l'inflation (gnuplot)
    $\phi = 0$ correspond au "faux-vide", minimum local du potentiel. Le véritable minimum correspond au "vrai vide". Lorsque l'Univers refroidit, survient une transition de phase du premier état à l'autre de plus basse énergie.
    Sa valeur est telle que c'est son énergie qui domine l'expansion de l'Univers, avec une équation d'état similaire à $P=-\rho$. Cela induit un expansion exponentielle de l'Univers, l'inflation.
  2. Avec son expansion, l'Univers se refroidit et une transition de phase a lieu entre le faux-vide et le vrai-vide. Finalement l'effet du champ scalaire sur l'expansion devient négligeable.
  3. A la fin de l'inflation, l'énergie du champ scalaire est convertie en énergie thermique, et l'Univers se réchauffe à des températures très élevées. Le Big-Bang se poursuit, l'expansion gouvernée par la matière ultrarelativiste refroidissant l'Univers. Au cours de cette expansion rapide, l'Univers a été fortement aplati, ce qui résoud le problème de la platitude. Par ailleurs, la phase d'expansion exponentielle induit que l'Univers observable est issu d'une même région causale avant l'inflation, ce qui résoud le problème de l'Horizon. Enfin, la dilution occasionnée par cette expansion rend inobservables d'éventuels monopôles magnétiques.

Insuffisance du scénario d'Alan Guth, nouveaux modèles inflationnaires

Le scénario premièrement suggéré par Alan Guth repose sur la brisure de symétrie d'un champ scalaire, associée à une transition de phase. Lors de celle-ci, des "bulles" de vrai-vide du champ se forment et grandissent, de la même façon que des bulles de vapeur se forment lors de l'ébullition de l'eau. Les collisions entre ces bulles auraient des conséquences importantes sur la structure de l'Univers (en particulier cela le rendrait fortement inhomogène et anistrope). Un modèle alternatif (Andrei Linde  1987) est suggéré dans lequel le potentiel du champ scalaire décroit de façon monotone vers son minimum et suffisamment lentement pour que la transition soit également lente devant la vitesse d'expansion $H$ durant l'inflation. Alors, les bulles sont formées assez peu rapidement pour qu'elles soient largement diluées par l'expansion concurrente. Les collisions entre bulles sont alors bien plus rares, et le problème d'homogénéité est résolu. N'étant par ailleurs plus assez fréquentes pour expliquer le réchauffement à la fin de l'inflation, la hausse de température est alors expliquée par l'amortissement des oscillations du champ autour de sa position d'équilibre, le transfert d'énergie était responsable de la création de particules et du "reheating".

D'autres problèmes cosmologiques des théories de grande unification

Une des principales figures travaillant sur la connexion entre physique des particules et cosmologie est l'astrophyicien russe Zeldovich qui publie en 1981 une importante synthèse de la physique des particules dans un univers en Big-Bang. (A. D. Dolgov, Ya. B. Zeldovich  1981) . Les enjeux qu'ils soulèvent dans ce papier ainsi que les théories de grande unification développer en parallèle suggèrent d'autres problèmes, parmi lesquels :

  1. L'assymétrie matière-antimatière. A l'époque on sait grâce à Sakharov (Andrei D Sakharov  1991) que cette asymétrie manifeste - la matière domine clairement dans notre univers observable - nécessite trois conditions préalables :
    • Violation du nombre baryonique ($B = n_b - n_{\bar{b}}$ ne doit pas être constant, notamment s'il est initialement nul)
    • Violation des symétries C et CP, afin que les processus physiquent puissent privilégier un type de matière
    • Baryogénèse hors équilibre thermique, sans quoi les équilibres entre réactions directes et indirectes supprimeraient l'asymétrie
  2. Les murs de domaine. Certaines théories de grande unification comme SU(5) prédisent des brisures de symétrie discrète. Des interfaces entre des régions basculées dans des directions différentes après brisure (voir l'exemple de l'annexe brisure de symétrie), à cause de la forte discontinuité engendrée, devraient créer des phénomènes violents (par exemple l'émission d'ondes gravitationnelles très intenses). Ceci est en conflit avec les observations et exclue bon nombre de théories.
(A. D. Dolgov, Ya. B. Zeldovich  1981) . (Patrick Peter, Jean-Philippe Uzan  2013) (Alan Guth  1998)

Références

En savoir plus

La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.

Baryogénèse

Le terme baryogénèse désigne l'époque du Big-Bang durant laquelle les baryons (particules composées de quarks) ont été synthétisés. L'asymétrie entre matière et anti-matière requiert que le nombre baryonique, égal à $n_b - n_{\bar{b}}$, c'est-à-dire la différence entre baryons et antibaryons, soit non nul. La baryogénèse doit pouvoir l'expliquer. Cette violation du nombre baryonique pourrait être expliquée par le modèle standard de la physique des particules, par des extensions du secteur électrofaible (Satoru Inoue, Grigory Ovanesyan et al.  2016) mais aussi par des théories de grande unification qui en rapprochant leptons et baryons questionnent nécessairement la notion de conservation des nombres leptoniques et baryoniques. Aujourd'hui, la baryogénèse n'est donc pas encore parfaitement comprise. Elle doit comprendre deux phases, celle à l'origine des quarks (hors modèle standard), puis la combinaison des quarks en protons et neutrons.

Références