La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.
  • Aujourd'hui : Rercherche sur l'énergie noire

Recherche de l'énergie noire

Aujourd'hui, l'accélération de l'expansion de l'Univers est un fait bien établi, grâce à plusieurs observations :

Mesures de la densité d'énergie noire d'un univers plat $\Omega_m+\Omega_{\Lambda} = 1$
Mesures de la densité d'énergie noire d'un univers plat $\Omega_m+\Omega_{\Lambda} = 1$ (gnuplot)
Les mesures de la constante cosmologique ont commencé avec l'usage des supernovae Ia comme chandelles standard et la découverte de l'accélération de l'expansion de l'Univers. Des mesures indépendantes ont confirmé les premiers résultats avec WMAP, Planck, et les mesures d'oscillations acoustiques des baryons.

Toutes ces observations semblent indiquer, dans le cadre de la relativité générale, l'existence d'une constante cosmologique $\Lambda$ positive, dont la valeur est d'environ $10^{-69} \textrm{ m}^{-2}$. L'équation d'Einstein se voit modifiée pour devenir : \begin{equation} G_{\mu\nu} + \Lambda g_{\mu\nu} = \dfrac{8\pi G}{c^4} T_{\mu\nu} \end{equation} Où $G$ est le tenseur d'Einstein, qui contient l'information sur la géométrie de l'espace-temps, et $T$ le tenseur énergie-impulsion qui contient l'information sur son contenu (énergie et pression du contenu de l'Univers). Le terme du à la constante cosmologique peut être intégré dans le tenseur énergie impulsion, et alors celle-ci s'interprète comme une forme d'énergie particulière d'équation d'état $P = w\rho$. Comme cette "énergie" échappe à une détection directe, à la manière de la matière noire, on l'appelle énergie noire. La valeur de $\Lambda$ implique que celle-ci représente environ 75 $\%$ de la densité critique. Pour être parfaitement équivalente à une constante cosmologique, il faudrait $w = -1$ soit $P=-\rho$.

Les problèmes posés par la constante cosmologique

Cette équation d'état est a priori difficile à comprendre, mais elle correspond à celle de l'énergie d'un champ stationnaire. Une explication attrayante serait alors qu'elle est simplement égale à l'énergie du vide des champs du modèle standard de la physique des particules, aussi appelée énergie de point zéro, mais cette interprétation se heurte à une difficulté importante. En effet, la densité d'énergie prédite selon cette hypothèse est bien trop grande. La contribution d'un champ sans masse à l'énergie du vide peut être estimée par analogie avec les niveaux d'énergie d'un oscillateur quantique. Ces niveaux sont $E_n = \hbar \omega_{\vec{p}} (\frac{1}{2}+n)$ où $n$ est un entier correspondant au nombre de particules et $\hbar\omega = pc$. Le niveau fondamental $E_0$ correspond donc à une énergie $\frac{1}{2}\hbar \omega_{\vec{p}}$. Reste alors à sommer la contribution de chaque mode $\vec{p}$ : \begin{equation} \rho_{vacuum} = \dfrac{1}{(2\pi \hbar)^3}\int \dfrac{1}{2} \hbar \omega_{\vec{p}} d^3 p = \dfrac{2\pi c}{(2\pi \hbar)^3} \int p^3 dp \end{equation} Cette somme est divergente, mais on peut supposer que l'intégrande est valide jusqu'à une certaine échelle $\Lambda$ appelée "cut-off". Cette échelle est nécessairement supérieure au TeV puisque le modèle standard de la physique des particules est très bien vérifié en dessous de cette énergie. Elle est par ailleurs probablement inférieure à l'échelle de Planck $M_{pl} = 10^{19}$ GeV. Dans ce cas, $\Lambda = M_{pl}$ et, en unités naturelles ($\hbar = c = 1$), l'expression précédente donne donc une densité d'énergie du vide $\rho_{vacuum} \sim \Lambda^4$. \begin{equation} \rho_{vacuum} \sim M_{pl}^4 = 10^{112} \textrm{eV}^4 \end{equation} Les observations cosmologiques donnent $\rho_{\Lambda} = \Omega_{\Lambda} \rho_c \sim 10^{-16} \textrm{ eV}^4$. De là : \begin{equation} \dfrac{\rho_{\Lambda}}{\rho_{vacuum}} \sim 10^{128} \end{equation} Ainsi la prédiction théorique est supérieure de plus de 120 ordres de grandeur à la valeur expérimentale. Il y a clairement un problème ! Dans le meilleur des cas, en abaissant le cut-off à l'échelle électrofaible (1 TeV), l'excès est toujours énorme (plus de 60 ordres de grandeur) (Raphael Bousso  2012) . Le fait que la contribution à la constante cosmologique due à l'énergie de point zéro des champs du modèle standard soit bien trop large par rapport à l'ordre de grandeur attendu est appelé "problème d'ajustement fin de la constante cosmologique". Il est assez extraordinaire, si cette interprétation est correcte, que les contributions de chaque champ à l'énergie du vide se compensent miraculeusement pour atteindre une valeur totale si particulière.

Il existe un autre problème plus discutable avec la constante cosmologique, qui consiste à savoir pourquoi sa valeur aujourd'hui est-elle que $\rho_{\Lambda}$ soit du même ordre de grandeur que la densité critique $\rho_c$. Ceci n'étant pas vrai à toute époque ($\rho_\Lambda$ est constante si parfaitement équivalente à une constante cosmologique, alors que $\rho_c$ diminue avec l'expansion), il revient à se demander si le fait que l'on mesure aujourd'hui un paramètre de densité $\Omega_{\Lambda} \equiv \rho_{\Lambda}/\rho_c$ de l'ordre de l'unité est une coincidence.

En réponse à ces problèmes, diverses solutions ont été suggéré, qui restent encore à tester.

Modification de la gravité

Il est possible que l'énergie de point zéro des champs quantiques ne contribue pas comme on le pense à $\rho_{\Lambda}$. Elle peut s'annuler parfaitement, ou bien peut-être nos hypothèses sur l'interaction gravitationnelles sont incorrectes (voir le diagramme de Feynman suivant qui suppose que l'hypothétique graviton se couple avec des boucles qui donnent naissance à l'énergie du vide).

Énergie du vide et graviton
Dans ce cas, la constante cosmologique pourrait être la manifestation d'écarts à la relativité générale, que prédisent par exemple les théories $f(R)$. Ces théories, comme expliquée dans l'article Recherche de la matière noire, proposent de modifier l'action d'Einstein-Hilbert équivalente à l'équation d'Einstein $S=\int R \sqrt{-g}d^4 x$ par $S=\int f(R)\sqrt{-g}d^4 x$. En 2004, Sean Caroll a publié un papier sur le sujet ayant reçu beaucoup d'attention (Sean M. Carroll, Vikram Duvvuri et al.  2004) . Dans son article il montrer que l'ajout d'un terme de la forme $1/R^n$ (donc prédominant lorsque la gravité devient faible, tout comme la constante cosmologique dont l'effet sur l'expansion domine lorsque la densité des autres formes d'énergie devient négligeable) serait une explication plausible évitant le recours à la notion d'énergie noire. Une mesure très précise de $w = P/\rho$ permettrait de trancher. Ces théories peuvent aussi être invalidées par des tests non cosmologiques de la relativité générale (Matteo Cataneo, David Rapetti et al.  2015) (K. Henttunen, T. Multamäki et al.  2008) .

Le principe anthropique et le "landscape" des théories des cordes

Si la constante cosmologique avait pris une valeur de plusieurs ordres de grandeur supérieure, alors la formation des galaxies aurait été impossible car l'effet de répulsion de $\Lambda$ s'oppose à la condensation gravitationnelle (Steven Weinberg  1987) , et nous ne serions pas là pour parler de physique. Toutes les observations que nous faisons sont nécessairement compatibles avec l'existence de la vie humaine, et donc toutes les théories doivent l'être également. Si un paramètre est libre dans un modèle physique (c'est le cas de la constante cosmologique dans la relativité générale), et que nous sommes là pour le mesurer, alors sa valeur doit être telle que nous puissions exister, et donc compatible avec la formation des galaxies. Cette idée est désignée sous le nom de "principe anthropique". Par ailleurs, les travaux effectués sur les théories des cordes et la théorie de l'inflation semblent suggérer les choses suivantes :

  1. Les théories des cordes sont capables de prédire un très grand nombre d'états du vide stables ou meta-stables (vacua) (Raphael Bousso  2012) qui peuvent par exemple ressembler à un espace de de-Sitter avec constante cosmologique (Shamit Kachru, Renata Kallosh et al.  2003) . Donc, les théories des cordes semblent autoriser une très large quatnité de valeurs pour $\Lambda$. C'est le "landscape de la théorie des cordes".
  2. Un scénario envisageable est qu'une région de l'Univers puisse effectuer une transition vers un autre état du vide (avec une constante cosmologique différente), et grandir avec l'expansion. Ceci est tout à fait similaire au mécanisme original d'inflation proposé par Guth. Cette bulle qui s'expand devient un sous-univers avec sa propre valeur pour $\Lambda$ et d'autres paramètres physiques. Dans ce scénario, on appelle multivers l'ensemble de ces univers "enfants".
De ce point de vue, les théories des cordes pourraient expliquer la petitesse de la constante cosmologique : d'un part, elles prédisent tout un spectre pour $\Lambda$ qui incluerait la valeur observée. D'autre part, elle semble offrir un mécanisme qui permettrait d'atteindre dynamiquement cette valeur. TODO schéma + explications sur la récursivité

Résultats expérimentaux

La caractérisation de l'énergie noire passe principalement par l'étude de son équation d'état. Si le paramètre $w=P/\rho$ de l'énergie noire est laissé libre dans le modèle standard de la cosmologie, alors les derniers résultats de Planck donnent un meilleur "fit" pour $w = -1,006 \pm 0,045$ (P. A. R. Ade, N. Aghanim et al.  2016) , tout à fait compatible avec une constant cosmologique ($w=-1$). Si l'énergie noire est due à un fluide non stationnaire, sa valeur pourrait varier. Le problème est qu'a priori celle-ci n'a d'impact sur l'expansion qu'assez tard dans l'histoire de l'Univers, alors que le facteur d'échelle évolue peu. Une paramétrisation phénoménologique habituelle est une dépendance affine de $w$ avec le facteur d'échelle (P. A. R. Ade, N. Aghanim et al.  2016) : \begin{equation} w(a) = w_0 + w_a(1-a) \end{equation} Celle-ci est vraiment très générique puisqu'elle correspond à un développement de Taylor de $w$ en tant que fonction de $a$. Cependant il existe des modèles spécifiques motivés par la théorie qui permettent de mieux évaluer la dépendance de $w$ attendue avec $a$. C'est le cas par exemple de celui du "slow-rolling scalar field", c'est-à-dire d'un champ scalaire $\phi$ évoluant lentement dans un potentiel $V(\phi)$ pour lequel on a : \begin{equation} w(\phi) = \dfrac{\frac{1}{2}\dot{\phi}^2-V(\phi)}{\frac{1}{2}\dot{\phi}^2+V(\phi)} \end{equation} Si le champ varie lentement ($\dot{\phi}^2 \ll V(\phi)$) on a bien $w\to -1$. A partir de cette dépendance, des paramétrisations plus spécifiques de $a\mapsto w(a)$ peuvent être établies permettant l'obtention de meilleurs contraintes sur les paramètres physiques du modèle (Zhiqi Huang, J. Richard Bond et al.  2011) . Ceci permet d'exclure certains modèles simplistes (P. A. R. Ade, N. Aghanim et al.  2016) .

Contraintes de Planck dans l'hypothèse d'une énergie noire provenant d'un champ classique dynamique
Contraintes de Planck dans l'hypothèse d'une énergie noire provenant d'un champ classique dynamique
Les zones colorées représentent les valeurs autorisées à 67 et 95 $\%$ pour les paramètres en abscisse ($\varepsilon_\infty$) et ordonnée ($\varepsilon_s$) par les mesures combinées de Planck, des oscillations acoustiques de baryons et de lentille faible. Ces paramètres caractérisent le potentiel du champ scalaire hypothétiquement responsable de l'inflation vers le début du Big-Bang et l'époque actuelle respectivement. Plusieurs exemples de potentiel sont représentés sur la figure.
Certaines analyses tentent aussi de reconstruire $w$ en fonction de $z = 1/a-1$, "bin à bin", comme sur la figure suivante :
Reconstruction 'Bin-to-bin' de $w(z)$
Reconstruction 'Bin-to-bin' de $w(z)$
L'évolution de $w$ en fonction du redshift est retracée de façon assez grossière (4 intervalles de valeurs de $z$ seulement). L'erreur verticale sur $w$ est par ailleurs assez large (P. A. R. Ade, N. Aghanim et al.  2016) .
Cette méthode a l'avantage de requérir très peu d'hypothèses, mais la contrepartie est d'offrir des résultats très peu contraints.

Futures expériences

Plusieurs expériences

Euclid

Euclid est un projet de télescope spatial doté d'un miroir de 1,2m de diamètre validé par l'Agence Spatiale Européenne (ESA) en 2011 (R. Laureijs, J. Amiaux et al.  2011) . Il doit être lancé en 2020. Il comportera deux instruments :

  • Le Near Infrared Spectrometer and Photometer (NISP), sensible aux longueurs d'onde entre 1 et 2 $\mu$m avec une résolution angulaire de l'ordre de 0,3''. Le spectromètre permettra une mesure précise du redshift des objets observés, avec une résolution spectrale $\lambda/\Delta \lambda \sim 250$.
  • Le Visible instrument (VIS) doté d'une caméra CCD sensible à l'intervalle de longueurs d'ondes 550-900 nm et d'une résolution de 0,1'' par pixel.

Ces mesures devraient permettre de constituer un catalogue sans précédent d'objets à haut redshift (galaxies, quasars, supernovae). Le volume de détection sera multiplié par 500 par rapport au SDSS. Toutes ces données devraient contribuer à améliorer de façon significative les contraintes sur certains paramètres cosmologiques via l'observation des oscillations acoustiques de baryons et de l'effet de lentille gravitationnelle faible. On attend par exemple une amélioration de la limite sur $w_a$ d'un facteur $\sim$ 50 et de celle sur la somme des masses de neutrinos d'un ordre de grandeur. L'observation de quasars à haut redshift ($z \sim 6 - 8$) devrait apporter des renseignements précieux sur la réionisation.

Wild Field Infrared Survey Telescope (WFIRST)

WFIRST est une mission de la NASA validée en 2016 consistant en un télescope spatial devant être lancé au cours de la prochaine décennie. Le téléscope consistera en un miroir de 2,4m, et ses instruments détecteront des longueurs d'onde comprises entre 0,2 et 1,7 $\mu$m. Il devrait être capable de voir des objets légèrement moins lumineux qu'Euclid (gain de +2 en magnitude). Il viendra donc compléter la mission scientifique d'Euclid. Par ailleurs, il sera doté d'un coronographe, facilitant l'observation d'exoplanètes.

Références

En savoir plus

    La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.

    Découplage

    Un « découplage » réfère à la rupture de l'équilibre thermique entre plusieurs particules suite à l'expansion de l'Univers. En effet, cette expansion éloignant les particules les unes des autres, tout en les refroidissant, leur taux d'interaction $\Gamma$ diminue jusqu'à devenir négligeable. Lorsque le libre parcours moyen $l^{*}$ des particules (la distance moyenne qu'ils parcourent entre chaque interaction) devient comparable à la taille de l'Univers, on considère qu'elles ont été libérées. C'est le cas des photons du fond diffus cosmologique, qui ont été libérés à $z = 1100$ et $T \sim $ 3000 K. Jusque là, ils étaient retenus par leurs interactions avec le plasma protons/électrons. Ce processus correspond à la « recombinaison », c'est-à-dire l'instant où protons et électrons se sont associés en Hydrogène. Le découplage est aussi le mécanisme à l'origine du fond diffus de neutrinos, qui était maintenu en équilibre thermique par des processus de type électrofaibles jusqu'à son découplage. C'est par ailleurs également un mécanisme proposé pour les WIMP (Weakly Interacting Massive Particles), un candidat à la matière noire. La condition de découplage peut aussi s'écrire en terme de taux d'interaction $\Gamma$ sachant $l^{*} = c / \Gamma$ : \begin{equation} l^{*} \geq \dfrac{c}{H} \mbox{ ou } \Gamma \leq H \end{equation}

    Découplage des neutrinos

    On peut estimer, en unités naturelles ($\hbar = c = 1$), la température de découplage des neutrinos connaissant l'ordre de grandeur de leur section efficace $\sigma$ (pour $T \ll m_W$) grâce à la constante de couplage de Fermi $G_F \sim 10^{-5} \mbox{ GeV}^{-2} $ : \begin{equation} \sigma \sim G_F^2 \langle E \rangle^2 \sim G_F^2 T^2 \end{equation} Puisque le libre parcours moyen vaut $l^{*} = 1/(n\sigma)$ où $n$ est la densité de neutrinos, donnée par l'équation d'état du gaz de fermi ultrarelativiste, soit $n \sim T^3$. Dès lors : \begin{equation} G_F^2 T_{dec}^5 = H (T_{dec}) \end{equation} Par ailleurs, d'après l'équation de Friedmann, $H^2 \sim M_{pl}^2 \rho(T)$, où $M_{pl} = 10^{19}$ GeV est la masse de Planck et $\rho(T) \sim T^4$ pendant l'ère radiative. Ainsi, $H \sim T^2 / M_{Pl}$ . Dès lors : \begin{equation} G_F^2 T_{dec}^5 \leq T_{dec}^2 / M_{Pl} \mbox{ donc } T_{dec} \leq (G_F^2 M_{pl})^{-1/3} \sim 1 \mbox{ MeV} \end{equation}