La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.
  • Aujourd'hui : Rercherche sur l'énergie noire

Recherche de l'énergie noire

Aujourd'hui, l'accélération de l'expansion de l'Univers est un fait bien établi, grâce à plusieurs observations :

Mesures de la densité d'énergie noire d'un univers plat $\Omega_m+\Omega_{\Lambda} = 1$
Mesures de la densité d'énergie noire d'un univers plat $\Omega_m+\Omega_{\Lambda} = 1$ (gnuplot)
Les mesures de la constante cosmologique ont commencé avec l'usage des supernovae Ia comme chandelles standard et la découverte de l'accélération de l'expansion de l'Univers. Des mesures indépendantes ont confirmé les premiers résultats avec WMAP, Planck, et les mesures d'oscillations acoustiques des baryons.

Toutes ces observations semblent indiquer, dans le cadre de la relativité générale, l'existence d'une constante cosmologique $\Lambda$ positive, dont la valeur est d'environ $10^{-69} \textrm{ m}^{-2}$. L'équation d'Einstein se voit modifiée pour devenir : \begin{equation} G_{\mu\nu} + \Lambda g_{\mu\nu} = \dfrac{8\pi G}{c^4} T_{\mu\nu} \end{equation} Où $G$ est le tenseur d'Einstein, qui contient l'information sur la géométrie de l'espace-temps, et $T$ le tenseur énergie-impulsion qui contient l'information sur son contenu (énergie et pression du contenu de l'Univers). Le terme du à la constante cosmologique peut être intégré dans le tenseur énergie impulsion, et alors celle-ci s'interprète comme une forme d'énergie particulière d'équation d'état $P = w\rho$. Comme cette "énergie" échappe à une détection directe, à la manière de la matière noire, on l'appelle énergie noire. La valeur de $\Lambda$ implique que celle-ci représente environ 75 $\%$ de la densité critique. Pour être parfaitement équivalente à une constante cosmologique, il faudrait $w = -1$ soit $P=-\rho$.

Les problèmes posés par la constante cosmologique

Cette équation d'état est a priori difficile à comprendre, mais elle correspond à celle de l'énergie d'un champ stationnaire. Une explication attrayante serait alors qu'elle est simplement égale à l'énergie du vide des champs du modèle standard de la physique des particules, aussi appelée énergie de point zéro, mais cette interprétation se heurte à une difficulté importante. En effet, la densité d'énergie prédite selon cette hypothèse est bien trop grande. La contribution d'un champ sans masse à l'énergie du vide peut être estimée par analogie avec les niveaux d'énergie d'un oscillateur quantique. Ces niveaux sont $E_n = \hbar \omega_{\vec{p}} (\frac{1}{2}+n)$ où $n$ est un entier correspondant au nombre de particules et $\hbar\omega = pc$. Le niveau fondamental $E_0$ correspond donc à une énergie $\frac{1}{2}\hbar \omega_{\vec{p}}$. Reste alors à sommer la contribution de chaque mode $\vec{p}$ : \begin{equation} \rho_{vacuum} = \dfrac{1}{(2\pi \hbar)^3}\int \dfrac{1}{2} \hbar \omega_{\vec{p}} d^3 p = \dfrac{2\pi c}{(2\pi \hbar)^3} \int p^3 dp \end{equation} Cette somme est divergente, mais on peut supposer que l'intégrande est valide jusqu'à une certaine échelle $\Lambda$ appelée "cut-off". Cette échelle est nécessairement supérieure au TeV puisque le modèle standard de la physique des particules est très bien vérifié en dessous de cette énergie. Elle est par ailleurs probablement inférieure à l'échelle de Planck $M_{pl} = 10^{19}$ GeV. Dans ce cas, $\Lambda = M_{pl}$ et, en unités naturelles ($\hbar = c = 1$), l'expression précédente donne donc une densité d'énergie du vide $\rho_{vacuum} \sim \Lambda^4$. \begin{equation} \rho_{vacuum} \sim M_{pl}^4 = 10^{112} \textrm{eV}^4 \end{equation} Les observations cosmologiques donnent $\rho_{\Lambda} = \Omega_{\Lambda} \rho_c \sim 10^{-16} \textrm{ eV}^4$. De là : \begin{equation} \dfrac{\rho_{\Lambda}}{\rho_{vacuum}} \sim 10^{128} \end{equation} Ainsi la prédiction théorique est supérieure de plus de 120 ordres de grandeur à la valeur expérimentale. Il y a clairement un problème ! Dans le meilleur des cas, en abaissant le cut-off à l'échelle électrofaible (1 TeV), l'excès est toujours énorme (plus de 60 ordres de grandeur) (Raphael Bousso  2012) . Le fait que la contribution à la constante cosmologique due à l'énergie de point zéro des champs du modèle standard soit bien trop large par rapport à l'ordre de grandeur attendu est appelé "problème d'ajustement fin de la constante cosmologique". Il est assez extraordinaire, si cette interprétation est correcte, que les contributions de chaque champ à l'énergie du vide se compensent miraculeusement pour atteindre une valeur totale si particulière.

Il existe un autre problème plus discutable avec la constante cosmologique, qui consiste à savoir pourquoi sa valeur aujourd'hui est-elle que $\rho_{\Lambda}$ soit du même ordre de grandeur que la densité critique $\rho_c$. Ceci n'étant pas vrai à toute époque ($\rho_\Lambda$ est constante si parfaitement équivalente à une constante cosmologique, alors que $\rho_c$ diminue avec l'expansion), il revient à se demander si le fait que l'on mesure aujourd'hui un paramètre de densité $\Omega_{\Lambda} \equiv \rho_{\Lambda}/\rho_c$ de l'ordre de l'unité est une coincidence.

En réponse à ces problèmes, diverses solutions ont été suggéré, qui restent encore à tester.

Modification de la gravité

Il est possible que l'énergie de point zéro des champs quantiques ne contribue pas comme on le pense à $\rho_{\Lambda}$. Elle peut s'annuler parfaitement, ou bien peut-être nos hypothèses sur l'interaction gravitationnelles sont incorrectes (voir le diagramme de Feynman suivant qui suppose que l'hypothétique graviton se couple avec des boucles qui donnent naissance à l'énergie du vide).

Énergie du vide et graviton
Dans ce cas, la constante cosmologique pourrait être la manifestation d'écarts à la relativité générale, que prédisent par exemple les théories $f(R)$. Ces théories, comme expliquée dans l'article Recherche de la matière noire, proposent de modifier l'action d'Einstein-Hilbert équivalente à l'équation d'Einstein $S=\int R \sqrt{-g}d^4 x$ par $S=\int f(R)\sqrt{-g}d^4 x$. En 2004, Sean Caroll a publié un papier sur le sujet ayant reçu beaucoup d'attention (Sean M. Carroll, Vikram Duvvuri et al.  2004) . Dans son article il montrer que l'ajout d'un terme de la forme $1/R^n$ (donc prédominant lorsque la gravité devient faible, tout comme la constante cosmologique dont l'effet sur l'expansion domine lorsque la densité des autres formes d'énergie devient négligeable) serait une explication plausible évitant le recours à la notion d'énergie noire. Une mesure très précise de $w = P/\rho$ permettrait de trancher. Ces théories peuvent aussi être invalidées par des tests non cosmologiques de la relativité générale (Matteo Cataneo, David Rapetti et al.  2015) (K. Henttunen, T. Multamäki et al.  2008) .

Le principe anthropique et le "landscape" des théories des cordes

Si la constante cosmologique avait pris une valeur de plusieurs ordres de grandeur supérieure, alors la formation des galaxies aurait été impossible car l'effet de répulsion de $\Lambda$ s'oppose à la condensation gravitationnelle (Steven Weinberg  1987) , et nous ne serions pas là pour parler de physique. Toutes les observations que nous faisons sont nécessairement compatibles avec l'existence de la vie humaine, et donc toutes les théories doivent l'être également. Si un paramètre est libre dans un modèle physique (c'est le cas de la constante cosmologique dans la relativité générale), et que nous sommes là pour le mesurer, alors sa valeur doit être telle que nous puissions exister, et donc compatible avec la formation des galaxies. Cette idée est désignée sous le nom de "principe anthropique". Par ailleurs, les travaux effectués sur les théories des cordes et la théorie de l'inflation semblent suggérer les choses suivantes :

  1. Les théories des cordes sont capables de prédire un très grand nombre d'états du vide stables ou meta-stables (vacua) (Raphael Bousso  2012) qui peuvent par exemple ressembler à un espace de de-Sitter avec constante cosmologique (Shamit Kachru, Renata Kallosh et al.  2003) . Donc, les théories des cordes semblent autoriser une très large quatnité de valeurs pour $\Lambda$. C'est le "landscape de la théorie des cordes".
  2. Un scénario envisageable est qu'une région de l'Univers puisse effectuer une transition vers un autre état du vide (avec une constante cosmologique différente), et grandir avec l'expansion. Ceci est tout à fait similaire au mécanisme original d'inflation proposé par Guth. Cette bulle qui s'expand devient un sous-univers avec sa propre valeur pour $\Lambda$ et d'autres paramètres physiques. Dans ce scénario, on appelle multivers l'ensemble de ces univers "enfants".
De ce point de vue, les théories des cordes pourraient expliquer la petitesse de la constante cosmologique : d'un part, elles prédisent tout un spectre pour $\Lambda$ qui incluerait la valeur observée. D'autre part, elle semble offrir un mécanisme qui permettrait d'atteindre dynamiquement cette valeur. TODO schéma + explications sur la récursivité

Résultats expérimentaux

La caractérisation de l'énergie noire passe principalement par l'étude de son équation d'état. Si le paramètre $w=P/\rho$ de l'énergie noire est laissé libre dans le modèle standard de la cosmologie, alors les derniers résultats de Planck donnent un meilleur "fit" pour $w = -1,006 \pm 0,045$ (P. A. R. Ade, N. Aghanim et al.  2016) , tout à fait compatible avec une constant cosmologique ($w=-1$). Si l'énergie noire est due à un fluide non stationnaire, sa valeur pourrait varier. Le problème est qu'a priori celle-ci n'a d'impact sur l'expansion qu'assez tard dans l'histoire de l'Univers, alors que le facteur d'échelle évolue peu. Une paramétrisation phénoménologique habituelle est une dépendance affine de $w$ avec le facteur d'échelle (P. A. R. Ade, N. Aghanim et al.  2016) : \begin{equation} w(a) = w_0 + w_a(1-a) \end{equation} Celle-ci est vraiment très générique puisqu'elle correspond à un développement de Taylor de $w$ en tant que fonction de $a$. Cependant il existe des modèles spécifiques motivés par la théorie qui permettent de mieux évaluer la dépendance de $w$ attendue avec $a$. C'est le cas par exemple de celui du "slow-rolling scalar field", c'est-à-dire d'un champ scalaire $\phi$ évoluant lentement dans un potentiel $V(\phi)$ pour lequel on a : \begin{equation} w(\phi) = \dfrac{\frac{1}{2}\dot{\phi}^2-V(\phi)}{\frac{1}{2}\dot{\phi}^2+V(\phi)} \end{equation} Si le champ varie lentement ($\dot{\phi}^2 \ll V(\phi)$) on a bien $w\to -1$. A partir de cette dépendance, des paramétrisations plus spécifiques de $a\mapsto w(a)$ peuvent être établies permettant l'obtention de meilleurs contraintes sur les paramètres physiques du modèle (Zhiqi Huang, J. Richard Bond et al.  2011) . Ceci permet d'exclure certains modèles simplistes (P. A. R. Ade, N. Aghanim et al.  2016) .

Contraintes de Planck dans l'hypothèse d'une énergie noire provenant d'un champ classique dynamique
Contraintes de Planck dans l'hypothèse d'une énergie noire provenant d'un champ classique dynamique
Les zones colorées représentent les valeurs autorisées à 67 et 95 $\%$ pour les paramètres en abscisse ($\varepsilon_\infty$) et ordonnée ($\varepsilon_s$) par les mesures combinées de Planck, des oscillations acoustiques de baryons et de lentille faible. Ces paramètres caractérisent le potentiel du champ scalaire hypothétiquement responsable de l'inflation vers le début du Big-Bang et l'époque actuelle respectivement. Plusieurs exemples de potentiel sont représentés sur la figure.
Certaines analyses tentent aussi de reconstruire $w$ en fonction de $z = 1/a-1$, "bin à bin", comme sur la figure suivante :
Reconstruction 'Bin-to-bin' de $w(z)$
Reconstruction 'Bin-to-bin' de $w(z)$
L'évolution de $w$ en fonction du redshift est retracée de façon assez grossière (4 intervalles de valeurs de $z$ seulement). L'erreur verticale sur $w$ est par ailleurs assez large (P. A. R. Ade, N. Aghanim et al.  2016) .
Cette méthode a l'avantage de requérir très peu d'hypothèses, mais la contrepartie est d'offrir des résultats très peu contraints.

Futures expériences

Plusieurs expériences

Euclid

Euclid est un projet de télescope spatial doté d'un miroir de 1,2m de diamètre validé par l'Agence Spatiale Européenne (ESA) en 2011 (R. Laureijs, J. Amiaux et al.  2011) . Il doit être lancé en 2020. Il comportera deux instruments :

  • Le Near Infrared Spectrometer and Photometer (NISP), sensible aux longueurs d'onde entre 1 et 2 $\mu$m avec une résolution angulaire de l'ordre de 0,3''. Le spectromètre permettra une mesure précise du redshift des objets observés, avec une résolution spectrale $\lambda/\Delta \lambda \sim 250$.
  • Le Visible instrument (VIS) doté d'une caméra CCD sensible à l'intervalle de longueurs d'ondes 550-900 nm et d'une résolution de 0,1'' par pixel.

Ces mesures devraient permettre de constituer un catalogue sans précédent d'objets à haut redshift (galaxies, quasars, supernovae). Le volume de détection sera multiplié par 500 par rapport au SDSS. Toutes ces données devraient contribuer à améliorer de façon significative les contraintes sur certains paramètres cosmologiques via l'observation des oscillations acoustiques de baryons et de l'effet de lentille gravitationnelle faible. On attend par exemple une amélioration de la limite sur $w_a$ d'un facteur $\sim$ 50 et de celle sur la somme des masses de neutrinos d'un ordre de grandeur. L'observation de quasars à haut redshift ($z \sim 6 - 8$) devrait apporter des renseignements précieux sur la réionisation.

Wild Field Infrared Survey Telescope (WFIRST)

WFIRST est une mission de la NASA validée en 2016 consistant en un télescope spatial devant être lancé au cours de la prochaine décennie. Le téléscope consistera en un miroir de 2,4m, et ses instruments détecteront des longueurs d'onde comprises entre 0,2 et 1,7 $\mu$m. Il devrait être capable de voir des objets légèrement moins lumineux qu'Euclid (gain de +2 en magnitude). Il viendra donc compléter la mission scientifique d'Euclid. Par ailleurs, il sera doté d'un coronographe, facilitant l'observation d'exoplanètes.

Références

En savoir plus

    La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.

    Céphéides

    Une céphéide est une étoile variable périodique, c'est-à-dire dont la luminosité diminue et augmente de façon stable et périodique. Il existe plusieurs types de céphéides. Les céphéides classiques dites de Classe I sont très lumineuses (jusqu'à 100 000 fois plus que le Soleil !) ce qui les rend visible individuellement même à très grande distance.

    Usage en tant que chandelle standard

    La luminosité intrinsèque (c'est-à-dire la puissance rayonnée) des céphéides présente la particularité de ne dépendre que de leur période de variation lumineuse (la relation dépendant en revanche du type de céphéide dont il s'agit). Or, le flux reçu par unité de surface à une distance $d$ d'une source lumineuse est égal à $\Phi = L/(4\pi d^2)$ où $L$ est sa luminosité. En observant une céphéide, on connait à la fois $L$ par le biais de sa période $T$ facilement observable (de l'ordre de grandeur de la journée) et d'autre part la puissance reçue par unité de surface. Cela donne donc la distance $d = \sqrt{\dfrac{L}{4 \pi \Phi}}$. On appelle de tels objets, pour lesquel la luminosité intrinsèque est connue, des "chandelles standards".

    Découverte de la relation luminosité-période : La découverte de l'existence d'une relation entre luminosité et période des céphéides et due à Henrietta Leavitt. En 1908, cette astronome de l'observatoire de l'université d'Harvard étudie des milliers d'étoiles variables pulsantes appartenant aux nuages de Magellan (deux galaxies naines environ 20 fois plus proches de la Voie Lactée qu'Andromède) et mesure leur magnitude apparente (grandeur plus pratique en Astronomie pour représenter la brillance que le flux lumineux en $W/m^2$) et leur période. Elle suppose alors que toutes les étoiles d'un "nuage" sont approximativement à la même distance de la Terre, ce qui entraine que la différence entre leur magnitude apparente et absolue (qui ne dépend que de la distance entre elles et la Terre) est une constante : $m-M = C$. Elle remarque que la magnitude apparente de certaines de ces étoiles variables est une fonction de leur période, autrement dit, $m_{magellan} = m_{magellan}(T)$.

    Magnitude des céphéides en fonction de leur période (Leavitt 1912)
    Magnitude des céphéides en fonction de leur période (Leavitt 1912)
    La courbe de gauche donne les magnitudes apparentes maximale et minimale des étoiles en fonction de leur période. La courbe de droite donne les mêmes magnitudes en fonction du logarithme de la période.
    Cependant, ce n'est pas suffisant pour mesurer des distances. En effet, ceci requiert de connaitre la luminosité intrinsèque ou encore la magnitude absolue en fonction de la période, sans quoi la relation ainsi obtenue ne permet d'évaluer que le rapport entre la distance d'une céphéide avec la distance de celles qui ont permis d'établir cette relation (qui est inconnue). Il faut alors attendre les travaux de Hertzsprung et Shapley dans les années qui suivent pour étalonner cette relation et obtenir la courbe de la magnitude absolue cette fois. Pour cela, ces astronomes ont mesuré la magnitude et la période d'une céphéide proche dont la distance était connue (par la méthode de la parallaxe). Ils ont ainsi pu calculer sa magnitude absolue $M$. En reportant cette mesure dans la courbe de Leavitt, ils ont pu déterminer quelle était la constante $C$ qui séparait $m_{magellan}$ et $M$. De là ils en ont déduit la loi $T\mapsto M(T)$.

    Les mesures du téléscope spatial Hubble pour 10 céphéides proches établissent la relation suivante entre la magnitude absolue dans la bande V et la période $P$ en jours (G. Fritz Benedict, Barbara E. McArthur et al.  2007) : \begin{equation} M_V = \left (-\mbox{2,43} \pm \mbox{0,12} \right) \left ( \log P - 1 \right) - \mbox{4,05} \pm \mbox{0,02} \end{equation} Cette relation implique une relation de forme loi de puissance entre la luminosité intrinsèque $L$ et la période $P$, de la forme $L \propto P^{1+\epsilon}$.

    Magnitude de 10 céphéides de type I dans différentes bandes en fonction de leur période et fits.
    Magnitude de 10 céphéides de type I dans différentes bandes en fonction de leur période et fits.
    Les points correspondent aux valeurs de magnitude de 10 céphéides relevées dans quatre bandes différentes par Hubble, en fonction de leur période de luminosité. Les coefficients $a$ et $b$ sont obtenus par un ajustement linéaire de la forme $M = a+b(\log P - 1)$. La magnitude $W_{VI}$ est définie par $M_{VI} \equiv V-2,45(V-I)$.

    La relation entre période et magnitude absolue n'est pas tout à fait univoque, probablement parce que d'autres paramètres peuvent différer d'une céphéide variable à une autre avec un impact relativement faible. Ceci limite le pouvoir prédictif de la relation luminosité période de $\Delta M_{V} \sim $ 0,1 (L. N. Berdnikov, A. K. Dambis et al.  1997) .

    Cette méthode a permis de mesurer des distances de galaxies hôtes jusqu'à environ 30 Mpc (Jeffrey A. Newman, Stephen E. Zepf et al.  1999) (Adam G. Riess, Weidong Li et al.  2005)

    Explication théorique par Eddington :

    Découverte d'une nouvelle classe de céphéides :

    Références