La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.
  • Aujourd'hui : Rercherche de la matière noire

Recherche de la matière noire

Les traces de la matière noire

Aujourd'hui, nombreuses sont les observations qui révèlent par le biais de la gravitation la présence d'une quantité importante de matière invisible.

  • Courbes de rotation des galaxies : La distribution des vitesses observée au sein des galaxies indique une présence de masse significativement plus importante que celle estimée à partir des ondes électromagnétiques qu'elles émettent ("lumière"), et s'étendant aux-delà des bords visibles.
  • Densité de matière froide de l'Univers : Les observations cosmologiques et la structure de l'Univers révèlent que parmi la matière "froide" (non relativiste) qui compose l'Univers, un peu moins de 20 % seulement est visible (étoiles, planètes, gaz interstellaire). Le reste est inexpliqué !
  • Effet de lentille gravitationnelle : Des rayons lumineux passant près d'une masse importante sont déviés. Cet effet dit de "lentille gravitationnelle" permet donc de déceler la présence de matière même si celle-ci est invisible directement (voir image ci-contre).
  • Matière froide et matière baryonique : Bien que nombreuses et complexes, les réactions nucléaires quit ont eu lieu alors que la température de l'Univers était de l'ordre de 0,1 MeV qui ont conduit à la formation des éléments légers (Deutérium, Hélium) peuvent être résolues numériquement. On trouve alors que pour être en accord avec les observations expérimentales, la densité de matière baryonique $\Omega_B$ doit être inférieure à $0,04$ ($\rho_{B} \sim 4 \times 10^{-27} \textrm{kg}.\textrm{m}^{-3}$) (C. Copi, D. Schramm et al.  1995) . Ceci ne représente que 4 $\%$ de la densité critique[?], en accord avec d'autres estimations obtenue à l'aide de la mesure des anisotropies du fond diffus cosmologique par exemple. Pourtant, la matière "froide" doit représenter environ 30$\%$ de la densité critique d'après de nombreuses mesures indépendantes.

Candidats pour la matière noire

Les théories proposées pour expliquer l'origine de la matière noire sont nombreuses. La liste suivante n'est pas exhaustive mais regroupe certaines des suggestions suscitant ou ayant suscité le plus d'attention, afin d'illustrer la variété des alternatives. De façon générale, les différents candidats se classent en plusieurs catégories, qui sont la matière noire chaude, tiède et froide. La matière noire chaude fait référence à des particules relativistes ($P/\rho \to 1/3$) et la matière froide à des particules non relativistes ($P\to 0$). Les neutrinos sont de bons candidats à la matière noire chaude, dont l'existence est déjà démontrée. Il est en effet difficile de connaître précisément leur abondance dans l'Univers. Cependant, la formation des structures et les paramètres cosmologiques décrivant le mieux l'évolution de l'Univers nécessitent une part importante de matière noire froide, et c'est sous cette forme que sont la plupart des candidats. Il existe également des candidats impliquant une modification de la gravitation, comme MOND ou les théories $f(R)$.

WIMPs

Il a été proposé que la matière noire soit principalement constituée de particules massives interagissant faiblement (Weakly Interacting Massive Particles, WIMP). Ces particules auraient été formées à l'époque où l'Univers était suffisamment chaud. Un équilibre thermique entre annihilation de paire de WIMP et leur formation aurait imposé leur densité jusqu'à ce que celle-ci devienne trop faible pour que la réaction d'annihilation se produise : leur quantité demeure alors constante ("freeze-out"). Les WIMP sont attendues à l'échelle électrofaible ($\sim$ TeV), et pourraient donc être expliquées par des théories de type SUSY. Leur masse est en effet bornée par une limite supérieure : des particules très massives ($> 100$ TeV) seraient trop stables et présentes en trop large quantité aujourd'hui par rapport à celle de matière noire.

Cependant, si le freeze-out intervient hors-équilibre, cette contrainte sur la masse est levée. Il a donc été proposé que la matière noire soit en fait des WIMP très massifs appelés WIMPZILLAS.

La recherche de WIMP peut se faire de façon indirecte dans des accélérateurs (voir l'annexe sur ATLAS pour des explications détaillées), ou en observant le rayonnement cosmique (Fermi, AMS, ...). Elle peut aussi se faire de façon directe en mesurant la diffusion de matière noire par de la matière ordinaire, dans de gros réseaux cristallins à basse température en profondeur (exemple : LUX)

Axions

Bien que leur existence n'ait pas été initialement suggérée en réponse au problème de la matière noire, mais en réalité pour résoudre le problème CP fort, les axions seraient un bon candidat pour la matière noire. Ils seraient a priori très peu massifs ($m < $ eV) mais feraient intervenir un champ scalaire de pression nulle, et donc seraient équivalent à de la matière froide, là où les neutrinos ultrarelativistes ne sont que de bons candidats pour la matière noire chaude. Leur prédiction repose sur le fait que selon le modèle standard, le neutron possède un moment dipolaire électrique $d_n$ non nul, proportionnel à un paramètre sans dimension noté $\bar{\theta}$. La mesure de $d_n$ est obtenue en comparant la fréquence de précession de Larmor de neutrons plongés dans un des champs (E,B) parallèles ou de sens opposés. La valeur ainsi obtenue donne $\bar{\theta} < 10^{-10}$. Cette valeur étant très faible, Roberto Peccei et Helen Quinn ont suggéré en 1977 (R. D. Peccei, Helen R. Quinn  1977) qu'il puisse prendre son origine dans un champ scalaire (le champ d'axion) associé à une nouvelle symétrie $U(1)$. Le paramètre $\bar{\theta}$ serait proportionnel à la valeur moyenne de ce champ qui tendrait vers 0, et dont l'équation d'état serait celle d'un condensat de pression nulle, donc équivalent à de la matière noire froide. Le couplage des axions avec la matière entraîne des prédictions testables, notamment dans des processus stellaires (Georg G. Raffelt  ) .

MACHOs

Les MACHOs ("Massive Astrophysical Compact Halo Object") sont des objets massifs compacts émettant très peu de rayonnement proposés pour expliquer la matière noire. Ils pourraient être des naines brunes, des trous noirs, ou des planètes interstellaires situés dans le Halo galactique. Leur dénomination est un clin d'oeil aux WIMPs (ou l'inverse), "wimp" signifiant mauviette en anglais. Leur recherche repose notamment sur l'effet de micro lentille gravitationnelle.

Limites sur la fraction de matière noire explicable par les MACHOs.
Limites sur la fraction de matière noire explicable par les MACHOs.
Limites supérieures sur la portion de matière noire ($f = \Omega_{MACHOs} / \Omega_{DM}$) pouvant être contenue sous forme de MACHOs, et l'origine de ces limites. Source : (Timothy D. Brandt  2016)

Trous noirs primordiaux

Les trous noirs primordiaux sont des trous noirs qui se seraient formés au début du Big-Bang et constituent un type spécifique de MACHO. Encore non observés, ils demeurent cependant un éventuel candidat pour la matière noire. Un mécanisme de formation possible est l'effondrement de fluctuations de densité de l'ordre de la distance d'Horizon à l'époque de formation, antérieure à la nucléosynthèse primordiale. Une autre est la fusion et l'effondrement de "bulles de vide" formées lors d'une transition de premier ordre d'un champ d'un équilibre métastable (un "faux-vide" avec une énergie moyenne $> 0$) et le "vrai-vide" (état stable d'énergie nulle). Le processus de formation détermine la distribution de leur masse attendue notée $M_{PBH}$, qui peut s'étaler sur un très grand spectre a priori. Des trous noirs primordiaux de masse $M_{PBH}$ inférieure à $\sim 10^{-16} M_{\odot}$ se seraient déjà évaporés, un intervalle de plusieurs dizaines d'ordre de grandeurs au-dessus de ce seuil est encore permis. En raison de l'importance de cet intervalle des techniques très différentes sont employées pour en contraindre des régions particulières. L'état de la recherche sur le sujet est représenté par la figure suivante :

Contraintes actuelles sur les trous-noirs primordiaux.
Contraintes actuelles sur les trous-noirs primordiaux.
La figure montre l'état des limites supérieures sur la portion de matière noire ($f = \Omega_{PBH} / \Omega_{DM}$) pouvant être contenue sous forme de trous noirs primordiaux d'une masse $M_{PBH}$ donnée, et la technique ayant conduit à ces limites.
D'après ces résultats, seules deux fenêtres sont autorisées, privilégiant des trous noirs "légers". Cependant les résultats obtenus par étude de l'impact des rayons X émis lors de l'accrétion de matière par des trous noirs primordiaux sur le fond diffus cosmologique sont contestés, et l'intervalle aux alentours de plusieurs dizaines de masses solaires n'est pas tout-à-fait exclu. Il a même été suggéré que les deux fusions de trous noirs observées par LIGO en 2015 pourraient en être, auquel cas, l'augmentation en sensibilité des détecteurs LIGO et VIRGO pourraient permettre de découvrir si en effet des trous noirs primordiaux dans cet intervalle expliquent une portion de la matière noire ou d'obtenir de nouvelles limites dans le cas contraire.

Gravité $f(R)$

La Relativité Générale est contenue dans l'action d'Hilbert-Einstein de forme : \begin{equation} S = \int \dfrac{c^4}{16\pi G} f(R) \sqrt{-g} d^4x \end{equation} Les équations du mouvements (équation d'Einstein) s'obtiennent alors par application du principe de moindre action, avec $f(R) = R$. L'idée des théories $f(R)$ est d'utiliser une fonction différente pour $f$, par exemple $f(R) = R-\alpha R^2$. Ces modifications pourraient avoir un effet semblable à la présence de matière noire en relativité générale (C BOHMER, T HARKO et al.  2008) , (Jose A. R. Cembranos  2009) . Bien que de nombreuses motivations théoriques existent, ces modèles ne peuvent expliquer de fraction significative de la matière noire sans introduire d'effets incompatibles avec les observations. Ces modèles ont beaucoup de mal à se conformer aux observations des anisotropies du rayonnement fossile par exemple.

MOND (MOdified Newtonian Dynamics)

Une des observations à l'origine du problème de la "matière noire" est celle de la courbe de rotation des galaxies et notamment les travaux Vera Rubin à la fin des années 1970. Ces courbes indiquent une vitesse "trop rapide" à distance du centre des galaxies, avec une courbe de vitesse en "plateau" alors qu'elles devraient diminuer comme $1/\sqrt{r}$ loin du centre. ($v \sim \sqrt{\dfrac{GM}{r}}$ loin des zones de forte densité). En 1983, Mordehai Milgrom montre qu'une modification du principe fondamental de la dynamique ($F=ma$) permettrait de résoudre ce problème (M. Milgrom  1983) . Il suggère de la réécrire comme : \begin{equation} \vec{F} = \mu(a/a_0) m\vec{a} \end{equation} Où $a_0$ est une nouvelle constante qui doit être ajustée aux données et $\mu$ une fonction proche de 1 lorsque $a/a_0 \gg 1$ et proche de l'identité lorsque $a/a_0 \ll 1$. Dans ce cas, elle se réécrit alors : \begin{equation} \vec{F} \simeq a/a_0 m\vec{a} \end{equation} La vitesse à large distance du centre galactique d'une masse test $m$ est alors donnée par : \begin{equation} \dfrac{GMm}{r^2} \simeq \mu(v^2/r/a_0) m\dfrac{v^2}{r} \end{equation} En effet, $a = v^2/r$ pour un mouvement circulaire uniformément accéléré. Dans le cas où cette accélération est faible (loin du centre) on trouve : \begin{equation} v \simeq (a_0 GM)^{1/4} \end{equation} Ceci ne dépend pas de $r$ et expliquerait le plateau observé par Vera Rubin sur le tracé de $r\mapsto v(r)$. Un bon accord avec les courbes de rotation est trouvé pour $a_0 \sim 10^{-10} \textrm{ cm.s}^{-2}$. Cette valeur est intriguante car du même ordre de grandeur que $cH_0$. MOND est parfois formulé en terme de modification de la gravité, avec une décroissance en $1/r$ plutôt que $1/r^2$ à large distance. La théorie MOND a évolué et des versions relativistes existent (Mordehai Milgrom  2015) dont TeVeS, proposée par Bekenstein (Jacob D. Bekenstein  2004) . Des observations récentes portées sur 153 galaxies semblent encourager cette hypothèse plutôt que celle d'une masse manquante ("Radial acceleration relation in rotationally supported galaxies"). MOND est en revanche très peu attrayante d'un point de vue théorique et échoue à l'échelle des clusters de galaxie.

densité de fermeture
Martin White. Physicien actuellement en poste à l'université d'Adélaïde, Martin White est impliqué dans plusieurs domaines de recherche, comme la phénoménologie en physique des particules et la recherche de traces de supersymmétrie pour l'expérience ATLAS ainsi que de l'astrophysique des particules en tant que membre de la collaboration CTA. Il nous parle de son rôle au sein de ses expériences, ainsi que du projet GAMBIT..
Lire l'interview.

Script

LG: Pouvez-vous nous décrire rapidement votre carrière académique et vos thématiques de recherche actuelles ?

MW: Oui, j'ai donc passé mon master à Cambridge au Royaume-Uni, puis j'y ai fait ma thèse sur l'expérience ATLAS tout en faisant de la phénoménologie, c'est-à-dire à l'interface entre théorie et expérience, en dehors d'ATLAS. Puis je suis resté à Cambridge pour des post-docs jusqu'à partir pour Melbourne et maintenant je suis à Adélaïde en tant que maître de conférences en physique et je passe actuellement le plus clair de mon temps à faire de la recherche. Mes thématiques de recherche comprennent, la recherche de nouvelles particules au sein de l'expérience ATLAS, et des choses plus théoriques concernant la matière noire et la physique des particules.

LG: D'après le site de l'université d'Adélaïde, vous êtes à la fois membre des collaborations ATLAS et CTA ?

MW: Oui, en réalité je n'ai rien fait d'utile pour CTA pour le moment (rires) mais je suis techniquement bien un membre de la collaboration, et à ce titre nous avons reçu de l'argent et nous l'avons dépensé sur des composants du télescope. Pour le moment, nous sommes en train de nous organiser pour la suite, et j'ai profité de ma venue à Paris pour parler avec Agnieszka qui un membre important de HESS puisqu'elle a dirigé la recherche de matière noire au sein de cette expérience quelque temps, et lui demander ce qu'elle faisait pour CTA, et elle m'a répondu qu'elle n'avait rien fait d'utile non plus pour le moment (rires) et nous espérons nous impliquer davantage dans les années qui viennent.

LG: Pouvez-vous en dire plus sur votre implication dans ATLAS ?

MW: Dans le passé j'ai travaillé sur le code du trajectographe à semi-conducteurs [...], donc j'étais au plein cœur de l'aspect expérimental, et ces dernières années j'ai surtout participé à des recherches de nouvelles particules et plus particulièrement de particules supersymétriques et du super-partenaire du quark top (le stop), qui est très important à trouver. J'ai également conduit une autre recherche de SUSY avec mes collègues dans le canal à 0 leptons, à la recherche de squarks et de gluinos au cas où ils se manifesteraient ainsi. Finalement, je travaille également sur l'analyse diphoton avec tes collègues à Paris et particulièrement sur la modélisation du signal et des considérations théoriques. La plupart de mon travaille tend à appliquer la théorie pour ATLAS plutôt qu'à travailler sur l'expérimental pur et dur.

LG: Par ailleurs vous travaillez sur un projet dont la première sortie publique est prévue pour cet été ?

MW: Oui, c'est de GAMBIT dont tu veux parler je pense, donc oui ce n'est pas toujours pas public, nous cherchons encore à corriger des bugs, nous avions d'ailleurs une importante réunion à ce sujet la nuit dernière, mais oui, cela représente la plupart de mon travaille ces jours et c'est une grosse équipe d'environ 30 personnes dans des domaines qui s'étendent de la physique des particules à la cosmologie en passant par l'astrophysique. L'objectif principal est en fait de combiner toutes les données apportées par toutes sortes d'expériences et d'appliquer des théories quantiques des champs décrivant la physique des particules et la matière noire pour les confronter et déterminer quelles théories sont correctes ou rejetées. C'est très utile quand on obtient des résultats positifs parce que c'est la seule façon dont on sera capable de déterminer quelle est la prochaine bonne théorie, mais c'est aussi utile pour concevoir de nouvelles expériences, puisque cela permet d'exploiter des résultats négatifs pour rejeter plein de théories et nous amener vers d'autres théories vers lesquelles concentrer nos prochaines recherches.

LG: Vous dites que ce projet peut aider à concevoir de nouvelles expériences puisqu'il permet de définir quel espace des paramètres d'une théorie doit être sondé ; est-ce qu'il peut aussi aider à déterminer quelles théories sont falsifiables si aucune expérience réaliste ne permet de tester la plupart de leur domaine de prédiction ?

MW: Je pense que la réponse courte est : pour certaines théories oui, pour d'autres non. Quelque chose comme la supersymétrie par exemple pourrait toujours échapper à une détection au LHC, et on peut écrire des théories qu'on ne pourrait pas tester pour une raison ou une autre. Il y a d'autres exemples, par exemple, de façon générale la matière noire doit être faiblement produite, donc on pourrait très bien la manquer au LHC. Dans le cas de résultats positifs, il est très clair que cela permet de rejeter des théories presque immédiatement. Par exemple, si l'excès dans le canal diphoton avait été confirmé cela aurait exclu tous les scénarios avec deux doublets de Higgs. On n'aurait pas pu avoir de scénario avec un doublet de Higgs supplémentaire et rien d'autre, ce qui est une idée très populaire, parce qu'alors il aurait été impossible d'expliquer la taille du signal. Similairement, la découverte du premier boson de Higgs aurait pu rejeter la plus simple forme de supersymétrie immédiatement, si le boson de Higgs avait été plus lourd. Si sa masse était de 150 GeV au lieu de 125 GeV, cela aurait été trop pour le MSSM (Minimal Super-Symmetric Model). Donc, il est clair qu'en fonction de ce que les données nous diront certaines théories pourront être jetées à la poubelle quasi-directement. Et pour le reste, c'est en gros un catalogue d'efforts à effectuer pour les rechercher en regardant dans les données pour voir si elles sont déjà exclues. Dans certains cas cela pourrait être plus flou, quand par exemple il est difficile de trouver suffisamment de situations dans un modèle qui décrivent bien les données, et donc ce n'est pas techniquement exclu, mais c'est très défavorable en regard de ce que l'on aurait tendance à considérer.

LG: A la lumière des résultats pour l'instant négatifs au LHC, pensez-vous qu'il y a toujours espoir de voir quelque chose de nouveau dans le futur grâce à des accélérateurs de particules ?

MW: J'aurais tendance à dire qu'il y a deux réponses possibles. En ce qui concerne la matière noire, il se pourrait qu'elle ne se couple simplement pas très fortement aux quarks, et si c'est le cas nous ne la détecterons jamais directement et nous ne la verrons jamais au LHC. Il se pourrait aussi, de façon plus optimiste, que le couplage au quark n'est pas si faible et que nous n'avons simplement pas encore atteint les performances nécessaires. Si on regarde les limites génériques sur la matière noire au LHC, elles sont relativement faibles en réalité, en particulier si sa masse était de l'ordre de 500 ou 600 GeV on ne l'aurait pas encore vue. Dans le cadre de la supersymétrie, il n'y a en réalité aucune limite sur la masse des particules fixée par la combinaison de toutes les recherches menées, et c'est évidemment quelque chose que nous essayons de quantifier en détail avec GAMBIT. Dans tous les cas je ne suis pas du tout inquiet que l'absence de découverte signifierait qu'il n'y a rien à trouver. Je suis en réalité plutôt optimiste et ne serais pas surpris que l'on trouve quelque chose de nouveau au LHC d'ici un ou deux ans.

LG: Quelle expérience à venir vous excite le plus ?

MW: Je dirais que je suis plutôt excité par CTA, parce qu'en termes de matière noire, la seule façon de trancher sur la question de savoir si la matière noire est bien un WIMP ou non est de rechercher des signes de détection directe et de telles signatures pourraient se trouver dans de nombreux états finaux dans CTA. Donc, je pense que cela va apporter plein de bonnes choses dans les prochaines années. Il y a de nombreuses expériences de détection directe qui vont devenir très sensibles. Il y a aussi des choses totalement déconnectées du LHC telles que ce que peuvent apporter l'astronomie des ondes gravitationnelles ou des neutrinos dans la prochaine dizaine d'années, qui sont deux nouveaux domaines de la science expérimentale qui viennent de débuter, et les découvertes d'aujourd'hui seront les méthodes de demain, qui nous permettront de faire des choses extraordinaires en physique.

LG: Pourtant nombreux sont ceux qui sont inquiets depuis la déception causée par l'absence de confirmation de l'excès à 750 GeV, alors que je pense que cette année (2016) a été excellente pour la physique en général, avec les deux premières annonces de détection d'ondes gravitationnelle et les résultats prometteurs sur la physique des neutrinos.

MW: Je pense que même l'histoire de l'excès diphoton a été une superbe expérience parce qu'elle a fait éclore beaucoup d'idées auxquelles on ne pensait pas avant. Donc tu sais évidemment que j'ai commencé à travailler dessus et que c'est ainsi que nous nous sommes rencontrés à Paris et j'étais impliqué dans toutes sortes de calculs d'interférences dans le but d'améliorer les recherches de résonances d'une façon qui aurait vraiment dû être faite des années auparavant pour qui souhaitait vraiment trouver des choses, il est clair que les formes que l'on recherchait pouvaient être complètement différentes, et il nous faut donc de nouvelles façons de gérer cet aspect pour généraliser les recherches. Par ailleurs j'ai toujours dit que pour moi c'est la première année du LHC, cela semble très étrange après la découverte du boson de Higgs il y a quatre ans, mais si on regarde le cahier des charges d'ATLAS, il est écrit que le LHC devait délivrer 30 fb$^{-1}$ de données sa première année à une énergie de centre de masse de 14 TeV, et nous ne sommes pas tout à fait à cette énergie mais nous sommes tous proches, et c'est aussi la première année durant laquelle nous allons enregistrer autant de données. Donc pour moi c'est le vrai LHC que nous voyons enfin cette année. Nous avons eu jusque-là en quelque sorte une "moitié" de LHC et il pourrait y avoir toute sorte de choses qui se cachent dans les données déjà collectées. En premier nous regardons les recherches rapides qu'on peut faire a priori mais par la suite nous serons plus malins et nous analyserons beaucoup plus efficacement les nouvelles données qui seront prises dans les prochaines années : il est tout à fait acceptable de ne rien avoir vu aujourd'hui, il pourrait y avoir beaucoup de choses que nous avons ratées.

LG: C'est quelque chose qui m'a beaucoup surpris en travaillant pour ATLAS, à savoir le fait qu'autant de gens et de temps soit nécessaires à une analyse spécifique telle que la recherche diphoton, et il me semble qu'ainsi on manque une partie du potentiel de découverte avec toutes ces données et seulement quelques analyses parce qu'elles sont si difficiles à mettre en place.

MW: Oui elles le sont, il y a une immense quantité de travail derrière chacun d'entre-elles et il y a aussi des analyses qui n’impliquent que deux personnes, j'en ai ainsi réalisé une avec un collaborateur par exemple pour l'analyse SUSY, mais cela nécessite 18 mois d'entretiens, et c'est vrai, il n'y a pas d'astuce, et si on réalise la complexité de ce qui a été fait pour comprendre les résultats du canal diphoton, et ce n'est pas terminé, c'est loin d'être suffisant, et oui je ne sais pas comment tu le ressens mais c'était un privilège pour moi de voir parmi les plus grands esprits du monde travaillant ensemble sur ces problèmes et il n'y avait aucun ego en jeu ou quoi que ce soit d'autre, c'était juste de la science sous sa forme la plus pure, et fantastique d'y assister ! Donc oui je pense, d'autant plus en ce qui concerne la supersymétrie, il nous faut tellement optimiser les recherches pour espérer voir quelque chose et en faisait cela, évidemment si nous faisons les bons choix d'optimisation c'est très bien, mais dans le cas contraire on peut vraiment passer à côté de résultats. C'est d'ailleurs quelque chose sur lequel nous travaillons beaucoup à Adélaïde pour le moment avec de nouvelles techniques qui tentent de généraliser les recherches de particules supersymétriques de telle sorte à demeurer aussi neutre que possible a priori dans les analyses, et c'est aussi le rôle de GAMBIT, à savoir répondre à la question "pouvons-nous prendre tout ce que nous avons appris jusqu'à maintenant et concentrer nos efforts sur ce qui en demande désormais le plus"

LG: La supersymétrie était vue comme l'un des meilleurs candidats pour les WIMP et de la nouvelle physique en général, potentiellement à la portée d'expériences futures, y croyez-vous beaucoup ?

MW: En réalité je suis toujours resté neutre à propos de l'existence de la supersymétrie, je veux dire, comme beaucoup d'étudiants lors de ma thèse on m'a dit de travailler sur la supersymétrie et je l'ai fait, j'étais curieux à propos de la physique au-delà du modèle standard et c'était une bonne option, qui par ailleurs suscite beaucoup d'attention, de telle sorte qu'on peut ce faisant produire un travail remarqué, mais je n'ai jamais vraiment éprouvé de croyance en son existence ou le contraire ; je pense simplement, que si on regarde aux arguments théoriques en faveur de la supersymétrie, alors on constate qu'ils sont très très forts. Et ce n'est pas simplement le problème de la hiérarchie et pourquoi la masse du Higgs est si inférieure à l'échelle de Planck s'il n'y a pas de physique entre les deux échelles - la supersymétrie résout ce problème - mais pour moi l'argument le plus convaincant est le fait que si l'on prend le groupe de Poincarré,qui est une sorte de groupe basé sur des symétries qu'on semble observer dans la nature, alors la seule symétrie de ce type manquante est la supersymétrie, et il semble étrange d'observer toutes les autres mais pas celle-ci en particulier, cela m'a toujours étonnant et est particulièrement intriguant. Évidemment on ne connaît pas l'échelle à laquelle la supersymétrie est brisée et cela pourrait être n'importe où et c'est pourquoi on n'est pas certains de devoir s'attendre à voir quelque chose au LHC, et je pense que tous les arguments à propos d'ajustement fin sont intéressants, mais sans plus. C'est tout à fait possible que la supersymétrie soit brisée à une énergie très élevée et qu'en conséquence on n'en voit pas la trace au LHC. Je pense quoi qu'il en soit qu'il est intéressant de travailler dessus, parce qu'on pourrait très bien avoir manqué des super-partenaires dans les données même celles à 8 TeV. J'ai donné une conférence à un programme au sujet de SUSY cette année et j'ai impressionné la classe en soulignant ce fait, en montrant les limites et les trous dans ces limites, et qu'il n'y a en fait aucune limite définitive sur la plupart des super-partenaires au LHC ; au moins pour les squarks, la plus forte limite est probablement de quelques centaines de GeV, mais elle n'est pas complètement convaincante, parce qu'elle dépend de certains paramètres. Et donc, il se pourrait très bien qu'il y ait bien des super-partenaires que nous n'avons pas encore vus pour une raison ou une autre, et nous devrions les chercher très méticuleusement, et bien sûr augmenter l'énergie de collision et donc les sections efficaces de production est exactement ce dont nous avons besoin pour cela. En ce qui concerne des références à propos de la supersymétrie que je recommanderais, je me souviens avoir lu un livre scientifique assez populaire de Gordon Kane, il y a quelques années, qui est très bien si l'on recherche une approche douce sans trop de calculs. Il y en a aussi un autre qui est sorti pour ceux qui sont déjà à l'aise avec les calculs impliquant des spineurs ou d'autres aspects du modèle standard, je crois qu'il s'appelle "super-symmetry demystified", je pense que l'une des raisons pour lesquelles il est très bien est parce qu'il est peu cher, et il part du modèle standard pour aboutir à la supersymétrie en montrant comment construire les champs supersymétriques et manipuler les symboles introduits. C'est donc un très bon livre pour les étudiants de master qui souhaitent rentrer dans les calculs. Il y a aussi un très bon livre de Baer et Tata, "Weak scale super-symmetry", et c'est une très bonne référence pour ce qui est des calculs.

LG: Pensez-vous que l'on gagnerait à concentrer nos efforts sur un accélérateur linéaire d'électrons-positrons dans le futur, ou bien que le bénéfice serait faible énergie privilégiée à laquelle opérer ?

MW: Oui, tu sais probablement que la grosse différence [avec les accélérateurs de protons] est que bien sûr dans ce cas on collisionnerait des particules fondamentales à une énergie de fonctionnement donnée ce qui fixe l'énergie de centre de masse et bien sûr connaître l'énergie de centre de masse aide énormément dans l'exploitation des mesures cinématiques. C'est également un environnement beaucoup plus propre parce qu'il n'y a pas autant d'événements secondaires simultanément aux événements intéressants, alors qu'au LHC bien sûr des morceaux de protons [partons, i.e. des gluons ou des quarks] interagissent avec d'autres morceaux et c'est souvent complexe et on ne connaît alors pas exactement l'énergie de centre de masse puisqu’elle dépend des [partons] qui ont interagi. De cette façon on sonde toutes les énergies à la fois ce qui est très bien pour des découvertes, mais "zoomer" sur des choses qu'on souhaite mesurer plus précisément est alors très difficile. Donc, je pense que l'argument pour des accélérateurs linéaires aujourd'hui est d'effectuer des mesures précises du boson de Higgs et de son couplage avec les autres particules en espérant diminuer suffisamment les barres d'erreurs pour déceler la présence de nouvelle physique qui prendraient leur origine dans des boucles, c'est davantage la philosophie de telles expériences par exemple. Bien sûr il est très vraisemblable de diminuer les barres d'erreurs tout en ayant toujours des résultats compatibles avec le modèle standard, mais il y a toujours potentiellement de la nouvelle physique à une échelle d'énergie supérieure que l'on n'a toujours pas vue. Donc, pour le moment, en l'absence de découverte directe au LHC, cela peut-être difficile d'être très excité par ce genre d'expériences, mais j'ai toujours espoir de voir des traces de quelque chose de nouveau au LHC qui suggéreraient ou chercher ensuite. Je pense cependant qu'il serait intéressant d'employer des accélérateurs linéaires de coût maîtrisé afin d'explorer plus précisément le secteur électrofaible quoi qu'il en soit. De la même façon que le LEP en son temps, par exemple. Le LEP nous a donné de très satisfaisantes mesures de masse des bosons W et Z et de plusieurs détails de ce domaine d'interactions à travers lesquels on pouvait plus ou moins deviner l'intervalle de masse dans lequel le Higgs devait se trouver avant même de l'avoir découvert.

LG: Le Higgs était en effet bien contraint avant que le LHC ne démarre ! Auriez-vous un livre à recommander à propos de l'usage des statistiques en physique, et plus particulièrement de l'approche bayésienne ?

MW: [Il y a] deux classiques qui sont souvent utilisés - un livre de Louis Lyons d'abord, "Statistics for Nuclear and particle physicists", et puis "statistical methods in experimental physics" de Frederik James qui est aussi très bien. Pour les méthodes Bayésiennes je ne suis pas sûr, j'ai plutôt appris au fur et à mesure de mon travail, et en lisant des papiers, mais "Bayesian method in Cosmology", semble être un excellent livre, bien que je ne l'aie pas lu. Et bien sûr, il y a "Information Theory" de Dave MacKay's - un ancien maître de conférences de Cambridge, et tous ceux qui travaillent sur le sujet aujourd'hui et qui sont passés par Cambridge ont appris de lui, c'est un vrai maître dans son domaine.

LG: Merci. Ce site étant en partie dédié aux étudiants - êtes-vous à la recherche de candidats pour un stage ou une thèse dans votre université pour travailler sur GAMBIT, ou ATLAS par exemple ?

MW: En effet, nous sommes très certainement toujours intéressés par des masters internationaux et des candidatures de thèse, tout particulièrement de la part de personnes ayant déjà effectué des recherches ailleurs qui ont abouti à la publication d'un papier, auquel cas c'est pratiquement la garantie d'obtenir un financement je pense, au moins quand j'ai moi-même candidaté pour l'Australie. En termes de stages nous n'avons pas directement d'argent pour cela mais nous sommes très heureux d'accueillir des physiciens s'ils sont financés par leur département, parce que c'est aussi une tâche complexe, par exemple en ce qui concerne les liens avec la France il semble qu'il existe toutes sortes de financements que l'on peut réclamer afin de faire venir des gens pour les étudiants notamment. Donc, si quelqu'un est intéressé, il suffit de me le faire savoir, et je verrai ce que l'on peut faire, on peut toujours trouver un moyen ensemble pour payer le voyage. Le problème avec l'Australie est évidemment que le billet d'avion est très cher, mais c'est très beau et il fait chaud, et on peut voir des kangourous !

LG: Merci beaucoup !

Interview record (English)

Références

En savoir plus

La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.

Fond diffus cosmologique

Le fond diffus cosmologique (ou "cosmic microwave background", souvent abbrégé CMB) est un rayonnement de type corps noir (sous forme de photons) globalement homogène et isotrope, qui s'est découplé[?] de la matière environ 380 000 ans après le big bang. Depuis, avec l'expansion de l'Univers, celui-ci a refroidi pour atteindre sa température actuelle de 2,7 K. Ce rayonnement a été observé pour la première fois dans les micro-ondes, d'où son appellation anglophone. Il prend son origine dans l'état chaud de l'Univers, et a été libéré lorsque la densité de protons et électrons est devenue suffisamment faible avec le refroidissement pour que les photons interagissent peu avec la matière et voyagent librement. Cette transition est appelée "découplage" et est survenue à $z = 1100$ environ.

Le CMB est décrit comme la plus ancienne image de l'Univers. En effet, les photons émis avant le découplage interagissaient très rapidement avec les particules chargées du milieu (électrons, protons), et leur libre parcours moyen était donc très faible. Après le découplage, les interactions deviennent rares et le libre parcours moyen deviant supérieur à la taille de l'Univers. Les photons peuvent ainsi voyager librement, et le rayonnement de fond observé aujourd'hui correspond assez fidèlement à l'image des photons émis alors.

Premières observations et prédictions

Avant les travaux de Alpher, Gamow et Herman à la fin des années 1940, on pense que le rayonnement dans l'Univers est essentiellement d'origine stellaire (interprétation d'Eddington). La température du milieu interstellaire serait donc la température d'équilibre d'un objet dans ce milieu avec le rayonnement provenant des étoiles. Cette température vérifierait donc : \begin{equation} \sigma T_{univers}^4 = p \end{equation} Où $p$ est la puissance moyenne reçue par unité de surface d'origine stellaire en moyenne dans le milieu interstellaire (il s'agit de la puissance totale, la forme du spectre n'ayant ici pas d'importance). Celle-ci doit valoir, si la luminosité moyenne des étoiles est proche de celle du Soleil, de l'ordre de $L_{\odot}/d^2$ où $L_{\odot}$ est la puissance émise par le Soleil et $d$ la distance moyenne entre étoiles. Selon la région sur laquelle la moyenne $d$ est calculée, la valeur peut beaucoup varier - pour l'Univers observable, $d \sim $ 300 al. Mais globalement cela conduit à une valeur $T_{univers}$ de l'ordre de 0,1 K à quelques kelvins (la valeur étant bien sure plus élevée dans les zones où la densité d'étoiles est plus grande). Dans ce cas, le rayonnement possède une caractéristique particulière : son spectre est celui des étoiles qui l'émettent, c'est-à-dire entre l'IR, le visible et l'UV (soit des températures de rayonnement de quelques milliers à quelques dizaines de Kelvins).

The total light received by us from the stars is estimated to be equivalent to about 1000 stars of the first magnitude. [...] We shall first calculate the energy density of this radiation. [...] Accordingly the total radiation of the stars has an energy density of [...] E = 7.67 10-13 erg/cm3. By the formula E = a T4 the effective temperature corresponding to this density is 3.18 K absolute. [...] Radiation in interstellar space is about as far from thermodynamical equilibrium as it is possible to imagine, and although its density corresponds to 3.18 K it is much richer in high-frequency constituents than equilibrium radiation of that temperature.
Arthur Eddington, 1926

La première observation indiquant la présence du fond diffus cosmologique fut faite en 1940 par McKellar, bien qu'elle ne fut pas comprise comme telle à l'époque. McKellar étudiait avait employé un spectrographe installé à l'Observatoire du Mont Wilson pour mesurer le spectre de plusieurs régions du ciel. Les mesures indiquent notamment la présence d'un doublet associé à des transitions rotationnelles de la molécule $CN$, aux alentours de 4000 MHz. McKellar évalue à partir de cette observation une témparature limite pour le milieu interstellaire d'environ 2,3 K, mais reconnait ne pas être capable de déterminer si cette valeur a vraiment un sens.

La première prédiction cosmologique d'un fond de rayonnement est due à Alpher et Herman. En établissant avec Gamow leur théorie de la nucléosynthèse primordiale dans un Univers en Big Bang, ceux-ci remarquèrent que l'Univers devait être très chaud et surtout dominé par le rayonnement à son orgine. Ils soulignèrent alors que ceci impliquerait la présence aujourd'hui d'un fond de rayonnement vestige de cette ère où les photons étaient très énergétiques et gouvernaient l'expansion. A partir de 1948 ils firent plusieurs estimations de la température actuelle de ce rayonnement, estimée entre quelques Kelvins et quelques dizaines de Kelvins. Cependant, leur théorie de la nucléosynthèse semblait une impasse à l'époque, et leurs travaux ne reçurent pas beaucoup d'attention. La différence majeure avec l'interprétation stellaire du fond de rayonnement est le spectre de celui-ci. Dans le cas d'un rayonnement issu des étoiles, le spectre est globalement autour du visible. Dans l'interprétation d'un rayonnement relique du Big Bang, le spectre est celui d'un corps noir à la température du fond (quelques K). Ainsi, cette température peut être mesurée en trouvant la température $T$ telle qu'un corps noir à cette température corresponde au fond diffus (attendu dans les micro-ondes). Cette valeur doit être plus homogène encore que la température d'équilibre stellaire d'Eddington puisqu'elle ne dépend pas de la position relative de l'observateur avec les étoiles.

Découverte de 1964

Voir l'article

Au cours de l'année 1964, deux astronomes américains, Arno Penzias et Robert Wilson, travaillent sur l'antenne cornet d'Holmdel pour les laboratoires Bell. L'objectif de cet antenne construite en 1959 était de détecter l'écho radar de satellites en forme de ballon agissant comme réflecteur. Les deux physiciens devaient cependant s'en servir pour observer la voie lactée à des longueurs d'ondes aux alentours de 7 cm.
Une des difficultés de cette taĉhe est que le faible niveau du signal requiert l'élimination de nombreuses sources de bruit, et notamment du bruit d'origine thermique, par exemple en refroidissant certains instruments jusqu'à 4 K (hélium liquide). Malgré toutes ces précautions, les deux phyisiciens observèrent en mesurant le signal à une longueur d'onde de 7,35cm (4080 MHz) un bruit irréductible équivalent à une température d'environ 3,5 $\pm$ 1 K, indépendant des saisons, dépendant faiblement de la direction, ce qui semblait écarter une origine galactique. (todo + atmo + récepteur).

Parallèlement, Dicke, Peebles, Roll et Wilkinson réétablissent indépendamment l'existence d'un fond de rayonnement photonique dans l'hypothèse d'un Univers né d'un Big Bang chaud. Ils entreprennent même d'établir un instrument pour mesurer cet hypothétique rayonnement. Penzias finit par avoir vent de leurs recherches, et finit par contacter Dicke par téléphone pour lui exposer leur problème. Celui-ci comprend que le bruit mesuré par Penzias et Wilson doit être ce fameux rayonnement qu'ils cherchaient à mesurer. En 1965, les deux groupes publient simultanément un papier tenant compte de leurs résultats, marquant la découverte du fond diffus cosmologique ou CMB (pour Cosmic Microwave Background).

De nouvelles mesures

La première observation du CMB considérée comme une découverte fut réalisée à une seule longueur d'onde (7,35 cm, soit 4080 MHz) avec l'antenne d'Holmdel. Il était alors possible d'en déduire la température d'un corps noir correspondant mais pas de vérifier que le spectre du rayonnement était bien celui d'un corps noir. Rapidement Penzias et Wilson réalisent une nouvelle mesure avec le même dispositif cette fois à une longueur d'onde

Anisotropies du fond diffus cosmologique

Le fond diffus cosmologique n'est, comme notre Univers, par parfaitement homogène. La carte qu'on en dresse contient donc des anisotropies. Leur mesure peut nous renseigner sur de nombreux paramètres cosmologiques classiques (contenu de l'Univers, constante de Hubble) mais aussi sur les fluctuations primordiales de densité, ces déviations initiales par rapport à l'homogénéité, qui ont donné naissance aux grandes structures de l'Univers.

A l'origine, les inhomogénéités de l'Univers prennent leur source dans ce qu'on appelle les fluctuations primordiales de densité. Ces fluctuations sont représentées par des perturbations au premier ordre de la densité, de la vitesse locale de la matière et du potentiel $\phi$ : \begin{equation}\left\{\begin{matrix} \rho(t, \vec{x}) & = & \bar{\rho}(t)+ \delta\rho (t,\vec{x}) \\ \vec{v}(t, \vec{x}) & = & \vec{\bar{v}}(t,\vec{x}) + \vec{\delta v}(t,\vec{x}) \\ \phi(t,\vec{x}) & = & \bar{\phi}(\vec{x}) + \delta \phi(t,\vec{x})\\ \end{matrix}\right.\end{equation} Où $\vec{x}$ sont les coordonnées comobiles. On peut en déduire une solution perturbative au premier ordre en ces variations en injectant ces définitions dans les équations qui régissent le fluide, à savoir les équations d'Euler et de poisson suivantes : \begin{equation}\left\{\begin{matrix} \dot{\rho} + \nabla \cdot (\rho \vec{v}) = 0 \mbox{ (équation de continuité) } \\ \dot{\vec{v}} + (\vec{v} \cdot \nabla) \vec{v} = -\nabla (\phi + \dfrac{P}{\rho}) \mbox{ (principe fondamental de la dynamique) }\\ \nabla^2 \phi = 4\pi G \rho \mbox{ (équation de Poisson) }\\ \end{matrix}\right.\end{equation} Il apparait alors que la solution dans l'espace "fréquentiel" (après transformée de fourier spatiale $\vec{x}\to\vec{k}$ de $\delta \rho$) est : \begin{equation} \ddot{\delta\rho}(\vec{k}) + 2 H \dot{\delta\rho}(\vec{k}) + \left ( \dfrac{v_s^2 \vec{k}^2}{a^2} - 4\pi G\bar{\rho}\right ) \delta\rho(\vec{k}) = 0 \end{equation} On en déduit deux types de solutions :

  • Si $k < a\sqrt{4\pi G\bar{\rho}}/v_s$, alors les solution sont une croissance sans fin des perturbations.
  • Sinon, les solutions sont des oscillations amorties avec une "constante" de temps $1/H$.

Afin d'exploiter statistiquement les anistropies du CMB, on utilise leur spectre de puissance. Celui-ci provient de la décomposition de la carte de températures en harmoniques sphériques : \begin{equation} a_{lm} = \int \Theta(\theta,\phi) Y_{lm}^{*} (\theta,\phi) d^2 \Omega \end{equation} Ici, $\Theta$ est l'écart à la température moyenne dans une direction donnée : \begin{equation} \Theta(\theta,\phi) = \dfrac{T(\theta,\phi)-\bar{T}}{\bar{T}} \end{equation} D'où on tire le spectre de puissance : \begin{equation} C_l = \sum_{-l \leq m \leq l} \dfrac{|a_{lm}|^2}{2l+1} \end{equation} Le multipôle $l$ représente une échelle angulaire $\pi/l$, donc les coefficients à bas $l$ indiquent la corrélation entre des portions du ciel de grande envergure. Lorsque $l$ est petit, la somme se fait sur un nombre petit de termes, car peu de 'modes $m$' indépendants sont disponibles. Cela implique une erreur statistique de l'ordre de $\sqrt{2/(2l+1)}$ sur $C_l$, qui est indépassable par l'expérience. C'est la variance cosmique.

Spectre de puissance et paramètres du modèle standard de la cosmologie

(Max Tegmark  1995)

La mesure du spectre de puissance des anisotropies du fond diffus cosmologique permet d'en déduire les valeurs des paramètres cosmologiques du modèle standard. Cette section montre comment ces paramètres impactent la forme du spectre. Les graphiques ont été générés à l'aide du programme CAMB (Anthony Challinor, Antony Lewis  2005) . Il représentent la courbe $l\mapsto D_l = l(l+1)C_l/2\pi$.

Constante de Hubble
Spectre TT et constante de Hubble $H_0$
Spectre TT et constante de Hubble $H_0$ (gnuplot | source)
La constante de Hubble $H_0$ est la vitesse de l'expansion aujourd'hui.
On observe, d'après ces courbes, un décalage progressif vers la gauche de la courbe lorsque $H_0$ augmente. C'est assez facile à comprendre : plus la vitesse de l'expansion est élevée, plus les anisotropies grandissent rapidement. Par conséquent, pour une valeur de $H_0$ un peu plus élevée, une même fluctuation densité primordiale engendrera une "tâche" un peu plus grande, et apparaîtra un peu plus à gauche ($l \sim \pi / \theta$) sur le spectre.
Répartition de l'énergie
Spectre TT et densité baryonique $\Omega_b h^2$
Spectre TT et densité baryonique $\Omega_b h^2$ (gnuplot | source)
Spectre TT et densité de matière noire $\Omega_{cdm} h^2$
Spectre TT et densité de matière noire $\Omega_{cdm} h^2$ (gnuplot | source)
Spectre TT et répartition de la matière non relativiste$
Spectre TT et répartition de la matière non relativiste$ (gnuplot | source)
TODO odd bump enhancement due to DM
Courbure
Spectre TT et courbure $\Omega_{k}$
Spectre TT et courbure $\Omega_{k}$ (gnuplot | source)
Les mesures les plus précises du paramètre de courbure $\Omega_k$ sont compatibles avec un Univers plat. Le spectre de puissance TT est représenté ici pour différentes valeurs de $\Omega_k$ correspondant à un univers à géométrie sphérique (-0.2), plat (0), et hyperbolique (+0.2). $\Omega_k$ étant fixé par la somme $\Omega_{m}+\Omega_{\Lambda}$, c'est le paramètre $\Omega_{\Lambda}$ qui varie ici.
Les photons du CMB suivent grossièrement des géodésiques de la métrique FLRW après la recombinaison. Ces géodésiques convergent dans le cas d'une géométrie sphérique, et divergent pour une géométrie hyperbolique. La taille angulaire $\Delta \theta$ d'une fluctuation originant d'une perturbation de taille $\Delta L$ vérifie grossièrement $\Delta \theta \sim \Delta L/d_A(z_{recomb})$ où $d_A(z_{recomb})$ est la distance angulaire d'un objet de taille $\Delta L$ à la recombinaison et vaut : \begin{equation} d_A(z_{recomb}) = c a(t_{recomb}) S_k(\int_{t_{recomb}}^{t_0} \dfrac{dt}{a(t)}) \end{equation} L'expression de $S_k$ dépend de la géométrie de l'Univers. La valeur de l'intégrale est principalement déterminée par l'ère pendant laquelle $a$ était petit après la recombinaison, et alors la matière dominait. Cette intégrale vaut alors simplement $ \int_{t_{recomb}}^{t_0} \dfrac{dt}{a(t)} = \int_{0}^{z_{recomb}} \dfrac{dz}{H_0\sqrt{\Omega_m} (1+z)^{3/2}} \simeq 2/H_0\sqrt{\Omega_m}$. Par ailleurs : \begin{equation}\left\{\begin{matrix} S_k(\chi) & = & R \sin \dfrac{\chi}{R} \mbox{ si } k<0\\ S_k(\chi) & = & \chi \mbox{ si } k=0\\ S_k(\chi) & = & R \sinh \dfrac{\chi}{R} \mbox{ si } k>0 \end{matrix}\right.\end{equation} Et $R = \dfrac{c}{H_0\sqrt{|\Omega_k|}}$ si bien que : \begin{equation}\left\{\begin{matrix} \Delta \theta & \propto & \sqrt{|\Omega_k|}/\sin 2\sqrt{\dfrac{|\Omega_k|}{\Omega_m}} \mbox{ si } k<0\\ \Delta \theta & \propto & \sqrt{\Omega_m}/2 \mbox{ si } k=0\\ \Delta \theta & \propto & {\sqrt{|\Omega_k}|}/\sinh 2\sqrt{\dfrac{|\Omega_k|}{\Omega_m}} \mbox{ si } k>0 \end{matrix}\right.\end{equation} Ainsi, une géométrie sphérique ($\Omega_k < 0$) augmente la taille angulaire des anisotropies, et donc déplace le spectre de puissance vers la gauche, à l'inverse d'une géométrie hyperbolique.
Épaisseur optique
Spectre TT et épaisseur optique $\tau$
Spectre TT et épaisseur optique $\tau$ (gnuplot | source)
L'épaisseur optique mesure l'atténuation du rayonnement fossile par interaction avec la matière de l'Univers. Ainsi, plus $\tau$ est grand, plus cette atténuation est importante et plus le spectre est diminué. L'effet de l'épaisseur optique sur la courbe du spectre de puissance est globalement sa diminution d'un facteur $\sim e^{-2\tau}$.
Fluctuations primordiales
Spectre TT et amplitude des perturbations primordiales de courbure $\Delta R^2$
Spectre TT et amplitude des perturbations primordiales de courbure $\Delta R^2$ (gnuplot | source)
Spectre de puissance $TT$ pour différentes valeurs d'amplitude des perturbations primordiales de courbure $\Delta R^2$.
Comme le souligne l'échelle verticale logarithmique, multiplier la valeur de cette amplitude d'une certaine quantité a pour effet principal de multiplier le spectre de puissance de la même quantité.
Spectre TT et indice spectral des perturbations primordiales scalaires
Spectre TT et indice spectral des perturbations primordiales scalaires (gnuplot | source)
Spectre de puissance $TT$ pour différentes valeurs de l'indice spectral des perturbations primordiales $n_s$.
Les modèles inflationnaires prédisent des perturbations primordiales de la forme $P(k) \propto k^{-3} \left (\frac{k}{k_0}\right) ^{n_s-1}$. Des petites valeurs de $k$ sont corrélées à des grandes échelles angulaires, si bien qu'une valeur de $n_s$ plus grande augmente les perturbations à petite échelle angulaire (haut $l$). Au contraire, une valeur de $n_s$ inférieure favorise les grandes échelles angulaires.

a cessé d'interagir fortement avec la matière (environ 375 000 ans après le début du Big-Bang). Dès lors, les photons du fond diffus ont évolué indépendamment du reste du contenu de l'Univers

Références