La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.
  • Aujourd'hui : Rercherche de la matière noire

Recherche de la matière noire

Les traces de la matière noire

Aujourd'hui, nombreuses sont les observations qui révèlent par le biais de la gravitation la présence d'une quantité importante de matière invisible.

  • Courbes de rotation des galaxies : La distribution des vitesses observée au sein des galaxies indique une présence de masse significativement plus importante que celle estimée à partir des ondes électromagnétiques qu'elles émettent ("lumière"), et s'étendant aux-delà des bords visibles.
  • Densité de matière froide de l'Univers : Les observations cosmologiques et la structure de l'Univers révèlent que parmi la matière "froide" (non relativiste) qui compose l'Univers, un peu moins de 20 % seulement est visible (étoiles, planètes, gaz interstellaire). Le reste est inexpliqué !
  • Effet de lentille gravitationnelle : Des rayons lumineux passant près d'une masse importante sont déviés. Cet effet dit de "lentille gravitationnelle" permet donc de déceler la présence de matière même si celle-ci est invisible directement (voir image ci-contre).
  • Matière froide et matière baryonique : Bien que nombreuses et complexes, les réactions nucléaires quit ont eu lieu alors que la température de l'Univers était de l'ordre de 0,1 MeV qui ont conduit à la formation des éléments légers (Deutérium, Hélium) peuvent être résolues numériquement. On trouve alors que pour être en accord avec les observations expérimentales, la densité de matière baryonique $\Omega_B$ doit être inférieure à $0,04$ ($\rho_{B} \sim 4 \times 10^{-27} \textrm{kg}.\textrm{m}^{-3}$) (C. Copi, D. Schramm et al.  1995) . Ceci ne représente que 4 $\%$ de la densité critique[?], en accord avec d'autres estimations obtenue à l'aide de la mesure des anisotropies du fond diffus cosmologique par exemple. Pourtant, la matière "froide" doit représenter environ 30$\%$ de la densité critique d'après de nombreuses mesures indépendantes.

Candidats pour la matière noire

Les théories proposées pour expliquer l'origine de la matière noire sont nombreuses. La liste suivante n'est pas exhaustive mais regroupe certaines des suggestions suscitant ou ayant suscité le plus d'attention, afin d'illustrer la variété des alternatives. De façon générale, les différents candidats se classent en plusieurs catégories, qui sont la matière noire chaude, tiède et froide. La matière noire chaude fait référence à des particules relativistes ($P/\rho \to 1/3$) et la matière froide à des particules non relativistes ($P\to 0$). Les neutrinos sont de bons candidats à la matière noire chaude, dont l'existence est déjà démontrée. Il est en effet difficile de connaître précisément leur abondance dans l'Univers. Cependant, la formation des structures et les paramètres cosmologiques décrivant le mieux l'évolution de l'Univers nécessitent une part importante de matière noire froide, et c'est sous cette forme que sont la plupart des candidats. Il existe également des candidats impliquant une modification de la gravitation, comme MOND ou les théories $f(R)$.

WIMPs

Il a été proposé que la matière noire soit principalement constituée de particules massives interagissant faiblement (Weakly Interacting Massive Particles, WIMP). Ces particules auraient été formées à l'époque où l'Univers était suffisamment chaud. Un équilibre thermique entre annihilation de paire de WIMP et leur formation aurait imposé leur densité jusqu'à ce que celle-ci devienne trop faible pour que la réaction d'annihilation se produise : leur quantité demeure alors constante ("freeze-out"). Les WIMP sont attendues à l'échelle électrofaible ($\sim$ TeV), et pourraient donc être expliquées par des théories de type SUSY. Leur masse est en effet bornée par une limite supérieure : des particules très massives ($> 100$ TeV) seraient trop stables et présentes en trop large quantité aujourd'hui par rapport à celle de matière noire.

Cependant, si le freeze-out intervient hors-équilibre, cette contrainte sur la masse est levée. Il a donc été proposé que la matière noire soit en fait des WIMP très massifs appelés WIMPZILLAS.

La recherche de WIMP peut se faire de façon indirecte dans des accélérateurs (voir l'annexe sur ATLAS pour des explications détaillées), ou en observant le rayonnement cosmique (Fermi, AMS, ...). Elle peut aussi se faire de façon directe en mesurant la diffusion de matière noire par de la matière ordinaire, dans de gros réseaux cristallins à basse température en profondeur (exemple : LUX)

Axions

Bien que leur existence n'ait pas été initialement suggérée en réponse au problème de la matière noire, mais en réalité pour résoudre le problème CP fort, les axions seraient un bon candidat pour la matière noire. Ils seraient a priori très peu massifs ($m < $ eV) mais feraient intervenir un champ scalaire de pression nulle, et donc seraient équivalent à de la matière froide, là où les neutrinos ultrarelativistes ne sont que de bons candidats pour la matière noire chaude. Leur prédiction repose sur le fait que selon le modèle standard, le neutron possède un moment dipolaire électrique $d_n$ non nul, proportionnel à un paramètre sans dimension noté $\bar{\theta}$. La mesure de $d_n$ est obtenue en comparant la fréquence de précession de Larmor de neutrons plongés dans un des champs (E,B) parallèles ou de sens opposés. La valeur ainsi obtenue donne $\bar{\theta} < 10^{-10}$. Cette valeur étant très faible, Roberto Peccei et Helen Quinn ont suggéré en 1977 (R. D. Peccei, Helen R. Quinn  1977) qu'il puisse prendre son origine dans un champ scalaire (le champ d'axion) associé à une nouvelle symétrie $U(1)$. Le paramètre $\bar{\theta}$ serait proportionnel à la valeur moyenne de ce champ qui tendrait vers 0, et dont l'équation d'état serait celle d'un condensat de pression nulle, donc équivalent à de la matière noire froide. Le couplage des axions avec la matière entraîne des prédictions testables, notamment dans des processus stellaires (Georg G. Raffelt  ) .

MACHOs

Les MACHOs ("Massive Astrophysical Compact Halo Object") sont des objets massifs compacts émettant très peu de rayonnement proposés pour expliquer la matière noire. Ils pourraient être des naines brunes, des trous noirs, ou des planètes interstellaires situés dans le Halo galactique. Leur dénomination est un clin d'oeil aux WIMPs (ou l'inverse), "wimp" signifiant mauviette en anglais. Leur recherche repose notamment sur l'effet de micro lentille gravitationnelle.

Limites sur la fraction de matière noire explicable par les MACHOs.
Limites sur la fraction de matière noire explicable par les MACHOs.
Limites supérieures sur la portion de matière noire ($f = \Omega_{MACHOs} / \Omega_{DM}$) pouvant être contenue sous forme de MACHOs, et l'origine de ces limites. Source : (Timothy D. Brandt  2016)

Trous noirs primordiaux

Les trous noirs primordiaux sont des trous noirs qui se seraient formés au début du Big-Bang et constituent un type spécifique de MACHO. Encore non observés, ils demeurent cependant un éventuel candidat pour la matière noire. Un mécanisme de formation possible est l'effondrement de fluctuations de densité de l'ordre de la distance d'Horizon à l'époque de formation, antérieure à la nucléosynthèse primordiale. Une autre est la fusion et l'effondrement de "bulles de vide" formées lors d'une transition de premier ordre d'un champ d'un équilibre métastable (un "faux-vide" avec une énergie moyenne $> 0$) et le "vrai-vide" (état stable d'énergie nulle). Le processus de formation détermine la distribution de leur masse attendue notée $M_{PBH}$, qui peut s'étaler sur un très grand spectre a priori. Des trous noirs primordiaux de masse $M_{PBH}$ inférieure à $\sim 10^{-16} M_{\odot}$ se seraient déjà évaporés, un intervalle de plusieurs dizaines d'ordre de grandeurs au-dessus de ce seuil est encore permis. En raison de l'importance de cet intervalle des techniques très différentes sont employées pour en contraindre des régions particulières. L'état de la recherche sur le sujet est représenté par la figure suivante :

Contraintes actuelles sur les trous-noirs primordiaux.
Contraintes actuelles sur les trous-noirs primordiaux.
La figure montre l'état des limites supérieures sur la portion de matière noire ($f = \Omega_{PBH} / \Omega_{DM}$) pouvant être contenue sous forme de trous noirs primordiaux d'une masse $M_{PBH}$ donnée, et la technique ayant conduit à ces limites.
D'après ces résultats, seules deux fenêtres sont autorisées, privilégiant des trous noirs "légers". Cependant les résultats obtenus par étude de l'impact des rayons X émis lors de l'accrétion de matière par des trous noirs primordiaux sur le fond diffus cosmologique sont contestés, et l'intervalle aux alentours de plusieurs dizaines de masses solaires n'est pas tout-à-fait exclu. Il a même été suggéré que les deux fusions de trous noirs observées par LIGO en 2015 pourraient en être, auquel cas, l'augmentation en sensibilité des détecteurs LIGO et VIRGO pourraient permettre de découvrir si en effet des trous noirs primordiaux dans cet intervalle expliquent une portion de la matière noire ou d'obtenir de nouvelles limites dans le cas contraire.

Gravité $f(R)$

La Relativité Générale est contenue dans l'action d'Hilbert-Einstein de forme : \begin{equation} S = \int \dfrac{c^4}{16\pi G} f(R) \sqrt{-g} d^4x \end{equation} Les équations du mouvements (équation d'Einstein) s'obtiennent alors par application du principe de moindre action, avec $f(R) = R$. L'idée des théories $f(R)$ est d'utiliser une fonction différente pour $f$, par exemple $f(R) = R-\alpha R^2$. Ces modifications pourraient avoir un effet semblable à la présence de matière noire en relativité générale (C BOHMER, T HARKO et al.  2008) , (Jose A. R. Cembranos  2009) . Bien que de nombreuses motivations théoriques existent, ces modèles ne peuvent expliquer de fraction significative de la matière noire sans introduire d'effets incompatibles avec les observations. Ces modèles ont beaucoup de mal à se conformer aux observations des anisotropies du rayonnement fossile par exemple.

MOND (MOdified Newtonian Dynamics)

Une des observations à l'origine du problème de la "matière noire" est celle de la courbe de rotation des galaxies et notamment les travaux Vera Rubin à la fin des années 1970. Ces courbes indiquent une vitesse "trop rapide" à distance du centre des galaxies, avec une courbe de vitesse en "plateau" alors qu'elles devraient diminuer comme $1/\sqrt{r}$ loin du centre. ($v \sim \sqrt{\dfrac{GM}{r}}$ loin des zones de forte densité). En 1983, Mordehai Milgrom montre qu'une modification du principe fondamental de la dynamique ($F=ma$) permettrait de résoudre ce problème (M. Milgrom  1983) . Il suggère de la réécrire comme : \begin{equation} \vec{F} = \mu(a/a_0) m\vec{a} \end{equation} Où $a_0$ est une nouvelle constante qui doit être ajustée aux données et $\mu$ une fonction proche de 1 lorsque $a/a_0 \gg 1$ et proche de l'identité lorsque $a/a_0 \ll 1$. Dans ce cas, elle se réécrit alors : \begin{equation} \vec{F} \simeq a/a_0 m\vec{a} \end{equation} La vitesse à large distance du centre galactique d'une masse test $m$ est alors donnée par : \begin{equation} \dfrac{GMm}{r^2} \simeq \mu(v^2/r/a_0) m\dfrac{v^2}{r} \end{equation} En effet, $a = v^2/r$ pour un mouvement circulaire uniformément accéléré. Dans le cas où cette accélération est faible (loin du centre) on trouve : \begin{equation} v \simeq (a_0 GM)^{1/4} \end{equation} Ceci ne dépend pas de $r$ et expliquerait le plateau observé par Vera Rubin sur le tracé de $r\mapsto v(r)$. Un bon accord avec les courbes de rotation est trouvé pour $a_0 \sim 10^{-10} \textrm{ cm.s}^{-2}$. Cette valeur est intriguante car du même ordre de grandeur que $cH_0$. MOND est parfois formulé en terme de modification de la gravité, avec une décroissance en $1/r$ plutôt que $1/r^2$ à large distance. La théorie MOND a évolué et des versions relativistes existent (Mordehai Milgrom  2015) dont TeVeS, proposée par Bekenstein (Jacob D. Bekenstein  2004) . Des observations récentes portées sur 153 galaxies semblent encourager cette hypothèse plutôt que celle d'une masse manquante ("Radial acceleration relation in rotationally supported galaxies"). MOND est en revanche très peu attrayante d'un point de vue théorique et échoue à l'échelle des clusters de galaxie.

densité de fermeture
Martin White. Physicien actuellement en poste à l'université d'Adélaïde, Martin White est impliqué dans plusieurs domaines de recherche, comme la phénoménologie en physique des particules et la recherche de traces de supersymmétrie pour l'expérience ATLAS ainsi que de l'astrophysique des particules en tant que membre de la collaboration CTA. Il nous parle de son rôle au sein de ses expériences, ainsi que du projet GAMBIT..
Lire l'interview.

Script

LG: Pouvez-vous nous décrire rapidement votre carrière académique et vos thématiques de recherche actuelles ?

MW: Oui, j'ai donc passé mon master à Cambridge au Royaume-Uni, puis j'y ai fait ma thèse sur l'expérience ATLAS tout en faisant de la phénoménologie, c'est-à-dire à l'interface entre théorie et expérience, en dehors d'ATLAS. Puis je suis resté à Cambridge pour des post-docs jusqu'à partir pour Melbourne et maintenant je suis à Adélaïde en tant que maître de conférences en physique et je passe actuellement le plus clair de mon temps à faire de la recherche. Mes thématiques de recherche comprennent, la recherche de nouvelles particules au sein de l'expérience ATLAS, et des choses plus théoriques concernant la matière noire et la physique des particules.

LG: D'après le site de l'université d'Adélaïde, vous êtes à la fois membre des collaborations ATLAS et CTA ?

MW: Oui, en réalité je n'ai rien fait d'utile pour CTA pour le moment (rires) mais je suis techniquement bien un membre de la collaboration, et à ce titre nous avons reçu de l'argent et nous l'avons dépensé sur des composants du télescope. Pour le moment, nous sommes en train de nous organiser pour la suite, et j'ai profité de ma venue à Paris pour parler avec Agnieszka qui un membre important de HESS puisqu'elle a dirigé la recherche de matière noire au sein de cette expérience quelque temps, et lui demander ce qu'elle faisait pour CTA, et elle m'a répondu qu'elle n'avait rien fait d'utile non plus pour le moment (rires) et nous espérons nous impliquer davantage dans les années qui viennent.

LG: Pouvez-vous en dire plus sur votre implication dans ATLAS ?

MW: Dans le passé j'ai travaillé sur le code du trajectographe à semi-conducteurs [...], donc j'étais au plein cœur de l'aspect expérimental, et ces dernières années j'ai surtout participé à des recherches de nouvelles particules et plus particulièrement de particules supersymétriques et du super-partenaire du quark top (le stop), qui est très important à trouver. J'ai également conduit une autre recherche de SUSY avec mes collègues dans le canal à 0 leptons, à la recherche de squarks et de gluinos au cas où ils se manifesteraient ainsi. Finalement, je travaille également sur l'analyse diphoton avec tes collègues à Paris et particulièrement sur la modélisation du signal et des considérations théoriques. La plupart de mon travaille tend à appliquer la théorie pour ATLAS plutôt qu'à travailler sur l'expérimental pur et dur.

LG: Par ailleurs vous travaillez sur un projet dont la première sortie publique est prévue pour cet été ?

MW: Oui, c'est de GAMBIT dont tu veux parler je pense, donc oui ce n'est pas toujours pas public, nous cherchons encore à corriger des bugs, nous avions d'ailleurs une importante réunion à ce sujet la nuit dernière, mais oui, cela représente la plupart de mon travaille ces jours et c'est une grosse équipe d'environ 30 personnes dans des domaines qui s'étendent de la physique des particules à la cosmologie en passant par l'astrophysique. L'objectif principal est en fait de combiner toutes les données apportées par toutes sortes d'expériences et d'appliquer des théories quantiques des champs décrivant la physique des particules et la matière noire pour les confronter et déterminer quelles théories sont correctes ou rejetées. C'est très utile quand on obtient des résultats positifs parce que c'est la seule façon dont on sera capable de déterminer quelle est la prochaine bonne théorie, mais c'est aussi utile pour concevoir de nouvelles expériences, puisque cela permet d'exploiter des résultats négatifs pour rejeter plein de théories et nous amener vers d'autres théories vers lesquelles concentrer nos prochaines recherches.

LG: Vous dites que ce projet peut aider à concevoir de nouvelles expériences puisqu'il permet de définir quel espace des paramètres d'une théorie doit être sondé ; est-ce qu'il peut aussi aider à déterminer quelles théories sont falsifiables si aucune expérience réaliste ne permet de tester la plupart de leur domaine de prédiction ?

MW: Je pense que la réponse courte est : pour certaines théories oui, pour d'autres non. Quelque chose comme la supersymétrie par exemple pourrait toujours échapper à une détection au LHC, et on peut écrire des théories qu'on ne pourrait pas tester pour une raison ou une autre. Il y a d'autres exemples, par exemple, de façon générale la matière noire doit être faiblement produite, donc on pourrait très bien la manquer au LHC. Dans le cas de résultats positifs, il est très clair que cela permet de rejeter des théories presque immédiatement. Par exemple, si l'excès dans le canal diphoton avait été confirmé cela aurait exclu tous les scénarios avec deux doublets de Higgs. On n'aurait pas pu avoir de scénario avec un doublet de Higgs supplémentaire et rien d'autre, ce qui est une idée très populaire, parce qu'alors il aurait été impossible d'expliquer la taille du signal. Similairement, la découverte du premier boson de Higgs aurait pu rejeter la plus simple forme de supersymétrie immédiatement, si le boson de Higgs avait été plus lourd. Si sa masse était de 150 GeV au lieu de 125 GeV, cela aurait été trop pour le MSSM (Minimal Super-Symmetric Model). Donc, il est clair qu'en fonction de ce que les données nous diront certaines théories pourront être jetées à la poubelle quasi-directement. Et pour le reste, c'est en gros un catalogue d'efforts à effectuer pour les rechercher en regardant dans les données pour voir si elles sont déjà exclues. Dans certains cas cela pourrait être plus flou, quand par exemple il est difficile de trouver suffisamment de situations dans un modèle qui décrivent bien les données, et donc ce n'est pas techniquement exclu, mais c'est très défavorable en regard de ce que l'on aurait tendance à considérer.

LG: A la lumière des résultats pour l'instant négatifs au LHC, pensez-vous qu'il y a toujours espoir de voir quelque chose de nouveau dans le futur grâce à des accélérateurs de particules ?

MW: J'aurais tendance à dire qu'il y a deux réponses possibles. En ce qui concerne la matière noire, il se pourrait qu'elle ne se couple simplement pas très fortement aux quarks, et si c'est le cas nous ne la détecterons jamais directement et nous ne la verrons jamais au LHC. Il se pourrait aussi, de façon plus optimiste, que le couplage au quark n'est pas si faible et que nous n'avons simplement pas encore atteint les performances nécessaires. Si on regarde les limites génériques sur la matière noire au LHC, elles sont relativement faibles en réalité, en particulier si sa masse était de l'ordre de 500 ou 600 GeV on ne l'aurait pas encore vue. Dans le cadre de la supersymétrie, il n'y a en réalité aucune limite sur la masse des particules fixée par la combinaison de toutes les recherches menées, et c'est évidemment quelque chose que nous essayons de quantifier en détail avec GAMBIT. Dans tous les cas je ne suis pas du tout inquiet que l'absence de découverte signifierait qu'il n'y a rien à trouver. Je suis en réalité plutôt optimiste et ne serais pas surpris que l'on trouve quelque chose de nouveau au LHC d'ici un ou deux ans.

LG: Quelle expérience à venir vous excite le plus ?

MW: Je dirais que je suis plutôt excité par CTA, parce qu'en termes de matière noire, la seule façon de trancher sur la question de savoir si la matière noire est bien un WIMP ou non est de rechercher des signes de détection directe et de telles signatures pourraient se trouver dans de nombreux états finaux dans CTA. Donc, je pense que cela va apporter plein de bonnes choses dans les prochaines années. Il y a de nombreuses expériences de détection directe qui vont devenir très sensibles. Il y a aussi des choses totalement déconnectées du LHC telles que ce que peuvent apporter l'astronomie des ondes gravitationnelles ou des neutrinos dans la prochaine dizaine d'années, qui sont deux nouveaux domaines de la science expérimentale qui viennent de débuter, et les découvertes d'aujourd'hui seront les méthodes de demain, qui nous permettront de faire des choses extraordinaires en physique.

LG: Pourtant nombreux sont ceux qui sont inquiets depuis la déception causée par l'absence de confirmation de l'excès à 750 GeV, alors que je pense que cette année (2016) a été excellente pour la physique en général, avec les deux premières annonces de détection d'ondes gravitationnelle et les résultats prometteurs sur la physique des neutrinos.

MW: Je pense que même l'histoire de l'excès diphoton a été une superbe expérience parce qu'elle a fait éclore beaucoup d'idées auxquelles on ne pensait pas avant. Donc tu sais évidemment que j'ai commencé à travailler dessus et que c'est ainsi que nous nous sommes rencontrés à Paris et j'étais impliqué dans toutes sortes de calculs d'interférences dans le but d'améliorer les recherches de résonances d'une façon qui aurait vraiment dû être faite des années auparavant pour qui souhaitait vraiment trouver des choses, il est clair que les formes que l'on recherchait pouvaient être complètement différentes, et il nous faut donc de nouvelles façons de gérer cet aspect pour généraliser les recherches. Par ailleurs j'ai toujours dit que pour moi c'est la première année du LHC, cela semble très étrange après la découverte du boson de Higgs il y a quatre ans, mais si on regarde le cahier des charges d'ATLAS, il est écrit que le LHC devait délivrer 30 fb$^{-1}$ de données sa première année à une énergie de centre de masse de 14 TeV, et nous ne sommes pas tout à fait à cette énergie mais nous sommes tous proches, et c'est aussi la première année durant laquelle nous allons enregistrer autant de données. Donc pour moi c'est le vrai LHC que nous voyons enfin cette année. Nous avons eu jusque-là en quelque sorte une "moitié" de LHC et il pourrait y avoir toute sorte de choses qui se cachent dans les données déjà collectées. En premier nous regardons les recherches rapides qu'on peut faire a priori mais par la suite nous serons plus malins et nous analyserons beaucoup plus efficacement les nouvelles données qui seront prises dans les prochaines années : il est tout à fait acceptable de ne rien avoir vu aujourd'hui, il pourrait y avoir beaucoup de choses que nous avons ratées.

LG: C'est quelque chose qui m'a beaucoup surpris en travaillant pour ATLAS, à savoir le fait qu'autant de gens et de temps soit nécessaires à une analyse spécifique telle que la recherche diphoton, et il me semble qu'ainsi on manque une partie du potentiel de découverte avec toutes ces données et seulement quelques analyses parce qu'elles sont si difficiles à mettre en place.

MW: Oui elles le sont, il y a une immense quantité de travail derrière chacun d'entre-elles et il y a aussi des analyses qui n’impliquent que deux personnes, j'en ai ainsi réalisé une avec un collaborateur par exemple pour l'analyse SUSY, mais cela nécessite 18 mois d'entretiens, et c'est vrai, il n'y a pas d'astuce, et si on réalise la complexité de ce qui a été fait pour comprendre les résultats du canal diphoton, et ce n'est pas terminé, c'est loin d'être suffisant, et oui je ne sais pas comment tu le ressens mais c'était un privilège pour moi de voir parmi les plus grands esprits du monde travaillant ensemble sur ces problèmes et il n'y avait aucun ego en jeu ou quoi que ce soit d'autre, c'était juste de la science sous sa forme la plus pure, et fantastique d'y assister ! Donc oui je pense, d'autant plus en ce qui concerne la supersymétrie, il nous faut tellement optimiser les recherches pour espérer voir quelque chose et en faisait cela, évidemment si nous faisons les bons choix d'optimisation c'est très bien, mais dans le cas contraire on peut vraiment passer à côté de résultats. C'est d'ailleurs quelque chose sur lequel nous travaillons beaucoup à Adélaïde pour le moment avec de nouvelles techniques qui tentent de généraliser les recherches de particules supersymétriques de telle sorte à demeurer aussi neutre que possible a priori dans les analyses, et c'est aussi le rôle de GAMBIT, à savoir répondre à la question "pouvons-nous prendre tout ce que nous avons appris jusqu'à maintenant et concentrer nos efforts sur ce qui en demande désormais le plus"

LG: La supersymétrie était vue comme l'un des meilleurs candidats pour les WIMP et de la nouvelle physique en général, potentiellement à la portée d'expériences futures, y croyez-vous beaucoup ?

MW: En réalité je suis toujours resté neutre à propos de l'existence de la supersymétrie, je veux dire, comme beaucoup d'étudiants lors de ma thèse on m'a dit de travailler sur la supersymétrie et je l'ai fait, j'étais curieux à propos de la physique au-delà du modèle standard et c'était une bonne option, qui par ailleurs suscite beaucoup d'attention, de telle sorte qu'on peut ce faisant produire un travail remarqué, mais je n'ai jamais vraiment éprouvé de croyance en son existence ou le contraire ; je pense simplement, que si on regarde aux arguments théoriques en faveur de la supersymétrie, alors on constate qu'ils sont très très forts. Et ce n'est pas simplement le problème de la hiérarchie et pourquoi la masse du Higgs est si inférieure à l'échelle de Planck s'il n'y a pas de physique entre les deux échelles - la supersymétrie résout ce problème - mais pour moi l'argument le plus convaincant est le fait que si l'on prend le groupe de Poincarré,qui est une sorte de groupe basé sur des symétries qu'on semble observer dans la nature, alors la seule symétrie de ce type manquante est la supersymétrie, et il semble étrange d'observer toutes les autres mais pas celle-ci en particulier, cela m'a toujours étonnant et est particulièrement intriguant. Évidemment on ne connaît pas l'échelle à laquelle la supersymétrie est brisée et cela pourrait être n'importe où et c'est pourquoi on n'est pas certains de devoir s'attendre à voir quelque chose au LHC, et je pense que tous les arguments à propos d'ajustement fin sont intéressants, mais sans plus. C'est tout à fait possible que la supersymétrie soit brisée à une énergie très élevée et qu'en conséquence on n'en voit pas la trace au LHC. Je pense quoi qu'il en soit qu'il est intéressant de travailler dessus, parce qu'on pourrait très bien avoir manqué des super-partenaires dans les données même celles à 8 TeV. J'ai donné une conférence à un programme au sujet de SUSY cette année et j'ai impressionné la classe en soulignant ce fait, en montrant les limites et les trous dans ces limites, et qu'il n'y a en fait aucune limite définitive sur la plupart des super-partenaires au LHC ; au moins pour les squarks, la plus forte limite est probablement de quelques centaines de GeV, mais elle n'est pas complètement convaincante, parce qu'elle dépend de certains paramètres. Et donc, il se pourrait très bien qu'il y ait bien des super-partenaires que nous n'avons pas encore vus pour une raison ou une autre, et nous devrions les chercher très méticuleusement, et bien sûr augmenter l'énergie de collision et donc les sections efficaces de production est exactement ce dont nous avons besoin pour cela. En ce qui concerne des références à propos de la supersymétrie que je recommanderais, je me souviens avoir lu un livre scientifique assez populaire de Gordon Kane, il y a quelques années, qui est très bien si l'on recherche une approche douce sans trop de calculs. Il y en a aussi un autre qui est sorti pour ceux qui sont déjà à l'aise avec les calculs impliquant des spineurs ou d'autres aspects du modèle standard, je crois qu'il s'appelle "super-symmetry demystified", je pense que l'une des raisons pour lesquelles il est très bien est parce qu'il est peu cher, et il part du modèle standard pour aboutir à la supersymétrie en montrant comment construire les champs supersymétriques et manipuler les symboles introduits. C'est donc un très bon livre pour les étudiants de master qui souhaitent rentrer dans les calculs. Il y a aussi un très bon livre de Baer et Tata, "Weak scale super-symmetry", et c'est une très bonne référence pour ce qui est des calculs.

LG: Pensez-vous que l'on gagnerait à concentrer nos efforts sur un accélérateur linéaire d'électrons-positrons dans le futur, ou bien que le bénéfice serait faible énergie privilégiée à laquelle opérer ?

MW: Oui, tu sais probablement que la grosse différence [avec les accélérateurs de protons] est que bien sûr dans ce cas on collisionnerait des particules fondamentales à une énergie de fonctionnement donnée ce qui fixe l'énergie de centre de masse et bien sûr connaître l'énergie de centre de masse aide énormément dans l'exploitation des mesures cinématiques. C'est également un environnement beaucoup plus propre parce qu'il n'y a pas autant d'événements secondaires simultanément aux événements intéressants, alors qu'au LHC bien sûr des morceaux de protons [partons, i.e. des gluons ou des quarks] interagissent avec d'autres morceaux et c'est souvent complexe et on ne connaît alors pas exactement l'énergie de centre de masse puisqu’elle dépend des [partons] qui ont interagi. De cette façon on sonde toutes les énergies à la fois ce qui est très bien pour des découvertes, mais "zoomer" sur des choses qu'on souhaite mesurer plus précisément est alors très difficile. Donc, je pense que l'argument pour des accélérateurs linéaires aujourd'hui est d'effectuer des mesures précises du boson de Higgs et de son couplage avec les autres particules en espérant diminuer suffisamment les barres d'erreurs pour déceler la présence de nouvelle physique qui prendraient leur origine dans des boucles, c'est davantage la philosophie de telles expériences par exemple. Bien sûr il est très vraisemblable de diminuer les barres d'erreurs tout en ayant toujours des résultats compatibles avec le modèle standard, mais il y a toujours potentiellement de la nouvelle physique à une échelle d'énergie supérieure que l'on n'a toujours pas vue. Donc, pour le moment, en l'absence de découverte directe au LHC, cela peut-être difficile d'être très excité par ce genre d'expériences, mais j'ai toujours espoir de voir des traces de quelque chose de nouveau au LHC qui suggéreraient ou chercher ensuite. Je pense cependant qu'il serait intéressant d'employer des accélérateurs linéaires de coût maîtrisé afin d'explorer plus précisément le secteur électrofaible quoi qu'il en soit. De la même façon que le LEP en son temps, par exemple. Le LEP nous a donné de très satisfaisantes mesures de masse des bosons W et Z et de plusieurs détails de ce domaine d'interactions à travers lesquels on pouvait plus ou moins deviner l'intervalle de masse dans lequel le Higgs devait se trouver avant même de l'avoir découvert.

LG: Le Higgs était en effet bien contraint avant que le LHC ne démarre ! Auriez-vous un livre à recommander à propos de l'usage des statistiques en physique, et plus particulièrement de l'approche bayésienne ?

MW: [Il y a] deux classiques qui sont souvent utilisés - un livre de Louis Lyons d'abord, "Statistics for Nuclear and particle physicists", et puis "statistical methods in experimental physics" de Frederik James qui est aussi très bien. Pour les méthodes Bayésiennes je ne suis pas sûr, j'ai plutôt appris au fur et à mesure de mon travail, et en lisant des papiers, mais "Bayesian method in Cosmology", semble être un excellent livre, bien que je ne l'aie pas lu. Et bien sûr, il y a "Information Theory" de Dave MacKay's - un ancien maître de conférences de Cambridge, et tous ceux qui travaillent sur le sujet aujourd'hui et qui sont passés par Cambridge ont appris de lui, c'est un vrai maître dans son domaine.

LG: Merci. Ce site étant en partie dédié aux étudiants - êtes-vous à la recherche de candidats pour un stage ou une thèse dans votre université pour travailler sur GAMBIT, ou ATLAS par exemple ?

MW: En effet, nous sommes très certainement toujours intéressés par des masters internationaux et des candidatures de thèse, tout particulièrement de la part de personnes ayant déjà effectué des recherches ailleurs qui ont abouti à la publication d'un papier, auquel cas c'est pratiquement la garantie d'obtenir un financement je pense, au moins quand j'ai moi-même candidaté pour l'Australie. En termes de stages nous n'avons pas directement d'argent pour cela mais nous sommes très heureux d'accueillir des physiciens s'ils sont financés par leur département, parce que c'est aussi une tâche complexe, par exemple en ce qui concerne les liens avec la France il semble qu'il existe toutes sortes de financements que l'on peut réclamer afin de faire venir des gens pour les étudiants notamment. Donc, si quelqu'un est intéressé, il suffit de me le faire savoir, et je verrai ce que l'on peut faire, on peut toujours trouver un moyen ensemble pour payer le voyage. Le problème avec l'Australie est évidemment que le billet d'avion est très cher, mais c'est très beau et il fait chaud, et on peut voir des kangourous !

LG: Merci beaucoup !

Interview record (English)

Références

En savoir plus

La rédaction de contenu n'est pas achevée. Les informations peuvent être incomplètes ou contenir des erreurs.

Théorie de l'état stationnaire

La théorie de l'état stationnaire, ou "steady-state theory" en anglais, est une théorie avancée par Fred Hoyle en 1948. Son objectif était de résoudre un certain nombre de problèmes des modèles d'Einstein-de Sitter et de Lemaitre-Friedmann, notamment celui de l'âge de l'Univers que ces théories prédisaient puisqu'il était trop petit par rapport à l'âge de certains objets comme la Terre.

Cette théorie repose sur l'idée que de la matière est créée en permanence dans l'univers de façon à compenser exactement la diminution de densité due à l'expansion. Ainsi, dans ce modèle, la densité de matière demeure constante et l'Univers est en tout âge semblable bien qu'il soit en expansion : il respecte le principe cosmologique parfait. L'apport de matière se ferait par la création ininterrompue et homogène de particules dans l'espace (par exemple des atomes d'hydrogène).

Un tel Univers se comporte comme un Univers vide avec constante cosmologique non nulle (puisque celle-ci est équivalente à une densité d'énergie constante). S'il est plat, alors le facteur d'échelle évolue simplement selon : \begin{equation} a(t) = \exp{\left ( H_0 t \right )} \mbox{ et } H_0 = \sqrt{\dfrac{8\pi G\rho_0}{3c^2}} \end{equation} Où $\rho_0$ est la densité d'énergie de masse de l'Univers, identique à toute date. On remarque que la relation densité-constante de Hubble est identique à celle de l'Univers d'Einstein-de Sitter, or à l'époque on pensait que celle-ci donnait de bons résultats. Le modèle d'Hoyle reprend donc les succès des modèles non-stationnaires (expansion et relation densité-constante de Hubble) et semble par ailleurs en résoudre d'autres (âge de l'Univers).

Formalisme

Échecs du modèle

Voir l'article