Étude du potentiel de découverte de la matière noire

publicité
ÉCOLE NORMALE SUPÉRIEUR DE LYON
ÉCOLE POLYTECHNIQUE
PROMOTION X2005
Master 2
VIANA Aion
RAPPORT DE STAGE DE RECHERCHE
Étude du potentiel de découverte de la
matière noire avec un grand réseau de
télescopes Cherenkov
NON CONFIDENTIEL
Option :
Physique
Champ de l'option :
Astrophysique des Particules
Directeur du master :
Thierry DAUXOIS
Directeur de stage :
Emmanuel MOULIN
Dates de stage :
du 20/04/09 au 20/08/09
Adresse de l'organiséme :
CEA Saclay DSM/IRFU/SPP
Bât 141
F-91191 Gif sur Yvette Cedex
FRANCE
Résumé
Dans ce travail nous avons étudié le potentiel de découverte de la Matière
Noire avec la nouvelle génération de télescopes de rayonnement Cherenkov.
Notamment avec le projet C.T.A.(Cherenkov Telescope Array en anglais), aujourd'hui en phase de conception. Deux types d'analyse de stratégie d'observation ont été traitées. La première donne une prévision du potentiel qu'aurait
C.T.A. dans la construction d'une carte de sensibilité au ux de rayons gammas, pour un quart du ciel et le temps qui serait nécessaire pour cela. La
deuxième analyse faite consiste à prédire le potentiel qu'aurait C.T.A. dans
l'analyse d'une seule source, en pointant tous les télescopes du reseau vers cette
cible, et estimer sa sensibilité à l'annihilation de Matière Noire. Et nalement
une analyse complémentaire a été menée dans le but de discriminer entre des
diérents prols d'halo de matière noire proposés dans la littérature. La stratégie utilisée a été de changer l'angle d'observation par rapport au centre des
galaxies naines sphéroïdales et analyser la diérence de ux attendu selon les
diérents prols.
Abstract
In this work we have studied the discovery potential of the Dark Matter by the new
generation of Cherenkov light telescopes. Particulary the one of C.T.A(Cherenkov
Telescope Array) project, today in the conception studies phase. Two kinds of analysis of
the observation strategies have been treated. In the rst one we give some prediction on
the potential of construction of a gamma-ray ux sensibility map for a quarter of the
galactic sky and the time needed for that, using a model of the C.T.A.. In the second one
we give some prediction on the analysis potential of one single source, in this case
pointing all the telescopes of the array to this target, and then we give the ux sensitivity
that would have C.T.A. to a Dark Matter annihilation. Finally we have made a
complementary analysis on the discrimination of dierent kinds of proles of Dark
Matter halos proposed in literature. For this purpose we used the strategy of changing
the angle between the observation and the center of some dwarf spheroidal galaxies and
looking at the changes on the gamma-ray ux for each prole.
2
Table des matières
Introduction
4
1 La Détection Indirecte de matière Noire
1.1
1.2
1.3
1.4
Distribution spatiale(Facteur Astrophysique) . . . .
Candidats(Facteur de Physique des Particules) . . .
Détecteurs Cherenkov atmosphérique . . . . . . . .
1.3.1 Le réseau H.E.S.S. . . . . . . . . . . . . . .
1.3.2 C.T.A. : la prochaine génération . . . . . . .
Cibles privilégiées . . . . . . . . . . . . . . . . . . .
1.4.1 Galaxies Naines, satellites de la Voie Lactée
1.4.2 Les grumeaux de matière noire(Clumps ) . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
7
9
11
11
11
13
13
13
2 Calcul des cartes de sensibilité
15
3 Contraintes de C.T.A. pour les ux d'annihilation
19
4 Conclusion
23
2.1
2.2
3.1
3.2
3.3
Analyse des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Construction des cartes . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Sensibilité au ux d'annihilation de matière noire . . . . . . . . . . . 19
Calcul des courbes de sensibilités . . . . . . . . . . . . . . . . . . . . 20
Variation de 𝐽 en fonction de Ψ . . . . . . . . . . . . . . . . . . . . . 21
3
Introduction
La Matière Noire est un des plus grands paradigmes de la Physique moderne.
Depuis la publication du "Philosophiae Naturalis Principia Mathematica" par Isaac
Newton en 1687 où il expliquait le mouvement des objets astrophysiques par les lois
de la gravitation, par plusieurs fois dans l'histoire des déviations de la trajectoire
attendue de ces objets ont été observés. L'étude de ces déviations nous a beaucoup
apporté en termes de connaissance de notre Univers. En eet, chaque fois qu'une
anomalie a été observé dans le mouvement des planètes du Système Solaire, on a
proposé deux solutions possibles à ce problème : soit nous devions remettre en cause
la validité des lois de la gravitation, soit cela indiquerait l'existence d'un objet qui
n'a pas été observé.
Ainsi, lorsque l'on a observé une anomalie dans la trajectoire d'Uranus l'astronome français U. Le Verrier et l'astronome anglais John Couch Adams ont proposé l'existence de Neptune, qui a été observé en 1846 par J.G.Galle. En revanche, la
tentative d'expliquer les anomalies du mouvement de Mercure par l'existence d'une
nouvelle planète, appelé Vulcan, a échoué, et la solution nal a été donné ultérieurement par la Théorie de la Rélativité Génerale d'Albert Einstein, qui proposait une
description beaucoup plus ranée des lois de la gravitation.
Le problème actuel de la matière Noire est conceptuellement très similaire
aux problèmes auparavant énoncés ci-dessus. Nous observons des anomalies très
importantes des grands systèmes astrophysiques dans des échelles qui vont du galactique au cosmologique, qui peuvent être expliquées soit en postulant l'existence
d'une grande quantité de matière apparemment indétectable (électromagnétiquement), d'où noire, soit en remettant en cause les limites de validité des lois de la
gravitation et de la théorie de la relativité générale.
Cependant, un de modèles le plus réussi de la Cosmologie moderne, appelé
modèle ΛCDM , validé par plusieurs observations indépendantes des diérentes objets astrophysiques, suggère une répartition de la densité d'énergie de l'Univers en :
Ω = Ω 𝑚 + ΩΛ + Ω 𝑟
(1)
où Ω𝑚 est la contribution de la matière, ΩΛ est la contribution de la constante
cosmologique (ou énergie du vide), et Ω𝑟 la contribution due au rayonnement. Dans
ce modèle la matière serais dominé par une forme de matière non-baryonique qui
n'intéragirait que par la force faible, appelé matière noire froide(CDM pour Cold
Dark Matter en anglais). La contribution en matière total de l'Univers se décompose
alors en Ω𝑚 = Ω𝐶𝐷𝑀 +Ω𝑏, en matière noire et baryons. Les dernier résultats obtenus
nous donnent nalement :
Ω𝑚 = 0.27 ± 0.04 et Ω𝐶𝐷𝑀 = 0.22 ± 0.04
(2)
D'autre part, l'énergie du vide représente 70% du contenu en énergie de l'Univers. De
sorte que l'Univers visible que nous connaissons, constitué de baryons et de rayonnement, représente à peine 5% du contenu total de l'Univers.
4
C'est pourquoi aujourd'hui plusieurs projets dans le monde entier cherchent
à identier un signal observationnel qui proviendrait des interactions que cette matière pourrait avoir. En particulier, l'annihilation de la particule de matière noire
pourrait produire des rayons gammas, d'après les modèles les plus populaire au-delà
du modèle standard de la Physique des Particules. Ainsi, des eorts considérables
ont été déjà faits dans la construction des télescopes qui observent dans la plage de
rayonnement gamma, et plusieurs études ont été déjà menés dans le but d'identier
un signal provenant de la matière noire, cependant cela n'a pas été le cas, et la
nature de la matière noire reste un problème en ouvert.
Dans notre travail nous nous intéressons aux observations déjà eectués par
le télescope H.E.S.S.(High Energy Stereoscopic System en anglais), et surtout au
potentiel d'observation de la prochaine génération des télescopes basés sur sol, notamment le projet C.T.A.(Cerenkov Telescope Array en anglais).
Ce document a été organisé de façon à ce qu'il puisse reéter la démarche
eectuée lors de ce travail de recherche, notamment nous avons commencé par un
étude bibliographique pour donner les bases et les motivations théoriques pour le
choix des modèles qui seront utilisés par la suite, où nous avons attaqué le problème de la prédiction du potentiel qu'aurait le C.T.A. dans la recherche d'un signal
d'annihilation de matière noire. Ainsi dans la première partie de ce document nous
présentons les enjeux de la problématique de la détection indirecte de matière noire.
Nous décrivons tous les paramètres nécessaires dans la modélisation de la technique
d'observation, comme les propriétés astrophysiques et de physique des particules de
la matière noire. En suite nous parlons brièvement des télescopes utilisés. Et nous
nalisons la première partie en parlant les cibles potentiels.
Lors de la deuxième partie nous développons une prévision du potentiel
qu'aurait le C.T.A. dans la construction d'une carte de sensibilité d'un quart du ciel.
Nous faisons notre analyse sur des diérents modèles de distribution de la matière
noire sur l'échelle galactique et nous utilisons des vraies données observationnelles
du télescope H.E.S.S., qui nous a servi de brique élémentaire dans la modélisation
du réseau C.T.A.
Et nalement dans la troisième et dernière partie nous développons une
prévision de la sensibilité qu'aurait le C.T.A. dans la détection d'un signal d'annihilation de matière noire provenant d'un halo de matière noire d'une galaxie naines
sphéroïdale satellite de la Voie Lactée. De manière que nous donnons des prévisions
sur les contraintes que C.T.A. pourrait nous donner sur les modèles de particule de
matière noire, ainsi que sur les modèles de distribution de matière noire dans des
halos galactiques.
5
1 La Détection Indirecte de matière Noire
La détection indirecte de matière noire est la technique d'observation des
produits d'annihilation ou de désintégration de matière noire[1]. Parmi les plusieurs
produits nous pouvons citer des neutrinos, des positrons, des anti-protons et des
rayons gamma. Dans notre étude nous nous intéressons à la détection des rayons
gamma.
Pour observer des rayons gamma cosmiques directement, l'observation doit
être faite de l'espace. Dans la plage d'énergie d'importance (du GeV au TeV), les
photons interagissent avec la matière par création de pairs 𝑒+ 𝑒− , ce qui nous donne
une longueur d'interaction d'approximativement 38 g cm−2 , qui est beaucoup plus
courte que l'épaisseur de l'atmosphère de la Terre (1030 g cm−2 ). Ainsi, pour les
énergies qui nous considérons, les rayons gamma n'atteignent pas les télescopes sur
sol. Il existe néanmoins des techniques qui ont été développés pour détecter de façons indirecte les rayons gamma sur des télescopes basés sur sol.
Quand un photon interagit dans l'atmosphère ils produisent une cascade
électromagnét ique et des particules secondaires. Nous pouvons alors observer de façons indirecte les rayons gamma par la détection de ces particules secondaires et du
rayonnement, appelé rayonnement Cerenkov, dû au passage des ces rayons gamma
par l'atmosphère de la Terre.
Figure 1 Sensibilité des détecteurs actuelles et futures de l'astrophysique de rayons gamma.
La courbe grise au-dessous est celle attendu pour le réseau C.T.A., encore en phase de conception.
Les courbes sans nom sont celles de la sensibilité attendu pour un ensemble de télescopes de nombre
et tailles indiqués à coté. Entre parenthèse sont indiqués le champ de vue d'une caméra et le champ
de vue total de chaque télescope[CTA Collaboration ].
Le ux de rayon gammas dû l'annihilation de matière noire de masse 𝑚𝑋
dans un halo est donné par :
6
𝑑Φ𝛾
(𝐸𝛾 , ΔΩ) =
𝑑𝐸𝛾
où
[
]
𝑑𝑁𝛾 ⟨𝜎𝑣⟩
×
𝐽(ΔΩ)ΔΩ
cm−2 s−1 GeV−1
| {z }
𝑑𝐸 4𝜋𝑚2𝑋
|
{z
}
Facteur Astrophysique
Physique des Particules
(3)
1
𝐽(𝑙, 𝑏) =
ΔΩ
∫
∫
𝜌2 [𝑟(𝑠)]𝑑𝑠
𝑑Ω
ΔΩ
𝑙𝑜𝑠
(4)
où l'élément d'intégration 𝑑Ω = 𝑑𝜙𝑑(𝑐𝑜𝑠𝜃), et la deuxième intégrale se fait sur la ligne
de visée. La quantité ΔΩ correspond à l'angle solide d'observation. Cette quantité
dépend de la résolution angulaire des télescopes et s'exprime comme :
∫
𝜃𝑚𝑎𝑥
ΔΩ = 2𝜋 ×
𝑑𝜃𝑠𝑖𝑛𝜃 = 2𝜋(1 − 𝑐𝑜𝑠𝜃𝑚𝑎𝑥 ),
0
(5)
où 𝜃𝑚𝑎𝑥 désigne l'ouverture du cône d'angle solide et, dans notre cas, correspond à
une coupure à 2𝜎 de la courbe de résolution angulaire de l'instrument, ce qui vas
caractériser la résolution angulaire pour la recherche de signaux ponctuels. A partir
de maintenant c'est cette quantité que nous allons appeler résolution angulaire du
télescope.
1.1 Distribution spatiale(Facteur Astrophysique)
Le terme que nous appelons facteur astrophysique contient alors la dépendance du ux gamma attendu avec la concentration de matière noire dans l'halo.
Néanmoins la compréhension de comment cette matière est distribué dans ces structures en grande échelle est très méconnue. La description de l'évolution des structures partir des inhomogénéité primordiale est un tâche très dicile dû à l'action
de plusieurs processus qui ont eu lieu depuis cela, comme la dynamique du gaz, le
refroidissement radiatif, la photoionization, la récombinaison et le transfert radiatif.
De plus, toute prédiction théorique doit être en accord avec l'Univers observé.
L'approche la plus utilisée pour essayer de résoudre le problème de la formation de grandes structures est basé sur des simulation des N-corps. Ainsi l'évolution
des structures normalement est approché par des modèles de regroupement gravitationnelle non-linéaire à partir d'une condition initiale pour la matière noire, et peut
être rané en introduisant les eets de la dynamique du gaz, la chimie, le transfert
radiatif et autres processus astrophysiques.
Les simulation de N-corps plus récentes suggèrent l'existence d'un prole
universelle de matière noire, indépendant de la masse de la particule utilisé et de
l'époque. La paramétrisation pour la densité d'un halo de matière noire est
𝜌𝜒 (𝑟) =
𝑟𝛾 (𝑟
7
𝐴
.
+ 𝑟𝑠 )3−𝛾
(6)
o 𝐴 est une constante de normalisation et 𝑟𝑠 est un rayon caractéristique au-dessous
duquel le prole décroit en 𝑟−𝛾 . La normalisation est choisit tel que la masse contenue dans la sphère de rayon 𝑟𝑡 , égal au rayon tidal de la galaxie, soit celle estimé
par les observations.
Dans notre travail nous avons utilisé la paramétrisation faite par Navarro,
Frenk end White (NFW) [11], avec 𝛾 = 1 . D'autres paramétrisations ont été faites
comme celle de Moore et al. [12] avec 𝛾 = 1.5
Néanmoins, les modèles basés sur les simulations à N-corps restent numériques, donc avec une résolution qui dépends du pouvoir de calcule de l'ordinateur
utilisé, ce que donne une mauvaise résolution proche du centre(𝑟 = 0). De plus ces
simulations comportent uniquement des particules de matière noire, et ne prennent
pas en compte les baryons qui peuvent modier le propriétés des halos. C'est pourquoi nous avons aussi utilisé un autre modèle, celui-ci analytique, appelé modèle de
type c÷ur, caractérisé par la densité de masse :
𝜌𝑐𝑢𝑟 (𝑟) =
𝑣𝑎2 3𝑟𝑐2 + 𝑟2
.
4𝜋𝐺 (𝑟𝑐2 + 𝑟2 )2
(7)
où 𝑟𝑐 est le rayon du c÷ur, et 𝑣𝑎 une quantité appelée vitesse d'échelle. Ce prol
donne une courbe de rotation plate, attendu pour les halos de matière noire, pour
les grands rayons. Ce prol peut être déduit à l'aide de l'équation de Jeans, d'où
pour une galaxie sphéroïdale, la masse contenue dans un rayon 𝑟, 𝑀 (𝑟), est relié
aux donnés observationnelles par :
(
)
𝑟⟨𝑣𝑟 ⟩2 𝑑𝑙𝑜𝑔𝜈 𝑑𝑙𝑜𝑔⟨𝑣𝑟2 ⟩
𝑀 (𝑟) =
+
+ 2𝛽
(8)
𝐺
𝑑𝑙𝑜𝑔𝑟
𝑑𝑙𝑜𝑔𝑟
où, 𝜈 est la densité de luminosité, ⟨𝑣𝑟2 ⟩ est la dispersion des vitesses radiales des
étoiles, estimé par les observations, et 𝛽 est l'anisotropie du mouvement des étoiles.
Nous supposons que la dispersion des vitesses est constante et que l'anisotropie vaut
zero. Le prol de la densité de luminosité est donné par :
𝜈(𝑟) =
𝜈0 𝑟𝑐2𝛼
(𝑟𝑐2 + 𝑟2 )𝛼
(9)
où 𝜈0 est la valeur de la luminosité observé au centre. Un ajustement de ce prol
avec les observations nous donne 𝛼. Finalement à l'aide encore des observation nous
déterminons 𝑟𝑐 , et en introduisant la relation :
𝑣𝑎 =
√
2𝛼⟨𝑣𝑟2 ⟩
(10)
avec le prol de densité de luminosité dans l'équation de Jeans nous retrouvons
le prol de densité de masse de type c÷ur, donné par l'Eq. 7. Enn, nous devons
estimer l'extension de la galaxie ainsi que sa masse. Pour cela nous utilisons le critère
de Roche, qui nous donne la masse contenue dans un rayon 𝑟𝑡 , appelé rayon de marée
du halo, qui sera notre dénition de extension maximal de la galaxie naine. Ce critère
peut être exprimé de la façon suivante :
8
𝑀𝑑𝑆𝑝ℎ (𝑟𝑡 )
𝑀𝑉 𝐿 (𝑟𝑑𝑆𝑝ℎ − 𝑟𝑡 )
=
3
𝑟𝑡
(𝑟𝑑𝑆𝑝ℎ − 𝑟𝑡 )3
(11)
où 𝑀𝑑𝑆𝑝ℎ (𝑟) est la masse de la galaxie naine sphéroïdale contenue dans une sphère
de rayon 𝑟, 𝑟𝑑𝑆𝑝ℎ est la distance de la galaxie par rapport au centre de la Voie Lactée,
et 𝑀𝑉 𝐿 (𝑟) désigne la masse de la Voie Lactée contenue dans une sphère de rayon 𝑟.
Un prol NFW a également été supposé pour modéliser le halo de la Voie Lactée. Le
rayon de marée est alors calculé de manière itérative en utilisant aussi la formule :
∫ 𝑟𝑡
𝑀𝑑𝑆𝑝ℎ (𝑟𝑡 ) =
𝜌𝑑𝑆𝑝ℎ (𝑟)𝑑Ω
(12)
0
Pour les galaxies qui nous avons dû modéliser dans notre travail, Draco et Sagittarius
Dwarf, nous donnons les valeurs de tous ces paramètres, ainsi que la valeur de 𝐽 ,
dans les table Tab.1 pour le prol de type c÷ur et Tab.2 pour le prol de type NFW.
1.2 Candidats(Facteur de Physique des Particules)
Des observations astrophysiques et cosmologiques donnent des évidences très
fortes de l'existence d'une matière noire qui n'a eu que des interactions faibles avec
la matière et qui a été non-relativiste depuis l'époque où la température de l'Univers
était de l'ordre du MeV. Cette matière est appelé de façon générique "matière noire
froide" ou CDM (cold dark matter ). En eet cette matière serait formée de particules massives non-baryoniques interagissant faiblement, appelées génériquement
des "WIMPS" (weakly interacting massive particles).
Cependant, il n'existe plus de WIMP connu dans le zoo actuel des particules élémentaires, car la possibilité que les neutrinos soient la particule de matière
noire a été déjà exclue, et leur existence est une prévision hardie de la cosmologie.
Certaines extensions du modèle Standard de la physique des particules élémentaires
prévoient l'existence de WIMPs susamment lourds pour ne pas avoir encore été
détectés dans les accélérateurs. Un des exemples de classe de modèles qui prévoient
l'existence des wimps sont les modèles "supersymétriques".
Dans les modèles supersymétriques, chaque fermion (resp. chaque boson)
est apparié avec un partenaire supersymétrique qui est un boson (resp. un fermion).
Le partenaire supersymétrique le plus léger (LSP) est stable et ne peut avoir que
des interactions faibles, ce qui en fait un candidat idéal pour un WIMP. Parmi les
modèles supersymétriques nous choisissons de travailler avec son extension minimale
du modèle Standard, appelé MSSM(Minimal Supersymmetric Standard Model ). Le
MSSM est minimale dans le sens qu'il contient la plus petite quantité de champs nécessaires pour créer tous les champs du modèle Standard. La nature du LSP dans le
MSSM est contrainte par plusieurs observations, en particulier elle doit avoir charge
et couleur égale à zéro.
Un des candidats principales pour LSP sont les neutralinos qui sont les partenaires supersymétries des bosons de gauge 𝐵 et 𝑊3 et des bosons neutres de Higgs
9
𝐻10 et 𝐻20 . Ces particules sont souvent considérés comme étant leur propres antiparticule, ce qui rendrait possible la détection de signaux provenant de l'annihilation
de ces particules dans l'Univers.
Les principaux canaux d'annihilation des neutralinos donnent alors des paires
de femions-antifermion, des paires de bosons de jauge, et des états nals contenant des bosons de Higgs. Les sections ecaces sont calculées dans [20] et sont
de l'ordre de 10−26 cm3 s−1 , qui est bien la section ecace attendue par les modèles ΛCDM, pour être compatible avec la densité relique de matière noire mesurée
expérimentalement(Ω𝐶𝐷𝑀 ℎ2 ∼ 0.1) La relation entre la densité relique de WIMPs et
la section ecace d'annihilation peut être facilement retrouvé à l'aide de l'équation
de Boltzmann pour l'évolution de la densité comobile des WIMPs au moment du
gel des interactions [20], et nous donne :
Ω𝐶𝐷𝑀 ℎ2 ∼
3 × 10−27 𝑐𝑚3 𝑠−1
⟨𝜎𝑎𝑛𝑛 𝑣⟩
(13)
La détection indirecte de l'annihilation de neutralino consiste donc à rechercher un continuum de photons issus de l'hadronisation des produits de désintégration
des bosons de jauge de l'interaction faible. Une paramétrisation de ce continuum
d'annihilation des neutralinos en gammas est utilisé(paramétrisation de Bergström
et al.[9]) :
𝑑𝑁𝛾
𝑀𝜒 𝑑𝑁𝛾
0.73
=
= 1.5 𝑒−7.8𝑥
𝑑𝑥
𝑑𝐸𝛾
𝑥
(14)
avec 𝑥 = 𝐸𝛾 /𝑀𝜒 , où 𝐸𝛾 est l'énergie du photon et 𝑀𝜒 la masse du neutralino. Ce
spectre suit typiquement une loi de puissance d'indice spectral 1.5, avec une coupure exponentielle à la masse du neutralino. Cette paramétrisation ajuste bien les
simulations PYTHIA [16] de l'annihilation de neutralinos massifs à forte composante higgsino. Ce spectre a l'avantage de reproduire de façon moyenne un spectre
d'annihilation de neutralinos quelconques, car celui-ci est intermédiaire aux spectre
extremum d'annihilations(en terme de ux) dans les modèles MSSM. Ces spectres
extremum correspondent aux canaux d'annihilation 𝜒𝜒 → 𝜏 + 𝜏 − et 𝜒𝜒 → 𝑏𝑏. Ces
spectres ont été paramétrés par Fornengo et al. [3], à l'aide aussi du code Monte
Carlo PYTHIA [16] :
𝑑𝑁𝛾𝑖
2
3
= 𝜂𝑥𝑎 𝑒𝑏+𝑐𝑥+𝑑𝑥 +𝑒𝑥
(15)
𝑑𝑥
o 𝑥 = 𝐸𝛾 /𝑚𝐷𝑀 et 𝑖 identie quarks, W, Z et gluons. La valeur de 𝜂 est 2 pour
les états nals en W, Z et en top quark, et 1 autrement. Cependant l'ajustement
n'a été fait que pour deux masses diérentes 500 GeV et 1 TeV. Dans notre analyse
nous avons aussi utilisé, dans un souci de comparaison, cette paramétrisation pour
une particule de matière noire de masse 1 TeV s'annihilant sur 𝑏𝑏, les valeurs sont
(𝜂, 𝑎, 𝑏, 𝑐, 𝑑, 𝑒) = (1, 1.50, 0.37, −16.05, 18.01, −19.50).
10
Figure 2 Réseau de télescopes H.E.S.S.
1.3 Détecteurs Cherenkov atmosphérique
1.3.1 Le réseau H.E.S.S.
L'expérience HESS est un réseau de quatre télescopes pour l'imagerie Cherenkov des gerbes atmosphériques initiées par les particules du rayonnement cosmique dans l'atmosphère. Cet instrument a été construit courant 2003 pour l'étude
de sources astrophysiques émettent des photons 𝛾 de très haute énergie(> 100 GeV),
ou VHE(Very High Energy ). Il est localisé dans les Colines de Khomas en Namibie,
à une altitude de 1800 m au-dessus du niveau de la mer. Les télescopes sont des réecteurs optiques de 107 m2 composés de 382 miroirs circulaires (Fig. 2). La lumière
Cherenkov émise par les particules chargés dans la gerbe électromagnétique initié
par un rayon gamma primaire est focalisé sur une caméra équipé de 960 photomultiplicateurs avec un champ de vue de 0.16∘ chacun. Le champ de vue total de H.E.S.S.
est alors de 5∘ , et des techniques stéréoscopiques nous permettent de reconstruire
les directions et l'énergie des rayons gammas primaires. H.E.S.S. a une résolution
angulaire de 0.14∘ à 2𝜎 et une surface eective qui dépends de l'angle zénithal et de
l'énergie. Un exemple de la surface eective en fonction de l'énergie est donné dans
la Fig. (4b), pour un angle zénithal de 14∘ .
1.3.2 C.T.A. : la prochaine génération
Le projet C.T.A. prévoit la construction d'un réseaux d'environs 100 télescopes pour l'imagerie Cherenkov. Ce projet est cependant toujours en phase de
conception pour chercher la meilleur façons de dispositions des télescopes dans le
réseau(Fig.3). Le premier projet suppose la construction des ces 100 télescopes à 3
11
Figure 3 Modèle de disposition des télescopes dans le réseau C.T.A. ainsi que leurs tailles.
Effective Area (m2)
Effective Area Histogram pour CTA
108
107
6
10
105
104
103
102
10
1
-1.5
-1
-0.5
0
0.5
1
1.5
2
log10(Energy/1TeV)
(a) C.T.A.
(b) H.E.S.S.
Figure 4 Surfaces eectives en fonction de l'énergie
tailles diérentes, ce que pourrait augmenter la plage d'énergies accessibles ainsi que
la sensibilité en ux. Les performances de ce premier design pour C.T.A. ont été
simulés par des outils de type Monte Carlo [22]. Cela nous a donné une résolution
angulaire de l'ordre de 0.06∘ , qui corresponds à une résolution 2 à 3 fois meilleur
que H.E.S.S., et une dépendance de la surface eective en énergie qui est donné par
la Fig. (4a), avec des valeurs de l'ordre de 106 m2 à des énergie entre 100 GeV et
100 TeV, qui corresponds à un ordre de grandeur meilleur que la surface eective de
H.E.S.S., en plus de permettre la détection des photons gammas avec des énergies
aussi basses que 30 GeV.
12
1.4 Cibles privilégiées
Le choix des cibles est d'une importance majeur dans les recherches des
signaux de matière noire. Les premières propositions de cibles se sont concentré sur
le Centre Galactique, dû à la supposition que l'halo de matière noire de la Voie Lactée
aurait une densité beaucoup plus importante dans ces régions centrales. Plusieurs
paramétrisations du prol central de la Voie Lactée avec des densités très prononcé
ont été proposés, surtout en extrapolant les prol déjà cités ci-dessus. Néanmoins
aucun de ces prols a été conrmé par les observation des trajectoires des étoiles
près du centre galactique. En plus les diérentes paramétrisations nous donnent des
résultats très diérents entre elles, pour les régions centrales, ce que nous donne
encore plus d'incertitudes dans les analyses du Centre Galactique. Par ailleurs, le
Centre Galactique est une régions très riche en émetteurs de rayons gammas, comme
les restes de supernova, le trou noir super massif Sgr A∗ , des nouvelles sources
détectés par H.E.S.S., et encore les interactions des rayons cosmiques chargés qui
créent une émission diuse de rayon gamma. C'est pour toutes ces raisons là que pour
notre travail nous nous intéressons surtout à d'autres cibles potentielles d'émission
des rayons gamma par annihilation de CDM, où nous avons moins de bruit de fond
gamma astrophysique standard.
1.4.1 Galaxies Naines, satellites de la Voie Lactée
Les sources les plus prometteuses sont alors les galaxies naines sphéroïdales,
ou dSph(Spheroïdal Dwarf Galaxy en anglais), du Groupe Local, dû à ses grands
rapport masse-luminosité et ses petites distances. Parmi les plus proches sont Draco,
Sagittarius et Canis Major, localisés respectivement à 80, 24 et 8 kpc du Soleil. Il n'y
a pas encore des réponses dénitives sur les prols de distribution des densités de
CDM dans ces galaxies, c'est pourquoi nous supposons, dans toutes nos analyses le
prol de type NFW aussi bien que le prol de type c÷ur. Le rapport des ux attendus
entre les dSphs et le Centre Galactique, calculés pour un prol de type NFW, sont de
0.03,0.15 et 0.5 pour Draco, Sagittarius et Canis Major, respectivement [24]. Malgré
un plus petit ux par rapport au ux du Centre Galactique, ces objets sont des
environnements beaucoup moins complexes et ils ont un bruit de fond astrophysique
beaucoup moins important.
1.4.2 Les grumeaux de matière noire(Clumps )
Une autre cible très prometteuse sont les grumeaux de matière noire, appelés Clumps en anglais, qui seraient des régions de sur-densité de matière noire dans
notre galaxie. Ces régions sont prédites par toutes les simulation semi-analytiques
de formation dynamique de halo, comme Via-Lactea et Aquarius. Plusieurs sources
de rayons gammas non-identiés ont été détecté par H.E.S.S., malgré la limitation
de son champ de vue pour les relevés astronomiques. Des analyses du spectre des ces
sources ont été mené et les résultats sont des lois de puissances avec indice spectral
entre 2.0 et 2.5. Cependant aucune de ces sources montre une coupure, caractéristique nécessaire d'un spectre d'annihilation de CDM, ce que nous fait exclure ces
sources comme candidates à Clump, au moins dans les plages d'énergies de H.E.S.S..
C'est pourquoi nous nous avons intéressé dans un premier temps à la possibilité d'uti13
liser le projet C.T.A pour eectuer un balayage d'une partie importante du ciel(un
quart). Car dans le cas d'une absence de candidats Clump cela nous restreindra très
fortement les possibles candidats de particule pour la CDM.
14
2 Calcul des cartes de sensibilité
Le but de notre première analyse a été de prédire le potentiel qu'aurait CTA
dans la construction d'une carte de sensibilité pour un quart du ciel et le temps
qui serait nécessaire pour cela. C'est dans ce but que nous faisons l'approximation
conservative de considérer le CTA comme un réseaux de 25 HESS-like télescopes
indépendants. De ce fait nous pourrions observer, a priori, 25 champs de 5∘ x5∘ simultanément, ce que nous donnerait un total d'environ 520 heures d'observation
pour tout le CTA, en supposant que l'on passe 20 heures avec chaque HESS-like télescope sur chaque champ pour avoir tout le quart du ciel, à une sensibilité moyenne
de 10−12 cm−2 s−1 .
Cependant, pour que l'on ait la même sensibilité moyenne pour toute la
carte avec le même temps d'observation, il faudrait savoir si elle change signicativement avec la latitude, vu qu'en première approximation il n'y a aucune raison pour
qu'elle change selon la longitude. Car si c'est le cas, nous aurions besoin de changer
la stratégie d'observation selon la latitude du champ d'observation. Cette analyse a
été faite et l'explication de la démarche ainsi que le résultat et les conclusion sont
donnés dans les prochaines sections.
2.1 Analyse des données
Pour les analyses faites dans notre travail nous nous sommes intéressés à
quatre champs observés par HESS : Sagittarius Dwarf, Canis Major Dwarf, Sculptor et NGC 1399. Le choix des champs a été fait de tel façons à ce que nous pouvions
panner presque toutes les plages de latitudes galactiques pour un quart du ciel, avec
ses latitudes variant entre 2∘ e 89∘ . L'angle zénithal moyen a été calculé pour chaque
champ et d'après cet angle zénithal nous avons récupéré les courbes d'acceptance
pour chaque champ. Un exemple a été déjà montré dans la Figure 4b.
Après l'étalonnage des images des gerbes atmosphériques, une analyse combiné des types Model-Hillas est utilisé pour sélectionner les candidats gamma. La
méthode de Hillas est basée sur le calcul des moments géométriques de Hillas [23].
La méthode Model est basée sur la comparaison pixel par pixel de l'image avec un
modèle semi-analytique qui donne la distribution, dans le plan focal des caméras,
de la lumière émise par une cascade initiée par un gamma.
L'analyse des données a été faite avec ces deux méthodes pour améliorer
le rejet du fond hadronique. De plus il y a une coupure supplémentaire sur la profondeur d'interaction primaire, pour améliorer encore le rejet du fond. Finalement,
après le nettoyage des images, la direction, l'énergie, le paramètre d'impacte et le
point d'interaction primaire sont reconstruits pour chaque évènement gamma. Enn, nous arrivons à une résolution en énergie de 15% et une résolution angulaire de
0.1∘ . Le fond gamma est estimé par la méthode template. Cela nous permet d'avoir
le niveaux de fond pour chaque point de notre champ.
15
2.2 Construction des cartes
Pour construire les cartes de sensibilité, nous avons eu besoin des données
suivantes :
∙ la carte des rayons gammas observés
∙ le fond mesuré normalisé
∙ la carte d'exposition eective (en seconde)
∙ la carte d'acceptance de gammas (en cm2 )
La carte des rayons gammas est obtenu d'après les procédures de sélection d'événements et de reconstruction décrites ci-dessus. Le fond est estimé pour chaque point
de notre champ, ce que nous donne une carte avec le taux de fond pour chaque bin
et nous le normalisons par la relation :
𝑁 𝑜𝑟𝑚
𝑁𝐵𝑘𝑔
(𝑏, 𝑙) = 𝑁𝐵𝑘𝑔 (𝑏, 𝑙) ×
𝐴𝑐𝑐𝛾 (𝑏, 𝑙)
𝐴𝑐𝑐ℎ (𝑏, 𝑙)
(16)
où l'acceptance des événements gammas, 𝐴𝑐𝑐𝛾 , et celle des événements hadrons,
𝐴𝑐𝑐ℎ , sont calculés pour chaque point du champ étudié.
Avec les cartes de rayons gammas et les cartes de fond normalisés nous pouvons construire les cartes de sensibilité en fonction d'une limite supérieur de niveaux
de conance, où C.L.(Condence Level ). Cette limite est nécessaire car nous n'avons
pas où de détection d'excès de signal provenant du champ observé, donc nous devons
faire une estimation de la limite supérieur du nombre de rayons gammas observés.
L'estimation est faite en utilisant la méthode développé par Feldman et Cousins [21].
Finalement, à l'aide de la carte d'exposition et de la carte d'acceptance,
nous déterminons la carte de sensibilité à un ux de rayons gammas provenant
d'une annihilation de matière noire par[?] :
(𝑏, 𝑙)
Φ95%𝐶.𝐿.
𝛾
=∫
𝑇𝑜𝑏𝑠
∫ 𝑚𝐷𝑀
0
∫ 𝑚𝐷𝑀
𝑑𝑁
(𝐸𝛾 )𝑑𝐸𝛾
𝑑𝐸𝛾
𝑑𝑁
𝐴𝑒𝑓 𝑓 (𝐸𝛾 , 𝑧(𝑏, 𝑙), 𝜃(𝑏, 𝑙)) 𝑑𝐸
(𝐸𝛾 )𝑑𝐸𝛾 𝑑𝜏
𝛾
𝑁𝛾95%𝐶.𝐿 (𝑏, 𝑙)
𝐸𝑡ℎ
(17)
Où 𝐴𝑒𝑓 𝑓 est la surface eective pour les rayons gammas et qui dépend de l'énergie 𝐸𝛾
et de la position (𝑏, 𝑙). L'intégration en 𝑑𝜏 est faite sur le temps total eectif 𝑇𝑜𝑏𝑠 . Le
spectre d'annihilation d'une particule de matière noire de masse 𝑚𝐷𝑀 utilisé a été
celui des photons secondaires paramétré dans Fornengo et al.[3]. Le seuil en énergie
pour l'intégration a été de 200 GeV, choisit par l'analyse de la courbe d'acceptance
en fonction de l'énergie, que nous donne une énergie d'environ 200 GeV à 95% du
maximum de l'acceptance.
Dans la Fig. 5 nous voyons les quatre cartes de sensibilités calculées en coordonnées galactiques. De sorte que nous puissions voir le potentiel de C.T.A. pour
16
Carte de sensibilite: Sculptor
Carte de sensibilite: Canis Major D
-81.5
-6.5
-82
Φγ
-83.5
10-11
-8
-8.5
Φγ95% C.L.[cm-2 s -1]
95% C.L.
latitude
10-11
-83
-7.5
latitude
[cm-2 s -1]
-7
-82.5
-84
-9
-84.5
10-12
60
65
70
75
longitude
80
-9.5
85
118.5
119.5 120 120.5
longitude
121
121.5
Carte de sensibilite: SagittariusD
Carte de sensibilite: NGC1399
10
-10
-52
-12.5
-52.5
10-11
-54
-13.5
latitude
latitude
-53.5
Φγ95% C.L.[cm-2 s -1]
-13
-53
10-11
-14
-14.5
-54.5
-15
-55
-15.5
-55.5
119
Φγ95% C.L.[cm-2 s -1]
-85
10-12
10-12
10-12
121
122
123
124
longitude
125
-7.5
126
-7
-6.5
-6
-5.5
longitude
-5
-4.5
-4
Figure 5 Cartes de sensibilités
analyser le quart du ciel, nous avons normalisé le temps d'observation de toutes
les cartes à 20 heures d'observation. Bien que les champs observés sont des champs
"vides", cela veut dire qu'il n'y a aucune source détectée, nous observons des inhomogénéités dû à l'inhomogénéité du bruit de fond. Des sensibilités de l'ordre de
10−12 cm−2 s−1 , en dessus de 200 GeV, sont atteintes dans tous les champs.
La Fig. 6 nous montre un histograme avec la distribution des sensibilités
par bin de chaque champ de vue. Finalement nous pouvons voir que la sensibilité
moyenne ne varie pas signicativement selon la latitude. Par conséquent la stratégie
recherchée pour avoir une carte complète d'un quart de la galaxie n'a pas besoin
d'être diérente selon la latitude. Enn, une stratégie qui consisterait à séparer le
C.T.A. en 25 HESS-like télescopes, chacun dédié à un champ diérent de la galaxie,
pourrait nous donner une carte de sensibilité complète d'un quart du ciel, avec des
sensibilités moyennes de l'ordre de 10−12 cm−2 s−1 dans toute la carte avec environ
520 heures d'observation dédiées à ce sondage.
Ainsi, avec un temps d'observation très raisonnable pour les télescopes de
rayonnement Cerenkov, nous montrons que cela sera possible de créer une carte
de sensibilité pour un quart du ciel en utilisant la stratégie proposée. Cette carte
sera très utile, surtout dans le cas où aucune détection de clump sera faite, car
en comparant avec les modèles semi-analytiques de formation des clumps dans la
Voie-Lactée nous pourrons contraindre très fortement les paramètres de la matière
noire.
17
Distribution des sensibilites: Sculptor
Carte de sensibilite: Sculptor
-81.5
800
-82
700
600
10 -11
-83
95% C.L.
-83.5
[cm -2 s -1]
latitude
-82.5
400
300
200
Φγ
-84
500
100
10 -12
-84.5
0
-85
60
65
Carte de sensibilite: NGC1399
-52
70
75
80
85
10
95% C.L.
Φγ
[cm-2 s-1]
10 -11
Distribution des sensibilites: NGC1399
500
-53
-53.5
95% C.L.
10-11
[cm -2 s -1]
-52.5
latitude
10-12
-10
300
200
Φγ
-54
400
-54.5
100
-55
10-12
-55.5
121
122
123
124
125
0
126
10-12
95% C.L.
Φγ
Carte de sensibilite: SagittariusD
-2
10 -11
10
[cm s-1]
Distribution des sensibilites: SagittariusD
-12.5
350
-13.5
95% C.L.
-11
-14
Φγ
latitude
10
[cm -2 s -1]
-13
-14.5
300
250
200
150
100
-15
50
-15.5
10 -12
0
-7.5
-7
-6.5
-6
-5.5
-5
-4.5
10-12
95% C.L.
Φγ
-4
Carte de sensibilite: Canis Major D
-2
[cm s-1]
10-11
Distribution des sensibilites: CanisMajorD
-6.5
350
10-11
95% C.L.
-8
Φγ
latitude
-7.5
[cm -2 s -1]
-7
-8.5
300
250
200
150
100
-9
10-12
-9.5
50
0
118.5
119
119.5
120
120.5
121
121.5
-12
10
-11
95% C.L.
Φγ
[cm-2 s-1]
10
Figure 6 A gauche les cartes de sensibilités distribues selon leurs latitudes verticalement. Et
a droite la distribution des sensibilités par bin de chaque carte.
18
-10
3 Contraintes de C.T.A. pour les ux d'annihilation
La deuxième analyse faite consiste à prédire le potentiel qu'aurait C.T.A.
dans l'analyse d'une seule source, en pointant tous les télescopes vers cette cible, et
estimer sa sensibilité en ux. Les deux sources étudiées ont été Sagittarius dSph et
Draco dSph, deux galaxies naines sphéroïdales. L'intérêt d'étudier les naines sphéroïdales a déjà été discuté dans la partie 1.4.2. Et nous nous intéressons à contraindre
les paramètres de physique de particules d'une particule de matière noire de l'halo
de ces galaxies.
3.1 Sensibilité au ux d'annihilation de matière noire
En première approximation, la signicance d'une détection sera donné par :
𝑁𝛾
2𝑁𝑏𝑘𝑔
(18)
𝑆=√
où 𝑁𝛾 est le nombre de photons détectés et 𝑁𝑏𝑘𝑔 est le nombre de photons de fond.
Pour cette analyse nous voulions estimer la sensibilité pour une plage entière des
masse de neutralino, comme candidat à la matière noire. Nous avons utilisé alors
la paramétrisation du spectre d'annihilation d'un neutralino du MSSM faite par
Bergström et al.[9]. D'autre part, le nombre des photons collectés par le télescope
peut être exprimé par :
∫ ∞
𝑑Φ𝛾
𝑁𝛾 = 𝑇𝑜𝑏𝑠
𝐴𝑒𝑓 𝑓 (𝐸𝛾 )
𝑑𝐸𝛾
(19)
𝑑𝐸𝛾
0
où 𝐴𝑒𝑓 𝑓 (𝐸𝛾 ) est la surface eective de C.T.A. en fonction de l'énergie, dans le zénith,
donné dans la Fig. 4a. Le temps d'observation 𝑇𝑜𝑏𝑠 utilisé a été de 20 heures, et le ux
diérentiel d'annihilation de matière noire 𝑑Φ𝛾 /𝑑𝐸𝛾 a été calculé à l'aide de l'Eq.
3. En utilisant l'Eq. 14 et l'Eq. 19, dans l'expression de 𝑑Φ𝛾 /𝑑𝐸𝛾 , nous calculons la
section ecace minimale, qui sera donnée par :
√
𝑆𝑚2𝜒 2𝑁𝑏𝑘𝑔
4𝜋
⟨𝜎𝑣⟩𝑚𝑖𝑛 =
(20)
∫
𝛾
𝐽(ΔΩ)ΔΩ 0𝑚𝐷𝑀 𝐴𝑒𝑓 𝑓 (𝐸𝛾 ) 𝑑𝑁
(𝐸𝛾 )𝑑𝐸𝛾
𝑑𝐸
𝛾
Dans la plage d'énergies qui nous intéressent la source major de bruit de fond sont
les hadrons. Le nombre d'événements hadroniques qui vont être détectés sera donné
par :
∫ ∫ 𝑚𝐷𝑀
𝑑Φ𝑏𝑘𝑔
𝑑𝐸𝛾 𝑑Ω
(21)
𝑁𝑏𝑘𝑔 = 𝑇𝑜𝑏𝑠
𝐴𝑒𝑓 𝑓 (𝐸𝛾 )
𝑑𝐸𝛾 𝑑Ω
ΔΩ 0
où[24]
𝑑Φ𝑏𝑘𝑔
(𝐸) = 16.47 × 10−3
𝑑𝐸𝛾 𝑑Ω
(
19
𝐸
1𝐺𝑒𝑉
)−2.7
[cm−2 s−1 sr−1 ]
(22)
3.2 Calcul des courbes de sensibilités
Les paramètres de structure des galaxies naines sphéroïdales ont été pris de
[17] pour Sagittarius Dwarf et de [18] pour Draco. Ces paramètres sont montrés dans
les tableaux (1) et (2). Pour le calcule de 𝐽(ΔΩ) nous avons utilisé ΔΩ = 3 × 10−6 ,
qui correspond à la résolution angulaire de C.T.A., cette valeur a été calculé et on
la donne dans la dernière colonne des tableaux (1) et (2).
Galaxie
𝑣𝑎 km s−1
𝑟𝑐 kpc
𝑟𝑡 kpc
𝑀 (𝑟𝑡 ) ÷ 108 𝑀⊙
𝐽 (1024 GeV2 cm−5 )
Sgr dSph
Draco dSph
13.4
22.9
0.0015
0.23
0.51
1.4
3.0
9.5
398
0.29
Table 1 Paramètres pour le prol de type C÷ur et valeur de 𝐽(ΔΩ) pour les deux galaxies à
un angle solide de ΔΩ = 3 × 10−6 sr
Galaxie
𝐴 × 107 𝑀⊙
𝑟𝑠 kpc
𝑟𝑡 kpc
𝑀 (𝑟𝑡 ) ÷ 108 𝑀⊙
𝐽 (1024 GeV2 cm−5 )
Sgr dSph
Draco dSph
3.3
3.3
0.62
0.62
0.57
1.6
3.5
6.6
6.8
1.54
<σ v > (cm 3 s-1)
Table 2 Paramètres pour le prol NFW et valeur de 𝐽 (ΔΩ) pour les deux galaxies à un angle
solide de ΔΩ = 3 × 10−6 sr
10-23
10-24
10-25
10-26
10-27
NFW profile
-28
10
10-29
Cored profile
-1.5
-1
-0.5
0
0.5
1
1.5 m 2
log10( DM)
TeV
Figure 7 Draco
Avec les valeurs de 𝐽 nous avons pu calculer les courbes de sensibilité de
C.T.A. à 5𝜎 (𝑆 = 5) de limite d'exclusion. Les résultat sont montrés dans les Fig. (7)
pour Draco et Fig. (8) pour Sgr Dwarf. Les résultats pour SgrD nous donnent des
sensibilités aussi basses que 𝑂(10−26 ) cm3 s−1 avec un prol de type NFW et aussi
20
<σ v > (cm 3 s-1)
10-23
10-24
10-25
10-26
10-27
NFW profile
10-28
Cored profile
-29
10
-1.5
-1
-0.5
0
0.5
1
1.5 m 2
log10( DM)
TeV
Figure 8 Sagittarius
basses que 𝑂(10−28 ) cm3 s−1 avec un prol de type C÷ur. Cela pourra nous donner
des contraintes très fortes, surtout dans la plage des particules de CDM qui viennent
de l'analyse de l'anisotropie du fond dius cosmologique par WMAP. Ces particules
doivent avoir des masses entre quelques dizaines à quelques centaines de GeV, avec
des sections ecaces de l'ordre de 10−26 cm3 s−1 , ce qui tombe exactement dans nos
limites d'exclusions. En ce qui concerne les résultat pour Draco nous avons trouvé
des sensibilités aussi basses que 𝑂(10−26 ) cm3 s−1 avec un prol du type NFW et
aussi basses que 𝑂(10−25 ) cm3 s−1 avec un prol de type C÷ur, ce qui n'est pas
beaucoup mieux que les limites d'exclusions que nous avons aujourd'hui. Cela vient
surtout du fait que Draco est beaucoup plus éloigné que SgrD, donc le ux reçu de
cette galaxie ne serait pas susant pour donner des contraintes beaucoup plus fortes
sur les modèles de CDM que celles que nous avons déjà.
3.3 Variation de 𝐽 en fonction de Ψ
Une dernière analyse a été encore faite. Elle a consisté à analyser la variation
de 𝐽 en fonction de la direction Ψ dans le ciel, où nous considérons Ψ = 0 le centre
de la galaxie naine. Le but de cette analyse a été de vérier si les deux prol utilisés,
NFW et C÷ur, nous donnerait des diérences très signicatives de ses variations,
pour que l'on puisse les distinguer une fois xés les paramètres de physique de particule de la CDM.
Les résultats sont montrés dans la Fig. (9) pour les variations dans Sagittarius Dwarf,
et dans la Fig. (10) pour Draco. Nous pouvons voir qu'eectivement, les observations dans les régions plus centrales sont celles qui donnent une diérence beaucoup
plus importante. C'est dans ces régions alors que nous devons mener les observations
futures pour que l'on puisse distinguer un prol de l'autre.
21
Figure 9 Sagittarius
Figure 10 Draco
22
4 Conclusion
Le projet C.T.A. est un projet toujours en phase de conception, néanmoins
il demeure comme une des plus grandes promesses dans la prochaine génération des
télescopes Cherenkov basés au sol. Les recherches menées par les instruments actuels
n'ont toujours pas abouti à "voir" un signal de l'annihilation de la matière noire.
Nous avons donné des prévisions sur le potentiel du C.T.A. pour des diérents types de stratégies d'observations qui pourraient mettre en évidence la nature
de la matière noire, ainsi que sa distribution dans les grandes structures de l'Univers. En particulier nous avons estimé le temps qui serait nécessaire pour que C.T.A.
construise une carte de sensibilité d'un quart du ciel avec une sensibilité moyenne de
10−12 cm2 s−1 . Pour cela nous avons proposé une stratégie d'observation qui consistait
à considérer le réseaux de télescopes de C.T.A. comme un ensemble de 25 télescopes
similaires au H.E.S.S. et indépendants entre eux. Nous avons dû étudier alors la
variation de la sensibilité de H.E.S.S. à un signal gamma par rapport à la latitude
galactique a partir des vraies données, pour savoir si nous devions changer la stratégie d'observation selon la région observée. La sensibilité s'est montrée à peu près
constante en fonction de la latitude. Nous concluons alors que pour avoir la même
sensibilité moyenne dans toute la carte la stratégie utilisée ne dépendra pas de la
région galactique. Notamment l'utilisation d'un réseau de 25 HESS-like télescopes,
où chacun observerait une région diérente du ciel nous donnerait un temps total
d'environs 520 heures d'observation dédiées à ce sondage.
Ensuite nous avons étudié la sensibilité qu'aurait C.T.A. à un signal de matière noire provenant de son annihilation à l'intérieur de l'halo de galaxies naines
sphéroïdales, satellites de la Voie Lactée. A ce propos nous avons pris les modélisations des halos de matière noire de deux naines sphéroïdales très prometteuses
comme cibles de détection, Draco et Sagittarius Dwarf. Ainsi nous avons pu donner
les contraintes sur la masse et la section ecace que nous aurions dans le cas où la
particule de matière noire est un neutralino du MSSM. Les contraintes retrouvées
sont très fortes, puisque même dans le cas d'une distribution de densité de matière
noire moins piquée vers le centre des galaxies nous retrouvons des sections ecaces
plus petites que 10−26 cm3 s−1 pour des masses d'un neutralino entre quelques dizaines à quelques centaines de GeV.
Et enn une dernière analyse sur la capacité de discrimination entre deux
prols diérents d'halo de matière noire selon la direction par rapport au centre de
la galaxie naine sphéroïdal nous montre que les observations vers le centre de ces
galaxies sont de fait la meilleure stratégie
En dénitive, la mise en ÷vre de nouvelles stratégies de détection et de
discrimination d'un signal provenant de la matière noire s'avèrent nécessaires vis à
vis de l'échec actuel de cette démarche. Cependant, cela doit être accompagné de
la mise à disposition de télescopes de nouvelle génération. C'est le cas du projet
en développement C.T.A., qui, comme nous l'avons montré dans ce travail, pourra
contraindre de façon très signicative la nature de la matière noire, en utilisant les
bonnes stratégies d'observation.
23
Références
[1] E. Moulin et al., Phys. Rev. D 77 (2008) 055014 [arXiv :0712.3151 [astro-ph]].
[2] G. Bertone, D. Hooper and J. Silk, Phys. Rept. 405, 279 (2005) [arXiv :hepph/0404175].
[3] P. D. Serpico and G. Zaharijas, arXiv :0802.3245 [astro-ph].
[4] N. Fornengo, L. Pieri and S. Scopel, Phys. Rev. D 70, 103529 (2004) [arXiv :hepph/0407342].
[5] G. Bertone, W. Buchmuller, L. Covi and A. Ibarra, JCAP 0711, 003 (2007)
[arXiv :0709.2299 [astro-ph]].
[6] W. Buchmuller, L. Covi, K. Hamaguchi, A. Ibarra and T. Yanagida, JHEP
0703, 037 (2007) [arXiv :hep-ph/0702184].
[7] G. Zaharijas and D. Hooper, Phys. Rev. D 73, 103501 (2006) [arXiv :astroph/0603540].
[8] M. Regis and P. Ullio, arXiv :0802.0234 [hep-ph].
[9] A. Ibarra and D. Tran, Phys. Rev. Lett. 100, 061301 (2008) [arXiv :0709.4593
[astro-ph]].
[10] L. Bergstrom, P. Ullio and J. H. Buckley, Astropart. Phys. 9, 137 (1998)
[arXiv :astro-ph/9712318].
[11] F. Stoehr, S. D. M. White, V. Springel, G. Tormen and N. Yoshida, Mon. Not.
Roy. Astron. Soc. 345, 1313 (2003) [arXiv :astro-ph/0307026].
[12] J. F. Navarro, C. S. Frenk and S. D. M. White, Astrophys. J. 462, 563 (1996)
[arXiv :astro-ph/9508025].
[13] B. Moore, C. Calcaneo-Roldan, J. Stadel, T. Quinn, G. Lake, S. Ghigna and
F. Governato, Phys. Rev. D 64, 063508 (2001) [arXiv :astro-ph/0106271].
[14] A. V. Kravtsov, A. A. Klypin, J. S. Bullock and J. R. Primack, Astrophys. J.
502, 48 (1998) [arXiv :astro-ph/9708176].
[15] M. Gustafsson, E. Lundstrom, L. Bergstrom and J. Edsjo, Phys. Rev. Lett. 99,
041301 (2007) [arXiv :astro-ph/0703512].
[16] S. D. Hunger et al., Astrophys. J. 481 (1997) 205.
[17] T. Sjostrand, Comput. Phys. Commun. 82 (1994) 74.
[18] :. F. Aharonian [HESS Collaboration], Astropart. Phys. 29 (2008) 55
[arXiv :0711.2369 [astro-ph]].
[19] N. W. Evans, F. Ferrer and S. Sarkar, Phys. Rev. D 69 (2004) 123501
[arXiv :astro-ph/0311145].
[20] M. I. Wilkinson, J. Kleyna, N. W. Evans and G. Gilmore, Mon. Not. Roy.
Astron. Soc. 330 (2002) 778 [arXiv :astro-ph/0109451].
[21] G. Jungman, M. Kamionkowski and K. Griest, Phys. Rept. 267 (1996) 195
[arXiv :hep-ph/9506380].
[22] Feldman, Gary J. and Cousins, Robert D. Phys. Rev. D 57 (1998) 3873
[arXiv :physics/9711021v2]
[23] K. Bernloehr, AIP Conf. Proc. 1085 (2009) 874 [arXiv :0810.5722 [astro-ph]].
24
[24] Hillas A.M., In proceedings of the 19𝑡ℎ ICRC, La Jollan, 1985
[25] F. Aharonian et al. [HESS Collaboration], Phys. Rev. D 78 (2008) 072008
[arXiv :0806.2981 [astro-ph]].
[26] F. Aharonian et al. [H.E.S.S. Collaboration], Phys. Rev. Lett. 97 (2006) 221102
[Erratum-ibid. 97 (2006) 249901] [arXiv :astro-ph/0610509].
25
Téléchargement