ÉCOLE NORMALE SUPÉRIEUR DE LYON ÉCOLE POLYTECHNIQUE PROMOTION X2005 Master 2 VIANA Aion RAPPORT DE STAGE DE RECHERCHE Étude du potentiel de découverte de la matière noire avec un grand réseau de télescopes Cherenkov NON CONFIDENTIEL Option : Physique Champ de l'option : Astrophysique des Particules Directeur du master : Thierry DAUXOIS Directeur de stage : Emmanuel MOULIN Dates de stage : du 20/04/09 au 20/08/09 Adresse de l'organiséme : CEA Saclay DSM/IRFU/SPP Bât 141 F-91191 Gif sur Yvette Cedex FRANCE Résumé Dans ce travail nous avons étudié le potentiel de découverte de la Matière Noire avec la nouvelle génération de télescopes de rayonnement Cherenkov. Notamment avec le projet C.T.A.(Cherenkov Telescope Array en anglais), aujourd'hui en phase de conception. Deux types d'analyse de stratégie d'observation ont été traitées. La première donne une prévision du potentiel qu'aurait C.T.A. dans la construction d'une carte de sensibilité au ux de rayons gammas, pour un quart du ciel et le temps qui serait nécessaire pour cela. La deuxième analyse faite consiste à prédire le potentiel qu'aurait C.T.A. dans l'analyse d'une seule source, en pointant tous les télescopes du reseau vers cette cible, et estimer sa sensibilité à l'annihilation de Matière Noire. Et nalement une analyse complémentaire a été menée dans le but de discriminer entre des diérents prols d'halo de matière noire proposés dans la littérature. La stratégie utilisée a été de changer l'angle d'observation par rapport au centre des galaxies naines sphéroïdales et analyser la diérence de ux attendu selon les diérents prols. Abstract In this work we have studied the discovery potential of the Dark Matter by the new generation of Cherenkov light telescopes. Particulary the one of C.T.A(Cherenkov Telescope Array) project, today in the conception studies phase. Two kinds of analysis of the observation strategies have been treated. In the rst one we give some prediction on the potential of construction of a gamma-ray ux sensibility map for a quarter of the galactic sky and the time needed for that, using a model of the C.T.A.. In the second one we give some prediction on the analysis potential of one single source, in this case pointing all the telescopes of the array to this target, and then we give the ux sensitivity that would have C.T.A. to a Dark Matter annihilation. Finally we have made a complementary analysis on the discrimination of dierent kinds of proles of Dark Matter halos proposed in literature. For this purpose we used the strategy of changing the angle between the observation and the center of some dwarf spheroidal galaxies and looking at the changes on the gamma-ray ux for each prole. 2 Table des matières Introduction 4 1 La Détection Indirecte de matière Noire 1.1 1.2 1.3 1.4 Distribution spatiale(Facteur Astrophysique) . . . . Candidats(Facteur de Physique des Particules) . . . Détecteurs Cherenkov atmosphérique . . . . . . . . 1.3.1 Le réseau H.E.S.S. . . . . . . . . . . . . . . 1.3.2 C.T.A. : la prochaine génération . . . . . . . Cibles privilégiées . . . . . . . . . . . . . . . . . . . 1.4.1 Galaxies Naines, satellites de la Voie Lactée 1.4.2 Les grumeaux de matière noire(Clumps ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 7 9 11 11 11 13 13 13 2 Calcul des cartes de sensibilité 15 3 Contraintes de C.T.A. pour les ux d'annihilation 19 4 Conclusion 23 2.1 2.2 3.1 3.2 3.3 Analyse des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Construction des cartes . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Sensibilité au ux d'annihilation de matière noire . . . . . . . . . . . 19 Calcul des courbes de sensibilités . . . . . . . . . . . . . . . . . . . . 20 Variation de 𝐽 en fonction de Ψ . . . . . . . . . . . . . . . . . . . . . 21 3 Introduction La Matière Noire est un des plus grands paradigmes de la Physique moderne. Depuis la publication du "Philosophiae Naturalis Principia Mathematica" par Isaac Newton en 1687 où il expliquait le mouvement des objets astrophysiques par les lois de la gravitation, par plusieurs fois dans l'histoire des déviations de la trajectoire attendue de ces objets ont été observés. L'étude de ces déviations nous a beaucoup apporté en termes de connaissance de notre Univers. En eet, chaque fois qu'une anomalie a été observé dans le mouvement des planètes du Système Solaire, on a proposé deux solutions possibles à ce problème : soit nous devions remettre en cause la validité des lois de la gravitation, soit cela indiquerait l'existence d'un objet qui n'a pas été observé. Ainsi, lorsque l'on a observé une anomalie dans la trajectoire d'Uranus l'astronome français U. Le Verrier et l'astronome anglais John Couch Adams ont proposé l'existence de Neptune, qui a été observé en 1846 par J.G.Galle. En revanche, la tentative d'expliquer les anomalies du mouvement de Mercure par l'existence d'une nouvelle planète, appelé Vulcan, a échoué, et la solution nal a été donné ultérieurement par la Théorie de la Rélativité Génerale d'Albert Einstein, qui proposait une description beaucoup plus ranée des lois de la gravitation. Le problème actuel de la matière Noire est conceptuellement très similaire aux problèmes auparavant énoncés ci-dessus. Nous observons des anomalies très importantes des grands systèmes astrophysiques dans des échelles qui vont du galactique au cosmologique, qui peuvent être expliquées soit en postulant l'existence d'une grande quantité de matière apparemment indétectable (électromagnétiquement), d'où noire, soit en remettant en cause les limites de validité des lois de la gravitation et de la théorie de la relativité générale. Cependant, un de modèles le plus réussi de la Cosmologie moderne, appelé modèle ΛCDM , validé par plusieurs observations indépendantes des diérentes objets astrophysiques, suggère une répartition de la densité d'énergie de l'Univers en : Ω = Ω 𝑚 + ΩΛ + Ω 𝑟 (1) où Ω𝑚 est la contribution de la matière, ΩΛ est la contribution de la constante cosmologique (ou énergie du vide), et Ω𝑟 la contribution due au rayonnement. Dans ce modèle la matière serais dominé par une forme de matière non-baryonique qui n'intéragirait que par la force faible, appelé matière noire froide(CDM pour Cold Dark Matter en anglais). La contribution en matière total de l'Univers se décompose alors en Ω𝑚 = Ω𝐶𝐷𝑀 +Ω𝑏, en matière noire et baryons. Les dernier résultats obtenus nous donnent nalement : Ω𝑚 = 0.27 ± 0.04 et Ω𝐶𝐷𝑀 = 0.22 ± 0.04 (2) D'autre part, l'énergie du vide représente 70% du contenu en énergie de l'Univers. De sorte que l'Univers visible que nous connaissons, constitué de baryons et de rayonnement, représente à peine 5% du contenu total de l'Univers. 4 C'est pourquoi aujourd'hui plusieurs projets dans le monde entier cherchent à identier un signal observationnel qui proviendrait des interactions que cette matière pourrait avoir. En particulier, l'annihilation de la particule de matière noire pourrait produire des rayons gammas, d'après les modèles les plus populaire au-delà du modèle standard de la Physique des Particules. Ainsi, des eorts considérables ont été déjà faits dans la construction des télescopes qui observent dans la plage de rayonnement gamma, et plusieurs études ont été déjà menés dans le but d'identier un signal provenant de la matière noire, cependant cela n'a pas été le cas, et la nature de la matière noire reste un problème en ouvert. Dans notre travail nous nous intéressons aux observations déjà eectués par le télescope H.E.S.S.(High Energy Stereoscopic System en anglais), et surtout au potentiel d'observation de la prochaine génération des télescopes basés sur sol, notamment le projet C.T.A.(Cerenkov Telescope Array en anglais). Ce document a été organisé de façon à ce qu'il puisse reéter la démarche eectuée lors de ce travail de recherche, notamment nous avons commencé par un étude bibliographique pour donner les bases et les motivations théoriques pour le choix des modèles qui seront utilisés par la suite, où nous avons attaqué le problème de la prédiction du potentiel qu'aurait le C.T.A. dans la recherche d'un signal d'annihilation de matière noire. Ainsi dans la première partie de ce document nous présentons les enjeux de la problématique de la détection indirecte de matière noire. Nous décrivons tous les paramètres nécessaires dans la modélisation de la technique d'observation, comme les propriétés astrophysiques et de physique des particules de la matière noire. En suite nous parlons brièvement des télescopes utilisés. Et nous nalisons la première partie en parlant les cibles potentiels. Lors de la deuxième partie nous développons une prévision du potentiel qu'aurait le C.T.A. dans la construction d'une carte de sensibilité d'un quart du ciel. Nous faisons notre analyse sur des diérents modèles de distribution de la matière noire sur l'échelle galactique et nous utilisons des vraies données observationnelles du télescope H.E.S.S., qui nous a servi de brique élémentaire dans la modélisation du réseau C.T.A. Et nalement dans la troisième et dernière partie nous développons une prévision de la sensibilité qu'aurait le C.T.A. dans la détection d'un signal d'annihilation de matière noire provenant d'un halo de matière noire d'une galaxie naines sphéroïdale satellite de la Voie Lactée. De manière que nous donnons des prévisions sur les contraintes que C.T.A. pourrait nous donner sur les modèles de particule de matière noire, ainsi que sur les modèles de distribution de matière noire dans des halos galactiques. 5 1 La Détection Indirecte de matière Noire La détection indirecte de matière noire est la technique d'observation des produits d'annihilation ou de désintégration de matière noire[1]. Parmi les plusieurs produits nous pouvons citer des neutrinos, des positrons, des anti-protons et des rayons gamma. Dans notre étude nous nous intéressons à la détection des rayons gamma. Pour observer des rayons gamma cosmiques directement, l'observation doit être faite de l'espace. Dans la plage d'énergie d'importance (du GeV au TeV), les photons interagissent avec la matière par création de pairs 𝑒+ 𝑒− , ce qui nous donne une longueur d'interaction d'approximativement 38 g cm−2 , qui est beaucoup plus courte que l'épaisseur de l'atmosphère de la Terre (1030 g cm−2 ). Ainsi, pour les énergies qui nous considérons, les rayons gamma n'atteignent pas les télescopes sur sol. Il existe néanmoins des techniques qui ont été développés pour détecter de façons indirecte les rayons gamma sur des télescopes basés sur sol. Quand un photon interagit dans l'atmosphère ils produisent une cascade électromagnét ique et des particules secondaires. Nous pouvons alors observer de façons indirecte les rayons gamma par la détection de ces particules secondaires et du rayonnement, appelé rayonnement Cerenkov, dû au passage des ces rayons gamma par l'atmosphère de la Terre. Figure 1 Sensibilité des détecteurs actuelles et futures de l'astrophysique de rayons gamma. La courbe grise au-dessous est celle attendu pour le réseau C.T.A., encore en phase de conception. Les courbes sans nom sont celles de la sensibilité attendu pour un ensemble de télescopes de nombre et tailles indiqués à coté. Entre parenthèse sont indiqués le champ de vue d'une caméra et le champ de vue total de chaque télescope[CTA Collaboration ]. Le ux de rayon gammas dû l'annihilation de matière noire de masse 𝑚𝑋 dans un halo est donné par : 6 𝑑Φ𝛾 (𝐸𝛾 , ΔΩ) = 𝑑𝐸𝛾 où [ ] 𝑑𝑁𝛾 ⟨𝜎𝑣⟩ × 𝐽(ΔΩ)ΔΩ cm−2 s−1 GeV−1 | {z } 𝑑𝐸 4𝜋𝑚2𝑋 | {z } Facteur Astrophysique Physique des Particules (3) 1 𝐽(𝑙, 𝑏) = ΔΩ ∫ ∫ 𝜌2 [𝑟(𝑠)]𝑑𝑠 𝑑Ω ΔΩ 𝑙𝑜𝑠 (4) où l'élément d'intégration 𝑑Ω = 𝑑𝜙𝑑(𝑐𝑜𝑠𝜃), et la deuxième intégrale se fait sur la ligne de visée. La quantité ΔΩ correspond à l'angle solide d'observation. Cette quantité dépend de la résolution angulaire des télescopes et s'exprime comme : ∫ 𝜃𝑚𝑎𝑥 ΔΩ = 2𝜋 × 𝑑𝜃𝑠𝑖𝑛𝜃 = 2𝜋(1 − 𝑐𝑜𝑠𝜃𝑚𝑎𝑥 ), 0 (5) où 𝜃𝑚𝑎𝑥 désigne l'ouverture du cône d'angle solide et, dans notre cas, correspond à une coupure à 2𝜎 de la courbe de résolution angulaire de l'instrument, ce qui vas caractériser la résolution angulaire pour la recherche de signaux ponctuels. A partir de maintenant c'est cette quantité que nous allons appeler résolution angulaire du télescope. 1.1 Distribution spatiale(Facteur Astrophysique) Le terme que nous appelons facteur astrophysique contient alors la dépendance du ux gamma attendu avec la concentration de matière noire dans l'halo. Néanmoins la compréhension de comment cette matière est distribué dans ces structures en grande échelle est très méconnue. La description de l'évolution des structures partir des inhomogénéité primordiale est un tâche très dicile dû à l'action de plusieurs processus qui ont eu lieu depuis cela, comme la dynamique du gaz, le refroidissement radiatif, la photoionization, la récombinaison et le transfert radiatif. De plus, toute prédiction théorique doit être en accord avec l'Univers observé. L'approche la plus utilisée pour essayer de résoudre le problème de la formation de grandes structures est basé sur des simulation des N-corps. Ainsi l'évolution des structures normalement est approché par des modèles de regroupement gravitationnelle non-linéaire à partir d'une condition initiale pour la matière noire, et peut être rané en introduisant les eets de la dynamique du gaz, la chimie, le transfert radiatif et autres processus astrophysiques. Les simulation de N-corps plus récentes suggèrent l'existence d'un prole universelle de matière noire, indépendant de la masse de la particule utilisé et de l'époque. La paramétrisation pour la densité d'un halo de matière noire est 𝜌𝜒 (𝑟) = 𝑟𝛾 (𝑟 7 𝐴 . + 𝑟𝑠 )3−𝛾 (6) o 𝐴 est une constante de normalisation et 𝑟𝑠 est un rayon caractéristique au-dessous duquel le prole décroit en 𝑟−𝛾 . La normalisation est choisit tel que la masse contenue dans la sphère de rayon 𝑟𝑡 , égal au rayon tidal de la galaxie, soit celle estimé par les observations. Dans notre travail nous avons utilisé la paramétrisation faite par Navarro, Frenk end White (NFW) [11], avec 𝛾 = 1 . D'autres paramétrisations ont été faites comme celle de Moore et al. [12] avec 𝛾 = 1.5 Néanmoins, les modèles basés sur les simulations à N-corps restent numériques, donc avec une résolution qui dépends du pouvoir de calcule de l'ordinateur utilisé, ce que donne une mauvaise résolution proche du centre(𝑟 = 0). De plus ces simulations comportent uniquement des particules de matière noire, et ne prennent pas en compte les baryons qui peuvent modier le propriétés des halos. C'est pourquoi nous avons aussi utilisé un autre modèle, celui-ci analytique, appelé modèle de type c÷ur, caractérisé par la densité de masse : 𝜌𝑐𝑢𝑟 (𝑟) = 𝑣𝑎2 3𝑟𝑐2 + 𝑟2 . 4𝜋𝐺 (𝑟𝑐2 + 𝑟2 )2 (7) où 𝑟𝑐 est le rayon du c÷ur, et 𝑣𝑎 une quantité appelée vitesse d'échelle. Ce prol donne une courbe de rotation plate, attendu pour les halos de matière noire, pour les grands rayons. Ce prol peut être déduit à l'aide de l'équation de Jeans, d'où pour une galaxie sphéroïdale, la masse contenue dans un rayon 𝑟, 𝑀 (𝑟), est relié aux donnés observationnelles par : ( ) 𝑟⟨𝑣𝑟 ⟩2 𝑑𝑙𝑜𝑔𝜈 𝑑𝑙𝑜𝑔⟨𝑣𝑟2 ⟩ 𝑀 (𝑟) = + + 2𝛽 (8) 𝐺 𝑑𝑙𝑜𝑔𝑟 𝑑𝑙𝑜𝑔𝑟 où, 𝜈 est la densité de luminosité, ⟨𝑣𝑟2 ⟩ est la dispersion des vitesses radiales des étoiles, estimé par les observations, et 𝛽 est l'anisotropie du mouvement des étoiles. Nous supposons que la dispersion des vitesses est constante et que l'anisotropie vaut zero. Le prol de la densité de luminosité est donné par : 𝜈(𝑟) = 𝜈0 𝑟𝑐2𝛼 (𝑟𝑐2 + 𝑟2 )𝛼 (9) où 𝜈0 est la valeur de la luminosité observé au centre. Un ajustement de ce prol avec les observations nous donne 𝛼. Finalement à l'aide encore des observation nous déterminons 𝑟𝑐 , et en introduisant la relation : 𝑣𝑎 = √ 2𝛼⟨𝑣𝑟2 ⟩ (10) avec le prol de densité de luminosité dans l'équation de Jeans nous retrouvons le prol de densité de masse de type c÷ur, donné par l'Eq. 7. Enn, nous devons estimer l'extension de la galaxie ainsi que sa masse. Pour cela nous utilisons le critère de Roche, qui nous donne la masse contenue dans un rayon 𝑟𝑡 , appelé rayon de marée du halo, qui sera notre dénition de extension maximal de la galaxie naine. Ce critère peut être exprimé de la façon suivante : 8 𝑀𝑑𝑆𝑝ℎ (𝑟𝑡 ) 𝑀𝑉 𝐿 (𝑟𝑑𝑆𝑝ℎ − 𝑟𝑡 ) = 3 𝑟𝑡 (𝑟𝑑𝑆𝑝ℎ − 𝑟𝑡 )3 (11) où 𝑀𝑑𝑆𝑝ℎ (𝑟) est la masse de la galaxie naine sphéroïdale contenue dans une sphère de rayon 𝑟, 𝑟𝑑𝑆𝑝ℎ est la distance de la galaxie par rapport au centre de la Voie Lactée, et 𝑀𝑉 𝐿 (𝑟) désigne la masse de la Voie Lactée contenue dans une sphère de rayon 𝑟. Un prol NFW a également été supposé pour modéliser le halo de la Voie Lactée. Le rayon de marée est alors calculé de manière itérative en utilisant aussi la formule : ∫ 𝑟𝑡 𝑀𝑑𝑆𝑝ℎ (𝑟𝑡 ) = 𝜌𝑑𝑆𝑝ℎ (𝑟)𝑑Ω (12) 0 Pour les galaxies qui nous avons dû modéliser dans notre travail, Draco et Sagittarius Dwarf, nous donnons les valeurs de tous ces paramètres, ainsi que la valeur de 𝐽 , dans les table Tab.1 pour le prol de type c÷ur et Tab.2 pour le prol de type NFW. 1.2 Candidats(Facteur de Physique des Particules) Des observations astrophysiques et cosmologiques donnent des évidences très fortes de l'existence d'une matière noire qui n'a eu que des interactions faibles avec la matière et qui a été non-relativiste depuis l'époque où la température de l'Univers était de l'ordre du MeV. Cette matière est appelé de façon générique "matière noire froide" ou CDM (cold dark matter ). En eet cette matière serait formée de particules massives non-baryoniques interagissant faiblement, appelées génériquement des "WIMPS" (weakly interacting massive particles). Cependant, il n'existe plus de WIMP connu dans le zoo actuel des particules élémentaires, car la possibilité que les neutrinos soient la particule de matière noire a été déjà exclue, et leur existence est une prévision hardie de la cosmologie. Certaines extensions du modèle Standard de la physique des particules élémentaires prévoient l'existence de WIMPs susamment lourds pour ne pas avoir encore été détectés dans les accélérateurs. Un des exemples de classe de modèles qui prévoient l'existence des wimps sont les modèles "supersymétriques". Dans les modèles supersymétriques, chaque fermion (resp. chaque boson) est apparié avec un partenaire supersymétrique qui est un boson (resp. un fermion). Le partenaire supersymétrique le plus léger (LSP) est stable et ne peut avoir que des interactions faibles, ce qui en fait un candidat idéal pour un WIMP. Parmi les modèles supersymétriques nous choisissons de travailler avec son extension minimale du modèle Standard, appelé MSSM(Minimal Supersymmetric Standard Model ). Le MSSM est minimale dans le sens qu'il contient la plus petite quantité de champs nécessaires pour créer tous les champs du modèle Standard. La nature du LSP dans le MSSM est contrainte par plusieurs observations, en particulier elle doit avoir charge et couleur égale à zéro. Un des candidats principales pour LSP sont les neutralinos qui sont les partenaires supersymétries des bosons de gauge 𝐵 et 𝑊3 et des bosons neutres de Higgs 9 𝐻10 et 𝐻20 . Ces particules sont souvent considérés comme étant leur propres antiparticule, ce qui rendrait possible la détection de signaux provenant de l'annihilation de ces particules dans l'Univers. Les principaux canaux d'annihilation des neutralinos donnent alors des paires de femions-antifermion, des paires de bosons de jauge, et des états nals contenant des bosons de Higgs. Les sections ecaces sont calculées dans [20] et sont de l'ordre de 10−26 cm3 s−1 , qui est bien la section ecace attendue par les modèles ΛCDM, pour être compatible avec la densité relique de matière noire mesurée expérimentalement(Ω𝐶𝐷𝑀 ℎ2 ∼ 0.1) La relation entre la densité relique de WIMPs et la section ecace d'annihilation peut être facilement retrouvé à l'aide de l'équation de Boltzmann pour l'évolution de la densité comobile des WIMPs au moment du gel des interactions [20], et nous donne : Ω𝐶𝐷𝑀 ℎ2 ∼ 3 × 10−27 𝑐𝑚3 𝑠−1 ⟨𝜎𝑎𝑛𝑛 𝑣⟩ (13) La détection indirecte de l'annihilation de neutralino consiste donc à rechercher un continuum de photons issus de l'hadronisation des produits de désintégration des bosons de jauge de l'interaction faible. Une paramétrisation de ce continuum d'annihilation des neutralinos en gammas est utilisé(paramétrisation de Bergström et al.[9]) : 𝑑𝑁𝛾 𝑀𝜒 𝑑𝑁𝛾 0.73 = = 1.5 𝑒−7.8𝑥 𝑑𝑥 𝑑𝐸𝛾 𝑥 (14) avec 𝑥 = 𝐸𝛾 /𝑀𝜒 , où 𝐸𝛾 est l'énergie du photon et 𝑀𝜒 la masse du neutralino. Ce spectre suit typiquement une loi de puissance d'indice spectral 1.5, avec une coupure exponentielle à la masse du neutralino. Cette paramétrisation ajuste bien les simulations PYTHIA [16] de l'annihilation de neutralinos massifs à forte composante higgsino. Ce spectre a l'avantage de reproduire de façon moyenne un spectre d'annihilation de neutralinos quelconques, car celui-ci est intermédiaire aux spectre extremum d'annihilations(en terme de ux) dans les modèles MSSM. Ces spectres extremum correspondent aux canaux d'annihilation 𝜒𝜒 → 𝜏 + 𝜏 − et 𝜒𝜒 → 𝑏𝑏. Ces spectres ont été paramétrés par Fornengo et al. [3], à l'aide aussi du code Monte Carlo PYTHIA [16] : 𝑑𝑁𝛾𝑖 2 3 = 𝜂𝑥𝑎 𝑒𝑏+𝑐𝑥+𝑑𝑥 +𝑒𝑥 (15) 𝑑𝑥 o 𝑥 = 𝐸𝛾 /𝑚𝐷𝑀 et 𝑖 identie quarks, W, Z et gluons. La valeur de 𝜂 est 2 pour les états nals en W, Z et en top quark, et 1 autrement. Cependant l'ajustement n'a été fait que pour deux masses diérentes 500 GeV et 1 TeV. Dans notre analyse nous avons aussi utilisé, dans un souci de comparaison, cette paramétrisation pour une particule de matière noire de masse 1 TeV s'annihilant sur 𝑏𝑏, les valeurs sont (𝜂, 𝑎, 𝑏, 𝑐, 𝑑, 𝑒) = (1, 1.50, 0.37, −16.05, 18.01, −19.50). 10 Figure 2 Réseau de télescopes H.E.S.S. 1.3 Détecteurs Cherenkov atmosphérique 1.3.1 Le réseau H.E.S.S. L'expérience HESS est un réseau de quatre télescopes pour l'imagerie Cherenkov des gerbes atmosphériques initiées par les particules du rayonnement cosmique dans l'atmosphère. Cet instrument a été construit courant 2003 pour l'étude de sources astrophysiques émettent des photons 𝛾 de très haute énergie(> 100 GeV), ou VHE(Very High Energy ). Il est localisé dans les Colines de Khomas en Namibie, à une altitude de 1800 m au-dessus du niveau de la mer. Les télescopes sont des réecteurs optiques de 107 m2 composés de 382 miroirs circulaires (Fig. 2). La lumière Cherenkov émise par les particules chargés dans la gerbe électromagnétique initié par un rayon gamma primaire est focalisé sur une caméra équipé de 960 photomultiplicateurs avec un champ de vue de 0.16∘ chacun. Le champ de vue total de H.E.S.S. est alors de 5∘ , et des techniques stéréoscopiques nous permettent de reconstruire les directions et l'énergie des rayons gammas primaires. H.E.S.S. a une résolution angulaire de 0.14∘ à 2𝜎 et une surface eective qui dépends de l'angle zénithal et de l'énergie. Un exemple de la surface eective en fonction de l'énergie est donné dans la Fig. (4b), pour un angle zénithal de 14∘ . 1.3.2 C.T.A. : la prochaine génération Le projet C.T.A. prévoit la construction d'un réseaux d'environs 100 télescopes pour l'imagerie Cherenkov. Ce projet est cependant toujours en phase de conception pour chercher la meilleur façons de dispositions des télescopes dans le réseau(Fig.3). Le premier projet suppose la construction des ces 100 télescopes à 3 11 Figure 3 Modèle de disposition des télescopes dans le réseau C.T.A. ainsi que leurs tailles. Effective Area (m2) Effective Area Histogram pour CTA 108 107 6 10 105 104 103 102 10 1 -1.5 -1 -0.5 0 0.5 1 1.5 2 log10(Energy/1TeV) (a) C.T.A. (b) H.E.S.S. Figure 4 Surfaces eectives en fonction de l'énergie tailles diérentes, ce que pourrait augmenter la plage d'énergies accessibles ainsi que la sensibilité en ux. Les performances de ce premier design pour C.T.A. ont été simulés par des outils de type Monte Carlo [22]. Cela nous a donné une résolution angulaire de l'ordre de 0.06∘ , qui corresponds à une résolution 2 à 3 fois meilleur que H.E.S.S., et une dépendance de la surface eective en énergie qui est donné par la Fig. (4a), avec des valeurs de l'ordre de 106 m2 à des énergie entre 100 GeV et 100 TeV, qui corresponds à un ordre de grandeur meilleur que la surface eective de H.E.S.S., en plus de permettre la détection des photons gammas avec des énergies aussi basses que 30 GeV. 12 1.4 Cibles privilégiées Le choix des cibles est d'une importance majeur dans les recherches des signaux de matière noire. Les premières propositions de cibles se sont concentré sur le Centre Galactique, dû à la supposition que l'halo de matière noire de la Voie Lactée aurait une densité beaucoup plus importante dans ces régions centrales. Plusieurs paramétrisations du prol central de la Voie Lactée avec des densités très prononcé ont été proposés, surtout en extrapolant les prol déjà cités ci-dessus. Néanmoins aucun de ces prols a été conrmé par les observation des trajectoires des étoiles près du centre galactique. En plus les diérentes paramétrisations nous donnent des résultats très diérents entre elles, pour les régions centrales, ce que nous donne encore plus d'incertitudes dans les analyses du Centre Galactique. Par ailleurs, le Centre Galactique est une régions très riche en émetteurs de rayons gammas, comme les restes de supernova, le trou noir super massif Sgr A∗ , des nouvelles sources détectés par H.E.S.S., et encore les interactions des rayons cosmiques chargés qui créent une émission diuse de rayon gamma. C'est pour toutes ces raisons là que pour notre travail nous nous intéressons surtout à d'autres cibles potentielles d'émission des rayons gamma par annihilation de CDM, où nous avons moins de bruit de fond gamma astrophysique standard. 1.4.1 Galaxies Naines, satellites de la Voie Lactée Les sources les plus prometteuses sont alors les galaxies naines sphéroïdales, ou dSph(Spheroïdal Dwarf Galaxy en anglais), du Groupe Local, dû à ses grands rapport masse-luminosité et ses petites distances. Parmi les plus proches sont Draco, Sagittarius et Canis Major, localisés respectivement à 80, 24 et 8 kpc du Soleil. Il n'y a pas encore des réponses dénitives sur les prols de distribution des densités de CDM dans ces galaxies, c'est pourquoi nous supposons, dans toutes nos analyses le prol de type NFW aussi bien que le prol de type c÷ur. Le rapport des ux attendus entre les dSphs et le Centre Galactique, calculés pour un prol de type NFW, sont de 0.03,0.15 et 0.5 pour Draco, Sagittarius et Canis Major, respectivement [24]. Malgré un plus petit ux par rapport au ux du Centre Galactique, ces objets sont des environnements beaucoup moins complexes et ils ont un bruit de fond astrophysique beaucoup moins important. 1.4.2 Les grumeaux de matière noire(Clumps ) Une autre cible très prometteuse sont les grumeaux de matière noire, appelés Clumps en anglais, qui seraient des régions de sur-densité de matière noire dans notre galaxie. Ces régions sont prédites par toutes les simulation semi-analytiques de formation dynamique de halo, comme Via-Lactea et Aquarius. Plusieurs sources de rayons gammas non-identiés ont été détecté par H.E.S.S., malgré la limitation de son champ de vue pour les relevés astronomiques. Des analyses du spectre des ces sources ont été mené et les résultats sont des lois de puissances avec indice spectral entre 2.0 et 2.5. Cependant aucune de ces sources montre une coupure, caractéristique nécessaire d'un spectre d'annihilation de CDM, ce que nous fait exclure ces sources comme candidates à Clump, au moins dans les plages d'énergies de H.E.S.S.. C'est pourquoi nous nous avons intéressé dans un premier temps à la possibilité d'uti13 liser le projet C.T.A pour eectuer un balayage d'une partie importante du ciel(un quart). Car dans le cas d'une absence de candidats Clump cela nous restreindra très fortement les possibles candidats de particule pour la CDM. 14 2 Calcul des cartes de sensibilité Le but de notre première analyse a été de prédire le potentiel qu'aurait CTA dans la construction d'une carte de sensibilité pour un quart du ciel et le temps qui serait nécessaire pour cela. C'est dans ce but que nous faisons l'approximation conservative de considérer le CTA comme un réseaux de 25 HESS-like télescopes indépendants. De ce fait nous pourrions observer, a priori, 25 champs de 5∘ x5∘ simultanément, ce que nous donnerait un total d'environ 520 heures d'observation pour tout le CTA, en supposant que l'on passe 20 heures avec chaque HESS-like télescope sur chaque champ pour avoir tout le quart du ciel, à une sensibilité moyenne de 10−12 cm−2 s−1 . Cependant, pour que l'on ait la même sensibilité moyenne pour toute la carte avec le même temps d'observation, il faudrait savoir si elle change signicativement avec la latitude, vu qu'en première approximation il n'y a aucune raison pour qu'elle change selon la longitude. Car si c'est le cas, nous aurions besoin de changer la stratégie d'observation selon la latitude du champ d'observation. Cette analyse a été faite et l'explication de la démarche ainsi que le résultat et les conclusion sont donnés dans les prochaines sections. 2.1 Analyse des données Pour les analyses faites dans notre travail nous nous sommes intéressés à quatre champs observés par HESS : Sagittarius Dwarf, Canis Major Dwarf, Sculptor et NGC 1399. Le choix des champs a été fait de tel façons à ce que nous pouvions panner presque toutes les plages de latitudes galactiques pour un quart du ciel, avec ses latitudes variant entre 2∘ e 89∘ . L'angle zénithal moyen a été calculé pour chaque champ et d'après cet angle zénithal nous avons récupéré les courbes d'acceptance pour chaque champ. Un exemple a été déjà montré dans la Figure 4b. Après l'étalonnage des images des gerbes atmosphériques, une analyse combiné des types Model-Hillas est utilisé pour sélectionner les candidats gamma. La méthode de Hillas est basée sur le calcul des moments géométriques de Hillas [23]. La méthode Model est basée sur la comparaison pixel par pixel de l'image avec un modèle semi-analytique qui donne la distribution, dans le plan focal des caméras, de la lumière émise par une cascade initiée par un gamma. L'analyse des données a été faite avec ces deux méthodes pour améliorer le rejet du fond hadronique. De plus il y a une coupure supplémentaire sur la profondeur d'interaction primaire, pour améliorer encore le rejet du fond. Finalement, après le nettoyage des images, la direction, l'énergie, le paramètre d'impacte et le point d'interaction primaire sont reconstruits pour chaque évènement gamma. Enn, nous arrivons à une résolution en énergie de 15% et une résolution angulaire de 0.1∘ . Le fond gamma est estimé par la méthode template. Cela nous permet d'avoir le niveaux de fond pour chaque point de notre champ. 15 2.2 Construction des cartes Pour construire les cartes de sensibilité, nous avons eu besoin des données suivantes : ∙ la carte des rayons gammas observés ∙ le fond mesuré normalisé ∙ la carte d'exposition eective (en seconde) ∙ la carte d'acceptance de gammas (en cm2 ) La carte des rayons gammas est obtenu d'après les procédures de sélection d'événements et de reconstruction décrites ci-dessus. Le fond est estimé pour chaque point de notre champ, ce que nous donne une carte avec le taux de fond pour chaque bin et nous le normalisons par la relation : 𝑁 𝑜𝑟𝑚 𝑁𝐵𝑘𝑔 (𝑏, 𝑙) = 𝑁𝐵𝑘𝑔 (𝑏, 𝑙) × 𝐴𝑐𝑐𝛾 (𝑏, 𝑙) 𝐴𝑐𝑐ℎ (𝑏, 𝑙) (16) où l'acceptance des événements gammas, 𝐴𝑐𝑐𝛾 , et celle des événements hadrons, 𝐴𝑐𝑐ℎ , sont calculés pour chaque point du champ étudié. Avec les cartes de rayons gammas et les cartes de fond normalisés nous pouvons construire les cartes de sensibilité en fonction d'une limite supérieur de niveaux de conance, où C.L.(Condence Level ). Cette limite est nécessaire car nous n'avons pas où de détection d'excès de signal provenant du champ observé, donc nous devons faire une estimation de la limite supérieur du nombre de rayons gammas observés. L'estimation est faite en utilisant la méthode développé par Feldman et Cousins [21]. Finalement, à l'aide de la carte d'exposition et de la carte d'acceptance, nous déterminons la carte de sensibilité à un ux de rayons gammas provenant d'une annihilation de matière noire par[?] : (𝑏, 𝑙) Φ95%𝐶.𝐿. 𝛾 =∫ 𝑇𝑜𝑏𝑠 ∫ 𝑚𝐷𝑀 0 ∫ 𝑚𝐷𝑀 𝑑𝑁 (𝐸𝛾 )𝑑𝐸𝛾 𝑑𝐸𝛾 𝑑𝑁 𝐴𝑒𝑓 𝑓 (𝐸𝛾 , 𝑧(𝑏, 𝑙), 𝜃(𝑏, 𝑙)) 𝑑𝐸 (𝐸𝛾 )𝑑𝐸𝛾 𝑑𝜏 𝛾 𝑁𝛾95%𝐶.𝐿 (𝑏, 𝑙) 𝐸𝑡ℎ (17) Où 𝐴𝑒𝑓 𝑓 est la surface eective pour les rayons gammas et qui dépend de l'énergie 𝐸𝛾 et de la position (𝑏, 𝑙). L'intégration en 𝑑𝜏 est faite sur le temps total eectif 𝑇𝑜𝑏𝑠 . Le spectre d'annihilation d'une particule de matière noire de masse 𝑚𝐷𝑀 utilisé a été celui des photons secondaires paramétré dans Fornengo et al.[3]. Le seuil en énergie pour l'intégration a été de 200 GeV, choisit par l'analyse de la courbe d'acceptance en fonction de l'énergie, que nous donne une énergie d'environ 200 GeV à 95% du maximum de l'acceptance. Dans la Fig. 5 nous voyons les quatre cartes de sensibilités calculées en coordonnées galactiques. De sorte que nous puissions voir le potentiel de C.T.A. pour 16 Carte de sensibilite: Sculptor Carte de sensibilite: Canis Major D -81.5 -6.5 -82 Φγ -83.5 10-11 -8 -8.5 Φγ95% C.L.[cm-2 s -1] 95% C.L. latitude 10-11 -83 -7.5 latitude [cm-2 s -1] -7 -82.5 -84 -9 -84.5 10-12 60 65 70 75 longitude 80 -9.5 85 118.5 119.5 120 120.5 longitude 121 121.5 Carte de sensibilite: SagittariusD Carte de sensibilite: NGC1399 10 -10 -52 -12.5 -52.5 10-11 -54 -13.5 latitude latitude -53.5 Φγ95% C.L.[cm-2 s -1] -13 -53 10-11 -14 -14.5 -54.5 -15 -55 -15.5 -55.5 119 Φγ95% C.L.[cm-2 s -1] -85 10-12 10-12 10-12 121 122 123 124 longitude 125 -7.5 126 -7 -6.5 -6 -5.5 longitude -5 -4.5 -4 Figure 5 Cartes de sensibilités analyser le quart du ciel, nous avons normalisé le temps d'observation de toutes les cartes à 20 heures d'observation. Bien que les champs observés sont des champs "vides", cela veut dire qu'il n'y a aucune source détectée, nous observons des inhomogénéités dû à l'inhomogénéité du bruit de fond. Des sensibilités de l'ordre de 10−12 cm−2 s−1 , en dessus de 200 GeV, sont atteintes dans tous les champs. La Fig. 6 nous montre un histograme avec la distribution des sensibilités par bin de chaque champ de vue. Finalement nous pouvons voir que la sensibilité moyenne ne varie pas signicativement selon la latitude. Par conséquent la stratégie recherchée pour avoir une carte complète d'un quart de la galaxie n'a pas besoin d'être diérente selon la latitude. Enn, une stratégie qui consisterait à séparer le C.T.A. en 25 HESS-like télescopes, chacun dédié à un champ diérent de la galaxie, pourrait nous donner une carte de sensibilité complète d'un quart du ciel, avec des sensibilités moyennes de l'ordre de 10−12 cm−2 s−1 dans toute la carte avec environ 520 heures d'observation dédiées à ce sondage. Ainsi, avec un temps d'observation très raisonnable pour les télescopes de rayonnement Cerenkov, nous montrons que cela sera possible de créer une carte de sensibilité pour un quart du ciel en utilisant la stratégie proposée. Cette carte sera très utile, surtout dans le cas où aucune détection de clump sera faite, car en comparant avec les modèles semi-analytiques de formation des clumps dans la Voie-Lactée nous pourrons contraindre très fortement les paramètres de la matière noire. 17 Distribution des sensibilites: Sculptor Carte de sensibilite: Sculptor -81.5 800 -82 700 600 10 -11 -83 95% C.L. -83.5 [cm -2 s -1] latitude -82.5 400 300 200 Φγ -84 500 100 10 -12 -84.5 0 -85 60 65 Carte de sensibilite: NGC1399 -52 70 75 80 85 10 95% C.L. Φγ [cm-2 s-1] 10 -11 Distribution des sensibilites: NGC1399 500 -53 -53.5 95% C.L. 10-11 [cm -2 s -1] -52.5 latitude 10-12 -10 300 200 Φγ -54 400 -54.5 100 -55 10-12 -55.5 121 122 123 124 125 0 126 10-12 95% C.L. Φγ Carte de sensibilite: SagittariusD -2 10 -11 10 [cm s-1] Distribution des sensibilites: SagittariusD -12.5 350 -13.5 95% C.L. -11 -14 Φγ latitude 10 [cm -2 s -1] -13 -14.5 300 250 200 150 100 -15 50 -15.5 10 -12 0 -7.5 -7 -6.5 -6 -5.5 -5 -4.5 10-12 95% C.L. Φγ -4 Carte de sensibilite: Canis Major D -2 [cm s-1] 10-11 Distribution des sensibilites: CanisMajorD -6.5 350 10-11 95% C.L. -8 Φγ latitude -7.5 [cm -2 s -1] -7 -8.5 300 250 200 150 100 -9 10-12 -9.5 50 0 118.5 119 119.5 120 120.5 121 121.5 -12 10 -11 95% C.L. Φγ [cm-2 s-1] 10 Figure 6 A gauche les cartes de sensibilités distribues selon leurs latitudes verticalement. Et a droite la distribution des sensibilités par bin de chaque carte. 18 -10 3 Contraintes de C.T.A. pour les ux d'annihilation La deuxième analyse faite consiste à prédire le potentiel qu'aurait C.T.A. dans l'analyse d'une seule source, en pointant tous les télescopes vers cette cible, et estimer sa sensibilité en ux. Les deux sources étudiées ont été Sagittarius dSph et Draco dSph, deux galaxies naines sphéroïdales. L'intérêt d'étudier les naines sphéroïdales a déjà été discuté dans la partie 1.4.2. Et nous nous intéressons à contraindre les paramètres de physique de particules d'une particule de matière noire de l'halo de ces galaxies. 3.1 Sensibilité au ux d'annihilation de matière noire En première approximation, la signicance d'une détection sera donné par : 𝑁𝛾 2𝑁𝑏𝑘𝑔 (18) 𝑆=√ où 𝑁𝛾 est le nombre de photons détectés et 𝑁𝑏𝑘𝑔 est le nombre de photons de fond. Pour cette analyse nous voulions estimer la sensibilité pour une plage entière des masse de neutralino, comme candidat à la matière noire. Nous avons utilisé alors la paramétrisation du spectre d'annihilation d'un neutralino du MSSM faite par Bergström et al.[9]. D'autre part, le nombre des photons collectés par le télescope peut être exprimé par : ∫ ∞ 𝑑Φ𝛾 𝑁𝛾 = 𝑇𝑜𝑏𝑠 𝐴𝑒𝑓 𝑓 (𝐸𝛾 ) 𝑑𝐸𝛾 (19) 𝑑𝐸𝛾 0 où 𝐴𝑒𝑓 𝑓 (𝐸𝛾 ) est la surface eective de C.T.A. en fonction de l'énergie, dans le zénith, donné dans la Fig. 4a. Le temps d'observation 𝑇𝑜𝑏𝑠 utilisé a été de 20 heures, et le ux diérentiel d'annihilation de matière noire 𝑑Φ𝛾 /𝑑𝐸𝛾 a été calculé à l'aide de l'Eq. 3. En utilisant l'Eq. 14 et l'Eq. 19, dans l'expression de 𝑑Φ𝛾 /𝑑𝐸𝛾 , nous calculons la section ecace minimale, qui sera donnée par : √ 𝑆𝑚2𝜒 2𝑁𝑏𝑘𝑔 4𝜋 ⟨𝜎𝑣⟩𝑚𝑖𝑛 = (20) ∫ 𝛾 𝐽(ΔΩ)ΔΩ 0𝑚𝐷𝑀 𝐴𝑒𝑓 𝑓 (𝐸𝛾 ) 𝑑𝑁 (𝐸𝛾 )𝑑𝐸𝛾 𝑑𝐸 𝛾 Dans la plage d'énergies qui nous intéressent la source major de bruit de fond sont les hadrons. Le nombre d'événements hadroniques qui vont être détectés sera donné par : ∫ ∫ 𝑚𝐷𝑀 𝑑Φ𝑏𝑘𝑔 𝑑𝐸𝛾 𝑑Ω (21) 𝑁𝑏𝑘𝑔 = 𝑇𝑜𝑏𝑠 𝐴𝑒𝑓 𝑓 (𝐸𝛾 ) 𝑑𝐸𝛾 𝑑Ω ΔΩ 0 où[24] 𝑑Φ𝑏𝑘𝑔 (𝐸) = 16.47 × 10−3 𝑑𝐸𝛾 𝑑Ω ( 19 𝐸 1𝐺𝑒𝑉 )−2.7 [cm−2 s−1 sr−1 ] (22) 3.2 Calcul des courbes de sensibilités Les paramètres de structure des galaxies naines sphéroïdales ont été pris de [17] pour Sagittarius Dwarf et de [18] pour Draco. Ces paramètres sont montrés dans les tableaux (1) et (2). Pour le calcule de 𝐽(ΔΩ) nous avons utilisé ΔΩ = 3 × 10−6 , qui correspond à la résolution angulaire de C.T.A., cette valeur a été calculé et on la donne dans la dernière colonne des tableaux (1) et (2). Galaxie 𝑣𝑎 km s−1 𝑟𝑐 kpc 𝑟𝑡 kpc 𝑀 (𝑟𝑡 ) ÷ 108 𝑀⊙ 𝐽 (1024 GeV2 cm−5 ) Sgr dSph Draco dSph 13.4 22.9 0.0015 0.23 0.51 1.4 3.0 9.5 398 0.29 Table 1 Paramètres pour le prol de type C÷ur et valeur de 𝐽(ΔΩ) pour les deux galaxies à un angle solide de ΔΩ = 3 × 10−6 sr Galaxie 𝐴 × 107 𝑀⊙ 𝑟𝑠 kpc 𝑟𝑡 kpc 𝑀 (𝑟𝑡 ) ÷ 108 𝑀⊙ 𝐽 (1024 GeV2 cm−5 ) Sgr dSph Draco dSph 3.3 3.3 0.62 0.62 0.57 1.6 3.5 6.6 6.8 1.54 <σ v > (cm 3 s-1) Table 2 Paramètres pour le prol NFW et valeur de 𝐽 (ΔΩ) pour les deux galaxies à un angle solide de ΔΩ = 3 × 10−6 sr 10-23 10-24 10-25 10-26 10-27 NFW profile -28 10 10-29 Cored profile -1.5 -1 -0.5 0 0.5 1 1.5 m 2 log10( DM) TeV Figure 7 Draco Avec les valeurs de 𝐽 nous avons pu calculer les courbes de sensibilité de C.T.A. à 5𝜎 (𝑆 = 5) de limite d'exclusion. Les résultat sont montrés dans les Fig. (7) pour Draco et Fig. (8) pour Sgr Dwarf. Les résultats pour SgrD nous donnent des sensibilités aussi basses que 𝑂(10−26 ) cm3 s−1 avec un prol de type NFW et aussi 20 <σ v > (cm 3 s-1) 10-23 10-24 10-25 10-26 10-27 NFW profile 10-28 Cored profile -29 10 -1.5 -1 -0.5 0 0.5 1 1.5 m 2 log10( DM) TeV Figure 8 Sagittarius basses que 𝑂(10−28 ) cm3 s−1 avec un prol de type C÷ur. Cela pourra nous donner des contraintes très fortes, surtout dans la plage des particules de CDM qui viennent de l'analyse de l'anisotropie du fond dius cosmologique par WMAP. Ces particules doivent avoir des masses entre quelques dizaines à quelques centaines de GeV, avec des sections ecaces de l'ordre de 10−26 cm3 s−1 , ce qui tombe exactement dans nos limites d'exclusions. En ce qui concerne les résultat pour Draco nous avons trouvé des sensibilités aussi basses que 𝑂(10−26 ) cm3 s−1 avec un prol du type NFW et aussi basses que 𝑂(10−25 ) cm3 s−1 avec un prol de type C÷ur, ce qui n'est pas beaucoup mieux que les limites d'exclusions que nous avons aujourd'hui. Cela vient surtout du fait que Draco est beaucoup plus éloigné que SgrD, donc le ux reçu de cette galaxie ne serait pas susant pour donner des contraintes beaucoup plus fortes sur les modèles de CDM que celles que nous avons déjà. 3.3 Variation de 𝐽 en fonction de Ψ Une dernière analyse a été encore faite. Elle a consisté à analyser la variation de 𝐽 en fonction de la direction Ψ dans le ciel, où nous considérons Ψ = 0 le centre de la galaxie naine. Le but de cette analyse a été de vérier si les deux prol utilisés, NFW et C÷ur, nous donnerait des diérences très signicatives de ses variations, pour que l'on puisse les distinguer une fois xés les paramètres de physique de particule de la CDM. Les résultats sont montrés dans la Fig. (9) pour les variations dans Sagittarius Dwarf, et dans la Fig. (10) pour Draco. Nous pouvons voir qu'eectivement, les observations dans les régions plus centrales sont celles qui donnent une diérence beaucoup plus importante. C'est dans ces régions alors que nous devons mener les observations futures pour que l'on puisse distinguer un prol de l'autre. 21 Figure 9 Sagittarius Figure 10 Draco 22 4 Conclusion Le projet C.T.A. est un projet toujours en phase de conception, néanmoins il demeure comme une des plus grandes promesses dans la prochaine génération des télescopes Cherenkov basés au sol. Les recherches menées par les instruments actuels n'ont toujours pas abouti à "voir" un signal de l'annihilation de la matière noire. Nous avons donné des prévisions sur le potentiel du C.T.A. pour des diérents types de stratégies d'observations qui pourraient mettre en évidence la nature de la matière noire, ainsi que sa distribution dans les grandes structures de l'Univers. En particulier nous avons estimé le temps qui serait nécessaire pour que C.T.A. construise une carte de sensibilité d'un quart du ciel avec une sensibilité moyenne de 10−12 cm2 s−1 . Pour cela nous avons proposé une stratégie d'observation qui consistait à considérer le réseaux de télescopes de C.T.A. comme un ensemble de 25 télescopes similaires au H.E.S.S. et indépendants entre eux. Nous avons dû étudier alors la variation de la sensibilité de H.E.S.S. à un signal gamma par rapport à la latitude galactique a partir des vraies données, pour savoir si nous devions changer la stratégie d'observation selon la région observée. La sensibilité s'est montrée à peu près constante en fonction de la latitude. Nous concluons alors que pour avoir la même sensibilité moyenne dans toute la carte la stratégie utilisée ne dépendra pas de la région galactique. Notamment l'utilisation d'un réseau de 25 HESS-like télescopes, où chacun observerait une région diérente du ciel nous donnerait un temps total d'environs 520 heures d'observation dédiées à ce sondage. Ensuite nous avons étudié la sensibilité qu'aurait C.T.A. à un signal de matière noire provenant de son annihilation à l'intérieur de l'halo de galaxies naines sphéroïdales, satellites de la Voie Lactée. A ce propos nous avons pris les modélisations des halos de matière noire de deux naines sphéroïdales très prometteuses comme cibles de détection, Draco et Sagittarius Dwarf. Ainsi nous avons pu donner les contraintes sur la masse et la section ecace que nous aurions dans le cas où la particule de matière noire est un neutralino du MSSM. Les contraintes retrouvées sont très fortes, puisque même dans le cas d'une distribution de densité de matière noire moins piquée vers le centre des galaxies nous retrouvons des sections ecaces plus petites que 10−26 cm3 s−1 pour des masses d'un neutralino entre quelques dizaines à quelques centaines de GeV. Et enn une dernière analyse sur la capacité de discrimination entre deux prols diérents d'halo de matière noire selon la direction par rapport au centre de la galaxie naine sphéroïdal nous montre que les observations vers le centre de ces galaxies sont de fait la meilleure stratégie En dénitive, la mise en ÷vre de nouvelles stratégies de détection et de discrimination d'un signal provenant de la matière noire s'avèrent nécessaires vis à vis de l'échec actuel de cette démarche. Cependant, cela doit être accompagné de la mise à disposition de télescopes de nouvelle génération. C'est le cas du projet en développement C.T.A., qui, comme nous l'avons montré dans ce travail, pourra contraindre de façon très signicative la nature de la matière noire, en utilisant les bonnes stratégies d'observation. 23 Références [1] E. Moulin et al., Phys. Rev. D 77 (2008) 055014 [arXiv :0712.3151 [astro-ph]]. [2] G. Bertone, D. Hooper and J. Silk, Phys. Rept. 405, 279 (2005) [arXiv :hepph/0404175]. [3] P. D. Serpico and G. Zaharijas, arXiv :0802.3245 [astro-ph]. [4] N. Fornengo, L. Pieri and S. Scopel, Phys. Rev. D 70, 103529 (2004) [arXiv :hepph/0407342]. [5] G. Bertone, W. Buchmuller, L. Covi and A. Ibarra, JCAP 0711, 003 (2007) [arXiv :0709.2299 [astro-ph]]. [6] W. Buchmuller, L. Covi, K. Hamaguchi, A. Ibarra and T. Yanagida, JHEP 0703, 037 (2007) [arXiv :hep-ph/0702184]. [7] G. Zaharijas and D. Hooper, Phys. Rev. D 73, 103501 (2006) [arXiv :astroph/0603540]. [8] M. Regis and P. Ullio, arXiv :0802.0234 [hep-ph]. [9] A. Ibarra and D. Tran, Phys. Rev. Lett. 100, 061301 (2008) [arXiv :0709.4593 [astro-ph]]. [10] L. Bergstrom, P. Ullio and J. H. Buckley, Astropart. Phys. 9, 137 (1998) [arXiv :astro-ph/9712318]. [11] F. Stoehr, S. D. M. White, V. Springel, G. Tormen and N. Yoshida, Mon. Not. Roy. Astron. Soc. 345, 1313 (2003) [arXiv :astro-ph/0307026]. [12] J. F. Navarro, C. S. Frenk and S. D. M. White, Astrophys. J. 462, 563 (1996) [arXiv :astro-ph/9508025]. [13] B. Moore, C. Calcaneo-Roldan, J. Stadel, T. Quinn, G. Lake, S. Ghigna and F. Governato, Phys. Rev. D 64, 063508 (2001) [arXiv :astro-ph/0106271]. [14] A. V. Kravtsov, A. A. Klypin, J. S. Bullock and J. R. Primack, Astrophys. J. 502, 48 (1998) [arXiv :astro-ph/9708176]. [15] M. Gustafsson, E. Lundstrom, L. Bergstrom and J. Edsjo, Phys. Rev. Lett. 99, 041301 (2007) [arXiv :astro-ph/0703512]. [16] S. D. Hunger et al., Astrophys. J. 481 (1997) 205. [17] T. Sjostrand, Comput. Phys. Commun. 82 (1994) 74. [18] :. F. Aharonian [HESS Collaboration], Astropart. Phys. 29 (2008) 55 [arXiv :0711.2369 [astro-ph]]. [19] N. W. Evans, F. Ferrer and S. Sarkar, Phys. Rev. D 69 (2004) 123501 [arXiv :astro-ph/0311145]. [20] M. I. Wilkinson, J. Kleyna, N. W. Evans and G. Gilmore, Mon. Not. Roy. Astron. Soc. 330 (2002) 778 [arXiv :astro-ph/0109451]. [21] G. Jungman, M. Kamionkowski and K. Griest, Phys. Rept. 267 (1996) 195 [arXiv :hep-ph/9506380]. [22] Feldman, Gary J. and Cousins, Robert D. Phys. Rev. D 57 (1998) 3873 [arXiv :physics/9711021v2] [23] K. Bernloehr, AIP Conf. Proc. 1085 (2009) 874 [arXiv :0810.5722 [astro-ph]]. 24 [24] Hillas A.M., In proceedings of the 19𝑡ℎ ICRC, La Jollan, 1985 [25] F. Aharonian et al. [HESS Collaboration], Phys. Rev. D 78 (2008) 072008 [arXiv :0806.2981 [astro-ph]]. [26] F. Aharonian et al. [H.E.S.S. Collaboration], Phys. Rev. Lett. 97 (2006) 221102 [Erratum-ibid. 97 (2006) 249901] [arXiv :astro-ph/0610509]. 25