Impact des angles de mélange de saveur entre neutrinos sur la

Projet informatique encadré par Vincent Bertin
Impact des angles de mélange de saveur entre neutrinos sur la
détection indirecte de matière noire dans le télescope à neutrinos
ANTARES
Hugon Christophe
20 février 2009
1
Introduction
Depuis toujours la lumière est la base de l’astronomie. Originellement limitée dans le spectre du visible elle
s’est développée sur toute la gamme du rayonnement radio au rayonnement gamma. Mais de nouvelles perspec-
tives s’ouvrent aujourd’hui dans l’astronomie multimessager, notamment au travers du neutrino. ANTARES est
un observatoire dédié à ce messager très particulier et devrait permettre de nombreuses observations astrophy-
siques nouvelles. Ce qui va nous intéresser notamment c’est l’observation indirecte de matière noire, et surtout
l’impact que peut avoir les angles de mélange de saveur entre neutrinos sur les perspectives de détection par un
télescope à neutrinos.
1 Présentation d’ANTARES
1.1 Pourquoi l’astronomie des neutrinos ?
Les neutrinos sont des messagers pouvant provenir des objets les plus isolés de l’univers. Leur observation
peut nous apprendre beaucoup, car on s’attend à ce que leur trajectoire pointe directement vers leur source.
Donc en déterminant leur direction, on peut avoir directement accès à la position de la source (avec une erreur
angulaire d’environ 0.3˚pour une énergie supérieure à 10 TeV) et d’extraire les limites sur le flux de neutrino de
cette source. De plus, les neutrinos ont une faible section efficace, ce qui leur permet de traverser les différents
milieux depuis leur point de production jusqu’à la terre, et leur charge nulle leur permet de ne pas être déviés par
les champs magnétiques ; Malgré leur difficulté de détection, cela leur donne un avantage certain sur les autres
vecteurs tel que les photons ou encore les particules composant le rayonnement cosmique. Les neutrinos qui
intéressent les projets tels qu’ANTARES peuvent provenir notamment des noyaux actifs de galaxie, des GRB
(Gamma Ray Burst), de supernovae et hypernovae et d’auto-annihilation de matière noire au sein d’objets
massifs.
Le travail réalisé dans ce projet informatique concerne ce dernier phénomène et étudie notamment l’impact des
angles de mélange de saveur des neutrinos sur leur détection dans l’observatoire ANTARES. Indépendamment
du modèle considéré, malgré sa très faible interaction avec la matière la matière noire finit par s’accumuler par
diffusion élastique et attraction gravitationnelle dans les objets massifs tels que la terre, le soleil ou encore le
centre galactique, ce qui peut amener à la production de neutrinos à haute énergie (Eν<1000 GeV dans le
cadre de ce travail) par auto-annihilation. Ces flux de neutrinos peuvent alors être détectés par des observatoires
à neutrinos tels qu’ANTARES. Le cas qui va nous intéresser est l’accrétion au centre du soleil.
1.2 Le détecteur
Le développement de la construction des grands détecteurs marins à effet Tcherenkov a été initié par la
collaboration Dumand avec un prototype à grande profondeur près des îles d’Hawaii. Le projet a été annulé,
mais a été suivi par le projet Baïkal, à faible profondeur, puis par Amanda et IceCube. Dans la mer Méditerranée,
le projet NESTOR a testé une ligne à grande profondeur au large des côtes grecques, et le projet NEMO au
large de la Sicile, et le projet le plus abouti est l’observatoire à neutrino ANTARES, dans un abysse près de
Toulon.
Le télescope à neutrinos sous-marin ANTARES, à une profondeur de 2475 m dans la mer Méditerranée, est en
fonctionnement avec 12 lignes de détections maintenues verticale par des bouées et ancrées sur le fond marin
pour former une structure approximativement octogonale (elles sont séparées de 70 m en moyenne, l’écart entre
les lignes définissant la sensibilité aux basses énergies). Ces lignes sont reliées à la "Junction Box" (JB) qui
permet de fournir l’énergie et le transfert de donnée depuis et vers la terre. Chaque ligne est équipée de 75
photomultiplicateurs (PMT) logés dans des sphères de verre résistant aux hautes pressions et arrangés en 25
triplets entre 100 et 450 m au dessus du fond. Les PMT sont pointés à 45˚vers le bas pour avoir une meilleure
sensibilité à la lumière Tcherenkov produite par les muons montants, eux-mêmes produit de l’interaction des
neutrinos avec la terre par interaction faible, dans le milieu environnement du détecteur (fig. 1). Le but majeur
de ce genre de détecteur étant de pouvoir observer les neutrinos astrophysiques à haute énergie en utilisant la
terre comme cible. On s’intéresse particulièrement à la saveur muonique.
2 Le mystère de la matière noire dans l’univers
2.1 Evidence de l’existence de matière noire
Suivant notre compréhension actuelle de l’Univers, la densité de l’univers comprend, dans le modèle de
concordance la densité de l’univers comprend aussi la densité de matière noire et d’énergie noire mise en
évidence par une multitude d’observation et d’analyse. Tout d’abord l’analyse du CMB [2] et de ses anisotropies
1
Figure 1 – Détection par ANTARES d’un neutrino à haute énergie ayant interagi avec la terre par l’intermé-
diaire d’un muon.
permettent de contraindre les paramètres cosmologiques. C’est ainsi qu’on note une différence significative entre
la densité de matière baryonique, c’est-à-dire de matière lumineuse, et la densité de matière totale :
bh2= 0.024 ±0.001 ΩMh2= 0.14 ±0.02 (Eq. 2.1)
i=ρi
ρcavec ρcla densité pour un univers plat.
Sachant que la densité de neutrinos et de photons ne suffit pas à palier cette différence, on s’attend à l’existence
d’une matière non lumineuse supplémentaire, c’est-à-dire de matière noire. De plus, l’observation de l’effet de
lentille gravitationnelle autour des amas de galaxies permet de déduire un potentiel gravitationnel trop grand
vis-à-vis de la matière observée dans ces amas. Enfin, en observant la vitesse de rotation des galaxies, on constate
des anomalies allant à l’encontre des prévisions de la théorie newtonienne (fig. 2). Toutes ces observations mènent
à une même conclusion : il y a dans l’univers une densité de matière noire, pouvant aller jusqu’à six fois la densité
de matière baryonique (Eq. 2.1).
2.2 Modèle de matière noire utilisé
Dans le modèle standard particuliste les constituants fondamentaux de la matière correspondent aux fermions
soumis à la force forte et électrofaible et de spin 1/2. Les médiateurs de ces forces sont les bosons, de spin entier.
Chaque particule a également son antiparticule de même masse et de nombres quantiques opposés. Ce modèle
standard permet d’obtenir des résultats spectaculaires vis-à-vis de l’expérience, mais il ne permet pas d’expliquer
la totalité des questions posées, surtout dans la gamme des très hautes énergies, comme durant les premières
périodes de l’univers. Ces questions concernent la non-convergence des constantes de couplage à haute énergie
menant à une unification des forces, l’existence de masse pour les neutrinos, imposée par l’observation de leur
oscillation, ou encore la nature profonde de la matière noire. Différents modèles sont alors apparu, comme la
supersymétrie ou les modèles extra-dimentionnels.
La supersymétrie crée une symétrie entre les fermions et les bosons. Cette théorie permet de résoudre certains
des problèmes qui apparaissent dans le modèle standard comme la grande différence entre l’échelle de Planck et
l’échelle d’énergie électrofaible, et notamment la non-unification des constantes de couplage de jauge à l’échelle
de grande unification ( 2.1016 GeV). Cette théorie lie à chaque champ de jauge des superpartenaires fermioniques
2
Figure 2 – Vitesse de rotation attendue (pointillés) et observée (continu) d’une galaxie en fonction de la
distance.
(jauginos), à chaque fermion des superpartenaires bosoniques (squarks, sleptons) et enfin 5 états de boson de
Higgs et leurs superpartenaire (higgsinos). Le problème majeur de cette théorie est la très grande quantité de
paramètres libres. Mais le MSSM (Minimal Supersymétrique Standard Model) a été développée pour permettre
de réduire le nombre de paramètres libres, et certains modèles comme mSUGRA [3] permettent de les réduire
jusqu’à cinq.
De plus, grâce à leur R-parité opposée à celle des particules les superparticules ne peuvent que se désintégrer
en un nombre impair de superparticules et un nombre quelconque de particules, conformément au principe de
conservation de la R-parité. En conséquence, les superparticules les plus légères (LSP Lightest Supersymmetric
Particles) doivent être stables et ne peuvent que se désintégrer que par auto-annihilation.
Mais il existe aussi d’autres modèles prédisant de façon naturelle un candidat à la matière noire, comme le
modèle dit de Kaluza-Klein. En 1921 Kaluza tenta d’unifier la gravitation et la force électromagnétique, et
ajouta pour ce faire des termes supplémentaires au tenseur métrique, donc des dimensions supplémentaires.
Notre univers à 3 + 1 dimensions appelé brane évolue donc dans un espace à 3 + 1 + δdimensions, appelé bulk.
Il existe aujourd’hui plusieurs scénarios de compactification des dimensions supplémentaires, mais deux restent
fréquemment usités : Le scénario ADD [4] et le RS [5], qui compactifie tous deux les dimensions supplémentaires
sur des cercles de rayon R, la différence fondamentale concernant le rayon. Pour expliquer la faible intensité
de la gravité face aux autres forces, ce serait la seule à se propager à la fois dans la brane et le bulk. Ces
modèles permettent de répondre aux problèmes du modèle standard et de produire des particules aux propriétés
suffisamment intéressantes pour être des candidates viables pour la matière noire. L’existence et la conservation
de la KK-parité permettent, similairement à la R-parité pour la supersymétrie, la stabilité de LKP (Lightest
Kaluza-Klein Particle) et la rend sujette à l’auto annihilation. Le modèle qui sera utilisé est le modèle dit UED
(Universal Extra-Dimensions) utilisant à la fois les scénarios ADD et RS pour ce qui est de la compactification
des dimensions[1]. Ce modèle produit des LKP correspondant à l’état de Kaluza-Klein B1qui, dans ce rapport,
sera par la suite utilisé comme particule de matière noire à l’origine des auto-annihilations au coeur du soleil.
3 Simulations et Analyses réalisées
3.1 Monte-Carlo utilisé et premiers résultats
Le programme de simulation utilisé est issu du travail de Blennow, Edsjö et Ohlson [6]. Il est complètement
modèle indépendant et est basé sur une logique similaire à la simulation DarkSUSY [7] dédié aux modèles
supersymétriques. Cette simulation dénommée Wimpsim est totalement dédiée à l’auto-annihilation au sein
de corps massifs tel que le soleil ou la terre. Elle comprend deux programmes : l’un gérant les annihilations
des B(1), les productions des particules secondaires et leur diffusion jusqu’à la terre ; le second l’interaction
des neutrinos avec la terre et le flux de muons sortant. Nous allons utiliser que le premier, car l’efficacité de
détection d’un flux de neutrino a déjà été calculée pour ANTARES. Pour que cette simulation soit totalement
indépendante du modèle considéré, elle peut produire tous les canaux d’annihilation du modèle standard. Le
3
θ12 = 33.2˚±4.9˚
θ13 <12.5˚
θ23 = 45.0˚±10.6˚
δ[0,2π]∆2
21 = (8.1+1.0
0.9)×105eV 2
|2
31 |= (2.2+1.1
0.8)×103eV 2
|2
32 |= [1.9,3] ×103eV 2
Table 1 – Angles de mélange et différences de masse des neutrinos
fichier de sortie du programme donne donc un nombre de neutrinos par annihilation dans le canal considéré
sans aucune considération de rapport de branchement ou de taux de capture de matière noire. Les rapports de
branchements dominants sont représentés en fig.3.
Figure 3 – Rapport de branchement pour les différents canaux d’auto-annihilation B(1)B(1) en faisant l’hypo-
thèse que ∆ = 0.14 , la différence massique relative entre la LKP et le KK-quark q(1)
Ret une masse du Higgs
inférieure à mB(1) /2
Par la suite l’ensemble des processus de perte d’énergie, de désintégration et d’hadronisation est géré par
le programme PYTHIA [8]. Pour la propagation des produits de désintégration, la simulation utilise le modèle
solaire standard de Bahcall et al. [9]. Cette simulation prend aussi en compte un élément important lors de la
propagation dans le soleil des neutrinos secondaires, mais aussi jusqu’à la terre : l’oscillation des neutrinos. Le
modèle d’oscillation utilisé et ses équations sont développés en l’annexe A de [1], et dans [10] [11][12] et [13]
Les valeurs actuelles pour les angles d’oscillation et les différences de masse de neutrino sont données dans la
table 1
Les paramètres d’entrée du programme sont donc le canal d’annihilation désiré, la masse du B(1), si on
souhaite prendre en compte les annihilations au centre de la Terre, combien d’événements on souhaite (le résultat
final est normalisé pour une annihilation), les angles de mélanges des neutrinos θ12 θ13 θ23 et la différence de
masse entre les différents neutrinos (en valeur absolue afin de ne pas poser le problème de hiérarchie).
Le Monte-Carlo donne trois sorties : Un fichier d’information résumant les données entrées, un fichier donnant
tous les événements neutrino avec sa probabilité de saveur à 1 UA pour le canal considéré et un dernier qui
résume le nombre de neutrinos normalisé par annihilation au centre du soleil, à sa surface et à 1 UA. Nous
allons donc utiliser ce dernier fichier pour l’étude présente.
Le premier travail fut donc de lancer la simulation pour tout les canaux d’annihilation intéressants, c’est à
dire c¯c,b¯
b,t¯
t,τ+τ, et les productions directes νl¯νlpour les trois saveurs leptoniques. On a considéré pour
l’étude les masses de B(1) à 10, 250 et 1000 GeV avec 2 000 000 d’événements pour les valeurs centrales des
angles de mélange et des différences de masse. La principale difficulté rencontrée fut : la longueur du temps de
simulations, car pour un canal et une masse de B(1) il faut plusieurs heures. Il a donc fallu plusieurs journées
avant d’obtenir les premiers résultats, et bien plus pour tester les effets dus aux variations des différents angles
de mélanges. Pour enchaîner les canaux et les énergies, un script en bash a été écrit et un programme en root
[14] pour analyser les données.
Les premiers résultats de ces simulations sont présentés en fig. 4. On retrouve bien l’effet de l’oscillation des
neutrinos attendue, proportionnellement à l’énergie comme le laisse présager l’expression de l’Hamiltonien en
[13] :
H=1
2EUdiag(m2
1, m2
2, m2
3)U+diag(2GFNe,0,0)
où E est l’énergie du neutrino, U la matrice de mélange des neutrinos et les mila masse des neutrinos.
De plus étant donné que la section efficace des neutrinos augmente avec l’énergie, il y a une plus grande perte
d’énergie et de flux pour les masses de B(1) les plus élevées du fait de l’interaction des neutrinos dans le soleil,
4
1 / 11 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !