Licence MIASHS 2ème année Cours de Mr Rynkiewicz Statistique et probabilité Université Paris 1 Interro2 B Une loi (8 points) On dispose d’un échantillon (X1 , · · · , Xn ) de taille n d’une variable aléatoire entière X telle que, pour m ∈ N∗ , i ∈ {1, · · · , n} et 0 ≤ x ≤ m : x x P (Xi = x) = Cm p (1 − p)m−x x m est une constante supposée connue et Cm = m! (m−x)!x! . 1. Ecrire la vraisemblance de l’échantillon (X1 , · · · , Xn ). En déduire la log-vraisemblance de l’échantillon (X1 , · · · , Xn ). 2. Calculer l’estimateur du maximum de vraisemblance p̂ de p en fonction de n et m. 1 Variables Gaussiennes (12 points) Soit (X1 , · · · , Xn ) un n-échantillon de variables gaussiennes telles que Xi ∼ N (m, 1). On pose Yi = Xi + Xi+1 . 1. Pour i = 1, · · · , n−1, calculer l’espérance E(Yi ) la variance V (Yi ) et la covariance Cov(Yi , Yi+1 ). 2. Les variables Yi , i = 1, · · · , n − 1 sont elles identiquement distribuées ? Sont elles indépendantes ? Pn−1 4 2 1 3. On définit Ȳ = n−1 i=1 Yi , montrer que E(Ȳ ) = 2m et que V (Ȳ ) = n−1 − (n−1)2 . 4. On rappelle que toute combinaison linéaire de variables gaussienne indépendante est une variable gaussienne. Donner la loi exacte de 21 Ȳ en fonction de n. 5. On rappelle que si Z ∼ N (0, 1) alors P (|Z| ≤ 1.96) = 0.95. Donner un intervalle de confiance à 95% pour m. 1