Probabilités Jean-Yves Tourneret(1) (1) Université de Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l’Information [email protected] Cours Probabilité, 1TR, 2015-2016 – p. 1/68 Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Triplet de Probabilité (Ω, C, P ) Équiprobabilité - Dénombrement Probabilités conditionnelles Indépendance Chapitre 2 : Variables aléatoires réelles Chapitre 3 : Couples de variables aléatoires réelles Chapitre 4 : Vecteurs Gaussiens Chapitre 5 : Convergence et théorèmes limites Cours Probabilité, 1TR, 2015-2016 – p. 2/68 Bibliographie B. Lacaze, M. Maubourguet, C. Mailhes et J.-Y. Tourneret, Probabilités et Statistique appliquées, Cépadues, 1997. Athanasios Papoulis and S. Unnikrishna Pillai, Probability, Random Variable and Stochastic Processes, McGraw Hill Higher Education, 4th edition, 2002. Cours Probabilité, 1TR, 2015-2016 – p. 3/68 Triplet de Probabilité (Ω, C, P ) Ω : Ensemble des résultats d’expérience C : Ensemble des événements C ⊂ P(Ω) Ω ∈ C (événement certain) si A ∈ C alors A ∈ C (événement contraire) si Ai ∈ C, i ∈ I (I fini ou infini dénombrable), alors ∪Ai ∈ C P : application probabilité de C dans [0, 1] P (Ω) = 1 P A = 1 − P (A) P P (∪Ai ) = i∈I P (Ai ) si les événements Ai sont disjoints. Cours Probabilité, 1TR, 2015-2016 – p. 4/68 Propriétés Événements ∅∈C si Ai ∈ C, i ∈ I (I fini ou infini dénombrable), alors ∩Ai ∈ C Probabilité P (∅) = 0 si A ⊂ B , alors, P (A) ≤ P (B) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) Cours Probabilité, 1TR, 2015-2016 – p. 5/68 Vocabulaire si a ∈ Ω alors {a} est un événement élémentaire si Ω = ∪i∈I Ai avec Ai ∩ Aj = ∅, on dit que {Ai }i∈I est un système complet d’événements (Ω, C) espace probabilisable (Ω, C, P ) espace probabilisé C tribu ou σ -algèbre Cours Probabilité, 1TR, 2015-2016 – p. 6/68 Équiprobabilité - Dénombrement Définition P (A) = card(A) card(Ω) = Nombre de cas favorables Nombre de cas possibles Exemples Jet d’un dé Tirages avec remise dans une urne à 2 catégories P (k succès sur n expériences) = Cnk Psk (1 − Ps )n−k n! où k = 0, ..., n, Cnk = k!(n−k)! , Ps est la probabilité du succès sur une expérience et n est le nombre d’expériences identiques et indépendantes. Cours Probabilité, 1TR, 2015-2016 – p. 7/68 Probabilités conditionnelles Définition P (A ∩ B) P (A|B) = ou P (A ∩ B) = P (A|B)P (B) P (B) Théorème des probabilités totales X P (B) = P (B|Ai )P (Ai ) i∈I pour tout système complet d’événements {Ai }. Formule de Bayes P (B|A)P (A) P (A|B) = P (B) Cours Probabilité, 1TR, 2015-2016 – p. 8/68 Indépendance Deux événements Deux événements A et B sont indépendants si et ssi P (A ∩ B) = P (A)P (B) ou P (A|B) = P (A) Généralisation On dit que {Ai }i∈I est famille d’événements mutuellement indépendants si et ssi Y P (∩i∈J Ai ) = P (Ai ), ∀J ⊂ I i∈J ☞ Exercice d’application Cours Probabilité, 1TR, 2015-2016 – p. 9/68 Que faut-il savoir ? Probabilité d’une réunion d’événements : P (A ∪ B) =? Probabilité de l’évènement contraire : P A =? Equiprobabilité : P (A) =? Loi Binomiale : P (k succès sur n expériences) =? Probabilité conditionnelle : P (A|B) =? Indépendance : P (A ∩ B) =? Formule de Bayes : P (A|B) =? Cours Probabilité, 1TR, 2015-2016 – p. 10/68 Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Chapitre 2 : Variables aléatoires réelles Définition Loi d’une variable aléatoire Fonction de répartition Exemples fondamentaux Espérance mathématique Changements de variables Chapitre 3 : Couples de variables aléatoires réelles ... Cours Probabilité, 1TR, 2015-2016 – p. 11/68 Variable aléatoire réelle Définition Soient (Ω, C, P ) un triplet de probabilité qui est associé à l’expérience et (Ω′ , C ′ ), avec Ω′ ⊂ R un espace probabilisable qui résume les quantités qui nous intéressent. Une variable aléatoire réelle X est une application de Ω dans Ω′ qui possède la propriété de mesurabilité : ∀(a, b) ∈ C ′ , {ω|X(ω) ∈ (a, b)} ∈ C. Exemple : somme des résultats de deux dés Ω −→ Ω′ X: (m, n) 7−→ m + n Cours Probabilité, 1TR, 2015-2016 – p. 12/68 Variable aléatoire discrète Loi d’une variable aléatoire discrète {X(ω), ω ∈ Ω} est fini ou infini dénombrable. La loi de X est définie par l’ensemble des valeurs possibles de X : {xi , i ∈ I} les probabilités associées pi = P [X = xi ] avec X X pi pi = 1 et P [X ∈ ∆] = i∈I xi ∈∆ Exemples Jet d’un dé Jet d’une pièce ... Cours Probabilité, 1TR, 2015-2016 – p. 13/68 Variables aléatoires continues Loi d’une variable aléatoire continue {X(ω), ω ∈ Ω} est infini non dénombrable avec P [X = xi ] = 0, ∀xi . La loi de X est définie par l’ensemble des valeurs possibles de X qui est en général une réunion d’intervalles R→R telle que une densité de probabilité p : x 7−→ p(x) p(x) ≥ 0, ∀x ∈ R, Z p(u)du = 1, R Z P [X ∈ ∆] = p(u)du. ∆ Cours Probabilité, 1TR, 2015-2016 – p. 14/68 Variables aléatoires continues Remarques On peut avoir p(x) > 1. P [X∈[x,x+dx[] dx dx→0 p(x) = lim P [X ∈ [x, x + dx[] ≃ p(x)dx pour dx “petit” lien avec l’histogramme Exemples Loi uniforme sur [a, b] Loi normale Cours Probabilité, 1TR, 2015-2016 – p. 15/68 Variable aléatoire mixte Loi d’une variable aléatoire mixte {X(ω), ω ∈ Ω)} = E ∪ {xi , ∈ I} est la réunion de deux ensembles, le premier E est infini non dénombrable avec P [X = x] = 0, ∀x ∈ E , le deuxième est fini ou infini dénombrable avec pi = P [X = xi ] > 0 . La loi de X est définie par {xi , ∈ I} avec pi = P [X = xi ] > 0 E et une densité de probabilité p telle que p(x) ≥ 0, ∀x ∈ R P p(u)du + i∈I pi = 1 R R P P [X ∈ ∆] = ∆ p(u)du + xi ∈∆ pi R Exemple : Tension aux bornes d’un voltmètre Cours Probabilité, 1TR, 2015-2016 – p. 16/68 Exemples Fondamentaux de Lois Discrètes Loi de Bernoulli : X ∼ Be(p) P [X = 0] = p et P [X = 1] = q = 1 − p Lancer d’une pièce, “Succès ou Echec”, ... Loi Binomiale : X ∼ B(n, p) P [X = k] = Cnk pk q n−k , k = 0, ..., n Probabilité d’avoir k succès sur n expériences, X = où Xi suit une loi de Bernoulli, ... Pn i=1 Xi Loi de Poisson : X ∼ P(λ) λk P [X = k] = exp(−λ), k! k∈N Loi du nombre d’arrivées pendant un temps donné Cours Probabilité, 1TR, 2015-2016 – p. 17/68 Exemples Fondamentaux de Lois Continues Loi Uniforme : X ∼ U ([a, b]) 1 , p(x) = b−a x ∈ [a, b] Loi Normale ou Gaussienne : X ∼ N (m, σ 2 ) 2 (x − m) 1 , x∈R exp − p(x) = √ 2 2 2σ 2πσ Loi Gamma : X ∼ Ga(α, β) β α α−1 x exp(−βx), p(x) = Γ(α) x>0 Pour α = 1, on a la loi exponentielle Cours Probabilité, 1TR, 2015-2016 – p. 18/68 Fonction de répartition Définition R → [0, 1] F : x 7−→ F (x) = P [X < x] Propriétés F croissante lim F (x) = 0 et lim F (x) = 1 x→−∞ x→+∞ F caractérise une loi de probabilité Si X est une va discrète, le graphe de F est une fonction en escaliers Si X estR une va continue, F est continue et x F (x) = −∞ p(u)du, i.e., p(x) = F ′ (x) Cours Probabilité, 1TR, 2015-2016 – p. 19/68 Espérance mathématique Définition P α(xi )pi X va discrète : i∈I R E[α(X)] = X va continue : α(u)p(u)du R X va mixte : P α(x )p + R α(u)p(u)du i i i∈I R Propriétés Constante : E(cste) = cste Linéarité : E(aX + b) = aE(X) + b Exemples Moments non centrés : E(X n ) (n = 1 : moyenne) n Moments centrés : E [X − E(X)] (n = 2 : variance) Fonction caractéristique : φX (t) = E [exp(itX)] Cours Probabilité, 1TR, 2015-2016 – p. 20/68 Exemples simples Variables aléatoires discrètes X 2 X 2 E [X] = xi P [X = xi ], E X = xi P [X = xi ] i∈I i∈I E e jtX = X ejtxi P [X = xi ] i∈I Variables aléatoires continues Z Z 2 E [X] = up(u)du, E X = u2 p(u)du R R Z jtX E e = ejtu p(u)du R Cours Probabilité, 1TR, 2015-2016 – p. 21/68 Propriétés Variance 2 var(X) = E [X − E(X)] √ Ecart Type : variance var(aX + b) = a2 var(X) = E(X 2 ) − E(X)2 Fonction caractéristique Caractérise une loi de probabilité Cas continu Z φX (t) = eitu p(u)du R est la transformée de Fourier de p. Exemples de calculs Cours Probabilité, 1TR, 2015-2016 – p. 22/68 Changements de variables Problème Étant donnée une variable aléatoire réelle X de loi connue, on cherche à déterminer la loi de Y = g(X) où g est une fonction de R dans R. Variables aléatoires discrètes Définition P [Y = yj ] = X p[X = xi ] i|yj =g(xi ) Exemple Y = (X − 2)2 avec X ∼ P(λ) Cours Probabilité, 1TR, 2015-2016 – p. 23/68 Changements de va continues g bijective Théorème : si X est une va continue à valeurs dans un ouvert OX ⊂ R et g : R → R application bijective de OX dans un ouvert OY ⊂ R différentiable ainsi que son inverse g −1 , alors Y = g(X) est une va continue de densité −1 dx pY (y) = pX g (y) . dy où dx dy est le Jacobien de la transformation. Idée de preuve Exemple : Y = aX + b avec X ∼ N (m, σ 2 ). Cours Probabilité, 1TR, 2015-2016 – p. 24/68 Changements de va continues g bijective par morceaux On suppose que g est différentiable sur chaque morceau ainsi que son inverse. Méthode : On ajoute la contribution de chaque bijection. Exemple : Y = X 2 avec X ∼ N (0, 1). Cours Probabilité, 1TR, 2015-2016 – p. 25/68 Que faut-il savoir ? Loi d’une variable aléatoire discrète : ? Loi d’une variable aléatoire continue : ? Appartenance à un intervalle : P [X ∈ ∆] =? Signification d’une densité : P [X ∈ [x, x + dx[] ≃? Fonction de répartition : F (x) =? Espérance mathématique : E[X] =?, E[X 2 ] =? Variance : Var[X] =?, Ecart-type : ? Relations utiles : E[aX + b] =?, Var[aX + b] =? Fonction caractéristique : φ(t) =? Changement de variables : ? Cours Probabilité, 1TR, 2015-2016 – p. 26/68 Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Chapitre 2 : Variables aléatoires réelles Chapitre 3 : Couples de variables aléatoires réelles Définition Fonction de répartition Lois marginales, lois conditionnelles, indépendance Espérances mathématiques Changements de variables Chapitre 4 : Vecteurs Gaussiens Chapitre 5 : Convergence et théorèmes limites Cours Probabilité, 1TR, 2015-2016 – p. 27/68 Couple de va réelles Définition Soit (Ω, C, P ) un espace probabilisé et (Ω′ , C ′ ) un espace probabilisable avec Ω′ ⊂ R2 et C ′ construit à partir des réunions et intersections finies ou dénombrables des pavés (a, b) × (c, d) de R2 . Un couple (X, Y ) de variables aléatoires réelles est une application mesurable de Ω dans Ω′ . notation On notera P [(X, Y ) ∈ ∆] , ∆ ⊂ R2 , la probabilité que le couple (X, Y ) prenne ses valeurs dans ∆. Cours Probabilité, 1TR, 2015-2016 – p. 28/68 Loi d’un couple de va Variables aléatoires discrètes La loi du couple (X, Y ) est définie par l’ensemble des valeurs possibles du couple (qui est un ensemble fini ou dénombrable) noté {(xi , yj ) , i ∈ I, j ∈ J} et par les probabilités associées pij = P [X P= xi , Y = yj ], i ∈ I, j ∈ J telles que pij ≥ 0 et i,j pij = 1. Variables aléatoires continues La loi du couple (X, Y ) est définie par l’ensemble des valeurs possibles du couple (qui est un ensemble infini non dénombrable), en général une réunion d’intervalles de R2 , et par une densité de probabilité p(x, y) telle que Z Z p(x, y) ≥ 0, et p(x, y)dxdy = 1. R2 Cours Probabilité, 1TR, 2015-2016 – p. 29/68 Propriétés Couples de va discrètes P [(X, Y ) ∈ ∆] = X P [X = xi , Y = yj ]. (i,j)|(xi ,yj )∈∆ Couples de va continues P [(X, Y ) ∈ ∆] = Z Z p(u, v)dudv ∆ Remarque : signification de p(u, v) Cours Probabilité, 1TR, 2015-2016 – p. 30/68 Fonction de répartition Définition R2 → [0, 1] F : (x, y) 7−→ F (x, y) = P [X < x, Y < y] Propriétés C’est une fonction étagée lorsque (X, Y ) est un couple de va discrètes C’est une fonction continue lorsque (X, Y ) est un couple de va continues avec Z x Z y ∂ 2 F (x, y) p(u, v)dudv d’où p(x, y) = F (x, y) = ∂x∂y −∞ −∞ Cours Probabilité, 1TR, 2015-2016 – p. 31/68 Lois marginales Cas discret P [X = xi ] = pi. = X pij j∈J P [Y = yj ] = p.j = X pij i∈I Cas continu densité de X densité de Y : : p(x, .) = p(., y) = Z ZR p(x, y)dy p(x, y)dx R Cours Probabilité, 1TR, 2015-2016 – p. 32/68 Lois conditionnelles Les lois conditionnelles d’un couple (X, Y ) sont les lois de X| Y = y et de Y | X = x. Cas discret Cas continu pij P [ X = xi | Y = y j ] = p.j pij P [ Y = y j | X = xi ] = pi. densité de X| Y densité de Y | X p(x, y) p( x| y) = p(., y) p(x, y) p( y| x) = p(x, .) Cours Probabilité, 1TR, 2015-2016 – p. 33/68 Indépendance Les variables aléatoires X et Y sont indépendantes si ′ ′ P X ∈ ∆, Y ∈ ∆ = P [X ∈ ∆] P Y ∈ ∆ , ∀∆, ∀∆′ Cas discret pij = pi. p.j ∀i ∈ I, ∀j ∈ J Cas continu p(x, y) = p(x, .)p(., y) ∀x, ∀y ou p( x| y) = p(x, .), ∀x, ∀y Cours Probabilité, 1TR, 2015-2016 – p. 34/68 Propriété si X et Y sont des variables aléatoires indépendantes et α et β sont des applications continues de R dans R, alors α (X) et β(Y ) sont des variables aléatoires indépendantes. La réciproque est vraie si α et β sont des applications bijectives. Par contre, dans le cas où α et β ne sont pas bijectives, la réciproque est fausse. On vérifiera par exemple que le couple (X Y ) de densité ( 1 (1 + xy) si |x| < 1 et |y| < 1 4 f (x, y) = 0 sinon est tel que X 2 et Y 2 sont indépendantes alors que X et Y ne le sont pas. Cours Probabilité, 1TR, 2015-2016 – p. 35/68 Espérance mathématique Définition E[α(X, Y )] = ( X et Y va discrètes : X et Y va continues : P α(xi , yj )pij i,j∈I×J R α(u, v)p(u, v)dudv R2 Propriétés Constante : E(cste) = cste Linéarité : E [aα(X, Y ) + bβ(X, Y )] = aE [α(X, Y )] + bE [β(X, Y )] Définition cohérente (cas continu) : Z Z E [α(X)] = α(u)p(u, v)dudv = α(u)p(u, .)du R2 R Indépendance : si X et Y sont indépendantes, alors E [α(X)β(Y )] = E [α(X)] E [β(Y )] , ∀α∀β Cours Probabilité, 1TR, 2015-2016 – p. 36/68 Exemples Moments centrés et non centrés mij = E (X i Y j ) , i ∈ N, j ∈ N µij = E ([X − E(X)]i [Y − E(Y )]j ) , i ∈ N, j ∈ N Covariance et matrice de covariance = E ([X − E(X)][Y − E(Y )]) = E (XY ) − E(X)E(Y ) X − E[X] varX cov(X, Y ) T , V = E VV = Y − E[Y ] cov(X, Y ) varY cov(X, Y ) Fonction caractéristique T φX,Y (u1 , u2 ) = E exp(iu W ) , u = (u1 , u2 )T , W = (X, Y )T . Cours Probabilité, 1TR, 2015-2016 – p. 37/68 Coefficient de Corrélation Définition r(X, Y ) = cov(X, Y ) σX σY , où σX et σY sont les écart-types des va X et Y . Propriétés −1 ≤ r(X, Y ) ≤ 1 r(X, Y ) = ±1 si et ssi X et Y sont reliées par une relation affine si X et Y sont des va indépendantes, alors r(X, Y ) = 0 mais la réciproque est fausse Conclusion r(X, Y ) est une mesure imparfaite mais très pratique du lien entre les va X et Y . Cours Probabilité, 1TR, 2015-2016 – p. 38/68 Espérance conditionnelle Théorème E [α(X, Y )] = EX [EY [α(X, Y )|X]] Exemple Y = N X Xi i=1 où P [Xi = 1] = p, P [Xi = 0] = q = 1 − p et N est une va. Cours Probabilité, 1TR, 2015-2016 – p. 39/68 Changements de variables Problème Étant donné un couple de variables aléatoires réelles (X, Y ) de loi connue, on cherche à déterminer la loi de (U, V ) = g(X, Y ) où g est une fonction de R2 dans R2 et U et V sont deux fonctions de R2 dans R. Variables aléatoires discrètes Définition P [(U, V ) = (uk , vl )] = X p[X = xi , Y = yj ] i,j|g(xi ,yj )=(uk ,vl ) Exemple voir TD Cours Probabilité, 1TR, 2015-2016 – p. 40/68 Changements de va continues de R2 → R2 Théorème pour g bijective si (X, Y ) est un couple de va continues à valeurs dans un ouvert O ⊂ R2 et g : R2 → R2 est une application bijective de O dans un ouvert ∆ ⊂ R2 continument différentiable ainsi que son inverse g −1 , alors (U, V ) = g(X, Y ) est un couple de va continues de densité −1 pU,V (u, v) = pX,Y g (u, v) |det(J)|, où J est la matrice Jacobienne définie par ! J= ∂x ∂u ∂y ∂u ∂x ∂v ∂y ∂v Cours Probabilité, 1TR, 2015-2016 – p. 41/68 Changements de va continues de R2 → R2 Exemple X ∼ N (0, 1), Y ∼ N (0, 1), X et Y va indépendantes. Quelle est la loi de (R, Θ) avec X = R cos Θ et Y = R sin Θ ? Généralisation Si g est bijective par morceaux, on ajoute les contributions de chaque morceau. Cours Probabilité, 1TR, 2015-2016 – p. 42/68 Changements de va continues de R2 → R Problème Si (X, Y ) est un couple de va continues de loi connue et g : R2 → R, on cherche la loi de U = g(X, Y ). Solutions Variable intermédiaire : on introduit une va V = h(X, Y ) (e.g., V = X ou V = Y ), on cherche la loi du couple (U, V ), puis la loi marginale de U Calcul de la fonction de répartition de U Z P [U < u] = P [g(X, Y ) < u] = P [(X, Y ) ∈ ∆u ] = p(x, y)dxdy, ∆u Cas particulier de U = X + Y , X et Y indépendantes Calcul de la fonction caractéristique de U . Cours Probabilité, 1TR, 2015-2016 – p. 43/68 Que faut-il savoir ? Loi d’un couple de va discrètes et continues : ? Appartenance à un intervalle : P [(X, Y ) ∈ ∆] =? Comment calculer les lois marginales d’un couple ? Comment calculer les lois conditionnelles d’un couple ? Indépendance de deux variables aléatoires ? Espérance mathématique : E[XY ] =? Covariance : cov(X, Y ) =? Coeff. de corrélation : r(X, Y ) =?, r(X, Y ) ∈? Intérêt ? Espérances conditionnelles : ? Trois méthodes de changements de variables : ? Cours Probabilité, 1TR, 2015-2016 – p. 44/68 Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Chapitre 2 : Variables aléatoires réelles Chapitre 3 : Couples de variables aléatoires réelles Chapitre 4 : Vecteurs Gaussiens Définition Transformation affine Lois marginales, lois conditionnelles, indépendance Lois du chi2, de Student et de Fisher Chapitre 5 : Convergence et théorèmes limites Cours Probabilité, 1TR, 2015-2016 – p. 45/68 Vecteur Gaussien Définition On dit que X = (X1 , ..., Xn )T suit une loi normale à n dimensions et on notera X ∼ Nn (m, Σ), si la densité de probabilité de X s’écrit 1 1 p exp − (x − m)T Σ−1 (x − m) p(x) = 2 (2π)n/2 det(Σ) où x ∈ Rn , m ∈ Rn et Σ ∈ Mn (R) est une matrice symétrique définie positive. Cas particuliers n=1 Σ diagonale Cours Probabilité, 1TR, 2015-2016 – p. 46/68 Signification de m et Σ Fonction caractéristique T 1 T iu X T φ(u) = E e = exp iu m − u Σu 2 Fonction génératrice des moments T 1 T u X T θ(u) = E e = exp u m + u Σu 2 m et Σ m est le vecteur moyenne Σ est la matrice de covariance Cours Probabilité, 1TR, 2015-2016 – p. 47/68 Cas Bivarié Fonction caractéristique 1 1 φ(u) = exp i(u1 m1 + u2 m2 ) − Σ11 u21 − Σ22 u22 − Σ12 u1 u2 2 2 Dérivées partielles ∂φ(u) = φ(u)(im1 − Σ12 u2 − Σ11 u1 ) ∂u1 ∂φ(u) = φ(u)(im2 − Σ12 u1 − Σ22 u2 ) ∂u2 ∂ 2 φ(u) = φ(u)(im1 − Σ12 u2 − Σ11 u1 )(im2 − Σ12 u1 − Σ22 u2 ) − Σ12 φ(u) ∂u1 ∂u2 Moments ∂φ(u) ∂φ(u) = iE[X1 ] = im1 , = iE[X2 ] = im2 ∂u1 u=0 ∂u2 u=0 ∂ 2 φ(u) = −E[X1 X2 ] = −m1 m2 − Σ12 ∂u ∂u 1 2 u=0 Cours Probabilité, 1TR, 2015-2016 – p. 48/68 Transformation affine Problème : Soit X ∼ Nn (m, Σ) un vecteur Gaussien. Quelle est la loi de Y = AX + b, où Y est un vecteur aléatoire de Rp , b ∈ Rp et A est une matrice de taille p × n avec p ≤ n ? Idée : on calcule la fonction génératrice de Y = AX + b 1 T T θY (v) = exp v (Am + b) + v AΣAT v 2 Conclusion Y ∼ Np Am + b, AΣA T si A est de rang p (i.e., de rang maximal). Cours Probabilité, 1TR, 2015-2016 – p. 49/68 Lois marginales Hypothèses ! X′ X= ∼ Nn (m, Σ), m = ′′ X ! m′ m′′ ,Σ = Σ′ MT M Σ′′ ! Problème Quelle est la loi de X ′ ? Conclusion ′ ′ X ∼ Np m , Σ où p est la dimension de X ′ . ′ Cours Probabilité, 1TR, 2015-2016 – p. 50/68 Indépendance Hypothèses ! X′ X= ∼ Nn (m, Σ), m = ′′ X m′ m′′ ! ,Σ = Σ′ MT M Σ′′ ! Conclusion X ′ et X ′′ sont des vecteurs indépendants si et ssi M = 0. Cours Probabilité, 1TR, 2015-2016 – p. 51/68 Loi du chi2 Définition Si X1 , ..., Xn sont n va indépendantes de loi N (0, 1), Pn alors Y = i=1 Xi2 ∼ χ2n suit une loi du chi2 à n degrés de liberté. Propriétés Densité de probabilité : pn (y) = n y y 2 −1 e− 2 IR+ (y) n n 2 2 Γ( 2 ) − n2 Fonction caractéristique : φn (t) = (1 − 2it) Moyenne et variance : E(Y ) = n et var(Y ) = 2n Additivité : si Y ∼ χ2n , Z ∼ χ2m , Y et Z ind. alors Y + Z ∼ χ2n+m Cours Probabilité, 1TR, 2015-2016 – p. 52/68 Loi de Student Définition Si X ∼ N (0, 1), Y ∼ χ2n , X et Y indépendantes, alors Propriétés X Z = q ∼ tn Y n Densité de probabilité − n+1 2 2 Γ z 1+ IR+ (z) pn (z) = √ n n nπΓ 2 n+1 2 Moyenne et variance (pour n > 2) n E(Z) = 0 et var(Z) = n−2 pour n = 1, on a une loi de Cauchy Cours Probabilité, 1TR, 2015-2016 – p. 53/68 Loi de Fisher Définition Si X ∼ χ2n , Y ∼ χ2m , X et Y indépendantes, alors Propriétés X/n Z= ∼ fn,m Y /m Densité de probabilité connue (voir livres) Moyenne et variance (pour m > 4) m 2m2 (n + m − 2) E(Z) = et var(Z) = m−2 n(m − 4)(m − 2)2 Cours Probabilité, 1TR, 2015-2016 – p. 54/68 Que faut-il savoir ? X ∼ Nn (m, Σ) Signification de m et de Σ ? Transformation affine (Y = AX + b) d’un vecteur gaussien ? Condition sur la matrice A associée ? Lois marginales d’un vecteur gaussien ? Indépendance de deux sous vecteurs d’un vecteur gaussien ? Pn loi de Y = i=1 Xi2 ∼ χ2n ? Cours Probabilité, 1TR, 2015-2016 – p. 55/68 Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Chapitre 2 : Variables aléatoires réelles Chapitre 3 : Couples de variables aléatoires réelles Chapitre 4 : Vecteurs Gaussiens Chapitre 5 : Convergence et théorèmes limites Convergence (en loi, en probabilité, en moyenne quadratique, presque sure) Théorèmes limites (loi des grands nombres, théorème de la limite centrale) Cours Probabilité, 1TR, 2015-2016 – p. 56/68 Convergence en loi Définition La suite de va X1 , ..., Xn converge en loi vers la va X si et ssi la suite des fonctions de répartition Fn (x) = P [Xn < x] converge simplement vers F (x) = P [X < x] en tout point x où F est continue. Notation L Xn → X n→∞ Exemple 1 1 P [Xn = 1] = et P [Xn = 0] = 1 − n n Cours Probabilité, 1TR, 2015-2016 – p. 57/68 Convergence en loi Propriétés Théorème de Levy Xn cv en loi vers X si et ssi φ continue en t = 0 et itX itXn → φ(t) = E e , ∀t. φn (t) = E e n→∞ Si Xn est une suite de va continues de densités L pn (x) et que pn (x) → p(x) p.p., alors Xn → X . n→∞ n→∞ L Si Xn → X et g : R → R continue, alors n→∞ L g(Xn ) → g(X). n→∞ Cours Probabilité, 1TR, 2015-2016 – p. 58/68 Convergence en probabilité Définition La suite de va X1 , ..., Xn converge en probabilité vers la va X si et ssi ∀ǫ > 0, on a P [|Xn − X| > ǫ] → 0. n→∞ Notation P Xn → X n→∞ Exemple : Xn de densité pn (x) = Propriété ne−nx . (1+e−nx )2 P Si Xn → X et g : R → R continue, alors n→∞ P g(Xn ) → g(X). n→∞ Cours Probabilité, 1TR, 2015-2016 – p. 59/68 Convergence en moyenne quadratique Définition La suite de va X1 , ..., Xn converge en moyenne quadratique vers la va X si et ssi 2 E (Xn − X) → 0. n→∞ Notation MQ Xn → X n→∞ Exemple 1 1 P [Xn = n] = p et P [Xn = 0] = 1 − p n n avec p = 2 et p = 3. Cours Probabilité, 1TR, 2015-2016 – p. 60/68 Convergence presque sûre Définition La suite de va X1 , ..., Xn converge presque sûrement vers la va X si et ssi Xn (ω) → X(ω), n→∞ ∀ω ∈ A|P (A) = 1. Notation PS Xn → X n→∞ Comparaison entre les différents types de convergence Cours Probabilité, 1TR, 2015-2016 – p. 61/68 Loi faible des grands nombres Loi faible des grands nombres Si X1 , ..., Xn sont des va indépendantes et de même loi de moyenne E [Xk ] = m < ∞, alors la va 1 Pn X n = n k=1 Xk converge en probabilité vers m. Preuve h ϕX n (t) = E e it n1 Pn k=1 Xk i =E " n Y k=1 e i nt Xk # n t = ϕ n Dév. de Taylor de φ ϕ (t) = ϕ (0) + tϕ′ (0) + tλ (t) = 1 + itm + tλ (t) Cours Probabilité, 1TR, 2015-2016 – p. 62/68 Preuve On en déduit t t t t t t =n i m+ λ ln ϕX n (t) = n ln 1 + i m + λ n n n n n n d’où lim ϕX n (t) = eitm ∀t n→∞ i.e., L P Xn → m ⇔ Xn → m n→∞ n→∞ Cours Probabilité, 1TR, 2015-2016 – p. 63/68 Loi forte des grands nombres Loi forte des grands nombres Si X1 , ..., Xn sont des va indépendantes et de même loi de moyenne E [Xk ] = m < ∞ et de variance σ 2 < ∞, 1 Pn alors la va X n = n k=1 Xk converge en moyenne quadratique vers m. Preuve E h X −m 2 i n n 1 XX = 2 E [(Xk − m) (Xl − m)] n k=1 l=1 Mais E [(Xk − m) (Xl − m)] = ( σ 2 si k = l 0 si k 6= l Cours Probabilité, 1TR, 2015-2016 – p. 64/68 Preuve Donc E i.e., h Xn − m 2 i σ2 = → 0 n n→∞ MQ Xn → m n→∞ Cours Probabilité, 1TR, 2015-2016 – p. 65/68 Théorème de la limite centrale Théorème de la limite centrale Si X1 , ..., Xn sont des va indépendantes et de même loi 2 < ∞, de moyenne E [Xk ] = m < ∞ et de variance σ Pn X −nm converge en alors la va centrée réduite Yn = k=1√ k2 nσ loi vers la loi normale N (0, 1). Preuve ϕYn (t) = E e Mais itYn =e √ itm n − σ n Y k=1 h E e i σ√t n Xk i h t i t i σ√n Xk √ E e =ϕ σ n Cours Probabilité, 1TR, 2015-2016 – p. 66/68 Preuve Donc √ t itm n √ + n ln ϕ ln [ϕYn (t)] = − σ σ n En utilisant le développement de Taylor de ϕ 2 t ϕ (t) = ϕ (0) + tϕ′ (0) + ϕ′′ (0) + t2 λ (t) 2 On en déduit ln [ϕYn (t)] = − lim ϕYn (t) = e n→∞ t2 −2 t2 2 + t2 n λ t √ σ n L ∀t ⇔ Yn → N (0, 1) n→∞ Cours Probabilité, 1TR, 2015-2016 – p. 67/68 Que faut-il savoir ? Convergence en loi ? Convergence en moyenne quadratique ? 1 Pn k=1 Xk converge en probabilité vers ? Conditions ? n 1 Pn k=1 Xk converge en moyenne quadratique vers ? n Conditions ? Yn = Pn Xk −? ? k=1 converge en loi vers ? Cours Probabilité, 1TR, 2015-2016 – p. 68/68