Chapitre IV : Les lois de probabilité usuelles ___________________________________________________ 2 IV.1 : Les lois discrètes __________________________________________________________________ IV.1.1 : Loi de Dirac ___________________________________________________________________ IV.1.2 : Loi indicatrice (ou loi de Bernoulli) ________________________________________________ IV.1.3 : Loi de Poisson _________________________________________________________________ IV.1.4 : Loi Binomiale _________________________________________________________________ IV.1.5 : Loi multinomiale _______________________________________________________________ IV.1.6 : Loi hypergéométrique ___________________________________________________________ 2 2 2 2 3 3 3 IV.2 : Lois continues ____________________________________________________________________ IV.2.1 : Loi uniforme __________________________________________________________________ IV.2.2 : Loi gamma ____________________________________________________________________ IV.2.3 : Loi normale unidimensionnelle ____________________________________________________ IV.2.4 : Loi normale multidimensionnelle __________________________________________________ IV.2.5 : Loi Log-normale _______________________________________________________________ IV.2.6 : Loi de Khi-deux (Χ²) ____________________________________________________________ IV.2.7 : Loi de student__________________________________________________________________ IV.2.8 : Loi de Fisher-Snedecor : _________________________________________________________ 4 4 4 5 5 5 6 6 6 1 Chapitre IV : Les lois de probabilité usuelles IV.1 : Les lois discrètes IV.1.1 : Loi de Dirac Définition : Soit a ∈—, un point fixé. On appelle loi de Dirac au point a la probabilité δa définie sur — par : δa(x) = 1 si x = a δa(x) = 0 si x ≠ a Moments : Si X O δa (X est une variable aléatoire qui suit la loi de δa). Soit X une variable aléatoire tel que ∀w∈Ω X(w) = a Si X est discret : Ω⊂Õ E[X] = P(X=a).a = δa(a).a = a Si X est continue : Ω⊂— E[X] = P(X=a).a = a E(X) = a IV.1.2 : Loi indicatrice (ou loi de Bernoulli) Définition : On appelle variable indicatrice X la variable à valeurs dans {0, 1} telle que PX{1} = p et PX{0} = q avec p∈[0, 1] et q = 1-p et on la note par B(p). XOB(p) E[X] = 0*P(X=0) + 1*P(X=1) = p V(X) = E[X²] – E²[x] = 0*P(X=0) + 1*P(X=1) – p² = p – p² = p(1-p) = pq. IV.1.3 : Loi de Poisson La variable aléatoire X suit la loi de Poisson de paramètre λ (λ>0) si X = Õ et ∀x∈Õ PX{x} = e −λ λx x! On note XOP(λ). Les moments : +∞ E[ X ] = ∑ xe −λ x =0 +∞ +∞ λx λ x −1 λy −λ −λ = λe ∑ = λe ∑ = λe −λ e λ = λ . x! x = 0 ( x − 1)! y = 0 y! 1 23 eλ V ( X ) = E[ X ] − E [ X ] 2 2 E[ X 2 ] = ? (E[ϕ ( X )] = ∫ ϕ ( x) f ( x)dx ) E[ϕ ( X )] = ∑ ϕ ( x) P( X = x) x +∞ +∞ E[ X 2 ] = ∑ x ² P( X = x) = ∑ x ² e −λ x =0 +∞ = e −λ λ ∑ ( x + 1) x =0 x =1 +∞ λx λx = e −λ ∑ x = x! ( x − 1)! x =1 +∞ +∞ +∞ +∞ λ λx λx λ x −1 λx = e −λ λ ∑ x + e −λ λ ∑ = e −λ λ2 ∑ + λ == e −λ λ2 ∑ + λ x! x! x =0 x = 0 x! x =1 ( x − 1)! x = 0 x! x E[ X ] = λ2 + λ 2 V ( X ) = λ2 + λ − λ2 = λ 2 IV.1.4 : Loi Binomiale On considère n tirages équiprobables indépendants dans une population composée de deux types d’éléments. Le premier (I) en proportion p. Le second (II) en proportion q = 1-p. Soit X le nombre d’éléments du type (I) présent dans l’échantillon de taille n. X est une variable aléatoire à valeur dans {0, 1, …, n}. La loi de X est appelée loi binomiale de paramètre (n, p) et est notée B(n, p). Supposons qu’à l’individu n)i de l’échantillon (i=1 à n) on associe la variable aléatoire Yi tel que P(Yi=1) = p si i∈(I) P(Yi=0) = 1-p si i∈(II) Alors X = n ∑Y i =1 i . Comme YiOB(p), on peut écrire que la loi binomiale B(n, p) est la somme de n lois de Bernoulli indépendantes. n n i =1 i =1 E[ X ] = ∑ E[Yi ] = ∑ p = np n n i =1 i =1 V [ X ] = ∑ V [Yi ] = ∑ pq = npq Définition : Une variable aléatoire X suit une loi binomiale de paramètre (n , p) si : P X ({x}) = C nx p x q n − x pour x∈{0, 1, …, n}. IV.1.5 : Loi multinomiale C’est la généralisation de la loi binomiale. On considère m types dont chaque type j est en proportion pj avec m ∑p j =1 j = 1. On tire de façon équiprobable et indépendante, un échantillon de taille n, et on définit la variable aléatoire Nj (1≤j≤m) à valeur dans {0, 1, …, n}, représentant le nombre d’éléments de type j. On dit que le vecteur (N1, …, Nm) suit une loi multinomiale de paramètre (n, p1, …, pm), notée M(n, p1, …, pm). Définition : m Le vecteur aléatoire X = (N1,…, Nm) suit une loi multinomiale de paramètres (n, p1, …, pm) ; pj>0 et ∑p j =1 Si PX{(n1, …, nm)}= j =1 n! P1n1 ...Pmnm n1!...n m ! IV.1.6 : Loi hypergéométrique On considère un tirage équiprobable sans remise de n éléments dans une population de taille N (n≤N), on s’intéresse à un type donné (I), d’éléments de la population, que l’on supposera être de proportion p. Soit X le nombre d’éléments de type (I). La loi de X est appelée : loi hypergéométrique de paramètre N, n, p et est notée H(N, n, p). Définition : X suit une loi hypergéométrique de paramètres N, n, p si : P X {x} = x n− x C Np C NQ C Nn avec q=1-p et Max(0, n-Nq) ≤x≤Min(n, Np) Remarque : Np est un entier. Moments : E[X] = np V (X ) = N −n npq N −1 3 IV.2 : Lois continues IV.2.1 : Loi uniforme Définition : X suit une loi uniforme sur [a, b], si sa densité est donnée par : f ( x) = On note par XOU[a, b]. 1 .1[ a ,b ] ( x) b−a x−a pour x∈[a, b] b−a x a a 1 1 x−a .1[ a ,b ] ( x)dx = ∫ 0dx + ∫ f ( x)dx = ∫ dx = −∞ b − a −∞ −∞ b − a b−a La fonction de répartition est F ( x ) = F ( x) = P( X ≤ x) = ∫ x −∞ Moments : XOU[a, b] 2 ( b − a) V ( x) = a+b E[ X ] = 2 2 IV.2.2 : Loi gamma Définition : X suit la loi gamma de paramètre p et ϑ ; p>0 ; ϑ>0, notée γ(p, ϑ) si sa densité est : +∞ ϑ p −ϑx p −1 f ( x) = e x .1R ( x) où Γ( p ) = ∫ e − x x p −1 dx 0 Γ( p ) + Remarques : a) Si le paramètre d’échelle ϑ est égale à 1 on écrira γ(p, 1) ou γ(p). Si ϑ≠1 la variable aléatoire Y = ϑX suit γ(p). b) Si p = 1, la loi gamma γ(1, ϑ) porte le nom de loi exponentielle de paramètre ϑ et sa fonction de répartition est F(x) = 1-e -ϑx. Propriétés de Γ : Γ(p) = (p-1) Γ(p-1) ; ∀p>0 Γ(p) = (p-1)! ∀p∈Õ* 1 Γ( ) = π . 2 Moments : Si X suit une loi γ(p, ϑ) on a : E[ X ] = r Γ( p + r ) ϑ r Γ( p ) E[ X ] = p ϑ ;V ( X ) = p ϑ² 4 IV.2.3 : Loi normale unidimensionnelle Définition : X suit une loi normale de paramètres m, Γ (Γ>0) si la densité est donnée par f ( x ) = 1 Γ 2π e − ( x − m )² 2Γ ² x∈—. On note par XON(m, Γ). Moments : E[X] = m ; V(X) = Γ² Loi normale centrée réduite : La variable aléatoire u = et f u (u ) = 1 2π e − X −m suit une loi normale de moyenne nulle et de variance égale à 1 notée N(0, 1) Γ u² 2 X centrée ⇔ E[X] = 0 X réduite ⇔ V(X) = 1 IV.2.4 : Loi normale multidimensionnelle Soit X un vecteur aléatoire de —p de coordonnées Xi. Définition : u1 Soit u = .. un vecteur quelconque de —p. u n X est un vecteur normal ( au gaussien) si ∀u ; tuX est une variable aléatoire normale. Définition : Soit m∈ —p et Σ une matrice (p, p) réelle symétrique positive. X est un vecteur normal de dimension p si sa densité est donnée par : f ( x) = (2π ) 1 p/2 t det Σ e −1 / 2 ( x − m ) Σ −1 ( x−m) Propriété : E[X] est le vecteur espérance m et Σ est la matrice de variance-covariance et on note la loi X par N(m, Σ). Définition : p La loi N(0, Ip) est appelée loi normale centrée et réduite de densité f ( x1 ,.., x p ) = 1 (2π ) p/2 e −1 / 2 ∑ xi2 i =1 IV.2.5 : Loi Log-normale Soit Y une variable aléatoire ON(m, Γ). La variable aléatoire X définie par X = exp Y suit une loi Log-normale. La densité de X est : f ( x ) = (log x − m )2 exp − 2Γ ² Γ 2π 1 .1 + ( x) R 5 IV.2.6 : Loi de Khi-deux (Χ²) On considère n variables aléatoires (X1, …, Xn) indépendantes suivant la normale N(0, 1). Définition : La variable aléatoire u = n ∑X i =1 f u ( x) = 1 − n 2 n / 2 Γ( ) 2 x 2 e x n −1 2 2 i suit une loi dite de Khi-deux à n degrés de i-1 libertés. Notée Χ²(n) de densité .1R + ( x) Moments : E[u] = n et V(u) = 2n IV.2.7 : Loi de student Définition : Soient X et Y deux variables aléatoires indépendantes suivant respectivement N(0, 1) et Χ²(n). On appelle loi du student à n degrés de libertés la loi définie par : Tn = f Tn ( x) = 1 x² (1 + ) 1 n n n Β( , ) 2 2 n +1 2 où Β( p, q) = X Y n sa densité : Γ ( p )Γ ( q ) Γ( p + q ) Moments : V (Tn ) = E[Tn] = 0 si n>1 n si n > 2 n−2 Cas particulier : Loi de Cauchy X Pour n = 1, T1 = Y f T1 ( x) = 1 π (1 + x ²) Si f est la densité de X. F(x) = P(X≤x) = ∫ x −∞ f (t )dt IV.2.8 : Loi de Fisher-Snedecor : Définition : Soient X et Y deux variables aléatoires indépendantes suivant respectivement les lois Χ²(n) et Χ²(m). X /n suit une loi de Fisher-Snedecor à n et m degrés de liberté notée Fn, m. Y /m −1 1 xn/2 n/2 m/2 La densité est : f F ( x ) = n m .1R + ( x) n+ m n m 2 Β( , ) ( m + n) 2 2 La variable F = Moments : 1 (m > 2) m−2 2m²(n + m − 2) V ( Fn ,m ) = n(m − 4)(m − 2)² E[ Fn ,m ] = (m > 4) 6