Probabilités-Statistique Cours et Exercices i Dr. Jean Marc OWO Table des matières 1 Analyse combinatoire 1 1. Cardinal d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2. Principes fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2.1. Principe multiplicatif . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2.2. Principe additif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3. Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 4. Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 5. Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 6. Répartitions d’objets dans des cases discernables . . . . . . . . . . . . . . . . 6 6.1. Cas d’objets discernables . . . . . . . . . . . . . . . . . . . . . . . . . 6 6.2. Cas d’objets indiscernables . . . . . . . . . . . . . . . . . . . . . . . . 7 2 Notions de probabilités 1. 9 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.1. Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2. Événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.3. Langage des événements . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.4. Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.5. Système complet d’événements . . . . . . . . . . . . . . . . . . . . . 11 2. Notion de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 3. Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 3.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 3.2. Formule des probabilités composées . . . . . . . . . . . . . . . . . . . 14 3.3. Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . 14 3.4. Formule de Bayes ou probabilités des causes . . . . . . . . . . . . . . 14 Indépendance d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 4.1. Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . 15 4.2. Indépendance mutuellede n événements . . . . . . . . . . . . . . . . . 15 4. ii TABLE DES MATIÈRES 3 Variables aléatoires réelles 16 1. Exemples et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2. Loi d’une variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . . . . . 18 2.1. Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.2. Fonction de masse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.3. Fonction de densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Variables aléatoires réelles discrètes . . . . . . . . . . . . . . . . . . . . . . . 20 3.1. Loi d’une v.a.r. discrète . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.2. Loi d’une fonction d’une v.a.r. discrète . . . . . . . . . . . . . . . . . 21 Variables aléatoires réelles continues . . . . . . . . . . . . . . . . . . . . . . . 22 4.1. Loi d’une v.a.r. continue . . . . . . . . . . . . . . . . . . . . . . . . . 22 4.2. Loi d’une fonction continue d’une v.a.r. continue . . . . . . . . . . . . 23 5. Moments d’une variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . . 24 6. Fonction caractéristique - Fonction génératrice . . . . . . . . . . . . . . . . . 26 6.1. Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . 26 6.2. Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3. 4. 4 Lois de probabilités usuelles 1. 2. 28 Lois usuelles discretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.1. Loi de Bernoulli B(1, p) . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.2. Loi Binomial B(n, p) . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.3. Loi Hypergéométrique H(N, n, p) ou H(N, N p, n) . . . . . . . . . . . 29 1.4. Loi géométrique G(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.5. Loi Binomial négative BN (r, p) . . . . . . . . . . . . . . . . . . . . . 31 1.6. Loi de Poisson P(λ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.7. Loi uniforme sur {1, ..., n} ; U{1,...,n} . . . . . . . . . . . . . . . . . . . 32 1.8. X L, avec X(Ω) = N . . . . . . . . . . . . . . . . . . . . . . . . . 32 Lois usuelles continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.1. Loi uniforme sur [a, b], a < b ∈ R . . . . . . . . . . . . . . . . . . . . . 33 2.2. Loi exponentielle ξ(θ), θ > 0 . . . . . . . . . . . . . . . . . . . . . . . 33 2.3. Loi Gamma γ(a, ρ), a > 0, ρ > 0 . . . . . . . . . . . . . . . . . . . . . 34 2.4. Loi normale N (m, σ 2 ) (ou loi de Gauss) . . . . . . . . . . . . . . . . 35 2.5. Loi de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 5 Vecteurs aléatoires 37 1. Introdution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2. Loi conjointe d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . 37 2.1. 37 Fonction de repartition . . . . . . . . . . . . . . . . . . . . . . . . . iii Dr. Jean Marc OWO TABLE DES MATIÈRES 2.2. Vecteur aléatoire discret . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.3. Vecteur aléatoire absolument continu . . . . . . . . . . . . . . . . . . 38 3. Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4. Espérance mathématique et matrice de covariance . . . . . . . . . . . . . . . 40 5. Indépendance et conditionnement . . . . . . . . . . . . . . . . . . . . . . . . 42 6. Vecteurs aléatoires Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . 45 6.1. Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 6.2. Lois dérivées d’un vecteur Gaussien . . . . . . . . . . . . . . . . . . . 46 6 Convergences 48 1. Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 2. Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3. Convergence presque sure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4. Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.1. 49 Forme multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . . . iv Dr. Jean Marc OWO Chapitre 1 Analyse combinatoire L’analyse combinatoire a pour but de dénombrer les différentes dispositions que l’on peut former à partir d’un nombre fini d’éléments. Ce chapitre fournit des méthodes de dénombrement particulièrement utiles en probabilités. 1. Cardinal d’un ensemble fini Définition 1.1. Un ensemble E non vide est dit fini s’il existe un entier n et une bijection de {1, 2, ..., n} sur E. Lorsqu’il existe, l’entier n est unique et est noté Card(E). C’est le cardinal ou le nombre d’éléments de E. Définition 1.2. Un ensemble E est dit dénombrable s’il existe une bijection de N sur E. Un ensemble E est dit infini non dénombrable s’il n’est ni fini, ni dénombrable. Soit E un ensemble fini et A, B deux parties de E. Proposition 1.1. 1. Si Ā est le complémentaire de A dans E alors Card(A) = Card(E) − Card(A). 2. Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B). 3. Si A ∩ B = ∅, alors Card(A ∪ B) = Card(A) + Card(B) 4. Card(A × B) = Card(A) × Card(B) 2. Principes fondamentaux 2.1. Principe multiplicatif Ce principe est à la base des techniques de denombrement. Il permet de compter le nombre de résultats d’expériences qui peuvent se décomposer en une succession de sous-expériences, i.e. en une suite d’expériences partielles, réalisées l’une après l’autre. 1 CHAPITRE 1. ANALYSE COMBINATOIRE Principe : Supposons qu’une expérience est la succession de r sous-expériences. Supposons de plus que la première sous-expérience peut produire n1 résultats, et pour chaque résultat de la première sous-expéience, il y a n2 résultats possibles pour la deuxième sous-expérience ; pour chaque résultat des deux premières sous-expériences, il y en a n3 pour la troisième, etc. Alors, le nombre total de résultats de l’expérience complète est le produit n1 × n2 × ... × nr . Interprétation avec les ensembles : Si E = E1 × E2 × ... × Er (produit cartesien), alors Card(E) = Card(E1 ) × Card(E2 ) × ... × Card(Er ). Exemple 1 : On considère trois villes : Abidjan, Agboville et Akoupé et On suppose qu’il y a 5 chemins différents pour aller d’Abidjan à Agboville et 3 chemins pour aller d’Agboville à Akoupé. Combien de chemins différents y a t il pour aller d’Abidjan à Akoupé en passant par Agboville ? Exemple 2 : Supposons qu’une plaque d’immatriculation contenant deux lettres distinctes suivies de trois chiffres dont le premier est différent de zéro. Combien de plaques différentes peut-on imprimer ? Exemple 3 : Nous désirons former un comité de 3 personnes dont 1 président, 1 secrétaire et 1 trésorier à partir d’une classe de 20 élèves. Combien de comités différents est-il possible de faire ? 2.2. Principe additif Il permet de compter le nombre de résultats d’expériences qui peuvent se décomposer en des sous-expériences mutuellement exclusives (les expériances qui n’ont aucun résultat commun) . Principe : Supposons qu’une expérience se décompose en r sous-expériences mutuellement exclusives. Si la i−ème sous-expérience a ni résultats possibles (avec i = 1, 2, ..., r), alors le nombre total de résultats de l’expérience complète est la somme n1 + n2 + ... + nr . Interprétation avec les ensembles : Si E = E1 ∪ E2 ∪ ... ∪ Er avec Ei ∩ Ej = ∅, pour tout i 6= j (partition), alors Card(E) = Card(E1 ) + Card(E2 ) + ... + Card(Er ). Lorsqu’on veut dénombrer un ensemble fini E, on peut trouver une partition E1 , E2 , ..., En de cet ensemble, où les cardinaux des ensembles Ei sont plus faciles à déterminer. Il ne reste alors qu’à faire la somme des differents cardinaux obtenus 2 Dr. Jean Marc OWO CHAPITRE 1. ANALYSE COMBINATOIRE Exemple 4 : On considère trois villes : Abidjan, Agboville et Adzopé. On suppose qu’il y a 5 chemins différents pour aller d’Abidjan à Agboville et 3 chemins pour aller d’Abidjan à Adzopé. Combien de chemins différents y a t il pour aller d’Abidjan à l’une des deux autres villes ? Exemple 5 : En plus des conditions de l’exemple 1 et 4, on suppose qu’il y a 2 chemins pour aller d’Adzopé à Akoupé et 4 chemins directs d’Abidjan à Akoupé. Combien de chemins différents y a-t-il pour aller d’Abidjan à Akoupé ? 3. Permutations Une permutation de n éléments est un réarrangement ordonné de ces n éléments. Notation : La fonction "factorielle" est la fonction de N vers N qui a tout n ∈ N associe n! = n(n..1) × ... × 2 × 1. On a : 0! = 1 et n! = n(n − 1)!. • Lorsque tous les n éléments sont distincts, on parle de permutations sans répétitions. Dans ce cas le nombre de permutations de n éléments est n!. Remarque : Une permutation de n éléments distincts est une application bijective d’un ensemble E à n éléments dans lui-même. • Si parmi les n éléments, certains sont semblables, on parle de permutations avec répétitions. Le nombre de permutations de n éléments dont n1 sont semblables, n2 sont semblables, ..., nr sont semblables est n! n1 ! × n2 ! × ... × nr ! avec n1 + n2 + ... + nr = n. Exemples : - Le nombre d’applications d’un ensemble de n éléments distincts dans un ensemble de r éléments distincts {a1 , .., ar } qui envoient exactement n1 éléments dans a1 , n2 éléments dans a2 ,..., nr éléments dans ar est égal à n! . n1 ! × n2 ! × ... × nr ! 4. Arrangements • Un arrangement sans répétitions de p éléments parmi n éléments distincts est une permutation de p éléments distincts pris parmi les n (p ≤ n). Cela revient à prendre p éléments distincts parmi les n en tenant compte de l’ordre dans lequel on les choisit. 3 Dr. Jean Marc OWO CHAPITRE 1. ANALYSE COMBINATOIRE Remarque : (i) Les éléments sont pris sans répétition et en tenant compte de l’ordre dans lequel on les choisit. (ii) Un arrangement sans répétitions de p éléments parmi n est une application injective de {1, 2, ..., p} dans un ensemble F à n éléments. On note Apn le nombre d’arrangements sans répétitions de p éléments parmi n. On a Apn = n(n − 1) × ... × (n − p + 1) = n! . (n − p)! Propriétés : (i) Apn = nAp−1 n−1 p (ii) Apn = pAp−1 n−1 + An−1 Exemples : - Si E et F sont des ensembles finis tels que Card(E) = p et Card(F ) = n, alors le nombre d’applications injectives de E dans F est Apn = n(n − 1) × ... × (n − p + 1) si p ≤ n et 0 sinon. - Le nombre de tirages différents sans remise de p boules dans une urne contenant n boules toutes discernables est égal à Apn = n(n − 1) × ... × (n − p + 1) si p ≤ n et 0 sinon. - Le nombre de façons de placer p objets distincts dans n cases discernables, chaque case pouvant contenir au plus 1 objet est Apn = n(n − 1) × ... × (n − p + 1) si p ≤ n et 0 sinon. • Un arrangement avec répétitions (possibles) de p éléments parmi n est une disposition ordonnée de p éléments avec autant de répétitions que l’on souhaite. Remarque : Un arrangement avec répétitions de p éléments parmi n est une application de {1, 2, ..., p} dans un ensemble F à n éléments. Le nombre d’arrangements avec répétitions de p éléments parmi n est np . Exemples : - Si E et F sont des ensembles finis tels que Card(E) = p et Card(F ) = n, alors le nombre d’applications de E dans F est np . - Le nombre de tirages différents de p boules dans une urne contenant n boules toutes discernables est égal à np lorsque les tirages sont non exhaustifs (i.e. avec remise après chaque tirage). - Le nombre de façons de placer p objets distincts dans n cases discernables, chaque case pouvant contenir éventuellement plusieurs objets est np . 4 Dr. Jean Marc OWO CHAPITRE 1. ANALYSE COMBINATOIRE 5. Combinaisons • Une combinaison sans répétitions de p éléments pris dans un ensemble à n éléments distincts (p ≤ n) est un sous-ensemble à p éléments de cet ensemble. Remarque : Les éléments sont pris sans répétition et ne sont pas ordonnés. Exemple : Les combinaison sans répétitions de 2 éléments pris dans l’ensemble {1, 2, 3, 4} sont : {1, 2} , {1, 3} , {1, 4} , {2, 3} , {2, 4} , {3, 4} . Le nombre de combinaisons (sans répétitions) de p éléments parmi n est noté Cnp ou (np ) qui est appelé coefficient binomial. On a Cnp Apn n! = = . p! p!(n − p)! Exemples : - Si E est un ensemble fini tels que Card(E) = n, alors le nombre de parties de E ayant p éléments est Cnp . - Le nombre d’applications d’un ensemble de n éléments dans l’ensemble {a1 , a2 } (a1 6= a2 ) qui envoient exactement p éléments dans a1 et les autres dans a2 est égal Cnp . - Le nombre de façons de placer p objets indiscernables dans n cases discernables, chaque case pouvant contenir au plus 1 objet est Cnp si p ≤ n et 0 sinon. Propriétés : (i) Cn0 = Cnn = 1 (ii) Cnp = Cnn−p p−1 p (iii) Formule de récurrence (Triangle de Pascal) Cnp = Cn−1 + Cn−1 n X Cnp ap bn−p (iv) Formule de Binôme de Newton (a + b)n = p=0 En particulier, 2n = n X Cnp (Le nombre de parties d’un ensemble à n éléments). p=0 • Une combinaison avec répétitions (possibles) de p éléments pris dans un ensemble à n éléments distincts est une disposition non ordonnée de p éléments avec possibilité de répétitions. Exemple : Les combinaison avec répétitions (possibles) de 2 éléments pris dans l’ensemble {1, 2, 3, 4} sont : {1, 1} , {1, 2} , {1, 3} , {1, 4} , {2, 2} , {2, 3} , {2, 4} , {3, 3} , {3, 4} , {4, 4} . Le nombre de combinaisons avec répétitions de p éléments parmi n est noté Knp ou ((np )). On a p Knp = ((np )) = Cn+p−1 . Exemples : Le nombre de façons de placer p objets indiscernables dans n cases discernables, chaque p case pouvant contenir éventuellement plusieurs objets est Cn+p−1 . 5 Dr. Jean Marc OWO CHAPITRE 1. ANALYSE COMBINATOIRE 6. Répartitions d’objets dans des cases discernables Dans tout ce qui suit, on dispose de n objets et r cases discernables. On désire dénomber la répartition des objets dans les cases. On suppose que les cases sont discernables. 6.1. Cas d’objets discernables On suppose que les n objets sont tous discernables. • La répartition des objets se fait sans contrainte Sous cette hypothèse, une répartition des objets est identifiable à une application de l’ensemble des n objets vers l’ensemble des r cases. Alors, le nombre de répartions possibles est rn . • La répartition des objets se fait sans qu’aucune case ne reste vide (i) Si r > n, alors le nombre de répartions des objets est zéro. (ii) Si r < n, alors le nombre de répartions des objets est Arn × r(n−r) En effet, on considère la répartion des objets comme une expérience qu’on subdivise en deux sous-expériences. La première sous-expérience consiste à mettre dans chaque case un objet et la deuxième à répartir le reste des objets sans contrainte. On a Arn façons de mettre dans chaque case un objet et un seul. A chacune de ces répartitions, on a r(n−r) façons de répartir le reste des objets. D’après le principe fondamental, on déduit le résultat énoncé. • La répartition des objets se fait de telle sorte que la case i contienne ni objets. La répartition des objets est identifiable à une expérience qu’on peut subdiviser en r sous-expériences. La ième sous-expérience est le chox des objets à mettre dans la case i. A chaque choix des objets des cases 1, ..., k − 1, on a C nk n− k−1 X choix possibles des objets à ni i=1 mettre dans la case k. D’après le principe fondamental, le nombre de répartions des objets est n2 Cnn1 × Cn−n × ... × C nr 1 n− r−1 X . ni i=1 En remarquant que r X ni = n, on tire que : i=1 Le nombre de répartitions de n objets discernables dans r cases discernables de telle sorte que la case i contienne ni objets est n! . n1 ! × n2 ! × ... × nr ! Cette quantité est noté (n1 ,nn2 ,...,nr ) et est appelé coefficient multinomial. 6 Dr. Jean Marc OWO CHAPITRE 1. ANALYSE COMBINATOIRE 6.2. Cas d’objets indiscernables Ici, on considère que tous les n objets sont indiscernables • La répartition des objets se fait sans qu’aucune case ne reste vide Puisque les objets sont indiscernables, ce qui différencie les répartitions possibles est la suite n1 , ..., nr où ni désigne le nombre d’objets dans la case i. On doit avoir ni ≥ 1. Supposons qu’on a n objets indiscernables alignés et qu’on veut les diviser en r groupes non vides. Ces objets peuvent être représentés comme suit : 0|0|0|0|...|0|0|0 où les 0 représentent les n objets indiscernables, les bars | de séparation symbolisant les n − 1 espaces entre ces objets. Pour avoir une répartition des objets, il suffit de choisir r − 1 des n − 1 espaces comme bars de division. Si par exemple, n = 6, r = 3 et qu’on choisit les deux bars de séparation comme suit : 000|0|00, on obtient la répartition où il y a trois objets dans la première case, un objet dans la deuxième case et deux objets dans la troisième case. Ainsi, Le nombre de répartitions de n objets indiscernables dans r cases sans qu’aucune case r−1 ne reste vide est Cn−1 . Remarque : Notons que le nombre de répartitions de n objets indiscernables dans r cases discernables est identique au nombre de vecteurs (n1 , ..., nr ) à composantes entières supérieures ou égales à 1 tels que n1 + ... + nr = n. • La répartition des objets se fait sans aucune contrainte Puisque les objets sont indiscernables, ce qui différencie les répartitions possibles est la suite n1 , ..., nr où ni désigne le nombre d’objets dans la case i. Sans contrainte, ni ≥ 0. - Prmière méthode Comme précédemment, le nombre de répartitions de n objets indiscernables dans r cases discernables est identique au nombre de vecteurs (n1 , ..., nr ) à composantes entières supérieures ou égales à 0 tels que n1 + ... + nr = n. Par changement de variable mi = ni + 1, i = 1, ..., r, on obtient l’équation suivante : m1 + ... + mr = n + r, mi ≥ 1, i = 1, ..., r. r−1 n Le nombre de vecteurs solution de cette équation est Cn+r−1 = Cn+r−1 . 7 Dr. Jean Marc OWO CHAPITRE 1. ANALYSE COMBINATOIRE - Deuxième méthode Désignons par ei la ième case, i = 1, ..., r. Ainsi, une répartition de ces n correspond à une combinaison avec répétition de n éléments parmi e1 , e2 , ..., er . Par exemple n = 6, r = 5 : (e1 , e1 , e2 , e4 , e4 , e4 ) signifie qu’on a la répartition : - 2 objets sont placés dans la première case, - 1 objet est placé dans la deuxième case, - aucun objet dans la troisième case, - 3 objets dans la quatrième case, - aucun objet dans la cinquième case. e e 3 5 z}|{ e4 z}|{ 00 | 0 | | 000 | e1 e2 Par conséquent, il y a autant de façons de répartir les objets dans les cases qu’il y a de n combinaisons avec répétition de n éléments choisis parmi r. On a donc ((rn )) = Cn+r−1 répartitions. Ou bien déplaçons provisoirement les r − 1 points intermédiaires et rassemblons les : ||||||...|||||| | {z } 0000000...0000000 {z } | nobjets indiscernables r−1bars intermédiaires Par permutation des r − 1 bars (indiscernables) et des n objets indiscernables, on obtient une et une seule répartition des objets. Ainsi Le nombre de répartitions de n objets indiscernables dans r cases sans contrainte est (r − 1 + n)! r−1 n = Cn+r−1 = Cn+r−1 . (r − 1)! × n! 8 Dr. Jean Marc OWO Chapitre 2 Notions de probabilités Le but de ce chapitre est d’introduire les bases mathématiques utiles à la modélisation des phénomènes aléatoires. Ainsi, l’objectif visé est de donner un sens mathématique à la notion de "hasard". 1. Généralités 1.1. Expérience aléatoire Une expérience ou un phénomène est dit aléatoire si on ne peut prévoir d’avance le résultat et qui répétée dans les même conditions peut donner lieu à des résultats différents. Exemples - Le lancer d’un dé à six faces. - Le lancer d’une pièce de monnaie. - Le tirage d’un numéro parmi n numéros. L’ensemble des résultats d’une expérience aléatoire est bien déterminé avant sa réalisation, i.e. avant l’épreuve. Cet ensemble est appelé l’espace fondamental ou l’univers de l’expérience. On le note en général Ω. Exemples - Pour le lancer d’un dé à six faces numéroté de 1à 6, Ω = {1, 2, 3, 4, 5, 6}. - Pour le lancer d’une pièce de monnaie, Ω = {P, F }. Tout résultat d’une expérience aléatoire s’appelle aussi une éventualité. On note ω le résultat obtenu lors de la réalisation d’une expérience aléatoire. 1.2. Événements Lorsqu’on effectue une expérience aléatoire, certains faits liés à cette expérience peuvent se produit ou non. On les appelle événements. Ils sont représentés par les sous-ensembles de 9 CHAPITRE 2. NOTIONS DE PROBABILITÉS l’univers Ω. Exemple Pour le lancer d’un dé à six faces numéroté de 1à 6, "obtenir un nombre pair", "obtenir plus de 4" sont des événements possibles. Notons A l’événement "obtenir un nombre pair" et B l’événement "obtenir plus de 4". A est décrit par les éventualités 2,4 et 6. On écrit : A = {2, 4, 6}. B est décrit par les éventualités 5 et 6. On écrit : B = {5, 6}. Tout événement formé d’une seule éventualité est appelé événement élémentaire. 1.3. Langage des événements On dit qu’un événement A s’est réalisé si le résultat observé de l’expérience est un élément de A. Tout événement qui n’est jamais réalisé est dit événement impossible, il correspond à l’ensemble vide ∅. Exemple, "obtenir un nombre négatif", dans un lancer de dé est un événement impossible à réaliser. Tout événement qui est toujours réalisé est dit événement certain, il correspond à l’ensemble Ω. Exemple, dans un lancer de dé "obtenir moins de 7" ou "obtenir plus de 0" sont des phrases équivalentes correspondant toutes deux à un événement toujours réalisé, soit à à l’ensemble Ω. A chaque événement A correspond son événement contraire "non A" noté A. L’événement A est réalisé si, et seulement si, A n’est réalisé. L’événement certain et l’événement impossible sont contraires l’un de l’autre. On considère deux événements A et B. On dit que l’événement "A et B", noté A ∩ B, s’est réalisé si le résultat observé de l’expérience est un élément de A et de B, i.e. si A et B sont réalisés au cours de la même expérience aléatoire. Les événements A et B sont dits incompatibles ou disjoints s’ils ne peuvent pas se produire simultanément au cours de la même expérience aléatoire. Autrement dit A et B sont incompatibles si, et seulement si, A ∩ B = ∅. Deux événements contraires sont incompatibles : A ∩ A = ∅. On dit que l’événement "A ou B", noté A ∪ B, s’est réalisé si le résultat observé de l’expérience est un élément de A ou de B, i.e. si l’un au moins des deux événements A ou B est réalisé au cours de la même expérience aléatoire. Remarque : Pour tout événement A, on a, A = CΩ A, A ∪ A = Ω et A ∩ A = ∅. 10 Dr. Jean Marc OWO CHAPITRE 2. NOTIONS DE PROBABILITÉS De même, on définit les événements : − La différence : A\B = A ∩ B. Remarque : A\B = A\A ∩ B. L’événement A\B est réalisé si, et seulement si, A est réalisé et B ne l’est pas. − La différence symétrique : A∆B = (A\B) ∪ (B\A) = (A ∪ B)\(A ∩ B). L’événement A∆B est réalisé si, et seulement si, l’un et l’un seulement des deux événements A et B est réalisé. On dit que A implique B si la réalisation de A entraine la réalisation de B. Autrement dit A implique B si, et seulement si, A ⊂ B. 1.4. Espace probabilisable Soit Ω l’univers d’une expérience aléatoire. On considère P(Ω) l’ensemble des parties de Ω. Un sous-ensemble F de P(Ω) est un ensemble de parties de Ω. Définition 2.1. Un sous-ensemble F de P(Ω) est une tribu sur Ω si (i) Ω ∈ F, (ii) F est stable par passage au complémentaire (i.e. A ∈ F =⇒ A ∈ F), (iii) F est stable par réunion dénombrable (i.e. Ai ∈ F, i ∈ N =⇒ ∪∞ i=0 Ai ∈ F). Exemples - {∅, Ω} est une tribu appelée tribu grossière. C’est la plus petite tribu sur Ω. - P(Ω) est une tribu appelée tribu triviale. C’est la plus grande tribu sur Ω. - Pour tout A ⊂ Ω, ∅, A, A, Ω est une tribu. C’est la tribu engendrée par l’événement A, c-à-d la plus petite tribu sur Ω contenant A. On la note σ(A). Le couple (Ω, F) formé d’un ensemble Ω et d’une tribu F est appelé un espace probabilisable. Définition 2.2. On appelle tribu borélienne la tribu définie sur R et qui contient tous les intervalles de R. On la note BR . 1.5. Système complet d’événements Dans cette partie, I désigne une partie de N ou de Z Définition 2.3. Soit (Ω, F) un espace probabilisable. On appelle système complet d’événements toute famille {Ai , i ∈ I} d’événements de F deux à deux incompatibles tels que [ Ai = Ω. i∈I Exemple Pour tout A ⊂ Ω, A, A est un système complet d’événements. 11 Dr. Jean Marc OWO CHAPITRE 2. NOTIONS DE PROBABILITÉS 2. Notion de probabilité On considère une expérience aléatoire d’univers Ω. Soit A ⊂ Ω. On répète l’expérience n fois. Soit nA le nombre de réalisation de A. Soit fn (A) la fréquence de réalisation de A. Alors fn (A) = nA et 0 ≤ fn (A) ≤ 1. n On a (i) fn (Ω) = 1 (ii) Si A et B sont deux événement incompatibles alors fn (A ∪ B) = fn (A) + fn (B) On montre que lorsque n tend vers l’infini, fn (A) converge vers une quantité P (A) qui sera appelée probabilité de l’événement A. Définition 2.4. Soit Ω l’univers d’une expérience aléatoire. Soit F une tribu définie sur Ω. On appelle probabilité sur l’espace probabilisable (Ω, F), toute application P : F −→ [0, 1] telle que (i) P (Ω) = 1 (ii) Pour toute suite (An )n≥0 d’éléments de F deux à deux incompatibles on a P( ∞ [ An ) = ∞ X n=0 P (An ). n=0 La quantité P (A) s’appelle la probabilité de l’événement A et le triplet (Ω, F, P ) espace probabilisé. Exemple : Probabilité uniforme Soit (Ω, P(Ω)) un espace probabilisable fini c’est à dire tel que Ω est fini. On suppose que tous les événements élémentaires ont la même probabilité ce qui s’énonce en disant qu’on a l’hypothèse d’équiprobabilité. Sous cette hypothèse, la probabilité d’un événement A est alors donnée par P (A) = card(A) Nb de cas favorables à A = . card(Ω) Nb de cas possibles Cette probabilité est dite uniforme sur Ω. Notons qu’il est impossible d’avoir l’hypothèse d’équiprobabilité sur un espace probabilisable non fini. Propriété 2.1. Toute probabilité sur un espace probabilisable (Ω, F) vérifie les propriétés suivantes : (P 1) P (∅) = 0 (P 2) P (A) = 1 − P (A) (P 3) P (A \ B) = P (A) − P (A ∩ B) (P 4) Si A ⊂ B alors P (A) ≤ P (B) (P 5) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) 12 Dr. Jean Marc OWO CHAPITRE 2. NOTIONS DE PROBABILITÉS (P 6) Formule de Poincaré : P( n [ Ai ) = i=1 n X P (Ai ) − i=1 n X P (Ai ∩ Aj ) + (−1)k−1 X 1≤i<j≤n X P (Ai1 ∩ ... ∩ Aik ), 1≤i1 <i2 <...<ik k=3 soit P( n [ Ai ) = i=1 n X X (−1)k−1 k=1 \ P ( Ai ). I⊂[[1,n]],|I|=k i∈I (P 7) Pour toute suite croissante (An )n≥0 d’éléments de F, on a P( ∞ [ An ) = lim P (An ). n→∞ n=0 (P 8) Pour toute suite décroissante (An )n≥0 d’éléments de F, on a P( ∞ \ An ) = lim P (An ). n=0 n→∞ Définition 2.5. Soit (Ω, F, P ) un espace probabilisé. - Si A est un événement de probabilité nulle, on dit que A est négligeable. - Soit P une propriété. Si A = {ω ∈ Ω/ω vérifie P} et P (A) = 1, on dit que P est vraie presque sûrement (p.s.). Remarque : Ces notion dependent de P . ? Détermination d’une probabilité sur un espace probabilisable dénombrable. Soit I une partie de N ou Z, Ω = {ωi , i ∈ I} un ensemble et (pi )i∈I une famille de nombre réels. Soit P une application sur (Ω, P(Ω)) telle que pour tout i ∈ I, P ({ωi }) = pi . Une condition nécessaire et suffisante pour que P soit une probabilité sur (Ω, P(Ω)) est que : ∀ i ∈ I, pi ≥ 0 X pi = 1. i∈I P est alors unique et on a pour tout événement A, P (A) = X pi . i∈I/ωi ∈A Remarque : La probabilité P sur un espace probabilisable dénombrable (Ω, P(Ω)) est entièrement déterminée par la connaissance des probabilités des événements élémentaires. 13 Dr. Jean Marc OWO CHAPITRE 2. NOTIONS DE PROBABILITÉS 3. Probabilités conditionnelles Dans cette section, notre objectif est quantifier les chances de réalisation d’un événement lorsqu’on dispose d’informations sur le résultat de l’expérience sans le connaître. Exemple. On lance succesuvement deux dés non pipés. On suppose qu’on a l’information suivante : " la somme des chiffres obtenus est 8". On cherche sous cette information à évaluer la chance que le premier chiffre du résultat obtenu soit pair. 3.1. Définition Définition 2.6. Soit (Ω, F, P) un espace probabilisé. Soient A et B deux événements tels P(A ∩ B) que PB) > 0. On appelle probabilité conditionnelle de A sachant B, la quantité . P(B) Pour tout événement B tel que P(B) > 0, on appelle probabilité conditionnelle sachant B l’application notée P(./B) ou PB définie sur F et qui à tout élément A de F associe P(A ∩ B) qu’on note P(A/B) ou PB (A). P(B) 3.2. Formule des probabilités composées Soit A1 , ..., An une famille d’événements tels que P(A1 ∩ A2 ∩ ... ∩ An−1 ) > 0. Alors, on a P(A1 ∩ A2 ∩ ... ∩ An ) = P(A1 ) × P(A2 /A1 ) × P(A3 /A1 ∩ A2 ) × ... × P (An /A1 ∩ ... ∩ An−1 ). Exemple : 3.3. Formule des probabilités totales Soit (Ai )i∈I un système complet d’événements de probabilités non nulles. Pour tout événement B, on a P(B) = X P(Ai ∩ B) = X P(Ai )P(B/Ai ). i∈I i∈I Exemple : 3.4. Formule de Bayes ou probabilités des causes Soit (Ai )i∈I un système complet d’événements de probabilités non nulles et B un événement de probabilité non nulle. Alors pour tout i0 ∈ I fixé, on a : P(Ai )P(B/Ai0 ) P(Ai0 /B) = X 0 . P(Ai )P(B/Ai ) i∈I Exemple : 14 Dr. Jean Marc OWO CHAPITRE 2. NOTIONS DE PROBABILITÉS 4. Indépendance d’événements 4.1. Indépendance de deux événements Définition 2.7. Soit (Ω, F, P) un espace probabilisé. Soit A et B deux événements. On dit que A et B sont indépendants si P(A ∩ B) = P(A)P(B). Remarque : Si A et B sont tels que P(A) 6= 0 et P(B) 6= 0, alors A et B sont indépendants si P(A/B) = P(A) et P(B/A) = P(B). i.e. la réalisation de l’un n’a pas d’influence sur la chance de réalisation de l’autre. Exemple : Propriétés (i) Les événements A et B sont indépendants si et seulement si les événements A et B sont indépendants. (ii) Les événements A et B sont indépendants si et seulement si les événements A et B sont indépendants. (iii) L’événement certain est indépendant de tout événement. (iv) L’événement impossible est indépendant de tout événement. (v) Deux événements incompatibles en dehors de l’univers et de l’événement impossible ne sont pas indépendants. 4.2. Indépendance mutuellede n événements Définition 2.8. Soient A1 , ..., An n événements d’un espace probababilisé (Ω, F, P). Les événements A1 , ..., An sont dits mutuellement indépendants si pour tout k ∈ {2, ..., n} et pour tout i1 , ..., ik ∈ {1, ..., n} avec i1 < i2 < ... < ik , on a P( k \ Aij ) = j=1 k Y P (Aij ). j=1 Remarque L’indépendance mutuelle de n événements est décrite à l’aide de n X Cnk = 2n −n−1 relations. k=2 Exemple A, B, C sont mutuellement indépendants si (1) P (A ∩ B) = P (A)P (B) (2) P (A ∩ C) = P (A)P (C) (3) P (B ∩ C) = P (B)P (C) (4) P (A ∩ B ∩ C) = P (A)P (B)P (C) 3 X On a C3k = 23 − 3 − 1 = 4 relations. k=2 15 Dr. Jean Marc OWO Chapitre 3 Variables aléatoires réelles 1. Exemples et définitions Exemple 3.1. On lance une pièce de monnaie trois fois et on note le résultat. L’univers de cette expérience aléatoire est Ω = {P P P, P P F, P F P, F P P, P F F, F P F, F F P, F F F } , où P désigne "pile" et F "face". Soit X : le nombre de piles obtenus. X associe un nombre réel X(ω) à chaque résultat ω ∈ Ω. L’ensemble des valeurs possibles pour X est X(Ω) = {0, 1, 2, 3}. Exemple 3.2. Soient A et B les points de coordonnées respectives (1, 0) et (1, 1) dans un repère orthonormé d’origine O. On tire un point au hasard dans le triangle OAB. L’univers de cette expérience aléatoire est Ω = l’intérieur du triangle OAB. On note X l’abscisse du point tiré. De même, X associe un nombre réel X(ω) à chaque résultat ω ∈ Ω. L’ensemble des valeurs possibles pour X est X(Ω) =]0, 1[. Définition 3.1. Une variable aléatoire rélle (v.a.r) X sur un univers Ω est une application qui associe à chaque résultat ω ∈ Ω un nombre réel x = X(ω). L’ensemble des valeurs possibles pour X est X(Ω), il est appelé support de X et dénoté SX . Si le support X(Ω) est fini ou denombrable, on dit que X est une variable aléatoire discrète (v.a.r.d). Dans le cas contraire, X est dit continue (v.a.r.c). 16 CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES Note : L’exemple 3.1 illustre une variable aléatoire discrète, l’exemple 3.2 une variable aléatoire continue. Il existe aussi des v.a. mixtes, i.e. discrète pour certains éléments de l’univers Ω et continue pour d’autres. Remarque. La définition précédente de variable aléatoire est relative à l’espace probabilisable (Ω, P(Ω)). Mais elle peut être généralisée à tout espace probabilisable (Ω, F), où F ⊂ P(Ω) est une tribu sur Ω. Définition 3.2. Soit (Ω, F) un espace probabilisable et B la tribu borélienne sur R. Une variable aléatoire réelle sur (Ω, F) est une application X : (Ω, F) −→ (R, B) telle que ∀ B ∈ B, X −1 (B) ∈ F (3.1) Dans la pratique, pour vérifier la relation 3.1, il suffit de la vérifier pour tout B de BSX , la tribu induite sur SX par B. Notation : X −1 (B) = {ω ∈ Ω/X(ω) ∈ B} est notée {X ∈ B}. L’exemple suivant montre l’importance de la relation 3.1. Exemple 3.3. Considérons l’expérience aléatoire qui consiste à lancer un dé. Alors, Ω = {1, 2, 3, 4, 5, 6} , F1 = P(Ω). Soit l’application X : ( X(ω) = 1, si ω = 6 0, sinon. On a SX = {0, 1}, BSX = P(SX ) = {∅, {0}, {1}, SX }. On a X −1 (∅) = ∅ ∈ F1 ; X −1 ({0}) = {1, 2, 3, 4, 5} ∈ F1 ; X −1 ({1}) = {6} ∈ F1 ; X −1 (SX ) = Ω ∈ F1 ; Ainsi, X est une variable aléatoire sur (Ω, F1 ). Par contre, X n’est une variable aléatoire sur (Ω, F2 ) avec F2 = {∅, {5, 6}, {1, 2, 3, 4}, Ω}, car X −1 ({0}), X −1 ({1}) 6∈ F2 (la condition 3.1 n’est pas vérifiée). Proposition 3.1. Une application X : (Ω, F) −→ (R, B) est une variable aléatoire réelle ssi ∀x ∈ R, X −1 (] − ∞, x]) = {X ≤ x} ∈ F. Dans la suite, on considère un espace probabilisé (Ω, F, P). 17 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES 2. Loi d’une variable aléatoire réelle Soit X une variable aléatoire sur (Ω, F, P) à valeurs dans (R, B). On définit une probabilité sur B : ∀ B ∈ B, PX (B) = P(X −1 (B)) = P({X ∈ B}). Cette probabilité est appelée loi de X. En pratique, il est difficile de pouvoir déterminer l’application PX de façon explicite. Donc pour déterminer la loi d’une variable aléatoire, on considère des fonctions qui la caractérisent. 2.1. Fonction de répartition Définition 3.3. Soit X une variable aléatoire réelle sur (Ω, F, P). On appelle fonction de repartition de X la fonction FX : R −→ R telle que FX (x) = P(X −1 (] − ∞, x])) = P(X ≤ x). La fonction de répartition vérifie les importantes propriétés suivantes : Propriété 3.1. (1) 0 ≤ FX (x) ≤ 1, pour tout x ∈ R (2) lim FX (x) = 0 et x−→−∞ lim FX (x) = 1 x−→+∞ (3) FX est croissante (au sens large) (4) FX est continue à droite en tout point de R : ∀ x ∈ R, lim FX (u) = FX (x). u→x > Réciproquement, on prouve qu’une fonction vérifiant les propriétés précédentes est la fonction de répartition d’une certaine variable aléatoire réelle (discrète ou continue). On a aussi les propriétés suivantes : ∀ a, b ∈ R, - P(a < X ≤ b) = FX (b) − FX (a) - P(a ≤ X ≤ b) = FX (b) − limu→a FX (u) < - P(a < X < b) = limu→b FX (u) − FX (a) < - P(a ≤ X < b) = limu→b FX (u) − limu→a FX (u). < < - Si X est une v.a.r. discrète, alors FX (x) est une fonction en escalier - Si X est continue alors FX (x) est une fonction continue. 18 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES 2.2. Fonction de masse Définition 3.4. Soit X une variable aléatoire réelle sur (Ω, F, P). On appelle fonction de masse de X la fonction pX : R −→ R telle que pX (x) = P(X −1 ({x})) = P(X = x). La fonction de masse en x0 représente donc le saut de la fonction de répartition en ce point : pX (x0 ) = FX (x0 ) − lim FX (u). u→x0 < On prouve qu’il existe un nombre fini ou dénombrable de points où la fonction de masse est non nulle. Cela signifie encore que FX est continue sauf en un nombre fini ou dénombrable de points. Remarque : - La fonction de masse pX d’une variable aléatoire réelle continu X est nulle sur tout R ; ∀ x ∈ R, pX (x) = P(X = x) = 0. - La fonction de masse pX d’une variable aléatoire réelle discrète X est nulle en dehors X de son support SX ; ∀ x ∈ R\ SX , pX (x) = 0 et pX (x) = 1. x∈SX Réciproquement, on prouve qu’une fonction p vérifiant (1) ∀ x ∈ R, p(x) ≥ 0 X p(x) = 1. (2) x∈S est la fonction de masse d’une certaine variable aléatoire réelle discrète de support S. 2.3. Fonction de densité Définition 3.5. Soit X une variable aléatoire réelle sur (Ω, F, P). On appelle fonction de densité de X la fonction fX : R −→ R telle que Z ∀ B ∈ B, PX (B) = P(X ∈ B) = fX (t)dt. B En particulier, Z P(a ≤ X ≤ b) = b fX (t)dt. a La fonction de densité vérifie les propriétés suivantes : Propriété 3.2. (1) fX (x) ≥ 0, pour tout x ∈ R (2) f est continue par morceaux 19 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES Z +∞ f (t)dt = 1. (3) −∞ Réciproquement, on prouve qu’une fonction vérifiant les propriétés précédentes est la fonction de densité d’une certaine variable aléatoire réelle continue. 3. Variables aléatoires réelles discrètes 3.1. Loi d’une v.a.r. discrète La loi de probabilité PX d’une v.a.r discrète X est entièrement déterminée par sa fonction de masse pX . Soit X une variable aléatoire réelle discrète (v.a.r.d) définie sur (Ω, F, P) de support X(Ω) = {xi , i ∈ I}, avec I une partie de N. Remarque : {X = xi }i∈I est un système complet d’événements appelé système complet associé à la v.a.r. X. En pratique, pour déterminer la loi de X, on détermine les valeurs xi susceptibles d’être prises par X, puis les probabilités pi = pX (xi ) = P(X = xi ). Si I = [[1, n]] avec n petit, on représente souvent les résultats dans un tableau. Exemple 3.4. Une urne contient 6 boules numérotées de 1 à 6. On tire sans remise 3 boules. On note X le plus petit nombre tiré et Y le plus grand nombre tiré. Donner les lois de X et Y . Exemple 3.5. On jette une pièce de monnaie. On désigne par X le nombre de jets successifs necessaires pour obtenir le coté pile pour la première fois. Déterminer la loi de X. Soit I une partie de N ou Z et {(xi , pi ), i ∈ I}. Une condition nécessaire et suffisante pour qu’une partie de R2 , {(xi , pi ), i ∈ I} telle que xi 6= xj , ∀ i 6= j soit la loi de probabilité d’une v.a.r. discrète est que : ∀ i ∈ I, pi ≥ 0 X pi = 1. i∈I Soit X une v.a.r.d de support X(Ω) = {xi , i ∈ I}. Alors sa fonction de répartition FX est constante par morceaux et les points de discontinuité sont les xi . Plus précisement, si X(Ω) = {x1 , x2 , ..., xi , ...}, où les valeurs sont rangées dans l’ordre croissant et pi = P(X = xi ) la loi de X, alors, pour tout x ∈ R, FX (x), est définie par : ∀ x ∈] − ∞, x1 [, ∀ k ≥ 1, ∀ x ∈ [xk , xk+1 [, FX (x) = 0. FX (x) = p1 + p2 + ... + pk = k X pi . i=1 20 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES - Si X(Ω) est fini et si xn est la plus grande valeur, on a ∀ x ∈ [xn , +∞[, FX (x) = p1 + p2 + ... + pn = n X pi = 1. i=1 - Si X(Ω) est infini +∞ X pi = 1. i=1 Exemple 3.6. On considère une variable aléatoire discrète X telle que X(Ω) = {1, 2, 3, 4} et P(X = 1) = 31 , P(X = 2) = 14 , P(X = 3) = 61 . Déterminer sa fonction de répartition. Connaissant, la fonction de répartition FX d’une variable aléatoire réelle discrète X, on peut réconstituer sa loi : ∀ x ∈ X(Ω), P(X = x) = FX (x) − lim FX (u). u→x < En particulier, si X(Ω) = {x1 , x2 , ..., xi , ...}, où les valeurs sont rangées dans l’ordre croissant, alors P(X = x1 ) = FX (x1 ), ∀ i ≥ 2, P(X = xi ) = FX (xi ) − FX (xi−1 ). Remarque : Il est parfois plus simple de déterminer la loi d’une variable aléatoire réelle à partir de sa fonction de répartition. Exemple 3.7. On jette successivement et indépendamment sur une table deux dés tétraédriques dont les faces sont numérotées de 1 à 4. On note X1 le premier nombre obtenu, X2 le deuxième nombre obtenu et X le plus grand des deux nombres obtenus. Donner la loi de X. 3.2. Loi d’une fonction d’une v.a.r. discrète Soit X une variable aléatoire réelle discrète (v.a.r.d) définie sur (Ω, F, P), de support SX et de loi pX . Soit ϕ une fonction numérique définie sur SX . Soit Y = ϕ(X). Alors Y est une v.a.r.d de support SY = ϕ(SX ) = {y ∈ R|∃x ∈ SX , y = ϕ(x)} et de loi pY définie par : X X y ∈ SY , pY (y) = P(Y = y) = pX (x) = P(X = x). x∈SX |ϕ(x)=y x∈SX |ϕ(x)=y Exemple 3.8. On joue à un jeu de pile ou face. On perd 1 point si on obtient face, on gagne 1 point sinon. Pour tout entier non nul n, on note Xn la somme des points obtenus au cours des n premiers jeux. 1) Déterminer la loi X3 . 2) On pose Y = |X3 | et Z = 2X3 + 3. Déterminer la loi de Y et de Z. 21 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES Exemple 3.9. Soit X v.a.r.d de support SX = {−2, −1, 0, 1, 2} et de masse de probabilité pX définie par : x pX (x) −2 −1 1 4 1 6 0 1 2 1 3 1 12 p 1) Trouver la valeur de p. 2) On pose Y = X 2 . Déterminer la loi de Y . 4. Variables aléatoires réelles continues On rappelle qu’une variable aléatoire réelle X est dite continue lorsqu’elle n’est pas discrète, autrement dit lorsque son support SX est un intervalle de R éventuellement R lui-même. 4.1. Loi d’une v.a.r. continue La fonction de répartition FX d’une variable aléatoire réelle continue X est continue et caractérise la loi de X. X P(a < X ≤ b) = P(a < X < b) = P(a ≤ X ≤ b) = FX (b) − FX (a). La v.a.r.c X est dite absolument continue, si sa fonction de répartition FX est absolument continue c’est à dire s’il existe une fonction densité fX , telle que Z x fX (t)dt. ∀ x ∈ R, FX (x) = −∞ Ce qui revient à dire que FX est dérivable en tout point x de R où fX est continue et on a FX0 (x) = fX (x). Dans ce cas, la loi de XZ est déterminée par la densité fX . b X P(a ≤ X ≤ b) = fX (t)dt = FX (b) − FX (a). a Remarque : Une variable aléatoire réelle peut être ni discrète, ni absolument continue. Exercice 3.1. On considère si 0, 3 2 F (x) = x − 14 x3 , si 4 1, si la fonction F définie par : x<0 0≤x<2 x≥2 1) Montrer que F est la fonction de répartition d’une variable aléatoire réelle continue X dont on déterminera l’ensemble des valeurs possibles. 2) Montrer que la v.a. X est absolument continue et déterminer sa densité. 3) Calculer P(X < 1, 5), P(0, 5 < X ≤ 1, 5). 22 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES Exercice 3.2. ( On considère la fonction f définie par : ke−2x , si x ≥ 0 f (x) = 0, si non 1) Déterminer la valeur de k pour que f soit une densité de probabilité d’une variable aléatoire réelle continue Z X.+∞ Z (On utilisera le fait que f (t)dt = lim x→+∞ 0 x f (t)dt ) 0 2) Déterminer sa fonction de répartition. 3) Calculer P(X > 1). 4.2. Loi d’une fonction continue d’une v.a.r. continue Soit X une variable aléatoire réelle discrète (v.a.r.d) définie sur (Ω, F, P), de support SX et de loi pX . Soit ϕ une fonction continue définie sur SX . Soit Y = ϕ(X). Alors Y est une v.a.r.c de support SY = ϕ(SX ) = {y ∈ R|∃x ∈ SX , y = ϕ(x)}. Sa loi s’obtient en déterminant sa fonction de répartition FY à l’aide de celle de X, FX selon la régularité de ϕ. Cas d’une transformation monotone Dans le cas où ϕ est dérivable, strictement croissante, on a : FY (y) = P [Y ≤ y] = P [ϕ(X) ≤ y] = P [X ≤ ϕ−1 (y)] = FX (ϕ−1 (y)), La densité correspondante est : fY (y) = 1 d FY (y) = 0 −1 fX (ϕ−1 (y)). dy ϕ (ϕ (y)) Dans le cas où ϕ est dérivable, strictement décroissante, on a : FY (y) = P [Y ≤ y] = P [ϕ(X) ≤ y] = P [X ≥ ϕ−1 (y)] = 1 − FX (ϕ−1 (y)), La densité correspondante est : fY (y) = d 1 FY (y) = − 0 −1 fX (ϕ−1 (y)). dy ϕ (ϕ (y)) Donc de façcon générale, si ϕ est dérivable, strictement monotone, la densité fY de Y = ϕ(X) est donnée par : fY (y) = 1 ϕ0 (ϕ−1 (y)) fX (ϕ−1 (y)) ou fY (y) = fX (x) dx , dy avec x = ϕ−1 (y) exprimé en terme de y. 23 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES Exemple 3.10. ( Soit X une v.a.r.c de densité fX : 1, si 0 ≤ x ≤ 1 fX (x) = 0, sinon. Déterminer la densité de Y = X 2 . Cas d’une transformation non monotone Soit X une ( v.a.r.c de densité fX : 1 , si − 1 ≤ x ≤ 1 2 fX (x) = 0, sinon. Déterminer la densité de Y = X 2 . 5. Moments d’une variable aléatoire réelle Définition 3.6. Soit X une variable aléatoire réelle. On appelle espérance mathématique ou moyenne de X la quantité si elle existe : X X xp (x) = xP(X = x), X x∈X(Ω) x∈X(Ω) E(X) = Z +∞ xfX (x)dx, si X est discrète, si X est absolument continue. −∞ Exemple 3.11. Soit X v.a.r.d de support SX = {−2, −1, 0, 1, 2} et de masse de probabilité pX définie par : x pX (x) −2 −1 1 4 1 6 0 1 2 1 3 1 12 p 1) Trouver la valeur de p. 2) Calculer l’espérance mathématique E(X) de X. Exemple 3.12. On effectue une succession de lancers de dé cubique bien équilibreé, jusqu’à ce que l’on obtienne 6. Soit X le nombre de lancers effectués. Calculer l’espérance mathématique E(X) de X. Exercice 3.3. On suppose que la durée de vie d’un individu dans une population donnée est modélisée par une v.a.c. X dont la fonction densité est donnée par : ( kx2 (100 − x)2 , si 0 ≤ x ≤ 100 f (x) = 0, sinon. où k est une contante positive. 1) Déterminer la valeur de k. 2) Calculer la probabilité qu’un individu meure entre 60 ans et 70 ans. 3) Quelle est l’espérance de vie d’un individu dans cette population ? 24 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES Théorème 3.1. Soit X une variable aléatoire réelle. - Si X est discrète de loi p, et g une fonction définie de R dans R. Alors X E(g(X)) = g(x)p(x) = x∈X(Ω) X g(x)P(X = x), x∈X(Ω) si cette somme est finie. Réciproquement, si cette égalité tient pour toute fonction g continue positive ou bornée, alors p est la loi de la v.a.r. discrète X. - Si X est continue de densité f , et g une fonction définie de R dans R. Alors Z +∞ g(x)f (x)dx, E(g(X)) = −∞ si cette intégrale existe. Réciproquement, si cette égalité tient pour toute fonction g continue positive ou bornée, alors f est la densité de la v.a.r continue X. Exemple 3.13. Soit X une v.a. de densité 1 2 1 fX (x) = √ e− 2 x , ∀ x ∈ R. 2π Déterminer la loi de X 2 . Posons Y = X 2 = ϕ(X), où ϕ(x) = x2 . Pour toute fonction g continue positive, on a Z +∞ Z +∞ 1 2 1 g(ϕ(x))f (x)dx = √ g(x2 )e− 2 x dx, E(g(Y )) = E(g(ϕ(X))) = 2π −∞ −∞ Z +∞ 1 2 2 g(x2 )e− 2 x dx =√ 2π 0 √ Pour x ∈ [0, +∞[, on pose y = x2 et donc x = y. D’où Z +∞ Z +∞ 1 2 1 − 21 y 1 √ E(g(Y )) = √ g(y)e e− 2 y 1[0,+∞[ dy, √ dy = 2 y 2πy 2π 0 −∞ Par conséquent, Y a pour densité fY (y) = √ 1 1 e− 2 y 1[0,+∞[ . 2πy Propriété 3.3. - E(aX + b) = aE(X) + b. - Si X ≤ Y , alors E(X) ≤ E(Y ). - Si X et Y sont indépendantes, alors E(XY ) = E(X)E(Y ). Définition 3.7. Soit X une variable aléatoire réelle. On appelle variance de X la quantité si elle existe : V (X) = E (X − E(X))2 = E(X 2 ) − [E(X)]2 Propriété 3.4. - V (X) ≥ 0 - V (aX + b) = a2 V (X). - Si X et Y sont indépendantes, alors V (X + Y ) = V (X) + V (Y ). 25 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES Définition 3.8. Soit X une variable aléatoire réelle. - On appelle moment d’ordre k ≥ 1 de X la quantité : mk = E(X k ). - On appelle moment centré d’ordre k ≥ 1 de X la quantité : µk = E (X − E(X))k . Remarque 3.1. E(X) = m1 et V (X) = µ2 . Définition 3.9. Soit X une variable aléatoire réelle. On appelle ecart type de X la racine p carrée de la variance V(X) : σX = V (X). Proposition 3.2 (Inégalité de Markov). Soit X une variable aléatoire réelle positive. Alors 1 E(X), ∀ α > 0. α Proposition 3.3 (Inégalité de Bienaymé- Tchebychev). Soit X une variable aléatoire P(X ≥ α) ≤ réelle. Alors P(|X − E(X)| ≥ α) ≤ 6. 1 V (X), α2 ∀ α > 0. Fonction caractéristique - Fonction génératrice 6.1. Fonction caractéristique Définition 3.10. Soit X une variable aléatoire réelle. On appelle fonction caractéristique de X la fonction ϕX : R −→ C définie par : ϕX (t) = E(eitX ) Dans le cas discret : ϕX (t) = X eitxi P(X = xi ) i∈I Dans le cas continu : Z +∞ eitx f (x)dx = fˆ(t). ϕX (t) = −∞ X Formule d’inversion de Fourier. Si |ϕX (t)| est intégrable, on a : 1 f (x) = 2π Z +∞ e−itx fˆ(t)dt. −∞ Théorème 3.2. Soit X et Y deux variables aléatoires réelles définies sur (Ω, F, P). Si ϕX (t) = ϕY (t) alors X et Y ont la même loi. Proposition 3.4. Soit X une variable aléatoire réelle. - Si E(|X|) < +∞, alors ϕX est dérivable en 0 et E(X) = −iϕ0X (0). - Si E(X 2 ) < +∞, alors ϕX est deux fois dérivable en 0 et E(X 2 ) = −ϕ00X (0). Ainsi 2 V (X) = −ϕ00X (0) + [ϕ0X (0)] . 26 Dr. Jean Marc OWO CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES -De manière générale, si k ≥ 1, E(|X|k ) < +∞, alors ϕX est k−fois dérivable en 0 et E(X k ) = (−i)k ϕkX (0). Remarque 3.2. - |ϕX (t)| ≤ 1 - Si Y = aX + b, alors ϕY (t) = eitb ϕX (at). - Si X et Y sont indépendantes, alors ϕX+Y (t) = ϕX (t)ϕY (t). 6.2. Fonction génératrice Définition 3.11. Soit X une variable aléatoire réelle à valeurs dans N. On appelle fonction génératrice de X la fonction GX : [−1, 1] −→ R définie par : GX (t) = +∞ X sk P(X = k) = E(sX ) k=0 Théorème 3.3. Soit X et Y deux variables aléatoires réelles définies sur (Ω, F, P) à valeurs dans N. Si GX (s) = GY (s), ∀ s ∈ [−1, 1], alors X et Y ont la même loi. Proposition 3.5. Soit X une variable aléatoire réelle à valeurs dans N. - GX est continue sur [−1, 1] et indéfiniment dérivable sur ] − 1, 1[. - Si E(X) < +∞, alors E(X) = lim− G0X (s). s−→1 - Si E(X 2 ) < +∞, alors E(X(X − 1)) = lim− G00X (s). s−→1 - Si X et Y sont indépendantes, alors GX+Y (s) = GX (s)GY (s). Remarque 3.3. Si on connait la fonction génératrice d’un variable aléatoire réelle X à valeurs dans N, il suffit de faire un dévelopement en série entière pour avoir la loi de X. 27 Dr. Jean Marc OWO Chapitre 4 Lois de probabilités usuelles 1. Lois usuelles discretes 1.1. Loi de Bernoulli B(1, p) On appelle epreuve de Bernoulli, toute expérience aléatoire à deux issues, l’une est appelée succes et l’autre l’echec. Exemples : - Le jet d’une pièce de monnaie - Le jet d’un dé cubique et l’observation d’une face marquée. - Se présenter à un examen - Dans une population subdivisée en deux parties, le tirage d’un individu. Le résultat de cette expérience est représenté par une v.a. X, appélée v.a de Bernoulli, définie par : ( X(ω) = 1, si le choix de ω donne un succes 0, sinon. Ainsi, X(Ω) = {0, 1}. Si la probabilité du succès est p (p = P(succs)), alors P(X = 1) = p, P(X = 0) = 1 − p. On dit que X suit une loi de Bernoulli de paramètre p, ce qu’on écrit X B(1, p). En pratique : Ces variables aléatoires servent à modéliser des expériences aléatoires n’ayant que deux issues possibles, que lon code avec 0 ou 1 : lancer d’un pile/face, expérience avec succès/échec, état d’un composant fonctionne/en panne... si x < 0 0, • FX (x) = 1 − p, si 0 ≤ x < 1 1, si x ≥ 1. • E(X) = p, V (X) = p(1 − p) • ϕX (t) = (1 − p) + peit , GX (s) = (1 − p) + ps 28 CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES 1.2. Loi Binomial B(n, p) On effectue n répétitions indépendantes d’une epreuve de Bernoulli et on note X le nombre de fois où on a obtenu le succès. On définit ainsi une variable aléatoire X qui suit une loi Binomial de paramètres n et p = Prob(Succès), caractérisé par X(Ω) = {0, 1, ..., n} et pour tout k ∈ X(Ω), P(X = k) = Cnk pk (1 − p)n−k . On écrit X • FX (x) = B(n, p). 0, si x < 0 (1 − p)n , si 0 ≤ x < 1 k X Cni pi (1 − p)n−i , si k ≤ x < k + 1 i=1 si x ≥ n 1, • E(X) = np, V (X) = np(1 − p) • ϕX (t) = (1 − p + peit )n , GX (s) = (1 − p + ps)n . Remarque : X B(n, p) ⇐⇒ X = n X Xi , avec Xi B(1, p), ∀ i = 1, ..., n indépendantes. i=1 Cette loi apparait à chaque fois que l’on somme n variables aléatoires indépendantes et identiquement distribuées de loi de Bernoulli de paramètre p. Exemple 4.1. On lance dix fois dans les même conditions une pièce de monnaie, quelle est la probabilité d’obtenir 5 faces. Le lancer d’une pièce de monnaie est une épreuve de Bernoulli. Le fait de lancer dix fois dans les même conditions la pièce constitue une répétition indépendante de la même épreuve. X=nombre de fois où l’on obtient face. Alors X 1.3. B(n, p), avec n = 10 et p = 21 . Loi Hypergéométrique H(N, n, p) ou H(N, N p, n) On effectue n tirage sans remise dans une urne contenant N objets dont N p objets A (p étant la proportion des objets A) et on note X le nombre d’objets A tirés. Alors X suit une loi Hypergéométrique de paramètres N , N p et n ou N , p et n, caractérisé par X(Ω) = {max(0, n − N q), ..., min(n, N p)} avec N p ∈ N, q = 1 − p et pour tout CNk p CNn−k q . k ∈ X(Ω), P(X = k) = n CN H(N, N p, n). N −n • E(X) = np, V (X) = npq N −1 On écrit X 29 Dr. Jean Marc OWO CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES Exemple : Une urne contient 10 pièces dont 4 sont défectueuses. On y prend au hasard un lot de 5 pièces. Soit X la variable aléatoire donnant le nombre de pièces non défectueuses contenues dans le lot. 1. Quel est l’ensemble des valeurs possibles de X ? 2. Donner la loi de probabilité de X 3. Calculer l’espérance, la variance et l’écart type de X. 4. Quelle est la probabilité que le lot ne contienne aucune pièce défectueuse ? 1.4. Loi géométrique G(p) On effectue des répétitions indépendantes de la même épreuve de Bernoulli jusqu’à l’obtention du premier succes et on note X le nombre de répétition effectuées ou nécessaires. Alors X suit une loi géométrique de paramètre p, avec p = Prob(Succes), caractérisé par X(Ω) = N∗ et pour tout k ∈ X(Ω), P(X = k) = p(1 − p)k−1 . On écrit X ( G(p). 0, si x < 1 • FX (x) = n 1 − (1 − p) , si n ≤ x < n + 1. 1 1−p • E(X) = , V (X) = p p2 it pe ps • ϕX (t) = , G (s) = X 1 − (1 − p)eit 1 − (1 − p)s Remarque : Si Xi est la variable de Bernoulli B(1, p) associée à la i−ème épreuve, alors X = inf{k ≥ 1, Xk = 1} G(p). De même si (Xn )n∈N une suite de variable aléatoire indépendante de même loi. Si X = inf{k ≥ 1, Xk ∈ B} où B ∈ BR , alors X G(p), où p = P(X0 ∈ B). Exemple 4.2. On considère une suite infinie de lancers de pièce de monnaie bien équilibrée indépendants.On note X le numéro du premier pile obtenu. Déterminer la loi de X. Définition 4.1. Soit X : Ω → N∗ une variable aléatoire. On dit que X est sans mémoire si ∀ n, k, P(X > n + k/X > n) = P(X > k). Propriété "sans mémoire" : Une variable aléatoire de loi géométrique est une variable sans mémoire. Reciproquement, toute variable aléatoire X à valeurs dans N, sans mémoire suit une loi géométrique. (Démonstation : à faire au TD). 30 Dr. Jean Marc OWO CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES 1.5. Loi Binomial négative BN (r, p) •X BN (r, p) si X(Ω) = {r, r + 1, ...} et r−1 r−1 ∀ k ∈ X(Ω), P(X = k) = pCk−1 p (1 − p)k−r r−1 r = Ck−1 p (1 − p)k−r si x < r 0, n X • FX (x) = r−1 r Ci−1 p (1 − p)i−r , si n ≤ x < n + 1 i=r Génération de BN (r, p). X BN (r, p) ⇐⇒ X = r X Xi avec Xi G(p), ∀ i = 1, ..., r indépendantes. i=1 Dans une répétition indépendante de la même épreuve de Bernoulli, la variable aléatoire égale au nombre de répétitions nécessaires à l’obtention du r−ème succes est une variable aléatoire Binomial négative de paramètres r, p, avec p = Prob(Succes). {X = k} = {∃I ⊂ {1, ..., k}, Card(I) = r et max I = k; i ∈ I, Xi = 1 et i 6∈ I, Xi = 0}. r−1 r−1 P(X = k) = pCk−1 p (1 − p)k−r r r X X r(1 − p) r V (Xi ) = • E(X) = E(Xi ) = , V (X) = p p2 i=1 i=1 r r ps peit r Pr • ϕX (t) = ϕ i=1 Xi (t) = (ϕX1 (t)) = , GX (s) = 1 − (1 − p)eit 1 − (1 − p)s 1.6. Loi de Poisson P(λ) Définition 4.2. Une variable aléatoire X suit une loi de Poisson de paramètre λ ∈ R∗+ si : P(X = k) = λk −λ e , k ∈ N. k! P(λ) λx ∀ x ∈ R, pX (x) = e−λ 1N (x). x! si x < 0 0, n k Xλ • FX (x) = e−λ , si n ≤ x < n + 1 k! k=0 On note X • E(X) = λ, V (X) = λ it • ϕX (t) = e−λ(1−e ) , GX (s) = e−λ(1−s) Remarque. Si Xi P(λ), ∀ i = 1, ..., n indépendantes alors n X Xi P(nλ). i=1 Modélisation. 31 Dr. Jean Marc OWO CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES La loi de Poisson est utilisée de façon fondamentale pour modéliser certains phenomènes rares et d’une manière générale dans les problèmes de file d’attente (quand on veut modéliser par exemple le nombre de clients qui se présentent à un guichet, le nombre d’arrivées à un poste de douane dans un intervalle de temps donné, il est naturel d’utiliser une loi de Poisson. Le paramètre λ est le nombre moyen d’arrivées dans l’intervalle de temps considéré.) De même, le nombre d’absents par jour dans une entreprise, le nombre annuel de sinistres par police dans un portefeuille d’assurance à risques homogènes, peuvent être décrits, sous certaines conditions, par une loi de Poisson. 1.7. Loi uniforme sur {1, ..., n} ; U{1,...,n} Définition 4.3. Une variable aléatoire X suit une loi uniforme sur {1, ..., n} avec n ∈ N∗ si : P (X = k) = 1 , ∀ k ∈ {1, ..., n}. n On note X U{1,...,n} 1 • pX (x) = 1{1,...,n} (x), ∀ x ∈ R. n 0, si x < 1 k • FX (x) = , si k ≤ x < k + 1 n 1, si x ≥ n n • E(X) = n 1X n+1 1 X 2 (n + 1)(2n + 1) n2 − 1 k= , E(X 2 ) = k = et V (X) = n k=1 2 n k=1 6 12 Généralement : X n 1X E(X) = ak . n k=1 U{a1 ,...,an } ⇐⇒ X(Ω) = {a1 , ..., an } et ∀ k ∈ X(Ω), P(X = k) = 1 . n Modélisation. Ces variables aléatoires servent à modéliser des expériences aléatoires équiprobables qui consistent à extraire une unité au hasard dans un ensemble contenant n unités : le lancer d’un dé équilibré, choix d’une carte au hasard dans un jeu de cartes... 1.8. X L, avec X(Ω) = N P(X = x) = u(x) ≥ 0, ∞ X u(x) = 1. x=1 X v.a discret ⇐⇒ il existe (ai )i∈I fini ou dénombrable telle que X P(X = x) = pi , pi = 1. i∈I Toute série à termes positives (un ) convergente permet d’obtenir une variable aléatoire de un loi PX : P(X = n) = P . un 32 Dr. Jean Marc OWO CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES 2. Lois usuelles continues 2.1. Loi uniforme sur [a, b], a < b ∈ R 1 1[a,b] (x). b−a 0, si x < a 0, si x < a Z x Z x dt x−a , si a ≤ x < b = , si a ≤ x < b • FX (x) = fX (t)dt = b−a a b−a −∞ 1, 1, si x ≥ b si x ≥ b •X U[a,b] ⇐⇒ fX (x) = a+b (b − a)2 • E(X) = , V (X) = 2 12 itb ita e −e • ϕX (t) = , it(b − a) eitα − e−itα sin(tα) = . 2itα tα Modélisation. Ces variables aléatoires servent à modéliser des expériences aléatoires équiNB Si a = −α, b = α, α > 0 =⇒ ϕX (t) = probables qui consistent à tirer un point au hasard dans un segment ou dans un intervalle, de temps par exemple. Les lois uniformes continues sont très utiles de par la facilité des calculs qu’elles permettent et pour leur utilisation dans les simulations. 2.2. Loi exponentielle ξ(θ), θ > 0 ξ(θ) ⇐⇒ fX (x) = θe−θx 1]0,+∞[ (x). ( Z x 0, si x ≤ 0 • FX (x) = fX (t)dt = 1 − e−θx , si x > 0 −∞ Z +∞ k • E(X ) = θ e−θx xk dx. •X 0 Cette quantité se calcule à l’aide de la fonction Gamma : Définition 4.4. Nous appelons fonction Gamma la fonction définie par : Z +∞ Γ(a) = e−x xa−1 dx, ∀ a ∈ R∗+ . 0 Propriété 4.1. La fonction Gamma satisfait aux relations suivantes : Γ(a + 1) = aΓ(a), ∀ a ∈ R∗+ , √ 1 Γ(n + 1) = n!, ∀ n ∈ N, Γ( ) = π. 2 Remarque. La fonction Gamma est une généralisation directe de la notion de factorielle pour des nombres réels non entiers. Le logiciel R permet d’obtenir des valeurs de gamma. 33 Dr. Jean Marc OWO CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES On montre que : Z +∞ e−ρx xa−1 dx = 0 Donc, E(X k ) = θ Γ(a) , ∀ ρ, a ∈ R∗+ . a ρ Γ(k + 1) k! = , par consequent, θk+1 θk 2 1 1 E(X) = , E(X 2 ) = 2 et V (X) = 2 θ θ θ θ • ϕX (t) = , θ − it Définition 4.5. Soit X : Ω → R une variable aléatoire. On dit que X est sans mémoire si ∀ s, tR+ , P(X > t + s/X > t) = P(X > s). Propriété "sans mémoire" : Une variable aléatoire de loi exponentielle est une variable sans mémoire. Reciproquement, toute variable aléatoire X à valeurs dans N, sans mémoire suit une loi exponentielle. (Démonstation : à faire au TD). Modélisation. A cause de la propriété d’absence de mémoire, la loi exponentielle est utilisée quand on veut modéliser la durée de vie d’un composant électronique, ou le temps entre les arrivées de deux clients successifs dans une file d’attente (il y a en particulier des liens très forts entre les lois exponentielles et les lois de Poisson). λ Le paramètre θ = , où λ est le nombre moyen d’arrivées dans l’intervalle de temps de τ longueur τ . C’est donc le nombre moyen d’arrivées par unité de temps. 2.3. Loi Gamma γ(a, ρ), a > 0, ρ > 0 Définition 4.6. Une variable aléatoire continue X suit une loi Gamma, ou eulerienne de paramètres a, ρ ∈ R∗+ si elle admet pour densité de probabilité la fonction a ρ e−ρx xa−1 , si x > 0 ρ −ρx a−1 Γ(a) fX (x) = e x 1]0,+∞[ (x) = Γ(a) 0, si x ≤ 0, a et note X γ(a, ρ). 0, si x ≤ 0 Z x a • FX (x) = fX (t)dt = ρ e−ρt ta−1 dt, si x > 0 −∞ Γ(a) 0 Z +∞ ρa ρa Γ(a + k) Γ(a + k) k • E(X ) = e−ρx xa+k−1 dx = . a+k = , par consequent, Γ(a) 0 Γ(a) ρ Γ(a)ρk Z E(X) = x Γ(a + 1) a Γ(a + 2) a(a + 1) a = , E(X 2 ) = = et V (X) = 2 2 2 Γ(a)ρ ρ Γ(a)ρ ρ ρ 34 Dr. Jean Marc OWO CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES • ϕX (t) = ( ρ a ) , ρ − it Remarque. γ(1, ρ) = ξ(ρ). Si X γ(a, ρ) alors Y = ρX γ(a, 1). n X X γ(n, ρ) ⇐⇒ X = Xi avec Xi γ(1, ρ), ∀ i = 1, ..., n indépendantes. i=1 Modélisation. La loi Gamma peut décrire des phénomènes de durée de vie, en assurance pour l’étude du temps écoulé entre deux sinistres dans des portefeuilles à risques hétérogènes ou encore pour prendre en compte cette hétérogénéité. En général pour des distributions fortement asymétriques avec une décroissance rapide en queue de distribution, une loi Gamma peut être un bon modèle. 2.4. Loi normale N (m, σ 2 ) (ou loi de Gauss) Définition 4.7. Une variable aléatoire continue X suit une loi normale ou encore loi de Laplace-Gauss de paramètres σ ∈ R∗+ et m ∈ R si elle admet pour densité de probabilité la fonction 1 (x − m)2 − 1 fX (x) = √ , ∀ x ∈ R. e 2σ 2 2πσ On note X N (m, σ 2 ). Si m = 0 et σ = 1, on diot que X suit la loi normale centrée et réduite, ou encore la loi Normale standard N (0, 1). Important à retenir : r Z +∞ π 2 (1) e−αx dx = α Z−∞ Z +∞ +∞ 2 −α(x−t)2 (2) e dx = e−αx dx −∞ r Z−∞ +∞ β2 π 2 −αx +βx e dx = e 4α (3) α −∞ Soit X N (m, σ 2 ). Alors • E(X) = m, V (X) = σ 2 1 22 itm− σ t 2 • ϕX (t) = e En pratique, on calule les probabilités rélatives aux intervalles à l’aide la fonction de répartition de la loi normale centrée et réduite N (0, 1) qui dispose d’une table, appelée table de loi normale centrée et réduite : Cette fonction de répartition est souvent notée π ou N . On a donc 1 π(x) = N (x) = √ 2π 35 Z x 1 2 t e 2 dt − −∞ Dr. Jean Marc OWO CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES Soit X N (m, σ 2 ). Alors T = X−m σ N (0, 1) et π(t) = P(T ≤ t). Remarque : π(−∞) = 0, π(+∞) = 1, π(0) = 0.5 et ∀ t ∈ R, π(−t) = 1 − π(t). Pour tout t ∈ R, P(|T | ≤ t) = 2π(t) − 1 et P(|T | ≥ t) = 2(1 − π(t)). Exemple : P (a ≤ X ≤ b) = P a−m b−m ≤T ≤ σ σ =π b−m σ −π a−m σ . Modélisation. Ces lois apparaissent dans le théorème central limite, que nous verrons plus tard. Elles sont souvent utiliser pour modéliser de petites erreurs ou variations aléatoires autour d’une quantité déterministe. 2.5. Loi de Cauchy Définition 4.8. Une variable aléatoire continue X suit une loi de Cauchy, de paramètres ∈ R∗+ et m ∈ R si elle admet pour densité de probabilité la fonction fX (x) = On note X π(α2 α , ∀ x ∈ R. + (x − m)2 ) Cauchy(m, α) Une variable aléatoire continue X suivant une loi de Cauchy n’a aucun moments. • Pour m = 0, ϕX (t) = e−α|t| . 36 Dr. Jean Marc OWO Chapitre 5 Vecteurs aléatoires 1. Introdution Soit (Ω, F, P) un espace probabilisé. Pour tout entier n ≥ 1, on note BRn la tribu engen- drée par les ouverts de Rn . Cette tribu est appelée tribu borelienne de Rn . Définition 5.1. On appelle vecteur aléatoire à n dimensions ou variable aléatoire à n dimensions toute application X de (Ω, F) dans (Rn , BRn ) telle pour tout borélien B ∈ BRn , X−1 (B) = {ω ∈ Ω, X(ω) ∈ B} ∈ F. On note par {X(ω) ∈ B} l’événement {ω ∈ Ω, X(ω) ∈ B}. On note X1 . . X= . Xn ou X = (X1 , ..., Xn ) où pour tout 1 ≤ i ≤ n, Xi est une variable aléatoire réel ou à une dimensien définie sur (Ω, F) : Xi : (Ω, F) −→ (R, BR ). 2. Loi conjointe d’un vecteur aléatoire Définition 5.2. Soit X : (Ω, F, P) −→ Rn un vecteur aléatoire. On appelle loi conjointe de X la probabilité PX : BRn −→ [0, 1] définie par PX (B) = P(X−1 (B)) = P(X ∈ B). Autrement dit, c’est l’application qui permet d’associer à tout n−uplets d’intervalles B1 , ..., Bn de R, la probabilité de l’événement (X1 ∈ B1 , ..., Xn ∈ Bn ). 2.1. Fonction de repartition Si a = (a1 , ..., an ) est un element de Rn , on pose : ∆(a) = {(x1 , ...xn ) ∈ Rn |x1 ≤ a1 , ..., xn ≤ an } . 37 CHAPITRE 5. VECTEURS ALÉATOIRES X1 . . Définition 5.3. Soit X = . un vecteur aléatoire. On appelle fonction de repartition Xn de X la fonction FX définie sur Rn par : pour tout x dans Rn , FX (x) = PX (∆(x)). On a alors FX (x) = PX (∆(x)) = P(X ∈ ∆(x)) = P(X1 ≤ x1 , ..., Xn ≤ xn ) pour tout x = (x1 , ..., xn ) dans Rn 2.2. Vecteur aléatoire discret X1 . . Définition 5.4. Soit X = . un vecteur aléatoire. On dit que X est discret si X(Ω) Xn est fini ou dénombrable. La loi PX de X est alors une loi discrète. Elle est entièrement définie par les probabilités élémentaires pX (x1 , ..., xn ) où (x1 , ..., xn ) parcourt X(Ω) : pX (x1 , ..., xn ) = P(X1 = x1 , ..., Xn = xn ). 2.3. Vecteur aléatoire absolument continu X1 . . Définition 5.5. Soit X = . un vecteur aléatoire. On dit que X est absolument Xn continu si sa loi de probabilité PX possède une densité relativement à la mesure de Lebesgue sur Rn , c-à-d, il existe une fonction positive et intégrable f telle que l’on ait pour tout (x1 , ..., xn ) ∈ Rn , Z FX (x1 , ..., xn ) = Z x1 fX (t1 , ..., tn )dt1 ...dtn = Z −∞ ∆(x1 ,...,xn ) xn ... fX (t1 , ..., tn )dt1 ...dtn . −∞ On a alors ∂ n FX (x1 , ..., xn ) = fX (x1 , ..., xn ) ∂x1 ...∂xn en tout point (x1 , ..., xn ) ∈ Rn où f est continue. La fonction f est appelée alors la densité (conjointe) de probabilité de X. 38 Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES Rq 1. La condition PX (Rn ) = 1 se traduit par Z f (x1 , ..., xn )dx1 ...dxn = 1 Rn Rq 2. Tout fonction f : Rn → R positive, intégrable telle que Z f (x1 , ..., xn )dx1 ...dxn = 1 Rn est la densité de probabilité d’une loi de probabilité unique. 3. Lois marginales X1 . . Définition 5.6. Soit X = . un vecteur aléatoire de loi PX . Les lois marginales de la Xn loi conjointe PX sont les lois de probabilité PXi des variables aléatoires Xi , 1 ≤ i ≤ n. PXi est loi marginale d’odre i. • Dans le cas discret, cette loi est donnée par pXi (xi ) = P(Xi = xi ) = X P(X1 = x1 , ..., Xn = xn ) x1 ,..,xi−1 ,xi+1 ,...,xn • Dans le cas continu, cette loi est déterminée par la densité de Xi appelée densité marginale : Z fXi (xi ) = Rn−1 fX (x1 , ..., xn )dx1 ..dxi−1 dxi+1 ...dxn ou par la fonction de repartition de Xi appelée fonction de repartition marginale : FXi (xi ) = lim FX (x1 , ..., xn ) xj → +∞ j 6= i 39 Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES 4. Espérance mathématique et matrice de covariance X1 . . Définition 5.7 (Espérance mathématique). Soit X = . un vecteur aléatoire. Xn E(X1 ) .. , où L’espérance de X est E(X) = . E(Xn ) cas discret : E(Xi ) = X xi P(X1 = xi ) = xi Z cas continu : E(Xi ) = xi fXi (xi )dxi = Rn R Exemple 5.1. Soit X = xi P(X1 = x1 , ..., Xn = xn ). x1 ,..,xn Z X1 X xi fX (x1 , ..., xn )dx1 ...dxn . ! un vecteur aléatoire de densité X2 fX (x1 , x2 ) = Cx1 x2 1{0≤x1 ≤x2 ≤1} . 1. Déterminer C 2. Déterminer les lois marginales 3. Calculer E(X). Théorème 5.1. Soit X un vecteur aléatoire à valeur dans Rn . - Si X est discret, PX est la loi de X ssi pour toute fonction h : Nn −→ R positive ou bornée, E(h(X)) = X h(x1 , .., xn )P(X1 = x1 , ..., Xn = xn ). x1 ,..,xn - Si X est continu, fX est la densité de X ssi pour toute fonction h : Rn −→ R positive ou bornée, Z E(h(X)) = Rn h(x1 , .., xn )fX (x1 , ..., xn )dx1 ...dxn . Proposition 5.1. Soit X un vecteur aléatoire à valeur dans Rn de densité fX de support D. Soit ϕ : D −→ ∆ une fonction bijective et différentielle. Soit Y = ϕ(X). Alors la densité de Y est fY (y) = fX (ϕ−1 (y))|Jϕ−1 (y) |1∆ , où |Jϕ−1 (y) | est le jacobien de ϕ−1 au point y. Jϕ−1 (y) = ∂(x1 , ..., xn ) |y . ∂(y1 , ..., yn ) 40 Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES x1 h1 (x1 , ..., xn ) . .. . 7 h(x1 , ..., xn ) = Soit . . → xn hn (x1 , ..., xn ) Jh(a) = ∂(h1 , ..., hn ) |a = ∂(x1 , ..., xn ) , alors le jacobien de h au point a est ∂h1 (a) ∂x1 .. . ∂hn (a) ∂x1 ... .. . ∂h1 (a) ∂xn ... ∂hn (a) ∂xn .. . . Définition 5.8 (Variance-Covariance). a-) Soit X un vecteur aléatoire à valeurs dans Rn . On appelle matrice de covariance ou matrice de dispersion de X la matrice carré d’ordre n, ΣX = σij , 1≤i,j≤n h i où σij = Cov(Xi , Xj ) = E Xi − E(Xi ) Xj − E(Xj ) = E(Xi Xj ) − E(Xj )E(Xj ). h t i ΣX = E X − E(X) X − E(X) = E(XXt ) − E(X)[E(X)]t . b-) Soit X et Y deux vecteurs aléatoires à valeurs resp. dans Rn et Rp . On appelle covariance de X et Y la matrice de taille (n, p), Cov(X, Y) = Cov(Xi , Yj ) . 1≤i≤n 1≤j≤p h t i Cov(X, Y) = E X − E(X) Y − E(Y) = E(XYt ) − E(X)[E(Y)]t . On a ΣX = Cov(X, X), c’est pour cette raison qu’on l’appelle abusivement variance de X : V (X). Propriété 5.1. Soit X et Y deux vecteurs aléatoires à valeurs resp. dans Rn et Rp . soit B ∈ Rp et A une matrice de taille (p, n) telle que Y = AX + B. Alors • E(Y) = AE(X) + B • ΣY = AΣX At . Propriété 5.2. Soit X et Y deux vecteurs aléatoires à valeurs dans Rn . Alors • V (X + Y) = V (X) + V (Y) + 2Cov(X, Y) • Cov(X, Y) = Cov(Y, X) • ΣX est une matrice symétrique semi-définie positive i.e ∀ x ∈ Rn , xt ΣX x ≥ 0. Définition 5.9(Fonction caracteristique-Fonction génératrice). X1 . . a-) Soit X = . un vecteur aléatoire. On appelle fonction caracteristique de X la Xn fonction ϕX : Rn −→ C définie par : n X t n iha,Xi ∀ a ∈ R , ϕX (a) = E(e ) où ha, Xi = a X = ak X k . k=1 41 Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES X1 . n . b-) Soit X = . un vecteur aléatoire à valeurs dans N . On appelle fonction généXn ratrice de X la fonction GX : [−1, 1]n −→ R définie par : n Y i ∀ s ∈ Nn , GX (s) = GX (s1 , ..., sn ) = E( sX i ). i=1 X1 Exemple 5.2. Soit X = X2 un vecteur aléatoire de densité X3 −x1 fX (x1 , x2 , x3 ) = C(x2 − x3 )e 1{0<x3 <x2 <x1 } . 1. Déterminer C 2. Déterminer la densité du vecteur X1 ! X2 3. Déterminer les lois marginales 4. Calculer E(X) et ΣX . 5. Indépendance et conditionnement X1 . . Définition 5.10 (Indépendance). Soit X = . un vecteur aléatoire. Les compoXn santes X1 , X2 , ..., Xn sont indépendantes si la loi conjointe PX est le produit des lois marginales PX1 , PX2 , ..., PXn i.e. PX = PX1 ⊗ PX2 ⊗ ... ⊗ PXn . Autrement dit P(X1 ∈ B1 , X2 ∈ B2 , ..., Xn ∈ Bn ) = P(X1 ∈ B1 ) · P(Xn ∈ Bn ) · · · P(Xn ∈ Bn ) où ∀ i ∈ {1, 2, .., n}, Bi ∈ BR X1 . . Théorème 5.2. Soit X = . un vecteur aléatoire. Il y a équivalence entre Xn (i) X1 , X2 , ..., Xn sont indépendantes (ii) FX (x1 , ..., xn ) = FX1 (x1 ) · FX2 (x2 ) · · · FXn (xn ) (iii) fX (x1 , ..., xn ) = fX1 (x1 ) · fX2 (x2 ) · · · fXn (xn ) (iv) ∀ g1 , g2 , ..., gn mesurables positives, g1 ◦ X1 , g2 ◦ X2 , ..., gn ◦ Xn sont indépendantes (v) ϕX (a1 , ..., an ) = ϕX1 (a1 ) · ϕX2 (a2 ) · · · ϕXn (an ). Corollaire 5.1. Si X1 , X2 , ..., Xn sont indépendants alors (1) E(X1 · X2 · · · Xn ) = E(X1 ) · E(X2 ) · · · E(Xn ) 42 Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES σ11 0 .. (2) ΣX = . 0 σnn a1 . . (3) V (at X) = at ΣX a, ∀ a = . an P (4) ϕ Xi (t) = ϕX1 (t) · ϕX2 (t) · · · ϕXn (t), ∀ t ∈ R. Proposition 5.2. Soit X1 , X2 , ..., Xn des v.a.r indépendantes alors n n X X (1) Si Xi P(λi ), i = 1, ..., n alors Xi P( λi ). (2) Si Xi i=1 n X γ(ai , ρ), i = 1, ..., n alors i=1 n X Xi γ( i=1 (3) Si Xi N (mi , σi2 ), i = 1, ..., n alors n X ai , ρ). i=1 Xi n n X X N( mi , σi2 ). i=1 i=1 i=1 X1 . . Définition 5.11 (Loi conditionnelle). Soit X = . un vecteur aléatoire. Xn Xi Xi .1 .p+1 . . Soit Y = . et Z = . deux groupes de composantes de X. Xi p Xin On appelle loi conditionnelle de Y sachant Z = z, lorsqu’elle existe, la loi de probabilité définie par PY|Z=z (B) = lim P(Y ∈ B|z < Z ≤ z + dz). dz−→0 On a aussi P(Y ∈ B, Z ∈]z, z + dz]) . dz−→0 P(Z ∈]z, z + dz]) PY|Z=z (B) = lim Fonction de repartition conditionnelle P(Y1 ∈] − ∞, y1 ], ..., Yp ∈] − ∞, yp ], Z ∈]z, z + dz]) . dz−→0 P(Z ∈]z, z + dz]) FY|Z=z (y) = PY|Z=z (Y1 ≤ y1 , ..., Yp ≤ yp ) = lim Donc ∂ n−p F (y, z) ∂z1 ...∂zn−p Y Z FY|Z=z (y) = fZ (z) . Densité conditionnelle f (y, z) fY|Z=z (y) = Y Z fZ (z) (Y continu). Si Y est discret, fY|Z=z (y) = P(Y = y|Z = z). 43 Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES X1 . . Théorème 5.3 (Fondamental). Soit X = . un vecteur aléatoire. La densité Xn conjointe est liée aux densités conditionnelles par fX (x1 , ..., xn ) = fX1 (x1 ) · fX2 |X1 =x1 (x2 ) · · · fXn |X1 =x1 ,...,Xn =xn (xn ) Y Théorème 5.4. Soit X = Z ! . Alors Y et Z sont indépendants ssi fZ|Y=y (z) = fZ (z). Définition 5.12 (Espérance conditionnelle). ! X1 Xp+1 . Y .. et Z = ... . Soit X = avec Y = Z Xp Xn • On appelle espérance conditionnelle de Y sachant Z = z la loi moyenne ϕ1 (z) Z . . EZ=z (Y) = E(Y|Z = z) = ydPY|Z=z (y) = ϕ(z) = . p R ϕp (z) avec ϕi (z) = E(Yi |Z = z) • On appelle espérance conditionnelle de Y sachant Z l’expression E(Y|Z) = ϕ(Z). ϕ(Z) est définie par ϕ(Z)(ω) = ϕ(z) = E(Y|Z = z). Remarque. Z1 . . Si B ∈ B p , Y = 1B et Z = . , alors Zn−p (1) Si Z est continu, on a P(B ∩ [z < Z ≤ z + dz]) . dz−→0 P(Z ∈]z, z + dz]) E(Y|Z = z) = P(B|Z = z) = lim P(B|z < Z ≤ z + dz) = lim dz−→0 (2) Si Z est discret, alors E(Y|Z = z) = P(B|Z = z) = P(B ∩ [Z = z]) . P(Z = z) Exemple 5.3. Soit X1 , ..., Xn n variables aléatores indépendantes de même loi P(λ). On n X pose Y = 1[X1 =x1 ] et Z = Xi . i=1 1. Calculer E(Y |Z = x). 2. Calculer E(X1 |Z). 44 Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES Y ! Théorème 5.5. Soit X = . Alors pour g : Rp −→ R, on a Z R (1) E(g(Y)) = Rp g(y)dPY (y) = E(EZ (g(Y))) = E(E(g(Y)|Z)) (2) E(AY|Z) = AE(Y|Z) (3) E(g(Y)|Y) =g(Y), PY− p.s. (4) V ar(Y) = E V ar(Y|Z) + V ar E(Y|Z) ! Y Exercice 5.1. Soit un vecteur aléatore tel que PY |Z=z = P(z) et Z Z ! Y 1. Déterminer la densité (conjointe) de . Z γ(1, 1). 2. Calculer E(Y |Z), E(Z|Y ) et E(Z −Y ). 6. 6.1. Vecteurs aléatoires Gaussiens Généralités X1 . . Définition 5.13. X = . est un vecteur gaussien (vecteur multinormal, ou variable Xn n X t multinormale) si toute combinaison linéaire de ses composantes a X = ai Xi est une i=1 m1 . . variable aléatoire normale. On note X N (m, Σ) pour dire que E(X) = m = . et mn t t t V ar(X) = Σ i.e. Y = a X N (a m, a Σa) X1 . . Exemple : Si X1 , ..., Xn sont indépendantes et gaussiennes, alors X = . est un Xn vecteur gaussien. Proposition 5.3. SiX m1 . . N (mi , σii ) avec m = . mn Théorème 5.6. Si X Théorème 5.7. Soit X N (m, Σ) alors chaque composante Xi suit une loi normale et Σ = (σij )1≤i,j≤n . N (m, Σ) alors ϕX (a) = e iat m− 1 t a Σa 2 N (m, Σ). Σ est une matrice diagonale ssi les v.a. X1 , X2 , ..., Xn sont indépendantes. 45 Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES Théorème 5.8Z (Fondamental). 1 n 1 t (i) ∀ m ∈ Rn , e− 2 (x−m) A(x−m) dx = (2π) 2 (detA)− 2 si A est symétrique définie positive. Rn N (m, Σ) avec Σ regulière, alors X admet pour densité (ii) Si X fX (x) = 1 1 n 2 (2π) (detΣ) 1 2 t −1 (x−m) e− 2 (x−m) Σ . X1 . . (iii) Si X = . a pour densité Xn − 12 fX (x) = Ke P aij (xi −mi )(xj −mj ) i,j m1 . . alors X est un vecteur multinormal et E(X) = m = . , V ar(X) = Σ = (σij ) avec mn s 1 detA A = (aij ) = Σ−1 et K = 1 = n (2π)n (2π) 2 (detΣ) 2 Théorème 5.9 (Loi conditionnelle). Soit X N (m, Σ) non dégénérée partitionnée en deux v.a. Y et Z à p et n − p composantes resp. Alors −1 (i) PY|Z=z = N mY + Σ12 Σ−1 22 (z − mZ ), Σ11 − Σ12 Σ22 Σ21 avec Σ = V ar(Y) = Σ11 , V ar(Z) = Σ22 , Cov(Y, Z) = Σ12 , Σ21 = Σt12 Σ11 Σ12 ! Σ21 Σ22 et E(Y) = mY . (ii) E(Y|Z) = E(Y) + Σ12 Σ−1 22 (Z − E(Z)) 6.2. Lois dérivées d’un vecteur Gaussien Définition 5.14(Loi de Khi-deux). X1 . . Soit X = N (0, In ). . Xn n X 2 t Alors ||X|| = X X = Xi2 suit une loi de Khi-deux à n degrés de liberté notée χ2 (n). i=1 X1 . . Proposition 5.4. Soit X = . Xn N (0, Σ). Si Σ est inversible alors Xt Σ−1 X χ2 (n). Remarque. Si Xi N (0, 1) alors Xi2 Si Y1 χ2 (n1 ) et Y2 γ( 21 , 21 ). Donc χ2 (n) = γ( n2 , 21 ). χ2 (n2 ) et si Y1 et Y2 sont indépendantes alors Y1 + Y2 46 χ2 (n1 + n2 ). Dr. Jean Marc OWO CHAPITRE 5. VECTEURS ALÉATOIRES Définition 5.15 (Loi de Student). N (0, 1) et Y χ2 (n). On suppose que X et Y sont indépendantes. X Alors T = q suit une loi de student à n dégrés de liberté. On note T T (n). Soit X Y n Définition 5.16 (Loi de Fisher-Snédecor). χ2 (n1 ) et Y2 χ2 (n2 ). On suppose que Y1 et Y2 sont indépendantes. Y1 Y 1 n2 Alors F = nY21 = . suit une loi de Fisher-Snédecor à n1 et n2 dégrés de liberté. Y 2 n1 n2 On note F F (n1 , n2 ). Soit Y1 47 Dr. Jean Marc OWO Chapitre 6 Convergences 1. Convergence en loi Définition 6.1. Soit (Xn )n≥0 une suite de v.a et X une v.a toutes définies sur un même espace probabilisé (Ω, F, P), de fonctions de repartitions (Fn )n≥0 et F . On dit que (Xn ) converge en loi vers X si (Fn (x))n≥0 converge vers F (x) en tout point x de continuité de F . L On note Xn −→ X Exemple 6.1. L (1) Xn N (0, n1 ) =⇒ Xn −→ X = 0. (2) Xn U[a− 1 ,b+ 1 ] =⇒ Xn −→ X L n n U[a,b] . Proposition 6.1. Soit (Xn )n≥0 une suite de v.a et X une v.a toutes définies sur (Ω, F, P), de fonctions caracteristiques (ϕXn )n≥0 et ϕX . L a) Alors Xn −→ X ⇐⇒ ∀ t ∈ R, ϕXn (t) −→ ϕX (t) L b) Xn −→ X ⇐⇒ E(h(Xn )) −→ E(h(X)), pour toute fonction h bornée et continue par morceaux. La proposition suivante assure que la famille des lois gauss iennes est stable pour la convergence en loi. Proposition 6.2. Soit (Xn )n≥0 une suite de v.a et X une v.a gaussiennes de loi N (mn , σn2 ). La suite converge en loi si et seulement si mn −→ n−→ +∞ m ∈ R et σn −→ n−→ +∞ σ ∈ [0, +∞[. Et la loi limite est la loi gaussienne N (m, σ 2 ). 2. Convergence en probabilité Définition 6.2. Soit (Xn )n≥0 une suite de v.a et X une v.a toutes définies sur (Ω, F, P). On dit que (Xn ) converge en probabilité vers X si ∀ ε > 0, P(|Xn − X| > ε) −→ 0. P On note Xn −→ X 48 CHAPITRE 6. CONVERGENCES Proposition 6.3. Soit (Xn )n≥0 une suite de v.a et X une v.a toutes définies sur (Ω, F, P). L P a) Alors Xn −→ X =⇒ Xn −→ X L P b) Xn −→ a ∈ R =⇒ Xn −→ a. 3. Convergence presque sure Définition 6.3. On dit que (Xn )n≥0 converge presque sureement vers X si P({ω : Xn (ω) −→ X(ω)}) = 1. Ce qui équivaut à P({ω : Xn (ω) 6−→ X(ω)}) = 0. p.s On note Xn −→ X Proposition 6.4. p.s P Xn −→ X =⇒ Xn −→ X. 4. Théorèmes limites Théorème 6.1 (Loi faible des grands nombres). Soit (Xn )n≥0 une suite de v.a telle n 1X P que E(Xi ) = m et Cov(Xi , Xj ) = δij σ 2 . Alors Xi −→ m n i=1 Théorème 6.2 (Loi forte des grands nombres). Soit (Xn )n≥0 une suite de v.a indén 1X p.s pendantes de même loi avec E(Xi ) = m, alors Xi −→ m n i=1 Théorème 6.3 (Limite centrale). Soit (Xn )n≥0 une suite de v.a indépendantes de même loi avec E(Xi ) = m et V ar(Xi ) = σ 2 . Alors L √ n X̄n − m −→ N (0, σ 2 ). n √ X̄n − m 1X L n −→ N (0, 1), où X̄n = Xi . σ n i=1 Théorème 6.4. Soit (Xn )n≥0 une suite de v.a indépendantes telle que √ L n (Xn − m) −→ N (0, σ 2 ). √ L Si g : R −→ R est dérivable, alors n (g(Xn ) − g(m)) −→ N 0, [g 0 (m)]2 σ 2 4.1. Forme multidimensionnelle Théorème 6.5 (Limite centrale pour les vecteurs aléatoires). Soit (Xn )n≥0 une suite de vecteur aléatoires ! indépendants de même loi avec E(Xi ) = m et V ar(Xi ) = Σ. Alors n X √ 1 L n Xi − m −→ N (0, Σ). n i=1 49 Dr. Jean Marc OWO CHAPITRE 6. CONVERGENCES Théorème 6.6. Soit (Xn )n≥0 une suite de vecteur aléatoires indépendants à valeurs dans √ L Rp telle que n (Xn − m) −→ N (0, Σ). Si g : Rp −→ Rq est différentiable, alors ∂gq ∂g1 (m) · · · ∂x1 (m) ∂x1 √ L . .. .. n (g(Xn ) − g(m)) −→ N 0, Gt ΣG avec G = Jg (m)t = ··· . ∂gq ∂g1 (m) · · · ∂xp (m) ∂xp (p×q) 50 Dr. Jean Marc OWO