Université de Carthage Ecole Supérieure de la Statistique et de l’Analyse de l’Information Calcul de Probabilité Notes de Cours Kaoukeb Turki Moalla Année Universitaire 2011-2012 ii Table des matières 1 Variables Aléatoires Unidimensionnelles 1.1 Dé…nitions et Exemples . . . . . . . . . . . . . . . . . . . 1.1.1 Loi de Probabilité d’une Variable Aléatoire . . . . 1.1.2 Fonction de Répartition d’une Variable Aléatoire 1.2 Caractéristiques d’une Variable Aléatoire . . . . . . . . . 1.2.1 Espérance d’une Variable Aléatoire . . . . . . . . 1.2.2 Variance d’une Variable Aléatoire . . . . . . . . . 1.2.3 Moments d’ordre Supérieur . . . . . . . . . . . . 1.3 Les variables Aléatoires Usuelles . . . . . . . . . . . . . . 1.3.1 Les Variables Aléatoires Discrètes . . . . . . . . . 1.3.2 Les variables Aléatoires Absoluments Continues . 1.3.3 Approximations Usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Variables Aléatoires Vectorielles 2.1 Dé…nitions et Propriétés . . . . . . . . . . . . . . . . . . . . . 2.1.1 Lois d’un Vecteur Aléatoire : loi conjointe, lois marginales 2.1.2 Fonction de Répartition . . . . . . . . . . . . . . . . . 2.1.3 Changements de Variables . . . . . . . . . . . . . . . . 2.1.4 Caractéristiques d’un Vecteur Aléatoire . . . . . . . . . 2.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Propriétés Caractéristiques . . . . . . . . . . . . . . . . 2.2.2 Indépendance de Variables Aléatoires Scalaires . . . . . 2.2.3 Somme de Variables Aléatoires indépendantes . . . . . 2.3 Espérances et Lois Conditionnelles . . . . . . . . . . . . . . . 2.3.1 Espérance Conditionnelle, Propriétés . . . . . . . . . . 2.3.2 Lois Conditionnelles . . . . . . . . . . . . . . . . . . . iii 3 3 4 7 10 10 12 16 17 17 23 27 29 30 30 33 35 37 40 43 44 45 47 48 51 iv 3 La 3.1 3.2 3.3 TABLE DES MATIÈRES Fonction Caractéristique Dé…nitions et Propriétés . . . . . . . . . . . Applications de la fonction caractéristique . Cas particuliers . . . . . . . . . . . . . . . . 3.3.1 La fonction génératrice . . . . . . . . 3.3.2 La fonction génératrice des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 55 58 60 60 63 4 Les Vecteurs Gaussiens 65 4.1 Dé…nitions et Propriétés . . . . . . . . . . . . . . . . . . . . . 66 4.2 Densité d’un Vecteur Gaussien . . . . . . . . . . . . . . . . . . 68 5 Exercices 71 Avant-propos Ce polycopié est destiné aux étudiants de la première année de l’ESSAI. Il couvre les di¤érents éléments de calcul de probabilité et introduit les outils nécessaires à une étude asymptotique. Il est composé de quatre chapitres enrichis d’une liste d’exercices assez variés couvrant di¤érents aspects des concepts étudiés. 1 2 Chapitre 1 Variables Aléatoires Unidimensionnelles 1.1 Dé…nitions et Exemples La notion de variable aléatoire correspond à une grandeur ”numérique” dont la valeur dépend de l’issue d’une expérience aléatoire. Par exemple, lorsqu’on joue aux dés on peut accorder de l’importance à la somme obtenue sur deux dés, 7 par exemple, plutôt qu’à la question de savoir si c’est la paire (1; 6) qui est apparue ou les autres. Dans le cas du jet d’une pièce de monnaie, on peut s’intéresser au nombre de fois où Pile est apparu plutôt qu’à la séquence détaillée des Piles et Faces. Les quantités somme des chi¤res apparus et nombre de Piles sont appelées des variables aléatoires. Du fait que la réalisation d’une valeur quelconque d’une variable aléatoire est determinée par le résultat de l’expérience aléatoire, il est naturel que cette réalisation est un événement. Il est possible d’attribuer donc une probablité aux di¤érentes valeurs que la variable aléatoire peut prendre. Dans l’exemple du jet des deux dés, on considère les deux ensembles = f1; 2; :::; 6g2 et E = f2; 3; :::; 12g : On dé…nit ainsi une application S de dans E par S : w = (w1 ; w2 ) 7! w1 + w2 Pour obtenir la probablité de réalisation d’une valeur quelconque de S, il su¢ t de dénombrer les w qui réalisent cette valeur. Ainsi, P (S = 7) = P S 1 (f7g) = P (f(2; 5) ; (5; 2) ; (3; 4) ; (4; 3) ; (1; 6) ; (6; 1)g) = 1=6: 3 4 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES Dé…nition 1.1.1 Soit ( ; A; P ) un espace de probabilité et (E; E) un espace mesurable. Une variable aléatoire X est une application mesurable de ( ; A; P ) dans (E; E) c’est à dire une application X : ! E telle que 8B 2 E; X 1 (B) 2 A: i- Si E est dénombrable, la variable aléatoire X est dite discrète. Dans ce cas, E est muni de la tribu P (E) et X véri…e 8x 2 E; fX = xg 2 A: Dans le cas particulier où E IN; on dit que X est une variable aléatoire entière. ii- Si E IR; la variable aléatoire X est dite numérique ou réelle. En général, IR est muni de sa tribu de Borel B (IR) et une variable aléatoire réelle est donc une application mesurable de ( ; A; P ) dans (IR; B (IR)) : iii- Si E IRn ; on parle de variables aléatoires réelles multidimensionnelles ou vectorielles ou encore de vecteurs aléatoires réels (E = B (IRn )) : On utilisera les abréviations v.a et v.a.r pour désigner une variable aléatoire et une variable aléatoire réelle respectivement. La suite de ce chapitre est consacrée à l’étude des variables aléatoires réelles unidimensionnelles. Exemple 1.1.1 Lors d’un lancer de deux dés, le nombre de chi¤res pairs apparus est une v.a entière prenant les valeurs 0; 1 ou 2: Dans l’observation du fonctionnement d’un composant éléctrique, l’instant de la première panne est v.a.r à valeurs positives. Remarque 1.1.1 Les propriétés d’une variable aléatoire X sont celles d’une fonction mesurable (di¤érentes opérations algébriques, composition, limites,...). 1.1.1 Loi de Probabilité d’une Variable Aléatoire Dé…nition 1.1.2 Soit ( ; A; P ) un espace de probabilité et X une variable aléatoire à valeurs dans (E; E) : On appelle loi de probabilité de X et on note PX la mesure de probabilité dé…nie sur (E; E) par 8B 2 E ; PX (B) = P X 1 (B) = P (X 2 B) : La probabilité PX est la mesure image de P par l’application mesurable X: 1.1. DÉFINITIONS ET EXEMPLES 5 Exemples 1.1.1 : 1. Pour une variable aléatoire discrète X; l’espace (E; P (E) ; PX ) est un espace de probabilité discret. La loi de probabilité PX 1 est déterminée par sa densité discrète, l’ensemble fP (X = x); x 2 Eg : On a X PX = P (X = x) x x2E et 8 B E ; PX (B) = X P (X = x) x (B) = x2E X P (X = x) : x2B Par exemple, soit A un événement de probabilité non nulle P (A) = p: On considère la v.a.r discrète X = 1A . On a PX = P (X = 0) 0 + P (X = 1) 1 = (1 p) 0 +p 1 et 8 B PX (B) = 0; 1; p ou (1 R ; p) en fonction de la position de 0 et 1 par rapport à B. La v.a X est dite de loi de Bernoulli de paramètre p: 2. Pour une variable aléatoire réelle, lorsqu’on dit qu’elle possède une densité de probabilité f cela signi…e que la loi PX est absolument continue par rapport à ; mesure de Lebesgue de (IR; B (IR)), et de densité f: Soit Z 8 B 2 B (IR) ; PX (B) = f (x) d (x) : B Par exemple, on considère un segment [a; b] et une v.a.r X de densité constante sur [a; b] et nulle en dehors de [a; b] c’est à dire f (x) = 1 b a 1[a;b] (x) : 0 Si on note Pa;b la loi de cette v.a alors 8 B 2 B (IR) ; 0 Pa;b (B) = 1 b a Z d (x) : B\[a;b] La v.a X est dite de loi uniforme sur l’intervalle [a; b]. 1 La loi de probabilité PX est concentrée sur X ( ) : 6 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES Remarques 1.1.1 : 1. Deux variables aléatoires X et Y dé…nies sur ( 1 ; A1 ; P1 ) et ( 2 ; A2 ; P2 ) respectivement sont dites équidistribuées si et seulement si elles ont la même loi de probabilité. Elles sont dites de même type s’il existe deux constantes a et b telles que aX + b admette la même loi que Y: 2. Dans beaucoup de problèmes, une variable aléatoire n’intervient que par sa loi de probabilité PX , l’espace ( ; A; P ) n’étant pas précisé. Parmi les v.a équidistribuées admettant cette loi de probabilité on en choisit une. Par exemple, on prend ( ; A; P ) = (IR; B (IR) ; PX ) ; X étant l’application identique, appelé espace canonique associé à X. Loi de probabilité et changement de variables Soit X une variable aléatoire réelle et g une application borélienne: On se propose de calculer la loi de probabilité de la variable Y = g X: Proposition 1.1.1 Soit ( ; A; P ) un espace de probabilité et X une variable aléatoire réelle de ( ; A; P ) dans (IR; B (IR)). Soit g une application borélienne de (IR; B (IR)). La loi de probabilité de la variable aléatoire g (X) est l’image de P par g (X) qui est également l’image de PX par g: Soit 8B 2 B (IR) ; Pg(X) (B) = PX g 1 (B) : Exemples 1.1.2 : 1. Dans le cas particulier d’une variable aléatoire discrète X de densité discrète fP (X = x); x 2 X ( )g la v.a Y = g X est aussi une variable aléatoire discrète telle que P 8y 2 Y ( ) ; P (Y = y) = P (X = x): x=g(x)=y 2. Dans le cas particulier d’une variable aléatoire X de densité de probabilité fX ; et si g est bijective, dérivable de dérivée continue ainsi que sa réciproque g 1 alors Y = g X est aussi une v.a dont la loi est absolument continue par rapport à et de densité fX g 1 : jg 0 g 1 j Pour un changement de variables a¢ ne Y = aX + b; avec a 6= 0; on a fY = fY (:) = 1 fX jaj : b a : 1.1. DÉFINITIONS ET EXEMPLES 1.1.2 7 Fonction de Répartition d’une Variable Aléatoire Dé…nition 1.1.3 Soit ( ; A; P ) un espace de probabilité et X une variable aléatoire réelle de ( ; A; P ) dans (IR; B (IR)). On appelle fonction de répartition de X ou de la loi PX , la fonction qui à tout réel x associe le nombre F (x) dé…ni par F (x) = PX (] 1; x]) = P (X x) : Commentaire : L’importance pratique de la fonction de répartition est qu’elle permet de calculer la probabilité de tout intervalle de IR: Pour tous réels a et b; on a P (X a) = F (a) ; P (X > a) = 1 F (a) ; P (a < X b) = F (b) F (a) : Proposition 1.1.2 La fonction de répartition F d’une variable aléatoire réelle X est une application de IR dans [0; 1] ; croissante, continue à droite et limitée à gauche en tout point et véri…ant lim F = 0 et 1 lim F = 1: +1 Exemples 1.1.3 Reprenons les exemples du paragraphe précédent. 1. Pour une v.a discrète X, la fonction de répartition F est calculée par X 8a 2 IR; F (a) = P (X = x) : x a Si on désigne par x1 ; x2 ; :::; xn ; ::: les valeurs possibles de cette v.a (classées dans un ordre croissant), la fonction de répartition F est une fonction en escalier. Ses valeurs seront constantes sur les intervalles [xi 1 ; xi [ et elle aura un saut de taille P (X = xi ) en xi : Dans l’exemple d’une v.a de loi de Bernoulli de paramètre p; la fonction de répartition F est dé…nie par 8 ; si x<0 < 0 1 p ; si 0 x < 1 F (x) = : 1 ; si x 1 On peut aussi écrire F (x) = (1 p) 1[0;1[ (x) + 1[1;+1[ (x) : 8 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES 2. La fonction de répartition F d’une loi à densité f est donnée par Z x 8x 2 IR; F (x) = f (t) dt: 1 F est continue sur IR et dérivable en tout x où f est continue avec F 0 (x) = f (x) : Dans le cas particulier de la loi uniforme sur l’intervalle [a; b] on a 8 x<a > < x 0 a ; si ; si a x b F (x) = > : b a 1 ; si x>b On peut aussi écrire F (x) = x b a 1[a;b] (x) + 1]b;+1[ (x) : a Remarque 1.1.2 On montre que la fonction de répartition d’une variable aléatoire X est continue sauf éventuellement sur un sous-ensemble dénombrable de IR: On montre aussi qu’elle est dérivable sauf éventuellement sur un ensemble de mesure Lebesgue nulle. La fonction de répartition d’une variable aléatoire réelle X caractérise sa loi PX au vu du résultat de la proposition suivante. Proposition 1.1.3 A toute fonction F , croissante de IR dans [0; 1] ; continue à droite telle que lim F = 0 et lim F = 1 correspond une mesure de 1 +1 probabilité P et une seule, sur (IR; B (IR)) ; dont elle est la fonction de répartition2 . On a 8x 2 IR; F (x) = P (] 1; x]) La preuve utilise le théorème de prolongement de Carathéodory. Une preuve détaillée est dans le livre de D.Foata et A.Fuchs. Calcul des Probabilités. 2 On appelle fonction de répartition d’une mesure de probabilité P toute application F de IR dans IR telle que pour tout (a; b) 2 IR2 et a b; on ait P (]a; b]) = F (b) F (a) 1.1. DÉFINITIONS ET EXEMPLES 9 Exemples 1.1.4 Soit F la fonction de répartition d’une v.a X: 1. Si F est discontinue et fxk ; k 2 IN g est l’ensemble des points de discontinuité de F , toujours classés dans un ordre croissant, tel que ! X F (xk ) lim F (x) = 1 x!xk k2IN alors X est une v.a discrète de densité discrète P (X = xk ) = F (xk ) lim F (x) : x!xk 2. Si F est continue et presque sûrement (par rapport à ) dérivable de dérivée f , et que cette dernière possède les propriétés d’une densité de probabilité, alors X est de loi absolument continue de densité f = F 0 : La fonction de répartition est aussi un outil priviligié de calcul de lois. Reprenons le problème de changement de variables c’est à dire le problème de calcul de loi de la variable Y = g (X) : D’une façon générale et en dehors des cas particuliers présentés dans la section précédente, on est amené à calculer la fonction de répartition de la v.a Y pour identi…er sa loi. Par exemple, si pour une v.a.r X on considère la v.a Y = X 2 ; si on note FX et FY les fonctions de répartition des v.a X et Y respectivement, et si de plus FX est continue alors pour tout réel y on a p p y) : FY (y) = FX ( y) FX ( Exercice 1.1.1 Soit X une v.a de fonction de répartition continue et strictement croissante F . On se propose de déterminer la loi de v.a U = F (X) : On commence par remarquer que U est une v.a à valeurs dans ]0; 1[ et P (U u) = 0; 1; si u si u 0 1 De plus, pour tout u 2 ]0; 1[ P (U u) = P (F (X) u) = P X F 1 (u ) = F F 1 (u ) = u: La fonction de répartition de U est donc celle de la loi uniforme sur [0; 1] : Par conséquent U est une variable aléatoire de loi uniforme sur [0; 1] : 10 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES On montre aussi que si V est une v.a de la loi uniforme sur [0; 1] alors F (V ) est une v.a de fonction de répartition F: La variable F 1 (V ) est donc une v.a de même loi que X: Plus généralement, si F ne véri…e pas les propriétés de régularité de départ, on appelle fonction de quantile et on note F la fonction dé…nie par 1 F (x) = inf fx=F (u) xg : On véri…e que si V est une v.a de la loi uniforme sur [0; 1] alors F une v.a de fonction de répartition F et donc de même loi que X: 1.2 (V ) est Caractéristiques d’une Variable Aléatoire La loi de probabilité d’une variable aléatoire peut être caractérisée par certaines valeurs typiques associées aux notions de valeur centrale, de dispersion et de forme de la distribution. 1.2.1 Espérance d’une Variable Aléatoire Dé…nition 1.2.1 Soit X une variable aléatoire réelle dé…nie sur ( ; A; P ). On appelle espérance mathématique de X et on note E(X) la quantité (si elle existe) Z E(X) = XdP: L’espérance de X est aussi appelée moment d’ordre 1 de X: La v.a X (ou plutôt sa loi) est dite centrée si E(X) = 0: Remarques 1.2.1 : R 1. L’espérance mathématique d’une v.a.r X existe ssi jXj dP < 1. On dit que X est intégrable. Si X est v.a. positive qui n’est pas intégrable, on convient de poser E(X) = 1: Autrement, on dira que X n’a pas d’espérance. 2. L’espérance E(X) est une intégrale de Lebesgue de l’application mesurable X par rapport à la mesure P (souvent mal décrite). D’après le théorème de transfert Z Z E(X) = XdP = xdPX (x): 1.2. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 11 (a) Si X est une v.a discrète de densité fP (X = x); x 2 X ( )galors E(X) = X xP (X = x): x2X( ) L’espérance est une moyenne pondérée des valeurs que X peut prendre, les poids étant les probabilités que ces valeurs soient prises. (b) Si X est une v.a continue de densité de probabilité fX alors Z E(X) = xfX (x)dx: Commentaire : L’espérance mathématique d’une v.a X ne dépend que de la loi de X et indique la valeur moyenne autour de laquelle X prend ses valeurs. En e¤et, E(X) apparaît comme l’abscisse sur IR du centre de gravité de la répartition des masses correspondant à la mesure PX ( la masse P (X = x) est placée au point d’abscisse x ). D’un point de vue statistique, l’espérance mathématique s’interprète comme la limite de la moyenne empirique. Dans l’exemple du lancer des deux dés, E(S) = 7 par raison de symétrie: Supposons que l’on lance n fois les deux dés et que les réalisations successives de S sont s1 ; s2 ; ..., sn . On montre que 1X S= si ! 7: n i=1 n Proposition 1.2.1 L’espérance est une intégrale de Lebesgue et en possède donc toutes les propriétés. En particulier, l’espérance est une forme linéaire positive sur l’espace des v.a.r intégrables L1 ( ; A; P ) ( L1 lorsqu’il n’y a pas d’ambiguité). Pour X; Y 2 L1 ;on a 8 ; 2 IR; E( X + Y ) = E(X) + E(Y ) et X Y =) E(X) E(Y ): La positivité de l’opérateur "espérance" implique aussi X 0 =) E(X) 0 et jE(X)j E(jXj): 12 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES Dans les applications, se pose souvent le problème de calcul de l’espérance d’une fonction de variable aléatoire c’est à dire d’une v.a de la forme Y = g(X): On montre que ce calcul est possible sans faire le calcul, parfois compliqué, de la loi de la v.a Y: Dé…nition 1.2.2 Soit X une v.a.r et g une application borélienne sur IR. On appelle espérance de g(X) et on note E(g(X)) la quantité (si elle existe) Z Z E(g(X)) = g X dP = g(x) dPX (x): IR Pour les exemples précédents : i- Si X est discrète alors Y = g X est aussi discrète et X E(g(X)) = g(x)P (X = x): x2X( ) ii- Si X est continue de densité fX alors Z g(x)fX (x)dx: E(g(X)) = IR 1.2.2 Variance d’une Variable Aléatoire Soit X une variable aléatoire réelle d’espérance E(X). Comme on s’attend à voir la v.a X prendre ses valeurs autour de E(X), il paraît raisonnable de mesurer les variations de X en considérant l’écart quadratique moyen entre X et son espérance. On parle de caractéristique de dispersion de la loi de X: Dé…nition 1.2.3 Soit X une variable aléatoire réelle dé…nie sur ( ; A; P ). On appelle variance de X et on note V (X) ou 2 la quantité, si elle existe, dé…nie par Z 2 2 = E(X E(X)) = (x E(X))2 dPX (x): La variance est aussi appelée moment centré d’ordre 2 de la distribution de X et est une mesure de la dispersion de X autour de E(X):Une v.a X est dite réduite ou normalisée p si sa variance est égale à 1. La quantité (X) = V (X) est appelée écart-type de X. 1.2. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 13 Commentaire : Dans l’analogie avec un système de masses sur un axe, la variance est le moment d’inertie du système. Remarques 1.2.2 : 1. La dé…nition de la variance d’une v.a X suppose l’existence de son espérance E(X): On montre aussi que la variance V (X) est dé…nie si et seulement si X est de carré intégrable. 2. La variance V (X) est l’espérance de la v.a g(X) = (X E(X))2 : Il s’en suit que X V (X) = (x E(X))2 P (X = x); si X est discrète x2X( ) et V (X) = Z (x E(X))2 fX (x)dx; si X est continue de densité fX : IR 3. La variance est invariante par changement d’origine mais non par changement d’échelle. Pour tous réels a et b V (aX + b) = a2 V (X): On montre aussi que V (X) = 0 () X = E(X) p:s: Exercice 1.2.1 Montrer qu’à toute v.a.r X de carré intégrable, on peut associer une v.a.r Xr , centrée et réduite. Déterminer la loi de Xr dans le cas où X est de loi absolument continue. Contrairement à l’opérateur de l’espérance, celui de la variance n’est pas linéaire. Si X et Y sont deux variables aléatoires réelles dé…nies sur un même espace de probabilité ( ; A; P ) et de carrés intégrables on montre que V (X + Y ) = V (X) + V (Y ) + 2E ((X E(X)) (Y E(Y ))) : La quantité E ((X E(X)) (Y E(Y ))) est appelée covariance de X et Y et est notée cov (X; Y ). On véri…e que cov (X; Y ) = E (XY ) E(X)E(Y ) et cov (X; X) = V (X): 14 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES Remarques 1.2.3 : 1. La covariance de deux v.a X et Y de carrés intégrables est bien dé…nie. Il su¢ t de remarquer que 2 jXY j X 2 + Y 2: 2. La covariance de deux v.a X et Y véri…e acov (X; Y ) = cov (Y; X) bjcov (X; Y )j c- pour tous réels a, b; c et d p p V (X) V (Y ) cov (aX + b; cY + d) = accov (X; Y ) : 3. Si X1 ; X2 ; :::; Xn est une suite de n v.a de carrés intégrables alors V n P Xi = i=1 n P V (Xi ) + 2 i=1 P cov (Xi ; Xj ) : 1 i<j n On termine ce paragraphe par les deux propositions suivantes. Proposition 1.2.2 : Théorème de Koening-Huyghens Soit X une variable aléatoire réelle de variance …nie. Pour tout réel a E (X a)2 = V (X) + (E(X) a)2 : L’erreur en moyenne quadratique est minimale en a = E(X) et la valeur minimale est V (X): Si a = 0 on obtient (E(X))2 : V (X) = E(X 2 ) Proposition 1.2.3 : Inégalité de Bienaymé-Tchebychev Soit X une variable aléatoire réelle de variance …nie. Pour tout P (jX E(X)j Ou encore P (jX E(X)j ) p V (X) V (X)) 2 1 2: >0 1.2. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 15 Commentaire : Plus V (X) est relativement grande par rapport à 2 ; plus la probabilité que jX E(X)j est grande. La variance V (X) est donc un paramètre qui caractérise la dispersion de la v.a X autour de sa valeur moyenne E(X). La variable aléatoire X s’éloigne d’autant moins de sa moyenne que sa variance est petite. Remarques 1.2.4 : 1. L’inégalité de Bienaymé-Tchebychev est une application de l’Inégalité de Markov E(X) P (X ) valable pour toute v.a.r positive X d’espérance …nie et pour tout > 0: 2. L’inégalité de Bienaymé-Tchebychev permet de retrouver la propriété V (X) = 0 () X = E(X) p:s: 3. L’inégalité de Bienaymé-Tchebychev permet de majorer la probabilité que X prenne ses valeurs hors de l’intervalle ]E(X) ; E(X) + [ : Cette majoration est grossière vu le principe même de la démonstration de cette inégalité. Par exemple, si X suit une loi uniforme sur [0; 1] alors E(X) = Pour 1 2 et V (X) = 1 : 12 1 = ; l’inégalité de Bienaymé-Tchebychev s’écrit 2 P( X 1 2 1 ) 2 1 3 alors qu’il est trivial que cette probabilité est nulle: De même, si X suit une loi normale N (0; 1), pour a respectivement les inégalités P (X 2 ] 2; 2[) 0; 75 et = 2 et P (X 2 ] 3; 3[) = 3, on 0; 88 alors que l’utilisation de la table de la loi normale permet d’avoir P (X 2 ] 2; 2[) w 0; 95 et P (X 2 ] 3; 3[) w 0; 997. 16 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES 1.2.3 Moments d’ordre Supérieur Dé…nition 1.2.4 Soit X une variable aléatoire réelle dé…nie sur ( ; A; P ). Pour tous entiers naturels r et r0 on appelle 0 1. moment (resp. moment absolu) d’ordre r et on note mr (resp.mr ) la quantité, si elle existe, Z Z r mr = X dP = xr dPX (x) IR respectivement. 0 mr = Z r jXj dP = Z IR On a aussi mr = E (X r ) jxjr dPX (x): 0 et mr = E (jXjr ) : m1 est l’espérance mathématique de X. 2. moment centré (resp. moment centré absolu) d’ordre r et on note 0 (resp. r ) la quantité, si elle existe, Z Z r (X E(X)) dP = (x E(X))r dPX (x) r = IR respectivement. 0 r = Z r jX E(X)j dP = Z IR jx E(X)jr dPX (x) On a aussi r E(X))r = E(X Si r = 2 alors 2 = 0 2 et 0 r = E (jX E(X)jr ) : est la variance de X: 3. moment factoriel d’ordre r la quantité, si elle existe E(X(X 1):::(X r + 1)): Ces derniers sont surtout utilisés dans le cas d’une v.a.r entière. r 1.3. LES VARIABLES ALÉATOIRES USUELLES 17 Remarques 1.2.5 : 1. Les moments 3 et 4 sont utilisés pour caractériser la forme de la distribution. Plus précisement, on considère les coé¢ cients d’asymétrie et d’aplatissement dé…nis respectivement par 1 = 3 3 et 2 4 4 = 2. Pour toute v.a.r X et pour tous réels r et r 1 r 0 r =) E jXjr : 0 r0 0 (E (jXjr ) ) r : 3. L’inégalité de Bienaymé-Tchebychev se généralise sous la forme : 0 8 > 0; 1.3 P (jX E(X)j n n: ) Les variables Aléatoires Usuelles Dans la suite ( ; A; P ) est un espace de probabilité et X une variable aléatoire réelle dé…nie sur ( ; A; P ) de loi de probabilité PX et de fonction de répartition FX : 1.3.1 Les Variables Aléatoires Discrètes On rappelle qu’une variable aléatoire réelle X est dite discrète si X ( ), ensemble de réalisations de X; est une partie dénombrable de IR: Dans ce cas, la loi de probabilité PX est dé…nie par X PX = P (X = x) x : x2X( ) De plus si g est une application borélienne sur IR alors g (X) est une variable aléatoire discrète. Son espérance est calculée par X E (g (X)) = g(x)P (X = x) : x2X( ) En particulier X E (X) = xP (X = x) x2X( ) ; V (X) = X x2X( ) (x E (X))2 P (X = x) 18 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES et 8a 2 IR; FX (a) = X P (X = x) : x a La suite de ce paragraphe est un bref exposé des variables aléatoires discrètes usuelles. Les paramètres de ces v.a sont résumés dans un tableau présenté à la …n du paragraphe. Loi uniforme discrète On considère l’expérience aléatoire qui consiste à choisir au hasard un élément parmi n objets numérotés de 1 à n: On note = fw1 ; :::; wn g et X la v.a.r dé…nie sur par 8wi 2 ; X (wi ) = i: Alors 1 : n On dit que X suit une loi uniforme discrète sur l’ensemble f1; :::; ng. On note X ( ) = f1; :::; ng et 8k 2 X ( ) ; P (X = k) = X ,! Un : Remarque 1.3.1 Si n = 1; la v.a.X est certaine3 de loi 1: Lois de tirage avec remise Ces lois interviennent dans le cadre de réalisations successives et indépendantes d’une même expérience aléatoire supposée être à deux issues possibles. C’est à dire que lors de la réalisation de chacune de celles-ci on s’intéresse à la réalisation ou non d’un événement A interprété comme succès et de probabilité P (A) = p 2 ]0; 1[. Dé…nition 1.3.1 On dit qu’une v.a.r X suit une loi de Bernoulli (ou est une v.a .r de Bernoulli) de paramètre p si elle ne prend que les deux valeurs 0 et 1 avec des probabilités non nulles et telle que P (X = 1) = p: Remarque 1.3.2 Si on considère le modèle décrit ci-dessus, l’expérience aléatoire est réalisée une seule fois et X = 1A : 3 Une v.a.r certaine est une v.a prenant une valeur réelle constante a sur probabilité de cette v.a est a , la mesure de Dirac en a. : La loi de 1.3. LES VARIABLES ALÉATOIRES USUELLES 19 Dé…nition 1.3.2 On dit qu’une v.a.r X suit une loi binomiale de paramètres n et p et on note X ,! B (n; p) si X ( ) = f0; 1; :::; ng et 8k 2 X ( ) ; p)n P (X = k) = Cnk pk (1 k : Remarques 1.3.1 : 1- Une v.a de Bernoulli de paramètre p est une v.a de loi binomiale de paramètres 1 et p: 2- Si X est une v.a.r de loi binomiale de paramètres n et p alors n X est une v.a.r de loi binomiale de paramètres n et 1 p: 3- Dans le modèle de référence, l’expérience est réalisée n fois et X est le nombre de réalisations de A: Dé…nition 1.3.3 On dit qu’une v.a.r X suit une loi géométrique de paramètre p et on note X ,! G (p) si et 8k 2 X ( ) ; X ( ) = IN P (X = k) = p (1 p)k 1 : Commentaire : La v.a.r X est dite une loi de temps d’attente. Elle est interprétée comme le rang de la première réalisation de l’événement A dans le modèle de référence. La v.a.r Y = X 1 est alors interprétée comme le nombre d’échecs (réalisation de Ac ou non réalisation de A) précédant le premier succès (réalisation de A): Dans le même contexte, on peut s’intéresser au rang du rème succès pour un entier r > 1: Dé…nition 1.3.4 On dit qu’une v.a.r X suit une loi de Pascal de paramètres r et p et on note X ,! P (r; p) si X ( ) = fr; r + 1; :::g et 8k 2 X ( ) ; P (X = k) = Ckr 11 pr (1 p)k r : Le cas r = 1 correspond à une v.a de loi géométrique de paramètre p: Proposition 1.3.1 Si X est une v.a.r de loi de Pascal de paramètres r et p alors Y = X r est une v.a.r véri…ant X ( ) = IN et 8k 2 X ( ) ; k r P (X = k) = Ck+r 1 p (1 p)k : On dit que Y suit une loi binomiale négative de paramètres r et p et on note Y ,! I (r; p) : 20 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES Lois de tirage sans remise On considère une population de taille N et on fait un tirage (équiprobable) sans remise de n ( N ) éléments (échantillon) dans cette population: On s’intéresse à un type (I) ; d’éléments de la population, que l’on supposera être en proportion p tel que N p soit entier. Soit X le nombre d’éléments du type (I), présents dans l’échantillon. Dé…nition 1.3.5 On dit qu’une v.a.r X suit une hyper-géométrique de para mètres N; n et p et on note X ,! H (N; n; p) si X ( ) = fmax(0; n N (1 p)); :::; min (n; N p)g et 8k 2 X ( ) ; P (X = k) = CNk p CNn (1k p) CNn : Remarque 1.3.3 On reprend la population de taille N dont une proportion p d’éléments de type (I) : On fait un tirage avec remise d’un échantillon de taille n et on s’intéresse au nombre d’éléments du type d’interêt, présents dans l’échantillon, qu’on note Y . La v.a.r Y est de loi binomiale de paramètres n et p. De plus E (Y ) = E (X) et V (X) V (Y ) On dit qu’une v.a.r hyper-géométrique est moins dispersée que la v.a.r binomiale correspondante. Comme dans le cas du tirage avec remise, on peut considérer des lois de temps d’attente quand on s’intéresse, par exemple, au rang de l’apparition du rème élément du type étudié. Loi de Poisson La loi de Poisson intervient dans l’observation d’un processus ponctuel (processus de comptage par exemple) se déroulant sur la droite réelle (souvent l’axe temporel : instants d’arrivées dans une …le d’attente,...). Elle pourra compter le nombre de réalisations d’un événement d’interêt sur un segment de temps : nombre de voitures passant par un point donné de la route, nombre de clients entrant dans un magasin, nombre d’accidents, nombre d’appels téléphoniques,...). 1.3. LES VARIABLES ALÉATOIRES USUELLES 21 Dé…nition 1.3.6 On dit qu’une v.a.r X suit une loi de Poisson de paramètre > 0 et on note X ,! P ( ) si k X ( ) = IN et 8k 2 X ( ) ; P (X = k) = e k! : Le tableau suivant résume les di¤érentes lois usuelles discrètes et un calcul de leurs paramètres. 22 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES Nom Ensembles de valeurs Loi unif orme f1; 2; :::; ng Loi de Bernoulli f0; 1g Loi binomiale f0; 1; :::; ng P (X = k) = C kn pk (1 Loi geometrique IN P (X = k) = p (1 Loi de P ascal fr; r + 1; :::g P (X = k) = C rk 11 pr (1 Loi binomiale negative IN Loi hyper geometrique X( )= max(0; n N (1 p)); :::; min (n; N p) Loi P (X = k) = 1 n P (X = 1) = p; P (X = 0) = 1 p p)n p)k p)k CNk p CNn (1k CNn k Loi de P oisson IN 1 P (X = k) = C kk+r 1 pr (1 P (X = k) = P (X = k) = e k k! p) p) 1.3. LES VARIABLES ALÉATOIRES USUELLES 1.3.2 23 Les variables Aléatoires Absoluments Continues Une variable aléatoire réelle X est dite absolument continue s’il existe une fonction réelle d’une variable réelle f , positive et d’intégrale égale à 1; telle que Z 8 B 2 B (IR) ; PX (B) = f (x) d (x) B On dit que PX est absolument continue par rapport à , mesure de Lebesgue sur (IR; B (IR)), et de densité f: Dans ce cas Z x Z FX (x) = f (t) dt ; E(X) = xfX (x)dx: IR 1 et V (X) = Z (x E(X))2 fX (x)dx: IR Plus généralement, si g est une application borélienne sur IR alors E (g (X)) est calculée par Z g(x)fX (x)dx: E (g (X)) = IR On rappelle ci-dessous les principales lois usuelles continues. Comme dans le paragraphe précédent, les paramètres de ces v.a sont rassemblés dans un tableau présenté à la …n du paragraphe. Loi uniforme Dé…nition 1.3.7 On dit qu’une v.a.r X suit une loi uniforme sur le segment [a; b] et on note X ,! U ([a; b]) si la loi PX est absolument continue de densité f dé…nie par 1 1[a;b] (x) : 8x 2 IR; f (x) = b a Comme dans le cas discret, la loi uniforme sur le segment [a; b] est la loi des tirages au hasard à l’intérieur de ce segment. Loi gamma Dé…nition 1.3.8 Soit a un réel strictement positif. On pose Z (a) = xa 1 e x dx: IR+ 24 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES On dit qu’une v.a.r X suit une loi gamma de paramètres a et ; pour un réel > 0, et on note X ,! (a; ) si la loi PX est absolument continue de densité f dé…nie par a 8x 2 IR; a = 1 =) f (x) = (a) xa 1 e x 1IR+ (x) : x (1) = 1 et f (x) = e On dit que X suit une loi exponentielle de paramètre 1IR+ (x) : et on note X ,! E ( ) : Commentaire : Dans l’observation d’un processus de comptage (voir la section précédente), la v.a.r représentant le temps s’écoulant entre la réalisation des événements n et n + 1 est de loi exponentielle. Proposition 1.3.2 Soit X et Y deux v.a.r indépendantes4 et de lois (a; 1) et (b; 1) respectivement. Le rapport de X par Y est une v.a.r de loi dite la loi bêta de paramètes a et b. On note (a; b) et on dé…nit la densité par 8x 2 IR; f (x) = (a + b) xa 1 1IR+ (x) : (a) (b) (1 + x)a+b Loi normale Dé…nition 1.3.9 On dit qu’une v.a.r X suit une loi normale ou de LaplaceGauss de paramètres m et > 0 et on note X ,! N (m; ) si la loi PX est absolument continue de densité f dé…nie par 8x 2 IR; 1 f (x) = p e 2 (x m)2 2 2 : On dit aussi que X est une v.a.r normale ou gaussienne. Remarque 1.3.4 La représentation graphique de la densité d’une loi normale de paramètres m et est symétrique par rapport à l’axe x = m et admet un maximum absolu au point de coordonées m; p12 : Celle de la fonction de répartition admet un centre de symétrie au point m; 1 2 : C’est aussi un point d’in‡exion de la courbe. 4 X et Y sont dites indépendantes si les tribus (X) et (Y ) sont indépendantes. 1.3. LES VARIABLES ALÉATOIRES USUELLES 25 Proposition 1.3.3 : 1. Soit m et deux paramètres réels avec X ,! N (m; ) () Y = X > 0: Alors m ,! N (0; 1) 2. Soit X une v.a.r normale centrée réduite alors 8x 2 IR; P (X x) = P (X x) = 1 P (X x) c’est à dire 8x 2 IR; FX (x) = 1 FX ( x) : Remarque 1.3.5 Certains changements de variables de la loi normale engendrent de nouvelles lois également usuelles. - Loi log-normale de parametres m et : c’est la loi de la v.a.r Y = eX où X est une v.a.r normale N (m; ) : On note Y ,! LN (m; ) : - Loi de khi-deux a n degres de liberte : c’est la loi de la v.a.r n P Xi2 où (Xi )1 i n est une famille de n v.a.r indépendantes5 de Y = i=1 loi commune la loi normale centrée réduite: On note Y ,! X 2 (n) : On montre aussi que n 1 Y ,! ;1 : 2 2 - Loi de Student a n degres de liberte : Soit X et Y deux v.a.r indépendantes de lois N (0; 1) et X 2 (n) respectivement. Alors la v.a.r X T = r est dite de loi de Student à n degrés de liberté. Y n Le tableau suivant résume les di¤érentes lois usuelles absolument continues et un calcul de leurs paramètres. 5 Une famille de v.a.r est dite indépendante si les tribus engendrées par celles-ci respectivement sont indépendantes. 26 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES Nom Domaine de la densité Loi unif orme [a; b] Loi exp onentielle IR+ Loi gamma IR+ Loi b^ eta IR+ Loi normale IR Densité 1 b a x e a IR Loi du khi-deux a n deg res de liberte IR+ 1 p e 2 x e x 2 1 p n n 2 (x m)2 2 2 (log x m)2 2 2 IR+ 1 p 2 IR xa 1 e (a + b) xa 1 (a) (b) (1 + x)a+b + Loi log normale Loi de Student a n deg res de liberte (a) n n x2 2 n+1 2 1 n 2 2 1 e x 2 2 1+ x n n+1 2 1.3. LES VARIABLES ALÉATOIRES USUELLES 1.3.3 27 Approximations Usuelles Les théorèmes d’approximations qui suivent sont d’un grand intérêt pour le calcul numérique. Pour commencer, on introduit la notion de convergence en loi d’une suite de variables aléatoires réelles. Dé…nition 1.3.10 Soit (Xn )n2IN une suite de v.a.r dé…nies sur ( ; A; P ) et X une v.a.r dé…nie sur le même espace. On dit que la suite (Xn )n2IN converge L en loi vers X et on note Xn ! X si, en tout x où FX est continue, on a lim FXn (x) = FX (x) : Remarques 1.3.2 : 1. On constate que la convergence en loi de la suite (Xn )n2IN vers X est équivalente à la convergence suivante lim P (a < Xn b) = P (a < X b) où a et b sont des points de continuité de FX : 2. Si (Xn )n2IN une suite de v.a.r discrètes et si X est également discrète telles que 8n 2 IN; Xn ( ) X ( ) alors (Xn )n2IN converge en loi vers X si et seulement si 8x 2 X ( ) ; lim P (Xn = x) = P (X = x): Théorème 1.3.1 Soit (XN )N 2IN une suite v.a.r de loi hyper-géométrique H (N; n; p) respectivement. On note S l’ensemble des nombres entiers N tels que N p soit entier. Alors la suite (XN )N 2S converge en loi vers une v.a.r de loi binomiale de paramètres n et p. On note XN ,! H (N; n; p) =) XN L ! B (n; p) : Théorème 1.3.2 Soit (Xn )n2IN une suite de v.a.r de lois binomiales B (n; pn ) respectivement. On suppose que la suite réelle (npn )n2IN converge vers un réel positif : Alors la suite (Xn )n2IN converge en loi vers une v.a.r de loi de Poisson de paramètres . On note Xn ,! B (n; pn ) et npn ! L =) Xn ! P ( ): 28 CHAPITRE 1. VARIABLES ALÉATOIRES UNIDIMENSIONNELLES Théorème 1.3.3 Théorème de De Moivre-Laplace Soit (Xn )n2IN une suite de v.a.r de lois binomiales B (n; p) respectivement. On considère la suite de v.a.r (Tn )n2IN dé…nie par 8n 2 IN ; Xn np Tn = p : np (1 p) Alors la suite (Tn )n2IN converge en loi vers une v.a.r de loi normale centrée réduite. On note Xn np L Xn ,! B (n; p) =) p ! N (0; 1) : np (1 p) Théorème 1.3.4 Soit (Xn )n2IN une suite de v.a.r de lois de Poisson de paramètres n respectivement. On considère la suite de v.a.r (Tn )n2IN dé…nie par Xn n 8n 2 IN ; Tn = p n Alors la suite (Tn )n2IN converge en loi vers une v.a.r de loi normale centrée réduite. On note Xn ,! P (n ) =) Xn n p n L ! N (0; 1) : Commentaire : L’application de ces théorèmes permet de gagner sur les paramètres et d’utiliser les tables statistiques. Références bibliographiques Ph. Barbe et M. Ledoux. Probabilité, Belin. J.P. Delmas. Introduction aux Probabilités, Ellipses. C. Leboeuf et al. Cours de Probabilités et de Statistiques, Ellipses. D.Foata et A.Fuchs. Calcul des Probabilités. Masson. M. Métivier. Notions Fondamentales de la Théorie des Probabilités, Dunod. Sheldon M.Ross. Initiation aux Probabilités, Presses polytechniques et universitaires romandes. Chapitre 2 Variables Aléatoires Vectorielles La notion de vecteurs aléatoires intervient lorsqu’on s’intéresse à mesurer di¤érentes grandeurs numériques dépendants de l’issue d’une même expérience aléatoire. Par exemple, dans l’observation d’une population quelconque on peut s’intéresser à mesurer l’âge, la taille, le poids... de chaque individu. On forme alors un vecteur d’observations aléatoires. Si on surveille une particule M évoluant dans le plan ou dans l’espace, on peut s’intéresser à sa position en fonction du temps déterminée par le vecteur de ses coordonnées aléatoires. Dans la suite ( ; A; P ) désigne un espace de probabilité et l’espace (Rd ; B(Rd ); d ) est un espace mesuré où Rd est muni de la tribu de Borel B(Rd ) et de la mesure de Lebesgue d : 29 30 2.1 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES Dé…nitions et Propriétés On rappelle qu’une variable aléatoire X est une application mesurable de ( ; A; P ) dans un espace mesurable (E; E) : L’application X est dite variable aléatoire vectorielle ou vecteur aléatoire si E est un espace vectoriel. Dans la suite on se restreindra au cas où (E; E) est l’espace (Rd ; B(Rd )). On dira que X est un vecteur aléatoire de (Rd ; B(Rd )). On dira aussi que X est une variable aléatoire réelle multidimensionnelle. Si X désigne une application de ( ; A; P ) dans (Rd ; B(Rd )), on notera Xi (pour i = 1; 2; :::; d) la ième composante de X: On véri…e qu’une application X est un vecteur aléatoire de (Rd ; B(Rd )) si et seulement si les applications composantes X1 ; X2 ; :::; Xd sont des variables aléatoires réelles unidimensionnelles. On note aussi que X( ) d Y Xi ( ) : i=1 Par exemple, on considère une urne contenant N boules de d couleurs di¤érentes dont Ni boules de couleur i pour i = 1; 2; :::; d: On tire L boules de l’urne et on s’intéresse aux nombres de boules tirées dans chaque couleur. On construit ainsi un vecteur aléatoire X dont la composante Xi désigne le nombre de boules de couleur i tirées. De plus ) ( d X X ( ) = (k1 ; k2 ; :::; kd ) =1 ki Ni et ki = L : i=1 et d Y Xi ( ) = (f0; 1; :::; Lg)d : i=1 2.1.1 Lois d’un Vecteur Aléatoire : loi conjointe, lois marginales Dé…nition 2.1.1 La loi de probabilité (ou loi) d’un vecteur aléatoire X de (Rd ; B(Rd )) est la probabilité image de P par X notée PX et dé…nie par 8B 2 B(Rd ); PX (B) = P X 1 (B) : 2.1. DÉFINITIONS ET PROPRIÉTÉS 31 La probabilité PX ainsi dé…nie est une mesure de probabilité sur l’espace probabilisable (Rd ; B(Rd )) appelée aussi loi conjointe de (X1 ; X2 ; :::; Xd ) : On appelle ième loi marginale de la v.a1 X et on note PXi la loi de la ième composante Xi (i = 1; 2; :::; d). Remarque 2.1.1 On rappelle que pour une v.a X de (Rd ; B(Rd )) et une 0 fonction borélienne g de Rd dans Rd ; la v.a g (X) admet pour loi l’image de P par g (X) qui est également l’image de PX par g dé…nie par 0 8B 2 B(IRd ); Si on note i, Pg(X) (B) = PX g 1 (B) : pour i = 1; 2; :::; d; la ième projection de Rd sur R dé…nie par i : Rd ! R (x1 ; x2 ; :::; xd ) 7! xi alors i X = Xi : Ainsi, pour i = 1; 2; :::; d; la ième loi marginale de X est l’image de la loi de X par i c’est à dire PXi = i (PX ) et 8B 2 B(R); PXi (B) = PX i 1 (B) = PX Ri 1 B Rd i : Exemples 2.1.1 : 1. Si X ( ) est dénombrable alors X est un vecteur aléatoire discret. Dans ce cas, la loi de X est déterminée par la donnée de la fonction dé…nie sur X ( ) par : (x1 ; x2 ; :::; xd ) 7! P ((X1 = x1 ) \ (X2 = x2 ) \ ::: \ (Xd = xd )) appelée densité de probabilité discrète de la v.a X ou densité de probabilité conjointe des v.a Xi : On note aussi P (X1 = x1 ; X2 = x2 ; :::; Xd = xd ) 1 ou PX (x1 ; x2 ; :::; xd ) : Les abréviations v.a et v.a.r désigneront respectivement variable aléatoire et variable aléatoire réelle. 32 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES La loi de probabilité PX est de la forme X PX = P (X = x) x: x2X( ) Les variables aléatoires composantes (Xi )1 i d sont également discrètes. Par conséquent, les lois marginales de X sont discrètes de densités discrètes calculées respectivement par X 8i = 1; 2; :::; d; 8xi 2 Xi ( ) ; PXi (xi ) = PX (x1 ; x2 ; :::; xd ) où la sommation est faite sur l’ensemble X1 ( ) ::: fxi g :::Xd ( ) : Reprenons l’exemple de l’urne contenant N boules de d couleurs di¤érentes dont Ni boules de couleur i pour i = 1; 2; :::; d: On tire L boules de l’urne et on désigne par Xi le nombre de boules tirées de couleur i. On construit ainsi un vecteur aléatoire X = (X1 ; X2 ; :::; Xd ) dont la loi est calculée par PX (x1 ; x2 ; :::; xd ) = d Y L! d Q xi ! i=1 i=1 et PX (x1 ; x2 ; :::; xd ) = Ni N d Q i=1 xi ; si le tirage est avec remise CNxii CNL ; si le tirage est sans remise et ceci pour tout (x1 ; x2 ; :::; xd ) de (f0; 1; :::; Lg)d avec d P xi = L: i=1 Si le tirage est fait avec remise, X est dite de loi multinomiale. Dans ce Ni cas, les lois marginales de X sont binomiales de paramètres L; N respectivement. Dans le cas contraire, la loi de X est dite poly-hypergéométrique et les lois marginales de X sont des lois hyper-géométriques. 2. Si PX est absolument continue par rapport à d cela signi…e qu’il existe une fonction vectorielle et à valeurs réelles f , positive et d’intégrale égale à 1, telle que Z d 8B 2 B(R ); PX (B) = f (x) d n (x) : B 2.1. DÉFINITIONS ET PROPRIÉTÉS 33 Dans ce cas, les lois marginales de X sont également absolument continues par rapport à la mesure de Lebesgue sur IR et de densités (marginales) calculées pour i = 1; 2; :::; d respectivement par Z fXi (x) = f (x1 ; :::; xi 1 ; x; xi+1 :::; xd ) dx1 :::dxi 1 dxi+1 :::dxd : IRd 1 Par exemple, si X est un couple de variables aléatoires (X1 ; X2 ) de loi uniforme2 sur le pavé ]a; b[ ]c; d[ alors on véri…e que les v.a.r X1 et X2 sont de lois uniformes sur les segments ]a; b[ et ]c; d[ respectivement: 2.1.2 Fonction de Répartition Dé…nition 2.1.2 Soit X un vecteur aléatoire de (Rd ; B(Rd )). On dé…nit la fonction de répartition de X et on note F la fonction dé…nie sur Rd par ! ! d d \ Y F (x1 ; x2 ; :::; xd ) = P (Xi xi ) = PX ] 1; xi ] : i=1 i=1 On note aussi F (x1 ; x2 ; :::; xd ) = P (X1 x1 ; X2 x2 ; :::; Xd xd ) : Exemples 2.1.2 : Reprenons les exemples précédents. On note a un élément quelconque de Rd de la forme (a1 ; a2 ; :::; ad ) : 1. Si X est un vecteur aléatoire discret alors X F (a) = P (X = x) : x2 d Q i=1 ] 1;ai ] 2. Si X est de loi absolument continue de densité f alors Z a1 Z a2 Z ad F (a) = ::: f (x) d d (x) : 1 2 1 1 On dit qu’un vecteur aléatoire X de Rd est de loi uniforme sur un borélien B de B(Rd ) 1 si sa loi est absolument continue de densité 1B . d (B) 34 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES Proposition 2.1.1 Soit X un vecteur aléatoire de (Rd ; B(Rd )) de fonction de répartition F . Alors F est une fonction de plusieurs variables dé…nie sur Rd et à valeurs positives dans le segment [0; 1] véri…ant les propriétés suivantes. 1. Les applications partielles (réelles d’une variable réelle) dé…nies pour x1 ; :::; xi 1 ; xi+1 ::: et xd …xés dans R par x 7! F (x1 ; :::; xi 1 ; x; xi+1 :::; xd ) sont croissantes et continues à droite en tout réel x: 2. On véri…e que F (x1 ; :::; xi ; :::; xd ) ! 0 dès que l’une des variables xi tend vers 1: Par contre, F (x1 ; :::; xi ; :::; xd ) ! 1 quand toutes les variables xi tendent vers +1: 3. Les fonctions de répartitions des v.a composantes sont calculées par FXi (x) = P (Xi x) = lim F (x1 ; :::; xi 1 ; x; xi+1 :::; xd ) la limite est calculée au voisinage de +1 sur toutes les variables (xk )k6=i : 4. La fonction de répartition F caractérise la loi du vecteur X: Ceci utilise le théorème de prolongement de Hahn et le lemme d’égalité de deux mesures (rappelé dans la cas unidimensionnel) en remarquant que la fonction F permet de déterminer la restriction de la mesure PX aux d Q "parallélépipèdes" de Rd de la forme ]ai ; bi ] : Par exemple, si d = 2 i=1 PX (]a1 ; b1 ] ]a2 ; b2 ]) = F (b1 ; b2 ) F (b1 ; a2 ) F (a1 ; b2 ) + F (a1 ; a2 ) : 5. Dans le cas où PX est absolument continue de densité f; la fonction de répartition F est continue et admet des dérivées partielles presque partout telles que @ dF (x1 ; x2 ; :::; xd ) : @x1 @x2 :::@xd Réciproquement, si la fonction de répartition F d’un vecteur aléatoire X = (X1 ; X2 ; :::; Xd ) est d fois di¤érentiable presque partout, alors la loi de probabilité PX de X est absolument continue par rapport à la @ dF mesure de Lebesgue d de densité : @x1 @x2 :::@xd f (x1 ; x2 ; :::; xd ) = 2.1. DÉFINITIONS ET PROPRIÉTÉS 2.1.3 35 Changements de Variables Soit X un vecteur aléatoire de (Rd ; B(Rd )) et g une application borélienne 0 0 0 de Rd dans Rd : Alors Y = g (X) est un vecteur aléatoire de (Rd ; B(Rd )) de loi dé…nie par 0 8B 2 B(Rd ); Pg(X) (B) = PX g 1 (B) : La loi de Y est l’image de P par g (X) qui est également l’image de PX par 0 g: De plus, si h est une application borélienne de Rd dans IR alors la v.a.r h (Y ) est dite P -intégrable si et seulement si h est PY -intégrable ou encore h g est PX -intégrable. Dans ce cas Z Z Z E (h (Y )) = h (Y ) dP = hdPY = h gdPX : Rd0 Rd Proposition 2.1.2 Soit X un vecteur aléatoire de (Rd ; B(Rd )) et sure de probabilité sur (Rd ; B(Rd )). Si Z E (h (X)) = hd une me- Rd est véri…ée pour toute fonction h dé…nie sur Rd , à valeurs positives, continue et à support compact alors X est de loi de probabilité la mesure : Dans la pratique, utiliser cette proposition pour déterminer la loi de Y 0 revient à véri…er l’existence d’une application mesurable f de Rd dans R telle que pour toute fonction positive h continue et à support compact Z E (h (Y )) = h (y) f (y) d d0 (y) : Rd0 Le vecteur Y est donc de loi absolument continue par rapport à d0 ; mesure 0 de Lebesgue de Rd et de densité f: Cette est connue sous le nom de la méthode de la fonction muette. Exemples 2.1.3 On considère X un vecteur aléatoire de (Rd ; B(Rd )) de loi absolument continue par rapport à d et de densité fX : On pose Y = g (X), un vecteur aléatoire de (Rd ; B(Rd )): Si fX est dé…nie sur un ouvert OX de Rd 36 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES et si le changement de varaibles g est un C 1 -di¤éomorphisme3 de OX dans OY (également un ouvert de Rd ), alors le vecteur Y est de loi absolument continue de densité fY = J g 1 fX g 1 où J (g 1 ) désigne le jacobien de g 1 c’est à dire le déterminant de la matrice des dérivées premières de g 1 . En e¤et, Z Z E (h (Y )) = h gdPX = h g (x) fX (x) d d (x) Rd OX Z = h (y) J g 1 (y) fX g 1 (y) d d (y) OY et ceci pour toute fonction positive h continue et à support compact. Par exemple, soit (X; Y ) un couple de v.a.r de densité conjointe dé…nie pour une constante > 0 par f (x; y) = 2 e (x+y) 1 R 2 (x; y) : ( +) On dé…nit les v.a.r U =X +Y et V = X Y: On véri…e que le couple (U; V ) est de loi absolument continue de densité ' (u; v) = 1 2 2 e u 1D (u; v) ; avec D = (u; v) 2 R2 =0 < jvj < u : Plus généralement, si le changement de varaibles g n’est pas bijectif déterR miner la loi de Y revient Rà transformer R l’intégrale E (h (Y )) (= h gdPX ) en une intégrale du type hdP0 ou hf d d0 pour une mesure de probabilité P0 ou une densité de probabilité f . On a alors PY = P0 ou PY = f d0 : Par exemple, on considère un couple de v.a.r X et Y et de densité conjointe f et on pose Y1 = inf (X; Y ) et Y2 = sup (X; Y ) : On véri…e que le couple (Y1 ; Y2 ) est de loi absolument continue de densité ' (x; y) = (f (x; y) + f (y; x)) 1(x 3 y) (x; y) : Une application g est un C 1 -di¤éomorphisme de Rd si c’est une bijection continument di¤érentiable ainsi que g 1 surRd . 2.1. DÉFINITIONS ET PROPRIÉTÉS 37 En…n, la méthode de la fonction muette permet de calculer les densités marginales dans le cas d’un vecteur aléatoire X de loi absolument continue de densité f . Soit g = i et Y = i X = Xi : Alors Z (x) dPX (x) = h (xi ) f (x1 ; x2; :::; xd ) dx1 dx2 :::dxd Rd Z Z = h (xi ) f (x1 ; x2 ; :::; xd ) dx1 :::dxi 1 dxi+1 :::dxd dxi : E (h (Y )) = h Z i Rd R Rd 1 On reconnaît l’expression, la quantité entre parenthèses, de la densité de la ième loi marginale vu dans le premier paragraphe. Exercice 2.1.1 Soit (X; Y ) un couple de v.a.r de densité conjointe f . Montrer que la v.a.r X + Y est de densité Z ' (x) = f (y; x y) dy: R 2.1.4 Caractéristiques d’un Vecteur Aléatoire Comme dans le cas unidimensionnel, la loi d’un vecteur aléatoire est caractérisée par un certain nombre de paramètres. Dé…nition 2.1.3 Soit X un vecteur aléatoire de (Rd ; B(Rd )) de composantes X1 ; X2 ; :::; Xd . Le vecteur X est dit intégrable si chaque composante Xi est intégrable c’est-à-dire si E (kXk) < 1 avec k k la norme euclidienne de Rd : On appelle alors espérance mathématique de X le vecteur (colonne) de Rd de composantes E(X1 ); E(X2 ); :::; E(Xd ). On note 0 1 E (X1 ) B E(X2 ) C B C B C : B C E(X) = B C : B C @ A : E(Xd ) Le vecteur X est de carré intégrable (admet un moment d’ordre deux …ni) si chaque composante Xi est de carré intégrable ou encore si E kXk2 < 1. 38 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES Comme dans le cas unidimensionnel, on véri…e que l’espérance E (X) est la meilleure approximation de X au sens des moindres carrés c’est à dire E (X) = arg min E jjX a2Rd ajj2 : Le vecteur (V (X1 ); V (X2 ); :::; V (Xd )) fournit une information insu¢ sante pour apprécier la dispersion d’une variable aléatoire multidimensionnelle. On choisit de considérer, en plus, les covariances des v.a scalaires Xi et Xj pour i; j = 1; 2; :::; d: Dé…nition 2.1.4 Soit X un vecteur aléatoire de (Rd ; B(Rd )) de carré intégrable. On appelle i- matrice des moments d’ordre 2 de X la matrice carrée d’ordre n MX = (E (Xi Xj ))i;j=1;2;:::;d soit 0 1 E (X1 )2 E (X1 X2 ) ::: E (X1 Xd ) B E (X2 X1 ) C : C MX = B @ A ::: ::: 2 E (Xd X1 ) E (Xd ) ii- matrice de covariance de X la matrice carrée d’ordre d ij = cov (Xi ; Xj ) = E ((Xi E(Xi )) (Xj E(Xj ))) soit 0 1 V (X1 ) cov (X1 ; X2 ) ::: cov (X1 ; Xd ) X B cov (X2 ; X1 ) C ::: C =B @ A X ::: ::: cov (Xd ; X1 ) V (Xd ) Remarques 2.1.1 : P 1. Les matrices MX et X sont symétriques (aij = aji ; 81 i; j d) : P 2. La diagonale de X est composée des variances V (X1 ); V (X2 ); :::; V (Xd ): 2.1. DÉFINITIONS ET PROPRIÉTÉS 39 3. D’une façon générale, une matrice aléatoire K = (Kij )i;j , dont chaque terme Kij est une variable aléatoire réelle, est dite intégrable si chaque Kij est intégrable (ou encore si E(kKk) < +1). On appelle alors espérance de K la matrice formée par les espérances de ses éléments E (K) = (E (Kij ))i;j : On note t X et t (X E (X)) les vecteurs transposés de X et (X E (X)) respectivement. La matrice des moments d’ordre 2 de X est la matrice E (X t X) ; espérance de la matrice aléatoire X t X. La matrice des covariances est la matrice espérance de (X E (X))t (X E (X)) X = E((X E (X))t (X E (X))) = E X t X E (X)t E (X) : X La dernière égalité généralise la formule de Koening-Huyghens V (X) = E X 2 _ (E (X))2 : La linéarité de l’espérance dans le cas unidimensionnel engendre certaines propriétés de l’espérance et la matrice de covariance d’un vecteur aléatoire. On les rassemble dans la proposition suivante. Proposition 2.1.3 Soient X et Y deux vecteurs aléatoires de (Rd ; B(Rd )) de carrés intégrables ; u et v deux vecteurs quelconques de Rd et et deux réels quelconques. 1. L’espérance est linéaire c’est-à-dire E( X + Y ) = E(X) + E(Y ): En particulier E(X + u) = E(X) + u: On montre aussi que 2. On véri…e que X X+u = X X : E (< X; u >) = E t uX =t uE (X) =< E(X); u > 4 ; 4 h ; i est le produit scalaire de Rd : 40 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES E (< X; u >)2 =t uMX u et V (< X; u >) = V t uX =t u On véri…e aussi que E t t uX =t uMX v vX X X u = E t u (X E(X)) et cov(t uX;t vX) =t u X X 2 : v: Plus généralement, soit A la matrice d’une application linéaire de Rd dans 0 Rd et t A sa matrice transposée. Alors X X t E(AX) = AE(X) , MAX = AMX t A et =A A: AX X P Commentaire : Les quantités t uMX u et t u X u dé…nissent les moments t d’ordre 2 des v.a scalairesP uX et t u (X E(X)) respectivement. Il s’en suit que les matrices MX et X sont positives5 . Par ailleurs, la v.a (centrée) t u (X E(X)) est la valeur algébrique de la projection orthogonale du vecteur (X E(X)) sur la droitePde Rd orientée par u: Ceci justi…e l’utilisation de la matrice des covariances X comme indicateur de dispersion du vecteur aléatoire X: P On remarquera aussi que la matrice X n’est pas inversible si et seulement si il existe un vecteur u de Rd tel que la v.a t u (X E(X)) soit presque sûrement nulle. Dans ce cas la loi du vecteur X est concentrée sur un hyperplan de Rd et ne peut être absolument continue. 2.2 Indépendance Dans la suite (Xk ; 1 k N ) désigne une famille de N vecteurs aléatoires dé…nis respectivement par 81 k N ; Xk : ( ; A; P ) ! (Rdk ; B(Rdk )): On pose X = (X1 ; X2 ; :::; XN ) : Alors X est un vecteur aléatoire de (Rd ; B(Rd )) avec d = 5 Une matrice carrée d’ordre d est dite positive si 8a 2 Rd ; t a N P dk . k=1 P X a 0: 2.2. INDÉPENDANCE 41 Dé…nition 2.2.1 On dit que la famille (Xk ; 1 k N ) est indépendante (ou que les vecteurs Xk sont indépendants) si les tribus (F (Xk ) ; 1 k N ) engendrées par les vecteurs Xk respectivement sont indépendantes. Exemple 2.2.1 Si A et B sont deux événements indépendants alors les variables aléatoires 1A et 1B sont indépendantes. Commentaire : La dé…nition est équivalente à dire que pour tout borélien Bk de B(Rdk ), les événements Xk 1 (Bk ) ; 1 k N sont indépendants. Soit ! N N \ Y P (Xk 2 Bk ) = P (Xk 2 Bk ) , 8Bk 2 B(Rdk ) k=1 k=1 ou encore PX N Y k=1 Bk ! = N Y PXk (Bk ) ; k=1 8Bk 2 B(Rdk ): En remarquant que la tribu B(Rd ) est le produit tensoriel des tribus B(Rdk ); 1 k N , on a la dé…nition équivalente. Dé…nition 2.2.2 Les N vecteurs aléatoires X1 ; X2 ; :::; XN sont dits indépendants si la loi de la variable aléatoire multidimensionnelle X est le produit de celles des variables Xk PX = PX1 PX2 ::: PXN : Remarques 2.2.1 : 1. Dans le cas particulier de N variables aléatoires discrètes, l’indépendance se traduit par la relation PX (x1 ; x2 ; :::; xN ) = N Y PXk (xk ) k=1 véri…ée pour tout (x1 ; x2 ; :::; xN ); réalisation du vecteur aléatoire X: Par exemple, si X1 et X2 sont deus variables aléatoires indépendantes 1 de loi commune la loi de Bernoulli de paramètre ; on véri…e que le 2 couple (X1 ; X2 ) est de loi uniforme sur l’ensemble f(0; 0) ; (0; 1) ; (1; 0) ; (1; 1)g : 42 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES 2. L’indépendance d’une famille de variables aléatoires scalaires ou multidimensionnelles (Xk ; k 2 I) est une indépendance dans leur ensemble. Comme pour l’indépendance d’événements, cette indépendance est une notion plus forte que l’indépendance deux à deux. 3. Cette dé…nition peut s’étendre à une famille quelconque (dénombrable ou in…nie non dénombrable) de variables aléatoires scalaires ou multidimensionnelles (Xk ; k 2 I) à valeurs dans Rdk ; k 2 I : On dit que ces variables aléatoires sont indépendantes si les tribus (F (Xk ) ; k 2 I) engendrées par celles-ci sont indépendantes. Cela signi…e que pour tout sous-ensemble …ni (k1 ; k2 ; :::; kN ) extrait de I on a : ! N N \ Y d (Xki 2 Bki ) = P Xki 2 Bki , 8Bki 2 B(R ki ): P i=1 i=1 Les propositions qui suivent permettent d’élargir l’ensemble des familles indépendantes de variables aléatoires. Proposition 2.2.1 Soit (fk ; 1 liennes telles que 81 k k N Si les vecteurs aléatoires (Xk ; 1 teurs aléatoires (fk (Xk ) ; 1 k ; N ) une famille de N fonctions boré0 fk : Rdk ! Rdk : k N ) sont indépendants alors les vecN ) sont aussi indépendants. En conséquence, l’indépendance d’une famille de variables aléatoires multidimensionnelles (Xk ; k 2 I) implique l’indépendance des variables aléatoires marginales de Xk1 et de Xk2 pour k1 6= k2 ( la fonction fk1 (resp. fk2 ) est choisie parmi les ième projections de Rdk1 (resp. de Rdk2 ) sur R). Attention, il n’est pas vrai que la variable Xk ait des composantes indépendantes. Proposition 2.2.2 Si les vecteurs aléatoires (Xk ; 1 pendants alors pour tous j 2 et 1 k1 l1 < k2 l2 ::: < kj N ) sont indé- k lj N; on véri…e l’indépendance des vecteurs aléatoires Y1 = (Xk1 ; :::; Xl1 ) ; Y2 = (Xk2 ; :::; Xl2 ) ; :::; Yj = Xkj ; :::; Xlj : 2.2. INDÉPENDANCE 43 L’utilisation simultanée de ces propositions engendre de nouvelles familles de vecteurs aléatoires de la forme (gk (Yk ) ; 1 k N ) ; pour des fonctions boréliennes gk convenablement dé…nies, également indépendants. Remarque 2.2.1 Les dé…nitions et propositions, déjà introduites, peuvent être généralisées à une famille de N vecteurs aléatoires X1 ; X2 ; :::; XN dé…nis dans (E1 ; E1 ) ; (E2 ; E2 ) ; :::; (EN ; EN ) respectivement où ((Ek ; Ek ) ; 1 k N ) est une famille de N espaces vectoriels mesurables. 2.2.1 Propriétés Caractéristiques Les théorèmes suivants fournissent des conditions nécessaires et su¢ santes à l’indépendance d’une famille de vecteurs aléatoires. Théorème 2.2.1 La famille (Xk ; 1 k N ) des N vecteurs aléatoires de (Rdk ; B(Rdk )); 1 k N est indépendante ssi 8 (x1 ; :::; xN ) 2 R d ; FX (x1 ; :::; xN ) = N Y FXk (xk ) k=1 où FX et FXk sont les fonctions de répartition des v.a X et Xk respectivement. Théorème 2.2.2 Soit (Xk ; 1 k N ) une famille de N vecteurs aléatoires de (Rdk ; B(Rdk )); 1 k N . i– Si ces vecteurs sont de lois absolument continues de densités (fk ; 1 k N ) respectivement et s’ils sont indépendants alors le vecteur aléatoire X est de loi absolument continue de densité f (x1 ; x2 :::; xN ) = f1 (x1 )f2 (x2 ) :::fN (xN ) : ii- Réciproquement, si le vecteur X est de loi absolument continue de densité f dé…nie, pour une famille de densités de probabilité (gk ; 1 k N ) ; par f (x1 ; x2 :::; xN ) = g1 (x1 )g2 (x2 ) :::gN (xN ) alors les v.a X1 ; X2 ; :::; XN sont indépendantes de lois absolument continues de densités (gk ; 1 k N ) respectivement. 44 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES 2.2.2 Indépendance de Variables Aléatoires Scalaires Soit (Xk ; 1 k N ) une famille de variables aléatoires réelles unidimensionnelles. X = (X1 ; X2 ; :::; XN ) est un vecteur aléatoire de RN ; B(RN ): La propriété d’indépendance des composantes du vecteur X est caractérisée( en plus des théorèmes de la section précédente) par les deux résultats suivants. Proposition 2.2.3 Si les v.a (Xk ; 1 k N ) sont discrètes, alors véri…er l’indépendance de ces v.a revient à véri…er la relation PX (x1 ; x2 ; :::; xN ) = N Y PXk (xk ) k=1 pour tout N -uplet (x1 ; x2 ; :::; xN ); réalisation du vecteur aléatoire X: Théorème 2.2.3 La famille (Xk ; 1 k N ) est indépendante si et seulement si pour toute famille de fonctions (fk ; 1 k N ) réelles, mesurables et bornées (ou positives) ! N N Y Y E fk (Xk ) = E(fk (Xk )): k=1 k=1 Corollaire 2.2.1 Soit X1 ; X2 ; :::; XN des v.a.r indépendantes. 1. Si les Xk sont intégrables alors le produit X1 X2 :::XN est intégrable et E (X1 X2 :::XN ) = N Y E(Xk ): k=1 2. Si les Xk sont de carrés intégrables alors cov (Xi ; Xj ) = E (Xi Xj ) E (Xi )E(Xj ) = 0 ; 8i 6= j On dit que Xi et Xj sont non correlées6 . Il s’en suit que ! N N X X V Xi = V (Xi ): i=1 6 i=1 Pour deux v.a X et Y , on appelle coe¢ cient de corrélation entre X et Y et on note (X; Y ) le scalaire cov (X; Y ) : (X; Y ) = p V (X)V (Y ) 2.2. INDÉPENDANCE 45 Plus généralement, si Y1 et Y2 sont deux vecteurs aléatoires indépendants de même dimension alors X X X = + : Y1 +Y2 2.2.3 Y1 Y2 Somme de Variables Aléatoires indépendantes Le problème de calcul de loi de la somme de variables aléatoires a été abordé à la …n du paragraphe concernant les changements de variables. Nous reprenons ce problème sous l’hypothèse de l’indépendance. Dé…nition 2.2.3 On munit l’espace Rd ; B(Rd ) de N mesures positives 1 ; 2 ; :::; N : On appelle produit de convolution de ces mesures et on note d 1 2 ::: N la mesure positive dé…nie pour tout borélien B de R par 1 2 ::: = = 1 N Z (B) 1 2 ::: n (x1 ; x2 ; :::; xN ) 2 Rd N 1B (x1 + x2 + ::: + xN )d ( RdN Le produit de convolution 1 2 ::: ::: 2 N par l’application : N 1 2 N =(x1 + x2 + ::: + xN ) 2 B ::: N ) (x1 ; x2 ; :::; xN ) : est la mesure image du produit N ! Rd Rd (x1 ; x2 ; :::; xN ) 7! x1 + x2 + ::: + xN On montre, grâce à l’inégalité de Cauchy-Schwartz, que 1 (X; Y ) 1: Si X et Y sont indépendantes alors (X; Y ) = 0: On dit que X et Y sont non correlées. Si (X; Y ) > 0; (resp. < 0) on dit que les v.a X et Y sont positivement (resp. négativement) correlées : Y a tendance à augmenter (resp. diminuer) si X en fait autant et c’est symétrique (symétrie en X et Y de ): En…n le coe¢ cient de corrélation est une mesure du degré de linéarité entre X et Y . 2 En e¤et, si on considère le binôme du second degré E ((Y E(Y )) (X E(X))) ; le 0 2 0 discriminant = cov (XY ) V (X)V (Y ) 0 et = 0 ssi il existe 2 IR tel que Y E(Y ) = (X E(X)); p.s. Autrement dit, la relation j (X; Y )j = 1 est caractéristique d’une relation a¢ ne entre les v.a X et Y: Les valeurs de proches de 1 indiquent une linéarité quasiment rigoureuse, tandis que les valeurs proches de 0 indiquent une absence de toute relation linéaire. o 46 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES De plus, pour toute fonction f mesurable et positive de Rd ; B(Rd ) Z f (z)d ( 1 2 ::: N ) (z) Rd Z N P = f ( xi )d ( 1 ::: 2 N ) (x1 ; x2 ; :::; xN ) : RdN i=1 Remarques 2.2.2 : 1. Le produit de convolution de mesures est commutatif et associatif. 2. Le produit de convolution de N mesures bornées de masses totales 1 ; 2 ; :::; N respectivement est une mesure bornée de masse totale ::: 1 2 N . En particulier le produit de convolution de mesures de probabilité est également une mesure de probabilité. Proposition 2.2.4 Soit X1 ; X2 ; :::; XN des variables aléatoires vectorielles indépendantes de IRd ; B(IRd ): La loi de la somme X1 + X2 + ::: + XN est le produit de convolution des lois des Xk PX1 +X2 +:::+XN = PX1 PX2 ::: PXN : De plus si chaque v.a Xk est de loi absolument continue de densité fk alors la somme est de loi absolument continue de densité le produit de convolution des densités fk noté f1 f2 ::: fN et dé…ni par f1 f2 ::: fN (t) Z = f1 (x1 ) f2 (x2 Rd(N x1 ) :::fN (t xN 1) d (x1 ) d (x2 ) :::d (xN 1) : 1) Par exemple, on montre que la somme de N de v.a indépendantes de loi commune la loi exponentielle de paramètre est une v.a de loi (N; ) ; ou encore qu’une somme indépendante de v.a gaussiennes est aussi gaussienne: Remarques 2.2.3 : 1. Reprenons l’exercice de la …n du paragraphe concernant les changements de variables. On rappelle que pour un couple de v.a.r (X; Y ) de densité conjointe f; la densité de la v.a somme X + Y était Z ' (x) = f (y; x y) dy: R 2.3. ESPÉRANCES ET LOIS CONDITIONNELLES 47 Si X et Y sont indépendantes de densités fX et fY respectivement alors la densité conjointe f est de la forme fX fY et Z ' (x) = fX (y) fY (x y) dy: R ' est le produit de convolution de fX et fY : 2. Dans le cas particulier de N v.a.r discrètes indépendantes, la somme N P Z= Xk est également discrète de loi dé…nie par k=1 P (Z = z) = X P (X1 = x1 ) P (X2 = x2 ) :::P (XN = xN ) Iz pour Iz = ( (x1 ; x2 ; :::; xN ) 2 N Y Xk ( ) = k=1 N X k=1 xk = z ) : Par exemple, si X et Y sont deux v.a de loi de Poisson de paramètres 1 et 2 respectivement alors la somme X + Y est aussi de loi de Poisson de paramètre 1 + 2 . 2.3 Espérances et Lois Conditionnelles Dans la suite les variables aléatoires considérées sont supposées dé…nies sur le même espace de probabilité ( ; A; P ). Soit X une variable aléatoire réelle discrète. On suppose qu’il existe une réalisation x de la v.a X telle que P (X = x) > 0. L’application : B 7 ! P (B=X = x) est une mesure de probabilité sur (R; B (R)) ; appelée probabilité conditionnelle par rapport à (X = x) ; et P (B=X = x) est l’espérance de la v.a 1B par rapport à cette probabilité. On note aussi E (1B =X = x) : On considère l’application Z : w 7 ! P (B=X = X (w)) : 48 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES Alors Z est une v.a dé…nie par X Z= P (B=X = x) 1(X=x) x2X( ) et véri…e 8H 2 F (X) ; Z 1B dP = H Z ZdP: H Plus généralement, si Y est une v.a.r discrète, l’application : y 7 ! P (Y = y=X = x) est aussi une probabilité sur (R; B (R)) d’espérance et l’application w7 ! X X yP (Y = y=X = x) y2Y ( ) yP (Y = y=X = X (w)) y2Y ( ) est aussi une v.a T véri…ant 8H 2 F (X) ; Z YdP = H Z T dP: H On peut faire une construction analogue dans le cadre de couple de variables aléatoires réelles de loi absolument continue. Soit (X; Y ) un couple de v.a.r de densité conjointe f et de densités marginales fX et fY : L’application Z L : x 7 ! y (f (x; y) =fX (x)) dy est une v.a véri…ant 8H 2 F (X) ; 2.3.1 Z H YdP = Z LdP: H Espérance Conditionnelle, Propriétés Pour l’ensemble de ce paragraphe X désigne une variable aléatoire à valeurs dans un espace mesurable (E; E) : 2.3. ESPÉRANCES ET LOIS CONDITIONNELLES 49 Dé…nition 2.3.1 Soit X une variable aléatoire à valeurs dans un espace mesurable (E; E) et Y une variable aléatoire réelle intégrable. Il existe une variable aléatoire réelle Z, unique à une égalité presque sûre près, F (X)mesurable7 et intégrable telle que Z Z 8H 2 F (X) ; Y dP = ZdP: H H La variable aléatoire Z est appelée espérance conditionnelle de Y sachant X et notée E (Y =X) ou E X (Y ) : Commentaire : La v.a Z ainsi dé…nie est F (X)- mesurable. On montre qu’il existe une application mesurable dé…nie sur E et à valeurs réelles telle que Z = E (Y =X) = (X) : Pour tout x de E; on notera E (Y =X = x) la valeur de en x c’est à dire (x) : La v.a E (Y =X) est aussi intégrable et E (E (Y =X)) = E (Y ) : Exemples 2.3.1 : Les variables aléatoires T et L introduites au début de cette section sont des exemples d’espérences conditionnelles de la forme E (Y =X) dans le cas où (X; Y ) est un couple de v.a.r discrètes et à densités respectivement. De plus 1. 2. 3. 4. Si Y est F (X)- mesurable alors E (Y =X) = Y p:s: Si Y est indépendante de X alors E (Y =X) = E (Y ) p:s: Pour toute v.a F (X)- mesurable Z; E (ZY =X) = ZE (Y =X) p:s: Si X est une v.a.r discrète alors E (Y =X) est également une v.a discrète Z X E (Y =X) = Y dP =P (X = x) 1(X=x) p:s x2X( ) et E (Y =X = x) = (X=x) Z Y dP =P (X = x) p:s: (X=x) Si Y1 et Y2 sont deux variables aléatoires réelles intégrables alors Y1 = Y 2 p:s =) E (Y1 =X) = E (Y2 =X) p:s: L’opérateur E (:=X) peut donc être considéré comme une application de L1 dans lui même. De plus on véri…e que E (:=X) est linéaire et positif. 7 Une v.a Z est dite F (X)- mesurable si F (Z) F (X) : 50 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES Proposition 2.3.1 Inégalité de Jensen Conditionnelle Soit une application convexe dé…nie sur un domaine convexe C de Rd et à valeurs réelles. On suppose que Y et (Y ) sont deux v.a.r intégrables. Alors (E (Y =X)) E ( (Y ) =X) ; p:s: En particulier, si Y est dans Lp (p 1) alors E (Y =X) est également dans Lp et jjE (Y =X)jjp jjY jjp : Dans le cas d’une v.a.r Y de carré intégrable (p = 2) on a E (E (Y =X)) = E (Y ) et E (E (Y =X))2 E (Y )2 : Il s’en suit que V (E (Y =X)) V (Y ) : En outre, E (Y =X) est la meilleure approximation de Y par une v.a F (X)-mesurable de L2 : En e¤et, pour toute v.a Z de L2 (F (X)) (s.e.v de L2 d’applications F (X)-mesurables) on a E (Y Z) = E (E (Y =X) Z) ou encore E ((Y E (Y =X)) Z) = 0: Ceci fait apparaître E (Y =X) comme la projection orthogonale de la v.a Y sur L2 (F (X)). On note E (Y =X) = arg2 min E jjY Z2L (F (X)) Zjj2 : Proposition 2.3.2 Théorèmes de convergence : Soit (Yn )n2N une suite de variables aléatoires réelles intégrables. 1. Théorème de la convergence monotone. On suppose que Yn 0 p:s et Yn+1 Yn p:s; E (Yn =X) ! E (lim Yn =X) p:s: alors 2. Lemme de Fatou. On suppose que les v.a Yn sont positives, alors E (limYn =X) limE (Yn =X) p:s: 2.3. ESPÉRANCES ET LOIS CONDITIONNELLES 51 3. Théorème de la convergence dominée. On suppose que pour deux v.a.r Y et Z Yn ! Y p:s et jYn j Z p:s: Si de plus Z est intégrable alors E (Yn =X) ! E (Y =X) p:s: Conditionnement par rapport à une tribu Soit B une sous-tribu de A et idB l’application identique de ( ; A) dans ( ; B) mesurable. Pour toute variable aléatoire réelle intégrable Y on dé…nit l’espérance conditionnelle de Y sachant idB : La v.a E (Y =idB ) est B- mesurable et intégrable appelée espérance conditionnelle de Y sachant B. On note E (Y =B) ou E B (Y ). De plus Z Z 8H 2 B; Y dP = E (Y =B) dP: H H Pour une variable aléatoire X; naturellement on a E (Y =F (X)) = E (Y =X) : La variable aléatoire E (Y =B) possède toutes les propriétés d’une espérance conditionnelle par rapport à une v.a. Si C est une sous-tribu de B, on dé…nit également l’espérance conditionnelle de E (Y =B) sachant C. On véri…e que E (E (Y =B) C) = E (Y =C) 2.3.2 p:s: Lois Conditionnelles Soit X une variable aléatoire à valeurs dans un espace mesurable (E; E) : Dans la première partie, on a remarqué que dans le cas où X est discrète et pour tout x sachant P (X = x) > 0, on peut dé…nir une mesure de probabilité sur A par l’application : A 7 ! E (1A =X = x) : Pour une v.a Y intégrable, E (Y =X = x) est l’espérance de cette loi. Dans le cas où X est une v.a quelconque, l’application : A 7 ! E (1A =X) possède des propriétés semblables à celles d’une mesure de probabilité mais n’est pas en général une probabilité. 52 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES Dé…nition 2.3.2 Théorème de Jirina Soit X et Y deux vecteurs aléatoires de Rd1 ; B(Rd1 ) et Rd2 ; B(Rd2 ) respectivement. Il existe une application : B Rd1 (w; A) ! [0; 1] 7 ! E (1A (Y ) =X) (w) appelée loi conditionnelle régulière de Y sachant X véri…ant i- pour tout w 2 ; E (1A (Y ) =X) (w) (= E (1A (Y ) =X = X (w))) est une probabilité sur Rd2 ; B(Rd2 ) notée8 aussi PY (A=X = X (w)) et appelée loi conditionnelle de Y sachant X = x ii- pour tout A 2 B Rd1 ; E (1A (Y ) =X) est un vecteur aléatoire de Rd1 ; B(Rd1 ) iii- pour tous A et B dans B Rd1 et B Rd2 respectivement on a E (1A B (X; Y )) = Z 1A (x) Rd 1 Z 1B (y) dPY (y=X = x) dPX (x) : Rd2 Plus généralement, on véri…e que pour toute fonction borélienne f; positive ou intégrable on a Z Z f (x; y) dPY (y=X = x) dPX (x) : E (f (X; Y )) = Rd 1 Rd2 Ceci est interprété comme une généralisation du théorème de Fubini. Proposition 2.3.3 Soit X et Y deux vecteurs aléatoires dé…nis comme dans le théorème précédent. Soit f une application borélienne de Rd2 ; B(Rd2 ) dans R telle que f (Y ) est intégrable. Alors Z E (f (Y ) =X = x) = f (u) dPY (u=X = x) p:s: Dans le cas particulier de variables aléatoires unidimensionnelles et si f = idR ; l’espérance conditionnelle E (Y =X = x) est calculée par Z E (Y =X = x) = udPY (u=X = x) p:s: 8 E (1A (Y ) =X = x) est aussi notée PY (A=X = x) : 2.3. ESPÉRANCES ET LOIS CONDITIONNELLES 53 Théorème 2.3.1 Soit X et Y deux variables aléatoires réelles. i- Si X et Y sont discrètes alors pour tout x 2 X ( ) et P (X = x) > 0; la loi conditionnelle de Y sachant X = x est aussi discrète de densité P (Y = y=X = x) = et E (Y =X = x) = X P (X = x; Y = y) P (X = x) yP (Y = y=X = x) : y2Y ( ) ii- Si X et Y sont de loi conjointe absolument continue de densité f alors X et Y sont de lois absolument continue de densités fX et fY respectivement. Pour tout réel x et fX (x) > 0; la loi conditionnelle de Y sachant X = x est absolument continue de densité fY =X=x (y) = et E (Y =X = x) = Z f (x; y) fX (x) yfY =X=x (y) dy: Exemples 2.3.2 : Soit X et Y deux v.a.r indépendantes et identiquement distribuées. 1. On suppose que X et Y sont de loi commune la loi de Poisson de paramètre : Alors P (X = x=X + Y = y) = Cyx 1 y 2 ; La loi conditionnelle de X sachant X + Y = y est binomiale B y; 12 E (X=X + Y = y) = y 2 et E (X=X + Y ) = X +Y : 2 2. On suppose que X et Y sont de loi commune la loi exponentielle de paramètre 1: Alors 1 fX=X+Y =y (x) = 1[0;y] (x) ; y La loi conditionnelle de X sachant X + Y = y est uniforme U ([0; y]). E (X=X + Y = y) = y 2 et E (X=X + Y ) = X +Y : 2 54 CHAPITRE 2. VARIABLES ALÉATOIRES VECTORIELLES Références bibliographiques Ph. Barbe et M. Ledoux. Probabilité, Belin. J.P. Delmas. Introduction aux Probabilités, Ellipses. D.Foata et A.Fuchs. Calcul des Probabilités. Masson. M. Métivier. Notions Fondamentales de la Théorie des Probabilités, Dunod. A.Monfort. Cours de Probabilité, Economica Ph.Tassi et S.Legait. Théorie des Probabilités eu vue des applications statistiques, Technip. Chapitre 3 La Fonction Caractéristique Dans ce chapitre ( ; A; P ) désigne un espace de probabilité et les variables aléatoires considérées sont supposées dé…nies sur cet espace. (Rd ; B(Rd )) est un espace mesurable où IRn est muni de la tribu de Borel B(Rd ). On rappelle qu’une variable aléatoire X à valeurs complexes est une application mesurable de la forme X = X1 + iX2 pour deux variables aléatoires réelles X1 et X2 appelées partie réelle et partie imaginaire de X respectivement. Elle est dite intégrable si X1 et X2 sont intégrables. Dans ce cas l’espérance de X est dé…nie par E (X) = E (X1 ) + iE (X2 ) : 3.1 Dé…nitions et Propriétés Dé…nition 3.1.1 Soit X un vecteur aléatoire de Rd ; B Rd : On appelle fonction caractéristique de X et on note 'X la transformée de Fourier de la loi de probabilité PX c’est à dire la fonction vectorielle et à valeurs complexes dé…nie par ' X : Rd ! R C t 7! Rd eiht;xi dPX (x) La fonction caractéristique 'X (t) est aussi l’espérance de la v.a eiht;Xi . Dans le cas particulier d’une variable aléatoire unidimensionnelle Z 'X (t) = eitx dPX (x) = E eitX : IR 55 56 CHAPITRE 3. LA FONCTION CARACTÉRISTIQUE Exemples 3.1.1 : 1. Si X est une v.a.r discrète à valeurs entières alors X eitn P (X = n) : 'X (t) = n2N Par exemple, si X est une v.a de loi uniforme sur f1; 2; :::; ng alors 'X (t) = n X eitk k=1 n = eit 1 n 1 eitn : eit Si X est une v.a de loi binomiale de paramètres n et p alors 'X (t) = n X p)n Cnk eitk pk (1 k = peit + 1 p n : k=0 2. Si X est une v.a.r de loi absolument continue de densité f alors Z 'X (t) = eitx f (x) dx: IR Par exemple, si X est une v.a de loi uniforme sur [ a; a] alors 'X (t) = sin (at) : at Si X est une v.a de loi exponentielle de paramètre 'X (t) = it alors : On exposera, à la …n de ce chapitre, les fonctions caractéristiques usuelles. La fonction caractéristique est un outil de calcul de probabilité très pratique. Certaines applications pose le problème de reconnaître une fonction caractéristique parmi les fonctions complexes. Le résultat ci-contre regroupe les propriétés élémentaires d’une fonction caractéristique. Proposition 3.1.1 La fonction caractéristique d’un vecteur aléatoire X de Rd ; B Rd est une fonction uniformément continue sur Rd véri…ant 'X (0) = 1; j'X (t)j 1; 'X ( t) = 'X (t): 3.1. DÉFINITIONS ET PROPRIÉTÉS 57 Corollaire 3.1.1 : 1. Si la loi PX est symétrique1 alors 'X est à valeurs réelles. Si, de plus, X est unidimensionnelle alors 'X est une application paire. 2. Les fonctions Re ('X ) et Im ('X ) désignent la partie réelle et imaginaire de 'X et sont paire et impaire respectivement. En e¤et, Re ('X (t)) = 1 (' (t) + 'X ( t)) 2 X et 1 (' (t) 'X ( t)) : 2 X Théorème 3.1.1 Théorème d’injectivité Soit X et Y deux vecteurs aléatoires de Rd ; B Rd . Alors Im ('X (t)) = 'X = 'Y () PX = PY : On dit que la fonction caractéristique caractérise la loi d’une variable aléatoire ce qui justi…e la terminologie de fonction caractéristique. Remarque 3.1.1 On véri…e qu’on a la réciproque, 'X est réelle implique que PX est symétrique. En e¤et si 'X est réelle alors 'X (t) = 'X (t): Comme 'X (t) = 'X ( t) = ' X (t) alors 'X (t) = ' X (t) et PX = P X: Le théorème d’injectivité établit une relation biunivoque entre fonctions caractéristiques et lois de probabilité. Le théorème suivant traite du problème inverse et permet de déterminer avec précision la loi. Théorème 3.1.2 Formule d’inversion Soit X un vecteur aléatoire de Rd ; B Rd de fonction caractéristique 'X intégrable par rapport à d : Alors la loi de X est absolument continue de densité f continue et dé…nie par Z 1 e iht;xi 'X (t) d d (t) : f (x) = n (2 ) Rd 1 La loi PX est dite symétrique si pour tout borélien A on a PX (A) = PX ( A) : 58 CHAPITRE 3. LA FONCTION CARACTÉRISTIQUE Le résultat suivant est utilisé pour véri…er la stabilité de certaines lois par changement de variables et ceci via le théorème d’injectivité. 0 Proposition 3.1.2 Soit A une transformation linéaire de Rd dans Rd et X 0 un vecteur aléatoire de Rd ; B Rd . Soit b un vecteur de Rd : On pos Y = AX + b: 0 0 Alors Y est un vecteur aléatoire de Rd ; B Rd 0 'Y dé…nie sur Rd par 'Y (t) = exp (i ht; bi) 'X de fonction caractéristique t At : Remarques 3.1.1 : 1. Dans le cas unidimensionnel, Y = aX + b est une v.a.r de fonction caractéristique 'Y (t) = exp (itb) 'X (at) : On utilisera cette remarque pour retrouver la stabilité de la loi normale ou uniforme par transformation a¢ ne. 2. On considère la transformation linéaire Y =t uX: Alors Y est une v.a.r de fonction caractéristique 'Y véri…ant 'Y (t) = 'X (ut) 3.2 et 'Y (1) = 'X (u) : Applications de la fonction caractéristique La fonction caractéristique est un outil de calcul de probabilité qui aide à établir un certain nombre de résultats. On en développera trois ci-dessous. Loi d’une somme indépendante de vecteurs aléatoires Théorème 3.2.1 Soit X et Y deux vecteurs aléatoires de Rd ; B Rd de fonctions caractéristiques 'X et 'Y respectivement. On suppose que X et Y sont indépendants. Alors 'X+Y = 'X 'Y : 3.2. APPLICATIONS DE LA FONCTION CARACTÉRISTIQUE 59 Plus généralement, si (Xk ; 1 k N ) est une famille de N vecteurs aléatoires, de même dimension, indépendants alors 'X1 +X2 +:::+XN = N Y 'Xk : k=1 Cette dernière assertion permet de retrouver la stabilité d’un grand nombre de lois usuelles (binomiale, de Poisson, normale, gamma,...) par somme indépendante. On montre aussi qu’une loi binomiale de paramètres n et p est la loi d’une somme indépendante de n v.a de Bernoulli de paramètre p: Ou encore qu’une somme indépendante de n v.a de loi exponentielle de paramètre est de loi gamma de paramètres n et : Caractérisation de l’indépendance Théorème 3.2.2 Soit (Xk ; 1 toires de (Rdk ; B(Rdk )); 1 k k N ) une famille de N vecteurs aléaN : On pose X = (X1 ; X2 ; :::; XN ) : Alors X est un vecteur aléatoire de (Rd ; B(Rd )), avec d = 'Xk (tk ) = 'X (t1 ; :::; tk ; :::; td ) N P dk , véri…ant k=1 où les sous-vecteurs (tk ; 1 k N ) sont respectivement dans Rdk ; 1 tels que les (tj ; j 6= k) sont de composantes nulles. De plus, les vecteurs X1 ; X2 ; :::; XN sont indépendants ssi 'X (t1 ; t2 ; :::; tN ) = d Y 'Xk (tk ) ; k=1 8tk 2 Rdk (1 k k N) : On appliquera ce théorème pour montrer que dans le cas d’un vecteur gaussien indépendance et non-corrélation des composantes sont équivalentes. Calcul de moments non centrés La fonction caractéristique est un outil pratique de calcul de moments. Théorème 3.2.3 Soit X une v.a.r de fonction caractéristique 'X : N 60 CHAPITRE 3. LA FONCTION CARACTÉRISTIQUE 1. Si E (jXjn ) < 1 alors 'X est n fois dérivable en 0 et (r) 'X (0) = ir E (X r ) ; pour r = 1; 2; :::; n: 2. Si 'X est n fois dérivable en 0 alors X admet des moments non centrés jusqu’à l’ordre 2r avec 2r n tels que (j) E X j = ( i)j 'X (0) ; pour j = 1; 2; :::; 2r: Remarque 3.2.1 La première partie du théorème fournit un développement limité de la fonction caractéristique 'X : Soit 'X (t) = n X (it)j j=0 j! mj + o (tn ) ; avec mj = E X j = 1 (j) ' (0) : ij X Cette application permet aussi de calculer plus facilement les moments de certaines lois usuelles tel que la loi normale ou binomiale. Le dernier théorème se généralise au cas d’un vecteur aléatoire X de d P Rd ; B Rd : On montre que si pour r = rj ; les puissances X1r1 :::Xnrn j=1 sont intégrables, alors 'X est r fois partiellement dérivable de dérivée r ème continue et @r ' (0) = ir E (X1r1 :::Xnrn ) : @xr11 :::@xrnn X 3.3 3.3.1 Cas particuliers La fonction génératrice Dé…nition 3.3.1 Soit X une variable aléatoire à valeurs dans IN . On appelle fonction génératrice de X et on note GX la fonction dé…nie sur le disque unité du plan complexe par X 8 juj 1; GX (u) = E uX = un P (X = n): n2IN On note que GX (1) = 1 et 'X (u) = GX eiu : 3.3. CAS PARTICULIERS 61 Proposition 3.3.1 : 1. La fonction génératrice GX est continue sur son domaine de dé…nition et est de classe C 1 sur le domaine (juj < 1) : 2. La fonction génératrice GX caractérise la loi PX . Soit pour tout n 2 IN P (X = n) = 1 (n) G (0) : n! X 0 3. La fonction génératrice GX admet une dérivée à gauche en 1; GX (1), si et seulement si E(X) existe et est …ni. Dans ce cas 0 E(X) = GX (1) : 4. Plus généralement, la fonction génératrice GX admet une dérivée à gauche d’ordre r (r 2 IN ) en 1 ssi le moment factoriel d’ordre r existe et est …ni. Dans ce cas E(X(X 1):::(X (r) r + 1)) = GX (1) : En particulier E(X(X 00 1)) = GX (1) 00 0 et V (X) = GX (1) + GX (1) 0 (GX (1))2 : 5. Soit X1 ; X2 ; :::; Xn des v.a entières indépendantes. On pose Sn = n X Xk : k=1 Alors 8 juj 1; GSn (u) = n Y GXk (u) : k=1 Ceci permet de véri…er la stabilité de certaines des lois usuelles discrètes par somme indépendante. Outre on montre que la loi binomiale B(n; p) (resp. de Pascal P (r; p)) est la loi de la somme de n (resp. r) variables aléatoires indépendantes de même loi de Bernoulli B(1; p):(resp. géométrique G (p)). 62 CHAPITRE 3. LA FONCTION CARACTÉRISTIQUE Plus généralement, on peut dé…nir la fonction génératrice pour une variable aléatoire vectorielle X à composantes entières X1 ; X2 ; :::; Xd . Si u est un vecteur de Rd de composantes u1 ; u2 ; :::; ud , alors GX est dé…nie par GX (u1 ; u2 ; :::; ud ) Xd 1 X2 = E uX 1 u2 :::ud X uk11 uk22 :::ukdd P (X1 = k1 ; X2 = k2 ; :::; Xd = kd ) : = (k1 ;k2 ;:::;kd )2IN n On véri…e que GX est continue sur le domaine (kuk 1) et est de classe C 1 sur le domaine ouvert correspondant (kuk < 1). De plus, elle permet de déterminer la loi de X et de calculer les moments lorsqu’ils existent. La fonction génératrice d’une coordonnée Xk (resp. d’un sous-vecteur) est calculée en faisant uj = 1 pour tous les j 6= k (resp. les j ne correspondant pas aux indices du sous-vecteur) dans l’expression de GX . En…n, les variables aléatoires X1 ; X2 ; :::; Xd sont indépendantes ssi pour tout u = (u1 ; u2 ; :::; ud ) avec kuk 1 GX (u1 ; u2 ; :::; ud ) = d Y GXk (uk ) k=1 Exercice 3.3.1 : Somme aléatoire de variables aléatoires Soit (Xn ; n 2 IN ) une suite de variables aléatoires réelles discrètes: On suppose que les v.a Xn sont indépendantes et identiquement distribuées de loi commune PX et de fonction génératrice GX : Soit N une variable aléatoire dé…nie sur le même espace de probabilité, indépendante des Xn , de loi discrète PN et de fonction génératrice GN . On considère la v.a SN dé…nie pour une réalisation w par SN : w ! SN (w) (w) = X1 (w) + ::: + XN (w) (w) On montre que la fonction génératrice de SN est calculée par G SN = G N GX : 3.3. CAS PARTICULIERS 3.3.2 63 La fonction génératrice des moments Soit X une variable aléatoire réelle. On considère la fonction de variable réelle u gX (u) = E euX : Si X est bornée alors gX est dé…nie et continue sur R: Si X est à valeurs positives, alors gX est continue et bornée sur R . Dé…nition 3.3.2 Si gX est dé…nie dans un voisinage ouvert de l’origine, elle est appelée fonction génératrice des moments de X: Proposition 3.3.2 Soit X une v.a de fonction génératrice des moments gX : 1. La fonction gX est convexe et caractérise la loi de X: 2. Pour tous réels a et b, on a gaX+b (u) = ebu gX (au) En particulier si la loi de X est symétrique alors gX est paire. 3. Soit (X; Y ) un couple de variables aléatoires indépendantes de fonctions génératrices des moments gX et gY respectivement. Alors la somme X + Y admet une fonction génératrice des moments et gX+Y = gX gY : Théorème 3.3.1 Soit X une v.a de fonction génératrice des moments gX . On suppose que gX soit dé…nie sur un intervalle ouvert I centré en 0. Alors 1. Pour tout r 1 (r) E jXjr < 1 et gX (0) = E(X r ): 2. Pour tout u 2 I gX (u) = 1 + X ur r 1 r! E(X r ): Remarque 3.3.1 : Si gX existe alors tous les moments d’ordre entiers positifs existent. La réciproque est fausse. C’est l’exemple d’une v.a de loi lognormale Y = eX avec X ,! N (0; 1) : On constate que la suite des moments ne détermine pas la loi de probabilité. 64 CHAPITRE 3. LA FONCTION CARACTÉRISTIQUE Le tableau suivant résume les fonctions caractéristiques usuelles. Nom Loi unif orme Loi binomiale Loi geometrique Loi de P oisson Loi unif orme Loi exp onentielle Loi gamma Loi normale Loi de Cauchy Loi Fonction caractéristique X ,! Un X ,! B (n; p) X ,! G (p) X ,! P ( ) X ,! U ([0; 1]) eitn eit eit 1 n 1 n (1 p + peit ) 1 peit (1 p) eit exp ( (eit eit 1)) 1 it X ,! E ( ) it a X ,! (a; ) X ,! N (0; 1) X ,! C (0; 1) it exp t2 2 exp ( jtj) : Chapitre 4 Les Vecteurs Gaussiens Soit ( ; A; P ) un espace de probabilité et (Rd ; B(Rd )) l’espace mesurable où Rd est muni de la tribu de Borel B(Rd ). On rappelle qu’une variable aléatoire réelle unidimensionnelle X est dite gaussienne ou normale de paramètres m et si sa densité de probabilité est ! (x m)2 1 fX (x) = p exp : 2 2 2 Cette loi est notée N (m; ) et les paramètres m et E (X) = m et V (X) = sont tels que 2 : La fonction caractéristique de X est donnée par 2 2 u 2 'X (u) = eimu exp ; 8u 2 R: Cette dernière expression est dé…nie pour = 0 et ceci correspond à la variable aléatoire certaine de loi m , la mesure de Dirac en m: Dans la suite une variable aléatoire réelle X sera dite gaussienne si et seulement si il existe un couple de réels (m; ) tel que 2 2 imu 'X (u) = e exp u 2 : On dira aussi que X est de loi normale de paramètres m et : On note X ,! N (m; ) : Il est implicite que le paramètre est positif ou nul. Le cas = 0 correspond aux variables aléatoires certaines dites de lois gaussiennes dégénérées. 65 66 CHAPITRE 4. LES VECTEURS GAUSSIENS 4.1 Dé…nitions et Propriétés Dé…nition 4.1.1 Soit X un vecteur aléatoire de Rd ; B Rd : On dit que X admet une loi de probabilité gaussienne si toute combinaison linéaire de ses composantes X1 ; X2 ; :::; Xd est une variable aléatoire gaussienne scalaire. On dit aussi que X est un vecteur gaussien ou normal de Rd : Remarques 4.1.1 : Soit X un vecteur gaussien de Rd : 1. Soit u un vecteur de Rd de composantes u1 ; u2 ; :::; ud . Alors la v.a.r Y = d X k=1 uk Xk = hu; Xi est une variable aléatoire gaussienne scalaire. 2. Soit A : Rd1 ! Rd2 une application linéaire et b un vecteur de Rd2 : Le vecteur Y = AX + b est gaussien dans Rd2 par stabilité de la loi normale par transformation a¢ ne: En e¤et toute combinaison linéaire des composantes de Y est de la forme a 2 Rd2 : ha; Y i = htA a; Xi + ha; bi ; Dans le cas particulier A = tu et b = 0; on a E (tu X) = tu E (X) ; V (tu X) = tu Xu et tu X ,! N (tu E (X) ; tu X u) : Il s’en suit que toute composante Xk d’un vecteur gaussien est une variable aléatoire gaussienne scalaire Xk ,! N (E (Xk ) ; k) où E (Xk ) et k sont les termes d’ordre k et d’ordre (k; k) dans les matrices E (X) et X désignant l’espérance et la matrice de covariance de X respectivement. Comme dans le cas unidimensionnel, le résultat suivant caractérise un vecteur gaussien par sa fonction caractéristique. 4.1. DÉFINITIONS ET PROPRIÉTÉS 67 Proposition 4.1.1 Soit X un vecteur aléatoire de Rd ; B Rd d’espérance E (X) et de matrice de covariance X : Le vecteur X est gaussien ssi sa fonction caractéristique est de la forme 1 8u 2 Rd ; 'X (u) = eihu;E(X)i exp tu X u : 2 Un vecteur gaussien X est donc déterminé par sa moyenne E (X) et sa matrice de covariance X : On note X ,! N (E (X) ; X) : Si E (X) = 0 et X = Id , la matrice identité de Rd ; on dit que X est un vecteur gaussien standard de Rd . Corollaire 4.1.1 Soit X1 ; X2 ; :::; Xd des variables aléatoires gaussiennes scalaires et indépendantes. Alors le vecteur X = (X1 ; X2 ; :::; Xd ) est gaussien dans Rd . Corollaire 4.1.2 Soit X = (X1 ; X2 ; :::; Xd ) un vecteur gaussien de Rd . Les variables aléatoires composantes X1 ; X2 ; :::; Xd sont indépendantes ssi la matrice de covariance X est diagonale c’est à dire cov (Xk; Xl ) = 0; pour tous k 6= l: Remarque 4.1.1 On a montré que dans le cas d’un vecteur gaussien, l’indépendance deux à deux (ou la non corrélation) de ses composantes implique leur indépendance. Plus généralement, on montre que si X est un vecteur gaussien de Rd de la forme X = (Y1 ; Y2 ; :::; Yc ) c P où Yk est un vecteur gaussien de Rdk et nk = d, alors les vecteurs (Yk ; 1 k k=1 de matrices de covariance ( k ; 1 k c) respectivement sont indépendants ssi la matrice de covariance de X est la forme 0 1 0 : : : 0 1 B 0 : C 2 : : : B C B : : : : : : C B C X = B C : : : : : : B C @ : : : : : 0 A 0 : : : 0 c Exercice 4.1.1 Montrer que si X et Y sont deux v.a.r gaussiennes centrées et indépendantes il en est de même pour les v.a X + Y et X Y: c) 68 4.2 CHAPITRE 4. LES VECTEURS GAUSSIENS Densité d’un Vecteur Gaussien Soit X un vecteur aléatoire de Rd ; B Rd d’espérance E (X) et de maP trice de covariance X : On rappelle que si la matrice X n’est pas inversible d alors la loi de X est concentrée sur un hyperplan de RP et ne peut être absolument continue. La question est de traiter le cas où X est inversible. Théorème 4.2.1 Soit X un vecteur gaussien standard de Rd : Alors X est de loi absolument continue de densité ! d 2 X xk 1 : fX (x1 ; x2 ; :::; xd ) = exp d=2 2 (2 ) k=1 Le résultat suivant est intermédiaire et exprime la relation d’un vecteur gaussien quelconque à un vecteur gaussien standard. Proposition 4.2.1 Soit X un vecteur gaussien de Rd ; B Rd d’espérance E (X) et de matrice de covariance X de rang r: Il existe Y un vecteur gaussien standard de Rr et A une application linéaire de Rr dans Rd tels que le vecteur A (Y ) est de même loi que X: Plus précisément, il existe B;une matrice (d; r) de rang r telle que X = B t B et A (Y ) = E (X) + BY . Remarques 4.2.1 : 1. Soit 1 ; 2 ; :::; r les valeurs propres non matrice carrée orthogonale P telle que 0 1 0 : B 0 : 0 B B : 0 : tP X P = B B : : 0 B @ : : : 0 : : nulles de : : 0 r : : : : : : : : 0 : : : : 0 X : Il existe une 1 C C C C C C A e les matrices (d; r) et (r; d) suivantes On pose C et C 0 p 1 0 1 0 : 0 1 p B 0 0 : : 0 : C 1 B C B : B 0 : p0 C e=B 0 : 0 C et C C=B B : C @ : 0 : : 0 r C B @ : 0 : 0 : : 0 A 0 : : 0 : : 0 p1 r : : : 0 1 0 : C C: : A 0 4.2. DENSITÉ D’UN VECTEUR GAUSSIEN Alors e P (X Y = Ct E (X)) 69 et B = P C: 2. Il est toujours possible de transformer un vecteur gaussien en un vecteur gaussien de composantes non correlées. 3. Si M est un vecteur de Rd et une matrice carrée (d; d), symétrique et positive alors on peut construire X; un vecteur gaussien de Rd ; B Rd d’espérance M et de matrice de covariance : 4. Si r = d alors l’application A est inversible et X = E (X) + BY: Théorème 4.2.2 Soit X un vecteur gaussien de Rd ; B Rd d’espérance MX et de matrice de covariance X inversible: La loi du vecteur X admet une densité fX par rapport à la mesure de Lebesgue de Rd fX (x) = 1 d=2 (2 ) p 1 det exp X 1 t(x 2 MX ) 1 X (x MX ) : Remarques 4.2.2 : 1. Si X est un vecteur gaussien dont la matrice de covariance X n’est pas inversible (r < d), alors X est situé dans un sous-espace a¢ ne de Rd de dimension r passant par E (X) et orthogonal au noyau de X : Le vecteur X n’admet donc pas de densité dans Rd : On dit qu’il s’agit d’un vecteur aléatoire dégénéré. 2. Si la densité d’un vecteur aléatoire X E (X) est de la forme f (u) = k exp ( q (u)) où k > 0 et q (u) est une forme quadratique dé…nie positive sur Rd ; alors X est un vecteur gaussien. Références bibliographiques Ph. Barbe et M. Ledoux. Probabilité, Belin. J.P. Delmas. Introduction aux Probabilités, Ellipses. D.Dacunha-Castelle et D.Marie. Probabilités et Statistiques. Problèmes à temps …xe, Masson. A.Monfort. Cours de Probabilité, Economica 70 CHAPITRE 4. LES VECTEURS GAUSSIENS Chapitre 5 Exercices Variables Aléatoires Unidimensionnelles Exercice 5.0.1 On considère des polygones convexes dont le nombre N de côtés est une variable aléatoire ayant pour loi P (N = n) = 1 2 n 2 ; n 3: 1. Quelle est l’espérance du nombre de côtés du polygone ? 2. Quelle est l’espérance du nombres de diagonales du polygone ? Exercice 5.0.2 Une urne U1 contient 3 boules noires et 2 blanches. Une seconde urne U2 contient 2 boules noires et 3 boules blanches. On tire simultanément et sans remise 2 boules de U1 et 1 boule de U2 . Soit X la variable aléatoire, qui à chaque tirage, associe le nombre de boules blanches obtenues. 1. Déterminer la loi de probabilité de X ; représenter sa fonction de répartition. 2. Calculer son espérance et sa variance. Exercice 5.0.3 Soit X une v.a de densité f dé…nie par f (x) = 1 ; si jxj > 1 jxj3 0; sinon 71 72 CHAPITRE 5. EXERCICES 1. Déterminer la fonction de répartition de X: 2. Calculer E (X) et V (X) : Exercice 5.0.4 Soit X une variable aléatoire dé…nie sur une espace probabilisé à valeurs dans f1; :::; ng ; n 2: On suppose que P (X = k) = k (n 1. Pour quelles valeurs de k) : P est-elle une probabilité ? 2. Calculer dans ce cas l’espérance de X: Exercice 5.0.5 Deux joueurs jouent à pile ou face avec des pièces équilibrées. A lance (n + 1) pièces et B n pièces (n 2 N ) : Soient X et Y le nombre aléatoire de "faces" amenées respectivement par A et B. 1. Calculer la probabilité que X Y = k; k 2 Z: 2. Calculer la probabilité que X = Y; que X > Y: Exercice 5.0.6 Rami place au hasard 5 chaussettes dans 4 tiroirs distincts T1 ; T2 ; T3 ; T4 : On note X la variable aléatoire égale au nombre de chaussettes placées dans le premier tiroir T1 : Déterminer la loi de X: Exercice 5.0.7 Un éléctricien achète des composants par paquets de 10: Sa technique de contôle est de n’examiner que 3 des composants, tirés au hasard dans le paquet, et de n’accepter le lot des 10 que si les 3 composants examinés sont sans défaut. Si 30% des paquets contiennet 4 composant à malfaçon tandis que les 70% restant n’en contiennent qu’un, quelle proportion des paquets notre électricien rejettera-t-il ? Exercice 5.0.8 Une urne contient 3 boules blanches et 2 boules noires. On e¤ectue des tirages successifs d’une boule avec remise à chaque fois de cette boule dans l’urne. Soit X la variable aléatoire égale au nombre de tirages nécessaires pour obtenir 2 boules blanches. Déterminer la loi de probabilité de X et calculer son espérance. Reprendre l’exercice en supposant que l’urne contient n boules blanches et p noires. Exercice 5.0.9 Soit X une v.a.r binomiale négative de paramètres 1 et p. Soit m 2 IN; on pose Y = min (X; m) : Donner la loi de Y; son espérance et sa variance. 73 Exercice 5.0.10 La durée de vie d’un certain type de diode de radio est une variable aléatoire de densité donnée par f (x) = 0 ; si x 100 2 100=x ; si x > 100 Quelle est la probabilité qu’exactement 2 des 5 diodes de ce type doivent être remplacées lors des 150 premières heures de service de la radio ? On admettra que les événements Ei : "la i-ème diode doit être remplacée avant la 150 eme heure de service”, i = 1; 2; 3; 4; 5; sont indépendants. Exercice 5.0.11 On pose 20 questions à un candidat. Pour chaque question, k réponses sont proposeés dont une seule est la bonne. Le candidat choisit au hasard une des réponses proposées. 1. Soit X le nombre de points obtenus par bonnes réponses. Quelle est la loi de X? (On attribue un point par bonne réponse) 2. Lorsque le candidat donne une mauvaise réponse, il peut choisir à nou1 veau parmi les autres réponses proposées. On lui attribue alors point 2 par bonne réponse. Soit Y le nombre de points obtenus lors de ces seconds choix. Quelle est la loi de Y ? 3. Soit S le nombre total de points obtenus. Déterminer k pour que le candidat obtienne en moyenne une note de 5 sur 20: Exercice 5.0.12 Soit N une variable aléatoire discrète à valeurs dans N : Montrer que +1 X E(N ) = P (N k): k=1 Application : Une urne contient b boules bleues et r boules rouges. On effectue des tirages sans remise jusqu’à l’obtention d’une boule bleue. 1. Déterminer la loi de la variable aléatoire X; désignant le nombre de tirages nécessaires pour obtenir la première boule bleue. b+r+1 2. Véri…er que le nombre moyen de ces tirages est : (Indication : b+1 r X b+1 b On pourra utiliser l’égalité combinatoire suivante : Ck+b = Cr+b+1 k=0 ). 74 CHAPITRE 5. EXERCICES Exercice 5.0.13 Un point est choisi au hasard sur un segment de longueur L: Trouver la probabilité que le rapport entre le plus petit et le plus grand segment soit inférieure à 1=4: Exercice 5.0.14 Soit X une variable aléatoire de loi uniforme sur le segment [1; 3]: 1. Déterminer la fonction de répartition de la variable aléatoire Ya = min(X; a); avec a 2 [1; 3]: 2. Véri…er que la loi de Ya est une combinaison linéaire d’une loi à densité et d’une mesure de Dirac. Exercice 5.0.15 Soit X une variable aléatoire réelle équirépartie sur [0; 1] : On considère les variables Y = max (X; 1 X) et Z = min (X; 1 X) : 1. Véri…er que Y et Z sont des variables aléatoires réelles dont on déterminera les lois de probabilités. 2. Véri…er que V (Y + Z) = 0: En déduire que Y + Z est une variable aléatoire réelle constante. Ce résultat est-il prévisible ? Déterminer alors cette constante. Exercice 5.0.16 On observe l’arrivée de personnes à un guichet, 2 personnes ne pouvant arriver en même temps. Le nombre d’arrivées dans un intervalle de temps de longueur t est une variable aléatoire N (t) distribuée selon une loi de Poisson de pramètre t. Les arrivées se produisent indépendamment les unes des autres. On choisit un temps t0 = 0: Soit Tk la variable aléatoire qui représente l’arrivée du k e client à partir de t0 : 1. Quelle est la loi de T1 ? Indication : la probabilité que T1 soit supérieure à t est égale à la probabilité que personne n’arrive dans l’intervalle [0; t] : 2. Calculer la fonction de répartition de Tk : 3. Calculer la densité de Tk . De quelle loi s’agit-il ? Exercice 5.0.17 Soit X une variable aléatoire réelle continue représentant la mesure d’un phénomène physique dans une unité donnée. On donne sa densité g (x) = e x ; x > 0; > 0: 75 Or la donnée observée est en réalité [X], où [:] désigne la partie entière de X: 1. On pose Y = [X] : Donner la loi de Y , son espérance et sa variance. Que dire lorsque la donnée observée est, cete fois, l’entier le plus proche ? 2. On pose U = e X . Montrer que U suit la loi uniforme sur ]0; 1[ : Exercice 5.0.18 Si T est une v.a positive représentant une durée de vie, on dit qu’elle véri…e la propriété de non-vieillissement si pour tout t > 0 et h>0 P ((T > t + h) = (T > t)) = P (T > h) Montrer que la loi géométrique et la loi exponentielle de paramètre > 0 véri…ent cette propriété, c’est à dire sont des lois sans mémoire. Etudier la réciproque. Exercice 5.0.19 Soit X une variable aléatoire réelle de fonction de répartition F . On suppose que F est continue. Donner la loi de probabilité de F (X). Exercice 5.0.20 Soit V une v.a uniformément répartie sur i ; h : 2 2 1 1. Montrer que X = tgV est de loi de Cauchy de densité : (1 + x2 ) 2. Véri…er que Y = 1=tgV est de même loi que X: Commenter. Exercice 5.0.21 Tous les jours, Slim parcourt le même trajet de 40 km pour se rendre à son travail. Sa vitesse est une variable aléatoire V qui dépend des conditions météorologiques et de la circulation. Sa densité est de la forme Cv exp ( fV (v) = 1 ; si v jxj3 0; sinon v) 0 Slim roule à une vitesse moyenne de 80 km=h: 1. Déterminer les valeurs de C et de : 40 2. La durée du trajet est décrite par la variable T = : Déterminer la V densité et l’espérance de T: 76 CHAPITRE 5. EXERCICES Exercice 5.0.22 Dans une usine, on fabrique des boules pour la décoration de sapins de Noël. Le rayon de ces boules est une variable aléatoire R qui a pour fonction de densité f (x) = 2 r (3 9 r) ; si 0 0; sinon r 3 1. L’usine s’intérresse à la quantité de matière nécessaire pour fabriquer ces boules et demande de calculer la fonction de densité de la surface S = 4 R2 d’une boule. 2. Calculer l’espérance de la variable aléatoire S: Variables Aléatoires Vectorielles Exercice 5.0.23 On place au hasard trois boules numérotées 1; 2; 3 dans trois tiroirs numérotés T1 ; T2 ; T3 , chaque tiroir pouvant contenir jusqu’à trois boules. On note Xi (i = 1; 2; 3), la v.a.r égale au nombre de boules contenues dans le tiroir Ti et N la v.a.r égale au nombre de tiroirs occupés. Donner la loi conjointe et les lois marginales des couples (N; X1 ) et (X1 ; X3 ) : Exercice 5.0.24 Une urne contient n jetons numérotés de 1 à n: On tire successivement et sans remise deux jetons de l’urne, on note X1 le numéro marqué sur le premier jeton et X2 celui marqué sur le second. Déterminer la loi conjointe du couple (X1 ; X2 ) : Montrer que X1 et X2 sont deux v.a.r discrètes uniformes sur l’ensemble des entiers naturels allant de 1 à n: Exercice 5.0.25 Soit (X; Y ) un couple de variables aléatoires à valeurs dans f0; :::; ng telles que Ci Cj P (X = i; Y = j) = n2n n : 2 1. Déterminer la loi de X et la loi de Y . 2. Déterminer P (X = i=Y = j) pour tout i; j 2 f0; :::; ng : Commenter le résultat. 77 Exercice 5.0.26 Soit (X; Y ) et (U; V ) deux couples de v.a.r de densités respectives ( 1 (1 + xy) ; si f (x; y) = 4 0; 1 x 1 et 1 y y 1 1 sinon et g (x; y) = 1=4; si 0; 1 x 1 et sinon 1 1. Véri…er que f et g sont bien des densités de probabilité sur IR2 : 2. Calculer les densités marginales de chacun de ces couples. 3. Véri…er que ces couples ont les mêmes lois marginales. Commenter. Exercice 5.0.27 Soit (X; Y ) un couple de v.a.r dont la loi est déterminée par la densité f (x; y) = k (x + y) ; si (x; y) 2 [0; 1]2 0; sinon 1. Déterminer la valeur de la constante k et la fonction de répartition F de cette loi. 2. Déterminer les lois marginales de X et Y: Exercice 5.0.28 Soit (X1 ; X2 ) un vecteur aléatoire continu ayant pour densité f (x1 ; x2 ) = c (x1 + x1 x2 ) 1[0;1]2 : 1. Calculer c: 2. Calculer P X2 > X1 + 1 2 et P X2 = X1 + 1 2 : Exercice 5.0.29 Soit Z un vecteur aléatoire de densité f (x; y) = exp( 1 2 (x 2 xy + y 2 )): 1. Déterminer la constante : 2. Déterminer la matrice de covariance du vecteur aléatoire Z: 78 CHAPITRE 5. EXERCICES Exercice 5.0.30 Soit (X; Y ) un couple de v.a.r de loi absolument continue de densité f(X;Y ) : Calculer les densités conditionnelles de X sachant (Y = y) et de Y sachant (X = x) dans les cas suivants : i- f(X;Y ) (x; y) = xe xy 1[0;1] (x) 1IR+ (y) : 1 x ii- f(X;Y ) (x; y) = exp y 1 IR 2 (x; y) : ( +) y y 1 iii- f(X;Y ) (x; y) = 10 x y 2 (x; y) : 2 Exercice 5.0.31 On considère un couple de variables aléatoires entières W = (U; V ) de loi dé…nie sur (N )2 par P (U = n; V = m) = 1 n(n+1) 0 ; si n = m ; sinon Déterminer les lois marginales de W ainsi que la loi conditionnelle de V sachant U = n: Exercice 5.0.32 Soit (X; Y ) un couple de variables aléatoires réelles de densité conjointe fX;Y (x; y) = a jxj jyj 1(x;y)2D où a > 0 et D = f(x; y) 2 R2 = jyj 1 et jxj + jyj 1g : 1. Calculer a et les lois marginales du couple (X; Y ) : 2. Les variables aléatoires X et Y sont-elles indépendantes ? Justi…er votre réponse. 3. Calculer la covariance de X et Y: Commenter le résultat. Exercice 5.0.33 Soient X et Y deux variables de Bernoulli indépendantes et de même paramètre p 2 ]0; 1[ : On pose U =X +Y et V = X Y: 1. Déterminer la loi du couple (U; V ) : 2. Déterminer le coé¢ cient de corrélation U;V : 3. U et V sont-elles indépendantes ? Conclusion. Exercice 5.0.34 On considère une suite d’épreuves répétées indépendantes. On note Si l’événement succes à la i eme épreuve et on pose p = P (Si ). On dé…nit les v.a X1 et X2 par : X1 le numéro de l’épreuve où apparaît le premier succès, X1 + X2 est le numéro d’apparition du deuxième succès. 79 1. Pour j et k dans IN ; exprimer l’événement (X1 = j; X2 = k) à l’aide des Si : En déduire la loi de (X1 ; X2 ) puis celle de X2 : Véri…er que X1 et X2 sont indépendantes. 2. Calculer P (X1 = k=X1 + X2 = n) pour k = 1; :::; n 1: Commenter. Exercice 5.0.35 Soit X et Y deux variables aléatoires indépendantes de densités de probabilité fX et fY respectivement. 1. Calculer P (X x; X + Y u) en fonction de fX et fY : En déduire la densité de probabilité conjointe du vecteur (X; X + Y ) : 2. Calculer gu (x), densité de la loi conditionnelle de X par rapport à X + Y = u: Véri…er que dans le cas où X et Y sont de loi commune la loi exponentielle de paramètre 1 et pour tout u 2 R+ ; la fonction gu est une densité de probabilité d’une loi à identi…er. Exercice 5.0.36 La densité conjointe des variables aléatoires X et Y est donnée par p 3 3 3 2 f (x; y) = exp x + y 2 xy ; (x; y) 2 R2 : 4 2 1. Trouver les densités marginales fX (x) et fY (y) : 2. Les variables aléatoires X et Y sont-elles indépendantes ? 3. Trouver la densité conditionnelle fXjY (x j y) : 4. Calculer E (X=Y = y) : Quelle est la distribution de la variable aléatoire E (X=Y )? Exercice 5.0.37 Montrer que les lois binomiale, binomiale négative, de Poisson et de Pascal sont stables par somme indépendante. Exercice 5.0.38 Soit (X; Y ) un couple de v.a.r indépendantes. Calculer E (X=X + Y ) dans les cas suivants : i- X et Y deux v.a.r de loi de Poisson de paramètes et respectivement. ii- X et Y deux v.a.r de loi binomiale de paramètes (n1 ; p) et (n2 ; p) respectivement. iii- X et Y deux v.a.r de loi commune la loi exponentielle de paramètre 1: 80 CHAPITRE 5. EXERCICES Exercice 5.0.39 Soient X et Y deux variables aléatoires indépendantes de densités respectives f et g et de fonctions de répartition respectives F et G: Déterminer les densités des variables aléatoires U et V dé…nies par U = Sup (X; Y ) et V = Inf (X; Y ) : Généraliser au cas de n variables aléatoires indépendantes X1; X2; :::; Xn de même loi uniforme sur [0; 1] : Exercice 5.0.40 Soit X et Y deux variables aléatoires réelles indépendantes de même loi de densité f (x) = 2x11]0;1[ (x) : Calculer la loi de X : Y Exercice 5.0.41 Soit X et Y deux variables aléatoires indépendantes positives de même loi de densité f: X : 1. Déterminer la loi de U = X +Y 2. Application : f (x) = 11[0;1] (x) ; e x 11]0;+1[ (x) ; 2 1 11]0;+1[ (x) : 1 + x2 Exercice 5.0.42 Soit X1 ; X2 et X3 des variables aléatoires indépendantes de même loi exponentielle de paramètre : 1. Déterminer les lois de probabilité des variables aléatoires X1 + X2 ; X2 ; X1 X2 ; jX1 X2 j ; X(1) = min (X1 ; X2 ) 2. Calculer P (X3 < jX1 X2 j) et E X3 + X(1) : 3. Application : trois personnes A1 ; A2 et A3 arrivent à la poste au même temps pour téléphoner et il y a seulement deux cabines qui sont immédiatement occupées par A1 et A2 : On admet que le temps d’occupation d’une cabine est une variable aléatoire qui suit une loi exponentielle de paramètre : On demande la probabilité que A3 ne sorte pas le dernier de la poste et le temps moyen qu’il va passer à la poste. 81 Exercice 5.0.43 Soit (Xn )n 1 une suite de variables aléatoires indépendantes d’une loi de probabilité commune de densité f: On note X(1) ; :::; X(n) l’échantillon ordonné de X1 ; :::; Xn rangés par ordre croissant (en particulier X(1) = mink=1;:::;n Xk et X(n) = maxk=1;:::;n Xk ). 1. Véri…er que X(1) < ::: < X(n) P -presque sûrement. 2. Montrer que le vecteur aléatoire (X(1) ; :::; X(n) ) a pour densité h(x1 ; :::; xn ) = n! n Y f (xi )1 (x1 ; :::; xn ); = f(x1 ; :::; xn ) 2 Rn x1 < ::: < xn g: avec K=1 3. Soit Nnt = n X 1] k=1 1;t] (Xk ): a- Véri…er que Nnt suit la loi binomiale de paramètres n et F (t) ( F est la fonction de répartition de la loi ): b- Montrer que la fonction de répartition de X(k) est k (t) = n X Cnr (F (t))r (1 F (t))n r : r=k c- Véri…er que n X Cnr ( r n r ) (1 ) = r=k (k n! 1)!(n k)! Z uk 1 (1 u)n k du: 0 En déduire que la densité de X(k) est donnée par fk (t) = (k n! 1)!(n k)! (F (t))k 1 (1 F (t))n k f (t): 4. Application : on suppose que est la loi exponentielle de paramètre . Montrer que les n variables aléatoires Z1 = X(1) ; Z2 = X(2) X(1) ; ... ; Zn = X(n) X(n 1) sont indépendantes et que la densité de Zk est donnée par gk (z) = (n k + 1) exp( (n k + 1) z)1R+ (z): 82 CHAPITRE 5. EXERCICES Fonctions de Variables Aléatoires Vectorielles Exercice 5.0.44 Soit L une variable aléatoire réelle de densité de probabilité f et X une variable aléatoire réelle indépendante de L et de loi uniforme sur [0; 1] : On pose L1 = XL et L2 = (1 X) L: 1. Etablir que L1 et L2 ont même loi. 2. Déterminer en fonction de f la densité du couple (L1; L2 ) : 3. Que peut-on dire de L1 et L2 lorsque f (l) = 2 l exp ( l) 11[0;+1[ (l) ; >0 Exercice 5.0.45 Soit X et Y deux variables aléatoires réelles indépendantes de même loi de densité f (x) = 2x11]0;1[ (x) : Calculer la loi de X : Y Exercice 5.0.46 Une variable aléatoire réelle est dite de loi Gamma de paramètres a et et notée G (a; ) si sa loi est de densité a; dé…nie par a a; pour a et (x) = (a) xa 1 e x 1R+ (x) des réels strictement positifs avec (a) = R +1 0 xa 1 e x dx: 1. Véri…er que (a) est dé…ni pour tout a > 0: Montrer que (a + 1) = a (a) et calculer (n) pour n 2 N : 2. Soit X une variable aléatoire de loi G (a; ). Calculer E (X) et V (X) : 3. Soit X et Y deux variables aléatoires indépendantes de lois respectives G (a; ) et G (b; ) : X a- Montrer que X + Y et sont indépendantes et calculer leur X +Y lois de probabilité. En déduire que Z 1 (a) (b) B (a; b) = xa 1 (1 x)b 1 dx = : (a + b) 0 83 b- Si X1; X2; :::; Xn sont n variables aléatoires indépendantes de même loi exponentielle de paramètre ; donner la loi de probabilité de la somme Sn = X1 + X2 + ::: + Xn : c- Retrouver le dernier résultat en utilisant les fonctions caractéristiques. Exercice 5.0.47 Soit Y une variables aléatoire gaussienne centrée réduite. 1 1. Montrer que Y 2 est de loi G 12 ; 12 : En déduire la valeur de : 2 2. Si Y1; Y2; :::; Yn sont n copies de Y indépendantes, on appelle loi de chideux à n degré de liberté et on note X 2 (n) la loi de probabilité de la somme Zn = Y12 + Y22 + ::: + Yn2 . a- Calculer E (Zn ) et V (Zn ) : b- On suppose que Y est indépendante de la suite (Yk ) .On pose Y Tn = p Zn Détrminer la loi de Tn : Etudier le cas particulier n = 1: Exercice 5.0.48 Soit X une variable aléatoire de fonction caractéristique 'X . 1. Montrer que les fonctions 'X ; j'X j2 et Re ('X ) sont aussi des fonctions caractéristiques. 2. Si, en outre, 'X est la fonction caractéristique d’une variable aléatoire absolument continue, montrer qu’il en est de même pour 'X et j'X j2 : Exercice 5.0.49 Soit pose un réel srictement positif. Pour tout (i; j) de N2 ; on pi;j = 1 i+j+1 i Ci+j : 2 +1 1. Véri…er que la famille (pi;j ; (i; j) 2 N2 ) dé…nit une probabilité sur N2 . 2. Soit (X; Y ) un couple de variables aléatoires de loi conjointe P (X = i; Y = j) = pi;j : a- Véri…er que la fonction génératrice du couple (X; Y ) est dé…nie par G(X;Y ) (s; t) = 1 1+2 (s + t) ; (s; t) 2 [ 1; 1]2 : 84 CHAPITRE 5. EXERCICES b- Déterminer les fonctions génératrices des lois marginales. En déduire que les variables X et Y sont de loi commune une loi binomiale négative de paramètres à identi…er. c- On pose Z = X + Y: Calculer la fonction génératrice de la variable Z et identi…er sa loi. Véri…er que la loi conditionnelle de X sachant (Z = z) est binomiale dont on calculera les paramètres. Exercice 5.0.50 Soit X une variable aléatoire réelle dont la fonction caractéristique est 1 cos t 'X : t 7! 2 t2 Quelle est la distribution de probabilité de X? Exercice 5.0.51 Soit X1 et X2 deux variables aléatoires indépendantes de loi commune et de fonction caractéristique '. 1. Véri…er que la fonction caractéristique de X1 X2 est égale à j'j2 : 2. Montrer que Z T 1 P (X1 X2 = 0) = lim j'j2 (t) dt: T !1 2T T 3. Montrer que si ' est de carré intégrable alors P (X1 X2 = 0) = 0: 4. On suppose que X1 est de loi gaussienne standard. On pose X3 = "X1 pour une variable aléatoire " de loi uniforme sur f 1; 1g et indépendante de X1 : a- Véri…rer que X3 est de loi gaussienne standard. b- Montrer que P (X1 1 X3 = 0) = P (X1 + X3 = 0) = : 2 c- Que peut on dire de l’indépendance des variables aléatoires X1 et X3 ? Le vecteur (X1 ; X3 ) est-il gaussien ? Exercice 5.0.52 Soit X une variable aléatoire réelle de loi absolument continue de densité 1 =2 f (x) = : 2 ( =2) + (x )2 85 1. On veut calculer ' la fonction caractéristique de X pour a- Véri…er que Z 2 eitu e juj du = : 1 + t2 R = 2 et 1 juj e est une densité de probabilité. 2 b- Utiliser la formule d’inversion pour montrer que ' (t) = e = 0: On remarquera que 2. En déduire la fonction caractéristique de X pour et jtj : quelconques. Exercice 5.0.53 Montrer que si X et Y sont deux v.a indépendantes de même loi symétrique, telles que pour tous ; 0 positifs, X + 0 Y est de même loi que ( + 0 ) X; et si X et Y ne sont pas constantes p:s: alors leur loi est une loi de Cauchy. Exercice 5.0.54 Une urne contient des boules rouges, vertes, bleues, en proportion pr ; pv ; pb avec pr +pv +pb = 1: On tire n boules avec remise et on note Xn le vecteur aléatoire de composantes Rn ; Vn et Bn désignant respectivement les nombres de boules rouges, vertes et bleues. 1. Déterminer la loi du vecteur Xn : 2. Les variables aléatoires Rn ; Vn et Bn sont-elles indépendantes ? 3. Calculer GX; la fonction génératrice du vecteur Xn : 4. Soit N une variable aléatoire entière indépendante de la suite (Xn )n On pose RN = Rn ; VN = Vn et BN = Bn si N = n: 1 : a- Utiliser le résultat de la première question et la loi de la variable aléatoire N pour calculer la loi du vecteur XN = (RN ; VN ; BN ) : b- Montrer que les composantes de XN sont indépendantes dans le cas où N suit une loi de Poisson. c- On désigne par GN la fonction génératrice de la variable N: Calculer la fonction génératrice GXN du veteur XN en fonction de GN . Retrouver alors le résultat de la question précédente. Vecteurs Gaussiens 86 CHAPITRE 5. EXERCICES Exercice 5.0.55 Soit X un variable aléatoire loi de probabilité N (0; ) et B un borélien symétrique par rapport à l’origine tel que sa mesure de Lebesgue et celle de son complémentaire B c ne soient pas nulles. On pose Y = X1fX2Bg X1fX2B c g Montrer que Y est de même loi que X mais que X Y n’est pas gaussienne ? Exercice 5.0.56 Les variables X et Y sont indépendantes et de lois normales centrées et réduites. Calculer la loi du couple (R; ) où (X; Y ) = (R cos ; R sin ) : Véri…er que R et sont indépendantes et déterminer leurs lois. Exercice 5.0.57 Soit(Xn ) une suite de variables aléatoires indépendantes de loi commune N (0; ) : On pose Y1 = X1 et Yn = aXn 1 + Xn ; avec a un réel non nul. Déterminer la loi du vecteur (Y1 ; Y2 ; :::; Yn ) : Exercice 5.0.58 Soit X = (X1 ; X2 ; :::; Xn ) un vecteur gaussien de matrice de covariance : Montrer que X1 est indépendant de (X2 ; :::; Xn ) ssi i1 = 0 pour tout i 2: Exercice 5.0.59 Soit X1 ; X2 ; :::; Xn des variables aléatoires indépendantes et identiquement distribuées de loi commune la loi normale N (0; 1) : Soient a1; a2; :::; an et b1; b2; :::; bn deux suites de nombres réels. Montrer que Y = n X ai Xi et Z = i=1 sont indépendantes si et seulement n X bi Xi i=1 n P ai b i = 0 i=1 Exercice 5.0.60 Soit X un vecteur gaussien de Rn de loi N (0; ) et M une matrice orthogonale. Quelle est la loi du vecteur M X? 87 Exercice 5.0.61 Soit X = (X1 ; X2 ; :::; Xn ) un vecteur aléatoire de Rn de composantes indépendantes et identiquement distribuées de loi commune la loi normale d’espérance m et de variance 2 : On pose 1X X= Xi ; n i=1 n 1X = (Xi n i=1 n 2 1. Déterminer les lois de X et de 1X et S = Xi n i=1 n 2 m) n 2 X 2 2 2 : 2. Montrer que X et S 2 sont indépendantes. Exercice 5.0.62 Soit X un vecteur gaussien de R3 centré et de matrice de covariance 0 1 3 1 0 =@ 1 3 0 A 0 0 2 Déterminer, par transformation linéaire sur X; un vecteur gaussien dont les composantes sont indépendantes. Exercice 5.0.63 Soit X un vecteur gaussien de R2 de paramètres M= 1 2 et = 5 4 1 13 : Véri…er que X est une transformation a¢ ne d’un vecteur gaussien standard de R2 . Exercice 5.0.64 On considère la fonction h (x) = p 1 x3 1[ 2 e 1;1] (x) et on note par g la densité gaussienne centrée réduite. On dé…nit la fonction f (x; y) = g (x) g (y) + h (x) h (y) : Montrer que f est une densité de probabilité qui n’est pas gaussienne mais que les densités marginales sont gaussiennes. 88 CHAPITRE 5. EXERCICES Exercice 5.0.65 Soit (X; Y ) un couple de variables aléatoires de densité f (x; y) = exp 1 2x2 2 2xy + y 2 : 1. Calculer : Trouver les lois marginales de X et de Y: 2. Montrer (X; Y ) que est un vecteur gaussien centré. Quelle est sa covariance ?