Vecteurs aléatoires à densités Les lois n Loi conjointe de (X1 , ... , Xn) La loi conjointe de (X1 , ... , Xn) est donnée par la fonction définie sur ℝ par la fonction de répartition : F(X1,...,Xn) (x1, ... , xn) = P[ ] Lois marginales La k Stabilité de la loi en composant par une fonction continue de ℝn dans ℝ Loi de Max(X1 , ... , Xn ) Si (X1 , ... , Xn) et (Y1 , ... , Yn) ont la même loi et si g est une fonction continue de ℝ dans ℝ alors g(X1 , ... , Xn) et g(Y1 , ... , Yn ) ont la même loi Loi de Min(X1 , ... , Xn ) Produit de convolution ème loi marginale de (X1 , ... , Xn) est la loi de Xk n On cherche la fonction de répartition x ℝ , P[ Max ≤ x ] = P [ ] On cherche la fonction de répartition x ℝ , P[ Min ≤ x ] = 1 – P [ ] Le produit de convolution sert à trouver une densité de (X+Y) lorsque X et Y sont indépendantes. On cherche d’abord (X+Y) () Cas particulier de convergence : si l’une des deux densités est bornée alors le produit de convolution converge. Stabilité de la loi gamma pour la somme Stabilité de la loi normale pour les combinaisons linéaires Théorème : Si X et Y sont indépendantes à densités respectives f et g Si la fonction h : x existe et est continue sur ℝ sauf peut-être en un nombre fini de points Alors h est une densité de (X+Y) La somme de variables aléatoires indépendantes de lois respectives (1) , ... (p) suit la loi gamma (1+...+p) - Toute combinaison linéaire de variables aléatoires indépendantes de lois normales est une variable aléatoire X de loi normale N ( E(X) , V(X)) - Si X ↪ N(m,²) alors pour tous réels a et b, aX+b ↪ N( am+b , a²² ) Somme de variables indépendantes de loi (1) La loi (1) est la loi (1) donc la somme de n variables aléatoires indépendantes de loi (1) suit la loi (n) L’espérance Croissance Linéarité Existence d’une espérance par domination Espérance d’un produit de variables indépendantes Si X et Y sont deux variables aléatoires admettant une espérance. Si P[ X ≤ Y ] = 1 alors E(X) ≤ E(Y) Si X et Y admettent une espérance alors pour tous a,b réels , (aX+bY) a une espérance et E(aX+bY) = aE(X) + b E(Y) En particulier E(aX+b) = a E(X) + b Soient X et Y deux variables aléatoires . Si Y a une espérance et si P[ |X| ≤ Y ] = 1 alors X a une espérance et | E(X) | ≤ E(Y) Si X1 , ... , Xn sont des variables aléatoires réelles indépendantes et admettant une espérance alors leur produit a une espérance et E(X1 ... Xn ) = E(X1) ... E(Xn) La variance Définition Formule de KoenigHuygens Variance et moment d’ordre 2 Variance d’une somme de n VAR indépendantes Soit X une variable aléatoire de densité f. Si l’intégrale converge alors V(X) = E ( X – E(X) )²) = Si X admet une variance alors V(X) = E(X²) – E(X)² X admet une variance si et seulement si X² admet une espérance Si X1 , ... , Xn sont n variables indépendantes admettant une variance alors leur somme admet une variance et V( X1 + ... + Xn ) = V(X1) + ... + V(Xn) V(aX+b) Soient a et b deux réels. Si X a une variance alors aX+b aussi et V(aX+b) = a² V(X) Indépendance Indépendance mutuelle de n VAR X1,...,Xn sont mutuellement indépendantes ssi pour tous réels x1,...,xn : P[(X1≤x1) ... (Xn≤xn) ] = P[X1≤x1] ... P[Xn≤ xn] Indépendance mutuelle d’une suite de VAR discrètes Une suite (Xn)nIN est formée de var discrètes mutuellement indépendantes ssi toute soussuite finie est formée de var mutuellement indépendantes. Lemme des coalitions Si X1 , ... , Xn sont indépendantes alors toute fonction de X1 , ... , Xp est indépendante de toute fonction de Xp+1 , ... , Xn.