1 Notions de base -Le cas équiprobable : dénombrement 2 Interprétation ensembliste des événements - Axiomes des probabilités 3 Probabilité conditionnelle -Probabilités totales Théorème de Bayse 4 Indépendance 5 Variables aléatoire Une variable aléatoire est simplement une fonction X : ! R: Une réalisation d’une variable aléatoire est donc X(!): la partie "aléatoire" provient de !, qui est une réalisation de l’expérience considérée. Une variable aléatoire correspond a une mesure (numérique) e¤ectuée lors de cette expérience. L’événement "la variable aléatoire X donne comme résultat a" est noté fX = ag = f! 2 : X(!) = ag = X 1 (a) et l’événement "la variable aléatoire X donne comme résultat dans A" est fX 2 Ag = f! 2 : X(!) 2 Ag = X 1 (A) : Ce n’est donc ni plus ni moins que la préimage de A par l’application X. Exemple : Si l’expérience consiste a choisir une personne au hasard alors son âge, sa taille, son nombre de dents sont des variables aléatoires mais pas son sexe (car le résultat n’est pas numérique). Pour que le sexe devienne une variable aléatoire il faudrait associer au sexe féminin la valeur 1 et au sexe masculin la valeur 0 par exemple. On associe à chaque variable aléatoire sa fonction de répartition FX (x) qui associe à chaque valeur x 2 R la probabilité de l’événement fX xg. c’est-à-dire 1 x) = P (f! 2 FX (x) = P (X : X(!) xg) : Propriétés de la fonction de répartition : La fonction de répartition de toute variable aléatoire est dé…nie pour tout x 2 R. Elle est croissante, continue par morceaux (càdlàg : continue à droite et admet un limite à gauche, pour être précis) et véri…e lim FX (x) = 0 x ! 1 et lim FX (x) = 1 : x !+1 En particulier, FX (X) 2 [0; 1] pour tout x: La fonction de répartition caractérise totalement la loi de la variable aléatoire X en donnant la probabilité des événements de type fX 2 ] 1; x]g : En e¤et, par exemple P(X > a) = 1 P(X P(X < a) = lim P(X x !a P(a X b) = P(X P(X = a) = P(X a) 5.1 a) = 1 FX (a) a) = lim FX (x) = FX (a ) x !a b) P(X < a) = FX (b) FX (a ) P(X < a) = FX (a) FX (a ) Variables aléatoires discrètes Une variable aléatoire est dite discrète si elle ne prends qu’un nombre …ni ou dénombrable de valeurs. Exemple : Si l’expérience consiste a choisir une personne au hasard, alors son nombre de dents est une variable aléatoire discrète mais pas sa taille (mesurée avec précision absolue). On peut alors dé…nir sa fonction de densité discrète (ou fonction de fréquence) noté fX (x); ou plus souvent p(x), telle que p: R ! [0; 1] x 7 ! p(x) = P(X = x) Propriétés de la fonction de fréquence : La fonction de fréquence de toute variable aléatoire est dé…nie pour tout x 2 R mais est non-nulle seulement pour un nombre …ni ou dénombrable de point. Elle n’est ni croissante, ni continue par morceaux, ni comprise entre 0 et 1. En revanche elle véri…e p(x) = FX (x) FX (x ) = FX (x) 2 lim FX (x h !0+ h): Aussi, on a donc p(x) = P(X x) = X P(X = y) = y x X p(y): y x Exemple : Jet d’un dé. = f! 1 ; ! 2 ; ! 3 ; ! 4 ; ! 5 ; ! 6 g, X : R telle que X(! j ) = j (la face du dé). ! On dé…ni l’espérance de la variable aléatoire X par X X = E (X) = xi P(X = xi ) = xi p(xi ) i P i (si i jxi j p(xi ) < 1). De même, l’espérance d’une fonction d’une variable aléatoire P est dé…nie par (si i g (xi ) p(xi ) < 1) X X E (g (X)) = g (xi ) P(X = xi ) = g (xi ) p(xi ): i i C’est la moyenne pondérée des valeurs que peuvent prendre la variable aléatoire pondérée par le poids de la probabilité de chaque valeur. En termes physiques, c’est le barycentre de la densité discrète. On dé…nit le moment d’ordre k de la variable aléatoire X par X E Xk = xk P(X = x): i On dé…ni la variance d’une variable aléatoire X par 2 = V ar (X) = E (X E(X))2 = E X 2 (E (X))2 = X x2i p(xi ) i p et son écart-type par la racine carrée de la variance X = V ar(X). C’est une mesure de l’écart moyen par rapport à l’espérance E(X). Exemple : Pour P la variable aléatoire P du résultat d’un jet de dé, l’espérance vaut E (X) = 6i=1 kp(k) = 6i=1 k 61 = 16 (21) = 3:5: Pour une variable aléatoire qui vaut 1 si l’événement A se produit et 0 sinon. l’espérance est 1:P(A) + 0:P(Ac ) = P(A). 3 X i !2 xi p(xi ) : 5.2 Variables aléatoires classiques Quelques variables aléatoires discrètes Nom paramètres Bernoulli 0 Binomiale 0 Géométrique Poisson 5.3.1 1 n2N p 1 p 1 >0 Binomiale négative 5.3 0 p Fonction de fréquence p(k) E (X) V ar (X) P (X = 1) = p p p (1 p) P (X = 0) = 1 p Cnk pk (1 p)n k np np (1 p) pour k 2 f0; :::; ng p (1 p)k 1 1 p 1 p p2 pour k 2 N k e k! pour k 2 N n 1 n Ck 1 p (1 p)k n n n p12 p1 p pour k 2 fn; n + 1; :::g n 2 N; n > 1; 0 p 1 Variables aléatoires continues - Loi normale Variables aléatoires continues Une variable aléatoire qui n’est pas discrète est dite continue. Elle prends donc ses valeurs dans un continuum. Exemple : Si l’expérience consiste a choisir une personne au hasard, alors son âge ou sa taille (mesurées avec précision absolue) son des variables aléatoires continues mais pas son nombre de dents (variable aléatoire discrète). On dé…nit sa fonction de densité comme étant la fonction fX : R ! R telle que, pour tout x 2 R Z x P (X x) = FX (x) = fX (u) du: 1 Attention : La fonction de densité n’est pas une probabiltié, elle peut donc être plus grande que 1 ! Propriétés de la fonction de densité : La fonction de densité de toute variable aléatoire est dé…nie pour tout x 2 R, mais n’est pas nécessairement dans [0; 1]. Elle est continue par morceaux telle que fX (x) 0 pour tout x 2 R et De plus, 4 Z +1 fX (x) dx = 1: 1 P (X 2 A) = Z fX (x) dx et P (a X b) = A Z b fX (x) dx: a et, si FX est dérivable en x (ou si fX est continue en x), fX (x) = FX0 (x) = lim FX (x + h) FX (x h) : h En fait, on peut dé…nir une variable aléatoire comme étant continue si une telle fonction de densité fX existe. Rx Remarque : Pour une variable aléatoire continue on a donc P (X = x) = x fX (x) dx = 0 pour tout x puisqu’on intègre sur un seul point... Exemple : Variable aléatoire exponentielle. Soit la variable aléatorie de densité fX (x) = exp ( x) si x 0 et 0 sinon. Sa fonction de répartition est donc la primitive de fX , cíest-à-dire h!0 FX (x) = Z x exp ( x) si x fX (u) du = 1 0 et 0 sinon: 1 On dé…nit l’espérance d’une variable aléatoire continue X comme Z +1 E (X) = xfX (x) dx 1 R +1 (si 1 jxj fX (x) dx < 1). De même, l’espérance d’une fonction d’une variable aléatoire R +1 est dé…nie par (si 1 jg (x)j fX (x) dx < 1) Z +1 E (g (X)) = g (x) fX (x) dx: 1 On dé…nit le moment d’ordre k de la variable aléatoire X par Z +1 k = xk fX (x) dx: k = E X 1 En…n, on dé…ni la variance d’une variable aléatoire continue X par 2 = V ar (X) = E (X Z +1 = x2 fX (x) dx 1 E (X))2 = E X 2 Z +1 xfX (x) dx 1 5 (E (X))2 2 : p et son écart-type par la racine carrée de la variance X = V ar (X): C’est une mesure de l’écart moyen par rapport à l’espérance E(X). Nous verrons plus loin en détail ce que cela veut dire. On obtient alors une "procédure" informelle pour passer des formules pour le cas discret au cas continu : il faut remplacer les occurences de la fonction de fréquence RP(X = xi ) par la densitÈ fX (x) et les sommes P i2A par des intégrales A : 5.4 Variables aléatoires classiques Quelques variables aléatoires continues Nom Uniforme Exponentielle Gaussienne Gamma Beta Paramètres a<b >0 2 R; 2 Densité f (x) = b 1 a ; pour x 2 [a; b] f (x) = e x ; pour x > 0 >0 > 0; n f (x) = 1 f (x) = (a+b) a 1 x (a) (b) a; b > 0 p1 2 e (x )2 2 2 n n 1 x e (1 x (n) b 1 x) ; pour x 2 R ; pour x > 0 ; pour x 2 (0; 1) Remarque : la densité aux points non indiqués est nulle. la fonction (x) est dé…nie par Z 1 tx 1 e t dt: (x) = 0 Remarque : Pour simplifer l’écriture des fonctions de densité et de fréquence, on dé…nit souvent la fonction indicatrice d’un ensemble par 1A (x) = 1 b si x 2 A sinon 1 0 Ainsi, par exemple, la densité uniforme sur [a; b] s’écrit f (x) = 1 : a [a; b] 5.4.1 Propriétés de l’espérance et la variance Espérance On dé…nit l’espérance d’une variables aléatoire X par E (X) = P x P(X = xi ) R +1i i xfX (x)dx 1 = P i xi p(xi ) (Cas discrèt) (Cas continu) R +1 P si respectivement jxj fX (x) dx < 1 i jxi j p(xi ) < 1 et 1 Propriétés de linéarité de l’espérance : 6 E(X) V ar (X) a+b 2 1 (b a)2 12 1 2 2 n n 2 L’espérance est linéaire, c’est-à-dire que, pour toutes constantes réelles a; b et toute variable aléatoire X, E (aX + b) = aE (X) + b: C’est une simple conséquence du fait que la somme et l’intégrale sont linéaires. Variance On dé…ni la variance d’une variable aléatoire X par 2 = V ar (X) = E (X E(X))2 = E X 2 (E (X))2 : On remarque que la seconde égalité provient en fait de la linéarité de l’espérance, car E (X E(X))2 = E X 2 2 E(X) X + (E (X))2 = E X2 2 E(X) E(X) + (E (X))2 = E X2 (E (X))2 : et p dé…nit aussison écart-type par la racine carrée de la variance V ar(X). X = Propriétés de la variance : Pour toutes constantes réelles a; b et toute variable aléatoire X, V ar (aX + b) = a2 V ar (X) : En e¤et, le fait d’ajouter b a X déplace horizontalement la distribution de probabilité de X mais ne change pas la distribution de X autour de sa moyenne. Conséquence : variable aléatoire centrée réduite On peut centrer et réduire une variable aléatoire en lui retranchant son espérance (centrer) et en la divisant par la racine carrée de sa variance (réduire). Si X est une variable aléatoire d’espérance et de variance 2 ; alors (X ) = est d’espérance 0 et de variance 1. ! ! X E (X) X E (X) E p = 0 et V ar p =1 V ar (X) V ar (X) 7 5.5 Loi Normale Une variable aléatoire d’un intérêt spécial est la loi normale ou gaussienne (du nom du mathématicien Gauss) N ( ; 2 ) dont la fonction de densité est 1 fX (x) = p e 2 où est son espérance et 2 (x )2 2 2 ; pour x 2 R; sa variance. Remarque : On peut voir la loi normale comme la limite d’une loi binomiale avec n grand et p petit. Ci-desous se trouvent les graphiques de la fonction de fréquence d’une loi binomiale de paramètre n = 250 et p = 0:03 à di¤érentes échelles. 250 La fonction est donc p (k) = 0:03k (1 0:03)250 k et peut être k approchée par f (x) = p 1 e 2 :250:0:03:(1 0:03) (x 250:0:03)2 2:250:0:03:(1 0:03) Propriétés de la loi gaussienne : On peut montrer qu’une variable gaussienne X reste gaussienne sous la transformation aX + b, donc aX + b suit une loi normale N a + b; a2 2 en particulier, si on la centre et la réduit, on obtient une loi normale standard (centrée réduite) X p E (X) V ar (X) suit une loi normale N (0; 1) Exemple de centrage et réduction : En…n, bien que sa fonction de répartition FX existe, elle ne peut pas être représentée par une formule, car la primitive de fX n’est pas représentable. Elle ne peut qu’être calculer numériquement et nous disposons donc de tables numériques qui donnent les valeurs de FX (x) = P(X x): En centrant et réduisant, il su¢ t de posséder une table pour la loi normale standard. 8 De plus, la loi normale est symétrique autour de son espérance, donc, pour X suivant une loi normale standard N (0; 1) on a P (X x) = P (X x) P (X > x) = P (X < x) = P (X P (X x) = 1 P (X > x) = 1 6 x) P (X x) pour x 0 Lois conjointes 6.1 Variables aléatoires conjointes Un couple de variables aléatoires (X; Y ) est une fonction de dans R2 . On peut donc lui associer sa fonction de répartition conjointe FX; Y (x; y) = P (X x; Y y) = P (fX xg \ fY yg) pour tout x; y 2 R: Propriétés de la fonction de répartition conjointe : Pour tout x0 …xé, FX;Y (x0 ; y) est une fonction de y croissante telle que lim FX;Y (x0 ; y) = 0 y! 1 et lim FX;Y (x0 ; y) = FX (x0 ) : y!+1 De même, pour tout y0 …xé, FX;Y (x; y0 ) est une fonction de x croissante telle que lim FX;Y (x; y0 ) = 0 y! 1 et lim FX;Y (x; y0 ) = FY (y0 ) : y!+1 On appelle FX (x) et FY (y) les fonctions de répartition marginales de (X; Y ). Les fonctions de répartitions marginales correspondent à FX (x) = P(X x; Y 2 R) et FY (y) = P(X 2 R; Y y): Proposition : P(a1 X a2 ; b 1 Y b2 ) = FX;Y (a2 ; b2 ) FX;Y (a1 ; b2 ) FX;Y (a2 ; b1 )+FX;Y (a1 ; b1 ): Exemples de variables aléatoires conjointes : 9 On dé…nit également par, dans le cas discret, la fonction de fréquence conjointe fX;Y (x; y) = P(X = x; Y = y) = FX;Y (x; y) lim FX;Y (x h!0 h; y h) et, dans le cas continu, la fonction de densité conjointe fX;Y (x; y) = d2 FX;Y (x; y) là où la dérivée existe. dxdy On a alors P(X 2 A; Y 2 B) = et donc FX (x) = P P R Ru2A v2B P(X = u; Y = v) dans le cas discrèt, f (x; y)dxdy dans le cas continu, A B X;Y P P P(X = u; Y = v) dans le cas discrèt, u x R x R +1 v f (x; y)dxdy dans le cas continu. 1 1 X;Y La fonction de densité marginale est donc fX (x) = P dans le cas discrèt, dans le cas continu. P(X = x; Y = v) R +1 (x) = 1 fX;Y (x; y)dxdy v FX0 Remarque : si X est continue et Y discrète, FX;Y existe, mais pas la densité conjointe. Exemple : Soit X une tir a pile ou face et Y le jet d’un dé. On a la fonction de fréquence conjointe suivante, où l’on peut lire les fonctions de fréquence marginales dans les marges du tableau. 1 2 3 4 5 6 fX P F 1 12 1 12 1 12 1 12 1 12 1 12 1 12 1 12 1 12 1 12 1 12 1 12 # # 1 2 1 2 10 fY ! ! ! ! ! ! 1 6 1 6 1 6 1 6 1 6 1 6 En…n, l’espérance d’une fonction d’une variable aléatoire conjointe est dé…nie par E (h (X1 ; :::; Xn )) = X h (x1 ; :::; xn ) P (X1 = x1 ; :::; Xn = xn ) x1 ;:::;xn dans le cas discrèt et par E (h (X1 ; :::; Xn )) = Z +1 ::: 1 Z +1 h (x1 ; :::; xn ) fX1 ;:::;Xn (x1 ; :::; xn ) dx1 :::dxn 1 dans le cas continu (si respectivement la somme et l’intégrale de jh (x1 ; :::; xn )j sont …nies). 6.2 Densité conditionnelle et indépendance On dé…nit la densité conditionnelle de X sachant Y par analogie avec les probabilités conditionnelles fX=Y (x=y) = P (X = x=Y = y) (cas discrèt) fX; Y (x; y) si fY (y) > 0 et 0 sinon (cas continu) fX=Y (x=y) = fY (y) Attention : c’est une densité de probabilité, x est la variable mais y est …xé. De la même manière, deux variables aléatoires sont indépendantes si, pour tout ensembles A et B les événements fX 2 Ag et fY 2 Bg sont indépendants. Cela revient à trois conditions équivalentes P(X 2 A; Y 2 B) = P (X 2 A) P (Y 2 B) pour tout A; B FX;Y (x; y) = FX (x) FY (y) pour tout x; y 2 R fX;Y (x; y) = fX (x) fY (y) pour tout x; y 2 R On a encore, à l’aide de la densité conditionnelle, P(X 2 A=Y 2 B) = P (X 2 A) pour tout A; B fX=Y (x=y) = fX (x) pour tout x fY =X (y=x) = fY (y) pour tout y 11 Plusieurs variables aléatoires X1 ; :::; Xn sont indépendantes si P n \ i=1 ! fXi 2 Ai g = n Y i=1 P (Xi 2 Ai ) pour tout A1 ; :::; An FX1 ;:::;Xn (x1 ; :::; xn ) = FX1 (x1 ) :::FXn (xn ) pour tout x1 ; :::; xn Si X1 ; :::; Xn sont indépendantes et ont la même loi, on dit qu’elles sont indépendantes et identiquement distribuées (i.i.d.) Exemple : Les variables sont indépendantes, en e¤et, pour tout x; y = 1; :::; 6; 1 et P (X = x; Y = y) = 36 1 P (X = x) = 6 et P (Y = y) = 61 donc on a bien, pour tout x; y = 1; :::; 6; P (X = x; Y = y) = P (X = x) P (Y = y) 7 Covariance –Corrélation 7.1 Covariance Pour deux variables aléatoires X et Y , on dé…nit leur covariance comme Cov (X; Y ) = Cov (Y; X) = E [(X E (X)) (y E (Y ))] = E (XY ) E (X) E (Y ) : Propriétés de la convariance : C’est une mesure de la dépendance linéaire entre deux variables aléatoires. Si X et Y sont indépendantes, alors Cov (X; Y ) = 0 puisque E (XY ) = E (X) E (Y ) pour deux variables indépendantes. En revanche, posons U une variable aléatoire uniforme R 1 3 1sur ( 1; 1) 2 2 et X = U et Y = U : On a E (XY ) = E (U ) = x 2 dx = 0 et 1 E (X) = E (U ) = 0: Donc Cov (X; Y ) = 0 mais X et Y ne sont clairement pas indépendantes. De même, X = sin ( x) et Y = cos ( x) ne sont pas indépendantes et leur covariance est nulle. En analyse, la convariance dé…nit un produit scalaire, et donc Cov(X; Y ) mesure le degré de dépendance linéaire entre X et Y . 1 Si Cov(X; Y ) > 0, alors quand X croît, Y croît (tendance globale), 12 2 Si Cov(X; Y ) < 0, alors quand X croît, Y décroît (tendance globale), 3 Si Cov(X; Y ) = 0, alors les variations de X n’ont pas d’in‡uences sur Y (tendance globale). 7.2 Liens entre variance et covariance La covariance a le même type de linéarité que la variance, c’est-à-dire Cov(X + Y; Z) = Cov(X; Z) + Cov(Y; Z) et Cov(c; Y ) = 0 Cov(a1 X1 + a2 X2 + b; Y ) = a1 Cov(X1 ; Y ) + a2 Cov(X2 ; Y ) pour toutes constantes réelles a1 ; a2 ; b et toute variable aléatoire X1 ; X2 et Y: De plus, si X et Y sont les mêmes variables, alors la covariance devient la variance, c’est-à-dire Cov(X; X) = V ar(X) On a alors la propriété suivante : V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X; Y ) 7.3 Corrélation La corrélation entre deux variables aléatoires X et Y est dé…nie par X; Y Cov(X; Y ) = (X; Y ) = p V ar(X)V ar(Y ) C’est une version normalisée de la covariance Corr(X; Y ) 2 [ 1; 1] Propriétés de la covariance : La corrélation a les mêmes propriétés que la covariance a quelques exceptions près. On a bien (Y; X) = (X; Y ) et (X1 + X2 + b; Y ) = (X1 ; Y ) + (X2 ; Y ) (X; Y ) = 0 () Cov(X; Y ) = 0 possible avec X et Y dépendantes, 13 mais si X et Y sont indépendantes, alors (X; Y ) = 0: En revanche, (aX + b; Y ) = signe (a) (X; Y ) : La corrélation est une mesure du degré de relation linéaire entre X et Y , c’est-à-dire (X; Y ) = 1 () Y peut s’écire comme aX + b; i:e: P(fY = aX + bg) = 1 (X; Y ) = 1 () Y peut s’écire comme aX + b; i:e: P(fY = aX + bg) = 1 pour des constantes a > 0 et b 2 R. 8 Loi des grands nombres - Théorème Central Limite Les deux résultats de ce chapitre sont les deux résultats principaux à la base de la statistique. Il s’agit de deux résultats limites, c’est-à-dire qu’ils ne sont valables que si l’on considère un nombre su¢ samment grand de variables ou d’observations. Tout les deux caractérisent la moyenne de plusieurs observations et sont très généraux. Ils sont valables quelque soit la loi des variables considérées. Il su¢ t qu’elles soient i.i.d. et que leur espérance (et parfois leur variance) soit …nie. On dé…nit la moyenne empirique de n variables aléatoires X1 ; :::; Xn par 1X X= Xi : n i=1 n Attention : X est aussi une variable aléatoire ! Si les variables sont i.i.d. alors X devrait se rapprocher de la moyenne théorique (l’espérance) a mesure que n grandit. La loi des grands nombres et le théorème central limite caractérisent cette convergence. 8.1 Loi des grands nombres La Loi des grands nombres montre que la moyenne empirique d’observations i.i.d. tends vers leur espérance mathématique. Théorème 1 (Loi des grands nombres) Soit X une variable aléatoire d’espérance et soient X1 ; :::; Xn des variables aléatoires i.i.d. de même loi que la variable X. On a 14 1X X= Xi n i=1 n ! = E (X) : n!+1 Corrolaire 2 (application au moment d’ordre k) Soit X une variable aléatoire dont le moment d’ordre k vaut k = E(X k ) et soient X1 ; :::; Xn des variables aléatoires i.i.d. de même loi que la variable X. On a n 1X k (k) X ! = E Xk : X = n i=1 i n!+1 k On peut remarquer alors que X, qui est une variable aléatoire, converge vers , qui est une constante, donc X perds son caractère aléatoire à mesure que n grandit. En d’autres termes, ! 0: V ar X 8.2 n!+1 Théorème Central Limite Le théorème central limite permet de caractériser la loi limite de X. C’est un résultat à la fois très puissant et très profond sur le comportement de la moyenne empirique Le théorème central limite (ou théorème de la limite centrale) montre la moyenne empirique X suit approximativement, pour n grand, une loi normale (gaussienne) d’espérance 2 . De même, une somme de = E(X) et de variance n = V ar(X) n variables i.i.d. suivra une loi normale d’espérance = nE(X) et de variance n2 2 = n2 V ar(X). Théorème 3 (Théorème Central Limite) Soit X une variable aléatoire d’espérance et de variance 2 et soient X1 ; :::; Xn des variables aléatoires i.i.d. de même loi que la variable X. Soit en…n Zvune variable aléatoire gaussienne N (0; 1). On a alors n X i=1 Xi p n n n X (Xi = i=1 p ) n ! Z n!+1 C’est-à-dire X p = n ! Z n!+1 15 N (0 ; 1 ): N (0 ; 1 ): Cette convergence a lieu "en loi" ou "en distribution", c’est-à-dire que la fonction de répartition de X=pn converge cers celle d’une loi normale N (0; 1) en tout point de continuité de ces deux fonctions. La force du théorème central limite est sa généralité. Cela veut dire que quelque soit la loi de départ, s’il y a su¤isamment d’observations, la moyenne et la somme d’un échantillon i.i.d. va se comporter comme une loi normale. De ce constat, l’on va tirer de grandes lois pour la modélisation en statistique. Par exemple, si les erreurs de mesure proviennt de nombreuses sources di¤érentes mais de nature identique, l’on peut raisonnablement considérer que l’erreur moyenne résultante sera distribuée selon une loi normale. Exemple : Convergence de la moyenne de variables uniformes vers la loi normale. 16