1 2.1 Introduction Soit un espace de probabilité (, , P) associé à une expérience aléatoire envisagée. Ce triplet n’est en général pas formé d’éléments réels et ne se prête donc pas à des calculs. Pour remédier à cet inconvénient, on lui associé un espace probabilisé dont tous les éléments sont réels grâce à l’introduction de la notion de variable aléatoire réelle. 2 2.2 Généralités sur les variables aléatoires Soit (, , P) un espace de probabilité et un corps des nombres. Définition: X: X() telle que á chaque événement élémentaire fait correspondre un nombre réel, est une variable aléatoire si, pour tout nombre réel x, A={| X()x } , c’est à dire A est un événement. On dit qu’une application 3 Remarques : Afin de simplifier l’écriture, nous noterons pour la suite {| X()x }={Xx}. (Aucun risque de confusion n’est d’ailleurs à craindre : X désigne une fonction et x un réel !) L’ensemble des valeurs prise par X, noté X(), est appelé univers image. 4 Exemples: 1) On jette deux dés distincts et on s’intéresse à la somme des points. On note X cette variable aléatoire, elle est définie par X: (1, 2) 1+ 2 avec = {(1,1) , (1,2), …, (6,5), (6,6)} tel que: (X x )={(1, 2)/ 1+ 2 x } , x . L’ensemble des valeurs possibles prises par X est X()={2, 3, . . . , 12}. 2) On observe deux bactéries et on s’intéresse à la durée de vie T de la bactérie qui disparaîtra la première. L’ensemble fondamental (univers) =[0,+[×[0,+ [. La variable aléatoire T s’écrit alors T: tel que: x . (1, 2) inf{1, 2} (Tx )={(1, 2)/ inf{1, 2} x } , L’ensemble des valeurs possibles prises par T est T() = [0,+[. 2.3 Propriétés: 1) Puisque A est un événement, il a une probabilité bien définie, et par conséquent, nous pouvons obtenir la probabilité que le variable aléatoire prend des valeurs inférieures à un x donné : P(A)=P(X≤x) 7 2) On peut aussi obtenir la probabilité qu'une variable aléatoire prend des valeurs dans un intervalle P(a<X≤b)=P(X ≤b)P(X ≤a) Puisque (a<X≤b)={|a<X()b}={|X()b}{| X()a} est aussi un événement. 3) La loi de probabilité aussi appelée distribution de probabilité et notée PX d'une variable aléatoire X a pour but de décrire quelles sont les valeurs possibles prises par la variable X et avec quelle probabilité ces différentes valeurs sont prises. Elle est définie comme suite : 9 Autrement dit, est la mesure image de par Définition: On appelle loi (de probabilité) de X, la fonction: PX : A [0, 1] P(X A) Autrement dit PX est la mesure image de P par X. 2.4 Fonction de répartition: Une variable aléatoire est entièrement caractérisée par sa distribution de probabilité PX ou de manière équivalente par sa fonction de répartition notée F. Définition : La fonction de répartition d’une variable aléatoire réelle X est la fonction définie par: F: [0, 1] x P(X < x) (Remarque: On peut aussi définir F par :F(x) = P(X x),x ) 11 Propriétés: 1) 0≤ F(x) ≤ 1, x 3) F est monotone croissante si : xy F(x) F(y) 4) P(x < X y)=F(y)F(x) 5) F est continue à droite en tout point x de : c. à. d Variables aléatoires discrètes Définition: Soit un univers et une probabilité sur . On appelle variable aléatoire discrète toute application X de dans une partie finie ou dénombrable de : X: X() avec X() fini (i.e. X() ={a1, ..., an}) ou dénombrable (i.e. X() = {a1, ..., an, ...}). Exemple: Si est l’ensemble des étudiants d’une classe, on peut à chaque étudiant associer le nombre X() de ses frères et sœurs. X est alors une fonction à valeur dans un ensemble fini (finitude imposée par la nature) : X est une variable aléatoire discrète. Loi de probabilité: Définition: Etant donnée une variable aléatoire X telle que X()={a1, ..., an}, on appelle loi de probabilité ou distribution de probabilité de X une expression des probabilités : pi=(X=ai), i=1,…,n. Remarques: 1) Les probabilités pi trouvées vérifient alors : 2) Cette définition s’étend bien sûr au cas d’une variable aléatoire à valeurs dans un ensemble infini dénombrable. Dans la suite, on se limite au cas des variables aléatoires discrètes à valeurs dans un ensemble fini. Les notions et propriétés étudiées s’étendent bien sûr au cas des variables aléatoires discrètes à valeurs dans un ensemble dénombrable infini. Exemple: On lance deux pièces de monnaie. L’univers comprend 4 événements élémentaires notés PP; PF; FP; FF, de probabilité chacun 1/4. On note X la variable aléatoire qui compte le nombre de piles obtenus. X prend les valeurs 0; 1; 2, (X=0)=1/4, (X=1)=1/2 et (X=2)=1/4 On représente souvent la loi de probabilité à l’aide d’un tableau : X(w)=a (X=a) 0 1/4 1 1/2 2 1/4 Total 1 Fonction de répartition (Cas discret) Définition: Soit X une variable aléatoire discrète sur telle que X()={a1,...,an} avec a1<a2<...<an. On appelle fonction de répartition de X la fonction F définie par : F : [0, 1] x P(X x) telle que: 0 P(X a1) F(x ) P(X a1) P(X ak ) 1 si si x a1 a1 x a2 si ak x ak 1 si x an Remarque: Connaissant la fonction de répartition F d’une variable aléatoire discrète X on peut retrouver la distribution de probabilité de X : pj j i=1 pi j-1 i=1 pi F (a j ) F (a j-1 ), j 2 Exemple: Si l’on considère la constitution d’une fratrie de deux enfants, l’univers est constitué des évènements élémentaires suivants : = {GG, GF, FG, FF} Les valeurs possibles prises par la variable aléatoire X=«nombres de filles dans la famille» sont : X()={0,1,2}. Si l’on fait l’hypothèse que la probabilité d’avoir un garçon est égale à celle d’avoir une fille (1/2), alors la distribution de probabilité ou loi de probabilité du nombre de filles dans une fratrie de deux enfants est : Univers G et G F et G ou G et F F et F Univers image X() Probabilités associées à la variable X : P(X=ai) ou pi 0 1/4 0 si x < 0 1/2 1/4 si 0x <1 1/4 3/4 si 1x <2 1 si x2 1 2 F(x) La loi de probabilité est les couples suivants : (0, 1/4), (1, 1/2) et (2, 1/4). Remarque: Pour visualiser la distribution de probabilités, on utilise un diagramme en bâtons et une fonction en escalier pour la fonction de répartition. Caractéristiques d’une variable aléatoire discrète La théorie des probabilités vise à évaluer le comportement des variables aléatoires (mode, espérance, variance, Ecart-type,...) étant donnée la distribution de probabilité. a) Le mode: Le mode correspond à une valeur, de X, ayant une probabilité maximale de se réaliser; si m est le mode alors P(X=m) P(X=a) ; a X(). b)Espérance L’espérance de X représente la valeur moyenne prise par X. Elle est notée E(X) et calculée ainsi : E(X)=a1P(X=a1)+a2P(X=a2)+…+anP(X=an) E(X ) n a . i= 1 i P (X a i ) c) Variance La variance exprime à quel point les valeurs prises par X sont dispersées autour de la moyenne. Une grande variance indique une grande dispersion. A l'inverse, une variance nulle révèle que X est en fait non-aléatoire. On note la variance Var(X) et on la calcule ainsi : Var(X) (a1 E(X))2P(Xa1)(a2 E(X))2P(Xa2) (an E(X))2P(Xan) n n i=1 i=1 soit Var(X) (ai E(X))2P(Xai) ai2.P(Xai)E(X)2 d) Ecart-type : L'écarttype fournit la même information. On le note (X) et on le calcule ainsi : Lois discrètes: (X ) V a r (X ) a) Loi de Bernoulli Définition: Soit un univers Ω constitué de deux éventualités, S pour succès et E pour échec Ω = {E, S} sur lequel on construit une variable aléatoire discrète, X="nombre de succès" telle que au cours d’une expérience aléatoire, si S est réalisé, X = 1 si E est réalisé, X=0 Définition (suite): On appelle variable de Bernoulli ou variable indicatrice, la variable aléatoire X telle que : X : Ω → , X(Ω) = {0,1} La loi de probabilité associée à la variable de Bernoulli X telle que, P(X= 0) = q, P(X =1) = p avec p+q = 1 est appelée loi de Bernoulli notée B(p). Espérance et la variance: E(X) = p Var(X) = p.q Utilisation: (i) Succès dans un jeu binaire Exemple 1: pile/face. X = 1 si pile, X = 0 sinon X~B(1/2) Exemple 2: jeu de dé. X = 1 si résultat = 3, X = 0 sinon X ~B(1/6) (ii) Réponse oui/non dans un sondage Exemple: X = 1 si une personne approuve la réforme des retraites, X = 0 sinon X ~ B(p), avec p inconnu C nk b) Loi Binomial Définition: On dit qu'une variable X suit une loi binomiale de paramètres n et p, notée Bin(n; p), lorsqu'elle prend ses valeurs parmi {0, …, n} avec les probabilités suivantes pour k {0,…, n} : P(X = k) = pk(1-p)n-k, k=0,1,…,n X représente le nombre de fois où un évènement se réalise en n répétitions indépendantes de l'expérience. Espérance et variance : E(X)= n.p Var(X)=n.pq (q=(1-p)) Remarque: Si Y1,…, Yn est une suite de variable indépendantes de loi de Bernoulli de même paramètre p, B(p), alors Y= Y1+…+Yn suit une loi Bin(n;p). Utilisation: (i) Nombre de succès dans une épreuve de Bernoulli répétée n fois indépendamment Exemple: On lance un dé 9 fois. X = « nombre de 3 obtenus » X~Bin(9,1/6), P(X=2)= 0.28 (ii) Comptage d’un caractère dans un tirage avec remise Exemple: lot de 1000 pantalons dont 10% défectueux. On tire 15 pantalons avec remise. X = «nombre de pantalons défectueux obtenus» X~Bin(15, 1/10) c) Loi de Poisson Définition : Soit X la variable aléatoire représentant le résultat d'un comptage effectué sur une durée fixée. On dit que X suit une loi de Poisson de paramètre , (), lorsqu'elle prend ses valeurs dans ={0,1,…,n,…} (infinité de valeurs possibles) avec les probabilités suivantes pour k : k P(X k ) e k! où est une constante positive. c) Loi de Poisson (suite) E(X)=Var(X)= Utilisation de la loi de Poisson (exemples): X compte le nombre d'arrivées de clients à un guichet de banque en une semaine, le nombre de véhicules passant par un péage donné en une journée, le nombre de pannes en un an... Approximation de la distribution binomiale par la distribution de Poisson Soit Xn une variable aléatoire binomiale de paramètres n et p. Faisans tendre n vers l’infini et p vers 0, mais de forme que le produit n.p tende à une constante >0. Donc, il est vérifié: Xn=k)= = la distribution binomiale converge en loi vers la distribution de Poisson de paramètre . Cela signifie que nous pouvons approcher la loi binomiale par la loi de Poisson si n est grand et p petite, en prenant comme paramètre = n.p. (En pratique si n> 30 et p <0.1). d) Loi hypergéométrique Définition : Soit une population de N individus, parmi lesquels une proportion p (ce qui correspond à Np individus) possède un certains caractère A. On prélève n individus parmi cette population (tirage sans remise) et on note X le nombre aléatoire d'individus de l'échantillon possédant la propriété envisagée. X suit une loi dite Hypergéométrique. P (X k ) k C Np C Nn kNp C Nn Où; • est le nombre d'échantillons possible de taille n. • est le nombre de groupes possibles de k individus possédant le caractère A . • est le nombre de groupes possibles de nk individus ne possédant pas le caractère A . • E(X)= n.p proportion ». et Var(X)=np(1p) ; p=«la e) Loi géométrique Définition : La loi géométrique est la loi du nombre d’essaies nécessaires pour faire apparaître un événement de probabilité p : P(X = k) =p(1p)k-1, k=1,…, En posant q = 1p , on trouve aisément : E(X)= 1/p et Var(X)= q/p2 On notera X G(p). Correction de continuité Lorsque l’on approche une loi discrète par une loi continue, il convient de faire une correction de continuité que l’on peut résumer avec la formule suivante: pour toute les valeurs xi de X, discrète(X= xi) continue(xi 0,5X xi +0,5) 2.6 Variables aléatoires continues Définition : Une variable aléatoire X sur est dite continue si elle peut prendre toutes valeurs dans un intervalle donné (borné ou nonborné). En générale, toutes les variables qui résultent d’une mesure sont de type continues. Exemple : taille, poids, volume, ... Entre les distributions continues, les plus faciles d'étudier ce sont les absolument continues, ou abusivement, continue, dont la fonction de distribution peut s'exprimer en forme d'intégral: x F(x ) f(t )dt, x La fonction de répartition F(x) est la primitive de la fonction densité de probabilité f(t), et permet d’obtenir les propriétés suivantes: 1) f(x)0; x 2) 3) =1 , si 4) P(a<X ≤ b)= est continue en x Probabilité en un point et en un intervalle Si X est une variable aléatoire absolument continue, alors • En tout point x, on a P(X = x) = 0 et P(X<x)=P(X x) • Pour tout a < b, on a : P(a < X b)= P(a<X< b)= P(a X b)= F(b)F(a) L’aire hachurée en rouge correspond à la probabilité P(0 X 300). L’aire hachuré en vert correspond à la probabilité: P(X>400)=1P(X400)= 1 F(400) Quantile: Définition : On appelle quantile d’ordre p de la variable X la valeur xp telle que FX(xp)=p. Espérance mathématique: Définition : Soit X v.a continue de densité f(x) si Propriétés Les propriétés de l’espérance valent aussi bien pour une variable aléatoire discrète ou une variable aléatoire absolument continue. Si X et Y sont deux variables aléatoires définies sur un même univers Ω, admettant une espérance, alors : E(X+Y)=E(X)+E(Y) E(aX)=aE(X), a Si X0 alors E(X) 0 Si X est un caractère constant tel que : w , X(w)=k alors E(X)=k. Variance Si X est une variable aléatoire ayant une espérance E(X), on appelle variance de X le réel : Var(X) = E([X - E(X)]2)= = = C’est l’espérance mathématique au carré de l’écart à l’espérance mathématique. Propriétés Si X est une variable aléatoire admettant une variance alors : • a , Var(aX) = a2 Var(X) • (a, b) 2, Var(aX +b) = a2Var(X) •Var(X) = 0 X = E(X) Lois de probabilités continues « célèbres » Loi Uniforme Définition: On dit que la variable aléatoire continue X suit une loi uniforme sur l’intervalle [a, b], avec a<b si elle admet pour densité de probabilité. 0 si x a 1 fX (x ) si a x b b a 0 si x b Propriété Les paramètres caractéristiques d’une loi uniforme sur l’intervalle [a, b] avec a<b sont: a b E (X ) 2 b a 2 et Var (X ) 12 Loi Normale C'est une loi très importante pour plusieurs raisons : a) Elle apparaît dans de nombreux problèmes courants (pour les modéliser), b) Bien souvent, on peut approcher une loi par une loi normale, c) De plus, on dispose de la table de ses valeurs à laquelle on se réfère pour des calculs approchés. Synonymes pour cette loi : loi gaussienne, loi de Gauss. Définition : On dit qu'une variable X suit une loi normale de paramètres et 2, notée N(; 2), lorsqu'elle prend ses valeurs dans avec la densité suivante pour x : f, (x ) (x ) exp( ) 2 2 2 2 1 2 Son espérance est E[X] = . Sa variance est Var(X)= 2. La densité est symétrique par rapport à la droite verticale d'abscisse x = . D'une manière générale, si X suit une loi N(; 2), alors aX + b suit une loi N(a.,a2.2). Si X1 et X2 sont normales N(1, 12) et N(2,22) et indépendantes, alors X=X1+X2 ; est aussi normale N(1+2, 12+22) Proposition Si la v.a. X suit une loi N(; 2), alors X suit la loi N(0;1). Y La v.a. Y s'appelle la v.a. centrée réduite associée à X. En fait, pour faire des calculs effectifs de probabilité, grâce à ce résultat, on commencera systématiquement par se ramener d'une loi normale quelconque N(; 2) à la loi normale standard N(0; 1). On pourra alors utiliser la table des valeurs pour cette loi. Règle de calcul de probabilités • Dans l'utilisation de la table de la loi normale standard N(0; 1), on aura des calculs de probabilités a faire. On les fera avec les règles suivantes : P(X=a)=0 P(X<a)= P(Xa) P(X>a)= 1 P(Xa) P(X a)= P(Xa)=1 P(X<a) P( aXa)= 2P(Xa) 1. Table de la loi N(0; 1) (Voir TD) Représentation graphique: La représentation graphique de montre l’influence de la moyenne, tel que l'allure de la courbe se conserve si on change de moyenne. La courbe s'aplatit lorsque la variance augmente, elle se resserre si la variance diminue, le maximum s'ajuste pour que la surface valle 1, le maximum peut dépasser 1. Approximations de lois: Pour n grand (n30) et p n’est pas très petite (en pratique: p 0.1), on approxime la loi binomiale Bin(n; p) par la loi normale (np;npq). Si p<0.1 et n<30, la approximation est acceptable si np>5. Pour grand (>5), on approxime la loi de Poisson () par la loi normale (; ). Lois dérivées de la loi normale Parfois d’autres lois que la loi normale sont utiles dans les approximations (exemple: dans les calculs des intervalles de confiances, des tests d’hypothèses, etc…). Parmi ces lois, le plus fréquent c’est la loi de χ2 (lire khi-deux), la loi de Student et la loi de Fisher. Ces lois dépendent d’un paramètre n entier, appelé degré de liberté (d.d.l.). De même que pour la loi normale N(0, 1), on disposera de tables pour ces lois. Les mêmes règles de calcul que pour la loi normale s’appliqueront pour reexprimer les probabilités qu’on cherchera en des probabilités disponibles dans ces tables. Loi du « chi-deux » ou loi de Pearson » Soit n un entier positif. Une variable aléatoire, absolument continue Xn est dite suivre une loi de 2 («chi-deux») à n degrés de liberté (abréviation d.d.l.) On note 2(n) si sa densité de probabilité fn est définie pour chaque x>0 par: fn (x ) Dn x n 1 2 où Dn est une constante (positive). L’espèrence mathématique respectivement: et E(Xn ) n, l’écart x exp( ). 2 type de var(Xn ) 2n . X sont Propriétés: Si X1, …, Xn sont n variables centrées réduites (N(0,1)) de Gauss indépendantes, la variable aléatoire suit une loi de 2 à n degrés de liberté. Pour n 30, normale N(0,1). suit approximativement une loi C. Loi exponentielle Définition : On dit qu'une variable X suit une loi exponentielle de paramètre , notée (), lorsqu'elle prend ses valeurs dans + = [0;+[ avec la densité et la fonction de répartition suivantes pour x : e x p ( x ) s i x 0 f ( x ) 0 s in o n 1 e x p ( x ) F (x )= 0 E(X ) si x 0 s in o n 1 1 et V ar(X )= 2 En fiabilité cette loi est très utilisée pour représenter la durée de vie de circuits électroniques. L´espérance 1/ est souvent appelé le MTBF (Mean Time Between Faileure) et le taux de défaillance. Forme générale d’une fonction de distribution Toute fonction de distribution F(x) peut être décomposée en: F(x)= F1(x)+(1- ) F2(x) 0 1 (1) où F1(x) est une fonction de distribution continue et F2(x) est une fonction de distribution discrète. Les cas continue et discret restent un cas particulier de (1) pour =1 et =0 respectivement. Si 0< <1 on dit que la distribution est mixte. Aussi on peut exprimer (1) comme: F (x ) x où f1 (t )dt 1 f2 (x i ) f1 (x ) F1' (x ) et x i x f2 (x i ) F2 (x i ) F2 (x i 1 )