Notions de probabilités Professeur Gilles DURRIEU Email : [email protected] Cours Probabilités et Statistique EVENEMENTS -Expérience aléatoire = expérience dont on ne peut ou ne veut pas prévoir complètement le résultat (expérience qui pourra donner des résultats différents si elle est répétée (apparemment dans les mêmes conditions)). - L'ensemble des résultats possibles d'une expérience aléatoire est en général codé de manière à n'en retenir que certains aspects. - Jouer à pile ou face consiste lors du lancer d'une pièce, à ne s'intéresser qu'à la face sur laquelle elle tombe en oubliant le nombre de rotations en l'air, le point de chute... On note W l'ensemble de toutes les valeurs possibles que peut prendre ce codage. Qu'il existe ou non des expériences dont le résultat soit parfaitement imprévisible est un problème de physique ou de philosophie (dieu joue-t-il aux dés ?), mais pas de probabilités^ Le hasard au sens du probabiliste n'est qu'un un choix de modélisation qui consiste à recouvrir d'un voile la complexité des phénomènes que l'on ne maîtrise pas, pour n'en retenir que certains aspects observables. Remarque: Si on maîtrise parfaitement la vitesse initiale du lancer d0une pièce, la résistance de l'air et la hauteur par rapport au sol, alors le problème de savoir sur quelle face elle va tomber devient un problème de mécanique que l'on peut résoudre en théorie ! Loi d'une variable aléatoire Une variable aléatoire est un nombre dépendant du résultat d'une expérience aléatoire. L'enjeu est de déterminer quelles sont ses chances de tomber sur telle ou telle partie de . Cette localisation conduit à associer à toute variable aléatoire une loi de probabilité. On considère 2 type de variables aléatoires : - les variables aléatoires discrètes qui ne prennent qu0un nombre fini ou dénombrables de valeurs (en générale entière), - les variables aléatoires continues peuvent a priori prendre toutes les valeurs dans un intervalle de réels. Déterminer la loi d'une variable aléatoire discrète X c'est - Déterminer l'ensemble des valeurs que peut prendre X noté xk - Calculer P{X=xk} pour chacune de ces valeurs xk . On représente une loi discrète par un diagramme en bâtons (tracer au dessus de l0axe des abscisses xi un segment vertical de longueur proportionnelle à P{X=xk}). Exemples de lois discrètes : Bernouilli, Binomiale, Poisson,^ Loi d'une variable continue Soit X une v.a. à valeurs dans et fX une densité de probabilité sur . On dit que X est une variable aléatoire continue de densité fX si pour tout intervalle A de on a : P{ X A} A f X ( x )dx La loi de la variable aléatoire X est la loi continue sur de densité fX. Exemples de lois continues : Normale, Chi2, Student, Cauchy,^ Fonction de répartition La fonction de répartition d0une v.a. X est la fonction FX de R dans [0;1] qui a x dans associe F X ( x) P X x . - C0est une fonction croissante, continue à droite avec une limite à gauche en tout point qui caractérise la loi lim F X ( x ) x 0 ; lim F X ( x ) 1 x Fonction de répartition dDune loi discrète La fonction de répartition d0une variable aléatoire discrète est une fonction en escalier. Si la v.a. prend les valeurs xk, supposées rangées par ordre croissant, alors la fonction de répartition Fx prend les valeurs : 0 F X ( x) P{ X x1} P{ X x1} P{ X xk } pour x x1 pour x [ x1; x2 [ pour x [ xk ; xk 1[ Fonction de répartition dDune loi continue La fonction de répartition d0une variable aléatoire continue est la primitive de la densité qui s0annule en l0infini. FX ( x ) P{ X x} x f X ( x )dx La fonction quantile d'une v.a. (ou d'une loi de probabilité) est l'inverse de sa fonction de répartition. Q (u ) 1 F (u ) Inf {x : FX ( x ) u} Espérance mathématique On peut interpréter une loi de probabilité comme une répartition de masse. Llespérance d'une loi de probabilité est le barycentre de cette répartition de masse. Pour une loi discrète : E( X ) k xk P{ X xk }, qui est bien le barycentre des points d0abscisse xk, affectés des poids P{X=xk}. Remarque : Soit G une fonction Pour une loi continue : E( X ) x f X ( x )dx E ( ( X )) ( X ) f X ( x )dx ( cas continue) E ( ( X )) k ( xk )P{ X xk } ( cas discret ) Variance On appelle variance de X, et on note Var(X), l>espérance de la variable (X-E(X))2 si elle existe. Mesure de la dispersion. -Var(a X)=a2 Var(X) - Var(X+Y)=Var(X)+Var(Y) + 2 cov(X,Y) -Var(X+a)=Var(X) - Var(aX+b)=a2 Var(X) L'inégalité de Bienaymé-Tchebichev ci-dessous traduit l'idée intuitive que les valeurs prises par X s'écartent d'autant moins de E(X) que Var(X) est plus faible. Var ( X ) 0 P{| X E ( X ) | } . 2 Loi faible des grands nombres Soit X une v.a. admettant une variance. Soit X1,X2, ^., Xn une suite de v.a. indépendantes de même loi que X. Alors n 0, P i 1 Xi n E ( x) n 0 L'idée intuitive est que si on mesure une même quantité aléatoire au cours d'une suite d'expériences indépendantes alors la moyenne arithmétique des valeurs observées va se stabiliser sur l0espérance. Théorème de la limite centrale Soit X1, X2, L, Xn une suite de v.a.indépendantes et de même loi dDespérance mathématique µ et de variance 2 ALORS la statistique n X sDapproche pour n assez grand dDune loi normale de moyenne 0 et de variance 1.