Notions de probabilités

publicité
Notions de probabilités
Professeur Gilles DURRIEU
Email : [email protected]
Cours Probabilités et Statistique
EVENEMENTS
-Expérience aléatoire = expérience dont on ne peut ou
ne veut pas prévoir complètement le résultat
(expérience qui pourra donner des résultats
différents si elle est répétée (apparemment dans les
mêmes conditions)).
- L'ensemble des résultats possibles d'une expérience
aléatoire est en général codé de manière à n'en
retenir que certains aspects.
- Jouer à pile ou face consiste lors du lancer d'une
pièce, à ne s'intéresser qu'à la face sur laquelle elle
tombe en oubliant le nombre de rotations en l'air, le
point de chute... On note W l'ensemble de toutes les
valeurs possibles que peut prendre ce codage.
Qu'il existe ou non des expériences dont le résultat soit
parfaitement imprévisible est un problème de physique ou de
philosophie (dieu joue-t-il aux dés ?), mais pas de probabilités^
Le hasard au sens du probabiliste n'est qu'un un choix de
modélisation qui consiste à recouvrir d'un voile la complexité
des phénomènes que l'on ne maîtrise pas, pour n'en retenir que
certains aspects observables.
Remarque: Si on maîtrise parfaitement la vitesse initiale du
lancer d0une pièce, la résistance de l'air et la hauteur par
rapport au sol, alors le problème de savoir sur quelle face elle
va tomber devient un problème de mécanique que l'on peut
résoudre en théorie !
Loi d'une variable aléatoire
Une variable aléatoire est un nombre dépendant du
résultat d'une expérience aléatoire. L'enjeu est de
déterminer quelles sont ses chances de tomber sur telle ou
telle partie de . Cette localisation conduit à associer à
toute variable aléatoire une loi de probabilité.
On considère 2 type de variables aléatoires :
- les variables aléatoires discrètes qui ne
prennent qu0un nombre fini ou dénombrables de valeurs (en
générale entière),
- les variables aléatoires continues peuvent a
priori prendre toutes les valeurs dans un intervalle de réels.
Déterminer la loi d'une variable aléatoire discrète X
c'est
- Déterminer l'ensemble des valeurs que peut
prendre X noté xk
- Calculer P{X=xk} pour chacune de ces valeurs
xk .
On représente une loi discrète par un diagramme en bâtons
(tracer au dessus de l0axe des abscisses xi un segment
vertical de longueur proportionnelle à P{X=xk}).
Exemples de lois discrètes : Bernouilli, Binomiale, Poisson,^
Loi d'une variable continue
Soit X une v.a. à valeurs dans et fX une densité de probabilité sur
. On dit que X est une variable aléatoire continue de densité fX si
pour tout intervalle A de on a :
P{ X
A}
A
f X ( x )dx
La loi de la variable aléatoire X est la loi continue sur
de densité fX.
Exemples de lois continues : Normale, Chi2, Student,
Cauchy,^
Fonction de répartition
La fonction de répartition d0une v.a. X est la fonction FX de
R dans [0;1] qui a x dans
associe
F X ( x)
P X
x .
- C0est une fonction croissante, continue à droite avec une
limite à gauche en tout point qui caractérise la loi
lim F X ( x )
x
0 ; lim F X ( x ) 1
x
Fonction de répartition dDune loi discrète
La fonction de répartition d0une variable aléatoire discrète
est une fonction en escalier. Si la v.a. prend les valeurs xk,
supposées rangées par ordre croissant, alors la fonction de
répartition Fx prend les valeurs :
0
F X ( x)
P{ X
x1}
P{ X
x1}
P{ X
xk }
pour
x
x1
pour
x [ x1; x2 [
pour
x [ xk ; xk 1[
Fonction de répartition dDune loi continue
La fonction de répartition d0une variable aléatoire continue
est la primitive de la densité qui s0annule en l0infini.
FX ( x )
P{ X
x}
x
f X ( x )dx
La fonction quantile d'une v.a. (ou d'une loi de probabilité) est
l'inverse de sa fonction de répartition.
Q (u )
1
F (u )
Inf {x : FX ( x )
u}
Espérance mathématique
On peut interpréter une loi de probabilité comme une
répartition de masse. Llespérance d'une loi de probabilité est
le barycentre de cette répartition de masse.
Pour une loi discrète :
E( X )
k
xk P{ X
xk },
qui est bien le barycentre des points d0abscisse xk, affectés
des poids P{X=xk}.
Remarque : Soit G une fonction
Pour une loi continue :
E( X )
x f X ( x )dx
E ( ( X ))
( X ) f X ( x )dx ( cas continue)
E ( ( X ))
k
( xk )P{ X
xk } ( cas discret )
Variance
On appelle variance de X, et on note Var(X), l>espérance de la variable
(X-E(X))2 si elle existe.
Mesure de la dispersion.
-Var(a X)=a2 Var(X)
- Var(X+Y)=Var(X)+Var(Y) + 2 cov(X,Y)
-Var(X+a)=Var(X)
- Var(aX+b)=a2 Var(X)
L'inégalité de Bienaymé-Tchebichev ci-dessous traduit l'idée intuitive
que les valeurs prises par X s'écartent d'autant moins de E(X) que
Var(X) est plus faible.
Var ( X )
0 P{| X E ( X ) | }
.
2
Loi faible des grands nombres
Soit X une v.a. admettant une variance. Soit X1,X2, ^., Xn
une suite de v.a. indépendantes de même loi que X. Alors
n
0, P
i 1
Xi
n
E ( x)
n
0
L'idée intuitive est que si on mesure une même quantité
aléatoire au cours d'une suite d'expériences indépendantes
alors la moyenne arithmétique des valeurs observées va se
stabiliser sur l0espérance.
Théorème de la limite centrale
Soit X1, X2, L, Xn une suite de v.a.indépendantes
et de même loi dDespérance mathématique µ et de
variance 2 ALORS la statistique
n
X
sDapproche pour n assez grand dDune loi normale de
moyenne 0 et de variance 1.
Téléchargement