Variable aléatoire

publicité
Rappel de statistiques
F. d’Alché-Buc
Email: [email protected]
I Rappels de probabilistés
1. Modèle probabiliste
Expérience aléatoire
évènement
2. Théorie des probabilités
3. Variables aléatoires
Exemples
Définitions
Variables continues
Moments
Suite de variables aléatoires
Loi des grands nombres
Théorème central-limite
Outils probabilistes (suite)
Simulation de lois
IV. Couple de variables aléatoires
Lois jointes, marginales, conditionnelles
V. Vecteurs aléatoires
Définitions
Espérance et matrice de variance-covariance
La loi multinormale
Formes quadratiques
Modélisation probabiliste
Expérience aléatoire
: expérience dont on ne peut prévoir
à l’avance le résultat et qui, répétée dans des conditions identiques
peut donner ou aurait donné lieu à des résultats différents [Saporta ]
Résultat d’une expérience aléatoire :
 élément de l’ensemble de tous les résultats possibles W
(univers des possibles)
Exemple d’expérience aléatoire:
-Réception d’un message électronique
-Visualisation d’une image acquise par rayons X
-Mesure des conditions d’utilisation d’un appareil portable au temps t
Définitions
Evénement : assertion relative au résultat de l’expérience.
Un événement est réalisé si l’assertion est vraie après
l’accomplissement de l’expérience. On identifie un événement à la
partie de W pour laquelle l’événement est réalisé :
Événement = sous-ensemble C de W
Evénement élémentaire :
partie de réduite à un seul élément.
Loi de probabilité :
régit l’issue d’une expérience aléatoire
Exemple:
expérience = 1 lancer de deux dés
Evénement : somme des faces des 2 dés > 10
soit l’ensemble A = {(5,6), (6,5), (6,6)}
Quelle est la probabilité pour que cet événement
se réalise ?
Définition de la loi P qui régit
l’issue de l’expérience
Probabilités des événements élémentaires =1/6
Probabilité de l’événement E :
P(E) = P({(5,6), (6,5), (6,6)})= 3/36 = 1/12
Rappels. Théorie des
probabilités
Définition : Soit A la tribu des parties de W .
On appelle probabilité sur (W,A) ou
loi de probabilité une application P de A
dans [0,1] telle que :
[Axiomatique de Kolmogorov]
P(W) = 1
P( U Ai) = S P(Ai)
pour tout sous ens. dénombrable, disjoint, Ai
Tribu A
Classe des parties de W vérifiant :
_
.    A, A  A
.  1,...,n  A, Ai dénombrable ou finie, U Ai  A
. W  A.
9
Propriétés d’une loi de
probabilité
• P() = 0
• P(A) = 1 - P(A)
• P(A)  P(B) si A 
• P(A  B) = P(A) + P(B) - P(A  B)
10
Probabilité conditionnelle et
indépendance
Loi de probabilité conditionnelle
Soit B un événement de probabilité non nulle.
P(A| B) = P(AP(
Indépendance de deux événements
Définition : A est indépendant de B si P(A|B) = P(A)
Propriété :
P(A  P(A).P(B) ssi A et B sont indépendants
Formule de Bayes
P(A|B).P(B)
P(B|A) =
P(A)
2. Variables aléatoires
variable aléatoire : «grandeur» variant selon le
résultat d’une expérience aléatoire
. somme des faces de deux dés (discrète)
. distance entre le point d’impact d’une flèche
et la cible (continue)
. [ kilométrage parcouru retard du bus]
(vecteur aléatoire de dimension 2)
Variable aléatoire : exemple de la somme des
faces de deux dés
Une v.a X associe aux évènements
possibles une valeur dans IR
X
 = (i,j)
j
i
X() =i+j
Exemple
point d’impact d’une fléchette sur une cible
IR+
d2 = x2 +y2
 = [x y]
W: ensemble des événements élémentaire
W : ici, points d’impact de fléchettes sur une cible
IR+
d2 = x2 +y2
X-1(B)
 = [x y]
B = [0, 9]
X-1(B)
est noté (X
 B)
Soit P définie sur (W, A)
On s’intéresse à
P(X  B)
Définition d’une variable
aléatoire réelle
une variable aléatoire réelle est une application
mesurable de (W, A,P) dans (IR,B(IR)) telle que :
Pour tout B appartenant à B(IR) ,
X-1(B) = {  W  X(  B   A
l’ensemble
X-1(B)
est noté (X B)
v.a. discrète ou continue
X(W) fini ou dénombrable : v.a. discrète
X(W) non dénombrable : v.a. réelle
Au tableau : distribution, densités,…
Loi gaussienne (normale)
Variable gaussienne (loi
gaussienne)
p(x) =
1
s  2p
exp ( -(x-m)2 )
2 s2
espérance E[X] = m
varianceV[X] = s2
Les paramètres de la v.a. gaussienne
sont exactement son espérance et
sa variance
Variable gaussienne
La loi gaussienne s’appelle aussi la loi normale
-c’est la v.a. qui généralise à l’incertain
une valeur certaine
Exemple :
L’heure du cours est fixée à 9h30
( modélisation sans incertitude)
L’heure du cours est une v.a. gaussienne
Centrée en 9h30 et de variance 3 minutes
( modélisation avec incertitude)
Valeurs remarquables de la loi
normale
P(m -1.64 s < X < m + 1.64 s) = 0.90
P(m -1.96 s < X < m + 1.96 s) = 0.95
P(m -3.09 s < X < m + 3.09 s) = 0.99
Suites de variables aléatoires
Convergence presque sûre : P(lim Xn = X ) = 1
n
Convergence en probabilité : lim P[ | Xn – X | > e ] = 0
n
Convergence en moyenne quadratique :
Lim E[ (Xn –X)2] = 0
n
Convergence en distribution ou en loi :
Lim FXn(t) = FX(t)
n
La loi des grands nombres
Soit X définie comme la moyenne de n variables
indépendantes (X1,…Xn) de même espérance m et de
même variance s2. Alors quand n tend vers l’infini,
cette v.a. converge en espérance vers m.
lim E[X] = m
n

Théorème de la limite centrée
dit théorème central-limite
Supposons maintenant les variables
seulement i.i.d
Alors la variable n(X - E[Xi] )converge en probabilité
(sa distribution converge) vers une loi normale avec
espérance 0 et variance Var[Xi].
Quand on moyenne à l’infini, on aboutit
à une gaussienne
Simulation de lois
Loi normale
. la somme de n variables uniforme est
approximativement une loi normale (central-limite)
d’espérance n/2 et de variance n/12
(loi uniforme d ‘espérance 1/2 et de variance 1/12)
>> méthode de simulation
Simulation d’une loi
gaussienne
il faut n supérieur ou égal à 12
n = 12
pour obtenir une réalisation de N(6,1) ajouter 12 nombres tirés
aléatoirement entre 0 et 1.
Cas général N(m,s)
x1, ... x12 tirés
x = m + s . (S xi - 6)
Simulation d’une loi de densité f
par la méthode du rejet
f finie à support bornée
on suppose X compris entre 0 et 1
Soit m un majorant de f(x).
On tire un nombre u uniformément entre 0 et 1 et ensuite v
uniformément entre 0 et m.
Si v < f(u), on conserve u qui est une réalisation de X sinon
on rejette u et on recommence.
II. Introduction à l’inférence
statistique
Estimation de paramètres
1. Définition
2. Notions d’échantillon, d’estimateur ponctuel
3. Qualités souhaitables d’un estimateur ponctuel
4. Estimation par intervalle de confiance
29
Statistique
Une statistique T est une variable aléatoire, fonction
mesurable de (X1,…,Xn).
Echantillon de taille n
N réalisations d’une loi P,
identiquement, indépendamment distribuées
Estimateur
Soit (X1,…,Xn) un n-échantillon issu d’une v.a. parente de
densité f(x;q) de paramètre q
Un estimateur de q est une statistique
Tn = .. qui prend ses valeurs dans l’ensemble des
valeurs possibles de q.
Estimation
Soit (x1,…,xn) une réalisation de (X1,…,Xn).
T(x1,…,xn) est une estimation de q
Exemple : donner une estimation de l’espérance d’une
variable X
Biais d’un estimateur
Biais : E[T] – q soit E[T – q ]
On souhaite évidemment des estimateurs sans biais
Efficacité des estimateurs :
1. Cas sans biais
Pour les estimateurs sans biais,
la précision de l’estimateur est mesurée par la variance
On souhaite que l’estimateur sans biais
Soit de variance minimale
(voir schéma au tableau)
Efficacité des estimateurs sans
biais
Soient deux estimateurs T et U sans biais
L’efficacité de T comparée à U est :
Var(U)
Var(T)
Efficacité des estimateurs
2. Cas général (biais non nul)
L’efficacité des estimateurs biaisés est mesurée
par l’espérance de l’erreur quadratique.
En effet, on a :
E [(Tn – q)2] = Var [Tn – q] + (E[Tn – q]2
Espérance de l’erreur quadratique
= Biais2 + variance
Estimateur le plus efficace
Celui qui minimise l’erreur quadratique
moyenne
Propriété de consistance
( ou convergence)
Finit-on par atteindre la valeur cible quand on dispose
d’un échantillon infini ?
définition : un estimateur Tn de q est consistant ou convergent
si : e >0, P( | Tn - q  > e  tend vers 0 quand n tend vers
l’infini
Propriété : si E[Tn ] converge vers q et Var[Tn ] converge vers 0
alors Tn est consistant.
définition : si E[Tn ] converge vers q quand n tend vers
l’infini, Tn est dit asymptotiquement sans biais.
38
Consistance en moyenne
quadratique
Si E [(Tn – q)2] converge vers 0 quand n tend vers l’infini
Critères de qualité d’un estimateur
sans biais
efficacité, espérance de l’erreur quadratique
convergent :
quand la taille n de l’échantillon tend vers l’infini,
la probabité pour que T(x1,...,xn) diffère de q tend vers 0
40
Téléchargement