1 Lois et génération d`échantillons

publicité
Master 1 GSI - Mentions ACCIE et RIM - ULCO, La Citadelle, 2012/2013
Mesures et Analyses Statistiques de Données - Probabilités
TP 2 - Probabilités sous R
1
Lois et génération d’échantillons
1.1
Généralités
1. Génération d’échantillons aléatoires à partir d’un vecteur :
> vect<-seq(3,12) ; sample(vect,5)
fournit un échantillon aléatoire de 5 valeurs prises dans le vecteur donné, sans remise (la taille de l’échantillon doit être inférieure à la taille du vecteur).
> sample(vect,5,replace=TRUE)
fournit un échantillon aléatoire de 5 valeurs prises dans le vecteur donné, mais avec remise.
> sample(vect)
fournit un échantillon aléatoire de length(vect) valeurs prises dans vect (c’est-à-dire une permutation).
> sample(10,5)
fournit un échantillon aléatoire de 5 valeurs parmi les 10 premiers entiers (i.e. parmi seq(1,10)).
> sample(seq(1,4),3,prob=c(0.1,0.2,0.3,0.4),replace=TRUE)
fournit un échantillon aléatoire de 3 valeurs prises parmi le vecteur donné, chaque valeur étant choisie
avec une probabilité proportionnelle aux valeurs données dans l’argument prob. La somme des poids n’a
pas besoin d’être 1.
2. Génération d’un échantillon gaussien :
> rnorm(100,0,1)
retourne un vecteur de 100 valeurs tirées d’une distribution gaussienne de moyenne 0 et d’écart-type 1.
> rnorm(100,mean=0,sd=1)
réalise la même chose.
> rnorm(1000,mean=c(0,3),sd=c(0.5,1))
permet d’obtenir une distribution de valeurs bimodale.
3. Génération d’un échantillon suivant une loi uniforme :
> runif(100,0,5)
retourne 100 valeurs issues d’une distribution uniforme entre 0 et 5.
> runif(100,min=0,max=5)
réalise la même chose.
1/9
> runif(100,c(0,1),c(5,7))
permet d’avoir la superposition de 2 distributions uniformes.
4. Tables de lois de probabilités : pour chaque loi (par exemple, la loi normale : norm), on a :
– La fonction de densité de probabilité, préfixe "d" : dnorm (la courbe en cloche).
– La fonction de probabilité qui varie entre 0 et 1, préfixe "p" : pnorm ( pnorm(x) est la probabilité d’avoir
une valeur inférieur à x).
– La fonction quantile qui est l’inverse de la fonction de probabilité, préfixe "q" : qnorm ( qnorm(y) est la
valeur pour laquelle la probabilité d’être inférieure à cette valeur est y, donc qnorm(pnorm(x))=x).
– La fonction de génération de nombres aléatoires, préfixe "r" : rnorm (génère des nombres aléatoires suivant
la loi). Le premier argument est la taille de l’échantillon souhaité.
5. Lois pour lesquelles les fonctions d, p, q et r sont disponibles :
Les d, p, q et r disponibles dans la distribution standard de R sont donnés dans la table 1, ceux disponibles
dans le package SuppDists sont donnés dans la table 2.
beta
binom
cauchy
chisq
exp
f
gamma
geom
hyper
lnorm
logis
nbinom
norm
pois
signrank
t
unif
weibull
wilcox
d
p
q
r
dbeta
dbinom
dcauchy
dchisq
dexp
df
dgamma
dgeom
dhyper
dlnorm
dlogis
dnbinom
dnorm
dpois
dsignrank
dt
dunif
dweibull
dwilcox
pbeta
pbinom
pcauchy
pchisq
pexp
pf
pgamma
pgeom
phyper
plnorm
plogis
pnbinom
pnorm
ppois
psignrank
pt
punif
pweibull
pwilcox
qbeta
qbinom
qcauchy
qchisq
qexp
qf
qgamma
qgeom
qhyper
qlnorm
qlogis
qnbinom
qnorm
qpois
qsignrank
qt
qunif
qweibull
qwilcox
rbeta
rbinom
rcauchy
rchisq
rexp
rf
rgamma
rgeom
rhyper
rlnorm
rlogis
rnbinom
rnorm
rpois
rsignrank
rt
runif
rweibull
rwilcox
Table 1 – Les lois de probabilité définies dans R
.
Friedman
ghyper
invGauss
Johnson
Kendall
KruskalWallis
maxFratio
NormScore
Pearson
Spearman
d
p
q
r
dFriedman
dghyper
dinvGauss
dJohnson
dKendall
dKruskalWallis
dmaxFratio
dNormScore
dPearson
dSpearman
pFriedman
pghyper
pinvGauss
pJohnson
pKendall
pKruskalWallis
pmaxFratio
pNormScore
pPearson
pSpearman
qFriedman
qghyper
qinvGauss
qJohnson
qKendall
qKruskalWallis
qmaxFratio
qNormScore
qPearson
qSpearman
rFriedman
rghyper
rinvGauss
rJohnson
rKendall
rKruskalWallis
rmaxFratio
rNormScore
rPearson
rSpearman
Table 2 – Les lois de probabilité définies dans le package SuppDists
Précisons l’utilisation de ces fonctions dans les cas les plus fréquents :
– [dpqr]norm(x,mean=0,sd=1) : loi normale.
– [dpqr]unif(x,min=0,max=1) : loi uniforme.
– [dpqr]chisq(x,df,ncp=0) : loi du chi2.
2/9
–
–
–
–
–
–
–
[dpqr]t(x,df) : loi t de Student.
[dpqr]f(x,df1,df2,ncp) : loi F.
[dpqr]exp(x,rate=1) : loi exponentielle.
[dpqr]gamma(x,shape,rate=1,scale=1/rate) : loi gamma.
[dpqr]binom(x,size,prob) : loi binomiale (x doit être entier pour dbinom, sinon le résultat est 0).
[dpqr]dpois(x,lambda) : loi de Poisson (x doit être entier pour dpois, sinon le résultat est 0).
Autres lois : beta, cauchy, geom (géométrique), hyper (hypergéométrique), lnorm (log-normale),
logis (logistique), nbinom (négative binomiale), weibull, wilcox.
6. Quantiles :
> vect=c(seq(1 :11))
> quantile(vect,probs=seq(0,1,0.1))
donne les 11 valeurs qui déterminent les intervalles de déciles (autant de valeurs renvoyées que de valeurs de probs).
> quantile(vect,probs=c(0,1))
équivalent simplement à range(vect) (min et max).
> quantile(vect,probs=c(0.5))
c’est simplement la médiane !
1.2
[dpqr]
Exercice 1
1. Donnez toutes les valeurs de la loi binomiale pour n = 10 et p = 1/3 avec une précision de 10−7 .
2. Même chose avec une précision de 10−4 .
3. Quelle est la probabilité d’obtenir 1 avec une loi binomiale pour n = 1 et p = 1/3 ?
4. Quelle est la probabilité d’obtenir plus de 45 et moins de 55 avec une loi binomiale pour n = 100 et p = 1/2 ?
(Aidez-vous de l’aide ?dbinom)
5. Quelle est la probabilité d’obtenir au plus 1 avec une loi binomiale pour n = 10 et p = 1/3 ?
On notera que d donne les valeurs P (X = j) (densité, définie pour les valeurs possibles) et que p donne les
valeurs P (X ≤ x) (fonction de répartition, définie pour tout x ).
Exercice 2
1. Quelle est la probabilité de dépasser strictement 4 pour une loi de Poisson de paramètre 2, 7 ?
2. Quelle est la probabilité de dépasser 1, 96 pour une loi normale centrée réduite ?
3. Quelle est la valeur x telle que P (X ≤ x) = 0, 975 pour une loi normale (quantile) ?
Exercice 3
1. Donnez un échantillon aléatoire simple de 10 valeurs d’une loi de Poisson de paramètre 2, 7,
2. d’une loi normale réduite,
3. d’une loi Khi2 à 2 ddl,
4. d’une loi binomiale n = 100 et p = 1/2.
La Figure 1 illustre l’utilisation de [dpqr] dans le cas d’une loi binomiale p
avec n = 20 et p = 0, 5 et de son
approximation par une loi continue, la loi normale de paramètres m = np et σ = np(1 − p). d donne la fonction de
densité de probabilité, c’est-à-dire les valeurs P (X = j). Notez la différence entre la loi discrète et la loi continue :
dans le cas de la loi discrète la fonction n’est définie que pour les valeurs possibles (0, 1, 2, . . . , n). p donne la
fonction de répartion, c’est-à-dire P (X ≤ j). Elle est définie partout, aussi bien pour la loi discrète que pour la loi
continue. q donne les quantiles, c’est la fonction réciproque de la fonction de répartition. r donne un échantillon
pseudo-aléatoire.
3/9
Figure 1 – Illustration de d p q r
Exercice 4 Que font ces lignes de commande ? Indiquez ce que R vous retourne.
> qnorm(0.975) ;
> dnorm(0)
> pnorm(1.96)
> rnorm(20)
> rnorm(10,mean=5,sd=0.5)
> x=seq(-3,3,0.1) ;pdf=dnorm(x) ;plot(x,pdf,type="l")
> runif(3)
> rt(5,10)
Remarque 1.1
1. On a écrit x=seq(-3,3,0.1). Ici x est un nom de variable. Les noms de variables sont
trèes flexibles. N’importe quelle variable peut stocker n’importe quelle valeur (il n’y a pas besoin de déclarer
les variables). Cependant, il faut savoir que :
– les noms de variables ne peuvent pas commencer par un chiffre ou un caractère spécial,
– les noms sont sensibles à la casse des caractères. Un caractère minuscule comme x est différent d’un
caractère majuscule comme X.
– quelques noms courants sont déjà utilisés par R, par exemple c, q, t, C, D, F, I, T et par conséquent
doivent être évités. La liste des noms prédéfinis dans la bibliothèque de base peut être consultée ainsi :
> noms <- ls("package :base")
> length(noms)
Combien y en a-t-il d’installés sur l’ordinateur avec lequel vous travaillez ? Si vous souhaitez les voir
apparaître à l’écran, tapez noms.
2. Dans cette liste de commandes, l’opérateur = a été utilisé. Comme la plupart des langages de programmation,
R a des variables auxquelles on peut affecter une valeur. Pour cela, on utilise l’opérateur <- ou ->. L’opérateur
classique = marche aussi.
3. De plus dans cette liste de commandes, deux fonctions sont intervenues :
– seq()
– plot()
Vous remarquerez que les appels aux fonctions sous R sont indiqués par la présence de parenthèses. De plus,
length() et ls() sont aussi des fonctions. Pour en savoir d’avantage sur ces fonctions, tapez ?sujet que
4/9
nous pouvons aussi écrire help(sujet). Toutes les fonctions de R ont une page d’aide. Quand vous connaissez
le nom de la fonction ou du sujet qui vous intéresse, c’est en général le meilleur moyen d’apprendre à l’utiliser.
Les pages d’aide sont généralement très détaillées. Elles contiennent souvent, entre autres :
– Une section See Also qui donne les pages d’aide sur des sujets apparentés.
– Une section Description de ce que fait la fonction.
– Une section Examples avec du code illustrant ce que fait la fonction documentée. Ces exemples peuvent
être exécutés directement en utilisant la fonction example(), essayez par exemple :
> example(plot)
4. La manière la plus simple de produire des graphiques sous R est d’utiliser la fonction plot().
> plot(weight∼height, data=women)
Les fonctions graphiques comportent de nombreuses options qui permettent de contrôler de façon très fine
les graphiques. Par exemple, les paramètres de la fonction plot() utilisées par défaut sont :
> args(plot.default)
function (x, y = NULL,
log = "", main = NULL,
ann = par("ann"), axes
panel.last = NULL, asp
NULL
type = "p", xlim = NULL, ylim = NULL,
sub = NULL, xlab = NULL, ylab = NULL,
= TRUE, frame.plot = axes, panel.first =NULL,
= NA, ...)
L’argument . . . signifie qu’il y a encore d’autres paramètres graphiques possibles. Ils sont contrôlés par la
fonction par().
> names(par())
[1] "xlog" "ylog" "adj" "ann" "ask" "bg"
[7] "bty" "cex" "cex.axis" "cex.lab" "cex.main" "cex.sub"
[13] "cin" "col" "col.axis" "col.lab" "col.main" "col.sub"
[19] "cra" "crt" "csi" "cxy" "din" "err"
[25] "family" "fg" "fig" "fin" "font" "font.axis"
[31] "font.lab" "font.main" "font.sub" "gamma" "lab" "las"
[37] "lend" "lheight" "ljoin" "lmitre" "lty" "lwd"
[43] "mai" "mar" "mex" "mfcol" "mfg" "mfrow"
[49] "mgp" "mkh" "new" "oma" "omd" "omi"
[55] "pch" "pin" "plt" "ps" "pty" "smo"
[61] "srt" "tck" "tcl" "usr" "xaxp" "xaxs"
[67] "xaxt" "xpd" "yaxp" "yaxs" "yaxt"
On donne ci-dessous un exemple de graphique utilisant quelques options :
> plot(weight height, pch=19, col="royalblue3",
+ las=1,main="Weight vs. height", xlab="Height",
+ ylab=Weight", data="women")
Il existe une autre fonction que plot() pour faire des graphiques. Cette fonction est la fonction curve().
2
Loi binomiale
Soit X une variable aléatoire suivant une loi binomiale. La
d’obtenir k succès pour n essais indé probabilité
n k
n−k
pendants avec une probabilité p de succèes est : P (X = k) =
p (1 − p)
, 0 ≤ k ≤ n.
k
Si on pose m = np et σ 2 = np(1 − p), la loi binomiale normalisée est définie par :
n−m
0−m 1−m
,
,...,
,
φ• = ϕ•0 =
σ
σ
σ
et
5/9
P (ϕ•k ) =
n k
p (1 − p)n−k , 0 ≤ k ≤ n.
k
L’espérance vaut 0 et la variance vaut 1.
Exemple 2.1 On peut comparer par exemple les lois binomiales normalisées pour p = 1/3 et n = 5, 20, 50, 100, 200,
500, 1000, 5000. Pour cela, écrivez la fonction ci-dessous puis appliquez la aux différentes valeurs de n proposées.
loibin<-function(n,p)
y<-dbinom(0 :n, n, p)
x<-((0 :n)-n*p)/sqrt(n*p*(1-p))
etiq0<-paste("n=",n)
plot(x,y,xlab=etiq0,ylab="",type="h",xlim=c(-3,3))
old.par<-par(no.readonly=TRUE)
effectif<-c(5,20,50,100,200,500,1000,5000)
par(mfrow=c(2,4))
par(mar=c(5,4,1,2))
sapply(effectif,loibin,p=1/3)
par(old.par)
Exercice 5
1. Rappelez la définition de la loi de Bernoulli B(p), et des lois binomiales B(n, p).
2. On cherche à représenter sur un même graphique les probabilités P (X = k) en fonction de k ∈ N pour les
lois B(j, 0.4), j variant de 1 à 5.
(a) Expliquez pourquoi il suffit de se restreindre à k ∈ {1, . . . , 5}. Définissez un vecteur x dont les composantes sont les entiers de 0 à 5.
(b) En utilisant des boucles du type for(j in 1 :6){. . .} et des conditions du type if(j<=i+1){. . .},
définissez une matrice A de dimension 5×6 telle que ∀i ∈ {1, . . . 5}, ∀j ∈ {1, . . . , 6}, Ai,j = P (Xi = j −1)
avec Xi
B(i, 0.4).
(c) Représentez graphiquement à l’aide des fonctions plot et points avec l’option type="h" la matrice A.
3. Représentez sur un même graphique les fonctions de répartition des lois B(1, 0.4) et B(5, 0.4) en utilisant les
fonctions plot et lines avec l’option type="s". On pourra utiliser la commande sum. Pourquoi ce choix de
fonction en escalier ?
3
Loi normale
3.1
Généralités
Z
Si X
x
N (0, 1) on a P (X ≤ x) =
−∞
t2
1
√ e− 2 dt.
2π
Si X suit une loi normale de moyenne m et de variance σ 2 si
X −m
suit une loi normale centrée réduite.
σ
Exercice 6
Vérifiez par le calcul qu’on a
Z +∞
t2
1
√ te− 2 dt = 0,
• m = E(X) =
−∞
Z +∞ 2π
t2
1
√ t2 e− 2 dt = 1.
• σ 2 = E(X 2 ) =
2π
−∞
Exercice 7 Représentez sur un même graphique, à l’aide de 500 valeurs réparties uniformément sur [−3, 3],
la courbe de densité et la fonction de répartition de la loi normale centrée réduite.
3.2
Tests de normalité
En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou
non. Les tests de normalité sont des cas particuliers des tests d’adéquation (ou tests d’ajustement, tests permettant
de comparer des distributions), appliqués à une loi normale.
Ces tests prennent une place importante en statistiques. En effet, de nombreux tests supposent la normalité des
6/9
distributions pour être applicables. En toute rigueur, il est indispensable de vérifier la normalité avant d’utiliser
les tests. Cependant, de nombreux tests sont suffisamment robustes pour être utilisables même si les distributions
s’écartent de la loi normale.
Il existe un grand nombre de tests de normalité :
– le test d’adéquation du χ2 ,
– les tests basés sur la fonction de répartition empirique : le test de Kolmogorov-Smirnov et son adaptation le
test de Lilliefors, ou le test de Anderson-Darling et le test de Cramer-Von Mises,
– les tests basés sur les moments, comme le test de Jarque-Bera ou le test D’Agostino’s K-squared,
– ou encore le test de Shapiro-Wilk, ou le test de Shapiro-Francia.
Les tests de normalité sont des tests d’hypothèse. En notant F (x) la fonction de répartition basée sur les données
à analyser et F0 (x) la fonction de répartition théorique, les hypothèses nulle et alternative peuvent s’écrire :
H0 : F (x) = F0 (x)
.
H1 : F (x) 6= F0 (x)
Les tests sur les moments ont une hypothèse moins forte, ils ne testent pas si la fonction de répartition est normale,
mais si les moments (coefficients d’asymétrie et d’aplatissement) de la distribution inconnue sont identiques à
ceux d’une loi normale. On remarquera que ce n’est pas suffisant pour caractériser une loi normale (problème des
moments).
1. Le test de Kolmogorov-Smirnov.
On remarquera que le test du χ2 est très bien adapté à des variables à r classes non ordonnées. En effet, la
statistique sur laquelle se fonde le test ne tient pas compte d’un éventuel ordre des r classes.
Si l’on veut utiliser cette propriété, on peut utiliser un autre test d’ajustement : le test de KolmogorovSmirnov. Ce test est basé sur la comparaison de la fonction cumulative de fréquences n de l’échantillon
et celle de F de la population donnée. La plus grande divergence en valeur absolue existant entre ces deux
distributions est recherchée. La référence à la distribution d’échantillonage de D est connue. La statistique
sur laquelle est fondée ce test est
D = sup |N − F | = sup |N (t) − F (t)|
t∈R
c’est-à-dire le maximum de la valeur absolue de la différence entre la fonction de répartition F de la loi sur
laquelle on veut faire l’ajustement et la fonction de répartition empirique (ou fonction cumulative observée)
définie par l’échantillon (x1 , . . . , xn ).
Proposition 3.1 Test de Kolmogorov-Smirnov
– L’hypothèse à contrôler : “X a pour fonction de répartition F ".
– Fonction discriminante :
D = supt∈R |Fn (t) − F (t)|
– Valeur critique : Dn,α lue dans la table de Kolmogorov-Smirnov, la loi de D dépendant uniquement de la
taille n de l’échantillon. Cette loi est tabulée (voir la table I) pour n variant de 1 à 40.
Pour des valeurs de n supérieures à 40, on utilise la convergence de la loi de D vers une loi indépendante
de n quand n croît :
+∞
X
√
2 2
lim p sup n|FN (t) − F (t)| < α = 1 − 2
(−1)k+1 e−2k α
n→+∞
t
k=1
pour tout α positif.
– Test : si D > Dn,α , l’hypothèse H0 est rejetée avec le risque d’erreur α et le niveau de confiance est
P = 1 − α.
– Conclusion :
• Si D ≤ Dn,α , alors la distribution suit une loi normale.
• Si D > Dn,α , alors la distribution ne suit pas une loi normale.
Ce qui importe, c’est qu’en pratique, dès que n est supérieur à 40, on peut utiliser une loi unique et par suite,
les valeurs correspondant aux seuils de signification 20%, 15%,. . . ,1% forment
une seule ligne de la table, la
√
dernière, à condition bien-sûr d’effectuer dans chaque cas la division par n où n est le nombre d’observations.
Exercice 8
(a) Lors d’une expérience, les résultats observés sur un échantillon de 8 sujets sont les suivants :
Sujet
s1
s2
s3
s4
s5
s6
s7
s8
xi
5
7
8
11
12
13
13
15
7/9
On veut étudier la normalité de la distribution des résultats dans la population parente. À l’aide d’un
tableur, on construit le tableau suivant :
X
Z
Ñ (X)
N (X)
F (X)
|Ñ (X) − F (X)|
|N (X) − F (X)|
5
7
8
11
12
13
13
15
-1,5877
-1,0104
-0,7217
0,1443
0,4330
0,7217
0,7217
1,2990
0
0,125
0,25
0,375
0,5
0,625
0,75
0,875
0,125
0,25
0,375
0,5
0,625
0,75
0,875
1
0,0562
0,1562
0,2352
0,5574
0,6675
0,7648
0,7648
0,9030
0,0562
0,0938
0,0148
0,1824
0,1675
0,1398
0,0148
0,028
0,0688
0,0938
0,1398
0,0574
0,0425
0,0148
0,1102
0,0970
Maximum
0,1824
Justifiez la construction de ce tableau et utilisez le test de Kolmogorov-Smirnov pour apporter une
réponse au problème posé.
(b) Sur un échantillon prélevé au hasard dans une autre population, les résultats observés sont :
Sujet
s1
s2
s3
s4
s5
s6
s7
s8
xi
5
5,5
5,5
6
14
16
16
17
Le tableau de calcul, partiellement rempli, est le suivant :
X
Z
Ñ (X)
5
5,5
5,5
6
14
16
16
17
-1,0141
-0,9239
-0,9239
-0,8338
0,6085
0,9690
0,9690
10,625
5,5469
Moyenne
Ec. type cor.
N (X)
F (X)
0,125
0,25
0,375
0,5
0,625
0,75
0,875
1
0,1553
0,1778
0,1778
0,2022
0,7286
|Ñ (X) − F (X)|
|N (X) − F (X)|
0,0303
0,0722
0,1972
0,2978
0,1036
Maximum
Complétez ce tableau et utilisez de même le test de Kolmogorov-Smirnov pour étudier la normalité de
la variable dépendante étudiée.
2. Le test de Shapiro-Wilk.
Le test de Shapiro-Wilk est valable pour des tailles n d’échantillons relativement faibles (n compris entre 5
et 38). Ce test ne regarde pas la distribution empirique entière mais seulement si elle est symétrique et si elle
plus pointue ou moins pointue qu’une distribution normale (qu’on appelle la “kurtosis"). Il est moins strict
que le test de Kolmogorov-Smirnov mais il suffit largement pour pouvoir décider entre paramétrique et non
paramétrique.
Proposition 3.2 Test de Shapiro-Wilk
Les n observations expérimentales ont été au préalable rangées par ordre de valeur croissante, soit
x1 ≤ x2 ≤ . . . ≤ xn−1 ≤ xn .
– On calcule la moyenne de la série de mesures x.
p
X
– On calcule le nombre Tn =
ni (xi − x)2
i=1
– On calcule les différences suivantes :
= xn − x1
= xn−1 − x2
..
.
di = xn−i+1 − xi
..
.
Remarquons que si n = 2k (n pair), on aura k différences et si n = 2k + 1 (n impair) on aura aussi k
différences, l’observation médiane n’intervenant pas.
d1
d2
8/9
– Hypothèse à contrôler : “la distribution est normale”.
– Fonction discriminante :

2
p
X

aj dj 
W =
j=1
Tn
où les coefficients aj sont donnés par la table D.
– Valeur critique : Wα,n lue dans la table E.
– Test : Si W < Wα,n , l’hypothèse est rejetée avec le risque d’erreur α et le niveau de confiance P = 1 − α.
– Conclusion :
• Si W > Wα,n , on accepte, au risque choisi, l’hypothèse de normalité de la série de mesure.
• Si W > Wα,n , on rejette l’hypothèse de normalité de la série de mesure.
Exercice 9 On a titré une série de 10 lots de Streptomycine par dosage au maltol. On a obtenu les résultats suivants diminués de 700 unités :
60 - 80 - 55 - 45 - 60 - 65 - 65 - 60 - 70 - 40.
Testez la normalité de cette série de résultats à l’aide d’un test de Shapiro-Wilk.
4
Loi de Poisson
La loi de Poisson permet par exemple de modéliser la loi du nombre d’occurrences de phénomènes répétitifs
sur des intervalles de temps donnés, ces éléments étant séparés par des durées exponentielles iid. (par exemple, le
nombre de pannes dans un système, le nombre de passages de trains à une station de métro,. . . ).
λj
Si X
P(λ), on a P (X = j) = e−λ
qui correspond à la probabilité d’obtenir j succès pour n essais
j!
indépendants avec une probabilité p de succès quand n → +∞, p → 0 et λ = np. On a E(X) = V (X) = λ.
Exercice 10 On a compté les appels téléphoniques par unité de temps pendant une période de 50 unités. On a
trouvé 0 (21 fois), 1 (16 fois), 2 (9 fois), 3 (3 fois) et 4 (1 fois). Tracez la fonction de vraisemblance de l’échantillon
en supposant qu’il s’agit d’un échantillon aléatoire simple d’une loi de Poisson.
Rappel : Soit X une variable aléatoire réelle, de loi discrète ou continue, dont on veut estimer un paramètre θ. On
note Dθ cette famille de lois paramétriques. Alors on définit une fonction f telle que :
(
fθ (x)
si X est une v.a. continue
f (x; θ) =
Pθ (X = x) si X est une v.a. discrète
fθ (x) représente la densité de X (où θ apparaît) et Pθ (X = x) représente une probabilité discrète (où θ apparaît).
On appelle vraisemblance de θ au vu des observations (x1 , . . . , xi , . . . , xn ) d’un n-échantillon indépendamment et
identiquement distribué selon la loi Dθ , le nombre :
L(x1 , . . . , xi , . . . , xn ; θ) = f (x1 ; θ) × f (x2 ; θ) × . . . × f (xn ; θ) =
n
Y
f (xi ; θ)
i=1
On cherche à trouver le maximum de cette vraisemblance pour que les probabilités des réalisations observées
soient aussi maximum. On cheche pour cela à maximiser le logarithme népérien de la vraisemblance (le produit se
transforme en somme, ce qui est plus simple à dériver). Ainsi en pratique, la condition nécessaire
∂L(x1 , ..., xi , ..., xn ; θ)
=0
∂θ
ou
∂ ln L(x1 , ..., xi , ..., xn ; θ)
=0
∂θ
permet de trouver la valeur θ = θ̂.
Références
[1] Frédéric BERTRAND. Initiation au logiciel R - Master Statistique 2ème année.
http ://www-irma.u-strasbg.fr/∼fbertran/enseignement/Statistique− Master2SA− 2009.html
9/9
Téléchargement