R appels de probabilité

publicité
Rappels de probabilité
)
2
1
1. Une variable aléatoire Y est une variable qui peut prendre
plusieurs valeurs (réalisations) à une date future, en fonction
d’événements plus ou moins probables (ex défaut).
2. La distribution de probabilités est l’ensemble de
probabilités associé à l’ensemble des réalisations.
3. Pour une VA discrète Y :
A l’ensemble des k réalisations possibles de Y :
{y1, y2 , y3 , …, yk } est associé un ensemble de
probabilités : { p1, p2 , p3 , …, pk } dont la somme =1.
Avec P(Y= yi) = pi ∀ i= 1 ,….k
4. La fonction de densité de probabilité f(y)
relie les probabilités aux réalisations.
Pour une VA discrète elle prend la forme :
f(yi)=pi pour i=1,2, …k. Où pi est un nombre entre 0 et 1
(avec somme des pi =1).
Ex de VA discrète : VA de Bernoulli avec P(Y=1) = p et P(Y=0) = 1-p
Ex: VA Y définie comme le résultat du lancer d’une pièce de monnaie
équilibrée. Si le résultat est face Y=1, si le résultat est pile Y=0.
Ici P(Y=1) =0,5 =P(Y=0) =0,5
5. Les moments d’une VA Y :
k
• Moment d’ordre 1, l’espérance mathématique (moyenne théorique) :
= = . Rq : E(a+bY) = a+bE(Y)
i =1
• Pour 1 VA discrète : E (Y ) = ∑ yi pi
k
(
Exce : Vérifiez que E(Y) = p pour une VA de Bernoulli.
• Moment d’ordre 2, la variance : mesure théorique de la dispersion des
réalisations autour de l’espérance. m2 =V(Y) = E[(Y-µ)²]=E(Y²)-µ² = σ²
Rq : V(a+bY+cX) = 0+b² V(Y)+c² V(X)+2bc COV(Y,X)
Avec COV(Y,X)= COV(X,Y) = E[(X-E(X))(Y-E(Y)]= E(XY)-E(X)E(Y)
i =1
Pour une VA discrète : V (Y ) = ∑ yi − µ 2 pi
Exce: Vérifiez que V(Y) = p (1-p) pour une VA de Bernoulli.
= m3 <0
m3 >0
• Moment d’ordre 3, le coefficient de dissymétrie (skewness) :
•
• Pour les rentabilités boursières les krachs peuvent induire m3 <0.
• Pour 1 VA symétrique (distribuée par ex selon 1 loi normale) m3 =0.
− • Moment d’ordre 4, le coefficient d’aplatissement (le kurtosis) :
• = Logistique (α=0, β=0,55153)
kurtosis = 4,2 ; excès = 1,2
3
• Vaut 3 si Y suit 1 loi normale : souvent les logiciels d’économétrie calculent
m4 -3 , l’excès de kurtosis par rapport à 1 loi normale.
• Si m4 -3 < 0, la distribution est platykurtique.
• Si m4 -3 > 0, la distribution est leptokurtique. Par rapport à 1 loi normale la
fréquence des observations centrales et extrêmes ↑. Cas de la plupart des
séries de rentabilités fi dont les réalisations extrêmes sont anormalement
fréquentes. Svt associé à 1 forme de variabilité de σ² (hétéroscédasticité).
Normale (μ=0, σ=1)
kurtosis = 3 ; excès = 0
Illustration des 3 cas d’excès de kurtosis:
1) négatif,
2) nul,
3) positif
Uniforme (min=−√3, max=√3)
kurtosis = 1,8 ; excès = −1,2
4
6. VA continue Y
−∞
F( y ) =
−∞
2

y − Ym  
exp  − 1 

5
∫ f (u )du
L’ensemble des réalisations de Y est indénombrable, de la forme
d’un intervalle [a,b] avec a<b ou de la forme [-∞,+ ∞].
La probabilité d’une réalisation en particulier est négligeable .
L’ensemble des probabilités est indénombrable.
La fonction de densité de probabilité f(y) est une fonction de y,
définie sur l’ensemble des réalisations. On la calcule ici toujours
sur un intervalle de l’ensemble des réalisations.
+∞
Par ailleurs on a bien sûr :
∫ f ( y ) dy = 1
y
Fonction de répartition : F(y) = P(Y≤ y) et ici
+∞
Rqs : P(c≤ Y≤d)= P(Y≤d) - P(Y≤c) =F(d)-F(c)
1-F(y) = P(Y > y). Pour une VA continue P(Y ≤ y) ≈ P(Y <y)
−∞
2
V (Y ) = E Y 2 − E (Y )
( )
Espérance : E (Y ) = ∫ y f ( y ) dy = µ
Variance :

 +∞
=  y 2 f ( y ) dy  − µ 2
∫


 −∞
1
Exemples courants de VA continues : VA normale, Chi-2, Student,
Fisher.
f (y) =
1/ 2
2  σ  
VA normale: Si Y ~> N(Ym, σ ²) alors :
σ (2π )


Où Ym est un paramètre constant et σ est une constante positive.
On peut aussi vérifier que E(Y) = Ym et V(Y) = σ ²
Connaître ces deux paramètres suffit à calculer f(y) en tout point (réalisation)
y, cad à connaître la distribution de probabilités normale (gaussienne).
La distribution normale est symétrique : P(Y<-y)= P(Y>y)
Rqs: Y centré réduit : Z = (Y- Ym )/σ ~> N(0, 1).
Avec donc E(Z) = 0 et V(Z) = 1. Dans une table statistique de la loi normale
centrée réduite on peut lire :
P(Z < 2,58) = 0,995 = 99,5%
P(Z < -2,58) = P(Z > 2,58) = 1 - P(Z < 2,58) = 1- 99,5% = 0,5%
P (|Z| > 2,58) = P(Z < -2,58) + P(Z > 2,58) = 0,5% + 0,5% = 1%
P(|Z| > 1,96) = P(Z < -1,96) + P(Z > 1,96) = 2 P(Z > 1,96)
= 2 (1- P(Z < 1,96)) = 2 (1 - 97,5%) = 2 (2,5%) = 5%
6
n
i =1
VA Chi-deux : Si Y = ∑ X i2
7
où les Xi sont des VA normales centrées réduites iid ,
alors : Y ~> χn² et E(Y) =n et V(Y) =2n.
Une VA distribuée selon un Chi-deux ne prend (réalisations) que des valeurs
positives ou nulles.
X
VA Student : Si X~> N(0,1) , Y ~> χn² et Z =
Y
Alors Z ~> Tn
n
Avec E(Z)=0 (si X est centré) et V(Z)=n / (n-2) pour n>2
Quand le nbe de degrés de libertés n tend vers + ∞ , la distribution de Student
converge vers la distribution normale.
VA Fisher : Si Y1 ~> χn1² , Y2 ~> χn2² et F= (Y1 / n1)/ (Y1 / n2)
alors F ~>F(n1, n2)
Rq : F est le rapport de 2 VA toujours positives, il est donc toujours positif.
X
Y
= P(X =x ET Y = y)
7. Distributions jointes, indépendance, distributions conditionnelles,
covariance et corrélation.
• La distribution jointe de deux VA X et Y est décrite par leur fonction de
( )
(x,y) = P(X = x,Y = y)
densité jointe : fX,Y x,y
Dans le cas discret : fX,Y
• X et Y sont dites indépendantes ssi :
X,Y
f (x,y)= f (x) f (y)
Soit, dans le cas discret : P(X = x,Y = y) = P(X =x) P(Y = y)
Rq : si X et Y sont indépendantes, alors E(X Y) = E(X) E(Y).
8
L’intérêt d’avoir des VA indépendantes :
Théorème central limite
Soient Z1, Z2,… Zn une suite de VA iid avec E(Zi)=m et V(Zi) = σ²
̅ − 0,1 pourn → +∞
$% %
#$%
0,1 Illustration : Soit X= Z1 + Z2 +… Zn où les Zi sont iid et suivent une loi de
Bernoulli => X suit une loi binomiale: X~>B(n,p) ; E(X)=np, V(X) =np(1-p).
Montrez que d’après le théorème central limite
9
Ex : Calcul de la probabilité de devoir dédommager des passagers en cas de surréservation. Soit Zi =1 si le passager i se présente, Zi =0 sinon. On suppose les Zi iid
et p(Zi =1) = 0,79046 . Nbre total rés° : n =600. Nbre max places dans l’avion :
500. X~>B(n, 0,79046) où n est le nombre de réservations vendues.
Calculez la probabilité que le nombre X de passagers qui se présentent dépasse 500.
(Réponse : 0,5% … à confirmer avec vos calculs)
*+, -,.
*, .
• Distributions conditionnelles :
L’information qu’une VA X peut apporter sur une VA Y est donnée par la
distribution conditionnelle de Y, étant donné X. Cette information est résumée par la
fonction de densité de probabilité conditionnelle :&
/# ( ) =
Dans le cas discret elle peut s’écrire : &
/# ( ) = / = ( 0 = )
Dans le cas où Y et X sont indépendantes : &
/# ( ) = &
(
L’espérance conditionnelle : Supposons que Y= a +b X +u avec
E(u |X)=0. Alors E(Y |X) = a+b E(X |X) +0= a+b X
L’espérance inconditionnelle : Supposons que Y= a +b X +u avec
E(u)=0. Alors E(Y) = a+b E(X)+0= a+b E(X)
Propriétés de la covariance :
1) L’indépendance entre X et Y => cov(X,Y) =0. Mais la réciproque est
fausse. La covariance ne mesure que la dépendance linéaire.
2) Cov(a+bX, c+dY) = b d Cov(X,Y)
3) |Cov(X,Y)| ≤ σXσY (inégalité de Cauchy-Schwartz)
10
4
−
4-1
4
11
Corrélation :
L’inconvénient de la covariance comme mesure de la dépendance linéaire entre
deux VA est que sa valeur dépend de l’unité de mesure de X (et Y).
Le coefficient de corrélation permet d’y remédier. Il est défini par:
Corr(X,Y) = Cov (X,Y) / σXσY
Propriétés du coefficient de corrélation :
1) Corr(X,Y) ∈ [-1,1]
2) Corr(a+bX, c+dY) = Corr(X,Y)
-3
4
6
4
-3 -1 .3 .̅
=
7
∑389
-3 6
8. Moyenne empirique, variance empirique, covariance empirique:
-3 -1
7
∑389
4
7
∑389
4
Moyenne empirique: (1 = ∑5
Variance empirique :
Covariance empirique:
9. Population, échantillon aléatoire.
Population = vaste ensemble d’unités qui partagent des caractéristiques
communes (un modèle commun) sur lesquelles on peut apprendre par
estimation et tests.
Trop vaste (voir infini) pour que toutes les unités puissent être étudiées :
seuls des sous ensembles (échantillons) sont étudiés.
Ex : population européenne ou encore ensemble des rendements
boursiers européens depuis l’existence des bourses jusqu’à la fermeture
des bourses ( + l’infini).
Echantillon aléatoire :
Si Y1, Y2, … Yn sont n tirages indépendants au sein de la population
étudiée avec une fonction de densité commune (identiquement
distribués) alors ils composent un échantillon aléatoire.
12
Téléchargement