Rappels de probabilité ) 2 1 1. Une variable aléatoire Y est une variable qui peut prendre plusieurs valeurs (réalisations) à une date future, en fonction d’événements plus ou moins probables (ex défaut). 2. La distribution de probabilités est l’ensemble de probabilités associé à l’ensemble des réalisations. 3. Pour une VA discrète Y : A l’ensemble des k réalisations possibles de Y : {y1, y2 , y3 , …, yk } est associé un ensemble de probabilités : { p1, p2 , p3 , …, pk } dont la somme =1. Avec P(Y= yi) = pi ∀ i= 1 ,….k 4. La fonction de densité de probabilité f(y) relie les probabilités aux réalisations. Pour une VA discrète elle prend la forme : f(yi)=pi pour i=1,2, …k. Où pi est un nombre entre 0 et 1 (avec somme des pi =1). Ex de VA discrète : VA de Bernoulli avec P(Y=1) = p et P(Y=0) = 1-p Ex: VA Y définie comme le résultat du lancer d’une pièce de monnaie équilibrée. Si le résultat est face Y=1, si le résultat est pile Y=0. Ici P(Y=1) =0,5 =P(Y=0) =0,5 5. Les moments d’une VA Y : k • Moment d’ordre 1, l’espérance mathématique (moyenne théorique) : = = . Rq : E(a+bY) = a+bE(Y) i =1 • Pour 1 VA discrète : E (Y ) = ∑ yi pi k ( Exce : Vérifiez que E(Y) = p pour une VA de Bernoulli. • Moment d’ordre 2, la variance : mesure théorique de la dispersion des réalisations autour de l’espérance. m2 =V(Y) = E[(Y-µ)²]=E(Y²)-µ² = σ² Rq : V(a+bY+cX) = 0+b² V(Y)+c² V(X)+2bc COV(Y,X) Avec COV(Y,X)= COV(X,Y) = E[(X-E(X))(Y-E(Y)]= E(XY)-E(X)E(Y) i =1 Pour une VA discrète : V (Y ) = ∑ yi − µ 2 pi Exce: Vérifiez que V(Y) = p (1-p) pour une VA de Bernoulli. = m3 <0 m3 >0 • Moment d’ordre 3, le coefficient de dissymétrie (skewness) : • • Pour les rentabilités boursières les krachs peuvent induire m3 <0. • Pour 1 VA symétrique (distribuée par ex selon 1 loi normale) m3 =0. − • Moment d’ordre 4, le coefficient d’aplatissement (le kurtosis) : • = Logistique (α=0, β=0,55153) kurtosis = 4,2 ; excès = 1,2 3 • Vaut 3 si Y suit 1 loi normale : souvent les logiciels d’économétrie calculent m4 -3 , l’excès de kurtosis par rapport à 1 loi normale. • Si m4 -3 < 0, la distribution est platykurtique. • Si m4 -3 > 0, la distribution est leptokurtique. Par rapport à 1 loi normale la fréquence des observations centrales et extrêmes ↑. Cas de la plupart des séries de rentabilités fi dont les réalisations extrêmes sont anormalement fréquentes. Svt associé à 1 forme de variabilité de σ² (hétéroscédasticité). Normale (μ=0, σ=1) kurtosis = 3 ; excès = 0 Illustration des 3 cas d’excès de kurtosis: 1) négatif, 2) nul, 3) positif Uniforme (min=−√3, max=√3) kurtosis = 1,8 ; excès = −1,2 4 6. VA continue Y −∞ F( y ) = −∞ 2 y − Ym exp − 1 5 ∫ f (u )du L’ensemble des réalisations de Y est indénombrable, de la forme d’un intervalle [a,b] avec a<b ou de la forme [-∞,+ ∞]. La probabilité d’une réalisation en particulier est négligeable . L’ensemble des probabilités est indénombrable. La fonction de densité de probabilité f(y) est une fonction de y, définie sur l’ensemble des réalisations. On la calcule ici toujours sur un intervalle de l’ensemble des réalisations. +∞ Par ailleurs on a bien sûr : ∫ f ( y ) dy = 1 y Fonction de répartition : F(y) = P(Y≤ y) et ici +∞ Rqs : P(c≤ Y≤d)= P(Y≤d) - P(Y≤c) =F(d)-F(c) 1-F(y) = P(Y > y). Pour une VA continue P(Y ≤ y) ≈ P(Y <y) −∞ 2 V (Y ) = E Y 2 − E (Y ) ( ) Espérance : E (Y ) = ∫ y f ( y ) dy = µ Variance : +∞ = y 2 f ( y ) dy − µ 2 ∫ −∞ 1 Exemples courants de VA continues : VA normale, Chi-2, Student, Fisher. f (y) = 1/ 2 2 σ VA normale: Si Y ~> N(Ym, σ ²) alors : σ (2π ) Où Ym est un paramètre constant et σ est une constante positive. On peut aussi vérifier que E(Y) = Ym et V(Y) = σ ² Connaître ces deux paramètres suffit à calculer f(y) en tout point (réalisation) y, cad à connaître la distribution de probabilités normale (gaussienne). La distribution normale est symétrique : P(Y<-y)= P(Y>y) Rqs: Y centré réduit : Z = (Y- Ym )/σ ~> N(0, 1). Avec donc E(Z) = 0 et V(Z) = 1. Dans une table statistique de la loi normale centrée réduite on peut lire : P(Z < 2,58) = 0,995 = 99,5% P(Z < -2,58) = P(Z > 2,58) = 1 - P(Z < 2,58) = 1- 99,5% = 0,5% P (|Z| > 2,58) = P(Z < -2,58) + P(Z > 2,58) = 0,5% + 0,5% = 1% P(|Z| > 1,96) = P(Z < -1,96) + P(Z > 1,96) = 2 P(Z > 1,96) = 2 (1- P(Z < 1,96)) = 2 (1 - 97,5%) = 2 (2,5%) = 5% 6 n i =1 VA Chi-deux : Si Y = ∑ X i2 7 où les Xi sont des VA normales centrées réduites iid , alors : Y ~> χn² et E(Y) =n et V(Y) =2n. Une VA distribuée selon un Chi-deux ne prend (réalisations) que des valeurs positives ou nulles. X VA Student : Si X~> N(0,1) , Y ~> χn² et Z = Y Alors Z ~> Tn n Avec E(Z)=0 (si X est centré) et V(Z)=n / (n-2) pour n>2 Quand le nbe de degrés de libertés n tend vers + ∞ , la distribution de Student converge vers la distribution normale. VA Fisher : Si Y1 ~> χn1² , Y2 ~> χn2² et F= (Y1 / n1)/ (Y1 / n2) alors F ~>F(n1, n2) Rq : F est le rapport de 2 VA toujours positives, il est donc toujours positif. X Y = P(X =x ET Y = y) 7. Distributions jointes, indépendance, distributions conditionnelles, covariance et corrélation. • La distribution jointe de deux VA X et Y est décrite par leur fonction de ( ) (x,y) = P(X = x,Y = y) densité jointe : fX,Y x,y Dans le cas discret : fX,Y • X et Y sont dites indépendantes ssi : X,Y f (x,y)= f (x) f (y) Soit, dans le cas discret : P(X = x,Y = y) = P(X =x) P(Y = y) Rq : si X et Y sont indépendantes, alors E(X Y) = E(X) E(Y). 8 L’intérêt d’avoir des VA indépendantes : Théorème central limite Soient Z1, Z2,… Zn une suite de VA iid avec E(Zi)=m et V(Zi) = σ² ̅ − 0,1 pourn → +∞ $% % #$% 0,1 Illustration : Soit X= Z1 + Z2 +… Zn où les Zi sont iid et suivent une loi de Bernoulli => X suit une loi binomiale: X~>B(n,p) ; E(X)=np, V(X) =np(1-p). Montrez que d’après le théorème central limite 9 Ex : Calcul de la probabilité de devoir dédommager des passagers en cas de surréservation. Soit Zi =1 si le passager i se présente, Zi =0 sinon. On suppose les Zi iid et p(Zi =1) = 0,79046 . Nbre total rés° : n =600. Nbre max places dans l’avion : 500. X~>B(n, 0,79046) où n est le nombre de réservations vendues. Calculez la probabilité que le nombre X de passagers qui se présentent dépasse 500. (Réponse : 0,5% … à confirmer avec vos calculs) *+, -,. *, . • Distributions conditionnelles : L’information qu’une VA X peut apporter sur une VA Y est donnée par la distribution conditionnelle de Y, étant donné X. Cette information est résumée par la fonction de densité de probabilité conditionnelle :& /# ( ) = Dans le cas discret elle peut s’écrire : & /# ( ) = / = ( 0 = ) Dans le cas où Y et X sont indépendantes : & /# ( ) = & ( L’espérance conditionnelle : Supposons que Y= a +b X +u avec E(u |X)=0. Alors E(Y |X) = a+b E(X |X) +0= a+b X L’espérance inconditionnelle : Supposons que Y= a +b X +u avec E(u)=0. Alors E(Y) = a+b E(X)+0= a+b E(X) Propriétés de la covariance : 1) L’indépendance entre X et Y => cov(X,Y) =0. Mais la réciproque est fausse. La covariance ne mesure que la dépendance linéaire. 2) Cov(a+bX, c+dY) = b d Cov(X,Y) 3) |Cov(X,Y)| ≤ σXσY (inégalité de Cauchy-Schwartz) 10 4 − 4-1 4 11 Corrélation : L’inconvénient de la covariance comme mesure de la dépendance linéaire entre deux VA est que sa valeur dépend de l’unité de mesure de X (et Y). Le coefficient de corrélation permet d’y remédier. Il est défini par: Corr(X,Y) = Cov (X,Y) / σXσY Propriétés du coefficient de corrélation : 1) Corr(X,Y) ∈ [-1,1] 2) Corr(a+bX, c+dY) = Corr(X,Y) -3 4 6 4 -3 -1 .3 .̅ = 7 ∑389 -3 6 8. Moyenne empirique, variance empirique, covariance empirique: -3 -1 7 ∑389 4 7 ∑389 4 Moyenne empirique: (1 = ∑5 Variance empirique : Covariance empirique: 9. Population, échantillon aléatoire. Population = vaste ensemble d’unités qui partagent des caractéristiques communes (un modèle commun) sur lesquelles on peut apprendre par estimation et tests. Trop vaste (voir infini) pour que toutes les unités puissent être étudiées : seuls des sous ensembles (échantillons) sont étudiés. Ex : population européenne ou encore ensemble des rendements boursiers européens depuis l’existence des bourses jusqu’à la fermeture des bourses ( + l’infini). Echantillon aléatoire : Si Y1, Y2, … Yn sont n tirages indépendants au sein de la population étudiée avec une fonction de densité commune (identiquement distribués) alors ils composent un échantillon aléatoire. 12