230 Probas conditionnelles et independance

publicité
230 Probabilité conditionnelle et indépendance. Variables
aléatoires indépendantes. Variance, covariance.
Exemple (1.6 - suite): Quelle est la probabilité de tirer
une boule blanche?
Soit (Ω, A, P) un espace probabilisé.
I.
Caractérisation de la loi exponentielle par son
absence de mémoire.
→ Indépendants dans leur ensemble ssi
On suppose un événement B réalisé. On va modifier P
pour tenir compte du fait que B est supposé réalisé.
complet. ∀n∊I,
Def 1:
1 Soit B un événement de probabilité ≠0.
On appelle probabilité conditionnelle à B, ou probabilité
sachant B,
B associée à P, l'application:
P ( A ∩ B)
PB : A →ℝ; A↦ PB ( A ) =
.
P ( B)
On note aussi P(A/B) pour PB(A).
Prop 1:
1 L'application PB est une probabilité sur (Ω, A).
Exemple (1.6, p.23): On considère deux urnes.
U1 contient 2 boules blanches et 1 boule noire. U2
contient 1 blanche et 1 noire. On note B l'événement "la
boule tirée est blanche", E1 "elle provient de U1", E2 "elle
provient de U2". Calculer PE1(B).
( A ) un système
P( A / A )× P( A )
P ( A / A) =
.
∑ P( A / A )× P( A )
Prop 4:
4 Formule de Bayes.
Bayes Soit
i
i∈ I
n
n
∩A
i
n
=
i =1
∏A
i
i =1
Indépendance mutuelle ⇒ Indep 2 à 2,
réciproque fausse (Contre-exemple 1.9 p.26)
n
P ( A / B)× P (B)
Variables aléatoires réelles
indépendantes.
P ( A)
Def 3:
3 Deux var X et Y sont indépendantes ssi:
i
i
i∈I
Issue de: P ( B / A ) =
Exemple (1.6 - suite): On suppose que l'on a tiré une
boule blanche; quelle est la probabilité que cette boule
soit issue de l'urne U1?
II.
( )
n
P
Probabilités conditionnelles p.21.
Escoffier
Evénements indépendants.
On traduit le fait que la réalisation de l'un n'a pas
d'influence sur la réalisation de l'autre.
III.
∀ ( B1 ; B2 ) ∈ ( B ) ,
2
P ( ( X ∈ B1 ) ∩ ( Y ∈ B2 ) ) = P ( X ∈ B1 ) × P ( Y ∈ B2 )
Exemple5.1 p97: Les variables X et Y ne sont pas
indépendantes: P((X<2)∩(Y<2))<0≠P(X<2)=P(Y<2)
Def 4:
4 (p.61) On appelle variance de X l'espérance, si
elle existe, de la variable ( X − E ( X ) ) :
2
Def 2:
2 A est dit indépendant de B
si P ( A / B ) = P ( A ) ou si P ( B ) = 0 .
V (X ) = E
(( X − E ( X )) ) = ∑ ( x − E ( X )) P ( X = x )
2
2
i
i
i
Application: Caractérisation de la loi Exponentielle par
son absence de mémoire. Ex.6.8 p.131, corrigé p.138.
Ne pas confondre incompatibles (ne peuvent arriver en
même temps, A∩B<∅, indep. du choix de la proba P) et
indépendants (dépend du choix de la proba P).
Généralisation à n événements:
Prop 2:
2 Formule des probabilités composées.
composées
Soient A1, A2 ...An n événements tels
P ( A1 ∩ ... ∩ An ) ≠ 0 , on a:
Prop 5:
5 ( A indép. de B ) ⇔ ( P(A∩B) < P(A)=P(B) )
( ) − ( E ( X ))
V (X ) = E X
2
2
La variance est (la my. des carrés) – (le carré de la my.)
que
La relation d'indépendance est symétrique, et on a
P ( A1 ∩ ... ∩ An ) = P ( A1 / A2 ∩ .. ∩ An ) × P ( A2 / A3 ∩ .. ∩ An )
indépendance entre A et B , A et B, A et B .
×... × P ( An −1 / An ) × P ( An )
Exemple (1.8 p.25): On jette 1D6 équilibré. On note:
A<{2;4;6}; B<{5;6}; C<{5}. A et B sont indépendants,
A et C ne le sont pas, non plus que B et C.
(Issue par récurrence de P(A∩B) < P(A/B)=P(B). )
Prop 3:
3 Formule des probabilités totales.
totales (1)
Soit ( Ai )i∈I un système complet d'événements. Alors:
∀A∊A, P ( A ) = ∑ P ( A / Ai )P ( Ai ) . (où ∀i, P(Ai)≠0)
i∈ I
Th. 1:
1 Formule de KoenigKoenig-Huygens:
Huygens Si V(X) existe, alors
Généralisation: On définit comme suit l'indépendance
de n événements A1,...,An: Ils sont:
→ Mutuellement indépendants ssi ∀I ⊂ 1, n , I ≠ ∅ ,

 i∈I


P  ∩ Ai  = ∏ Ai
i∈ I
Def 5:
5 (p.104) L'application:
( F2 )2 → Cov : 
est bien définie,
( X ; Y ) E ( XY ) − E ( X ) E ( Y )
et est appelée covariance de X et de Y.
En particulier, si X et Y sont indep, Cov(X;Y)<0. (3).
Prop 6:
6 (adaptat° du cas n var) ∀ ( X ; Y ) ∈ ( F2 ) ,
2
V ( X + Y ) = V ( X ) + V ( Y ) + 2.Cov ( X ; Y )
Et si X et Y sont indépendantes:
V ( X + Y ) = V ( X ) + V (Y )
230 Probabilité conditionnelle et indépendance. Variables aléatoires indépendantes.
Variance, covariance.
IV.
Applications.
Th
2:
2
Soient
X 1 , ..., X n des
var
sur
(Ω,A,P)
indépendantes, et qui suivent toutes une loi de
Bernoulli de même paramètre p.
n
Alors leur somme Z =
∑X
i
Soient
X 1 , ..., X n des
var
sur
(Ω,A,P)
indépendantes, et qui suivent toutes une loi Binomiale
n
∑X
∀i ∈ 1; n , X i ∼ B ( ni ; p ) . Alors
i


4:
4
Soient
X 1 , ..., X n des
var


n
∼ B  ∑ ni ; p  .
i =1
Th
sur
i =1
(Ω,A,P)
indépendantes, et qui suivent toutes une loi de Poisson
∀i ∈ 1; n , X i ∼ P ( λi ) . Alors


n
n


∑ X i ∼ P  ∑ λi  .
i =1
V.
i =1
Notes.
(1) Système complet d'événements:
d'événements Toute famille
d'événements ( Ai )i∈I tq: ∀i, Ai ≠ ∅, ∀i≠j, Ai∩Aj < ∅
(incompatibles deux à deux), et
∪A
i
= Ω.
i∈ I
{ }
Un exemple usuel est A; A .
(2) Loi de probabilité d'une variable aléatoire X:
µ : B → [ 0;1]
(
BP X
−1
( B ) ) = P( X
de variances-covariances Σ.
Les v.a.r. X et Y sont indépendantes ssi Σ est une matrice
diagonale.
Propriétés liées à l'indépendance ds la cv en loi de
suites de var (231)
Th 7:
7 Loi faible des grands nombres
nombres.
ombres Soit ( X n ) une suite
B(n,p), et l'on a E(Z)<np, et V(Z)<np(1-p).
3:
3
-------------------RABE--------------------------------------Un autre critère d'indépendance: Prop 9 de la 249
Prop 9:
9 Soit V = ( X ; Y ) un vecteur normal de matrice
suit une loi binomiale
i =1
Th
Caractérisation de la loi
exponentielle .
= B)
Probabilité de prise d'(intervalle de valeurs) par X
(3) Prop 6 de la 249
Prop 6:
6 Soit V = ( X ; Y ) un vecteur normal.
Alors on a l'équivalence:
(X et Y sont indépendants) ssi (Cov(X;Y)<0)
de v.a.r. définies sur la même espace (Ω, A, P) ,
indépendantes, et admettant la même espérance m et la
même variance σ2. On définit leur moyenne Zn par:
1 n
∀n ∈ *, Z n =
X i . Alors Z n 
→ m en proba.
n∞
n i =1
∑
On n'exige pas que les variables aient même loi.
Application:
Application Th. de Bernoulli.
Bernoulli Soient des variables de
Bernoulli indépendantes, associées à la répétition de la
même expérience aléatoire (pour la quelle on
s'intéresse à une événement appelé succès et noté S):
0 si à la n° épreuve on a S
Xn = 
1 si à la n° épreuve on a S
En notant p<P(S), on a∀n∊ℕ*, X n ∼ B ( p ) , et:
1
n
∑X
n
i

→ p en probabilités.
n∞
i =1
Le nombre moyen de succès obtenu aux n premières
épreuves tend à se stabiliser autour de p, ie P(S) ≃ p.
Escoffier
Téléchargement