230 Probabilité conditionnelle et indépendance. Variables aléatoires indépendantes. Variance, covariance. Exemple (1.6 - suite): Quelle est la probabilité de tirer une boule blanche? Soit (Ω, A, P) un espace probabilisé. I. Caractérisation de la loi exponentielle par son absence de mémoire. → Indépendants dans leur ensemble ssi On suppose un événement B réalisé. On va modifier P pour tenir compte du fait que B est supposé réalisé. complet. ∀n∊I, Def 1: 1 Soit B un événement de probabilité ≠0. On appelle probabilité conditionnelle à B, ou probabilité sachant B, B associée à P, l'application: P ( A ∩ B) PB : A →ℝ; A↦ PB ( A ) = . P ( B) On note aussi P(A/B) pour PB(A). Prop 1: 1 L'application PB est une probabilité sur (Ω, A). Exemple (1.6, p.23): On considère deux urnes. U1 contient 2 boules blanches et 1 boule noire. U2 contient 1 blanche et 1 noire. On note B l'événement "la boule tirée est blanche", E1 "elle provient de U1", E2 "elle provient de U2". Calculer PE1(B). ( A ) un système P( A / A )× P( A ) P ( A / A) = . ∑ P( A / A )× P( A ) Prop 4: 4 Formule de Bayes. Bayes Soit i i∈ I n n ∩A i n = i =1 ∏A i i =1 Indépendance mutuelle ⇒ Indep 2 à 2, réciproque fausse (Contre-exemple 1.9 p.26) n P ( A / B)× P (B) Variables aléatoires réelles indépendantes. P ( A) Def 3: 3 Deux var X et Y sont indépendantes ssi: i i i∈I Issue de: P ( B / A ) = Exemple (1.6 - suite): On suppose que l'on a tiré une boule blanche; quelle est la probabilité que cette boule soit issue de l'urne U1? II. ( ) n P Probabilités conditionnelles p.21. Escoffier Evénements indépendants. On traduit le fait que la réalisation de l'un n'a pas d'influence sur la réalisation de l'autre. III. ∀ ( B1 ; B2 ) ∈ ( B ) , 2 P ( ( X ∈ B1 ) ∩ ( Y ∈ B2 ) ) = P ( X ∈ B1 ) × P ( Y ∈ B2 ) Exemple5.1 p97: Les variables X et Y ne sont pas indépendantes: P((X<2)∩(Y<2))<0≠P(X<2)=P(Y<2) Def 4: 4 (p.61) On appelle variance de X l'espérance, si elle existe, de la variable ( X − E ( X ) ) : 2 Def 2: 2 A est dit indépendant de B si P ( A / B ) = P ( A ) ou si P ( B ) = 0 . V (X ) = E (( X − E ( X )) ) = ∑ ( x − E ( X )) P ( X = x ) 2 2 i i i Application: Caractérisation de la loi Exponentielle par son absence de mémoire. Ex.6.8 p.131, corrigé p.138. Ne pas confondre incompatibles (ne peuvent arriver en même temps, A∩B<∅, indep. du choix de la proba P) et indépendants (dépend du choix de la proba P). Généralisation à n événements: Prop 2: 2 Formule des probabilités composées. composées Soient A1, A2 ...An n événements tels P ( A1 ∩ ... ∩ An ) ≠ 0 , on a: Prop 5: 5 ( A indép. de B ) ⇔ ( P(A∩B) < P(A)=P(B) ) ( ) − ( E ( X )) V (X ) = E X 2 2 La variance est (la my. des carrés) – (le carré de la my.) que La relation d'indépendance est symétrique, et on a P ( A1 ∩ ... ∩ An ) = P ( A1 / A2 ∩ .. ∩ An ) × P ( A2 / A3 ∩ .. ∩ An ) indépendance entre A et B , A et B, A et B . ×... × P ( An −1 / An ) × P ( An ) Exemple (1.8 p.25): On jette 1D6 équilibré. On note: A<{2;4;6}; B<{5;6}; C<{5}. A et B sont indépendants, A et C ne le sont pas, non plus que B et C. (Issue par récurrence de P(A∩B) < P(A/B)=P(B). ) Prop 3: 3 Formule des probabilités totales. totales (1) Soit ( Ai )i∈I un système complet d'événements. Alors: ∀A∊A, P ( A ) = ∑ P ( A / Ai )P ( Ai ) . (où ∀i, P(Ai)≠0) i∈ I Th. 1: 1 Formule de KoenigKoenig-Huygens: Huygens Si V(X) existe, alors Généralisation: On définit comme suit l'indépendance de n événements A1,...,An: Ils sont: → Mutuellement indépendants ssi ∀I ⊂ 1, n , I ≠ ∅ , i∈I P ∩ Ai = ∏ Ai i∈ I Def 5: 5 (p.104) L'application: ( F2 )2 → Cov : est bien définie, ( X ; Y ) E ( XY ) − E ( X ) E ( Y ) et est appelée covariance de X et de Y. En particulier, si X et Y sont indep, Cov(X;Y)<0. (3). Prop 6: 6 (adaptat° du cas n var) ∀ ( X ; Y ) ∈ ( F2 ) , 2 V ( X + Y ) = V ( X ) + V ( Y ) + 2.Cov ( X ; Y ) Et si X et Y sont indépendantes: V ( X + Y ) = V ( X ) + V (Y ) 230 Probabilité conditionnelle et indépendance. Variables aléatoires indépendantes. Variance, covariance. IV. Applications. Th 2: 2 Soient X 1 , ..., X n des var sur (Ω,A,P) indépendantes, et qui suivent toutes une loi de Bernoulli de même paramètre p. n Alors leur somme Z = ∑X i Soient X 1 , ..., X n des var sur (Ω,A,P) indépendantes, et qui suivent toutes une loi Binomiale n ∑X ∀i ∈ 1; n , X i ∼ B ( ni ; p ) . Alors i 4: 4 Soient X 1 , ..., X n des var n ∼ B ∑ ni ; p . i =1 Th sur i =1 (Ω,A,P) indépendantes, et qui suivent toutes une loi de Poisson ∀i ∈ 1; n , X i ∼ P ( λi ) . Alors n n ∑ X i ∼ P ∑ λi . i =1 V. i =1 Notes. (1) Système complet d'événements: d'événements Toute famille d'événements ( Ai )i∈I tq: ∀i, Ai ≠ ∅, ∀i≠j, Ai∩Aj < ∅ (incompatibles deux à deux), et ∪A i = Ω. i∈ I { } Un exemple usuel est A; A . (2) Loi de probabilité d'une variable aléatoire X: µ : B → [ 0;1] ( BP X −1 ( B ) ) = P( X de variances-covariances Σ. Les v.a.r. X et Y sont indépendantes ssi Σ est une matrice diagonale. Propriétés liées à l'indépendance ds la cv en loi de suites de var (231) Th 7: 7 Loi faible des grands nombres nombres. ombres Soit ( X n ) une suite B(n,p), et l'on a E(Z)<np, et V(Z)<np(1-p). 3: 3 -------------------RABE--------------------------------------Un autre critère d'indépendance: Prop 9 de la 249 Prop 9: 9 Soit V = ( X ; Y ) un vecteur normal de matrice suit une loi binomiale i =1 Th Caractérisation de la loi exponentielle . = B) Probabilité de prise d'(intervalle de valeurs) par X (3) Prop 6 de la 249 Prop 6: 6 Soit V = ( X ; Y ) un vecteur normal. Alors on a l'équivalence: (X et Y sont indépendants) ssi (Cov(X;Y)<0) de v.a.r. définies sur la même espace (Ω, A, P) , indépendantes, et admettant la même espérance m et la même variance σ2. On définit leur moyenne Zn par: 1 n ∀n ∈ *, Z n = X i . Alors Z n → m en proba. n∞ n i =1 ∑ On n'exige pas que les variables aient même loi. Application: Application Th. de Bernoulli. Bernoulli Soient des variables de Bernoulli indépendantes, associées à la répétition de la même expérience aléatoire (pour la quelle on s'intéresse à une événement appelé succès et noté S): 0 si à la n° épreuve on a S Xn = 1 si à la n° épreuve on a S En notant p<P(S), on a∀n∊ℕ*, X n ∼ B ( p ) , et: 1 n ∑X n i → p en probabilités. n∞ i =1 Le nombre moyen de succès obtenu aux n premières épreuves tend à se stabiliser autour de p, ie P(S) ≃ p. Escoffier