Probabilité sur Ω infini Modèle de Kolmogorov I ) Modèle de Kolmogorov : Utilité : Lorsque Ω est infini , il n'est plus possible de définir comme ensemble des événements : (Ω) la règle P U A i = ∑ P(A i ) ,si les Ai sont disjoints , obligerait toutes les probabilités des événements i∈I i∈I à être nulles ( Il y aurait trop d' événements ) . Il faut donc choisir ,comme ensemble des événements , un sous ensemble de (Ω) ,mais ce sous ensemble doit vérifier certaines règles pour que la théorie soit cohérente . ______________________________________ Définition 1 : Soit Ω un univers . Tout sous ensemble T de (Ω) tel que : _ Ω∈ _ E ∈ ⇒ E∈ _ ∀ ( E1, E2 , ......... , En ) ∈ n n U Ei , ∈ i =1 _ ∀I⊂ ,∀ (Ei )i∈I d'éléments de T , U Ei ∈ T i∈I est appelé une tribu de Ω . ______________________________________ Remarque : l'union fini des algèbres est devenue une union dénombrable (infinie ⊂ ______________________________________ Définition 2 : ) Tout univers Ω ,muni d'une tribu T est appelé espace probabilisable , notée ( Ω , T ) . _____________________________________ Théorème 1 : Soit T une tribu . _ ∈ . _ ∀(E,F) ∈ , E∪F , E ∩F , E\F sont des éléments de _ ∀ ( E1, E2 , ......... , En ) ∈ n n I Ei , ∈ i =1 ∀I⊂ , ∀ (Ei )i∈I d'éléments de T , I Ei ∈ T i∈I ______________________________________ Exemple et Th 1: _ { , Ω } est une tribu appelé tribu triviale de Ω _ (Ω) est une tribu appelé tribu grossière de Ω _ ∀A∈ (Ω) ,{ ,A , A , Ω } est une tribu de Ω ______________________________________ Démonstration : à faire 1 ______________________________________ Définition 4 : Soit I ⊂ (Ai)i∈I est un système complet d'évènements de ( Ω , T ) c ∀i ∈ I A i ∈ T ∀i ≠ j A i ∩ A j = ∅ Ai = Ω i∈I U ______________________________________ II ) Probabilité sur ( W , T ) : Définition 1 : Soit ( Ω , T ) un espace probabilisable . On appelle probabilité sur ( Ω , T ) toute application P : T → lR+ . vérifiant a) P(Ω) =1 b ) ∀ (Ai )i∈’1,n÷ d'éléments de T , tels que ∀ i ≠ j , Ai ∩Aj = : c ) ∀ (Ai )i∈lN d'éléments de T , tels que ∀ i ≠ j , Ai ∩Aj = : n n P U A i = ∑ P(A i ) i =1 i =1 +∞ +∞ P U A i = ∑ P(A i ) i =0 i=0 ______________________________________ Définition 2 : Tout univers Ω ,muni d'une tribu T et d'une probabilité P est appelé espace probabilisé , notée ( Ω , T , P ) . ______________________________________ +∞ Remarque : R1 : ∑ P( A i ) est la somme d'une série convergente . i =0 n Démonstration: Sn = n n ∑ P(A i ) = P U A i est une suite croissante majoré car P U A i ≤ P(Ω) = 1 i =1 _____________________________________ i =0 i=1 R2 : Toutes les propriétés ,théorèmes et définitions des probabilités finis restent valide _____________________________________ Théorème 1 : Propriétés de continuité croissante et décroissante Soit ( Ω , T , P ) un espace probabilisé , (An)n∈lN une suite d'évènements (∈T ) . 1 . Si (An)n∈lN est croissante c'est à dire ∀n∈lN An ⊂ An+1 alors la suite (P(An))n∈lN converge et lim P(A n ) = P U A n n → +∞ n∈lN 2 . Si (An)n∈lN est décroissante c'est à dire ∀n∈lN An+1 ⊂ An alors la suite (P(An))n∈lN converge et lim P(A n ) = P I A n n → +∞ n∈lN _____________________________________ 2 Démonstration : 1. Soit (An)n∈lN est croissante ,soit (Bn)n∈lN définie par B0 = A0 et ∀n 1 Bn = An\An-1 . n An = U Bi n ,et les Bi sont disjoints deux à deux donc P(An) = ∑ P( B i ) i =0 i =0 +∞ Corollaire : Définition 3 : donc lim P(A n ) = ∑ P(B i ) = P U B n = P U A n n → +∞ i=0 n∈lN n∈lN 2. Soit (An)n∈lN est décroissante alors ( A n)n∈lN est croissante lim P(A n ) = 1 − lim P(A n ) = 1 − P U A n = P U A n = P I A n donc n → +∞ n → +∞ n∈lN n∈lN n∈lN _____________________________________ Soit ( Ω , T , P ) un espace probabilisé , (An)n∈lN une suite d'évènements n lim P U A i = P U A n n → +∞ i =1 n∈lN n lim P I A i = P I A n n → +∞ i =1 n∈lN ______________________________________ Tout évènement E d'un espace probabilisé ( Ω , T , P ) tel que P(E) = 0 et E ≠ est dit négligeable ou presque impossible ou quasi impossible. Tout évènement de probabilité 1 et différent de Ω est dit presque certain ou quasi certain. Toute propriété vérifiée sur un ensemble de probabilité 1 est dite presque sûrement vraie. ______________________________________ Exercice : On effectue une suite de lancers à pile ou face avec une pièce équilibrée. Le jeu s’arrête lorsque on obtient pile. 1. ∀ n ∈ lN*. Calculez la probabilité pn qu’au cours des n premiers lancers, on n’ait obtenu que des "face". 2. Montrez que la probabilité que le jeu s’arrête après un nombre fini de lancers vaut 1 . _____________________________________ Théorème 2 : Formule des probabilités totales 2. Soit ( Ω , T , P ) un espace probabilisé , (An)n∈lN un système complet d'évènements . tels que ∀n∈lN P(An) ≠ 0 Alors ∀ B ∈ T , Remarque: R1: +∞ +∞ ∑ P(A n )P B A n = ∑ P(A n )PA n (B) n =0 n =0 _____________________________________ P( B ) = L' ancienne formule reste valide +∞ R2: ∑ P(A n )P B A n est la somme d'une série convergente . n =0 N N B = P(A ∩ B) = P (A ∩ B) est une suite croissante P ( A ) P ∑ n A n ∑ n U n n =0 n =0 n =0 N Démonstration: SN = N majoré car P U (A i ∩ B) ≤ P(Ω) = 1 n =0 3 R3: La notion de système complet d'événements peut être remplacée par la notion de système quasi complet d'événements : (Ai)i∈I est un système quasi complet d'évènements de ( Ω , T ) c ∀i ∈ I A ∈ T i ∀i ≠ j A i ∩ A j = ∅ P(A i ) = 1 i∈I ∑ _____________________________________ Exercice : Dans une urne on place 9 boules blanches et 1 noire . On tire dans cette urne des boules une à une ,avec remise de la boule tirée ,jusqu'à obtenir la boule noire pour la première fois ,soit p le nombre de fois nécessaire ,on jette alors p pièces . Quelle est la probabilité d'obtenir 2 piles . ____________________________________ III ) Indépendance : Soit ( Ω , T , P ) un espace probabilisé Définition 1 : Soient ( A , B ) ∈ T ² A et B sont indépendants ⇔ P( A ∩ B ) = P (A ) P ( B ) _____________________________________ Définition 2 : Soient ( A1 , A2 , ... , An) ∈ T n Les Ai sont deux à deux indépendants ⇔ ∀ i ≠ j P( Ai ∩ Aj ) = P (Ai ) P ( Aj ) _____________________________________ Remarque: Dans ce cas là A1 ∩ A2 n'est peut être pas indépendant de A3 , P( A1 ∩ A2 ∩ A3 ) n'est donc pas calculable. _____________________________________ Définition 3 : Soient ( A1 , A2 , ... , An) ∈ T n Les Ai sont mutuellement indépendants ⇔ ∀ I ⊂ ’1 , n ÷ P I A i = ∏ P(A i ) i∈I i∈I _____________________________________ Remarque: Cette définition ,bien que compliqué , correspond à la notion intuitive d'indépendance pour plusieurs évènements. _____________________________________ IV ) Variables aléatoires : Définition 1 : On appelle variable aléatoire réelle sur ( Ω , T , P ) toute application X : Ω → lR telle que ∀x∈lR , X -1( ] - , x ] ) ∈ T _____________________________________ 4 Théorème 1 : Soit X une variable aléatoire réelle sur ( Ω , T , P ) alors ∀(a,b) ∈ lR² -1 -1 -1 -1 -1 -1 X ( [a,b] ), X (]a,b[), X ( [a,b[), X (]a,b] ), X ( [a,+ [ ), X ( {b}) sont tous des éléments de T _____________________________________ Démonstration : exercice a ) Démontrez que ∀ (A,B) ⊂ lR X -1( A ) = X -1( A) ; X -1( A∪B ) = X -1( A)∪ X -1( B ) ; X -1( A∩B ) = X -1( A)∩ X -1( B ) X -1( A\B ) = X -1( A)\ X -1( B ) X −1 I A i = I X −1 (A i ) et X −1 U A i = U X −1 (A i ) i∈I i∈I i∈I i∈I -1 c ) Démontrez que X (]a,b] ) ∈ T . d ) Démontrez que X -1( {b}) ∈ T . e ) Démontrez le Th . _____________________________________ b ) Démontrez que ∀(Ai)i∈I ⊂ lR Théorème 2 : Soient X et Y deux variables aléatoires réelles sur ( Ω , T , P ) , λ∈lR , f continue sur lR X + Y , λX , XY , f ( X ) , max ( X , Y ) , min ( X , Y ) sont des variables aléatoires réelles . ____________________________________ Remarque: max(X,Y) est la var tel que ∀ω∈Ω max ( X , Y )(ω) = max ( X(ω) , Y(ω)) attention max(X,Y) n'est ni égale à X ni à Y 1 5 2 8 7 -2 5 6 3 X(ω) -1 5 3 6 6 6 8 1 3 Y(ω) max ( X , Y )(ω) 1 5 3 8 7 6 8 6 3 Variables aléatoires discrètes I ) Définitions : Soit ( Ω , T , P ) un espace probabilisé. Définition 1 : Une variable aléatoire X est discrète ⇔ X( Ω ) est dénombrable ou fini . ________________________________ Théorème 2 : Soit X une variable aléatoire discrète alors X( Ω ) = { x1 , x2 , .........,xn } = { xi tel que i∈’1,n÷ } ou X( Ω ) = { x1 , x2 , .........,xn, ...... } = { xi tel que i∈lN* } Par convention on considérera que i<j ⇒ xi < xj . _______________________________ Soit X une variable aléatoire discrète alors X -1( {xi}) ∈ T . _______________________________ Remarque : Définition 3 : La loi d'une variable aléatoire discrète X est a ) X (Ω ) b ) ∀xi ∈ X ( Ω ) P( X = xi) = P( X -1( {xi}) ________________________________ 5 Soit X : Ω → lR une fonction X est une variable aléatoire discrète c Théorème 3 : ∑ P(X = x i ) = 1 x i ∈X ( Ω ) ________________________________ Corollaire : (FONDAMENTAL) ( X = x i ) x ∈X ( Ω ) est un systéme quasi complet d'evenements . i ________________________________ Remarque : Si X( Ω ) = { xi tel que i∈lN* } ; +∞ ∑ P(X = x i ) = ∑ P(X = x i ) est la somme d'une série convergente x i ∈X ( Ω ) . i =1 n U (X = x i ) est une suite croissante majoré car P ( X = x ) = P ∑ i i =0 i =1 _______________________________ n Démonstration: Sn = n P U (X = x i ) ≤ P(Ω) = 1 i =1 Exercice : Une urne contient 5 boules blanches et 3 boules noires ,on tire dans l'urne avec remise X = " Nombre de boules blanche tirées avant l'obtention de la 2éme boule noire ". Trouvez la loi de X et vérifiez que c'est bien une variable aléatoire _______________________________ La fonction de répartition a la même définition et les mêmes propriétés que pour le cas finis . _______________________________ II ) Moment d'une Var : Définition 1 : Soit X une variable aléatoire discrète , r ∈lN On appelle moment d'ordre r de X (si il existe ) la quantité mr(X) = E ( Xr ) = ∑ x i r P(X = x i ) x i ∈X ( Ω ) _______________________________ ATTENTION : Si X( Ω ) = { xi tel que i∈lN* } ; +∞ ∑ x i r P(X = x i ) = ∑ x i r P(X = x i ) est la somme d'une série qui n'est pas forcément convergente x i ∈X ( Ω ) i =1 Si elle diverge le moment d'ordre r n'existe pas . _______________________________ Définition 2 : Soit X une variable aléatoire discrète . On appelle espérance de X (si elle existe ) la quantité E( X) = m1(X) = ∑ x i P( X = x i ) x i ∈X ( Ω ) _______________________________ ATTENTION : Si X( Ω ) = { xi tel que i∈lN* } ; +∞ ∑ x i P(X = x i ) = ∑ x i P(X = x i ) est la somme d'une série qui n'est pas forcément convergente x i ∈X ( Ω ) i =1 Si elle diverge l'espérance de X n'existe pas . _______________________________ 6 Remarque : Si X( Ω ) = { xi tel que i∈lN* } ∑ x i P(X = x i ) La définition rigoureuse de l'espérance demande que la série soit absolument convergente .La différence n'est pas sensible dans votre programme. x i ∈X ( Ω ) _______________________________ Définition 3 : Soit X une variable aléatoire discrète ayant une espérance , r ∈lN On appelle moment centré d'ordre r de X (si il existe ) la quantité µr(X)= E( (X-E(X))r ) = ∑ (x i − E(X) )r P(X = x i ) x i ∈X ( Ω ) _______________________________ ATTENTION : Si X( Ω ) = { xi tel que i∈lN* } ; +∞ ∑ (x i − E ( X ) ) P ( X = x i ) = ∑ (x i − E ( X ) )r P ( X = x i ) r x i ∈X ( Ω ) i =1 est la somme d'une série qui n'est pas forcément convergente Si elle diverge le moment d'ordre r n'existe pas . _______________________________ Définition 4 : Soit X une variable aléatoire discrète ayant une espérance. On appelle variance de X (si elle existe ) la quantité V( X) = µ2(X) = ∑ (x i − E ( X ) )2 P ( X = x i ) x i ∈X ( Ω ) _______________________________ ATTENTION : Si X( Ω ) = { xi tel que i∈lN* } ; +∞ ∑ (x i − E ( X ) )2 P ( X = x i ) = ∑ (x i − E ( X ) )2 P ( X = x i ) x i ∈X ( Ω ) est la somme d'une série qui n'est pas i =1 forcément convergente Si elle diverge la variance de X n'existe pas . _______________________________ Théorème 1 : Si E( X ) et m2 ( X ) existe alors la variance existe et V(X) = m2 ( X ) - E( X )² ________________________________ Théorème 2 : Toutes les propriétés de l'espérance et de la variance sont les même que dans le cas fini ________________________________ Définition 5 : Soit X une variable aléatoire discrète ayant une variance. L'écart type de X noté σ(X) = V(X) _________________________________ Exercice : Une urne contient 5 boules blanches et 3 boules noires ,on tire dans l'urne avec remise X = " Nombre de boules blanche tirées avant l'obtention de la 2éme boule noire ". Trouvez la loi de X et calculez ,si elles existent, E ( X ) et V( X ) _______________________________ 7 II ) Lois classiques : Définition 1 : Soit X une variable aléatoire ,p ∈ ] 0 , 1 [ q = 1 - p X suit une loi géométrique de paramètre p Notée X ⊂> G ( p) c X ( Ω ) = lN* et ∀ k∈ lN* P ( X = k ) = pqk-1 . ________________________________ Remarque : X ⊂> G ( p) ssi X est la loi d'un premier succès Exercice : Soit une urne contenant 3 boules blanches et 5 boules noires On effectue dans cette urne des tirages successifs et avec remise X = " rang d'obtention de la première boule blanche " Donnez la loi de X . Calculez E ( X ) et V (X) si elles existent. ________________________________ Théorème 1 : Soit X une variable aléatoire , p ∈ ] 0 , 1 [ telle que X ⊂> G ( p) 1 alors X a une espérance et une variance de plus E ( X ) = et p _______________________________ Démonstration : A faire ________________________________ V( X ) = q p² Définition 2 : Soit X une variable aléatoire , λ > 0 X suit une loi de Poisson de paramètre λ Notée X ⊂> P ( λ) c e − λ λk X ( Ω ) = lN et ∀ k∈ lN P ( X = k ) = . k! ________________________________ Soit X une variable aléatoire , λ > 0 telle que X ⊂> P ( λ) alors X a une espérance et une variance de plus E ( X ) = λ et _______________________________ Démonstration : A faire _______________________________ Théorème 2 : V( X ) = λ Le véritable début de la théorie des probabilités date de la correspondance entre Pierre de Fermat et Blaise Pascal en 1654. Ceux-ci commencent à élaborer les bases du traitement mathématique des probabilités autour de l'étude de jeux de hasard proposés, entre autres, par le chevalier de Méré. Encouragé par Pascal, Christian Huygens publie De ratiociniis in ludo aleae (raisonnements sur les jeux de dés) en 1657. Ce livre est le premier ouvrage important sur les probabilités. Il y définit la notion d'espérance . Jacques Bernoulli (1713) qui définit la notion de variable aléatoire et donne la première version de la loi des grands nombres .La première version moderne du théorème de la limite centrale est donné par Alexandre Liapounov en 1901 . En 1902, Andrei Markov introduit les chaînes de Markov pour entreprendre une généralisation de la loi des grands nombres pour une suite d'expériences dépendant les unes des autres. Ces chaînes de Markov connaîtront de nombreuses applications entre autres pour modéliser la diffusion ou pour l'indexation de sites internet sur Google. Il faudra attendre 1933 pour que la théorie des probabilités sorte d'un ensemble de méthodes et d'exemples divers et devienne une véritable théorie, axiomatisée par Kolmogorov 8