PROBA INFINI

publicité
Probabilité sur Ω infini
Modèle de Kolmogorov
I ) Modèle de Kolmogorov :
Utilité : Lorsque Ω est infini , il n'est plus possible de définir comme ensemble des événements : (Ω)


la règle P U A i  = ∑ P(A i ) ,si les Ai sont disjoints , obligerait toutes les probabilités des événements
 i∈I  i∈I
à être nulles ( Il y aurait trop d' événements ) . Il faut donc choisir ,comme ensemble des événements , un
sous ensemble de (Ω) ,mais ce sous ensemble doit vérifier certaines règles pour que la théorie soit
cohérente .
______________________________________
Définition 1 :
Soit Ω un univers .
Tout sous ensemble T de (Ω) tel que :
_ Ω∈
_ E ∈ ⇒ E∈
_ ∀ ( E1, E2 , ......... , En ) ∈
n
n
U Ei
,
∈
i =1
_ ∀I⊂
,∀ (Ei )i∈I d'éléments de T ,
U Ei
∈ T
i∈I
est appelé une tribu de Ω .
______________________________________
Remarque : l'union fini des algèbres est devenue une union dénombrable (infinie ⊂
______________________________________
Définition 2 :
)
Tout univers Ω ,muni d'une tribu T est appelé espace probabilisable , notée ( Ω , T ) .
_____________________________________
Théorème 1 : Soit T une tribu .
_
∈ .
_ ∀(E,F) ∈
, E∪F , E ∩F , E\F sont des éléments de
_ ∀ ( E1, E2 , ......... , En ) ∈
n
n
I Ei
,
∈
i =1
∀I⊂
, ∀ (Ei )i∈I d'éléments de T ,
I Ei
∈ T
i∈I
______________________________________
Exemple et Th 1:
_ { , Ω } est une tribu appelé tribu triviale de Ω
_ (Ω) est une tribu appelé tribu grossière de Ω
_ ∀A∈ (Ω) ,{ ,A , A , Ω } est une tribu de Ω
______________________________________
Démonstration : à faire
1
______________________________________
Définition 4 :
Soit I ⊂
(Ai)i∈I est un système complet d'évènements de ( Ω , T )
c


 ∀i ∈ I A i ∈ T

 ∀i ≠ j A i ∩ A j = ∅

Ai = Ω


i∈I
U
______________________________________
II ) Probabilité sur ( W , T ) :
Définition 1 : Soit ( Ω , T ) un espace probabilisable .
On appelle probabilité sur ( Ω , T ) toute application P : T → lR+ .
vérifiant
a) P(Ω) =1
b ) ∀ (Ai )i∈’1,n÷ d'éléments de T , tels que ∀ i ≠ j , Ai ∩Aj =
:
c ) ∀ (Ai )i∈lN d'éléments de T , tels que ∀ i ≠ j , Ai ∩Aj =
:
 n
 n
P U A i  = ∑ P(A i )
 i =1  i =1
 +∞  +∞
P U A i  = ∑ P(A i )
 i =0  i=0
______________________________________
Définition 2 :
Tout univers Ω ,muni d'une tribu T et d'une probabilité P est appelé espace probabilisé ,
notée ( Ω , T , P ) .
______________________________________
+∞
Remarque :
R1 :
∑ P( A i )
est la somme d'une série convergente .
i =0

n
Démonstration: Sn =
n


n

∑ P(A i ) = P U A i  est une suite croissante majoré car P U A i  ≤ P(Ω) = 1
 i =1 
_____________________________________
i =0
 i=1

R2 : Toutes les propriétés ,théorèmes et définitions des probabilités finis restent valide
_____________________________________
Théorème 1 :
Propriétés de continuité croissante et décroissante
Soit ( Ω , T , P ) un espace probabilisé , (An)n∈lN une suite d'évènements (∈T ) .
1 . Si (An)n∈lN est croissante c'est à dire ∀n∈lN An ⊂ An+1 alors la suite (P(An))n∈lN converge


et lim P(A n ) = P U A n 
n → +∞
 n∈lN 
2 . Si (An)n∈lN est décroissante c'est à dire ∀n∈lN An+1 ⊂ An alors la suite (P(An))n∈lN converge


et lim P(A n ) = P I A n 
n → +∞
 n∈lN 
_____________________________________
2
Démonstration :
1. Soit (An)n∈lN est croissante ,soit (Bn)n∈lN définie par B0 = A0 et ∀n 1 Bn = An\An-1 .
n
An =
U Bi
n
,et les Bi sont disjoints deux à deux donc P(An) =
∑ P( B i )
i =0
i =0
+∞
Corollaire :
Définition 3 :




donc lim P(A n ) = ∑ P(B i ) = P U B n  = P U A n 
n → +∞
i=0
 n∈lN 
 n∈lN 
2. Soit (An)n∈lN est décroissante alors ( A n)n∈lN est croissante






lim P(A n ) = 1 − lim P(A n ) = 1 − P U A n  = P U A n  = P I A n 
donc
n → +∞
n → +∞
 n∈lN 
 n∈lN 
 n∈lN 
_____________________________________
Soit ( Ω , T , P ) un espace probabilisé , (An)n∈lN une suite d'évènements
 n



lim P U A i  = P U A n 
n → +∞
 i =1 
 n∈lN 
n




lim P I A i  = P I A n 
n → +∞
 i =1 
 n∈lN 
______________________________________
Tout évènement E d'un espace probabilisé ( Ω , T , P ) tel que P(E) = 0 et E ≠ est dit
négligeable ou presque impossible ou quasi impossible.
Tout évènement de probabilité 1 et différent de Ω est dit presque certain ou quasi certain.
Toute propriété vérifiée sur un ensemble de probabilité 1 est dite presque sûrement vraie.
______________________________________
Exercice :
On effectue une suite de lancers à pile ou face avec une pièce équilibrée. Le jeu s’arrête lorsque on obtient pile.
1. ∀ n ∈ lN*. Calculez la probabilité pn qu’au cours des n premiers lancers, on n’ait obtenu que des "face".
2. Montrez que la probabilité que le jeu s’arrête après un nombre fini de lancers vaut 1 .
_____________________________________
Théorème 2 :
Formule des probabilités totales 2.
Soit ( Ω , T , P ) un espace probabilisé , (An)n∈lN un système complet d'évènements . tels que ∀n∈lN P(An) ≠ 0
Alors ∀ B ∈ T ,
Remarque:
R1:
+∞
+∞
∑ P(A n )P B A n  = ∑ P(A n )PA n (B)
n =0
n =0
_____________________________________
P( B ) =
L' ancienne formule reste valide
+∞
R2:
∑ P(A n )P B A n  est la somme d'une série convergente
.
n =0
N
N
B
 = P(A ∩ B) = P (A ∩ B) est une suite croissante
P
(
A
)
P
∑ n  A n  ∑ n
U n

n =0
n =0
 n =0

N
Démonstration: SN =
 N

majoré car P U (A i ∩ B) ≤ P(Ω) = 1
 n =0

3
R3:
La notion de système complet d'événements peut être remplacée par la notion de système
quasi complet d'événements :
(Ai)i∈I est un système quasi complet d'évènements de ( Ω , T )
c

 ∀i ∈ I A ∈ T
i


 ∀i ≠ j A i ∩ A j = ∅

P(A i ) = 1


i∈I
∑
_____________________________________
Exercice : Dans une urne on place 9 boules blanches et 1 noire .
On tire dans cette urne des boules une à une ,avec remise de la boule tirée ,jusqu'à obtenir la boule
noire pour la première fois ,soit p le nombre de fois nécessaire ,on jette alors p pièces .
Quelle est la probabilité d'obtenir 2 piles .
____________________________________
III ) Indépendance :
Soit ( Ω , T , P ) un espace probabilisé
Définition 1 :
Soient ( A , B ) ∈ T ²
A et B sont indépendants ⇔ P( A ∩ B ) = P (A ) P ( B )
_____________________________________
Définition 2 :
Soient ( A1 , A2 , ... , An) ∈ T n
Les Ai sont deux à deux indépendants ⇔ ∀ i ≠ j P( Ai ∩ Aj ) = P (Ai ) P ( Aj )
_____________________________________
Remarque: Dans ce cas là A1 ∩ A2 n'est peut être pas indépendant de A3 , P( A1 ∩ A2 ∩ A3 ) n'est donc pas
calculable.
_____________________________________
Définition 3 :
Soient ( A1 , A2 , ... , An) ∈ T n


Les Ai sont mutuellement indépendants ⇔ ∀ I ⊂ ’1 , n ÷ P I A i  = ∏ P(A i )
 i∈I  i∈I
_____________________________________
Remarque: Cette définition ,bien que compliqué , correspond à la notion intuitive d'indépendance pour plusieurs
évènements.
_____________________________________
IV ) Variables aléatoires :
Définition 1 :
On appelle variable aléatoire réelle sur ( Ω , T , P ) toute application X : Ω → lR
telle que ∀x∈lR , X -1( ] - , x ] ) ∈ T
_____________________________________
4
Théorème 1 :
Soit X une variable aléatoire réelle sur ( Ω , T , P )
alors ∀(a,b) ∈ lR²
-1
-1
-1
-1
-1
-1
X ( [a,b] ), X (]a,b[), X ( [a,b[), X (]a,b] ), X ( [a,+ [ ), X ( {b}) sont tous des éléments de T
_____________________________________
Démonstration : exercice
a ) Démontrez que ∀ (A,B) ⊂ lR
X -1( A ) = X -1( A) ;
X -1( A∪B ) = X -1( A)∪ X -1( B ) ; X -1( A∩B ) = X -1( A)∩ X -1( B )
X -1( A\B ) = X -1( A)\ X -1( B )




X −1  I A i  = I X −1 (A i ) et X −1  U A i  = U X −1 (A i )
 i∈I  i∈I
 i∈I  i∈I
-1
c ) Démontrez que X (]a,b] ) ∈ T .
d ) Démontrez que X -1( {b}) ∈ T .
e ) Démontrez le Th .
_____________________________________
b ) Démontrez que ∀(Ai)i∈I ⊂ lR
Théorème 2 :
Soient X et Y deux variables aléatoires réelles sur ( Ω , T , P ) , λ∈lR , f continue sur lR
X + Y , λX , XY , f ( X ) , max ( X , Y ) , min ( X , Y ) sont des variables aléatoires réelles .
____________________________________
Remarque: max(X,Y) est la var tel que ∀ω∈Ω max ( X , Y )(ω) = max ( X(ω) , Y(ω))
attention max(X,Y) n'est ni égale à X ni à Y
1 5 2 8 7 -2 5 6 3
X(ω)
-1 5 3 6 6 6 8 1 3
Y(ω)
max ( X , Y )(ω) 1 5 3 8 7 6 8 6 3
Variables aléatoires discrètes
I ) Définitions :
Soit ( Ω , T , P ) un espace probabilisé.
Définition 1 :
Une variable aléatoire X est discrète ⇔ X( Ω ) est dénombrable ou fini .
________________________________
Théorème 2 :
Soit X une variable aléatoire discrète alors
X( Ω ) = { x1 , x2 , .........,xn } = { xi tel que i∈’1,n÷ }
ou X( Ω ) = { x1 , x2 , .........,xn, ...... } = { xi tel que i∈lN* }
Par convention on considérera que i<j ⇒ xi < xj .
_______________________________
Soit X une variable aléatoire discrète alors X -1( {xi}) ∈ T .
_______________________________
Remarque :
Définition 3 :
La loi d'une variable aléatoire discrète X est
a ) X (Ω )
b ) ∀xi ∈ X ( Ω ) P( X = xi) = P( X -1( {xi})
________________________________
5
Soit X : Ω → lR une fonction
X est une variable aléatoire discrète
c
Théorème 3 :
∑ P(X = x i ) = 1
x i ∈X ( Ω )
________________________________
Corollaire : (FONDAMENTAL)
( X = x i ) x ∈X ( Ω )
est un systéme quasi complet d'evenements .
i
________________________________
Remarque : Si X( Ω ) = { xi tel que i∈lN* } ;
+∞
∑ P(X = x i ) = ∑ P(X = x i ) est la somme d'une série convergente
x i ∈X ( Ω )
.
i =1
 n

 U (X = x i ) est une suite croissante majoré car
P
(
X
=
x
)
=
P
∑
i


i =0
 i =1

_______________________________
n
Démonstration: Sn =
 n

P U (X = x i ) ≤ P(Ω) = 1
 i =1

Exercice : Une urne contient 5 boules blanches et 3 boules noires ,on tire dans l'urne avec remise
X = " Nombre de boules blanche tirées avant l'obtention de la 2éme boule noire ".
Trouvez la loi de X et vérifiez que c'est bien une variable aléatoire
_______________________________
La fonction de répartition a la même définition et les mêmes propriétés que pour le cas finis .
_______________________________
II ) Moment d'une Var :
Définition 1 :
Soit X une variable aléatoire discrète , r ∈lN
On appelle moment d'ordre r de X (si il existe ) la quantité
mr(X) = E ( Xr ) =
∑ x i r P(X = x i )
x i ∈X ( Ω )
_______________________________
ATTENTION : Si X( Ω ) = { xi tel que i∈lN* } ;
+∞
∑ x i r P(X = x i ) = ∑ x i r P(X = x i ) est la somme d'une série qui n'est pas forcément convergente
x i ∈X ( Ω )
i =1
Si elle diverge le moment d'ordre r n'existe pas .
_______________________________
Définition 2 :
Soit X une variable aléatoire discrète .
On appelle espérance de X (si elle existe ) la quantité E( X) = m1(X) =
∑ x i P( X = x i )
x i ∈X ( Ω )
_______________________________
ATTENTION : Si X( Ω ) = { xi tel que i∈lN* } ;
+∞
∑ x i P(X = x i ) = ∑ x i P(X = x i ) est la somme d'une série qui n'est pas forcément convergente
x i ∈X ( Ω )
i =1
Si elle diverge l'espérance de X n'existe pas .
_______________________________
6
Remarque : Si X( Ω ) = { xi tel que i∈lN* }
∑ x i P(X = x i )
La définition rigoureuse de l'espérance demande que la série
soit absolument convergente .La différence n'est pas sensible dans votre programme.
x i ∈X ( Ω )
_______________________________
Définition 3 :
Soit X une variable aléatoire discrète ayant une espérance , r ∈lN
On appelle moment centré d'ordre r de X (si il existe )
la quantité µr(X)= E( (X-E(X))r ) =
∑ (x i − E(X) )r P(X = x i )
x i ∈X ( Ω )
_______________________________
ATTENTION : Si X( Ω ) = { xi tel que i∈lN* } ;
+∞
∑ (x i − E ( X ) ) P ( X = x i ) = ∑ (x i − E ( X ) )r P ( X = x i )
r
x i ∈X ( Ω )
i =1
est la somme d'une série qui n'est pas forcément convergente
Si elle diverge le moment d'ordre r n'existe pas .
_______________________________
Définition 4 :
Soit X une variable aléatoire discrète ayant une espérance.
On appelle variance de X (si elle existe ) la quantité V( X) = µ2(X) =
∑ (x i − E ( X ) )2 P ( X = x i )
x i ∈X ( Ω )
_______________________________
ATTENTION : Si X( Ω ) = { xi tel que i∈lN* } ;
+∞
∑ (x i − E ( X ) )2 P ( X = x i ) = ∑ (x i − E ( X ) )2 P ( X = x i )
x i ∈X ( Ω )
est la somme d'une série qui n'est pas
i =1
forcément convergente
Si elle diverge la variance de X n'existe pas .
_______________________________
Théorème 1 :
Si E( X ) et m2 ( X ) existe alors la variance existe et V(X) = m2 ( X ) - E( X )²
________________________________
Théorème 2 :
Toutes les propriétés de l'espérance et de la variance sont les même que dans le cas fini
________________________________
Définition 5 : Soit X une variable aléatoire discrète ayant une variance.
L'écart type de X noté σ(X) = V(X)
_________________________________
Exercice : Une urne contient 5 boules blanches et 3 boules noires ,on tire dans l'urne avec remise
X = " Nombre de boules blanche tirées avant l'obtention de la 2éme boule noire ".
Trouvez la loi de X et calculez ,si elles existent, E ( X ) et V( X )
_______________________________
7
II ) Lois classiques :
Définition 1 : Soit X une variable aléatoire ,p ∈ ] 0 , 1 [ q = 1 - p
X suit une loi géométrique de paramètre p
Notée X ⊂> G ( p)
c
X ( Ω ) = lN* et ∀ k∈ lN* P ( X = k ) = pqk-1 .
________________________________
Remarque : X ⊂> G ( p) ssi X est la loi d'un premier succès
Exercice : Soit une urne contenant 3 boules blanches et 5 boules noires
On effectue dans cette urne des tirages successifs et avec remise
X = " rang d'obtention de la première boule blanche "
Donnez la loi de X . Calculez E ( X ) et V (X) si elles existent.
________________________________
Théorème 1 : Soit X une variable aléatoire , p ∈ ] 0 , 1 [
telle que X ⊂> G ( p)
1
alors X a une espérance et une variance de plus E ( X ) =
et
p
_______________________________
Démonstration : A faire
________________________________
V( X ) =
q
p²
Définition 2 : Soit X une variable aléatoire , λ > 0
X suit une loi de Poisson de paramètre λ
Notée X ⊂> P ( λ)
c
e − λ λk
X ( Ω ) = lN et ∀ k∈ lN P ( X = k ) =
.
k!
________________________________
Soit X une variable aléatoire , λ > 0
telle que X ⊂> P ( λ)
alors X a une espérance et une variance de plus E ( X ) = λ
et
_______________________________
Démonstration : A faire
_______________________________
Théorème 2 :
V( X ) = λ
Le véritable début de la théorie des probabilités date de la correspondance entre Pierre de Fermat et Blaise Pascal
en 1654. Ceux-ci commencent à élaborer les bases du traitement mathématique des probabilités autour de l'étude
de jeux de hasard proposés, entre autres, par le chevalier de Méré.
Encouragé par Pascal, Christian Huygens publie De ratiociniis in ludo aleae (raisonnements sur les jeux de dés) en
1657. Ce livre est le premier ouvrage important sur les probabilités. Il y définit la notion d'espérance . Jacques
Bernoulli (1713) qui définit la notion de variable aléatoire et donne la première version de la loi des grands
nombres .La première version moderne du théorème de la limite centrale est donné par Alexandre Liapounov en
1901 . En 1902, Andrei Markov introduit les chaînes de Markov pour entreprendre une généralisation de la loi des
grands nombres pour une suite d'expériences dépendant les unes des autres. Ces chaînes de Markov connaîtront de
nombreuses applications entre autres pour modéliser la diffusion ou pour l'indexation de sites internet sur Google.
Il faudra attendre 1933 pour que la théorie des probabilités sorte d'un ensemble de méthodes et d'exemples divers et
devienne une véritable théorie, axiomatisée par Kolmogorov
8
Téléchargement