Table des matières
Cours
1. Loi de probabilité; espérance; moments…………………………………….. 5
2. Lois discrètes ; lois à densité………………………………………………… 10
3. Indépendance d'événements, de tribus, de variables aléatoires……………… 13
4. Caractérisation des lois……………………………………………………… 18
5. Suites de variables aléatoires; différentes sortes de convergence…………… 28
6. Echantillons d'une loi. Définitions et notations pour la suite……………….. 34
7. Estimateurs pour une loi normale…………………………………………… 35
8. Loi(s) des grands nombres…………………………………………………… 36
9. Le théorème de la limite centrale…………………………………………… 39
10. Jugement sur échantillon; intervalles de confiance et tests d'hypothèses…… 43
sur une moyenne.
Annexes
1. Corrélation linéaire………………………………………………………….. 49
2. Produit dénombrable d'espaces probabilisés………………………………… 51
3. Théorème de Borel-Cantelli: loi du tout ou rien…………………………….. 53
4. Marches aléatoires…………………………………………………………… 55
5. Introduction aux chaînes de Markov finies………………………………….. 59
6. Processus de Poisson………………………………………………………… 65
7. Formule d'inversion pour X réelles et ΦX intégrable………………………… 69
8. Deux lois fortes des grands nombres………………………………………… 71
9. Une amélioration de l'inégalité de Bienaymé-Chebychev…………………… 75
10. Le test du 2 d'ajustement…………………………………………………… 77
11. Méthodes de Monte-Carlo pour le calcul d'intégrales……………………….. 81
12. Examen de passage 1-2, 1999 (entropie d'un système aléatoire discret)…….. 91
13. Examen de passage 1-2, 2000 (sommes aléatoires de variables aléatoires)…. 95
14. Examen de passage 1-2, 2001 (loi du min, loi du max ; étude asymptotique).. 99
15. Lois classiques : récapitulatif………………………………………………… 103
Bibliographie………………………………………………………… 105
COURS
1) LOI DE PROBABILITE; ESPERANCE; MOMENTS
On appelle espace probabilisé un espace mesuré (,T,p) vérifiant la condition p() = 1. est l'ensemble des
possibles, ou événements élémentaires, et les éléments de T sont appelés événements.
Exemple: la probabilité uniforme:
Si est fini non (vide) et si T est l'ensemble des parties de , la probabilité uniforme p sur est définie
sur T par:
p(A) = Card A
Card .
Le calcul de la probabilité d'un événement se ramène alors à un problème de dénombrement. Par
exemple:
La probabilité pour qu'en jetant 6 dés non truqués, on obtienne 6 résultats deux à deux distincts est
p = 6!
66 # 0,015.
La probabilité pour que parmi n personnes, au moins deux aient la même date de naissance (en
supposant n 365 et qu'aucune de ces personnes ne soit née un 29 vrier) est pn =1 - An
365
365n , soit
donc: pn = 1- k=1
n-1(1- k
365). On obtient par exemple p4 # 0,016 et p64 # 0,997 ; pn dépasse 50% pour n=25.
Si, sur M tickets de loterie, n sont gagnants (avec n M/2), la probabilité pour qu'un acheteur de n
billets en ait au moins un gagnant est p = 1 - Cn
M-n
Cn
M
.
Si D est une partie mesurable de mesure finie non nulle de Rd , λ(d) et T la mesure et la tribu de Lebesgue
de D, la probabilité uniforme p sur D est définie sur T par:
p(A) = λ(d)(A)
λ(d)(D) .
Par exemple, la probabilité pour qu'un nombre choisi au hasard dans l'intervalle [0,1] soit rationnel est
nulle.
Si B T est un événement de probabilité 0, on définit sur (,T) la probabilité conditionnelle sachant B , notée
pB , par :
pB(A) = p(A/B) = p(AB)
p(B) .
p(A/B) = p(A) p(AB) = p(A).p(B) (ceci traduit l'indépendance de A et B; cf. paragr. 3).
Si A, B T sont tels que p(A).p(B) 0, alors : p(A/B).p(B) = p(B/A).p(A) (formule d'inversion).
Si (Bk) est un système complet d’événements (i.e. une partition finie ou dénombrable de parties mesurables
mesurables de ) de probabilités non nulles, alors :
AT : p(A) = k
p(ABk) = k
p(A/Bk).p(Bk) (formule des probabilités totales)
Si p(A) 0: i : p(Bi/A) = p(A/Bi).p(Bi)
k
p(A/Bk).p(Bk) (formule de Bayes).
Exemples:
Dans une population, la probabilité pour qu'un individu ait une maladie M donnée est p.
On dispose d'un test T de dépistage, et l'on évalue à 0,95 la probabilité pour qu'une personne ayant -
respt: n'ayant pas - la maladie ait un test positif - respt. négatif).
Evaluons l'efficacité du test sur la population en donnant la probabilité pour qu'une personne ayant un
test positif ait effectivement la maladie.
Notons T l'événement: "le test est positif" et M : "la personne a la maladie"; il vient:
p(M/T) = p(T/M).p(M)
p(T/M)p(M) + p(T/Mc)p(Mc) = g(p) ,
avec p(M) = p , p(Mc) = 1-p , p(T/M) = 0,95 ,
p(Tc/Mc) = 0,95 et p(T/Mc) = 0,05.
On trouve g(p) = 19p
18p+5 . g croît de 0 à 0,83 avec p.
Pour une population peu atteinte, le test sera très peu concluant
(g(0,005) # 0,087).
Le test est efficace à 50% pour p = 1/4.
Un fumeur décide de ne plus fumer; le jour (jour 1) de cette (sage) décision, il ne fume pas.
On considère que, pour j 1:
la probabilité qu’il fume le jour j+1 sachant qu’il n’a pas fumé le jour j est α ]0,1[.
la probabilité qu’il ne fume pas le jour j+1 sachant qu’il a fumé le jour j est β ]0,1[.
Cherchons la probabilité un pour qu'il ne fume pas le jour n (événement An): la formule des
probabilités totales fournit, pour n 1: un+1 = (1-α-β)un + β , avec u1 = 1. On obtient par la méthode
classique:
un = β
α+β + α
α+β.(1-α-β) n-1. Notons que lim
n +un = β
α+β :
Si 1-α > β (s'il lui est plus facile de ne pas fumer un jour s'il n'a pas fumé la veille), un tendra vers
sa limite de façon monotone (en décroissant).
Si 1-α < β (s'il lui est plus facile de ne pas fumer un jour s'il a fumé la veille), un tendra vers sa
limite en oscillant.
Si α + β = 1, un est constante et égale à cette valeur commune (logique).
Supposons de plus que la décision de fumer ou non le jour j sachant son attitude adoptée les jours
précédents ne dépend que de l'attitude adoptée le jour j-1 (suite sans mémoire; cf annexe: chaînes de
Markov), et calculons la probabilité pour que le fumeur ne fume pas du jour n au jour q inclus (q>n):
p(k=n
qAk ) = p( Aq / k=n
q-1Ak ).p(k=n
q-1Ak) ==
hyp p(Aq/Aq-1 ). p(k=n
q-1Ak ) = p1. p(k=n
q-1Ak );
par récurrence, on obtient: p(k=n
qAk ) = (1-α)q-n.p(An).
Il en découle la probabilité pour qu'il ne fume plus à partir du jour n (avec Beppo-Levi):
p( kn
Ak ) = lim
q + p(k=n
qAk ) = 0,
et celle pour qu'il s'arrête définitivement de fumer un jour:
p( n
kn
Ak ) = 0 (!).
Une variable aléatoire sur (en abrégé v.a.) est une application mesurable de dans K = R, C, Rd ou une de
leurs parties (v.a. réelle; complexe; vecteur aléatoire de dimension d). Une v.a. à valeurs dans un ensemble fini
ou dénombrable est dite discrète.
On décrit une variable aléatoire X : K par les p({ω∈, X(ω) A}) = p(X-1(A)) pour A borelien de K ; on
note: p(X-1(A)) = p(XA) = pX(A)
pX est la mesure image de p par X (c'est une probabilité sur K), aussi appelée loi de X .
Pour une v.a. discrète à valeurs dans un ensemble I (fini ou dénombrable), on note p(X-1({k})) = p(X=k) = pk
pour k I , et ainsi: pX = kI
pk.δk , δk désigne la mesure de Dirac en k.
Si une v.a. X a pour loi la probabilité uniforme sur un ensemble , on dit que X suit la loi uniforme sur .
On introduit une v.a. X sur un espace probabilisé pour mesurer le résultat d'une expérience aléatoire
(expérience renouvelable, en principe sinon en pratique, et qui, renouvelée dans des conditions "identiques", ne
donne pas à chaque essai le même résultat).
Pour étudier une expérience aléatoire, on modélise la situation en attribuant par exemple à certaines v.a. des lois
connues, ce qui permet ensuite de faire des prévisions théoriques sur les résultats de l'expérience.
Toute modélisation exige un choix; un modèle valide est un modèle qui, confronté avec les données recueillies
lors de l'expérience, fournit des résultats satisfaisants (c'est l'objet de la statistique).
Exemples:
Le lancer de trois dés non truqués peut se modéliser en considérant que les dés sont discernables et
que le résultat (a1,a2,a3) obtenu suit la loi uniforme sur {1,…,6}3 .
Déterminons les lois des v.a. X = min(a1,a2,a3) et Y = max(a1,a2,a3) en donnant la loi de (X,Y):
Pour 1 i 6 : p(X=i,Y=i) = p( (a1,a2,a3) = (i,i,i) ) = 1
63 .
Pour 1 i < j 6 (sans trop formaliser):
(X=i, Y=j) = k=1
3( ak = i , autres = j ) k=1
3( ak = j , autres = i )
k=1
3( i < ak < j , {autres} = {i,j} ) , et la réunion est disjointe; il suit:
p( X=i,Y=j) = 3. 1
63 + 3. 1
63 + 3.2. j-i-1
63 = j-i
36 .
Ce sont bien sûr les seuls événements de probabilités non nulles.
Nous pouvons donner maintenant les lois de X et Y (à valeurs dans {1,…,6}):
p(X=i) = j=i
6 p(X=i,Y=j) = 1
63 + j=i+1
6j-i
36 = 3i2 - 39i +127
216 .
p(Y=j) = i=1
j p(X=i,Y=j) = 1
63 + i=1
j-1 j-i
36 = 3j2- 3j +1
216 .
Remarques:
La loi d’un couple (X,Y) de v.a. fournit fournit celles de X et Y, et d'une façon générale celle de
ϕ(X,Y) pour toute fonction mesurable ϕ, avec:
p( ϕ(X,Y) A ) = p(X,Y)( ϕ-1(A) ) =
ϕ-1(A)
dp(X,Y) =
ϕ(x,y)A
dp(X,Y)(x,y) .
Si X1,…,Xn sont n v.a. indépendantes et équidistribuées, on peut obtenir facilement les lois des
v.a. S = sup(X1,…,Xn) et I = inf(X1,…,Xn) à l’aide de la fonction de répartition commune aux Xi
(voir après).
1 / 91 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !