Cours d`introduction aux Probabilités - IMJ-PRG

publicité
Cours d’introduction aux Probabilités
C.Fiszka
Polytech’ Paris
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
1 / 78
Déroulement du cours
Le cours
[email protected]
H.defienne
Polycopié et exerices sur la page web
http ://www.math.jussieu.fr/ fiszka/
7 séances de cours (2h) et 7 séances de TD (2h)
Notation : 60% notes de cours + 40% notes de TD
Mardi 6 mai : partiel (1h)
Mercredi 28 mai : Examen (2h)
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
2 / 78
Plan du cours :
Espérance, moments
Bases des probabiliés
Lois usuelles discrètes
Intérêts des probabilités
Lois usuelles continues
Axiomatique de Kolmogorov
Convolution, loi d’une somme
Le cas d’équiprobabilité
3 Convergences de v.a.r
Probabilités conditionnelles, indéFonctions caractéristiques
pendance
Convergences de variable aléatoire
2 Variables aléatoires réelles
Lois des grands nombres
Théorème central limite
Loi de probabilité d’une v.a.r
Exemples d’intervalle de confiance
Fonction de répartition
Autres théorèmes de convergence
Définition d’une variable aléatoire
Complément : le lemme de Boreldiscrète
Cantelli
Définition d’une variable aléatoire
4 Couples de v.a.r
continue
Quantiles
Fonctions de répartition
V.a de loi ϕ(X )
Lois conjointes et marginales
Indépendance de variable aléatoire
Covariance et correlation
1
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
3 / 78
Chapitre 1
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
4 / 78
Intérêts des probabilités
Des applications nombreuses :
Vie quotidienne
Aux statistiques
Théorie des jeux
Économie/Finance
Automatisme (dans la prise de décision...)
Physique (mécanique statistique...)
Biologie
Branche importante des Mathématiques
etc...
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
5 / 78
Le problème du Chevalier de Méré
Jeu 1 : Sur un lancer de 4 dés, il gagne si au moins un "6" apparaît.
Jeu 2 : On lance 24 fois une paire de dés et il gagne si un "double 6" apparaît.
Je n’ai pas eu le temps de vous envoyer la démonstration d’une difficulté
qui étonnait fort M. de Méré, car il a très
bon esprit, mais il n’est pas géomètre
(c’est, comme vous savez, un grand défaut) (...) je n’ai jamais pu l’en tirer. Si
vous pouviez le faire, on le rendrait parfait. Pascal juillet 1654
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
6 / 78
Définitions
Vers l’axiomatique de Kolmogorov
En 1933.
Manuel des Fondements de la
théorie des probabilités, en
allemand Grundbegriffe der
Wahrscheinlichkeitsrechnung.
• Partons d’une « expérience aléatoire » :
L’ensemble des issues possibles sera appellé l’univers des possibles. On le
note Ω.
Attention : il existe plusieurs choix possibles de Ω.
Un évenement est une partie de Ω.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
7 / 78
Langage ensembliste
Langage probabiliste
Issue
Événement A
A est réalisé
Événement contraire (non-A)
A et B
A ou B
Événements incompatibles
A implique l’événement B
Événement impossible
Événement certain
Système complet
d’événements An
C.Fiszka (Polytech’ Paris)
Notation
ω (ω ∈ Ω)
A ⊂ Ω (A ⊂ Ω)
ω∈A
A=Ω\A
A∩B
A∪B
A∩B =∅
A⊂B
∅
Ω
S
Ω = n An
et Ai ∩ Aj = ∅
Cours d’introduction aux Probabilités
Langage ensembliste
élément de Ω
partie de Ω
complémentaire
intersection
union
inclusion
ensemble vide
espace entier
partition
8 / 78
Définitions (suite)
Une tribu (ou algèbre des événements) est la donnée de E ⊂ P(Ω) tels
que :
I
I
I
Ω ∈ E.
Stabilité par le complémentaire.
Stabilité par union finie ou dénombrable.
Un espace probabilisable est la donnée d’un couple (Ω, E ) avec :
I
I
Ω un univers des possibles.
E une tribu des événements sur Ω.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
9 / 78
Une mesure de probabilité
Soit (Ω, E ) un espace probabilisable.
• Une probabilité est une application P telle que
I
I
I
P : E → [0, 1]
P(Ω) = 1
Pour toute suite finie ou dénombrable d’événements deux à deux
incompatibles, on a :
!
[
X
P
An =
P(An )
n∈I
n∈I
• Un espace probabilisé est la donnée d’un triplet : (Ω, E , P)
I
I
espace probabilisable (Ω, E )
P une probabilité sur E .
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
10 / 78
Deux cas particuliers importants
Le cas fini où la probabilité est une somme pondérée de Dirac
X
P=
pi δxi
i∈I
Le cas absolument continu par rapport à la mesure de Lebesgue.
Z
P(A) =
f (x ) dx
A
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
11 / 78
Cas d’équiprobabilité
• Soit Ω de cardinal fini.
On dira qu’il y a équiprobabilité dans le cas où tous les événements élémentaires
ont même probabilité.
Si
Ω = {ω1 , ω2 , . . . , ωn } ⇒ P(ωj ) =
1
n
ou encore ∀A ∈ E :
P(A) =
C.Fiszka (Polytech’ Paris)
Card(A) nombre cas favorables
=
Card Ω
nombre cas possibles
Cours d’introduction aux Probabilités
12 / 78
Rappels en combinatoire
Nombre de permutations d’un ensemble à n éléments : n!
Nombre de p-uplets d’un ensemble à n éléments : np
Nombre de p-arrangements d’un ensemble à n éléments :
Apn :=
n!
= n(n − 1) . . . (n − p + 1)
(n − p)!
Nombre de parties d’un ensemble à n éléments : 2n
Nombre de parties à k éléments d’un ensemble à n éléments :
n!
n
:=
k
k!(n − k)!
Rappelons la formule du binôme de Newton :
n X
n k n−k
(a + b)n =
a b
k
k=0
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
13 / 78
Définition de la probabilité conditionnelle
Lois de probabilités conditionnelles, indépendance
Soit (Ω, E , P) un espace probabilisé et A un événement possible (P(A) 6= 0).
L’application :
PA :

 E
→ [0, 1]
 B
7→ PA (B) =
P(A ∩ B)
P(A)
est une probabilité sur (Ω, E ) appelée probabilité conditionnelle.
On note aussi PA (B) = P(B | A).
Si (An )n∈I définit un système complet alors :
P(B) =
X
P(An )P(B | An )
n∈I
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
14 / 78
Notion d’indépendance stochastique
Deux événements sont dits indépendants si :
P(A ∩ B) = P(A)P(B)
Ou encore PA (B) = P(B).
n événements sont dits mutuellement indépendants si pour toute partie
non vide I de [[1, n]] :
!
\
Y
P(Ai )
Ai =
P
i∈I
C.Fiszka (Polytech’ Paris)
i∈I
Cours d’introduction aux Probabilités
15 / 78
Formule de Bayes
Théorème
Pour tous événements possibles A, B :
P(A | B) =
P(A)P(B | A)
P(B)
Si (Aj )j désigne un système complet d’événements possibles et B un
événement possible, alors
P(Ak )P(B | Ak )
P(Ak | B) = P
j P(Aj )P(B | Aj )
Rappel : un événement A est possible si P(A) > 0.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
16 / 78
Chapitre 2
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
17 / 78
Le paradoxe de Bertrand (1888)
Soit C un cercle de rayon 1.
Quelle est la probabilité
√ qu’une corde du cercle, choisie au hasard, possède une
longueur supérieure à 3 ?
Que vaut la probabilité ?
1
3
ou
1
4
Le côté d’un triangle équilatéral inscrit dans ce cercle a pour longueur
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
√
3.
18 / 78
Définition d’une v.a.r
Soit (Ω, E , P) un espace probabilisé, une variable aléatoire réelle est une application :
Ω → R
X:
ω 7→ X (ω)
ayant la propriété suivante : l’image réciproque de tout intervalle de type ]a, b] est
un élément de la tribu E .
∀a < b,
C.Fiszka (Polytech’ Paris)
X −1 (]a, b]) ∈ E
Cours d’introduction aux Probabilités
19 / 78
Définition d’une loi de probabilité
Soit (Ω, E , P) un espace probabilisé et X une variable aléatoire réelle.
On appelle loi de probabilité de X la probabilité, notée PX , image de P par X :
PX (]a, b]) = P X −1 (]a, b])
Remarque : on utilisera les notations suivantes :
P(X ∈ A) := P({ω ∈ Ω | X (ω) ∈ A})
P(X = k) := P({ω ∈ Ω | X (ω) = k})
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
20 / 78
Définition d’une fonction de répartition
Soit (Ω, E , P) un espace probabilisé et X une variable aléatoire réelle.
La fonction de répartition de X est la donnée de :
R → [0, 1]
FX :
y 7→ PX (] − ∞, y ])
Quelques propriétés :
la fonction est croissante et continue à droite.
lim F = 1 et lim F = 0.
+∞
−∞
pour tout a < b
PX (]a, b]) = FX (b) − FX (a)
Une fonction de répartition caractérise la loi.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
21 / 78
Définition d’une v.a discrète
X (Ω) := {X (ω) | ω ∈ Ω}
Définition
On dit qu’une variable aléatoire est discrète lorsque X (Ω) est fini ou
dénombrable.
Remarques et exemple
Si Ω est fini ou dénombrable, X est une v.a discrète.
Pour connaitre la loi, il suffit de la connaître sur les singletons {x } car
X
P(X ∈ I) =
P(X = x )
x ∈I
La Loi de Bernoulli
P(X = 1) = p
et P(X = 0) = 1 − p = q
Loi uniforme discrète
P(X = k) =
C.Fiszka (Polytech’ Paris)
1
n
Cours d’introduction aux Probabilités
22 / 78
Définition d’une v.a continue
Définition
Une densité de probabilité est une fonction positive d’intégrale 1.
Soit X une v.a.r et fX une densité de probabilité sur R. On dit que X est v.a
continue de densité fX si pour tout intervalle [a, b] de R on a :
Z
b
P(X ∈ [a, b]) =
fX (t) dt
a
La fonction de répartition d’une variable aléatoire continue est la primitive de la
densité dont la limite en −∞ est nulle.
Z t
FX (t) = P(X 6 t) =
fX (u) du
−∞
C’est une fonction continue sur R. En tout point t où fX est continue, FX est
dérivable et
d
FX (t) = fX (t)
dt
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
23 / 78
Exemples de v.a continues
Loi uniforme continue
fX =
1
1[a,b]
b−a
Loi normale centrée réduite N (0, 1) :
1
2
fX (t) = √ e −t /2
2π
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
24 / 78
Quantiles
Définition
On appelle p-quantiles pour p ∈ N∗ , les valeurs xk,p pour lesquelles
F (xk,p ) =
k
,
p
k ∈ [[1, p[[
Remarques :
Pour p = 2, on parle de médiane ;
Les 3-quantiles sont appelés terciles ;
Les 10-quantiles sont appelés déciles...
Il n’y a pas unicité de xk,p . Pour avoir unicité, on peut poser :
k
xk,p = g
p
où g est l’inverse généralisé de la fonction de répartition FX :
g(u) := inf{x ∈ R | FX (x ) > u}
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
25 / 78
V.a de loi ϕ(X )
Supposons connue la loi de X (de densité fX ), on veut déterminer la loi de Y =
ϕ(X ).
Cas où ϕ est strictement croissante dérivable.
FY (y ) = P[Y 6 y ] = P[ϕ(X ) 6 y ] = P[X 6 ϕ−1 (y )] = FX (ϕ−1 (y ))
La densité correspondante est :
fY (y ) =
d
1
FY (y ) = 0 −1
fX (ϕ−1 (y ))
dy
ϕ (ϕ (y ))
Dans le cas général, il faut étudier les ensembles ϕ−1 (] − ∞, y ])...
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
26 / 78
Exemples, loi du χ2
Supposons que X ∼ N (0, 1)
ϕ une fonction affine ϕ(t) = σt + µ.
⇒
Y ∼ N (µ, σ)
ϕ la fonction carrée ϕ(t) = t 2 .
⇒
1
1 1
fY (y ) = √ √ e − 2 y 1R+∗ (y )
y 2π
est la loi du chi-deux à 1 degré de liberté X 2 (1).
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
27 / 78
Définition de l’indépendance de deux v.a.r
Définition
X et Y sont indépendantes si pour tout couple (I, J) d’intervalles de R, on a :
P ( (X ∈ I) ∩ (Y ∈ J) ) = P(X ∈ I) × P(Y ∈ J)
Exercice : Donner un exemple et un contre-exemple dans le cas d’un lancer d’une
paire de dés.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
28 / 78
Définition de l’espérance d’une v.a.r
Soit X une variable aléatoire réelle, l’espérance mathématique de X est (si elle
existe) définie par :
si X est une v.a.r discrète finie ou dénombrable
E(X ) =
X
x P(X = x )
x ∈X (Ω)
si X est une v.a.r à densité fX :
Z
E(X ) =
t fX (t) dt
R
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
29 / 78
Premières propriétés de l’espérance d’une v.a.r
Soient X1 et X2 deux v.a.r et λ ∈ R, alors
(Linéarité) E(X1 + λX2 ) = E(X1 ) + λE(X2 )
(Positivité) |E(X )| 6 E(|X |)
Si X1 et X2 sont indépendantes :
E(X1 × X2 ) = E(X1 ) × E(X2 )
Pour tout A ∈ E :
P(X ∈ A) = PX (A) = E(1A (X ))
Pour une fonction h : R 7→ R
E(h(X )) =



C.Fiszka (Polytech’ Paris)
P
h(x ) P(X = x )
en discret
x ∈X (Ω)
R
R
h(t)fX (t) dt
Cours d’introduction aux Probabilités
en continu
30 / 78
Définition des moments d’une v.a.r
Soit X une variable aléatoire réelle,
le moment d’ordre s de X est (s’il existe) défini par
ms (X ) := E(X s )
I
si X est une v.a.r discrète finie ou dénombrable
X
ms (X ) =
x s P(X = x )
x ∈X (Ω)
I
si X est une v.a.r à densité f :
Z
ms (X ) :=
t s f (t) dt
R
La variance est donnée par :
Var(X ) = E (X − E(X ))2 > 0
L’écart type est donné par :
σX =
C.Fiszka (Polytech’ Paris)
p
Var(X )
Cours d’introduction aux Probabilités
31 / 78
Premières propriétés
Soient X1 et X2 deux v.a.r et a ∈ R, alors
Var(aX + b) = a2 Var(X )
Si X1 et X2 sont indépendantes :
Var(X1 + X2 ) = Var(X1 ) + Var(X2 )
2
Var(X ) = E(X 2 ) − E(X )2 = m2 (X ) − m1 (X ) .
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
32 / 78
Inégalité de Markov et de Bienaymé-Tchebyshev
Théorème (Inégalité de Markov et de Bienaymé-Tchebyshev)
Soit Z une v.a positive, alors :
∀ε > 0,
P(Z > ε) 6
E(Z )
ε
Soit X une v.a.r admettant un moment d’ordre 2 (E(X 2 ) < +∞) alors :
∀ε > 0,
P(|X − E(X )| > ε) 6
σX2
ε2
Preuve : il faut remarquer que Z > ε1{Z >ε} , puis prendre Z = |X − E(X )|.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
33 / 78
Lois discrètes : Loi uniforme U[[a,b]]
Définition :


X (Ω)
=
 P(X = k)
=
Caractéristiques : E(X ) =
n+1
2
[[a, b]]
1
n
où n
V (X ) =
= b−a+1
n2 − 1
12
Modélisation : Tirage au hasard d’une boule numérotée dans une urne comptant
n boules notées de 1 à n.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
34 / 78
Loi de Bernoulli B(1, p)
Définition :



X (Ω)
= {0, 1}
P(X = 1) = p


P(X = 0) = 1 − p = q
Caractéristiques : E(X ) = p
V (X ) = pq
Modélisation : pour p = 1/2, lancer d’une pièce équilibrée.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
35 / 78
Loi Binomiale B(n, p)
(
Définition :
X (Ω)
=
[[0, n]]
P(X = k) = kn p k (1 − p)n−k
Caractéristiques : E(X ) = np
V (X ) = npq
Modélisation : Expérience de n épreuves de Bernoulli indépendantes.
source :
wiki
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
36 / 78
Loi de Poisson P(λ)
Définition :



X (Ω)

 P(X = k)
Caractéristiques : E(X ) = λ
= N
= e −λ
λk
k!
V (X ) = λ
Modélisation : Événement rare, temps d’attente à une caisse, appel téléphonique
etc...
source : wiki
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
37 / 78
Loi Géométrique G(p)
(
Définition :
X (Ω)
P(X = k)
Caractéristiques : E(X ) =
1
p
= N
=
(1 − p)k−1 p
V (X ) =
q
p2
Modélisation : Temps du premier échec. Modèle discret de la désintégration
d’une particule radioactive (loi sans mémoire).
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
38 / 78
Loi Hypergéométrique H(n, p, A)
Soit p ∈ [0, 1], pA ∈ N et n 6 A.
Définition :




X (Ω)


 P(X = k)
=
[[0, n]]
pA
=
k
Caractéristiques : E(X ) = npq
qA
n−k
A
n
V (X ) = npq
A−n
A−1
Modélisation : Tirage simultané.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
39 / 78
Lois continues : Loi uniforme U[a,b]
Définition :


 X (Ω)
= R

 f (x )
=
Caractéristiques : E(X ) =
1
1[a,b] (x )
b−a
a+b
2
V (X ) =
(b − a)2
12
Modélisation : Choix d’un point au hasard sur [a, b].
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
40 / 78
Loi exponentielle E(λ)
Définition :
X (Ω) = R+
fλ (x ) = λe −λx 1R+∗ (x )
Caractéristiques : E(X ) =
1
λ
V (X ) =
1
λ2
Modélisation : Processus sans mémoire, désintégration atomique (datation au
carbone 14).
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
41 / 78
Loi normale N (µ, σ)
Définition :



X (Ω)

 fµ,σ (x )
= R
=
Caractéristiques : E(X ) = µ
−
1
√ e
σ 2π
(x − µ)2
2σ 2
V (X ) = σ 2
Modélisation : Très importante en statistique (cf le théorème central limite).
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
42 / 78
Comment lire une table de la loi normale ?
u
0,00
0,01
0,02
...
0,0
0,500
0,504
0,508
...
0,1
0,539
0, 543
0,547
...
0,2
..
.
0,579
0,583
0,587
...
Exemple :
pour u = 0, 11 = 0, 1 + 0, 01 ⇒ F (u) = P(X 6 u) ' 0, 543
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
43 / 78
Qu’est ce qu’un produit de convolution ?
Cas fonctionnel : soient deux fonctions g, f : R 7→ C.
Le produit de convolution noté f ∗ g est défini (sous réserve de convergence)
par :
Z +∞
Z +∞
(f ∗ g)(x ) =
f (x − t) · g(t)dt =
f (t) · g(x − t)dt
−∞
−∞
Cas discret : soient deux suites u, v : N 7→ C.
Le produit de convolution noté u ∗ v est défini (sous réserve de convergence)
par :
(u ∗ v )(n) =
∞
X
m=−∞
C.Fiszka (Polytech’ Paris)
∞
X
u(n − m) · v (m) =
u(m) · v (n − m)
m=−∞
Cours d’introduction aux Probabilités
44 / 78
Propriétés du produit de convolution
Soient f , g et h trois fonctions et λ ∈ R :
(Linéarité) f ∗ (g + λh) = f ∗ g + λf ∗ h
(Commutativité) f ∗ g = g ∗ f
Lien avec les distributions : δ0 ∗ f = f avec δ0 la masse de Dirac en 0.
Lien avec la transformée de Fourier :
F(f ∗ g) = F(f ) · F(g)
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
45 / 78
Somme (cas discret)
Proposition
Soient X , Y deux variables aléatoires discrètes indépendantes, la loi de la
somme X + Y est donnée pour tout z ∈ N par :
P
P(Z = z) =
x P(X = x ) × P(Y = z − x )
P
=
y P(Y = y ) × P(X = z − y )
Exemples :
Donner la loi de la somme de deux v.a indépendantes suivant
respectivement une loi P(λ) et P(µ).
Donner la loi de la somme de deux v.a indépendantes suivant
respectivement une loi B(n, p) et B(m, p).
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
46 / 78
Somme (cas continu)
Proposition
Soient X , Y deux variables aléatoires indépendantes à densité fX et fY , la
somme X + Y est une v.a à densité donnée par :
fX +Y = fX ∗ fY
Exemple :
Donner la loi de la somme de deux v.a indépendantes suivant
respectivement une loi N (µ, σ) et N (µ0 , σ 0 ).
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
47 / 78
Chapitre 3
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
48 / 78
Définition des fonctions caractéristiques
La fonction caractéristique de la variable aléatoire X est :
ρX (t) := E(e itX )
pour X une v.a. discrète, on a :
ρX (t) =
X
e itx P(X = x )
x ∈X (Ω)
pour X une v.a continue de densité fX , on a :
Z
ρX (t) =
e itu fX (u) du
R
Remarque : dans le second cas, on reconnait une transformée de Fourier inverse
de la fonction densité fX .
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
49 / 78
Premières propriétés
ρX est continue sur R et majorée par ρX (0) = 1.
ρaX +b (t) = e ibt ρX (at).
Si X et Y sont indépendants alors :
ρX +Y = ρX ρY
Lien avec les moments
Si E(X s ) < +∞ pour s ∈ N∗ alors
(s)
ρX (0) = i s E(X s )
En particulier
E(X ) = −iρ0X (0),
C.Fiszka (Polytech’ Paris)
00
Var (X ) = ρ02
X (0) − ρX (0)
Cours d’introduction aux Probabilités
50 / 78
Applications
Soient X et Y deux v.a.r.
si
ρX = ρY
alors
PX = PY
La fonction caractéristique caractérise la loi d’une v.a.r.
Exercice : Trouver la loi de X + Y − Z où X ∼ N (0, 1), Y ∼ N (0, 2) et Z ∼
N (1, 3) (les variables sont indépendantes).
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
51 / 78
Exemples usuels en discret
Pour a, b, n ∈ N, λ ∈ R+
∗ et p ∈ [0, 1]
Si X ∼ U([[a, b]]), alors
b−a
ρX (t) =
X
e iat
e ikt
b−a+1
k=0
Si X ∼ B(n, p), alors
ρX (t) = (q + pe it )n
Si X ∼ P(λ), alors
ρX (t) = exp(λ(e it − 1))
Si X ∼ G(p), alors
ρX (t) =
C.Fiszka (Polytech’ Paris)
pe it
1 − q e it
Cours d’introduction aux Probabilités
52 / 78
Exemples usuels en continu
Pour a, b, µ ∈ R et λ, σ ∈ R+
∗
Si X ∼ U([a, b]), alors
ρX (t) =
e itb − e ita
it(b − a)
Si X ∼ E(λ), alors
ρX (t) =
1−
it
λ
−1
Si X ∼ N (µ, σ), alors
σ2 t 2
ρX (t) = exp µit −
2
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
53 / 78
Différents types de convergence
On dira que X et Y deux v.a sont égales presque-partout si
P(ω t.q X (ω) 6= Y (ω)) = 0
Définition (Les convergences)
(Xn )n converge presque sûrement vers X si
P(ω t.q lim Xn (ω) 6= X (ω)) = 0
n
La suite (Xn )n converge en probabilité vers X si pour tout ε > 0, on a :
lim P(|Xn − X | > ε) = 0
n→∞
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
54 / 78
Convergence en loi
Définition
(Xn )n converge en loi vers X si les fonctions de répartition de Xn converge vers la
fonction de répartition de X en tout point de continuité de cette dernière.
pour des v.a discrètes convergent vers une v.a discrète :
∀x ∈ R,
lim P(Xn = x ) = P(X = x )
n→∞
pour des v.a. à densité fXn vers une v.a à densité fX
∀t ∈ R,
fXn (t) −→ fX (t)
n→∞
Théorème (de Levy)
Loi
Xn −→ X
simpl.
si et seulement si ρXn −→ ρX
où
ρn (t) = E[e itXn ]
C.Fiszka (Polytech’ Paris)
et ρ(t) = E[e itX ]
Cours d’introduction aux Probabilités
55 / 78
Liens entre ces différentes convergences :
Convergence presque sûrement
P(ω t.q lim Xn (ω) 6= X (ω)) = 0
n
⇓
Convergence en probabilité
∀ε > 0,
lim P(|Xn − X | > ε) = 0
n→∞
⇓
Convergence en loi
lim P (Xn ∈ A) = P (X ∈ A) 1
n→∞
1. Pour tout A ∈ E dont la frontière ∂A vérifie P (X ∈ ∂A) = 0.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
56 / 78
Lois des grands Nombres
Théorème (Loi faible des grands Nombres)
Soit Xi une suite v.a.r indépendantes et de même loi. Si de plus E(Xi2 ) < +∞,
alors :
n
1 X Proba.
Xi −→ E(X1 )
Xn =
n i=1
Remarque : preuve via Bienaymé-Tchebyshev.
Application au Théorème de Bernoulli :
Lorsque le nombre d’expériences aléatoires augmentent indéfiniment, la fréquence
d’apparition Fn (A) de l’événement A converge en probabilité vers sa probabilité
théorique p = P(A).
∀ε > 0,
C.Fiszka (Polytech’ Paris)
lim P(|Fn (A) − p| > ε) = 0
n
Cours d’introduction aux Probabilités
57 / 78
Une expérience : calcul des décimales de π.
Tirons des points uniformément dans un carré [0, 1]2 . Soit Xi une v.a valant 1 si le
i-ème point tiré est dans le quart de disque et 0 sinon. On a P(Xi = 1) = π/4.
On s’attend à Fn =
Nombre de points dans le quart de disque
Nombre de points tirés
'
π
4.
Plus généralement, on parle de Méthode de Monte-Carlo.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
58 / 78
Loi forte des grands Nombres
Théorème (Loi forte des grands Nombres )
Soit Xi une suite v.a.r indépendantes et de même loi. Si de plus E(Xi2 ) < +∞.
Alors :
n
1X
p.s
Xn =
Xi −→ E(X1 )
n i=1
Principe Shadok :
Plus ça rate, et plus on a de chances que
ça marche.
Exemple : Ils avaient calculé que leur fusée avait une chance sur un million de
décoller, ils se sont donc dépêchés de rater les 999 999 premiers essais pour être
sûrs que le millionième soit le bon.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
59 / 78
Une expérience : la Planche de Galton.
Partons de X0 = 0. On définit Xi une v.a représentant la direction prise par la boule
au i-ème étage (−1 pour gauche, +1 pour droite). La loi de X est P(Xi = −1) =
n
P
Xi . De plus
P(Xi = 1) = 21 . La position de la bille à la fin est donnée par S =
i=1
les Xi sont indépendants.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
60 / 78
Théorème de De Moivre-Laplace
Théorème (de De Moivre-Laplace)
Soit Sn une suite de v.a de loi Binomiale B(n, p), alors :
Sn − np Loi
−→ N (0, 1)
√
npq
Principe de l’approximation,
P
Sn − np
6t
√
npq
!
' FN (0,1) (t)
avec F la fonction de répartition de la loi normale centrée réduite.
Meilleure approximation par « correction de continuité ».
Visualisation via GeoGebra.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
61 / 78
Mise en pratique : les sondages
Le modèle : on considère une population de N individus et on sonde n
personnes avec n N. Supposons que 45% des gens soient pour, le reste
étant contre.
Questions :
Q1 : Quelle est la probabilité pour que le sondage soit favorable ?
Q2 : Combien de sondage faut-il faire pour en avoir au moins un favorable
dans 95% des cas ?
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
62 / 78
Théorème central limite
Théorème (central limite)
Soit (Xn )n une suite de variables aléatoires indépendantes de même loi
d’espérance µ et d’écart-type σ. Alors :
n
P
i=1
Xn − nµ
Loi
√
−→ N (0, 1)
σ n
Idées de la preuve.
Une généralisation du théorème de De Moivre-Laplace.
Principe de l’approximation.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
63 / 78
Application du TCL aux intervalles de confiance
Partons de la répétition d’une expérience conduisant à l’observation des valeurs
numériques x1 , . . . xn . La moyenne empirique est
µ̂ =
x1 + . . . xn
n
Supposons la variance σ connue.
"
σ
σ
I = µ̂ − 1.96 × √ ; µ̂ + 1.96 × √
n
n
#
Avec 95% de chance, l’espérance appartient à I si n est « suffisament
grand ».
Si la variance est inconnue. On peut remplaçer σ par son approximation
empirique σ̂
"
#
σ̂
σ̂
I = µ̂ − 1.96 × √ ; µ̂ + 1.96 × √
n
n
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
64 / 78
Exemple d’un sondage
Voici les résultats d’un sondage IPSOS réalisé avant l’élection présidentielle de 2002
pour Le Figaro et Europe 1, auprès de 989 personnes, constituant un échantillon
national représentatif de la population française.
Dans cet échantillon, les intentions de vote au premier tour pour les principaux
candidats sont les suivantes : 20% pour J. Chirac, 18% pour L. Jospin et 14% pour
J.-M Le Pen. Les médias se préparent donc, au vu de ce sondage, pour un second
tour entre J. Chirac et L. Jospin...
Le 21 avril 2002, les résultats du premier tour des élections sont les suivants :
19.88% pour J. Chirac, 16.18% pour L. Jospin et 16, 86% pour J.-M Le Pen.
Q. Le sondage permet-il de donner la composition du second tour à 95% de
chance ?
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
65 / 78
Autres théorèmes de convergence
Théorème (Convergence de la loi de Binomiale vers la loi de Poisson)
Soient Xn ∼ B(n, pn ) indépendantes tels que :
n
→ +∞
⇒
npn → λ
Loi
Xn −→ P(λ)
Théorème (Convergence de la Loi Hypergéométrique vers la
Binomiale)
Soient Xn ∼ H(N, n, p) indépendantes tels que N → +∞. Alors
Loi
Xn −→ B(n, p)
N→+∞
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
66 / 78
Exercice partiel ELI 2012
En France, il y a environ 1 punk pour 1000 personnes. Dans une salle de 3000
personnes choisies au hasard dans la population, quelle est la probabilité de tomber
sur un groupe d’au moins 3 punks ?
Indication : on pourra approximer le problème par une loi de Poisson.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
67 / 78
Un théorème limite
Soit (An )n∈N une suite d’événements, on pose :
\ [
lim sup An =
(
Ak )
n∈N
n>0 k>n
Lemme (De Borel-Cantelli)
Si
P
P(An ) < +∞ alors P(lim supn∈N An ) = 0.
n∈N
Si les événements sont indépendants alors
P
P(An ) < +∞ implique
n∈N
P(lim supn∈N An ) = 1.
• Exemple : Le singe dactylographique.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
68 / 78
Chapitre 4
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
69 / 78
Un exemple discret et les aiguilles de Buffon
• On considére deux Tirages indépendants et uniformes dans [[1, 4]]
X = T1
et Y = max(T1 , T2 )
• On veut calculer la probabilité pour qu’une aiguille lancée de manière aléatoire
coupe la ligne de séparation entre deux lames de parquet (supposées infinies en
longueur).
θ suit une loi uniforme continue sur [0; π/2]
x suit une loi uniforme continue sur [0; L/2]
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
70 / 78
Fonctions de répartition
Définition
Soient X , Y deux v.a définies sur un espace probabilisé (Ω, E , P). On définit
La fonction de répartition conjointe de X et Y par :
FXY (x , y ) = P ((X 6 x ) ∩ (Y 6 y ))
Les fonctions de répartition marginales de X et Y par :
• FX (x ) = FXY (x , +∞) = P(X 6 x )
• FY (y ) = FXY (+∞, y ) = P(Y 6 y )
X et Y sont indépendantes si et seulement si
∀(x , y ),
C.Fiszka (Polytech’ Paris)
FXY (x , y ) = FX (x )FY (y )
Cours d’introduction aux Probabilités
71 / 78
Lois conjointes et marginales (cas discret)
Soient X , Y deux v.a discrètes définies sur un espace probabilisé (Ω, E , P).
X (Ω) = {xn | n ∈ I},
Y (Ω) = {yn | n ∈ J}
La loi conjointe du couple (X , Y ) est donnée par :
P(xi , yj ) = P ((X = xi ) ∩ (Yj = yj ))
Les lois marginales désignent les lois de X et Y
X
P ((X = xi ) ∩ (Yj = yj ))
• P(X = xi ) =
j∈J
• P(Y = yj ) =
X
P ((X = xi ) ∩ (Yj = yj ))
i∈I
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
72 / 78
Lois conjointes et marginales (cas continu)
Soient X , Y deux v.a continue définies sur un espace probabilisé (Ω, E , P). On dira
que le couple (X , Y ) admet une densité notée fX ,Y si :
FX ,Y est deux fois dérivable par rapport à x et y
fX ,Y =
∂ 2 FX ,Y
∂x ∂y
On définit les densités marginales de probabilité de X et Y respectivement par :
Z +∞
fX ,Y (x , v ) dv
fX (x ) =
−∞
Z
+∞
fY (y ) =
fX ,Y (u, y ) du
−∞
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
73 / 78
Propositions
Ry
f (u, v ) du dv
−∞ −∞ X ,Y
FX ,Y (x , y )
=
Rx
FX (x )
=
Rx
R +∞
f (u, v ) du dv
−∞ −∞ X ,Y
Si D est une partie « mesurable » de R2 :
ZZ
ZZ
P ( (X , Y ) ∈ D ) =
fX ,Y (u, v ) du dv =
1D fX ,Y (u, v ) du dv
R2
D
Si X et Y sont indépendantes :
fX ,Y (u, v ) = fX (u)fY (v )
Application : Il y a intersection entre l’aiguille et une des lignes si
x6
L
sin θ
2
P(« L’aiguille intersecte la ligne ») =
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
2L
πl
74 / 78
Covariance
Définition
On définit la covariance d’un couple (X , Y ) par :
cov(X , Y ) = E ( (X − E(X ))(Y − E(Y )) )
⇒
cov(X , Y )
=
RR
cov(X , Y )
=
P
R2
i,j
(u − E(X ))(v − E(Y ))fX ,Y (u, v ) du dv
continu
pi,j (xi − E(X ))(yj − E(Y ))
discret
où pi,j = P ((X = xi ) ∩ (Yj = yj )).
On a alors :
V (X + Y ) = V (X ) + V (Y ) + 2 cov(X , Y )
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
75 / 78
Coefficient de correlation
Définition
On définit le coefficient de correlation d’un couple (X , Y ) par :
ρ(X , Y ) =
cov(X , Y )
σX σY
Remarque : Deux v.a indépendantes sont décorrélées :
X , Y indépendantes ⇒ ρ(X , Y ) = 0
Mais l’inverse est faux.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
76 / 78
Lois conditionnelles pour des v.a à densité
Lorsque cela a un sens, on défnit la fonction de répartition conditionnelle de la
variable aléatoire Y pour X = x par :
F (y | x ) = lim P(Y 6 y | a < x 6 b) =
a,b→x
1
fX (x )
Z
y
fXY (x , v ) dv
−∞
et la densité de probabilité conditionnelle de la variable aléatoire Y pour X = x
par :
∂F (y | x )
f (y | x ) =
∂y
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
77 / 78
FIN ! !
Références
Polycopié de cours, Claire LeGoff
Probabilités, Analyse de Données statistiques, G.Saporta
Probabilité pour non-probabilistes, W.Apfel
Exercices de probabilité, Cotterel/Genon-Catalot/Duhamel/Meyre
Statistiques en action, Rivoirard et Stoltz.
C.Fiszka (Polytech’ Paris)
Cours d’introduction aux Probabilités
78 / 78
Téléchargement