L2 Mention Informatique UE Probabilités Chapitre 6 : Chaînes de

publicité
L2 Mention Informatique
UE Probabilités
Chapitre 6 : Chaînes de Markov
Notes de cours rédigées
par
Régine André-Obrecht, Julien Pinquier et Sergeï Soloviev
1
I.
Introduction
Les chaînes de Markov sont dues à Andreï Markov (mathématicien russe, 1856-1922).
De manière simplifiée : « La prédiction du futur, sachant le présent, n'est pas rendue plus précise par
des éléments d'information concernant le passé. »
Définition : Une suite de variables aléatoires (Xn)n∈ N prenant leur valeurs dans un ensemble Ω =
{E1, ..., Er} fini est une chaîne de Markov si et seulement si elle satisfait aux conditions équivalentes
suivantes :
(
(i) P X n +1 = E i n +1
) (
)
X 0 = E i 0 , X1 = E i1 , ..., X n = E i n = P X n +1 = E i n +1 X n = E i n ,
(
)
(ii) P X 0 = E i 0 , X 1 = E i1 , ..., X n = E i n , X n +1 = E i n +1 = q i 0 p i 0i1 ... p i n -1i n p i n i n +1 .
avec : ∀i, q i = P(X 0 = E i ) la loi de probabilité initiale,
(
)
et p ij = P X k +1 = j X k = i la probabilité de transition Xk=i à Xk+1=j.
∀i, j, n p ij = P(X n +1 = E j / X n = E i ) la probabilité conditionnelle d’obtenir le résultat Ej sachant
que le résultat précédent est Ei.
Définition : La matrice de transition P d’une chaîne de Markov (Xn)n∈ N est la matrice suivante :
 p11

p
P =  21
...

p
 r1
p12
p 22
...
p r2
... p1r 

... p 2r 
.
... ... 

... p rr 
Les pij vérifient ces 2 propriétés : ∀i, j p ij ≥ 0 et ∀i
r
∑p
k =1
ik
= 1.
(matrice carrée dont chaque élément est un réel compris entre 0 et 1 et dont la somme des éléments de
chaque ligne vaut 1).
Les matrices vérifiant ces propriétés sont appelées les matrices stochastiques (ou matrices de
Markov).
Soit p ij(n) = P(X k + n = E j / X k = E i ) la probabilité conditionnelle de passer de Ei à Ej en n étapes :
-
∀n ≥ 0, ∀i, j = 1, ..., r les p ij(n) peuvent être calculés récursivement par :
r
(n+1)
p ij(1) = p ij et p ij(n +1) = ∑ p ik p (n)
= P.P(n))
kj , (on peut l’écrire ainsi : P
k =1
-
les p ij(n) sont les coefficients de la matrice Pn (matrice de transition P multipliée par elle-même
n fois !),
-
toutes les matrices Pn sont des matrices stochastiques.
2
II.
Graphe d’une chaîne de Markov
Définition : La matrice de transition d’une chaîne de Markov est représentée par un graphe orienté G
= (S, A), défini comme suit :
- S = {E1, ...,Er} = {1, ..., r} (« les sommets sont les états de la chaîne »),
- (i, j) ∈ A ssi pij > 0 et dans ce cas l’étiquette est pij.
Exemple 1 :
 0,5 0,25 0,25 


P =  0,25 0,5 0,25 
 0,5
0
0,5 

0,25
0,25
1
0,5
0,25
0,5
2
0,5
0,25
3
0,5
III.
Classification des états
Définition : Un ensemble d’états non vide C est dit fermé si aucun état à l’extérieur de C ne peut être
atteint à partir d’un état Ei appartenant à C, c’est-à-dire C est fermé ssi :
∀Ei ∈ C et Ej ∉ C, pij = 0.
Si un singleton C = {Ei} est fermé, on dit que l’état Ei est absorbant (pii = 1).
Un ensemble fermé F est irréductible s’il n’existe pas de sous-ensemble fermé F′ ≠ F de F.
Une chaîne de Markov est irréductible s’il n’existe pas d’autre ensemble fermé que l’ensemble de
tous les états (« tous les états de la chaîne communiquent entre eux »).
Lemme : Une chaîne de Markov est irréductible ssi son graphe est fortement connexe (il existe un
chemin de chaque état à chaque autre état).
NB : La chaîne de Markov de l’exemple 1 est irréductible.
Définition : Un état Ei est dit persistant (ou récurrent) si la probabilité que, parti de Ei, le système y
revienne, est égale à 1. Sinon, il est dit transitoire.
De point de vue pratique, les états persistants et transitoires sont caractérisés par :
- Ei est transitoire ssi il existe Ej tel que l’on puisse atteindre Ej (en plusieurs étapes si besoin) à
partir de Ei, mais que l’on ne puisse pas atteindre Ei à partir de Ej,
- les états d’une chaîne de Markov peuvent être répartis, de manière unique, en une partition :
Ω = T ∪ C1 ∪ C 2 ∪ ... ∪ C k avec T l’ensemble des états transitoires, et chaque Ci est un
ensemble fermé irréductible d’états persistants. De plus, toute chaîne de Markov finie
admet au moins un état persistant.
Remarque : Dans le graphe, tous les états de Ci sont mutuellement accessibles. Des états de T on peut
toujours passer à un des Ci (mais jamais revenir). On ne peut pas passer entre Ci et Cj.
3
La période d’un état i est le plus grand commun diviseur (PGCD) de tous les entiers n pour lesquels
p i,(n)i > 0 . Si la période vaut 1, on dira que l’état est apériodique.
IV.
Répartition stable
Une répartition est stable (p1, ..., pr) si (p1, ..., pr) P = (p1, ..., pr)
(« quand P(Xn = Ei) = pi, les probabilités ne changent pas après la transition »),
Les pi doivent satisfaire le système des équations linéaires suivant :
 p11 p1 + p 21 p 2 + ... + p r1p r = p1
p p + p p + ... + p p = p
 12 1
22 2
r2 r
2
ainsi que l’équation suivante : p1 + p 2 + ... + p r = 1 .

...

 p1r p1 + p 2r p 2 + ... + p rr p r = p r
Un état i est apériodique p i,(n)i > 0 pour tout n suffisamment grand (période = 1, cf. section Erreur !
Source du renvoi introuvable.).
Si la chaîne est irréductible et tous les états sont apériodiques alors il existe une solution unique de ces
équations donc : p i = lim p ii(n) .
n →∞
V.
Temps moyen d’absorption
Pour chaque état transitoire Ei, on introduit une variable aléatoire Ti : le nombre d’étapes avant
l’arrivée à un des états persistants.
Remarque : La probabilité que le système n’arrive jamais à un état persistant est nulle !
Alors, on peut considérer l’espérance E(Ti) : E(Ti ) =
∞
∑ P(T
s=0
i
= s + 1).(s + 1) .
Pour simplifier la notation, soient des états {1, ..., m} transitoires et des états {m+1, ..., n} persistants.
Evidemment, P(Ti = 1) =
n
∑p
j= m +1
On a aussi : P(Ti = s + 1) =
ij
(probabilité de passage à l’état persistant dans une étape).
m
∑p
j=1
ij
.P(Tj = s) , s ≥ 1 (si l’on passe à un état persistant en plus qu’1
étape, alors la première étape est ij avec i et j transitoires).
On peut écrire :
∞  m
∞
m



P(T
s
1).(s
1)
p
.P(T
s)
.(s
+
1)
=
p
.
=
+
+
=
=
∑
∑
∑
i
j
ij ∑ P(T j = s).(s + 1)
 ∑ ij

s =1
s =1  j=1
j=1
s =1

∞
∞
m
 ∞

= ∑ p ij  ∑ P(Tj = s).s + ∑ P(Tj = s) 
j=1
s =1
 s =1

4
∞
∑ P(Tj = s) = 1 car l’état j est transitoire donc :
s =1
D’où : E(Ti ) =
n
∑
j= m +1
∞
m
m
s =1
j=1
j=1
∑ P(Ti = s + 1).(s + 1) = ∑ p ij E(Tj ) + ∑ p ij .
m
m
m
j=1
j=1
j=1
p ij + ∑ p ij + ∑ p ij E(Tj ) = 1 + ∑ p ij E(Tj ) .
m

e
=
1
+
p1j .e j
∑
 1
j=1

m
 e = 1 + p .e
∑
2j
j .
Posons ei = E(Ti). Le système d’équations pour ei est le suivant :  2
j=1

...

m
e m = 1 + ∑ p mj .e j

j=1
Ce système possède une solution unique (on ne le démontre pas !).
VI.
Probabilités d’absorption
Soit Cs un des ensembles fermés irréductibles : quelle est la probabilité abi que le système arrive dans
un des états de Cs à partir de l’état i ?
On peut écrire les équations suivantes : ab i =
m
∑ p ij + ∑ p ij .ab j , pour i = 1, ..., m.
j∈C s
j=1
La contribution des états persistants qui n’appartiennent pas à Cs est nulle.
m

ab
=
p
+
p1j .ab j
∑
∑
1
ij

j∈C s
j=1

m
 ab =
p
+
p 2j .ab j
∑
ij
On obtient le système suivant :  2 ∑
.
j∈C s
j=1

...

m
ab m = ∑ p ij + ∑ p mj .ab j

j∈C s
j=1
On a le même système pour chaque ensemble Cs.
Exemple :
0,25
0,125
0,25
1
0,25
0,5
2
0,125
0,25
4
3
1
1
5
1
0,25
5
Temps moyen d’absorption :
24

 e1 = 11
 e1 = 1 + p11 .e1 + p12 .e 2 = 1 + 0,25.e1 + 0,25.e 2


28
e 2 = 1 + p 21 .e1 + p 22 .e 2 = 1 + 0,125.e1 + 0,5.e 2
e 2 =
11

Probabilité d’absorption (par C3) :
5

ab
=
1
ab
=
p
+
p
.ab
+
p
.ab
=
0,25
+
0,25.ab
+
0,25.ab

 1
13
11
1
12
2
1
2
11


4
=
p
+
p
.ab
+
p
.ab
=
0,125
+
0,125.ab
+
0,5.ab
23
21
1
22
2
1
2
 2b
ab 2 =
11

6
Unité de cours Probabilités - Exercices –
Chapitre 6 : Chaînes de Markov
Exercice 1*
Soient deux urnes U1 et U2. Initialement, U1 contient 1 boule blanche et 2 boules noires, U2 2 boules
blanches et 2 boules noires. A chaque étape du jeu, on tire une boule dans chaque urne et on la met
dans l’autre urne. Soit Xn, le nombre de boules blanches dans U1 à l’étape n, c'est-à-dire après n
échanges, l’étape initiale correspond à n=0.
1- Montrer que (Xn) est une chaîne de Markov. Calculer les probabilités de transition. En déduire
la matrice de transition.
2- Tracer le graphe de la chaîne. La chaîne est elle irréductible ?
3- Trouver les probabilités stables (probabilités limite).
Exercice 2*
La matrice de transition d’une chaîne de Markov (Xn)n est :
1 / 2 1 / 8 1 / 8 1 / 8 1 / 8 


1 / 4 1 / 2 1 / 8 0 1 / 8 
P= 0
0
1
0
0 


0
0
0
1 
 0
 0
0
0
1
0 

1) Tracer le graphe de la chaîne. La chaîne est elle irréductible ?
2) Quels sont les ensembles d’états fermés irréductibles ?
3) Est-ce qu’il ya des états absorbanst ? périodiques ?
4) Quels sont les états transitoires ? persistants ?
5) Trouver la représentation sous la forme E = T ∪ C1 ∪ C 2 ∪ ... ∪ C k où T est l’ensemble des
états transitoires, et Ci un ensemble fermé irréductible.
6) Trouver les temps moyens d’absorption au départ des états 1 et 2 (justifier cette question).
7) Trouver les probabilités d’absorption par l’état 3 au départ des états 1 et 2 (justifier cette
question).
Exercice 3
Soit le graphe de la chaîne de Markov suivant :
n
½
½
n-1
½
½
½
½
1
½
0
1
Quelle est la matrice de transition ? Quels sont les états transitoires ? les états persistants ?les états
absorbants ? Trouver les temps moyens d’absorption au départ des états n à 1 ?
7
Exercice 4 (Annales Décembre 2010)
On considère l’ensemble {0, 1, 2, 3} et l’opération d’addition « réduite » ++, définie pour a, b
appartenant à {0, 1, 2, 3} comme suit :
si a + b ≤ 3, alors a + +b = a + b
si a + b f 3, alors a + +b = 0
Soit X0,..., Xn,... une suite de variables aléatoires discrètes indépendantes de loi uniforme et à valeurs
dans {0, 1, 2, 3}.
On définit une suite de variables aléatoires discrètes Y0,..., Yn en utilisant l’addition ‘++’ par :
Y0= X0, Y1= Y0 ++ X1, ..., Yn+1 = Yn ++Xn.
1.
2.
3.
Quelles sont les valeurs possibles de Yn ? Quelle est la loi de Y0 (la loi initiale) ?
Trouver la loi de Y1.
Montrer que :
P (Yn+1 = k / Y0 = k0,Y1 = k1,…, Yn-1 = kn-1, Yn = k’) = P (Xn ++ k’ = k)
4.
5.
6.
En déduire que la suite (Yn) est une chaine de Markov (Justifier).
Calculer l’expression (1) pour toutes les valeurs de (k’,k) possibles.
En déduire que la matrice de transition de la chaine de Markov est égale à :
1/ 4 1/ 4 1/ 4 1/ 4 


1/ 4 1/ 4 1/ 4 1/ 4 
1/ 2 0 1/ 4 1/ 4 


3/ 4 0
0 1 / 4 

7.
8.
9.
Quel est son graphe ?
Est-ce que cette chaîne est irréductible ?
Existe-t-il une répartition stable ? Si oui, quelle est-elle ?
8
(1)
Téléchargement