Processus de Galton-Watson - Université Paris-Sud

publicité
Processus de Galton-Watson
Adeline Reynaud
Florian Omnès
Université Paris-Sud - L3 MFA
Projet encadré par Émilie Devijver
1
Table des matières
1 Étude de la fonction génératrice
4
2 Processus de Galton-Watson en environnement xe
8
1.1
1.2
1.3
2.1
2.2
2.3
2.4
Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemples de calcul pour des lois discrètes . . . . . . . . . . .
Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
Calcul de la fonction génératrice, de l'espérance et de la variance d'un processus de Galton-Watson en environnement xe 9
Deux exemples . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Simulation d'un processus de Galton-Watson en environnement xe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Probabilité d'extinction
3.1
3.2
3.3
3.4
4
4
6
Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Deux cas particuliers . . . . . . . . . . . . . . . . . . . . . . .
Calcul de la probabilité d'extinction en fonction de l'espérance
de la loi de reproduction . . . . . . . . . . . . . . . . . . . . .
Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
16
17
18
22
4 Étude de l'eectif total de la lignée
23
5 Étude en environnement aléatoire
26
4.1
4.2
4.3
5.1
5.2
Eectif total à la génération n . . . . . . . . . . . . . . . . . .
Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Eectif total de la lignée jusqu'à extinction . . . . . . . . . .
Calcul de l'espérance en environnement aléatoire . . . . . . .
Simulations d'un processus de Galton-Watson en environnement aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . .
6 Annexe
6.1
Calcul de
Z
ax2 +bx+c
e
23
24
25
27
28
33
dx . . . . . . . . . . . . . . . . . . . .
R
2
33
Introduction
Dans les années 1870, l'anthropologue et statisticien Sir Francis Galton,
préoccupé par l'extinction des familles nobles et bourgeoises en Angleterre,
publia un article dans la revue The Educational Times, posant le problème
suivant.
Une grande population de N individus portant tous des noms de famille
distincts, dans laquelle nous ne nous intéresserons qu'aux adultes de sexe
masculin, colonise une région. Dans cette population, à chaque génération,
a0 pour cents des hommes adultes n'ont aucun ls qui atteindra l'âge adulte,
a1 pour cents en ont 1, a2 pour cents en ont 2, et ainsi de suite jusqu'à a5
pour cents qui en ont 5. Trouvez (1) quelle proportion des noms de famille
aura disparu après n générations ; et (2) combien de noms de famille seront
portés par exactement k personnes.
Le mathématicien anglais Henry William Watson proposa une solution à
ce problème sous certaines hypothèses et mit en place ce que nous appelons
aujourd'hui le Processus de Galton-Watson.
C'est aux préoccupations de ces deux scientiques que nous avons choisi
de nous intéresser dans ce projet. Nous nous sommes pour cela posé la question suivante, légèrement diérente de celle proposée par Sir Francis Galton.
Considérons un individu de sexe masculin, et étudions sa descendance
mâle. On suppose que chaque membre de cette lignée a, pour tout entier naturel k , une probabilité pk d'avoir exactement k descendants mâles, et meurt
instantanément après avoir donné naissance à ses descendants. Déterminons
notamment (1) quelle est la probabilité que la lignée s'éteigne ; (2) dans le
cas où la famille s'éteint, quelle est la probabilité que la famille ait comporté
exactement k individus de sexe masculin.
Nous répondrons tout d'abord à ces questions dans la cadre d'hypothèses
très simplicatrices, que nous appellerons Processus de Galton-Watson en environnement xe, puis nous reprendrons une partie de cette étude dans un
cadre légèrement plus réaliste, que nous appellerons Processus de GaltonWatson en environnement aléatoire.
Tout au long de ce travail, pour chaque question que nous nous poserons,
nous établirons des résultats généraux, puis nous traiterons l'exemple d'une
loi de Poisson pour diérents paramètres, et enn nous commenterons les
résultats de certaines simulations que nous avons réalisées.
3
1 Étude de la fonction génératrice
Nous allons tout d'abord dénir et étudier sommairement la notion de
fonction génératrice d'une variable aléatoire à valeurs discrètes, qui nous sera
utile par la suite.
Dans toute cette partie, xons une variable aléatoire discrète X à valeurs
dans N.
1.1 Dénition
La fonction génératrice est parfois dénie sur R tout entier, quitte à
autoriser les valeurs innies. Cependant, dans la suite de ce travail, nous
n'aurons besoin de l'utiliser que sur [−1, 1]. Nous avons donc choisi de ne la
dénir que sur cet intervalle, an qu'elle prenne des valeurs nies sur tout
son domaine de dénition.
Dénition 1.1. On dénit la fonction génératrice φX de la variable aléatoire
X par
φX : [−1, 1] → R
X
s 7→
P(X = n)sn .
n>0
Remarque 1.2.
La fonction génératrice φX prend des valeurs nies sur
tout le domaine de dénition [−1, 1] que nous avons choisi puisque, pour
tout s ∈ [−1, 1],
X
X
k
P(X
=
k)s
P(X = k) = 1 < +∞.
6
k>0
k>0
Remarque 1.3.
D'après la formule de transfert, pour tout s ∈ [−1, 1],
X
φX (s) =
sn P(X = n) = E(sX ).
n>0
1.2 Propriétés
Énonçons à présent quelques propriétés de la fonction génératrice.
Proposition 1.4. La fonction génératrice φX caractérise la loi de probabilité
de la variable aléatoire X .
Démonstration. Soient X et Y deux variables aléatoires à valeurs dans N
telles que φX = φY . Alors, pour tout s ∈ [−1, 1],
4
φX (s) − φY (s) =
X
[P(X = k) − P(Y = k)]sk = 0.
k>0
Donc, par unicité du développement en série entière de φX − φY en 0,
P(X = k) = P(Y = k) pour tout k ∈ N.
Remarque 1.5. Par unicité du développement de φX en série entière, on a
en fait explicitement, pour tout k ∈ N,
(n)
φX (0)
.
n!
Proposition 1.6. On peut calculer l'espérance et la variance de X à partir
de sa fonction génératrice par
E(X) = φ0X (1) ;
Var(X) = φ00X (1) + φ0X (1) − (φ0X (1))2 .
P(X = k) =
Démonstration.
Puisque le rayon de convergence de la série entière φP
X est 1, elle est de classe
∞
0
kP(X = k)sk−1 . On a
C sur ] − 1, 1[ et, pour tout s ∈] − 1, 1[, φX (s) =
k>1
donc bien
φ0X (1) =
X
kP(X = k) = E(X)
k>0
par la formule de transfert.
X
On détermine de même que φ00X (1) =
k(k − 1)P(X = k). Donc
k>0
φ00X (1) + φ0X (1) − (φ0X (1))2 =
X
P(X = k)k 2 − E(X)2 = E(X 2 ) − E(X)2 .
k>0
Proposition 1.7.
Soient X et Y deux variables aléatoires indépendantes à
valeurs dans N. Alors,
φX+Y = φX φY
Démonstration.
Soit s ∈]0, 1[. Nous avons φX+Y (s) = E(sX+Y ) = E(sX sY ).
Or, comme s > 0, l'application t 7→ st , c'est-à-dire t 7→ et ln(s) est continue sur R, donc est mesurable. Par la propriété d'hérédité, l'indépendance
des variables aléatoires X etY implique donc l'indépendance des variables
aléatoires sX et sY . On en déduit que
φX+Y (s) = E(sX )E(sY ) = φX (s)φY (s).
Les séries entières φX+Y et φX φY coïncident donc sur l'intervalle ouvert non
vide ]0, 1[. Il en résulte que φX+Y = φX φY .
5
1.3 Exemples de calcul pour des lois discrètes
Étudions maintenant les fonctions génératrices de quelques lois discrètes
classiques.
Loi de Poisson
Dénition 1.8. Soit λ > 0. On dit que X suit la loi de Poisson de paramètre
λ lorsque, pour tout k ∈ N,
P(X = k) =
λk −λ
e .
k!
Proposition 1.9.
Si X suit la loi de Poisson de paramètre λ, nous avons
pour tout s ∈ [−1, 1],
φX (s) = eλ(s−1) .
Démonstration.
XSoit s ∈ [−1, 1].
φX (s) =
P(X = n)sn
n>0
X λn
e−λ sn
n!
n>0
X (λs)n
= e−λ
n!
=
n>0
= e−λ eλs
= eλ(s−1) ,
ce qu'on voulait.
Loi de Bernoulli
Dénition 1.10. Soit
p ∈ [0, 1]. On dit que X suit la loi de Bernoulli de
paramètre p lorsque X prend pour valeurs 0 et 1 avec probabilités
P(X = 0) = 1 − p ;
P(X = 1) = p.
Proposition 1.11. Si X suit la loi de Bernoulli de paramètre p, nous avons,
pour tout s ∈ [−1, 1],
φX (s) = 1 + p(s − 1).
Démonstration.
Soit s ∈ [−1,
X 1].
φX (s) =
P(X = n)sn = 1 − p + ps + |{z}
0 = 1 + p(s − 1)
| {z } |{z}
n>0
n=0
n=1
6
n>2
Loi binomiale
Dénition 1.12.
Soient p ∈ [0, 1] et n ∈ N. On dit que X suit la loi binomiale de paramètres p et n lorsque
n k
pour tout k ∈ [[0, n]], P(X = k) =
p (1 − p)n−k ;
k
pour tout k > n, P(X = k) = 0.
Proposition 1.13.
tout s ∈ [−1, 1],
Si X suit la loi binomiale de paramètres p et n, pour
φX (s) = (1 + p(s − 1))n .
Démonstration.
Soit s ∈ [−1, X
1].
φX (s) =
P(X = k)sk
k>0
X n
=
pk (1 − p)n−k sk
k
k>0
n X
n
=
(ps)k (1 − p)n−k
k
k=0
= (ps + 1 − p)n
= (1 + p(s − 1))n
Loi géométrique
Dénition 1.14. Soit p ∈]0, 1]. On dit que X suit la loi géométrique dans
N∗ de paramètre p lorsque, pour tout k ∈ N,
P(X = k) = p(1 − p)k−1 .
Proposition 1.15.
Si X suit la loi géométrique dans N∗ de paramètre p,
ps
pour tout s ∈ [−1, 1], φX (s) =
.
1 − s(1 − p)
Démonstration.
XSoit s ∈ [−1, 1].
φX (s) =
P(X = n)sn
n>1X
= ps
(1 − p)n−1 sn−1
n>1
X
= ps
(s(1 − p))n
n>0
ps
1 − s(1 − p)
La série géométrique converge car |s(1 − p)| < 1.
=
7
2 Processus de Galton-Watson en environnement
xe
Maintenant que nous disposons de la fonction génératrice, nous pouvons
commencer à étudier le processus de Galton-Watson à proprement parler.
2.1 Dénition
On s'intéresse à la descendance d'un individu, que nous appellerons individu 0. Celui-ci peut se reproduire pour donner naissance à des enfants
qui se reproduiront à leur tour, etc. On considère que les générations ne se
chevauchent pas : plus précisément, dans le modèle que nous étudions, un
individu naît, donne naissance à ses enfants puis meurt instantanément.
Figure 1 Exemple
Notations
Le nombre de descendants de l'individu 0 est assimilé à une variable
aléatoire discrète à valeurs dans N, que nous noterons τ . Nous désignerons par φτ sa fonction génératrice, par µ son espérance, et par σ 2 sa
variance.
Soit n ∈ N.
On note Xn le nombre d'individus à la génération n. La première génération, numérotée 0, ne comporte que l'individu 0.
Pour tout j ∈ [[1, Xn ]], on note τjn le nombre d'enfants du j ème individu
de la nème génération.
Remarque 2.1.
n est donné par
Pour tout n > 1, le nombre de descendants à la génération
8
Xn−1
Xn =
X
τjn−1 .
j=1
Dans la pratique, nous nous intéresserons principalement au cas où τ suit
une loi de Poisson, de paramètre xé dans un premier temps, puis variable
par la suite.
Dénition 2.2. On dit que la suite (Xn )n∈N est un processus de GaltonWatson en environnement xe lorsque les variables aléatoires τjn , pour n ∈ N
et j ∈ [[1, Xn ]], sont indépendantes et de même loi que la variable aléatoire
τ.
On xe dans cette partie ainsi que dans les deux parties suivantes un tel
processus de Galton-Watson en environnement xe.
2.2 Calcul de la fonction génératrice, de l'espérance et de la
variance d'un processus de Galton-Watson en environnement xe
Nous allons chercher à calculer, pour une génération n xée (n ∈ N),
l'espérance et la variance du nombre Xn de descendants à la génération n.
Pour cela, grâce aux propriétés que nous venons d'établir dans la partie
précédente, il sut de calculer la fonction génératrice de la variable aléatoire
Xn .
Théorème 2.3.
(Calcul de la fonction génératrice)
Pour tout n ∈ N, φXn = φ◦n
τ .
Démonstration.
Nous allons raisonner par récurrence sur l'entier n.
Initialisation
X0 est la variable aléatoire constante égale à 1, donc P(X0 = 1) = 1
et, pour tout k ∈ N tel que k 6= 1, P(X0 = k) = 0. Donc, pour
+∞
X
tout s ∈ [−1, 1], φX0 (s) =
P(X0 = k)sk = s. On a donc bien
k=0
φX0 = id = φ◦0
τ .
◦(n−1)
Hérédité Soit n ∈ N∗ tel que φXn−1 = φτ
.
Soit k ∈ N.
+∞
X
P(Xn = k) =
P(Xn = k ∩ Xn−1 = j)
j=0
=
=
+∞
X
j=0
+∞
X
j=0
P(Xn = k|Xn−1 = j)P(Xn−1 = j)
P
j
X
!
τhn−1 = k P(Xn−1 = j)
h=1
9
Soit t ∈ [−1, 1]. Nous avons donc
+∞
X
φXn (t) =
P(Xn = k)tk
k=0
=
+∞ X
+∞
X
P
k=0 j=0
j
X
!
τhn−1
= k P(Xn−1 = j)tk
h=1
Or, d'après
le théorème de
! Fubini dans le cas positif,
j
+∞ X
+∞ X
X
n−1
k
P
τ
=
k
P(X
=
j)t
n−1
h
k=0 j=0
h=1
!
j
+∞
P +∞
P
P
τhn−1 = k P(Xn−1 = j)
6
P
k=0 j=0
h=1
!
j
+∞
+∞
P
P
P
n−1
P(Xn−1 = j)
6
τh = k
P
6
j=0
+∞
P
k=0
h=1
P(Xn−1 = j)
j=0
6 1
< +∞.
On peut donc appliquer à cette double somme le théorème de Fubini
dans le cas général, et l'on obtient
!
!
j
j
+∞ X
+∞
+∞
+∞
X
X
X
X
X
n−1
n−1
k
φXn (t) =
|P
τh = k P(Xn−1 = j)t |
P(Xn−1 = j)
P
τh = k
k=0 j=0
Or
+∞
X
j
X
P
k=0
τhn−1 = k tk = φ P
j
h=1
τhn−1 ,
!
aléatoires
j
Y
φτ n−1
h
j=0
!h=1
h=1
τhn−1
k=0
(t) et, comme les variables
1 6 h 6 j sont indépendantes, ceci est en fait
(t) d'après la proposition 1.7, qui n'est lui-même rien
h=1
d'autre que [φτ (t)]j .
Nous obtenons donc
!
j
+∞ X
+∞
+∞
X
X
X
|P
τhn−1 = k P(Xn−1 = j)tk |
P(Xn−1 = j)[φτ (t)]j
φXn (t) =
k=0 j=0
j=0
h=1
= φXn−1 (φτ (t))
Ainsi, φXn = φXn−1 ◦ φτ = φ◦n
τ .
On conclut par le principe de récurrence.
Nous allons maintenant pouvoir déduire de ce théorème l'espérance et la
variance de la variable aléatoire Xn , pour n ∈ N.
Théorème 2.4.
(Calcul de l'espérance)
Pour tout n ∈ N, E(Xn ) = µn .
Démonstration.
10
h=1
Nous raisonnons par récurrence sur l'entier n, sachant que, d'après la proposition 1.6, E(Xn ) = φ0Xn (1) pour tout n ∈ N et, d'après le théorème 2.3,
φXn = φ◦n
τ pour tout n ∈ N.
Initialisation
Pour n = 0, E(X0 ) = E(1) = 1 = µ0 .
Hérédité
Soit n ∈ N tel que E(Xn ) = µn . Alors,
E(Xn+1 ) = φ0Xn+1 (1)
= (φτ ◦ φXn )0 (1)
= φ0Xn (1)φ0τ (φXn (1))
= E(Xn )φ0τ (1)
= µn µ
= µn+1 .
Ceci achève la récurrence.
Nous procédons de manière similaire pour calculer la variance de Xn pour
n ∈ N.
Théorème 2.5.
(Calcul de lavariance)
 nσ 2 si µ = 1,
1 − µn
Pour tout n ∈ N, Var(Xn ) =
.
sinon.
 σ 2 µn−1
1−µ
Démonstration.
Soit n ∈ N∗ . D'après la proposition 1.6,
Var(Xn ) = φ00Xn (1) + φ0Xn (1) − (φ0Xn (1))2 = φ00Xn (1) + µn − µ2n .
Or, en dérivant deux fois φXn et en évaluant en 1, on obtient
◦(n−1) 0
) (1)
φ00Xn (1) = φ00τ (1).(φτ
◦(n−1) 00
) (1)]
+ φ0τ 1[φ0τ (1)(φτ
De plus,
φ00τ (1) = Var(τ ) − φ0τ (1) + (φ0τ (1))2 = σ 2 − µ + µ2 ,
◦(n−1) 0
) (1)
(φτ
= φ0Xn−1 (1) = E(Xn−1 ) = µn−1 ,
et
φ00Xn (1) = Var(Xn−1 ) − φ0Xn−1 (1) + (φ0Xn−1 (1))2
= Var(Xn−1 ) − µn−1 (1 − µn−1 )
Donc
Var(Xn ) = (σ 2 − µ + µ2 )µn−1 + µ2 (Var(Xn−1 ) + µn−1 (1 − µn−1 )) + µn − µ2n
= σ 2 µn−1 + µ2 Var(Xn−1 )
On distingue maintenant deux cas :
Si µ = 1, Var(Xn ) = σ 2 + Var(Xn−1 ) pour tout n ∈ N. La suite
(Var(Xn ))n∈N est donc arithmétique. Ainsi, pour tout n ∈ N,
11
Var(Xn ) = nσ 2 + Var(X0 ) = nσ 2 .
Si µ 6= 1, on montre la formule annoncée par récurrence :
Initialisation. Var(X0 ) = Var(1) = 0, ce qui, dans les deux cas, correspond bien à la formule annoncée.
1 − µn−1
Hérédité. Soit n > 2 tel que Var(Xn−1 ) = σ 2 µn−2
. Alors,
1−µ
1 − µn−1
Var(Xn ) = σ 2 µn−1 + µ2 σ 2 µn−2
1− µ
1 − µn−1
2
n−1
= σ µ
1+µ
1−µ
n
1
−
µ
= σ 2 µn−1
1−µ
On pourrait de la même façon étudier tous les moments de la fonction
génératrice.
2.3 Deux exemples
Calculons maintenant l'espérance et la variance du processus de GaltonWatson dans le cas d'une loi géométrique, puis dans le cas d'une loi de
Poisson.
Loi géométrique dans N
Proposition 2.6. Soit p ∈
paramètre p,
[0, 1]. Si τ suit la loi géométrique dans N de
n
1
−1 ;
pour tout n ∈ N, E(Xn ) =
p
 1
n 1


− 1 si p = ;


p
p

n
2


1
n 1 −
−1
pour tout n ∈ N, Var(Xn ) =
.
1 1
p


sinon.
−1



1
p p


1− 1−
p
Démonstration. Ceci découle directement des deux derniers théorèmes, sachant que si τ suit la loi géométrique dans N de paramètre p,
1
1 1
E[τ ] = − 1 et Var(τ ) =
−1 .
p
p p
12
Loi de Poisson
Proposition 2.7.
Soit λ > 0. Si τ suit la loi de Poisson de paramètre λ,
pour tout n ∈ N, E(Xn ) = λn;
 n si λ = 1;
1 − λn
pour tout n ∈ N, Var(Xn ) =
.
 λn
sinon.
1−λ
Démonstration. Là encore, ceci découle des deux théorèmes précédents, sachant que, si τ suit la loi de Poisson de paramètre λ, E(τ ) = Var(τ ) = λ. On remarque que,
si λ < 1, E(Xn ) −→ 0 ;
n→+∞
si λ = 1, E(Xn ) = 1 ;
si λ > 1, E(Xn ) −→ +∞.
n→+∞
2.4 Simulation d'un processus de Galton-Watson en environnement xe
Dans le but de conrmer nos assertions, nous avons eectué des simulations sur ordinateur, avec le logiciel MATLAB. A ce stade, nous n'avons
étudié que le cas où τ suit une loi de Poisson de paramètre xé λ > 0.
Simulation à la main d'une loi de Poisson
Nous avons commencé par simuler à la main une loi de Poisson grâce au
programme suivant.
1
2
3
4
5
6
7
8
9
10
function P=Poisson(lambda)
a=rand();
i=0;
x=(lambda^i)/factorial(i)*exp(-lambda);
while a>=x
i=i+1;
x=x+(lambda^i)/factorial(i)*exp(-lambda);
end
P=i;
end
Processus de Galton-Watson
Nous avons ensuite programmé le processus à proprement parler. La fonction qui suit prend en entrée le paramètre λ de la loi de reproduction et un
entier n, et renvoie la liste (X0 = 1, X1 , . . . , Xn ) des nombres d'individus
aux générations 0 à n.
13
1
2
3
4
5
6
7
8
9
10
11
function B=Processus(lambda,n)
B=zeros(1,n+1);
B(1)=1;%La première génération compte un seul individu.
for i=2:(n+1)
%Chaque individu de la génération i-1 donne naissance à un nombre aléatoire de
%descendants, qui formeront la génération i.
for j=1:B(i-1)
B(i)=B(i)+Poisson(lambda);
end
end
end
Le petit lemme suivant permet de simplier un peu le programme.
Lemme 2.8.
Soient n ∈ N et X1 , . . . , Xn des variables aléatoires de même
loi de Poisson de paramètre λ. Alors X = X1 + . . . + Xn suit une loi de
Poisson de paramètre nλ.
Démonstration. La preuve repose sur les fonctions génératrices des variables
aléatoires impliquées. Pour tout t ∈ [−1, 1],
φX (t) = φX1 +...+Xn (t)
=
indépendance
φX1 (t) . . . φXn (t) = (eλ(t−1) )n = enλ(t−1) .
On reconnaît la fonction génératrice d'une loi de Poisson de paramètre nλ.
Le programme devient alors
1
2
3
4
5
6
7
8
function B=Processus(lambda,n)
B=zeros(n+1);
B(1)=1;%La première génération compte un seul individu.
for i=2:(n+1)
%La boucle for intérieure a disparu !
B(i)=Poisson(B(i-1)*lambda)
end
end
Grâce à ce programme, nous avons eectué un certain nombre de simulations. Comme nous avons remarqué précédemment que la valeur charnière
de l'espérance de la loi de reproduction était 1, nous avons choisi pour ces
simulations des lois de Poisson de paramètres 0,9, 1 et 1,1. Nous reproduisons
ici les cas les plus représentatifs de ce que nous avons obtenu.
14
Processus de Galton−Watson pour
1
µ=0.9
Processus de Galton−Watson pour
4
0.9
µ=1
3.5
0.8
3
0.7
2.5
0.6
0.5
2
0.4
1.5
0.3
1
0.2
0.5
0.1
0
0
5
10
15
20
25
Processus de Galton−Watson pour
30
30
35
40
µ=1.1
0
0
5
10
15
20
25
Processus de Galton−Watson pour
16
30
35
40
35
40
µ=1.1
14
25
12
20
10
15
8
6
10
4
5
0
2
0
5
10
15
20
25
30
35
40
0
0
5
10
15
20
25
30
Dans toutes les simulations que nous avons eectuées, nous avons remarqué que
pour λ = 0, 9 et λ = 1, la lignée s'éteint systématiquement ;
pour λ = 1, 1 la lignée ne s'éteint pas systématiquement (du moins au
cours des 40 premières générations).
Ceci nous a conduits à dénir plus formellement la probabilité d'extinction
de la lignée, et à l'étudier.
3 Probabilité d'extinction
Nous conserverons dans cette partie les notations introduites jusqu'ici.
Nous avons vu dans la partie précédente que, pour tout n ∈ N, l'espérance du nombre Xn de descendants à la génération n est µn , où µ désigne
l'espérance du nombre τ de descendants d'un individu. Ainsi,
15
si µ > 1, la population augmente. On appelle cette situation le cas
sur-critique.
si µ < 1, la population diminue. On appelle cette situation le cas souscritique.
Lorsque µ = 1, on dit que l'on est dans le cas critique.
Dans cette partie, nous allons étudier la probabilité que la lignée d'un
individu s'éteigne, selon l'espérance µ du nombre de descendants τ . Nous
déterminerons également comment évolue la descendance de l'individu de
départ dans la cas critique.
3.1 Dénition
La lignée de l'individu de départ s'éteint lorsqu'il existe une génération
N0 telle que XN0 = 0.
Proposition 3.1.
La suite (Xn )n∈N converge vers 0 si et seulement si il
existe N0 ∈ N tel que XN0 = 0.
Démonstration.
Supposons que Xn −→ 0. Alors, comme (Xn )n∈N est à valeurs enn→+∞
tières, (Xn )n∈N est nulle à partir d'un certain rang, et il existe N0 ∈ N
tel que XN0 = 0.
Supposons réciproquement qu'il existe N0 ∈ N tel que XN0 = 0. Alors,
Xn
X
comme pour tout n ∈ N, Xn+1 =
τjn , Xn = 0 pour tout n > N0 .
j=1
On a donc bien Xn −→ 0.
n→+∞
Cette équivalence nous montre que la lignée s'éteint si et seulement si
le nombre de descendants à une génération donnée tend vers 0 au l des
générations. Ceci nous amène à donner la dénition qui suit.
Dénition 3.2.
On dénit la probabilité d'extinction ρ par
ρ = P(Xn −→ 0).
n→+∞
Proposition 3.3.
La probabilité d'extinction est également donnée par
ρ = lim % P(Xn = 0)
n→∞
Démonstration.
La propriété précédente peut être traduite en termes d'événements de la
façon suivante :
S
(Xn −→ 0)= (Xn = 0).
n→+∞
n>0
16
Or, pour tout n ∈ N, (Xn = 0) ⊂ (Xn+1 = 0) et P est une mesure. Donc
S
ρ = P(
% (Xn = 0)) = lim % P(Xn = 0).
n→∞
n≥0
3.2 Deux cas particuliers
Avant d'étudier la probabilité d'extinction dans le cas général, traitons
deux cas particuliers simples, qui nous permettront de faire ensuite des hypothèses sous lesquelles la démonstration du cas général sera vraie.
Proposition 3.4.
Si P(τ = 0) = 0, la probabilité d'extinction est nulle.
Démonstration.
Supposons que P(τ = 0) = 0. Soit n ∈ N. Alors,
X
Pn
Xn+1 =
j=1
τjn .
Or, pour tout j ∈ [[1, Xn ]], P(τjn = 0) = P(τ = 0) = 0 par hypothèse, donc
τjn > 1 presque sûrement. Ainsi, Xn+1 > Xn presque sûrement.
Cela montre que (Xn )n∈N est presque sûrement croissante, et donc que, pour
tout n ∈ N, Xn > X0 = 1 presque sûrement.
Ainsi, P(Xn −→ 0) = 0.
n→+∞
Proposition 3.5. Si P(τ = 0) > 0 et P(τ = 0) + P(τ = 1) = 1, la lignée
s'éteint presque sûrement.
Démonstration.
Supposons que P(τ = 0) > 0 et P(τ = 0) + P(τ = 1) = 1.
On vérie tout d'abord par récurrence que, pour tout n ∈ N,
P(Xn = 0) + P(Xn = 1) = 1.
Comme X0 = 1, on a bien P(X0 = 0) + P(X0 = 1) = 1.
Soit n ∈ N tel que P(Xn = 0) + P(Xn = 1) = 1. Alors,
P(Xn+1 = 0) = P(Xn = 0) + P(Xn = 1 et Xn+1 = 0)
= P(Xn = 0) + P(Xn+1 = 0|Xn = 1)P(Xn = 1)
= P(Xn = 0) + P(τ = 0)P(Xn = 1)
car P(Xn+1 = 0|Xn = 1) = P(τ1n = 0) = P(τ = 0), et, de même
P(Xn+1 = 1) = P(Xn = 1 et Xn+1 = 1)
= P(Xn+1 = 1|Xn = 1)P(Xn = 1)
= P(τ = 1)P(Xn = 1).
Ainsi, par l'hypothèse générale de la démonstration et l'hypothèse de
17
récurrence,
P(Xn = 0) + P(Xn = 1) = P(Xn = 0) + P(Xn = 1)[P(τ = 0) + P(τ = 1)]
= P(Xn = 0) + P(Xn = 1) = 1.
Donc, pour tout n ∈ N,
P(Xn = 0) = 1 − P(Xn = 1) = 1 − P(τ = 1)n −→ 1
n→+∞
car P(τ = 1) < 1. Or
P(Xn −→ 0) = lim % P(Xn = 0).
n→+∞
n→∞
Donc P(Xn −→ 0) = 1 et la lignée s'éteint presque sûrement.
n→+∞
Ayant traité ces deux cas, nous supposerons désormais que P(τ = 0) > 0
et que P(τ = 0) + P(τ = 1) < 1.
3.3 Calcul de la probabilité d'extinction en fonction de l'espérance de la loi de reproduction
Lemme 3.6. La fonction génératrice φτ de la variable aléatoire τ est strictement croissante sur [0, 1].
Démonstration.
Comme il découle des hypothèses sous lesquelles nous travaillons désormais
que P(τ = 0) < 1, il existe k ∈ N∗ tel que P(τ = k) > 0.
Pour tout s ∈]0, 1[,
!
j
+∞ X
+∞
X
X
X
n−1
nP(τ = n)sn−1
τh = k P(Xn−1 = j)tk |
φ0τ (s) =
|P
=
j=0
k=0
X
n>1
h=1
nP(τ = n)sn−1 + kP(τ = k)sk−1 > 0
|
{z
}
n>1, n6=k
>0
|
{z
}
>0
Donc φτ est strictement croissante sur [0, 1].
Proposition 3.7.
La probabilité d'extinction ρ est un point xe de la fonction génératrice φτ . Plus précisément, ρ est le plus petit point xe de φτ .
Démonstration.
Rappelons que nous avons supposé que
P(τ = 0) > 0 et P(τ = 0) + P(τ = 1) < 1.
La fonction φτ est strictement croissante sur [0, 1], et vérie φτ (0) > 0
+∞
P
et φτ (1) =
P(X = k) = 1. Donc, pour tout α ∈]0, 1[, φτ (α) ∈]0, 1[,
k=0
et donc l'intervalle ]0, 1[ est stable par φτ .
Or φτ (0) = P(τ = 0) ∈]0, 1[ par les hypothèses. Donc φτ (φτ (0)) ∈]0, 1[
et, par récurrence,
18
∗
φ◦n
τ (0) ∈]0, 1[⊂] − 1, 1[ pour tout n ∈ N .
Montrons maintenant que ρ est un point xe de φτ .
ρ = lim % P(Xn = 0)
n→∞
=
=
=
lim % φXn (0)
n→∞
lim % φ◦n
τ (0)
n→∞
◦(n+1)
lim % φτ
n→∞
φτ est
(0)
De plus
continue au moins sur ] − 1, 1[, et, pour tout n ∈ N∗ ,
◦n
φτ (0) ∈] − 1, 1[ par le point précédent. Donc
ρ = φτ ( lim % φ◦n
τ (0)) = φτ (ρ).
n→∞
Ceci montre que ρ est un point xe de φτ .
Soit u ∈ [0, 1] un point xe de φτ . Alors, u ∈]0, 1[ nécessairement
puisque φτ (0) > 0. Nous allons montrer que ρ 6 u.
Pour tout n ∈ N, posons xn = P(Xn = 0). La suite (xn )n∈N ainsi dénie
vérie x0 = P(X0 = 0) = 0 et, pour tout n ∈ N, xn+1 = φτ (xn ).
Comme φτ est strictement croissante et u > 0,
x1 = φτ (0) < φτ (u) = u,
et, si n ∈ N est tel que xn < u,
xn+1 = φτ (xn ) < φτ (u) = u.
Donc, d'après le principe de récurrence, xn < u pour tout n ∈ N.
Or nous avons montré que ρ = lim % xn . On obtient donc en passant
n→∞
à la limite ρ 6 u.
Nous avons donc montré à la fois que ρ est un point xe de φτ , et que ρ est
plus petit que tout point xe de φτ . Le point ρ est donc le plus petit point
xe de φτ .
Ce résultat ramène le calcul de la probabilité d'extinction à l'étude des
points xes de la fonction génératrice φτ sur le segment [0, 1]. Pour déterminer ces derniers, nous allons utiliser un argument de convexité.
Lemme 3.8.
La fonction φτ est strictement convexe.
Démonstration. Soient x ∈ [0, 1], y ∈ [0, 1] et t ∈]0, 1[.
Comme nous avons supposé que P(τ = 0) + P(τ = 1) < 1, il existe un entier
k > 2 tel que P(τ = k) > 0.
!
j
+∞ X
+∞
X
X
X
n−1
φτ (tx + (1 − t)y) =
|P
τh = k P(Xn−1 = j)tk |
P(τ = n)(tx + (1 − t)y)n
=
k=0
X j=0
h=1
n≥0
P(τ = n)(tx + (1 − t)y)n + P(τ = k)(tx + (1 − t)y)k
|
{z
}
n6=k
N
|
{z
}
?
On examine chacun de ces termes séparément.
N : comme pour tout j > 2, la fonction x 7→ xj est strictement convexe,
(tx + (1 − t)y)k < txk + (1 − t)y k .
19
? : pour tout n ∈ N, la fonction x 7→ xn est convexe. Comme une série de fonctions convexes est convexe (résultat faux pour la
Xstricte convexité : on perd
l'inégalité stricte par passage à la limite), x 7→
P(τ = n)(tx + (1 − t)y)n
n6=k
est convexe.
Finalement, φτ est strictement convexe comme somme d'une application
strictement convexe (N) et d'une application convexe (?).
Lemme 3.9.
Le point 1 est un point xe de φτ . De plus,
si µ 6 1, φτ n'admet aucun point xe dans ]0, 1[ ;
si µ > 1, φτ admet exactement un point xe dans ]0, 1[.
Remarque 3.10.
Remarquons encore une fois que 0 n'est pas un point xe
de φτ puisque φτ (0) = P(τ = 0) > 0.
Démonstration.
Rappelons pour cette démonstration que µ = φ0τ (1).
+∞
X
Comme φτ (1) =
P(X = k) = 1, 1 est bien un point xe de φτ .
k=0
Supposons que µ 6 1.
Soit s ∈ [0, 1[. Comme φτ est strictement convexe, φ0τ est strictement
croissante, donc φ0τ (s) < φ0τ (1) = µ 6 1. En intégrant, on obtient
Z 1
Z 1
0
φτ (t)dt <
1 dt = 1 − s,
1 − φτ (s) = φτ (1) − φτ (s) =
s
s
c'est-à-dire φτ (s) > s. Donc s n'est pas un point xe de φτ .
Ainsi, dans ce cas, 1 est l'unique point xe de φτ .
Supposons maintenant que µ > 1. Il s'agit de montrer que φτ admet
un unique point xe dans ]0, 1[.
Existence
Introduisons la fonction g dénie par g(s) = φτ (s) − s pour tout s ∈
[0, 1]. Cette fonction est au moins de classe C 2 sur [0, 1]. On peut donc
en écrire un développement limité à l'ordre 1 en 1 à gauche.
g(1 + h) = g(1) + hg 0 (1) + o (h)
h→0
h<0
= 0 + (µ − 1)h + o (h)
h→0
h<0
Comme µ > 1, il existe un voisinage gauche de 1 tel que, pour tout
h dans ce voisinage, (µ − 1) |{z}
h + o (h) soit négatif. Il existe donc
| {z }
h→0
h<0
<0
>0
1
s0 ∈
, 1 tel que g(s0 ) < 0.
2
De plus g(0) = φτ (0) = P(τ = 0) > 0.
Comme g est continue sur [0, 1], le théorème des valeurs intermédiaires
assure l'existence d'un point s1 ∈]0, s0 [ tel que g(s1 ) = 0. Ce point s1
20
est alors un point xe de φτ dans ]0, 1[.
Unicité
On raisonne par l'absurde. Supposons que φτ admette deux points
xes distincts 0 < ρ1 < ρ2 < 1. On a alors g(ρ1 ) = g(ρ2 ) = 0. Or g est
de classe C 2 . Donc,d'après le théorème de Rolle, il existe c1 ∈]ρ1 , ρ2 [
tel que g 0 (c1 ) = 0. De la même manière, comme g(1) = g(ρ2 ) = 0,
il existe c2 ∈]ρ2 , 1[ tel que g 0 (c2 ) = 0. On applique une dernière fois
le théorème de Rolle, cette fois à g 0 , qui est de classe C 1 : puisque
g 0 (c1 ) = g 0 (c2 ) = 0, il existe d ∈]c1 , c2 [ tel que g 00 (d) = 0. Ceci implique
que φ00τ (d) = 0, ce qui contredit la stricte convexité de φτ .
Nous avons désormais tous les éléments en main pour conclure quant à
la probabilité d'extinction en fonction de l'espérance.
Proposition 3.11.
Il y a deux cas :
Si µ 6 1, ρ = 1.
Si µ > 1, φτ admet un unique point xe t dans [0, 1[ et ρ = t.
Remarquons que, si µ 6 1, la lignée s'éteint presque sûrement.
Points fixes de φτ pour µ=0.8
1
0.9
0.9
0.8
0.8
0.7
0.7
0.6
0.6
0.5
0.5
0.4
0.4
0.3
0.3
0.2
0.2
y=x
y=φτ(x)
0.1
0
0
0.2
0.4
0.6
Points fixes de φτ pour µ=1.4
1
0.8
y=x
y=φτ(x)
0.1
0
1
0
0.2
0.4
0.6
0.8
Démonstration. Cette proposition se déduit des résultats précédents. En eet,
Si µ 6 1, nous venons de voir que 1 est le seul point xe de φτ dans
[0, 1]. Or ρ est un point xe de φτ et ρ ∈ [0, 1]. Donc ρ = 1.
Si µ > 1, nous venons de voir que φτ admet un unique point xe
t ∈ [0, 1[. L'ensemble des points xes de φτ dans [0, 1] est donc {t, 1}.
Comme ρ est le plus petit point xe de φτ , ρ = t < 1.
21
1
3.4 Simulations
Le programme suivant permet de calculer la probabilité d'extinction
lorsque τ suit une loi de Poisson de paramètre λ. Dans ce cas, l'espérance µ
de τ vaut λ. On distingue à nouveau les deux cas mis en évidence dans la
proposition précédente.
Si λ 6 1, la population s'éteint presque sûrement. On renvoie alors 1.
Sinon, la probabilité d'extinction est un point xe de φτ , avec pour
tout s ∈ R, φτ (s) = eλ(s−1) . On recherche ce point xe dans [0, 1[ par
dichotomie. Cette méthode est pertinente car on sait que φτ admet un
unique point xe dans [0, 1[.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
function [ p ] = extinction( lambda, epsilon )
%Si lambda<=1, alors p=1.
if lambda <= 1
p=1;
%Sinon, mu est l'unique point fixe de phi_tau dans
%[0,1[.
else
a=0;
b=1;
c=(a+b)/2;
f=@(t) exp(lambda*(t-1))-t;
%On cherche le point fixe de phi_tau, c'est-à-dire le zéro de f.
while abs(f(c))>epsilon
c=(a+b)/2;
if f(c)<0
b=c;
else
a=c;
end
end
p=c;
end
end
Nous avons tracé les valeurs de la probabilité d'extinction pour λ compris
entre 0 et 5. On remarque que la probabilité d'extinction est très faible pour
des valeurs de λ supérieures à 3.
22
Probabilité d'extinction en fonction de λ=µ
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
1
2
3
4
5
4 Étude de l'eectif total de la lignée
Dénition 4.1.
Pour tout n ∈ N, on pose
Sn = X0 + . . . + Xn
On appelle Sn l'eectif total de la lignée à la génération n.
4.1 Eectif total à la génération n
Proposition 4.2.
(
Pour tout n ∈ N, E(Sn ) =
1−µn+1
1−µ
si µ 6= 1
n + 1 si µ = 1
Démonstration.
C'est une conséquence du théorème 2.4. Pour tout n ∈ N,
(
n
n
1−µn+1
X
X
si µ 6= 1
i
1−µ
E(Sn ) =
E(Xi ) =
µ =
n
+
1
si
µ=1
i=0
i=0
Remarque 4.3. Dans le cas critique (µ = 1), bien que la population s'éteigne
presque sûrement, E(Sn ) = n + 1 −→ +∞, ce qui peut sembler être un
n→+∞
paradoxe. Ceci illustre le fait que toute l'information d'une variable aléatoire
n'est pas contenue dans son espérance.
23
4.2 Simulations
La fonction suivante prend en entrée le paramètre λ de la loi de Poisson
suivie par la loi de reproduction, et un entier n. Elle renvoie un vecteur contenant S0 , ..., Sn , et trace la courbe représentant l'eectif total Sn en fonction
de n, en utilisant la fonction cumsum de Matlab, et la fonction Processus
que nous avons écrite précédemment (qui renvoie un vecteur contenant X0 ,
..., Xn ).
1
2
3
4
5
6
function S=Total(lambda,n)
B=Processus(lambda,n);
S=cumsum(B);
X=0:n;
plot(X,S);
end
Nombre total d’individus jusqu’à la génération 10 pour λ=0.9
2
Nombre total d’individus jusqu’à la génération 10 pour λ=1.1
30
1.9
25
1.8
1.7
20
1.6
1.5
15
1.4
10
1.3
1.2
5
1.1
1
0
2
4
6
8
10
24
0
0
2
4
6
8
10
Nombre total d’individus jusqu’à la génération20 pour λ=1
25
Nombre total d’individus jusqu’à la génération20 pour λ=1
50
45
20
40
35
15
30
25
10
20
15
5
10
5
0
0
5
10
15
0
20
0
5
10
15
Sur les courbes obtenues pour diérents paramètres, on observe que
pour µ > 1, Sn explose,
pour µ < 1, Sn se stabilise en plateau après quelques générations. Le
début du plateau correspond à l'extinction de la lignée, qui arrive avec
probabilité 1.
4.3 Eectif total de la lignée jusqu'à extinction
Dénition 4.4.
Appelons Y∞ le nombre total de descendants de l'individu
0. Y∞ est un entier naturel, ou bien vaut +∞. Si on note Sn = X0 +. . .+Xn ,
Y∞ = lim Sn .
n →+∞
An de déterminer la loi de probabilité de Y∞ , nous admettons le résultat
suivant.
Lemme 4.5.
Pour tous k ∈ N∗ et n ∈ N,
P(Y∞ = k) =
1
P(Xn+1 = k | Xn = k − 1)
k
Ce lemme nous permet de calculer Y∞ dans le cas où τ suit une loi de
Poisson de paramètre λ.
Propriété 4.6.
Pour tous k ∈ N∗ et n ∈ N,
P(Y∞ = k) =
e−λ(k−1) (λ(k − 1))k
k!k
Démonstration. Soient k entier naturel non-nul, n entier naturel
Xn+1 =
Xn
X
j=1
25
τjn
20
Comme
P(Xn+1 = k | Xn = k − 1) =
=
=
=
=
P(Y∞
P(Xn+1 =k∩Xn =k−1)
n =k−1)
P P(X
n n
P( X
j=1 τj =k∩Xn =k−1)
P(Xn =k−1)
Pk−1
P( j=1
τjn =k∩Xn =k−1)
P(X
Pk−1 nn =k−1)
P( j=1
τj =k)P(Xn =k−1)
P(Xn =k−1)
Pk−1
P( j=1 τjn = k)


k−1
X
1
= k) = P 
τjn = k 
k
j=1
Comme les τjn sont des v.a indépendantes de même loi de Poisson de paP
n
ramètre λ, k−1
j=1 τj suit une loi de Poisson de paramètre (k − 1)λ. On en
déduit
e−λ(k−1) (λ(k − 1))k
P(Y∞ = k) =
k!k
5 Étude en environnement aléatoire
Dans le modèle que nous avons étudié précédemment, la loi de τ était
xée. Cela signie en particulier que tous les individus donnent le même
nombre moyen de descendants. Cette modélisation n'est pas réaliste, car des
facteurs liés à l'environnement, comme des guerres, des famines, ou, à plus
long terme, des tendances sociétales peuvent inuencer la reproduction des
individus.
Nous restons dans le cadre où τ suit une loi de Poisson, mais désormais, le
paramètre de la loi de Poisson varie à chaque génération.
Dénition 5.1.
Soit µ ∈ R. On dit que la suite de variables aléatoires
(Xn )n∈N est un processus de Galton-Watson en environnement aléatoire lorsque
les variables aléatoires τjn , pour n ∈ N et j ∈ [[1, Xn ]], sont indépendantes,
il existe une suite (un )n∈N de variables aléatoires indépendantes de loi
normale N (µ, 1) telle que, pour tout n ∈ N, pour tout j ∈ [[1, Xn ]], τjn
suive la loi de Poisson de paramètre λn = eun .
Nous conserverons les notations introduites jusqu'ici.
26
5.1 Calcul de l'espérance en environnement aléatoire
L'étude de ce nouveau processus est plus compliquée que l'étude du premier modèle introduit. Par exemple, il n'existe plus de formule explicite pour
φXn . Nous avons toutefois le résultat suivant.
Théorème 5.2.
(Fonction génératrice dans le cas d'un environnement aléa-
toire)
Pour un processus de Galton-Watson en environnement aléatoire de paramètre µ, pour tout entier naturel non-nul n, la fonction génératrice de Xn
est donnée par φXn (t) = φXn−1 (eλn−1 (t−1) ) pour tout t ∈] − 1, 1[.
Démonstration.
La démonstration est semblable à celle du théorème 2.3. Soient n et k des
entiers naturels non-nuls.
+∞
X
P(Xn = k) =
P(Xn = k ∩ Xn−1 = j)
j=0
+∞
X
=
P(Xn = k|Xn−1 = j)P(Xn−1 = j)
j=0
+∞
X
=
j
X
P
j=0
= k P(Xn−1 = j)
h=1
Pour tout t ∈] − 1, 1[,
φXn (t) =
!
τhn−1
+∞
X
+∞
X
"
P(Xn−1 = j)
j=0
P
k=0
j
X
! #
τhn−1
= k tk
h=1
Or, pour tout h compris entre 1 et j , τhn−1 suit une loi de Poisson de paramètre λn−1 . Donc
∞
X
P
k=0
j
X
!
τhn−1
= k tk =
j
Y
exp(λn−1 (t − 1))
p=1
h=1
= (exp(λn−1 (t − 1)))j
On en déduit que
φXn (t) =
+∞
X
P(Xn−1 = j)(exp(λn−1 (t − 1)))j
j=0
= φXn−1 (exp(λn−1 (t − 1))).
27
Corollaire 5.3.
Pour tout n ∈ N∗ ,
E(Xn ) =
n−1
Y
λi
i=0
Démonstration.
Nous allons raisonner par récurrence sur l'entier n.
Initialisation
Comme X1 = τ , X1 suit une loi de Poisson de paramètre λ0 . Donc
E(X1 ) = λ0 .
Hérédité
n−1
Q
λi . En dérivant la fonction génératrice
Soit n ∈ N∗ tel que E(Xn ) =
i=0
de Xn+1 et en l'évaluant en 1, on obtient
φ0Xn+1 (t) = λn exp(λn (t − 1))φ0Xn (exp(λn (t − 1))),
donc
φ0Xn+1 (1) = λn φ0Xn (1),
et donc
E(Xn+1 ) = λn E(Xn ) =
n
Y
λi .
i=0
On conclut par le principe de récurrence.
5.2 Simulations d'un processus de Galton-Watson en environnement aléatoire
An de mieux nous rendre compte de l'inuence du paramètre de reproduction sur le processus, simulons maintenant un processus de GaltonWatson en environnement aléatoire sous Matlab. Pour cela, nous allons procéder comme dans le cas de l'environnement xe, à ceci près que le nombre
de descendants d'un individu sera tiré aléatoirement selon une loi de Poisson
dont le paramètre sera lui-même aléatoire, de loi une exponentielle de loi
normale.
Simulation d'une loi normale N (0, 1)
Plusieurs méthodes permettent de simuler une loi normale. Nous avons
choisi la méthode de Box-Muller, basée sur le résultat suivant, que nous ne
redémontrons pas ici.
Théorème 5.4.
Soient V une variable aléatoire de loi uniforme sur ]0, 2π[
et W une variable aléatoire de loi exponentielle de paramètre 12 . Posons
28
X=
√
W cos(V ).
Alors la variable aléatoire X suit la loi normale N (0, 1).
Ce théorème justie que le programme ci-dessous simule bien une loi
normale N (0, 1). La simulation d'une loi exponentielle de paramètre 21 est
fondée sur la méthode d'inversion de la fonction de répartition.
1
2
3
4
5
6
7
8
function [X,Y]=BoxMuller()
%Variable aléatoire qui suit la loi exponentielle de paramètre 1/2 :
W=-2*log(rand());
% Variable aléatoire de loi uniforme sur ]0,2pi[ :
V=2*pi*rand();
%Variable aléatoire de loi N(0,1):
X=sqrt(W)*cos(V);
end
Programme simulant un environnement aléatoire
Nous disposons maintenant de tous les outils nécessaires pour adapter
le programme utilisé en environnement xe à l'environnement aléatoire. La
fonction ci-dessous prend en entrée un entier n et un réel µ. Elle renvoie
deux vecteurs (L et B) contenant respectivement les valeurs de λ et celles
de X aux générations 1 à n pour un processus de Galton-Watson en environnement aléatoire de paramètre µ, et trace l'une sous l'autre les courbes
correspondant.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
function [B,L]=EnvAleatoire(mu,n)
% Calcul du vecteur L :
L=zeros(1,n+1);
for i=1:n+1
X=BoxMuller();
L(i)=exp(mu+X);
% Calcul du vecteur B :
B=zeros(1,n+1);
B(1)=1;
for i=2:n+1
for j=1:B(i-1)
B(i)=B(i)+Poisson(L(i-1));
end
end
%Tracé des courbes :
29
19
20
21
22
23
24
25
X=0:n;
subplot(2,1,1);
plot(X,A);
subplot(2,1,2);
plot(X,L,'r');
end
Détermination de paramètres numériques pertinents
Avant de lancer ce programme avec des valeurs numériques, nous allons
chercher comment choisir ces valeurs an que le résultat obtenu soit signicatif.
Fixons une génération n, µ > 0 et Yn une variable aléatoire de loi N (µ, 1).
Posons λn = eYn .
À la génération n, toutes les variables aléatoires τjn , pour j de 1 à Xn−1 ,
suivent une loi de Poisson de paramètre λn . Nous aimerions donc choisir µ
de sorte que l'espérance de λn soit proche de 0, 9, 1 et 1, 1, qui sont les paramètres que nous avions testés en environnement xe.
Proposition 5.5.
λ = eY , alors
Si Y est une variable aléatoire de loi normale N (µ, 1) et
1
E(λ) = eµ+ 2
Démonstration.
Posons Y = µ + X , où X ∼ N (0, 1).
Z
Z
1 2
1
x
X
e dPX (x) dx = √
E(e ) =
e− 2 x +x dx
2π R
R
Nous avons calculé cette intégrale en annexe. Il reste à appliquer la formule
avec a = − 21 , b = 1, c = 0
1 −12
E(e ) = √ e −2
2π
X
s
1
−π
2
1 =e
−2
1
E(eX ) = e 2 . Par linéarité de l'espérance, il vient
1
E(Y ) = E(eµ eX ) = eµ E(eX ) = eµ+ 2
30
Nous avons donc eectué nos simulations pour µ = −0, 4, µ = −0, 5 et
Nombre de descendants jusqu’à la génération 20 pour µ=−0.6, tel que E(λ)=0.9
2
1.5
Nombre de descendants jusqu’à la génération 20 pour µ=−0.5, tel que E(λ)=1
3
2
1
1
0.5
0
0
5
10
15
20
0
0
5
Paramètre λ à la génération courante
3
4
2
2
1
0
5
10
15
15
20
0
0
5
10
15
µ = −0, 6.
Nombre de descendants jusqu’à la génération 20 pour µ=−0.4, tel que E(λ)=1.1
8
Nombre de descendants jusqu’à la génération 20 pour µ=−0.4, tel que E(λ)=1.1
200
6
150
4
100
2
50
0
0
5
10
15
0
20
0
Paramètre λ à la génération courante
5
10
15
20
Paramètre λ à la génération courante
8
3
6
2
4
1
2
0
0
5
10
15
20
Paramètre λ à la génération courante
6
0
10
0
20
0
5
10
15
On observe une forte corrélation entre λi et Xi+1 . Rien de surprenant : un
λi faible annonce une génération probablement moins fertile, donc donnant
moins de descendants. Concrètement, ceci peut correspondre à une guerre
ou à une famine.
31
20
20
Conclusion
Nous avons étudié un processus de Galton-Watson en environnement xe
avec succès : nous avons obtenu les formules de l'espérance du nombre de descendants à la n-ième génération, ainsi que de la variance. Nous nous sommes
aperçus en eectuant des simulations que ces informations étaient insusantes, notamment parce qu'elles ne décrivent qu'un comportement moyen.
Un travail supplémentaire a donc été nécessaire pour obtenir la probabilité
d'extinction. Nous avons réussi à obtenir cette probabilité en étudiant les
points xes d'une fonction sur un segment.
Nous nous sommes ensuite intéressés à l'eectif total de la population,
qui représente en quelque sorte l'inuence démographique de la population
au cours des siècles. Nous avons admis un résultat pour étudier le nombre
total de descendants de l'Individu 0 dans le cas où le nombre de descendants
suit une loi de Poisson.
Enn, nous avons obtenu un modèle plus réaliste en rendant l'environnement aléatoire. Les résultats ont été plus diciles à obtenir que pour l'environnement xe, puisque nous n'avons obtenu une formule explicite que pour
l'espérance du nombre de descendants à la n-ième génération.
Il aurait été intéressant d'étudier le cas d'un environnement déterministe
variable, correspondant par exemple à une guerre -chute du taux de reproduction, ou à une période d'abondance. Cela nous aurait permis d'étudier
plus précisément l'inuence de l'environnement sur la population.
Nous n'avons en revanche pas abordé le cas multitype (par exemple Daley : cas homme-femme).
Enn, notons que notre modèle peut s'appliquer à l'étude d'un caractère
héréditaire qui n'aecte pas le taux de reproduction, par exemple, avoir les
yeux bleus.
32
6 Annexe
6.1 Calcul de
Z
2 +bx+c
eax
dx
R
R
2
Soient a, b et c trois réels, a < 0. On calcule R eax +bx+c dx en se rame√
R +∞ −x2
nant à 0 e
dx = 2π .
2
Pour a < 0, eax +bx+c est intégrable sur R, par exemple parce que
2 +bx+c
x2 eax
−→ 0
x→±∞
2
b 2
) + 4ac−b
En écrivant ax2 + bx + c = a((x + 2a
4a , on obtient
Z
Z
4ac−b2
b 2
ax2 +bx+c
e
dx = e 4a
ea(x+ 2a ) dx
R
En posant u = x +
R
dans l'intégrale précedente, on obtient
Z
Z
4ac−b2
2
ax2 +bx+c
4a
e
dx = e
eau du
b
2a
R
R
2
R +∞
ax2 +bx+c
4ac−b2
4a
2
au
au
Par
√ parité de l'intégrande, R e du = 2 0 e du. On pose ensuite v =
u −a dans l'intégrale de droite :
r
Z +∞
Z +∞
1
π
au2
−v 2 dv
√
=
−
e du =
e
2
a
−a
0
0
R
D'où l'on déduit nalement
Z
e
dx = e
R
r
π
− .
a
Références
[1] Valérie GIRARDIN, Nikolaos LIMNIOS (2001). Probabilités
[2] Marie COTTRELL, Christian DUHAMEL, Valentine GENON-CATALO
(1980). Exercices de probabilités
Pour aller plus loin :
[3] J.R DALEY (1967) Extinction conditions for certain bisexual GaltonWatson branching processes
33
Téléchargement