Chapitre 4:
Fonctions génératrices
(notions)
1 Généralités
On considère ici le cas particulier des v.a. à valeurs dans l’ensemble
Ndes entiers naturels. Ces v.a. interviennent souvent dans les applica-
tions. Il est donc important de disposer d’une méthode de portée très
générale qui facilite le calcul de leur loi de probabilité et de leurs mo-
ments. Une idée qui s’est révélée très fructueuse consiste à associer à
toute v.a. Xà valeurs dans N, une série entière qui contient tous les
renseignements concernant la loi de probabilité de Xet qui a l’avantage
d’être admirablement bien adaptée à l’opération consistant à addition-
ner des v.a. indépendantes.
Soit Xune v.a. à valeurs dans N, de loi de probabilité donnée par
la suite pn=P(X=n)(nN).
Définition 1.1 : On appelle fonction génératrice de X, la série en-
tière
(1) GX(t) =
+
X
n=0
pntn
(on notera que cette série converge au moins pour |t|<1puisque
GX(1) = 1 <+).
La fonction génératrice caractérise parfaitement la loi de probabilité
d’une v.a.. En effet si Xet Ysont deux v.a. à valeurs entières telles
que GX(t) = GY(t)pour tout |t|<1, l’unicité du développement d’une
fonction en série entière montre que Xet Yont la même loi.
Théorème 1.2 : Soient GX1, . . . , GXnles fonctions génératrices res-
pectives de nv.a. indépendantes X1, . . . , Xnet à valeurs dans N. La
v.a. S=X1+· · · +Xna une fonction génératrice GSdonnée par
(2) GS(t) =
n
Y
i=1
GXi(t).
Notes du cours de Probabilités de M1 de M. L. Gallardo, Université de Tours,
année 2008-2009. Les démonstrations sont détaillées dans le cours oral.
1
démonstration : On suppose n= 2 (le cas général se fait ensuite par
récurrence sur n). Posons S=X1+X2et
GX1(t) =
+
X
i=0
aitiet GX2(t) =
+
X
j=0
bjtj.
Pour calculer ck=P(S=k)(kN), utilisons le système complet
d’événements [X2=j](jN). Il vient
ck=
+
X
j=0
P([X1+X2=k][X2=j])
=
n
X
j=0
P([X1=kj][X2=j])
=
n
X
j=0
P([X1=kj]) P([X2=j])
=
n
X
j=0
akjbj.
Donc ckest le coefficient du terme en tkdans le développement du
produit GX1(t)GX2(t). D’où le résultat.
Exemple 1.3 (et exercices) : 1) si Xsuit la loi de Bernoulli B(1, p),
on a
GX(t) = 1 p+pt.
2) si Xsuit la loi binomiale B(n, p), on a
GX(t) = (1 p+pt)n.
3) Si Xsuit la loi de Poisson de paramètre λ(>0),
GX(t) = eλ(t1).
4) Si les Xi(i= 1, . . . , N) sont des v.a. indépendantes de lois binomiales
respectives B(ni, p)de même paramètre p, la v.a. S=Pn
i=1 Xiest de
loi binomiale B(PN
i=1 ni, p).
5) Si les Xi(i= 1, . . . , N) sont des v.a. indépendantes de lois de Poisson
respectives de paramètres λi, la v.a. S=Pn
i=1 Xiest de loi de Poisson
de paramètre λ=PN
i=1 λi.
Exercice 1.4 :Une boîte contient quatre boules numérotées 0,1,1,2.
On effectue ntirages avec remise. Soit Snla somme des numéros tirés.
Déterminer la loi de probabilité de la v.a. Sn.
Solution : On a
GS1(t) = 1
4+1
2t+1
4t2=1 + t
22
.
2
Les tirages étant avec remise, Snest la somme de nv.a. indépendantes
et de même loi que S1. D’après le théorème, on a donc
GSn(t) = 1 + t
22n
.
En développant avec la formule du binôme de Newton, on déduit im-
médiatement
P(Sn=k) = 1
22nCn
k(k= 0,1,...,2n).
Théorème 1.5 : Soit Xune v.a. à valeurs entières de fonction géné-
ratrice GX. Si Xa un moment d’ordre 2, les dérivées à gauche G0
X(1)
et G00
X(1) existent1en t= 1, et on a
E(X) = G0
X(1)(3)
V ar(X) = G00
X(1) + G0
X(1) G0
X(1)2
.
Inversement si GXest deux fois dérivable en t= 1, X a un moment
d’ordre 2 et les formules (3) s’appliquent2.
démonstration : On peut toujours dériver formellement terme à terme
la série entière GX(t), ce qui donne
G0
X(t) =
+
X
n=1
npntn1et G00
X(t) =
+
X
n=2
n(n1)pntn2.
Si Xa un moment d’ordre deux, les dérivées à gauche G0
X(1) et G00
X(1)
sont finies et les formules annoncées pour E(X)et V ar(X)en découlent
aussitôt. L’autre assertion est facile.
Exercice 1.6 :Retrouver l’expression de l’espérance et de la variance
des lois binomiales et de Poisson en utilisant le théorème 1.5.
2 Exemple d’application des fonctions gé-
nératrices
2.1 Somme d’un nombre aléatoire de variables aléa-
toires
Soit X=X1, . . . , Xi, . . . une suite de v.a. à valeurs entières, indé-
pendantes et de même loi de fonction génératrice G(t) = P+
n=0 pntn.
On considérera que l’indice ifigure le temps et que la suite Xdécrit
l’état d’un système aléatoire au cours du temps, la v.a. Ximesurant
l’état du système à l’instant i.
1En effet, les séries G0
X(t)et G00
X(t)convergent pour tout |t|<1et les limites
limt1G0
X(t) = E(X)et limt1G00
X(t) = E(X(X1)) existent par le théorème
du prolongement d’Abel ; on déduit alors du théorème des accroissements finis que
ces limites sont les dérivées à gauche G0
X(1) et G00
X(1) .
2dans ce cas ce sont des dérivées en t= 1.
3
Pour tout entier nNfixé on considère la v.a. Sntotalisant les Xi
jusqu’à l’instant n:
(4) S0= 0 et Sn=
n
X
i=1
Xisi n1.
Dans certains problèmes (nous verrons un exemple ci-dessous) on est
amené à considérer une somme d’un nombre aléatoire Nde termes :
SN=PN
i=1 XiNest une v.a. à valeurs entières, définie sur le même
espace probabilisé que les Xiet indépendante de la suite X3. La somme
SNest définie précisément de la manière suivante :
(5) kN,ω[N=k], SN(ω) = Sk(ω).
On notera que puisque les événements [N=k](kN) forment un
système complet4, la valeur SN(ω)est bien définie pour tout ωet
que les valeurs prises par SNsont entières. Nous admettrons que SN
est bien une v.a.5
Remarque 2.1 :Il est facile de trouver une expression pour la loi
de probabilité de la v.a. SN, en notant que grâce à la formule de la
probabilité totale, pour tout jN, on a
P(SN=j) =
+
X
n=0
P(SN=j|N=n)P(N=n)
=
+
X
n=0
P(Sn=j)P(N=n),(6)
car P(SN=j|N=n) = P(Sn=j|N=n) = P(Sn=j)d’après
l’hypothèse d’indépendance6. Mais cette expression de la loi de SNn’est
pas très maniable. Le résultat qui suit donne une expression très simple
de la fonction génératrice de SNde laquelle on peut déduire simplement
les moments de SN.
On note H(t) = P+
n=0 qntnla fonction génératrice de N.
Proposition 2.2 : 1) La v.a. SNdéfinie en (5) a une fonction géné-
ratrice donnée par la formule
(7) GSN(t) = H(G(t)) = HG(t)
2) si les v.a. Xiet Nont un moment d’ordre deux, SNa également un
moment d’ordre deux et on a
E(SN) = E(N)E(X1)
V ar(SN) = E(N)V ar(X1)+(E(X1))2V ar(N).
3i.e. telle que pour tout entier k, les v.a. N, X0, X1, . . . , Xksont indépendantes.
4i.e. une partition de .
5L’espace n’étant pas discret en général dans les situations de ce type, il
conviendrait de vérifier la condition de mesurabilité.
6en effet on peut montrer facilement que Net Snsont indépendantes.
4
démonstration : Pour nN, par la définition (4) de Snet par le
théorème 1.2, on voit que
(8) GS0(t) = 1 et GSn(t) = (G(t))npour n1.
Pour tout nN, notons pn
j=P(Sn=j)le coefficient de tjdans
le développement en série entière de GSn(t). D’après la formule (6),
P(SN=j) = P+
n=0 qnpn
j. On a donc
GSN(t) =
+
X
j=0
P(SN=j)tj=
+
X
j=0
+
X
n=0
qnpn
jtj
=
+
X
n=0
qn +
X
j=0
pn
jtj!=
+
X
n=0
qnGSn(t)
=
+
X
n=0
qn(G(t))n=H(G(t)).
De plus si les Xiet Nont un moment d’ordre deux, on peut dériver
deux fois les fonctions Het Gen t= 1 donc la fonction composée
HGaussi, ce qui montre que SNa un moment d’ordre deux et grâce
au théorème 1.5 on obtient alors
E(SN) = H0(G(1)) G0(1) = H0(1)G0(1) = E(N)E(X1)
V ar(SN) = (HG)00(1) + (HG)0(1) ((HG)0(1))2
=E(N)V ar(X1)+(E(X1))2V ar(N).
2.2 Le processus de Galton-Watson
En étudiant le mécanisme de l’extinction des noms de famille noble
en Grande-Bretagne, Galton et Watson ont été amenés a étudier le
processus suivant :
On considère des particules pouvant donner naissance à des particules
de même nature. Au départ on suppose qu’il y a 1 particule (génération
zéro). Chaque particule a la même probabilité pkde produire elle même
kparticules (kN) et on note µ=P+
k=0 kpk<+le nombre moyen
de descendants d’une particule quelconque. Les particules descendantes
de la n-ième génération forment la n+1-ième génération. Les particules
de chaque génération se comportent indépendamment l’une de l’autre.
Notons Xn,k le nombre de particules produites par la particule nokde
la n1-ième génération. On a donc
N1=X1,1
N2=X2,1+· · · +X2,N1
.
.
.
Nn=Xn,1+· · · +Xn,Nn1
.
.
.
etc
5
1 / 7 100%