De la modélisation du trafic

publicité
De la modélisation du trafic dans les réseaux de
télécommunications
Michel Marot
Institut National des Télécommunications
Chapitre 12. De la modélisation du trafic dans les réseaux de télécommunication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.1.Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2.Le processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2.1.Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2.2.Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2.3.Loi hyperexponentielle . . . . . . . . . . . . . . . . . . . . . . . .
12.2.4.Loi hypoexponentielle et loi d’Erlang . . . . . . . . . . . . . . . .
12.3.Les modèles à base de processus d’arrivées markovien (M.A.P., B.M.A.P.,
D.-M.A.P. et D.-B.M.A.P.) . . . . . . . . . . . . . . . . . . . . . . . . . .
12.3.1.Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.3.2.Densité de la classe des processus B.M.A.P. dans celle des processus ponctuels . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.3.3.Cas discret : D.-B.M.A.P. . . . . . . . . . . . . . . . . . . . . . . .
12.3.4.Application du modèle D.-B.M.A.P. : une approximation de la
superposition de sources sporadiques . . . . . . . . . . . . . . . . .
12.4.Les modèles modulés par un processus de Poisson . . . . . . . . . . . .
12.4.1.Définition et propriétés du modèle M.M.P.P. . . . . . . . . . . . .
12.4.2.Fonction de comptage associée au processus M.M.P.P. . . . . . .
12.4.3.Matrice des probabilités de transition du processus de renouvellement markovien M.M.P.P. . . . . . . . . . . . . . . . . . . . . . .
12.4.4.Temps entre deux arrivées . . . . . . . . . . . . . . . . . . . . . .
5
7
7
7
7
12
17
18
22
22
28
32
35
41
42
46
48
50
6
12.4.5.Applications du modèle M.M.P.P. : trafic de débordement, et approximation de trafic par un processus M.M.P.P. . . . . . . . . . .
12.5.Le modèle fluide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.6.Les modèles fractaux ou autosimilaires . . . . . . . . . . . . . . . . . .
12.6.1.Définitions de l’autosimilarité exacte et propriétés . . . . . . . . .
12.6.2.Définitions de l’autosimilarité asymptotique et propriétés . . . . .
12.6.3.Dépendances à long-terme . . . . . . . . . . . . . . . . . . . . . .
12.6.4.Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.6.5.Application : effet des dépendances à long-terme sur les performances d’une file d’attente, lien entre autosimilarité et distributions barycerques . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.7.Un modèle de trafic modulable, prenant en compte les caractéristiques
importantes du trafic, et adapté à la simulation . . . . . . . . . . . . . .
12.7.1.Modèle à temps discret . . . . . . . . . . . . . . . . . . . . . . . .
12.7.2.Modèle à temps continu . . . . . . . . . . . . . . . . . . . . . . . .
12.8.Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Chapitre 13. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
57
60
60
63
70
71
72
82
82
84
94
95
Chapitre 12
De la modélisation du trafic dans les réseaux
de télécommunications
Michel MAROT
Institut National des Télécommunications
12.1. Introduction
Il serait vain de prétendre exposer en quelques dizaines de pages un état de l’art exhaustif sur la modélisation du trafic dans les réseaux de télécommunications. Ce sujet
à fait l’objet de nombreux travaux scientifiques, plusieurs approches ont été proposées. C’est pourquoi nous avons choisi de ne détailler que quelques modèles, les plus
utiles pour la simulation, plutôt que de présenter un survol de tous ceux qui existent.
Le lecteur peut se référer à [12] pout un recensement très complet des modèles de
trafic.
La théorie des files d’attente est l’arsenal classique utilisé pour s’attaquer aux
problèmes de performances de réseaux. Elle repose sur l’hypothèse que le trafic est
poissonnien, aussi présentons-nous en premier lieu le trafic de Poisson. Cependant,
il y a quelques années, on a montré que le trafic paraissait autosimilaire. Fallait-il
alors revoir la théorie des files d’attente ? Pouvait-on continuer à l’appliquer même si
ses fondements ne sont pas vérifiés ? Entre ces deux extrêmes, certains ont cherché
à l’adapter en proposant des modèles markoviens rendant compte de certaines caractéristiques des trafics à dépendances à long-terme. C’est dans la dernière partie de
ce chapitre que deux de ces modèles sont traités. Auparavant, dans les deuxième et
troisième parties les modèles markoviens B.M.A.P. et M.M.P.P. sont présentés, suivis
d’un paragraphe sur les trafics autosimilaires.
12.2. Le processus de Poisson
12.2.1. Définition
Le processus de Poisson peut être défini de trois façons différentes, toutes équivalentes :
7
8
Définition 1 (Processus de Poisson) Un processus de Poisson de taux λ est un processus tel que :
– la probabilité d’avoir une arrivée pendant un intervalle de temps dt est λdt +
o (dt) ;
– la probabilité d’avoir k > 1 arrivées pendant dt est o (dt) ;
– la probabilité de ne pas avoir d’arrivée pendant dt est 1 − λdt + o (dt).
Définition 2 (Processus de Poisson) Un processus de Poisson de taux λ est un processus d’arrivées vérifiant :
– la loi du nombre d’arrivées pendant un intervalle de temps de longueur τ suit
(λτ)k −λτ
une loi de Poisson : P(k) =
e ;
k!
– les nombres d’arrivées N(t1 , t2 ) et N(t3 , t4 ) dans deux intervalles de temps disjoints (t1 ≤ t2 ≤ t3 ≤ t4 ) sont indépendants.
Définition 3 (Processus de Poisson) Un processus de Poisson de taux λ est un processus d’arrivées tel que les temps entre arrivées An sont indépendants et suivent une
loi exponentielle de taux λ P (An ≤ t) = 1 − e−λt .
Nous allons démontrer que la définition 1 implique 2 qui, elle-même, implique 3,
laquelle implique enfin 1.
Soit N(0, t) le nombre d’arrivées pendant l’intervalle de temps [0; t]. Notons Pk (t) la
probabilité que N(0, t) = k. Pour avoir N(0, t) = k > 0 à l’instant t + dt, il faut soit
en avoir eu k à l’instant t et ne pas avoir d’arrivée au cours de l’intervalle de temps
[t; t + dt], soit en avoir eu k − 1 à t et avoir eu exactement une arrivée entre t et t + dt,
d’où
Pk (t + dt) = Pk−1 (t)λdt + (1 − λdt) Pk (t)
⇔
⇔
Pk (t + dt) − Pk (t)
= λ [Pk−1 (t) − Pk (t)]
dt
dPk (t)
= λ [Pk−1 (t) − Pk (t)]
dt
(12.1)
ns le cas où k = 0, pour avoir N (0, t) = 0 à l’instant t + dt, il faut avoir eu k = 0 à
l’instant t et ne pas avoir d’arrivée pendant [t; t + dt], donc
P0 (t + dt) = (1 − λdt) P0 (t)
⇔
⇔
P0 (t + dt) − P0 (t)
= −λP0 (t)
dt
dP0 (t)
= −λP0 (t)
dt
(12.2)
De la modélisation du trafic dans les réseaux de télécommunication
9
Pour déterminer la loi de N (0, t), il faut résoudre le système différentiel
dPk (t)
dt
dP0 (t)
dt
= λpk−1 (t) − λPk (t)
(12.3)
= −λP0 (t)
(12.4)
k
−λt
Montrons par récurrence que la solution est Pk (t) = (λt)
. Pour k = 0, la solution
k! e
−λt
de l’équation (12.4) est P0 (t) = Ae , où A est une constante. Comme N (0, 0) = 0 et
donc P0 (0) = 1, A = 1 d’où P0 (t) = e−λt .
k
−λt
, montrons alors que Pk+1 (t) =
Supposons maintenant que Pk (t) = (λt)
k! e
Compte tenu de l’hypothèse de récurrence, l’équation (12.3) devient :
(λt)k −λt
d
Pk+1 (t) =
e λ − λPk+1 (t).
dt
k!
(λt)k+1 −λt
.
(k+1)! e
(12.5)
La solution de l’équation homogène associée
d
Pk+1 (t) = −λPk+1 (t)
dt
(12.6)
Pk+1 (t) = Ae−λt ,
(12.7)
est
où A est une constante. Pour trouver la constante, utilisons la méthode de variation des
constantes. Posons
Pk+1 (t) = A(t)e−λt .
(12.8)
On a alors
dA(t) −λt
d
Pk+1 (t) =
e − λA(t)e−λt
dt
dt
(12.9)
10
et l’équation (12.5) donne
(λt)k −λt
dA(t) −λt
e − λA(t)e−λt =
e λ − λA(t)e−λt
dt
k!
⇔
dA(t) (λt)k
=
λ.
dt
k!
(12.10)
1 (λt)k+1
+ Cste,
k + 1 k!
(12.11)
Donc,
A(t) =
et, car Pk+1 (0) = 0,
Pk+1 (t) =
(λt)k+1 −λt
e .
(k + 1)!
(12.12)
Il existe une autre
démonstration
plus courte en utilisant les fonctions génératrices.
h
i
N(0,t)
Soit Gt (z) = E z
la fonction génératrice de la variable aléatoire N (0, t).
i
i
h
h
Gt+dt (z) = E zN(0,t+dt) = E zN(0,t)+N(t,t+dt) .
(12.13)
Or, puisque N (0, t) et N (t, t + dt) sont indépendantes,
h
i
h
i h
i
E zN(0,t)+N(t,t+dt) = E zN(0,t) E zN(t,t+dt) ,
(12.14)
et donc,
h
i h
i
Gt+dt (z) = E zN(0,t) E zN(t,t+dt)
i
h
= Gt (z) (1 − λdt) z0 + λdtz1 .
(12.15)
On en déduit que
Gt+dt (z) − Gt (z)
dGt (z)
= λ(z − 1)Gt (z) ⇔
= λ(z − 1)Gt (z)
dt
dt
(12.16)
De la modélisation du trafic dans les réseaux de télécommunication
11
dont la solution est
Gt (z) = Aeλ(z−1) .
(12.17)
Comme G0 (z) = 1,
Gt (z) = eλ(z−1) .
(12.18)
On reconnaît ici la fonction génératrice de la loi de Poisson, donc,
Pk (t) =
(λt)k −λt
e .
k!
(12.19)
Montrons maintenant que la définition 2 d’une loi de Poisson implique la définition
3. Soit X l’intervalle de temps entre deux arrivées. La probabilité que cet intervalle
soit plus grand que t est égale à la probabilité de ne pas avoir d’arrivée pendant un
intervalle de longueur t :
P (X > t) = P (N (0, t) = 0)
⇒
P (X ≤ t) = 1 − P (N (0, t) = 0)
⇒
P (X ≤ t) = 1 − e−λt .
(12.20)
Donc, le temps entre deux arrivées est une variable aléatoire qui suit une distribution
exponentielle de paramètre λ.
Montrons enfin que la définition 3 implique la définition 1. La probabilité d’avoir
exactement une arrivée pendant dt est égale à la probabilité d’avoir un temps entre
arrivées inférieur à dt. Cette probabilité est :
P1 (dt) = 1 − e−λdt ≃ 1 − (1 + λdt + o (dt)) = λdt + o (dt)
(12.21)
La probabilité d’en avoir plus d’une seule est donc en o (dt), et la probabilité de ne pas
en avoir est 1 − λt + o (dt). Q.E.D.
12
12.2.2. Propriétés
Ce processus a une importance particulière en raison d’une part de la relative simplicité des calculs dans les modèles qui l’utilisent et d’autre part car dans un grand
nombre de cas, la superposition de plusieurs trafics indépendants tend vers un trafic
de Poisson. Ceci a été démontré par C. Palm en 1943 et explique pourquoi dans la
nature de nombreux phénomènes sont modélisés par des processus de Poisson.
Propriété 1 (Superposition de processus de Poisson) La superposition de deux processus de Poisson de taux λ1 et λ2 respectivement est un processus de Poisson de taux
λ1 + λ2 .
En superposant les deux processus de Poisson de taux λ1 et λ2 , on obtient un processus
tel que (cf. [34]) :
– la probabilité d’avoir exactement une arrivée entre t et t + dt est la probabilité
d’avoir une arrivée du premier processus et pas du second, ou bien de ne pas avoir
d’arrivée du premier et d’en avoir une du second :
P (Exactement une arrivée)
=
[λ1 dt + o (dt)] × [1 − λ2 dt + o (dt)]
+ [1 − λ1 dt + o (dt)] × [λ2 dt + o (dt)]
= (λ1 + λ2 ) dt + o (dt) ;
(12.22)
– la probabilité de ne pas avoir d’arrivée est égale à la probabilité de ne pas avoir
d’arrivée du premier et de ne pas en avoir du second :
P (Aucune arrivée) = [1 − λ1 dt + o (dt)] × [1 − λ2 dt + o (dt)]
= 1 − (λ1 + λ2 ) dt + o (dt) ;
(12.23)
– la probabilité d’avoir plus d’une arrivée est la probabilitée d’en avoir plus d’une
du premier processus ou celle d’en avoir plus d’une du second, ou encore celle d’avoir
exactement une seule de chacun :
P (k > 1 arrivées) = o (dt) + o (dt) + [λ1 dt + o (dt)] × [λ2 dt + o (dt)]
= o (dt)
(12.24)
La première définition d’un processus de Poisson permet de reconnaître un processus
de Poisson de taux λ1 + λ2 . Q.E.D.
Propriété 2 (Echantillonnage d’un processus de Poisson) Si un échantillonnage aléatoire est fait à partir d’un processus de Poisson de taux λ et avec une probabilité p,
c’est-à-dire que pour chaque arrivée du processus de Poisson chacune est sélectionnée
avec une probabilité p, indépendamment de celles déjà sélectionnées ou à sélectionner, le processus résultant est un processus de Poisson de taux λp.
De la modélisation du trafic dans les réseaux de télécommunication
13
Dans le cas d’un échantillonnage réalisé avec une probabilité p sur un processus de
Poisson, la probabilité d’avoir exactement une arrivée entre t et t +dt pour le processus
résultant de l’échantillonnage est la probabilité que le processus de Poisson initial ait
une arrivée et que celle-ci soit sélectionnée :
P (Exactement une arrivée) = p × [λdt + o (dt)] .
(12.25)
La probabilité de ne pas avoir d’arrivée entre t et t + dt pour le processus résultant est
la probabilité que le processus initial ait une arrivée et qu’elle ne soit pas sélectionnée
ou qu’il n’y ait pas d’arrivée pour le processus initial :
P (Exactement aucune arrivée)
=
(1 − p) × [λdt + o (dt)] + [1 − λdt + o (dt)] .
(12.26)
Le fait d’avoir plus d’une arrivée entre t et t + dt pour le processus résultant suppose
d’en avoir plus d’une pour le processus initial, donc
P (Plus d’une arrivée) = o (dt) .
(12.27)
La première définition d’un processus de Poisson permet de reconnaître un processus
de Poisson de taux λp.
Propriété 3 (Temps entre appels et temps résiduel avant la prochaine arrivée)
Considérons un trafic d’appels téléphoniques. Soient :
– X l’intervalle de temps entre un instant quelconque et le prochain appel,
– θ(t) = P (X ≥ t),
– A l’intervalle de temps entre un appel quelconque et le suivant, de moyenne 1y ,
– φ(t) = P (A ≥ t).
– F(t) = − dφ(t)
dt la densité de probabilité de la longueur des appels
On a :
φ(t) = −
1 dθ(t)
y dt
(12.28)
14
Nous reprenons la démonstration de l’article [23] pour cette propriété et la suivante.
En moyenne, il y a y appels par unité de temps. Il y a donc en moyenne yφ(t) intervalles
entre appels qui ont au moins la longueur t. Dans l’intervalle de temps entre appels de
longueur x +t, tous les intervalles compris entre t et x +t sont de longueurs supérieures
à t. En moyenne, il y a yF(x + t)dx intervalles entre appels de longueur x + t par unité
de temps. La proportion d’intervalles entre appels qui sont de longueurs au moins t est
donc :
θ(t) = y
Z
+∞
xF(x + t)dx
(12.29)
x=0
En posant u = x + t, on obtient :
θ(t) = y
Z
+∞
(u − t)F(u)du
(12.30)
x=t
et en intégrant par partie,
£
θ(t) = y −uφ(u)
¤+∞
t
−y
Z
+∞
−φ(u)du − yt
x=t
Z
+∞
F(u)du
(12.31)
x=t
ce qui se simplifie en :
θ(t) = y
Z
+∞
φ(x)dx
(12.32)
x=t
On en déduit la relation entre θ(t) et φ(t) :
dθ(t)
dt
= −yφ(t)
Q.E.D.
Propriété 4 (Superposition de trafics) Soient
– N trafics indépendants ;
(12.33)
De la modélisation du trafic dans les réseaux de télécommunication
15
– yσ la moyenne du nombre d’arrivées par unité de temps du σème trafic ;
– Xσ l’intervalle de temps entre un instant quelconque t et la prochaine arrivée
après t pour le σème trafic ;
– θσ (x) = P (Xσ ≥ x) ;
– Aσ l’intervalle de temps entre un appel quelconque et le suivant pour le σème
trafic ;
– φσ (x) = P (Aσ ≥ x) ;
– Y la moyenne du nombre d’arrivées par unité de temps du trafic résultant de la
superposition ;
– X l’intervalle de temps entre un instant quelconque t et la prochaine arrivée
après t pour le trafic résultant de la superposition ;
– Θ(x) = P (X(t) ≥ x) ;
– A l’intervalle de temps entre un appel quelconque et le suivant pour le trafic
résultant de la superposition ;
– Φ(x) = P (A ≥ x).
Supposons que :
– N tende vers l’infini ;
– chaque yσ tende vers 0 ;
PN
– σ=1
yσ tende vers une constante Y.
Dans ces conditions, on démontre que Θ(x) = e−Y x et donc que la distribution des
temps entre appels du processus résultant est exponentielle. On en déduit que le trafic
résultant de la superposition tend vers un processus de Poisson.
On peut écrire la fonction θσ (t) selon la forme suivante :
θσ (t) = 1 − yσ t + y2σ Kσ (t, yσ )
(12.34)
et donc,
φσ (t) = 1 − yσ
∂Kσ (t, yσ )
∂t
(12.35)
On peut supposer que pour toute valeur finie de t,
∂Kσ (t, yσ )
yσ →0
∂t
lim
(12.36)
16
existe et a une valeur finie. Cela signifie que la probabilité qu’un intervalle entre appels
soit de longueur finie s’approche de 0 quand le nombre moyen d’appels par unité de
temps yσ tend vers 0. Maintenant, si la dérivée de Kσ (t, 0) est borneée avant toute
valeur finie t, Kσ (t, 0) ne peut pas croître entre 0 et cette valeur finie d’une valeur finie
à une quantité infinie. Si par exemple Kσ (0, 0) = 0, Kσ (t, 0) est donc finie pour toute
valeur finie de t.
Comme la probabilité qu’un intervalle d’appel soit plus grand qu’une valeur finie t
n’est jamais nulle quand yσ s’approche de 0, on doit avoir φσR(t) > 0 pour toute valeur
+∞
finie t et yσ arbitrairement petit, et donc, puisque θσ (t) = y x=t φσ (x)dx, θσ (t) > 0.
On en déduit l’inégalité
yσ t − y2σ Kσ (t, yσ ) < 1
(12.37)
dont le membre de gauche ne peut bien sûr jamais être négatif (sinon θσ (t) serait
strictement positif).
On peut alors développer ln θσ (t) en série entière :
h
i 1h
i2
ln θσ (t) = − yσ t − y2σ Kσ (t, yσ ) − yσ t − y2σ Kσ (t, yσ ) − · · ·
2
(12.38)
Les trafics superposés étant indépendants,
Θ(t) = θ1 (t)θ2 (t) · · · θN (t)
(12.39)
et donc,
ln Θ(t) = − (y1 + y2 + · · · + yN ) − R
(12.40)
où R est une somme de puissances des yσ , négligeable devant la somme des yσ quand
ceux-ci tendent vers 0. Pour un t donné, la fonction Θ(t) tend donc vers e−Yt , quand
PN
N tend vers l’infini, yσ tend vers 0 et σ=1
yσ tend vers une constante. Ceci revient à
dire que la suite de fonctions Θ(t) converge simplement vers la fonction e−Yt avec N
dans les conditions déjà dites, et donc qu’il y a convergence en loi. Q.E.D.
De la modélisation du trafic dans les réseaux de télécommunication
17
12.2.3. Loi hyperexponentielle
A côté de la loi exponentielle, on trouve deux autres ensembles de lois qu’on définit
souvent en les comparant à la loi exponentielle (cf. [4]) : les lois hyperexponentielles
et les lois hypoexponentielles.
Définition 4 (Loi hyperexponentielle) Une variable aléatoire continue suit une distribution hyperexponentielle si elle a comme densité de probabilité :
fHr (t)
r
X
=
αi µi e−µi t où
i=1
r
X
αi = 1
(12.41)
i=1
Une loi hyperexponentielle peut être vue comme un mélange de lois exponentielles.
Elle permet de caractériser des variables aléatoires qui varient beaucoup plus qu’une
variable aléatoire suivant une loi exponentielle. En effet, le carré du coefficient de
variation, c’est-à-dire le rapport de la variance sur la moyenne, qui mesure le carré de
l’écart relatif entre l’écart à la moyenne et la moyenne, a pour expression :
CCVH(r)
.
P
2 ri=1 αi µ2i
³P
. ´2 − 1
r
µ2i
α
i
i=1
=
(12.42)
Par l’inégalité de Cauchy-Schwartz,
2
 r

X
 ai bi 
≤
i=1
r
X
i=1
a2i
r
X
b2i
(12.43)
i=1
ce carré du coefficient de variation est strictement supérieur à 1 :
CCVHr
> 1
(12.44)
On retrouve cette distribution hyperexponentielle par exemple lorsqu’on a un trafic qui
arrive sur un système composé de serveurs indépendants à temps de services exponentiels placés en parallèle et que le trafic est dirigé aléatoirement sur l’un ou l’autre des
serveurs avec une certaine probabilité pi, i = 1, · · · , n : cf. Fig. 12.1.
Comme la longueur des files d’attente est fonction du carré du coefficient de variation,
plus celui-ci est grand plus la longueur de la file est grande, c’est pourquoi des trafics
dont les temps entre arrivées sont hyperexponentiels conduisent à une dégradation des
performances (cf. [4]).
18
S1
S2
p1
Arrivees
p2
pn
Sn
n serveurs exponentiels en parallele
Figure 12.1 – n serveurs en parallèle
12.2.4. Loi hypoexponentielle et loi d’Erlang
De même qu’on peut avoir des serveurs en parallèle, on peut en avoir placés en
série. Cela conduit alors à des lois hypoexponentielles : cf. Fig. 12.2.
S1
S2
Sn
Arrivees
n serveurs exponentiels en parallele
Figure 12.2 – n serveurs en série
De la modélisation du trafic dans les réseaux de télécommunication
19
P
Définition 5 (Loi hypoexponentielle) Une variable aléatoire continue X = ri=1 Xi
qui est la somme de r variables aléatoires indépendantes exponentielles de densités
fXi (t) = λi e−λi t est dite hypoexponentielle.
Propriété 5 (Distribution de la loi hypoexponentielle) Elle a comme densité de probabilité :
r
X
λj
fHypo(r) (t) =
Ci,r λi e−λi t où Ci,r = Π j,i
λ
j − λi
i=1
La démonstration qui suit est reprise du livre [28].
Dans le cas où r = 2, la densité de probabilité de la somme des deux variables X1 et
X2 est le produit de convolution de leurs densités de probabilité :
fX1 +X2 (t) =
Z
t
fX1 fX2 (t − s) ds
0
=
Z
t
λ1 e−λ1 s λ2 e−λ2 (t−s) ds
0
= λ1 λ2
=
=
Z
t
e−(λ1 −λ2 )s ds
0
´
³
λ1
λ2 e−λ2 t 1 − e−(λ1 −λ2 )t
λ1 − λ2
λ2
λ1
λ2 e−λ2 t +
λ1 e−λ1 t
λ1 − λ2
λ1 − λ2
(12.45)
De la même manière, on trouverait avec n = 3 :
fX1 +X2 +X3 (t)
=
3
X
−λi t
λi e
i=1
Ã
λj
Π j,i
λ j − λi
!
(12.46)
ce qui suggère le résultat général
fX1 +X2 +···+Xr (t) =
r
X
i=1
Ci,r λi e−λi t
(12.47)
20
où
Ci,r
=
Π j,i
λj
λ j − λi
(12.48)
Prouvons-le par récurrence. La propriété est vraie au rand r=2. Supposons-là vraie au
rang r et montrons-la au rang r + 1. Supposons que X1 et Xr+1 sont renommés de telle
façon à ce que λ1 ≥ λr+1 .
fX1 +···+Xr+1 (t) =
Z
t
fX1 +···+Xr (s) λr+1 e−λr+1 (t−s) ds
0
=
r
X
Ci,r
i=1
=
r
X
i=1
=
Ci,r
Z
Ã
t
λi e−λi s λr+1 e−λr+1 (t−s) ds
0
λr+1
λi
λr+1 e−λr+1 t +
λi e−λi t
λi − λr+1
λr+1 − λi
Kr+1 λr+1 e−λr+1 t +
r
X
!
Ci,r+1 λi e−λi t
(12.49)
i=1
où
Kr+1 =
r
X
i=1
Ci,r
λi
λi − λr+1
est une constante qui ne dépend pas de t.
Par ailleurs,
fX1 +···+Xr+1 (t) =
Z
t
fX2 +···+Xr+1 (s) λ1 e−λ1 (t−s) ds
0
ce qui implique, selon le même type de calcul que précédemment,
fX1 +···+Xr+1 (t) = K1 λ1 e−λ1 t +
r
X
Ci,r+1 λi e−λi t
i=2
On en déduit que
Kr+1 λr+1 e−λr+1 t + C1,r+1 λ1 e−λ1 t = K1 λ1 e−λ1 t + Cr+1,r+1 λr+1 e−λr+1 t
En multipliant les deux membres de cette équation par eλr+1 t , et en faisant tendre t vers
+∞, on obtient (puisque e−(λ1 −λr+1 ) tend vers 0 quand t tend vers +∞) ;
Kr+1 = Cr+1,r+1
De la modélisation du trafic dans les réseaux de télécommunication
21
En injectant ce résultat dans l’expression (12.49), on arrive à
fX1 +X2 +···+Xr+1 (t)
=
r+1
X
Ci,r+1 λi e−λi t
Q.E.D.
(12.50)
i=1
Propriété 6 (Carré du coefficient de variation) Pour une loi hypoexponentielle, la
variance est
N
X
1
,
2
λ
i=1 i
(12.51)
sa moyenne
N
X
1
,
λ
i=1 i
(12.52)
et donc le carré de son coefficient de variation est
PN
1
i=1 λ2
i
³P
N
´
1 2
i=1 λi
≤1
(12.53)
L’exemple le plus connu de loi hypoexponentielle est la loi d’Erlang.
Définition 6 (Loi d’Erlang) Une variable aléatoire X suit une loi d’Erlang de paramètres λ > 0 et k = 1, 2, · · · si elle a pour densité de probabilité
f (x)
(λk)k k−1 −kλx
x e
, x>0
(k − 1)!
=
(12.54)
³ ´
Sa moyenne est 1/λ, sa variance 1/ kλ2 et sa fonction caractéristique
h i
E eitX
=
Ã
kλ
kλ − it
!k
.
(12.55)
Une somme de k variables aléatoires indépendantes équidistribuées de loi exponentielle de paramètre λ suit une loi d’Erlang de paramètres λ et k.
22
12.3. Les modèles à base de processus d’arrivées markovien (M.A.P., B.M.A.P.,
D.-M.A.P. et D.-B.M.A.P.)
12.3.1. Définition
Soient un processus de Poisson de taux λ, et N(t) le nombre d’arrivées correspondantes dans l’intervalle de temps [0; t]. {N(t)}t≥0 est un processus markovien sur
l’ensemble des entiers naturels N. Son générateur infinitésimal est :


0 · · · 
 λ −λ 0
 0 λ −λ 0 · · · 


λ −λ · · · 
 0 0
 .
..
..
..
. . 
..
.
.
.
.
Définition 7 (Processus B.M.A.P.) Le processus B.M.A.P. (de l’anglais Batch Markov Arrival Process, i.e. processus d’arrivées groupées markovien) est une généralisation du processus de Poisson où les arrivées se produisent selon un processus de
Markov à temps continu. Soient :
– {N(t)}t≥0 le nombre d’arrivées dans l’intervalle [0; t] ;
– {J(t)}t≥0 un processus markovien à valeurs dans l’espace discret ~1; mÄ.
On appelle processus B.M.A.P. un processus markovien à deux dimensions {N(t), J(t)}t≥0
dont le générateur infinitésimal est de la forme :
 (0)
 D
 0

 0

 ..
.
D =
D(1)
D(0)
0
..
.
D(2)
D(1)
D(0)
..
.
D(3)
D(2)
D(1 )
..
.
···
···
···
..
.







(12.56)
où
D(k)
=
 (k)
 d11
 (k)
 d21
 .
 ..

(k)
dm1
(k)
d12
(k)
d22
..
.
(k)
d13
(k)
d23
..
.
···
···
..
.
(k)
d1m
(k)
d2m
..
.
(k)
dm2
(k)
dm3
···
(k)
dmm







(12.57)
où di(k)
j est le taux de probabilité de passage de l’état (N(t) = l, J(t) = i) à
(N(t) = l + k, J(t) = j) pour tout l ≥ 0, ce qui correspond simultanément à un passage
de l’état J(t) = i à J(t) = j et à k arrivées.
De la modélisation du trafic dans les réseaux de télécommunication
23
La classe des processus B.M.A.P. contient plusieurs cas particuliers bien connus.
Définition 8 (Processus M.A.P.) Le processus M.A.P. est processus B.M.A.P. pour lequel le nombre d’arrivées par groupe d’arrivées est égal à un. En d’autres termes,
D(k) = 0 pour k > 1.
Cette classe contient elle-même la famille des processus de Poisson, celle des processus de Poisson modulés par une chaîne de Markov (MMPP) (cf. § 12.4), et celle des
processus de renouvellement de type phase.
Définition 9 (Processus de renouvellement markovien) Le processus stochastique
(J, X) = {(Jn , Xn ) ; n ≥ 0} est un processus de renouvellement markovien à espace
d’état E si :
Pr (Jn+1 = j, Xn+1 ≤ x /J0 , · · · , Jn , X0 , · · · , Xn ) = Pr (Jn+1 = j, Xn+1 ≤ x /Jn )
pour tout n ∈ N, j ∈ E, t ∈ [0; +∞[.
Ce processus est à temps homogène si Pr (Jn+1 = j, Xn+1 ≤ x /Jn ) ne dépend pas de
l’indice du temps n. Dans ce cas, on pose
Pr (Jn+1 = j, Xn+1 ≤ x /Jn ) = Fi j (x)
Plus intuitivement, un processus de renouvellement markovien est un processus qui
évolue au cours du temps en passant par différents états et reste dans ces états un
temps de séjour qui ne dépend que de l’état courrant Jn et de l’état futur Jn+1 .
Si la distribution du temps passé dans les états est exponentielle, le processus devient
une chaîne de Markov : une chaîne de Markov est un cas particulier de processus de
renouvellement markovien. Un processus de renouvellement markovien peut être vu
comme une "chaîne de Markov dans les états de laquelle on passerait un temps suivant
une distribution quelconque, pas nécessairement exponentielle".
Soient :
– {Jn }n≥0 la variable aléatoire correspondant à la valeur de l’état du processus
{J(t)}t≥0 au moment du nième groupe d’arrivées (éventuellement constitué d’une seule
arrivée) ;
– Ln le nombre d’arrivées dans ce groupe ;
– {Xn }n≥0 le temps entre la n − 1ième et la nième arrivée, avec X0 = 0 ;
– tn la date de la nième arrivée.
24
Le processus {N(t), J(t)}t≥0 est un processus markovien. En revanche, le processus
{Jn , Xn }n≥0 est un processus de renouvellement markovien.
Propriété 7 (Matrice de transition de {Jn , Xn }n≥0 ) La matrice de transition du processus {Jn , Ln = k, Xn }n≥0 pour tout k > 0 est :
{P ( Jn = j, Ln = k, Xn ≤ x/ Jn−1 = i)}1≤i≤m,1≤ j≤m
Z x
(0)
=
eD u duD(k)
(12.58)
0
En effet,
dP ( Jn = j, Ln = k, Xn ≤ x/ Jn−1 = j)
=
=
P ( Jn = j, Ln = k, x ≤ Xn ≤ x + dx/ Jn−1 = i)
³
´
P ( J (tn−1 + x) = j, N(x) = 0/ Jn−1 = i) d(k)
j j + o(dx)
+
m
X
[P ( J (tn−1 + x) = l, N(x) = 0/ Jn−1 = i)
l=1,l, j
³
´i
× di(k)
j + o(dx)
(12.59)
soit, en écriture matricielle, en notant P (N(x) = 0) la matrice d’éléments
(P (N(x) = 0))i j = P ( J (tn−1 + x) = j, N(x) = 0/ Jn−1 = i),
Ã
dP ( Jn = j, Ln = k, Xn ≤ x/ Jn−1 = j)
dx
!
1≤i≤m,1≤ j≤m
(k)
= P (N(x) = 0) D
(12.60)
Par ailleurs,
P ( N (t + dt) = 0, J (t + dt) = j/ N(0) = 0, J(0) = i)
=
P ( N (t) = 0, J (t) = j/ N(0) = 0, J(0) = i) ×


m
m
+∞ X
X
X


(0)
(k)
1 −
d j′ j dt −
d j j′ dt + o(dt)

j′ =1, j′ , j
+
m
X
j′ =1, j′ , j
k=1 j′ =1
¡
±
¢
P N (t) = 0, J (t) = j′ N(0) = 0, J(0) = i ×
h (0)
i
d j′ j dt + o(dt)
(12.61)
De la modélisation du trafic dans les réseaux de télécommunication
donc, puisque d(0)
jj = −
Pm
j′ =1, j′ , j
d(0)
j j′ −
P+∞ Pm
j′ =1
k=1
25
d(k)
j j′ ,
dP
( N (t) = 0, J (t) = j/ N(0) = 0, J(0) = i)
dt
m
X
±
¢
¡
=
P N (t) = 0, J (t) = j′ N(0) = 0, J(0) = i d(0)
j′ j
(12.62)
j′ =1
ou encore, en notation matricielle,
d
P (N(t) = 0) = P (N(t) = 0) D(0)
dt
(12.63)
d’où
P (N(t) = 0) − P (N(0) = 0) =
Z
t
(0)
eD
u
duD(0)
u=0
h
i· ³
´−1 ¸
(0)
⇔ P (N(t) = 0) − I = I − eD t − D(0)
D(0) .
(12.64)
Il vient alors,
Ã
!
d
P ( Jn = j, Ln = k, Xn ≤ x/ Jn−1 = j)
dx
1≤i≤m,1≤ j≤m
(0)
= eD
x
D(k)
(12.65)
et, finalement,
P ( Jn = j, Ln = k, Xn ≤ x/ Jn−1 = j)
Z x
(0)
=
eD u duD(k)
0
Q.E.D.
(12.66)
26
Propriété 8 (Fonction de comptage) La fonction génératrice matricielle de la fonction de comptage est
P∗ (z, t) =
+∞
X
P(N(t) = n)zn , pour |z| ≤ 1
n=0
= eD(z)t
où D(z) =
P+∞
k=0
(12.67)
D(k) zk .
En effet, de la même manière qu’en (12.61), en considérant tous les cas possibles
résultants en n arrivées pendant l’intervalle de temps [0; t +dt] (i.e. : j arrivées pendant
t, et n − j arrivées groupées pendant [t; t + dt]), on peut montrer que
d
P (N(t) = n)
dt
P (N(t) = 0)
=
n
X
P (N(t) = j) D(n−j) , n ≥ 1, t ≥ 0
(12.68)
j=0
= I.
(12.69)
En multipliant (12.68) par zn et en sommant sur n, on déduit la condition sur la fonction
génératrice matricielle
d ∗
P (z, t) = P∗ (z, t)D(z)
dt
P∗ (z, 0) = I
(12.70)
(12.71)
dont la solution est
P∗ (z, t) = eD(z)t , pour |z| , t ≥ 0
(12.72)
Q.E.D.
En dérivant successivement cette fonction génératrice matricielle et en faisant tendre
z vers 0, on peut obtenir les moments de la fonction de comptage.
L’ensemble des propriétés de cette partie est extrait des articles [22] et [18].
De la modélisation du trafic dans les réseaux de télécommunication
27
Définitionn10 (Produit
de Kronecker)
Le produit de Kronecker de deux
matrices
K²
n
o
n o
o
P où K = Ki j 1≤i≤p et P = Pi j 1≤i≤r est la matrice d’éléments blocs Ki j P 1≤i≤p . C’est
1≤ j≤s
1≤ j≤q
1≤ j≤q
donc une matrice de taille pr × qs.
11 (Somme de Kronecker) La somme de Kronecker de m matrices Lk =
nDéfinition
o
Likj
est définie par L1 ¹ L2 ¹ · · · Lm = L1 ² I ² · · · ² I + I ² L2 ² · · · ²
1≤i≤p,1≤ j≤q
I + · · · + I ² · · · ² I ² Lm où I désigne la matrice identité.
Par exemple, soient
Q
=
"
−q1
q2
q1
−q2
#
,
R=
"
−r1
r2

0
q1
0
 −q1
 0
−q
0
q
1
1
Q ¹ R = 
0
−q2
0
 q2
0
q2
0
−q2

r1
 −(q1 + r1 )

r2
−(q1 + r2 )
= 
q2
0

0
q2
r1
−r2
#
,
 
  −r1
  r
 +  2
  0
 
0
q1
0
−(q2 + r1 )
r2
(12.73)
r1
−r2
0
0
0
0
−r1
r2
0
0
r1
−r2

0


q1


r1

−(q2 + r2 )






(12.74)
Propriété 9 (Superposition de processus B.M.A.P.) La superposition de deux (ou
plus) B.M.A.P. est toujours un B.M.A.P. Soient deux processus B.M.A.P., de matrices
{Dk (i)} i = 1, 2. La superposition de ces deux processus est un processus B.M.A.P. de
matrice Dk = Dk (1) ¹ Dk (2) pour tout k ≥ 0.
Propriété 10 (Débit du processus) Soit π le vecteur des probabilités stationnaires
P
(k)
du processus de Markov de générateur infinitésimal D = +∞
k=0 D , c’est-à-dire le
vecteur satisfaisant le système πD = 0, πe = 1. Le débit du trafic modélisé par le
processus B.M.A.P. est
λ=π
+∞
X
k=1
kD(k) e
(12.75)
28
12.3.2. Densité de la classe des processus B.M.A.P. dans celle des processus ponctuels
N’importe quel processus ponctuel marqué peut être approché par un processus
B.M.A.P. Cette propriété a été démontrée par MM. A et K (cf. [2]). La
suite de ce paragraphe est tirée de cet article. L’importance de ce résultat est due à ce
que les processus B.M.A.P. conduisent à des problèmes solubles analytiquement alors
que ce n’est pas le cas des processus ponctuels marqués dans le cas général. Cette
propriété peut être utilisée pour démontrer celles d’un système dans le cas général
où un processus ponctuel marqué y intervient, après les avoir démontrées dans le cas
des processus B.M.A.P., et en vérifiant les conditions de continuité par lesquelles elles
sont toujours vraies lorsque la suite des processus B.M.A.P. converge vers le processus
ponctuel marqué. Ainsi pourrait-on prouver qu’une certaine politique de gestion de file
d’attente est optimale en termes de temps de réponse dans le cas général où le trafic en
entrée est un processus ponctuel marqué, après l’avoir démontré dans le cas où c’est
un processus B.M.A.P. et avoir vérifé les conditions de continuité.
Démontrons tout d’abord le lemme suivant, tiré de [13]
Lemme 1 Soit G (y1 , · · · , yn ) la fonction de répartition d’un n-uplet de variables aléatoires non négatives (y1 , · · · , yN ).
Ã
X
k1
kN − 1
kN
k1 − 1
< Y1 ≤ , · · · ,
< YN ≤
P
λ1
λ1
λN
λN
0≤ki ≤[ri λi ]
i=1,··· ,N
×
N
Y
Eλkii (yi )
!
(12.76)
i=1
converge simplement vers G (y1 , · · · , yn ) quand ri et λi tendent vers +∞ pour tout i.
Par le principe d’inclusion et d’exclusion, on peut réécrire (12.76) sous la forme :
X
0≤ki ≤[ri λi ]
i=1,··· ,N
G
Ã
! N
´
k1
kN Y ³ ki
Eλi (yi ) − Eλkii+1 (yi ) .
,··· ,
λ1
λN i=1
(12.77)
Remarquons que Eλkii (yi )− Eλkii+1 (yi ) est égal à ((λi yi )ki /ki !)e−λi yi . Soient Xi , i = 1, · · · , N
N variables indépendantes telles que λi Xi suit une loi de Poisson de paramètre λi yi .
On peut alors réécrire (12.77) comme :
!
!!#
Ã
Ã
" Ã
⌊r1 λ1 ⌋
⌊rN λN ⌋
, · · · , XN 1 XN ≤
E G X1 1 X1 ≤
λ1
λN
(12.78)
De la modélisation du trafic dans les réseaux de télécommunication
29
Comme Xi est de moyenne yi et de variance yi /λi , qui tend vers 0 quand λi tend vers
+∞, on voit que (12.78) tend vers G (y1 , · · · , yN ) si (y1 , · · · , yN ) est un point de continuité de G. Q.E.D.
Soit S = {(T n , Yn )}n∈N un processus ponctuel marqué. T n représente des temps entre
arrivées et Yn un nombre d’arrivées (les "marques").
n³
´o
une suite de processus ponctuels marqués.
Soit S (m) = T n(m) , Yn(m)
n∈N
S (m) converge simplement vers S si et seulement si, pour tout N,
converge simplement vers {(T n , Yn )}n≤N .
n³
T n(m) , Yn(m)
´o
n≤N
Par ailleurs, on peut écrire n’importe quel processus marqué N de la forme N =
P+∞
ième arrivée, Yn sa marque et δ la mesure de Dirac.
n=1 δ(Vn ,Yn ) où Vn est la date de la n
On pose alors T 0 = V0 , T n = Vn − Vn−1 , pour n = 1, 2, · · · et on définit l’opérateur S
tel que S (N) = {(T n , Yn )}n≤N .
Propriété 11 Soit N un ³processus
ponctuel marqué. S’il existe une suite de tels pro´
cessus N (m) telle que S N (m) converge simplement vers S (N) quand m tend vers
+∞, alors N (m) converge simplement vers N.
P
2
En effet, soit N ( f ) = +∞
n=0 f (Vn , Yn ) pour f : R → R. Il suffit de montrer que
(m)
N ( f ) converge simplement vers N ( f ) pour f continue sur un support compact B.
On définit f N : R2N+2 → R par
f N (x0 , · · · , x2N+1 ) =
N
X
f (x0 + x2 + · · · + x2n , x2n+1 )
n=0
(si x0 , x2 , · · · , x2n sont des temps entre arrivées, x³0 +x2 +· · ·+x
´ 2n est une date d’arrivée).
PN
(m)
(m)
N
Alors, f est bornée et continue et donc, n=0 f Vn , Yn converge simplement vers
PN
n=0 f (Vn , Yn ) pour tout ³N. Soient´ǫ > 0, b < +∞ et N tel que B ⊆ [0; b] × (0; +∞) et
P (VN ≤ b) < ǫ. Alors, P VN(m) ≤ b < ǫ aussi pour tout m suffisamment grand et donc


N
X
´
³
 (m)
(m)
(m) 

P N ( f ) ,
f Vn , Yn  < ǫ
n=0
et


N
X


P N ( f ) ,
f (Vn , Yn ) < ǫ
n=0
30
Comme ǫ est arbitraire, N (m) ( f ) converge simplement vers N ( f ) quand m tend vers
+∞. Q.E.D.
Propriété 12 (Densité de la classe des B.M.A.P. dans celle des processus ponctuels)
Soient un processus ponctuel marqué S et son processus ponctuel de comptage associé
N.
n
o
– Il existe une suite S(m) de processus M.A.P. qui converge simplement vers S
quand m tend vers +∞.
n
o
– Il existe une suite N (m) de processus M.A.P. qui converge simplement vers N
quand m tend vers +∞.
n
o
Montrons qu’il existe une suite S(m) de processus M.A.P. qui converge simplement
n
o
vers S quand m tend vers +∞, l’autre propriété sur la convergence de N (m) vers N
en découlant immédiatement de part la propriété 11.
j k
Pour tout h, soit H la partie entière de h−1 : H = h−1 . On définit l’opérateur τ = τ(h)
par :
 (h)

τ (y) = 1 si 0 < y < 2h


 (h)
τ
(y) = k si kh < y < (k + 1)h, pour 2 ≤ k ≤ H 2 − 1



 τ(h) (y) = H 2 si y > H 2 .
Soit S(h) le processus ponctuel marqué obtenu à partir de S = {(T n , Yn )} en remplaçant
Yn par Yn(h) = τ (Yn ) h et T n par une variable aléatoire τn(h) suivant une loi d’Erlang à
τ (T n ) étages et d’intensité h−1 ; en représentant ainsi τn(h) comme la somme de τ (T n )
variables aléatoires exponentielles, on les suppose indépendantes mutuellement et indépendantes de N. Par le lemme 1, S(h) converge simplement vers S quand h tend
vers 0. Pour compléterla preuve, il suffit donc de trouver une suite S(h,m) qui converge
simplement vers S(h) quand m tend vers +∞.
n³
´o
Utilisons la représentation équivalente S n(h) , Yn(h) de N (h) où S n(h) est le nombre
d’étages de T n(h) . Pour tout m, on définit l’espace d’états Eh,m pour S(h,m) par
Eh,m
=
{(s0 , k0 , y0 ) , (s1 , y1 ) , · · · , (sm , ym ) ;
1 ≤ sn ≤ H, 1 ≤ yn ≤ H, 1 ≤ k0 ≤ s0 }
(12.79)
Les taux de transitions du type
(s0 , k0 , y0 ) , (s1 , y1 ) , · · · , (sm , ym )
→ (s0 , k0 − 1, y0 ) , (s1 , y1 ) , · · · , (sm , ym )
(12.80)
De la modélisation du trafic dans les réseaux de télécommunication
31
pour k0 ≥ 2 sont pris égaux à h−1 , tandis que ceux correspondant aux transitions du
type
(s0 , 1, y0 ) , (s1 , y1 ) , · · · , (sm , ym )
→ (s1 , s1 , y1 ) , · · · , (sm , ym ) , (sm+1 , ym+1 )
(12.81)
sont choisis arbitrairement sous la contrainte que la somme sur tous les états (sm+1 , ym+1 )
doit être égale à h−1 . En termes de matrices D(0) et D(k>0) définissant un B.M.A.P.,
les transitions de la forme (12.80) correspondent aux éléments non diagonaux de la
matrice D(0) tandis que celles de la forme (12.81) correspondent à D(k>0) . À chaque
transition (12.81), correspond une arrivée de marque y1 , l’arrivée suivante se produisant après s1 phases, tandis qu’à chaque transition (12.80), il n’y a aucune arrivée. Par
conséquent, si le processus B.M.A.P. est tel que
n
Jt(h,m)
o
(12.82)
commence dans l’état
((S 0 , S 0 , Y0 ) , (S 1 , Y1 ) , · · · , (S m , Ym )) ,
(12.83)
n³
´o
T n(h,m) , Yn(h,m)
(12.84)
n≤m
et
n³
´o
T n(h) , Yn(h)
n≤m
(12.85)
ont même distribution et, donc, S(h,m) converge simplement vers S(h) . Q.E.D.
Par ailleurs, on peut montrer (cf. [2]) les corollaires suivants.
Propriété 13 Si S est stationnaire, on peut choisir S(m) qui soit aussi stationnaire (1),
et de même pour N et N (m) (2).
h
pi
Propriété 14 Dans le théorème 12, on peut choisir S(m) tel que E T n(m) tende vers
h (m) p i
h pi
h pi
tende vers E Yn , pour tout p < +∞.
E T n et E Yn
32
12.3.3. Cas discret : D.-B.M.A.P.
Le modèle D.-B.M.A.P. a été proposé par M. B (cf. [6]). Dans le cas discret,
la définition du processus D.-B.M.A.P. est analogue à celle d’un B.M.A.P., et la matrice de transition de la chaîne de Markov a la même forme que dans le cas continu,
excepté le fait qu’elle est stochastique, c’est-à-dire que la somme des éléments d’une
ligne est égale à 1 :
m
+∞ X
X
di,(k)j = 1.
(12.86)
k=0 j=1
La matrice de transition est donnée par :
¡ ¡
±
¢¢
P Jn = j′ , Ln = k, Xn = ν Jn−1 = j 1≤ j≤m
1≤ j′ ≤m
³
´ν
= D(0) D(k)
(12.87)
Le processus {N(k), J(k)}k≥0 , où N(k) est la variable de comptage et J(k) la phase, est
un processus de Markov à temps discret sur l’espace d’états {(n, j) ; n ≥ 0, 1 ≤ j ≤ m},
de matrice de transition :
D =
 (0)
 D
 0

 0

 ..
.
D(1)
D(0)
0
..
.
D(2)
D(1)
D(0)
..
.
D(3)
D(2)
D(1 )
..
.
···
···
···
..
.




.


(12.88)
P
(n)
La matrice D = +∞
est la matrice de transition de la chaîne de Markov sousn=0 D
jacente. π étant le vecteur de ses probabilités stationnaires limites, i.e. :
πD = π
(12.89)
= 1,
(12.90)
πe
où e est le vecteur colonne composé de 1 partout.
De la modélisation du trafic dans les réseaux de télécommunication
33
Le débit d’arrivée de ce processus est donné par

 +∞
X (k) 

λ = π  kD  e
(12.91)
k=1
Soit (X1 , · · · , Xk ) un ensemble de variables aléatoires, où Xi est le nombre d’arrivées
à l’instant i. On note f (x1 , · · · , xk ) la matrice de la distribution jointe de (X1 , · · · , Xk ),
c’est-à-dire que fi j (x1 , · · · , xk ) est la probabilité conditionnelle que X1 = x1 , · · · , Xk =
xk et que la phase du processus d’arrivée à l’instant k soit égale à j, sachant que le
processus à démarré dans l’état i à l’instant 0. Soit f̃ (z1 , · · · , zk ) la transformée en z
correspondante. On a clairement
f̃ (z1 , · · · , zk ) = D (z1 ) · · · D (zk ) ,
où D (z) =
P+∞
i=0
(12.92)
D(i) zi .
La corrélation entre deux variables aléatoires X1 et Xk s’exprime à partir de la matrice
de covariance
COV (X1 , Xk )
=
+∞
X
···
x1 =0
+∞
X
(x1 − µ1 ) (xk − µk ) f (x1 , · · · , xk )
xk =0
= … [X1 Xk ] − µ1 … [Xk ] − µk … [X1 ] + µ1 µk f (1, · · · , 1) ,
(12.93)
µ1 et µk étant des scalaires, respectivement les moyennes de X1 et Xk . La fonction de
covariance (scalaire) est alors donnée par
COV (X1 , Xk )
= πCOV (X1 , Xk ) e
= π… [X1 Xk ] e − µ1 µk .
(12.94)
Rappelons que le coefficient d’autocorrélation est définit comme étant
ρ (X1 , Xk ) =
COV (X1 , Xk )
σX1 σXk
(12.95)
34
où S 2Xi est la variance de Xi , 1 ≤ i ≤ k.
Les matrices des moyennes … [X1 ], … [Xk ] et … [X1 Xk ] sont données par

 +∞
X (l)  k−1
∂

f̃ (z1 , · · · , zk ) |zi =1 =  lD  D
… [X1 ] =
∂z1
l=1
 +∞

X (l) 
∂
k−1 

… [Xk ] =
f̃ (z1 , · · · , zk ) |zi =1 = D  lD 
∂zk
l=1
 +∞

 +∞

2
X (l)  k−2 X

∂
(l) 



f̃ (z1 , · · · , zk ) |zi =1 =  lD  D  lD  .
… [X1 Xk ] =
∂z1 ∂zk
l=1
l=1
(12.96)
(12.97)
(12.98)
Pour un D.-B.M.A.P. stationnaire, le nombre moyen d’arrivées par unité de temps est
donné par le taux moyen λ, de telle sorte qu’on obtient pour µ1 et µk

 +∞
X (l)  k−1
µ1 = µk = π  lD  D e = λ.
(12.99)
l=1
Finalement, la matrice de covariance de X1 et Xk est


 +∞
 +∞
 k−2 X

X (l)
(l)
 lD − λD D  lD − λD
COV (X1 , Xk ) =
l=1
(12.100)
l=1
et la covariance scalaire
 +∞

 +∞

X

X

COV (X1 , Xk ) = π  lD(l)  Dk−2  lD(l)  e − λ2 .
l=1
(12.101)
l=1
De cette expression, on déduit le coefficient d’autocorrélation
ρ (X1 , Xk ) =
π
hP
+∞
l=1
i
i
hP
(l)
e − λ2
lD(l) Dk−2 +∞
l=1 lD
hP
i
.
2 (l) e − λ2
π +∞
l=1 l D
(12.102)
De la modélisation du trafic dans les réseaux de télécommunication
35
La superposition de deux processus D.-B.M.A.P. de paramètres des familles de matrices D(k) (i) i = 1, 2 est le processus D.-B.M.A.P. de paramètres
D(k)
=
k
X
D(ν) (1) ² D(k−ν) (2) pour k ≥ 0
(12.103)
ν=0
Attention, dans le cas discret, contrairement au cas continu, des arrivées de plusieurs
processus différents peuvent survenir simultanément.
12.3.4. Application du modèle D.-B.M.A.P. : une approximation de la superposition
de sources sporadiques
L’exemple présenté dans ce paragraphe concerne la classe des D.-B.M.A.P. Il est
extrait de l’article [6]. Supposons le temps discret. Considérons une source de trafic
alternant des périodes d’activité et d’autres de silence. Une telle source est dite sporadique. On suppose que la durée des périodes actives est distribuée géométriquement
de moyenne p et de même pour celle des silences, de moyenne q. Au cours d’une période d’activité, la source envoie des paquets à intervalles de temps constants d. À un
instant donné, la probabilité de passer dans une période de silence lorsque la source
est active est donc de β = 1/p, et celle de passer dans un état actif lorsqu’elle est
silencieuse est de α = 1/q.
Supposons maintenant que M sources soient ainsi superposées. Le processus résultant
a deux caractéristiques importantes : d’une part il présente une certaine périodicité
due à la périodicité du trafic d’une source pendant ses périodes d’activité, et d’autre
part il est modulé par le nombre de sources actives. Un modèle détaillé dans lequel
ceci serait décrit précisément conduirait à un D.-B.M.A.P. avec un très grand nombre
d’états. Pour éviter cela, on modélise le processus du nombre de sources actives par
un processus de naissance et de mort à M + 1 états : on fait l’approximation qu’à un
instant donné, seule une source peut changer d’état, soit passer de l’état inactif à celui
actif, soit l’inverse. La matrice de transition d la chaîne de Markov correspondante est
alors

 1 − Mα

β


0


0

..

.

0
Mα
0
···
1 − β − (M − 1)α
(M − 1)α
···
2β
1 − 2β − (M − 2)α · · ·
0
···
···
..
..
..
.
.
.
0
0
···
0
0
0
0
..
.
0
0
0
0
..
.
Mβ
1 − Mβ






 .



36
Quand cette chaîne est dans l’état m, les m sources actives engendrent du trafic selon
une distribution très complexe, due au comportement déterministe de chaque source
active. Pour garder le nombre d’états raisonnable, on suppose que le nombre d’arrivées
à un instant donné ne dépend que de m. On néglige donc une certaine dépendance entre
les nombres d’arrivées. Soit ck (m) la probabilité d’avoir k arrivées à un instant donné
quand la chaîne est dans l’état m. En supposant alors que chaque source active à une
probabilité d’émission de 1/d à chaque instant,
ck (m) =
Cmk
!m−k
à !k Ã
1
1
1−
.
d
d
(12.104)
En posant D(n) = Cn D où

 cn (0)

cn (1)


···
Cn = 



cn (i)
···
cn (M)





 .



(12.105)
Clairement, le processus ainsi défini est un processus D.-B.M.A.P. de paramètres D(n) .
Étudions les performances d’une file entrée de laquelle un tel processus est placé.
On s’intéresse à la file D.-B.M.A.P./G/1/N, file à temps de service discret, distribué
selon une loi quelconque, à un serveur et de capacité finie N. Les services sont supposés indépendants et identiquement distribués (i.i.d.), de distribution quelconque et de
P
k
transformée en z G(z) = +∞
k=1 gk z .
o
n
Soit An(k) la probabilité conditionnelle que dans l’intervalle ]0; k] il y ait n arrivées
i, j
et qu’à la fin la phase du processus soit j, sachant que le processus était dans l’état i à
P
l’instant 0. Si on note D(z) = n=0 +∞,
A(k) (z) =
+∞
X
n=0
h
ik
An(k) zn = A(1) (z) = [D(z)]k .
(12.106)
Soit {An }i, j la probabilité qu’il y ait n arrivées pendant un service et que la phase du
processus soit j, sachant qu’il a démarré dans l’état i.
An
=
+∞
X
k=1
gk An(k)
(12.107)
De la modélisation du trafic dans les réseaux de télécommunication
37
en prenant g0 = 0. Soit
A(z) =
+∞
X
An zn et A = A(1).
(12.108)
n=0
Soit de plus {Bn }i, j la probabilité qu’il y ait eu au moment d’un départ n + 1 arrivées
depuis le départ précédent et que la phase du processus soit j, sachant qu’elle était
égale à i au moment du précédent départ et que celui-ci a laissé la file vide. On peut
montrer que
Bn
=
(I − D0 )−1
n
X
D j+1 An− j .
(12.109)
j=0
Soit B(z) =
P+∞
n=0
Bn zn , alors
B(z) = z−1 (I − D0 )−1 [D(z) − D0 ] A(z),
(12.110)
B = B(1) = (I − D0 )−1 [D − D0 ] A.
(12.111)
et
On regarde le système aux instants de départs t0 , t1 , t2 , · · · . Soit L(tk ) le nombre de
clients dans la file aux instant tk et soit J (tk ) la phase du processus d’arrivée à tk . Clairement, le processus {(L (tk ) , J (tk ) , tk+1 − tk ) k ≥ 0} est un processus semi-markovien
d’espace d’états {0, 1, · · · , N − 1} × {1, · · · , m} × N. Notons la distribution de probabilité du processus joint de la longueur de la file et de la phase du processus d’arrivées
aux instants de départs de la file par
x̄ =
{x̄0 , · · · , x̄N−1 } ,
(12.112)
où
x̄n
=
¡
¢
xn,1 , · · · , xn,m , 0 ≤ n ≤ N − 1,
(12.113)
38
avec
xn, j
lim P (L (tk ) = n, J (tk ) = j) .
=
(12.114)
k→+∞
Le vecteur x̄ est le vecteur des probabilités stationnaires de la matrice irréductible





Q = 



B0
A0
0
..
.
B1
A1
A0
..
.
B2
A2
A1
..
.
0
0
0
···
···
···
···
···
BN−2
AN−2
AN−3
..
.
A0
P+∞
n=N−1 Bn
P+∞
n=N−1 An
P+∞
n=N−2 An
..
.
P+∞
n=1 An





 .


(12.115)
La structure de Q montre que ce système est conduit par une chaîne de Markov du
type M/G/1.
Pour calculer les probabilités stationnaires d’état de cette chaîne, on applique le résultat suivant (cf. [14]) également utilisé par MM. G, T et H dans
[9]. Considérons la matrice m × m de la forme
X0
=
Ã
x
ā′
b̄
Y1
!
,
(12.116)
où ā′ et b̄ sont des vecteurs de dimension m − 1 et Y1 est une matrice (m − 1) × (m − 1).
Considérons la matrice X1 qui est obtenue en ajoutant aux probabilités de transition
de l’état i à l’état j, 2 ≤ i, j ≤ m, les transitions qui vont de i à j via l’état 1 :
X1
= Y1 + ā′ (1 − x)−1 b̄.
(12.117)
Le vecteur des probabilités stationnaires d’état de X0 peut être facilement calculé à
partir de celui de X1 . En appliquant cette méthode plusieurs fois, on obtient une suite
de matrices de dimension décroissante X0 , X1 , X2 , · · · , Xm . Le dernier élément Xm est
un scalaire. On peut alors calculer récursivement le vecteur des probabilités stationnaires d’état de Xi , i = m − 1, m − 2, · · · , 1, et finalement obtenir celui de X0 .
On applique cette méthode, généralisée aux matrices blocs, à la chaîne de Markov
précédente de type M/G/1. On pose
∞
X
n=N−1
Bn
= B̃N−1 et
∞
X
n=k
An = Ãk .
(12.118)
De la modélisation du trafic dans les réseaux de télécommunication
39
Après la première itération, et notant
C1,i = Ai+1 + A0 (I − B0 )−1 Bi+1 , 0 ≤ i ≤ N − 3
(12.119)
C̃1,N−2 = ÃN−1 + A0 (I − B0 )−1 B̃N−1 ,
(12.120)
on arrive à la matrice bloc suivante (le nombre de lignes et de colonnes est diminué de
la dimension d’un bloc)
Q1

 C1,0
 A
 0
 0

 ..
 .

0
=
C1,1
A1
A0
..
.
C1,2
A2
A1
..
.
0
0
···
···
···
···
···
C1,N−3
AN−3
AN−4
..
.
C̃1,N−2
ÃN−2
ÃN−3
..
.
A0
Ã1









(12.121)
L’élément ( j, k) de la matrice C1,i est la probabilité que le processus passe dans un
niveau supérieur ou égal à 1 pour la première fois en atteignant l’état (i + 1, k), sachant
qu’il démarre dans l’état (1, j). Une interprétation probabiliste similaire est possible
pour la matrice C̃1,N−2 . On peut remarquer que la matrice Q1 est en core du type
M/G/1. En appliquant le résultat de M. G k fois, on obtient
Qk

 Ck,0
 A
 0
 0

 ..
 .

0
=
Ck,1
A1
A0
..
.
Ck,2
A2
A1
..
.
0
0
···
···
···
···
···
Ck,N−k−2
AN−k−2
AN−k−3
..
.
C̃k,N−k−1
ÃN−k−1
ÃN−k−2
..
.
A0
Ã1





 ,


(12.122)
avec, pour 0 ≤ i ≤ N − k − 2, 2 ≤ k ≤ N − 2,
¡
¢
Ck,i = Ai+1 + A0 I − Ck−1,0 −1 Ck−1,i+1 ,
¡
¢
C̃k,N−k−1 = ÃN−k + A0 I − Ck−1,0 −1 C̃k−1,N−k
(12.123)
(12.124)
Finalement, on obtient la matrice
QN−1
=
¡
¢
Ã1 + Ã0 I − CN−2,0 −1 C̃N−2,1 .
(12.125)
40
Soit le vecteur x̄N−1 vérifiant
x̄N−1 QN−1
=
x̄N−1 .
(12.126)
Le vexteur (x̄N−1 x̄N−2 ) des probabilités stationnaires limites de QN−2 peut être calculé
facilement en utilisant
x̄N−2
=
¡
¢
x̄N−1 A0 I − CN−2,0 −1 .
(12.127)
Plus généralement, le vecteur (x̄0 , x̄1 , · · · , x̄N−1 ) peut être déterminé en utilisant les
formules récursives suivantes
h
i
¡
¢
x̄N−1 Ã1 + A0 I − CN−2,0 −1 C̃N−2,1 = x̄N−1 ,
¡
¢
x̄k = x̄k+1 A0 I − Ck,0 −1 , 1 ≤ k ≤ N − 2,
x̄0 = x̄1 A0 (I − B0 )−1 .
(12.128)
(12.129)
(12.130)
La complexité de cet algorithme est de l’ordre de M 3 N 2 , où M est la dimension d’un
bloc, et N est le nombre de lignes de blocs. La mémoire nécéssaire est 2M 2 N. En effet,
il suffit de stocker les deux premières lignes
Ã
B0
A0
B1
A1
B2
A2
···
···
BN−2
AN−2
B̃N−1
ÃN−1
!
.
(12.131)
A chaque fois que la méthode de M. G est appliquée, on utilise la première ligne pour stocker les matrices Ck,i et C̃k,N−k−1 , puisque les matrices Bk , k =
1, · · · , N − 2 et B̃N−1 ne sont plus utilisées après la première itération. De plus, la ma¡
¢
trice A0 I − ck,0 −1 est aussi stockée dans la première ligne et peut être utilisée pour
l’évaluation du vecteur x̄k .
Notons de la façon suivante la distribution de probabilité de la loi jointe de la longueur
de la file d’attente et de la phase du processus d’entrée à n’importe quel instant t ∈ N
y ( n, j; t/ n0 , j0 ) = P ( L(t) = n, J(t) = j/ L(0) = n0 , J(0) = j0 ) ,
(12.132)
De la modélisation du trafic dans les réseaux de télécommunication
41
et
y (n, j) = lim y ( n, j; t/ n0 , j0 )
(12.133)
ȳn = (y (n, 1) , · · · , y (n, m))
(12.134)
t→+∞
On peut montrer (cf. [6]) que le temps moyen entre deux départs de la file est donné
par
E∗
= E [G] + x̄0 (I − D0 )−1 ¯e.
(12.135)
et que les vecteurs ȳn s’obtiennent à partir des formules de récurrence suivantes :
ȳ0 =
ȳn+1
1
x̄0 (I − D0 )−1
E∗
 n

X

1
=  ȳi Dn+1−i + ∗ (x̄n − x̄n+1 ) (I − D0 )−1 , 0 ≤ n < N − 1,
E
i=0
ȳn = π̄ −
N−1
X
ȳn .
(12.136)
(12.137)
(12.138)
n=0
À partir de ces probabilités d’état on peut déterminer la probabilité de perte de
paquet. Celle-ci est le rapport du nombre moyen de paquets perdus par unité de temps
sur le nombre moyen d’arrivées par unité de temps, d’où
Pb
=
 N +∞

X X


³P
´ 
max (0, (k − N + n) i) ȳn Dk ē .
+∞
π̄ k=1 kDk ē n=0 k=1
1
(12.139)
12.4. Les modèles modulés par un processus de Poisson
Cette classe de modèles est encore appelée selon la terminologie anglo-saxone
M.M.P.P., pour "Markov Modulated Poisson Process". C’est un sous-ensemble de la
classe des modèles M.A.P.
42
On a vu que la modélisation du trafic par un processus de Poisson présente beaucoup
d’avantages, notamment dans le fait qu’on peut réutiliser toute la théorie des files
d’attente pour étudier les performances des systèmes considérés. On peut par exemple
représenter un débit par un processus de Poisson.
Par ailleurs, il est évident intuitivement que le trafic varie dans la journée : à certaines heures "de pointe", le réseau doit être plus chargé qu’aux "heures creuses"
(cf. Fig. 12.3). Il est donc naturel, si on modélise le trafic par un processus de Poisson,
de prévoir de faire varier dans le temps le taux du processus de Poisson. Un moyen est
de considérer que ce taux est lui aussi une variable aléatoire, suivant par exemple une
chaîne de Markov. Si l’on considère le débit, celui-ci est modélisé par deux variables
aléatoires : le débit proprement dit qui suit une loi de Poisson de taux λ et le taux λ
lui-même qui suit une chaîne de Markov. C’est le principe du modèle M.M.P.P.
L’avantage de ce modèle est qu’il permet de bien rendre compte des variations du
trafic sur plusieurs échelles de temps et qu’il reste suffisamment simple pour pouvoir
être utilisé analytiquement. La suite de cette partie est essentiellement tirée de l’article
[8] et des références qui y sont mises.
0.3
0.25
0.2
0.15
0.1
0.05
0
0
5
10
15
20
Figure 12.3 – Exemple de débit moyen dans un réseau en fonction de l’heure dans la
journée
12.4.1. Définition et propriétés du modèle M.M.P.P.
Un processus M.M.P.P. est un processus de Poisson de taux d’arrivée λ∗ [J (t)], où
J (t), t ≥ 0, est un processus de Markov irréductible à m états et à temps continu.
Quand la chaîne de Markov est dans l’état i, le taux d’arrivée est λi .
De la modélisation du trafic dans les réseaux de télécommunication
43
On note Q le générateur infinitésimal de la chaîne de Markov
Q
=

 −σ1
 σ
 21
 ..
 .

σm1
σ12
−σ2
..
.
···
···
..
.
σ1m
σ2m
..
.
σm2
···
−σm







où σi =
m
X
σi j
(12.140)
j=1, j,i
et Λ et λ les matrices suivantes
Λ
= diag (λ1 , λ2 , · · · , λm )
(12.141)
λ
= (λ1 , λ2 , · · · , λm )T
(12.142)
Dans la suite, on suppose que la chaîne de Markov est homogène, c’est-à-dire qu’elle
ne dépend pas du temps t.
Le vecteur π des probabilités d’état de la chaîne de Markov est obtenu par les formules
classiques :
πQ
= 0, πe = 1
(12.143)
où e = (1, 1, · · · , 1)T
Dans le cas où m = 2,
π
= (π1 , π2 ) =
1
(σ2 , σ1 )
σ1 + σ2
(12.144)
Le processus M.M.P.P. est un processus de renouvellement markovien (cf. p.23) uniquement sous certaines conditions. Ce n’est généralement pas un processus de renouvellement, mais un processus de renouvellement markovien. En effet, considérons
44
deux arrivées successives, et supposons que l’état de la chaîne de Markov modulatrice
soit i lors de la première arrivée et j lors de la seconde. Entre ces deux événements, il
y a une transition de la chaîne de i à j via plusieurs autres états, suivis d’un nombre
géométrique de retours à j sans arrivée jusqu’à ce qu’il y en ait une. Le temps entre
deux arrivées n’est donc pas exponentiel. La matrice de transition du processus de
renouvellement markovien correspondant est donnée plus loin (cf. p.48).
Propriété 15 (M.M.P.P. et processus de renouvellement) Le processus M.M.P.P.
est un processus de renouvellement si et seulement si
– Le débit d’arrivée prend des valeurs λ > 0 et 0 alternativement sur des intervalles successifs d’un processus de renouvellement alternatif (i.e. : à deux états)
stationnaire.
– Les temps entre arrivées quand λ > 0 sont distribués exponentiellement.
Une condition suffisante pour qu’un processus M.M.P.P. soit un processus de renouvellement est qu’il n’y ait d’arrivées que dans un seul état de la chaîne de Markov
sous-jacente. C’est le cas du processus de Poisson interrompu (I.P.P. pour Interrupted
Poisson Process dans la littérature anglo-saxonne). Toutefois, cette condition est suffisante mais non nécessaire : il y a d’autres processus M.M.P.P. qui sont des processus
de renouvellement sans avoir des arrivées que dans un seul état.
Définition 12 (Processus I.P.P.) Le processus I.P.P. est un processus M.M.P.P. à deux
états : un état 0 pendant lequel il n’y a pas d’arrivée et un état 1 pendant lequel les
arrivées se font selon un processus de Poisson. Il est caractérisé par le générateur
infinitésimal et les débits des processus de Poisson suivants :
Q
=
"
−σ1
σ2
σ1
−σ2
#
Λ=
"
λ
0
0
0
#
(12.145)
Le processus I.P.P. est un processus hyperexponentiel. Notons p, µ1 et µ2 tels que
fH2 (t) =
pµ1 e−µ1 t + (1 − p) µ2 e−µ2 t
fH2 (t) est la densité d’une loi hyperexponentielle.
(12.146)
De la modélisation du trafic dans les réseaux de télécommunication
45
Propriété 16 (Relation entre I.P.P. et fH2 (t)) Le processus I.P.P. est un processus hyperexponentiel avec
p
=
µ1
=
µ2
=
λ − µ2
µ1 − µ2
Ã
!
q
1
2
λ + σ1 + σ2 + (λ + σ1 + σ2 ) − 4λσ2
2
!
Ã
q
1
λ + σ1 + σ2 − (λ + σ1 + σ2 )2 − 4λσ2
2
(12.147)
(12.148)
(12.149)
Le processus hyperexponentiel est un processus I.P.P. avec :
λ =
σ1
=
σ2
=
pµ1 + (1 − p) µ2
p (1 − p) (µ1 − µ2 )
λ
µ1 µ2
λ
(12.150)
2
(12.151)
(12.152)
Enfin, la superposition de m processus M.M.P.P. indépendants de paramètres (Qi , Λi )
est aussi un processus M.M.P.P. de paramètre (Q, Λ) où
Q
=
Q1 ¹ Q2 ¹ · · · ¹ Qm
(12.153)
Λ
=
Λ1 ¹ Λ2 ¹ · · · ¹ Λm
(12.154)
où ¹ désigne la somme de Kronecker (cf. §12.3.1).
Si les processus superposés sont des processus M.M.P.P. à deux états identiques, le
processus résultant s’exprime retativement simplement. Soient Qn et Λn ses paramètres, et
Q
=
"
−σ1
σ2
σ1
−σ2
#
, Λ=
"
λ1
0
0
λ2
#
,
(12.155)
46
[Qn ]i,i = −iσ1 − (n − i)σ2 , 0 ≤ i ≤ n
(12.156)
[Qn ]i,i−1 = iσ1 , 1 ≤ i ≤ n − 1
(12.157)
[Qn ]i,i+1 = (n − i)σ2 , 0 ≤ i ≤ n − 1
(12.158)
0, partout ailleurs
(12.159)
λn
(12.160)
et
= diag (iλ1 + (n − i)λ2 ) , 0 ≤ i ≤ n.
Les dimensions de Λn et Qn sont alors de n + 1.
12.4.2. Fonction de comptage associée au processus M.M.P.P.
Soient Nt le nombre d’arrivées dans l’intervalle [0; t], Jt l’état du processus de Markov
à l’instant t et
Pi j (n, t)
Pr (Nt = n, Jt = j /N0 = 0, J0 = i ) .
=
(12.161)
l’élément d’indice (i, j) de la matrice P (n, t). Cette matrice est solution de l’équation
de Chapman-Kolmogorov


d



P(n, t)

dt


 P(0, 0)
=
P(n, t) (Q − Λ) + P(n − 1, t)Λ
pour
n ≥ 1, t ≥ 0,
(12.162)
= I
La fonction génératrice P∗ (z, t) =
P+∞
n=0
P(n, t)zn est alors solution de l’équation


d ∗



P (z, t) = P∗ (z, t) (Q − Λ) + zP∗ (z, t)Λ,

dt


 P∗ (z, 0)
= I,
(12.163)
d’où l’on déduit que :
P∗ (z, t) = e(Q−(1−z)Λ)t .
(12.164)
De la modélisation du trafic dans les réseaux de télécommunication
47
Cette fonction génératrice permet d’obtenir les moments de Nt . La matrice des moyennes
est :
M(t) =
"
∂ ∗
P (z, t)
∂z
#
,
(12.165)
z=1
d’éléments :
Mi j (t) =
+∞
X
nPi j (n, t).
(12.166)
n=0
La dérivation de la fonction génératrice donne :
M(t) =
+∞ n X
n−1
X
t
Qν ΛQn−1−ν .
n!
n=1
ν=0
(12.167)
Le vecteur µ(t) = M(t)e a pour expression :
³
´
µ(t) = eπλt + eQt − I (Q + eπ)−1 λ.
(12.168)
Le vecteur (Q + eπ)−1 λ a une propriété intéressante. En faisant tendre t vers +∞ dans
l’expression µ(t) − eπλt, on remarque que le iième élément de (Q + eπ)−1 λ est la différence entre l’espérance du nombre d’arrivées du processus M.M.P.P. sachant qu’il
a démarré dans l’état i à l’instant t = 0, et l’espérance du nombre d’arrivées pour un
processus de Poisson de taux πλ (taux moyen d’arrivées du M.M.P.P.), quand t → +∞.
Lorsque le processus M.M.P.P. est stationnaire (en particulier lorsque le vecteur des
probabilités de l’état initial de la chaîne de Markov est choisi égal au vecteur des
probabilités stationnaires de cette même chaîne),
E [Nt ]
= πµ(t)
(12.169)
= πλt.
(12.170)
48
On obtient le second moment de Nt d’une façon analogue. Après quelques calculs
algébriques, on arrive à :
µ2 (t) =
"
∂2 ∗
P (z, t)
∂z2
#
e
(12.171)
z=1
n−2
+∞ n X
X
t
Qr ΛQn−2−r λ
n!
r=0
n=2
h
³
´
= 2 M(t) (Q + eπ)−1 − eQt − I (Q + eπ)−1 Λ (Q + eπ)−1
h
i
−teπΛ (Q + eπ)−1 + eQt − I − Qt (Q + eπ)−2 λπ
#
t2
+ eπλπ λ,
2
= 2
(12.172)
(12.173)
Lorsque le processus M.M.P.P. est stationnaire,
h i
πµ2 (t) = E Nt2 − E [Nt ]
i
h
= t2 (πλ)2 + 2t (πλ)2 − πΛ (Q + eπ)−1 λ
³
´
+2πΛ eQt − I (Q + eπ)−2 λ,
(12.174)
avec
eπ




= 


π1
π1
..
.
π2
π2
..
.
···
···
..
.
πm
πm
..
.
π1
π2
···
πm







(12.175)
12.4.3. Matrice des probabilités de transition du processus de renouvellement markovien M.M.P.P.
Notons Jk l’état du processus modulateur au moment de la kième arrivée. La probabilité infinitésimale que le temps entre la k − 1ème arrivée et la kème soit comprise
entre x et x + dx est la probabilité de ne pas avoir d’arrivée dans un intervalle [0 : x]
et d’en avoir une dans l’intervalle [x; x + dx] :
De la modélisation du trafic dans les réseaux de télécommunication
dFi j (x)
49
=
P (Jk = j, x ≤ Xk < x + dx /Jk−1 = i )
(12.176)
=
P (Jk = j, N x = 0 /Jk−1 = i ) × λ j dx
(12.177)
=
Pi j (0, x) × λ j dx
(12.178)
=
Pi j (0, x) × λ j
(12.179)
d’où
dFi j (x)
dx
soit, en écriture matricielle, comme Pi j (0, x) = P∗i j (0, x) :
dF(x)
dx
= e(Q−Λ)x Λ
(12.180)
et donc,
F(x)
=
Z
x
e(Q−Λ)x duΛ
0
=
=
h
i
I − e(Q−Λ)x (Λ − Q)−1 Λ
i
h
I − e(Q−Λ)x F(∞)
(12.181)
La matrice F(∞) = (Λ − Q)−1 Λ est stochastique et correspond à la matrice des
probabilités de transition de la chaîne de Markov imbriquée aux instants d’arrivées.
On peut montrer que la distribution stationnaire limite de F(∞) est donné par :
p =
1
.πΛ.
πλ
(12.182)
50
12.4.4. Temps entre deux arrivées
À partir de la matrice des probabilités de transition du processus M.M.P.P., donnée par (12.181), on peut déterminer l’espérance des temps Xk entre deux arrivées, la
deuxième arrivée étant dans l’état j, conditionnellement au fait que la première arrivée se fait dans l’état i. Pour obtenir ces moments conditionnels, le plus simple est de
passer par la transformée de Laplace de (12.181). Celle-ci a pour expression :
i
h
f ∗ (s) = E e−sX
Z +∞
dF(∞)
df
=
e−sx
dx
0
Z +∞
=
−e−sx e(Q−Λ)x (Q − Λ) F(∞)dx
0
=
Z
+∞
−e−sx e(Q−Λ)x (Q − Λ) (Q − Λ)−1 Λdx
0
=
Z
+∞
−e−sx e(Q−Λ)x dxΛ
0
=
(Is + Λ − Q)−1 Λ
(12.183)
De la même manière, la transformée de Laplace jointe f ∗ (s1 , · · · , sn ) des n ≥ 1 premiers temps entre arrivées X1 , X2 , · · · , Xn est, les Xk étant indépendants,
∗
f (s1 , · · · , sn ) =


 n


 X


E exp −
sk Xk 
k=1
=
n h
Y
k=1
i
(sk I − Q + Λ)−1 Λ .
(12.184)
Le facteur correspondant au premier intervalle doit être modifié si l’origine des temps
ne correspond pas à une arrivée.
De la modélisation du trafic dans les réseaux de télécommunication
51
On peut alors calculer les moments conditionnels à partir de (12.184) :
µ′i,k
h i
E Xik
h
ii−1
(Λ − Q)−(k+1) Λ,
= k! (Λ − Q)−1 Λ
≡
i ≥ 1, k ≥ 1.
Notons que µ′i,k est une matrice. Son élément ( j, j′ ) correspond à
µi,k+1
≡
E [X1 Xk+1 ] ,
R +∞
0
(12.185)
xik dF j j′ .
k≥1
h
i−(k+1)
(Λ − Q)−2 Λ.
= (Λ − Q)−2 Λ (Λ − Q)−1 Λ
(12.186)
La matrice conditionnelle de corrélation est donnée par :
E [(X1 − E [X1 ]) (Xk+1 − E [Xk+1 ])]
ik−1
h
×
= (Λ − Q)−2 (Λ − Q)−1 Λ
n
o
I − (Λ − Q)−1 Λ (Λ − Q)2 Λ.
(12.187)
Les moments du temps entre arrivées peuvent être obtenus avec un choix judicieux des
conditions initiales. En notant T A,i le temps entre la ième et la i + 1ème arrivée à l’état
stationnaire du processus M.M.P.P. (qui peut être obtenu par exemple en choisissant
F(∞) comme vecteur initial),
h i
k
E T A,i
= k! p [(Λ − Q) Λ]i−1 (Λ − Q)−(k+1) Λe
= k! p (Λ − Q)−(k+1) Λe,
(12.188)
et,
£¡
£
¤¢ ¡
£
¤¢¤
E T A,1 − E T A,1 T A,k+1 − E T A,k+1
¾
½h
ik−1
− ep (Λ − Q)−2 Λe
= p (Λ − Q)−2 Λ × (Λ − Q)−1 Λ
(12.189)
52
avec
pe =







p1
p1
..
.
p2
p2
..
.
···
···
..
.
pm
pm
..
.
p1
p2
···
pm







(12.190)
12.4.5. Applications du modèle M.M.P.P. : trafic de débordement, et approximation
de trafic par un processus M.M.P.P.
Le modèle M.M.P.P. a essentiellement deux types d’applications. On l’utilise pour
rendre compte de trafics dont l’intensité varie au cours du temps. C’est en particulier
le cas des trafics de voix faisant alterner des périodes de silence et de parole, ou des
trafics de débordement : lorsqu’un lien supporte un trafic qui excède sa capacité, la
partie du trafic qui déborde peut être vue comme un trafic composé de périodes de
silence et d’activité. La deuxième application de ce modèle est de rendre compte d’une
certaine corrélation dans le trafic. Celle-ci est exposée plus loin au paragraphe 12.7.
Un modèle dit pseudo-autosimilaire à base de processus M.M.P.P. est présenté.
Comme cas particulier de la première application, remarquons que la superposition de plusieurs trafics peut aussi être modélisée par un processus M.M.P.P. : selon
que l’un des trafics est actif ou pas, le processus agrégé passe d’un état du processus
M.M.P.P. à un autre. En effet, si dans une superposition de trafics chacun peut être modélisé par un processus de Poisson différent et que les durées d’activité de ces trafics
sont exponentielles, séparées par des temps de silences exponentiels, le flux résultant
est clairement un processus M.M.P.P. L’exemple qui suit sur le trafic de débordement
est tiré de [20].
Trafic de débordement :
Considérons un ensemble de lignes d’abonnés arrivant sur un commutateur A luimême relié à plusieurs commutateurs B, C et D par un faisceau de circuits permettant
d’écouler le trafic arrivant de A. Il est très rare que l’ensemble de tous les abonnés
téléphonent en même temps, c’est pourquoi, pour des raisons de coûts l’opérateur
dispose entre A et les autres commutateurs un nombre de faisceaux plus petit que le
nombre d’abonnés.
La plupart du temps, cela est transparent aux abonnés car ils ne téléphonent pas
tous en même temps. Toutefois, il peut arriver que le nombre d’abonnés souhaitant
téléphoner dans une direction, par exemple vers C, excède les ressources disponibles ;
dans ce cas il y a rejet d’appel. On peut alors utiliser des routes secondaires en redirigeant les appels arrivant et ne trouvant pas de ressources vers une autre direction,
De la modélisation du trafic dans les réseaux de télécommunication
53
par exemple vers le commutateur D. Les commutateurs suivants sur cet autre chemin
redirigent alors les appels convenablement dans la bonne direction. C’est le même
principe que celui utilisé avec les itinéraires de délestage dans le trafic routier.
Pour bien dimensionner le réseau, il faut déterminer le taux de rejet d’appel, dit
taux de blocage. Sur le système considéré arrive soit un trafic normal d’appels soit un
trafic de débordement. Ce dernier se caractérise par des périodes de silence alternant
avec des périodes d’activités : lorsque le trafic arrive sur la route principale et qu’il y a
suffisamment de ressources, il n’y a pas de rejet et donc pas de trafic de débordement.
Celui-ci est alors silencieux. Quand il n’y a pas assez de ressource il y a redirection
du trafic de la route principale vers la route alternative et le trafic de débordement est
alors non nul. On peut alors modéliser le trafic de débordement par un trafic I.P.P. Cela
rend bien compte du caractère actif ou inactif de ce trafic.
Le système peut être modélisé par une file avec un tampon de taille k, éventuellement nulle, et c serveurs. Une source de trafic d’appels et m de trafic de débordement y
sont placées en entrée. S’il s’agit de trafic téléphonique, le processus d’arrivées d’appel est bien modélisé par un processus de Poisson. On montre aussi que le temps de
service des clients par les serveurs suit une distribution exponentielle de taux µ.
λ étant le taux d’arrivées du processus de Poisson du flux principal d’appels, on
note (Qi , Λi ) , 1 ≤ i ≤ m les paramètres du flux I.P.P. de débordement i avec :
Qi
=
"
−σi1
σi2
σi1
−σi2
#
, Λi =
"
λi
0
0
0
#
.
(12.191)
Comme le trafic en entrée est une superposition d’un trafic de Poisson et de trafics I.P.P., c’est une superposition de trafics M.M.P.P. et donc un trafic M.M.P.P. de
paramètres :
Q
=
Q1 ¹ Q2 ¹ · · · ¹ Qm
(12.192)
Λ
= λI + λ1 ¹ Λ2 ¹ · · · ¹ Λm
(12.193)
Le système est donc une file MMPP/M/c/c+k.
On étudie alors le processus de Markov ( j, j′ ) avec 1 ≤ j ≤ c + k, 1 ≤ j′ ≤ 2m où
j correspond au nombre d’appels dans le système et j′ à l’état de la chaîne de Markov
du processus M.M.P.P. d’entrée. Notons j le vecteur {( j, j′ ) ; 1 ≤ j′ ≤ 2m }.
Le générateur infinitésimal Q de ce processus est alors :
54
TRAFIC D’APPELS
TRAFIC DE
DEBORDEMENT
(m entrees)
Figure 12.4 – Modélisation du système : un tampon, c serveurs, une entrée de trafic de
Poisson et k entrées de trafic de débordement
0
1
2
..
.
c
c+1
..
.
Q−Λ
Λ
µI Q − Λ − µI
Λ
2µI
Q − Λ − 2µI
cµI
Λ
···
Q - Λ - cµI
Λ
cµI
Q − Λ − cµI Λ
···
cµI Q − cµI
c+k
On peut calculer le vecteur des probabilités stationnaires d’état π =
(π0 , π1 , · · · , π c+k ) en résolvant le système πQ = 0, πe = 1. Même si Q a une très
grande taille, ce vecteur peut être calculé assez rapidement en utilisant une méthode
itérative de Gauß-Seidel. On peut alors calculer les critères de performances du système :
– La probabilité d’avoir r appels dans le système :
∀r; 0 ≤ r ≤ c + k, γr = π r e
– La probabilité qu’un client arrivant voit r appels dans le système :
−1
 c+k

X
′

∀r; 0 ≤ r ≤ c + k, γr =  π r Λe π r Λe
(12.194)
(12.195)
r=0
– La probabilité qu’un client arrivant de l’entrée j voit r appels dans le système.
Le taux d’arrivées des appels de l’entrée j est indépendant du nombre d’appels dans
le système et est donné par
Λ( j) = 0 ¹ 0 ¹ · · · ¹ Λ j ¹ · · · ¹ 0
= I2 ² · · · ² I 2 ² Λ j ² · · · ² I 2
(12.196)
(12.197)
De la modélisation du trafic dans les réseaux de télécommunication
La probabilité qu’un client arrivant de l’entrée j voit r appels est alors :
 c+k
−1
X

′

∀r; 0 ≤ r ≤ c + k, γ ( j) =  π r Λ( j)e π r Λ( j)e
55
(12.198)
r=0
– La probabilité b( j) de blocage d’appels arrivant de l’entrée j :
′
( j)
∀ j; 0 ≤ j ≤ m, b( j) = γc+k
(12.199)
Approximation de trafic par processus M.M.P.P. :
Remarquons que le processus de débordement de ce système est aussi un processus M.M.P.P. En effet, les appels sont refusés lorsque les serveurs et la mémoire
tampon sont pleins, c’est-à-dire quand le processus de Markov Q est dans l’état c + k.
Durant son séjour dans cet état, les appels débordent selon un processus de Poisson
de taux Λrr , i.e. : le rième élément diagonal de la matrice des arrivées Λ. Le processus du débordement
³
´des appels peut alors être caractérisé par un processus M.M.P.P.
de paramètres Q, Λ où Λ = diag (0, · · · , 0, Λ). La distribution du débordement de
´
³
l’entrée j, 0 ≤ j ≤ m suit aussi un processus M.M.P.P. de paramètres Q, Λ( j) où
³
´
Λ( j) = diag (02m , · · · , 02m , Λ( j)). Le processus M.M.P.P. Q, Λ(0) représente le débordement du trafic poissonnien d’arrivée principale des appels et est tel que Λ(0) = λI
(On a Λ = Λ(0) ¹ Λ(1) ¹ · · · ¹ Λ(m)).
Toutefois, utiliser le modèle M.M.P.P. est très compliqué, même si c’est une modélisation exacte lorsque les temps de services des serveurs sont exponentiels et que
le trafic d’arrivée principale des appels est poissonnien. Pour se ramener à un modèle
du type de celui présenté ci-dessus, dans lequel les arrivées de trafics de débordement
sont I.P.P., on approche le trafic de débordement M.M.P.P. par un modèle I.P.P. La
technique utilisée par M M-H est l’approche présentée par M. H
(cf. [10]). Elle consiste à déterminer les paramètres du processus I.P.P. de telle sorte à
faire coïncider les trois premiers moments non centrés du débit instantané de ce processus avec ceux du processus M.M.P.P. à approcher, et de même avec une certaine
constante de temps s’exprimant à partir de la fonction d’autocorrélation.
Or, le rième moment du débit instantané du processus M.M.P.P. (Q, Λ( j) est donnée
par :
r
αr ( j) = πΛ ( j)e
£
¤
= πc+k Λ( j) r e
= (π A e) λrj
(12.200)
(12.201)
(12.202)
avec r ≥ 1, A = {(c + k, r); Λ( j)rr , 0} et λ0 = λ. En notant m( j) la moyenne du
débit instantané du trafic M.M.P.P. et v( j) = α2 ( j) − (m( j))2 sa variance, on définit la
56
constante de temps comme étant
τc
−1
= v
Z
∞
r(t)dt
(12.203)
0
i
h
où v = r(0) est la variance du débit d’arrivée et r(t) = E (λ(τ) − λ)(λ(τ + t) − λ)
sa fonction d’autocovariance, où λ(t) est le débit instantané du processus M.M.P.P. à
l’instant t. Comme
¶
µ
r j (t) = πΛ( j) eQt − eπ Λ( j)e,
(12.204)
la constante de temps a pour expression
τc ( j) = v( j)−1
Z
∞
r j (t)dt
(12.205)
0
¸
·
³
´−1
= v( j)−1 πΛ( j) eπ − Q Λ( j)e − (m( j))2 .
(12.206)
Ce processus doit être approché par le processus I.P.P. de paramètres :
b =
Q
"
−b
σ1
b
σ2
b
σ1
−b
σ2
#
b=
, Λ
"
b
λ1 0
0 b
λ2
#
.
(12.207)
Les trois premiers moments non centrés du débit instantané de ce processus I.P.P.
et la constante de temps sont :
b
α1
2
b
α
b
α3
b
τc
π2
π1 + b
λ2b
= b
λ1b
=
b
λ21b
π1
+b
λ22b
π2
π2
π1 + b
λ32b
= b
λ31b
¡
¢−1
= b
σ1 + b
σ2
(12.208)
(12.209)
(12.210)
(12.211)
De la modélisation du trafic dans les réseaux de télécommunication
57
On en déduit alors :
b
λ1
= λ j,
(12.212)
= 0
(12.213)
b
π1
= π A e.
(12.214)
b
λ1
Enfin, comme b
τc = (b
σ1 + b
σ2 )−1 et b
π1 = b
σ2 (b
σ1 + b
σ2 )−1 , il vient :
b
σ1
b
σ2
= τc ( j)−1 (1 − πc+k e),
−1
= τc ( j) (πc+k e).
(12.215)
(12.216)
On peut remarquer au passage que non seulement le processus I.P.P. approche les
trois premiers moments du processus M.M.P.P. de départ mais aussi que c’est vrai
pour tous les moments du débit instantané.
Selon les besoins, on peut approcher des trafics à modéliser par des processus
M.M.P.P. en fixant leurs paramètres de façon à faire coïncider telle ou telle caractéristique : moments, fonction d’autocorrélation,... Dans [11], les auteurs modélisent
une superposition de trafics par un processus M.M.P.P. en fixant ses paramètres de telle
sorte que le débit moyen d’arrivée, le rapport de la variance par la moyenne du nombre
d’arrivées dans l’intervalle [0; t1 ], et à long-terme, ainsi que le moment d’ordre trois
du nombre d’arrivées dans l’intervalle [0 : t2 ] coïncide avec le trafic à modéliser.
12.5. Le modèle fluide
Lorsqu’un trafic est très intense, il y a beaucoup d’arrivées par unité de temps, et
on ne peut plus le caractériser en considérant chacune en particulier mais seulement
par son débit. Il est alors modélisé de manière globale. Cette modélisation s’inspire de
la mécanique des fluides où ceux-ci ne sont pas caractérisés par chacune des molécules
qui les composent mais par leurs débits.
Soit {Y(t)}t≥0 une chaîne de Markov à temps continu et à valeurs³ dans
´ l’ensemble des
valeurs discrètes comprises entre 0 et N, noté ~0; NÄ et Q = qi j son générateur
i, j
infinitésimal. Quand la chaîne est dans l’état j, le fluide arrive avec un débit a j .
Supposons qu’un tel modèle soit placé en entrée d’une file infinie à temps de service
constant de débit c. Le débit de remplissage de la file est alors r j = a j − c (éventuellement négatif, auquel cas la file se vide au lieu de se remplir).
58
Soit X(t) la taille du tampon à t. Notons
F j (x, t)
F j (x)
P (X(t) ≤ x, Y(t) = j)
=
=
=
lim F j (x, t)
t→+∞
P (X ≤ x, Y = j)
On cherche G(x) = P (X > x) = 1 −
un système différentiel.
F j (x, t + dt) =
X
i,i, j
PN
j=0
F j (x). Le problème consiste alors à résoudre
³
´
qi j dtFi x − ri j dt, t


X
 ³

´

q ji dt F j x − r j dt, t + o (dt)
+ 1 −
(12.217)
i,i, j
donc,
F j (x, t + dt) − F j (x, t)
=
"
#
³
´
∂Fi
qi j dt Fi (x, t) +
(x, t) −ri j dt + o(dt)
∂x
i,i, j
"

#
X


∂F j
(x, t) + o(dt)
q ji dt F j (x, t) − r j dt
+ 1 −
∂x
i,i, j
X
+o(dt) − F j (x, t)
soit, comme q j j = −
P
i,i, j
(12.218)
q ji ,
F j (x, t + dt) − F j (x, t)
=
X
i,i, j
=
X
i
qi j dtFi (x, t) −
X
q ji dtF j (x, t) − r j dt
i,i, j
qi j dtFi (x, t) + o(dt) − r j dt
∂F j
(x, t)
∂x
∂F j
(x, t) + o(dt)
∂x
(12.219)
De la modélisation du trafic dans les réseaux de télécommunication
59
d’où,
F j (x, t + dt) − F j (x, t)
dt
=
X
qi j Fi (x, t) − r j
X
qi j Fi (x, t).
i
∂F j
o(dt)
(x, t) +
∂x
dt
(12.220)
et finalement,
∂F j (x, t)
∂F j
+ rj
(x, t)
∂t
∂x
À l’état stationnnaire,
rj
∂F j (x,t)
∂t
=
(12.221)
i
= 0 et donc,
X
∂F j
(x, t) =
qi j Fi (x, t) .
∂x
i
(12.222)
En notant F(x) le vecteur d’éléments F j (x, t), A la matrice telle que Aii = ri et Ai, j,i =
0, le système ci-dessus devient
A
d
F(x)
dx
=
t
QF(x)
(12.223)
d’où
d
F(x)
dx
³ ´
= A−1 t Q F(x)
(12.224)
dont la solution est
F(x)
−1 t
= e(A )( Q) x × k
(12.225)
où k est un vecteur de constantes.
Pour trouver les constantes, on utilise le fait que la probabilité que la file soit vide
lorsque la chaîne de Markov est dans l’état j est nulle si r j > 0 et la condition de
normalisation (la somme des probabilités est égale à 1).
60
12.6. Les modèles fractaux ou autosimilaires
Les processus autosimilaires et à dépendances longues sont étudiés depuis le milieu du XXe siècle. Les premiers travaux ont été menés par Kolmogorov (cf. [15])
et Mandelbrot (cf. [19]), mais c’est seulement depuis 1993, avec la parution de l’article [16], que la théorie des objets fractals (du latin fractus signifiant brisé, ces objets
présentant le plus souvent des caractéristiques importantes d’irrégularité) a pris une
grande importance dans la modélisation du trafic. Il nous est impossible de présenter
les modèles de trafic les plus utilisés sans citer les processus autosimilaires. Toutefois,
si ces modèles expliquent les performances observées de systèmes et s’ils rendent
compte de certaines caractéristiques du trafic, nous nous croyons obligés de mettre en
garde l’ingénieur devant les difficultés posées par leur utilisation en simulation. En
effet, ils se comportent en pratique comme des processus non stationnaires.
Intuitivement, un fractal est un objet qui présente les mêmes caractéristiques quelle
que soit l’échelle à laquelle on se place pour l’observer. Le chou serait un excellent
exemple de fractal s’il avait une taille infinie : lorsqu’on l’effeuille, il garde toujours
la même forme même s’il diminue de taille.
Ce paragraphe est une introduction aux modèles autosimilaires. Nous engageons le
lecteur à se référer à la bibliographie donnée en fin de chapitre, et plus spécialement à
[24].
12.6.1. Définitions de l’autosimilarité exacte et propriétés
Les paragraphes qui suivent sont extraits des articles [30], et [31]. Une bibliographie très importante est donnée dans [35].
Soient
– X = {Xn }n≥0 un processus stochastique à temps discret stationnaire du second
ordre ;
– µ = E [Xn ] < ∞ sa moyenne ;
– σ2 = V AR [Xn ] < ∞ sa variance ;
– ∀k ≥ 0, b(k) = COV [Xn , Xn+k ] = E [Xn Xn+k ]−E [Xn ] E [Xn+k ] sa fonction d’autocovariance (qui ne dépend pas de n par définition de la stationnarité du second ordre) ;
b(k)
– r(k) = 2 sa fonction d’autocorrélation ;
σ
– f (l) sa densité spectrale ;
1
(Xnm−n+1 + Xnm−m+2 + · · · + Xnm ) le processus correspondant à la
– Xn(m) =
m
moyenne de X sur une fenêtre glissante de taille m ;
o
n
;
– X (m) = Xn(m)
n≥0
De la modélisation du trafic dans les réseaux de télécommunication
61
– rm (k) la fonction d’autocorrélation de X (m) ;
– bm (k) sa fonction d’autocovariance.
Définition 13 (Autosimilarité du 1er ordre) Le processus X est dit autosimilaire au
sens strict, ou autosimilaire du 1er ordre, de paramètre de Hurst H = 1 − β/2, 0 < β <
1, si et seulement si m1−H X (m) a même distribution que X, ou encore si et seulement si
o
n
1
X̆ (m) a même distribution que X où X̆ (m) = X̆n(m) et X̆n(m) = H (Xnm−n+1 + Xnm−m+2 + · · · + Xnm ).
m
Le terme "autosimilaire" vient du fait que la transformation qui permet de passer de X
à X̆ ne change pas la loi de probabilité. Cette transformation est dite renormalisation
d’indice H.
Définition 14 (Autosimilarité du 2ond ordre, 1ère définition) Le processus X est dit
autosimilaire du second ordre, de paramètre de Hurst H = 1 − β/2, 0 < β < 1, si et
seulement si bm (k) = b(k)/mβ , ce qui revient à dire que X (m) et X ont même fonction
d’autocovariance au facteur mβ près ou que X̆ (m) et X ont exactement même fonction
d’autocovariance.
En d’autres termes, la renormalisation d’indice H ne modifie pas la fonction d’autocovariance. On trouve aussi dans la littérature une deuxième définition, moins intuitive
que celle-là mais équivalente, et qui permet de définir plus simplement l’autosimilarité
asymptotique du second ordre. La définition que nous venons de donner permet toutefois de démontrer plus facilement l’autosimilarité du second ordre d’un processus et
de mieux comprendre la notion de dépendance longue (cf. plus bas).
Définition 15 (Autosimilarité du 2ond ordre, 2onde définition) Un processus X est
dit autosimilaire du second ordre, de paramètre de Hurst H = 1 − β/2, 0 < β < 1, si
et seulement si
r(k) = g(k), où g(k) =
On écrit parfois g(k) =
δ ( f (x)) =
i
1h
(k + 1)2−β − 2k2−β + (k − 1)2−β .
2
(12.226)
1 2 ³ 2−β ´
δ k
où δ2 est l’opérateur δ appliqué deux fois avec
2
Ã
!
Ã
!
1
1
f x+
− f x+
.
2
2
(12.227)
62
Théorème 1 Les assertions suivantes sont équivalentes :
1) X est autosimilaire du second ordre selon la définition 15, i.e. r(k) = g(k),
2) X est autosimilaire du second ordre selon la définiion 14, i.e. bm (k) = b(k)m−β ,
i
h
3) V AR Xn(m) = σ2 m−β
∞
¯
¯2 X
1
1
1
, − ≤λ≤ ,
4) f (λ) = c ¯¯e2πiλ − 1¯¯
3−β
2
2
+
l|
|λ
l=−∞
où c est une constante de normalisation telle que
de ces assertions implique ∀k, rm (k) = r(k).
R +1/2
−1/2
f (λ)dλ = σ2 . De plus, chacune
i
h
V AR Xn(m) = σ2 m−β = V AR [Xn ] m−β et bm (k) = b(k)m−β peuvent être vues comme
des équations fonctionnelles de l’autocovariance b(k) puisque
bm (k)
1
m2
=
m−1

m−1
X
X

 (m − i)b(mk + i) +
(m − i)b(mk − i) .

i=0
(12.228)
i=1
On peut montrer, par exemple par récurrence sur k, que chacune de ces équations a
l’unique solution
b(k)
=
(
b(0), si k = 0
b(0)g(k), si k > 0.
(12.229)
Dans la littérature, plusieurs définitions sont données, mais c’est celle qui requiert pour
le processus son caractère d’autosimilarité qui correspond le mieux à la définition d’un
fractal (cf. déf. 14). Elle est énoncée en termes de fonction d’autocovariance, et non
d’autocorrélation. Pour que la propriété d’autosimilarité sur l’autocovariance exprimée par la définition 14 soit vérifiée, une définition en termes d’autocorrélation ne
peut pas porter que l’autosimilarité de l’autocorrélation
(i.e. rm (k) = r(k)) dans le
i
h
cas général, mais doit aussi imposer V AR Xn(m) = σ2 m−β car l’autosimilarité seule
de l’autocorrélation ne suffit pas à celle de l’autocovariance. C’est pourquoi on trouve
parfois une définition d’un processus autosimilaire
du second ordre imposant ces deux
i
h
conditions. Maintenant, comme V AR Xn(m) = σ2 m−β implique rm (k) = r(k), la propriété sur la variance suffit aussi pour définir l’autosimilarité, ce qui explique qu’on
trouve aussi des articles qui se contentent de cette définition.
Propriété 17 Un processus autosimilaire du 1er ordre est aussi autosimilaire du 2ond
ordre.
De la modélisation du trafic dans les réseaux de télécommunication
63
i
h
En effet, on peut montrer très facilement que V AR Xn(m) = σ2 m−β à partir de la définition de l’autosimilarité du 1er ordre.
Propriété 18 La fonction d’autocorrélation g(k) vérifie
r(k)
k→+∞ k−β
lim
=
=
1
(2 − β) (1 − β)
2
H (2H − 1) .
(12.230)
Si le fait qu’un processus autosimilaire du premier ordre l’est aussi du second ordre
est exact, la réciproque est fausse dans le cas général, mais vraie pour des processus gaussiens de moyenne nulle. De plus, un processus strictement autosimilaire du
premier ordre ne peut pas avoir une moyenne non nulle, tandis qu’un processus strictement autosimilaire du second ordre le peut. Enfin, si X est un processus positif et
non dégénéré, ni X ni X − µ ne peuvent être autosimilaires du premier ordre.
MM. L, T et W ont découvert que le trafic présente des caractéristiques d’autosimilarité en analysant un trafic éthernet d’un réseau local. Ils ont tracé
son débit sur plusieurs échelles de temps (resp. 0, 01, 0, 1, 1, 10 et 100 secondes) en
fonction du temps et ont obtenu les courbes correspondant à la colonne de gauche de
la Fig. 12.5. Ils ont ensuite modélisé le trafic observé à l’échelle de temps de l’ordre du
centième de second avec des modèles markoviens classiques, qu’ils ont simulé pour
tracer à nouveau le débit sur plusieurs échelles de temps. Ces nouvelles courbes sont
sur la deuxième colonne de la Fig. 12.5. On voit que le trafic se lisse au fur et à mesure
qu’on augmente la fenêtre d’agrégation du trafic. C’est une caractéristique des trafics
à dépendances à court-terme. En revanche, pour le trafic autosimilaire, ce n’est pas le
cas. Un modèle autosimilaire a alors été proposé, puis simulé. La troisième colonne de
la Fig. 12.5 montre que cette fois l’agrégation sur plusieurs échelles de temps donne
un résultat similaire à celui obtenu avec les traces du trafic réelles. Cette figure est
extraite de l’article [36].
12.6.2. Définitions de l’autosimilarité asymptotique et propriétés
Définition 16 (Autosimilarité du 2ond ordre asymptotique) Le processus X est dit
asymptotiquement autosimilaire du second ordre si et seulement si
∀k ≥ 0, lim rm (k) = g(k)
m→+∞
(12.231)
64
Figure 12.5 – Trafics autosimilaire et markovien : comparaison
Par ailleurs, il nous faut introduire la notion de processus à variations régulières.
Définition 17 Une fonction mesurable f (x) > 0 vérifiant
∀u > 0, lim
x→+∞
f (ux)
= uρ ,
f (x)
(12.232)
est dite fonction à variations régulières d’indice ρ. Si ρ = 0, f est dite fonction à
variations lentes.
Théorème 2 Pour un processus X et H = 1 − β/2, 0 < β < 1, les assertions suivantes
sont équivalentes :
De la modélisation du trafic dans les réseaux de télécommunication
65
1) X est asymptotiquement autosimilaire du second ordre ;
i
h
V AR Xn(km)
i ∼ k−β
h
2) ∀k > 0, lim
m→+∞ V AR X (m)
n
h
i
3) r(k) ∼ H (2H − 1) L(k)k−β quand k → +∞ (a)
i
h
h (m) i
implique V AR Xn ∼ σ2 L(m)m−β quand m → +∞ (b)
où L(k) est une fonction à variations lentes, et chacune des assertions 3)(a) et 3)(b)
impliquent 1) et 2).
Commençons par prouver que 1) implique 2).
rm (k)
=
=
i
i
h
h
h
1
h (m) i (k + 1)2 V AR Xn((k+1)m) − 2k2 V AR Xn(km)
2V AR Xn
ii
h
+ (k − 1)2 V AR Xn((k−1)m)
i´
³
h
1
h (m) i δ2 k2 V AR Xn(km) ,
2V AR Xn
(12.233)
En utilisant la définition 16 de l’autosimilarité asymptotique, on voit que pour k = 1
i
h


 2V AR Xn(2m)


h (m) i − 1
lim 
m→+∞
V AR Xn
= 22−β − 1
(12.234)
De la même façon pour k = 2, on obtient
i
i
h
h
h (3m) i

V AR Xn(2m)
V AR Xn(m) 
1  2 V AR Xn
3
3
i −2
i +
i 
h
h
h
lim
m→+∞ 2 
V AR Xn(m)
V AR Xn(m)
V AR Xn(m)
=
i
1 h 2−β
3 − 22−β + 1 ;
2
(12.235)
Pour k > 2, la démonstration se fait par récurrence.
Le fait que 2) implique 1) est une conséquence immédiate de (12.233) et de 2).
66
Que 3)(b) implique 1) est évident également.
Prouvons maintenant que 3) − (a) implique 3) − (b).
m
X
i
h
V AR Xn(m) = σ2 m−1 + 2σ2 m−2
(m − i)r(i).
(12.236)
i=1
La propriété 3) − (a) signifie que sur un voisinage de l’infini [a; +∞[, r(k) ∼ cL(x)x−β .
On suppose ici et dans la suite que a est un entier plus grand que 1. Il nous faut
démontrer trois lemmes auparavant.
Lemme 2 Si f (x) est une fonction
R nà variations lentes d’indice ρ > −1 et
Pn
+∞ quand n → +∞, i=a f (i) ∼ a f (x)dx quand n → +∞.
Pn
i=a
f (i) →
R i+1
Notons ai = f (i) et bi = i f (x)dx. Remarquons que ai ∼ ai+1 au voisinage de
Rn
P
l’infini et a f (x)dx = n−1
i=a bi . Maintenant, montrons que ai ∼ bi en l’infini. mi ≤
bi ≤ Mi et, quand ρ > 0,
mi
= inf ( f (x); i ≤ x)
Mi
= sup ( f (x); x ≤ i + 1) ,
et quand ρ < 0,
mi
= inf ( f (x); x ≤ i + 1)
Mi
= sup ( f (x); x ≥ i) .
On peut alors montrer (cf. théorème de Karamata dans [5], théorème 1.5.3.) que mi ∼
ai et Mi ∼ ai+1 au voisinage de l’infini. Ceci signifie que ai et bi sont équivalents en
l’infini. Pour conclure, il suffit d’utiliser les deux lemmes suivants (3 et 4).
Lemme 3 Soit ai > 0 tels que ai ∼ ai+1 au voisinage de l’infini. Alors
Pn
¤−1
£Pn
→ 0 pour n → +∞.
i=a ai
i=a ai ou an
Pn−1
i=a
ai ∼
De la modélisation du trafic dans les réseaux de télécommunication
67
³
´−1
Pour tout ǫ > 0, on choisit 0 < δ < 1 et N1 tels que 1 + δ + δ2 + · · · + δN1 −1
< ǫ.
Puisque ai /ai+1 → 1 quand i → +∞, on peut choisir N2 tel que pour i > N2 , ai /ai+1 >
δ. Alors, pour n > N1 + N2 + a,
 n −1
X 
an  ai 
i=a
n−N
−1
 X1
³
´
N
−1


1
< an 
ai + an 1 + δ + · · · + δ

i=a
³
´−1
< 1 + δ + · · · + δN1 −1
< ǫ.
Lemme 4 Soit ai > 0 tel que ai ∼ bi et
n
X
i=a
ai
∼
n
X
Pn
i=a
(12.237)
ai → +∞ au voisinage de l’infini. Alors,
bi , en l’infini.
(12.238)
i=a
Pour tout ǫ > 0, ∃N1 > a tel que |bi − ai | < (ǫ/2) ai , i > N1 (car quand bi /ai → 1 pour
i → +∞, (bi − ai )a−1
i → 0). On peut alors choisir N2 tel que pour tout n > N2 + a,
(car
Pn
¯¯ ,
¯¯
N1
n
¯¯X
¯ X
¯¯ (bi − ai )¯¯¯
ai
¯ i=a
¯ i=a
i=a
<
ǫ
2
(12.239)
ai → +∞ en l’infini). Pour n > N2 + a,
¯¯
¯
, n
n
n
X
¯¯X
 X ¯¯¯
¯¯ bi −
ai ¯¯
ai 
¯ i=a
¯
i=a
i=a
¯¯
¯¯ 
, n

N1
n
n
 X
 ,X
¯¯X
¯¯  X
ai
ai ¯¯ + 
≤ ¯¯ (bi − ai )
|bi − ai |
¯ i=a
¯ i=N1 +1
i=a
i=a
 n
, n
ǫ ǫ  X  X
+ 
ai 
≤
ai < ǫ.
2 2 i=N +1  i=a
1
(12.240)
68
Revenons maintenant à la démonstration du théorème. Tout d’abord, puisque pour tout
P
Pm
entier a > 0, 3) − (a) et r(i) ≤ 1 donnent a−1
i=a r(m) → +∞ quand
i=1 r(i) < a et
m → +∞,
m
X
r(i) ∼
m
X
r(i), m → +∞.
(12.241)
i=a
i=1
De même
m
X
m
X
ir(i) ∼
ir(i), m → +∞.
(12.242)
i=a
i=1
Ensuite, en posant c = H (2H − 1) et en appliquant le lemme 2 à la fonction à variations régulières d’indice −β r(x), on obtient
m
X
r(i) ∼
c
i=a
Z
m
L(x)x−β dx ∼
a
cL(m)m−β+1
m → +∞,
1−β
(12.243)
en utilisant l’équation de Karamata (cf. [5], proposition 1.5.8)
Z
m
L(x)xu dx
∼
a
L(m)
Z
m
xu dx, m → +∞
(12.244)
a
De la même manière,
m
X
i=a
ir(i) ∼
cL(m)m−β+2
, m → +∞.
2−β
(12.245)
Les équations (12.241) à (12.245) donnent
m
X
(m − i)r(i) ∼
i=a
1
L(m)m−β+2 , m → +∞.
2
(12.246)
Finalement, des équations (12.236) et (12.246), il vient
Q.E.D.
i
h
V AR Xn(m) ∼
σ2 m−1 + σ2 L(m)m−β ∼ σ2 L(m)m−β .
(12.247)
On peut encore donner deux définitions équivalentes de l’autosimilarité asymptotique
du second ordre.
De la modélisation du trafic dans les réseaux de télécommunication
69
Définition 18 X est asymptotiquement autosimilaire du second ordre de paramètre
0 < β < 1 si et seulement si
bm (0) ∼ cm−β , 0 < c < +∞, m → +∞
(12.248)
Définition 19 X est asymptotiquement autosimilaire du second ordre de paramètre
0 < β < 1 si et seulement si
(
bm (k) ∼
cm−β , k = 0
0 < c < +∞.
cm−β g(k), k > 0
(12.249)
Il est facile de constater que la définition 18 implique la définition 16. Le théorème
suivant permet d’affirmer l’équivalence des deux précédentes définitions et donne des
conditions suffisantes d’autosimilarité asymptotique du second ordre pour X en termes
de comportement asymptotique de bm (0) et b(k).
Théorème 3
2) Si
b(k)
1) Les définitions 18 et 19 sont équivalentes.
∼
cH (2H − 1) k−β , k → +∞, 0 < c < +∞
(12.250)
alors
bm (0)
3) Si
∼
cb(0)m−β , m → +∞.
(12.251)
bm (0) = cm−β + ǫm , 0 < c < +∞
(12.252)
2+β
où ǫm est tel que m ǫm → 0, m → +∞, alors (12.250) est vérifiée.
4) Chaque équation (12.250) à (12.252) implique que X est asympotiquement autosimilaire du second ordre selon la définition 18.
Prouvons 1) Avec l’équation
bm (k)
=
i
1h
(k + 1)2 b(k+1)m (0) − 2k2 bkm (0) + (k − 1)2 b(k−1)m (0) , (12.253)
2
qui vient de (12.233), l’équation (12.248) implique (12.249) et prouve que X asymptotiquement autosimilaire du second ordre selon la définition 19 s’il l’est selon 16. La
réciproque est évidente puique (12.249) inclut (12.248).
70
2) découle de (12.236) et (12.246) si on prend L(m) = 1 et utilise l’équation b(k) =
b(0)r(k).
Pour 3) : De (12.253) avec m = 1,
b(k)
=
i
1h
(k + 1)2 b(k+1) (0) − 2k2 bk (0) + (k − 1)2 b(k−1) (0) ,
2
(12.254)
et (12.252), il vient
b(k)
h
i
= cg(k) + (k + 1)2 ǫ(k+1) − 2k2 ǫk + (k − 1)2 ǫ(k−1) ,
(12.255)
Puisque g(k) ∼ H (2H − 1) k−β et le terme entre crochets dans (12.255) tend vers 0
plus vite que k−β , (12.250) est vérifiée.
La preuve de 4) est évidente après celles de 2) et 3). Q.E.D.
12.6.3. Dépendances à long-terme
Définition 20 Un processus X est dit à dépendances à long-terme s’il existe 0 < β < 1
tel que sa fonction d’autocorrélation est en telle que r(k) ∼ ck−β pour k au voisinage
de l’infini.
Si β est tel que 1h < βi < 2, on parle de processus à dépendances à court-terme, et
dans ce cas, V AR Xn(m) ∼ cm−1 quand m → +∞. Dans le premier cas, la somme des
termes de la fonction d’autocorrélation est finie, tandis qu’elle diverge dans le second.
En pratique, la dépendance à long-terme signifie qu’un événement à une influence sur
n’importe quel autre événement survenant plutard. Un événement à une date donnée et
un autre arrivant bien plus loin dans le temps sont toujours corrélés. Dans le cas d’un
processus à dépendances à long terme la valeur de β indique le degré de dépendance :
plus β est proche de 0, plus la dépendance est importante, en revanche, plus elle se
rapproche de 1, plus le processus tend vers un processus à dépendances à court terme.
On peut constater que tout processus exactement autosimilaire du second ordre est à
dépendances longues.
De la modélisation du trafic dans les réseaux de télécommunication
71
12.6.4. Propriétés
Les deux théorèmes qui suivent sont tirés des articles [21] et [31].
Théorème 4 Soient X ′ et X ′′ deux processus indépendants tels que r(k) ∼ c1 k−β1 , k →
+∞ pour X ′ et r(k) ∼ c2 k−β2 , k → +∞ pour X ′′ , où 0 < ci < +∞ et 0 < βi < 1. X ′ + X ′′
est asymptotiquement autosimilaire de paramètre H = 1 − β/2 où β = min (β1 , β2 ).
Suposons β1 > β2 . La fonction d’autocorrélation de X ′ + X ′′ vérifie (à cause de l’indépendance)
r(x)
h³
´¡
´
¢i ³
′
′′
= E Xn+k
+ Xn+k
− µ′ − µ′′ Xn′ + Xn′′ − µ′ − µ′′ / σ′2 + σ′′2
h³
´¡
´¡
´
¢ ³ ′′
¢i ³
′
= E Xn+k
− µ′ Xn′ − µ′ + Xn+k
− µ′′ Xn′′ − µ′′ / σ′2 + σ′′2
´
´
³
³
(12.256)
= r′ (k)σ′2 / σ′2 + σ′′2 + r′′ (k)σ′′2 / σ′2 + σ′′2
Donc,
r(k)
k→+∞ k−β
lim
=
=
=
σ′2
σ′2
σ′′2
r′ (k)
r′′ (k)
lim −β + ′2
lim −β
′′2
′′2
+ σ k→+∞ k
σ + σ k→+∞ k
c1 σ′2
σ′′2
+ ′2
lim c2 k−(β2 −β1 )
′′2
+σ
σ + σ′′2 k→+∞
σ′2
c1 σ′2
,
σ′2 + σ′′2
(12.257)
ce qui signifie que r(k) ∼ ck−β , k → +∞, et qui implique par le théorème 2 que X ′ + X ′′
est asymptotiquement autosimilaire. Q.E.D.
Théorème 5 Soient X ′ et X ′′ deux processus exactement autosimilaires du second
ordre de paramètres respectivement H1 et H2 . Si H1 = H2 = H, X ′ +X ′′ est exactement
autosimilaire du second ordre de paramètre H. En revanche, si H1 , H2 , X ′ + X ′′
est seulement asymptotiquement autosimilaire du second ordre de paramètre H =
max (H1 , H2 ).
72
12.6.5. Application : effet des dépendances à long-terme sur les performances d’une
file d’attente, lien entre autosimilarité et distributions barycerques
Ces trafics fractaux dégradent considérablement les performances des réseaux car,
du fait des corrélations intrinsèques à leur nature, la longueur des files d’attente en
entrée desquelles ils sont placés est beaucoup plus grande que dans le cas où le trafic n’est pas fractal. Ce résultat n’est pas établi clairement, mais semble bien vérifié.
Comme il est écrit dans [25], une des principales difficultés dans l’étude des systèmes à files d’attente à processus d’arrivées autocorréllés est due au fait qu’il n’y a
pas de modèle universellement accepté de ces processus d’arrivées. La donnée d’une
fonction d’autocorrélation et de la distribution de probabilité d’un processus d’interarrivées n’est suffisante pour décrire le processus que dans le cas gaussien. Des articles
ont paru montrant seulement qu’avec certains processus autosimilaires bien précis les
longueurs des files d’attente croissaient considérablement : on peut se référer à [7]
qui présente une étude expérimentale de l’influence des dépendances à long terme sur
les performances du réseau, et à [35] et aux références qui y sont incluses pour des
travaux plus théoriques pour des processus d’arrivées particuliers.
Il est par contre bien établi (cf. [31]) qu’un processus d’arrivées de sessions de
durées distribuées selon des lois barycerques engendre d’une part des processus exhibant des propriétés autosimilaires et d’autre part de très mauvaises performances sur le
réseau, si bien que derrière les trafics autosimilaires se cachent souvent des variables
aléatoires de distributions barycerques.
Définition 21 (Distribution barycerque) Une variable aléatoire continue X est dite
à distribution barycerque (du grec βαρύς, lourd, et κǫ́ρκoς, queue, ou "heavy tailed"
en anglais) si sa fonction de répartition F est telle que
1 − F(x) = P (X > x) ∼
1
, x → +∞, 0 < α.
xα
(12.258)
De telles lois de probabilité peuvent avoir des variances infinies.
La loi de probabilité la plus utilisée parmi les distributions barycerques est la loi de
Pareto.
Définition 22 (Distribution de Pareto) Une variable aléatoire continue X suit une
loi de Pareto de paramètres α > 0 et k > 0 si sa densité de probabilité est
f (x)
= α
nα0
1[n ;+∞[ (x)
xα+1 0
(12.259)
De la modélisation du trafic dans les réseaux de télécommunication
73
et sa fonction de répartition
F(x) = 1 −
µ n ¶α
0
x
x > n0 , α > 0
(12.260)
Sa moyenne est
E [X]
=
αn0
, α > 1,
α−1
(12.261)
et sa variance
V AR [X] =
αn20
(α − 1)2 (α − 2)
, α > 2.
(12.262)
L’application suivante est tirée de l’article [31]. Soit un processus à temps discret résultant de la superposition de sources de trafic arrivant selon un processus³ de Poisson
´
de taux λ1 , i.e. la probabilité d’avoir k arrivées de sources entre t et t+1 est λk1 /k! e−λ1 .
Lorsqu’une source arrive, elle reste active pendant un temps aléatoire τ, puis devient
inactive. Les temps d’activité de chaque source sont pris indépendants et identiquement distribués. Pendant sa période d’activité, la source s engendre R paquets par
unité de temps. Soit Yt le nombre de paquets engendrés par le trafic résultant de cette
superposition, à l’instant t.
Propriété 19 Soit w(k) la fonction d’autocorrélation de Yt , i.e.
= COV [Yt , Yt+k ]
w(k)
=
E [(Yt − E [Yt ]) (Yt+k − E [Yt+k ])] ,
(12.263)
Les relations suivantes sont vérifées :
λ1
=
w(0) − w(1)
R2
P (τ ≥ l + 1)
=
w(l) − w(l + 1)
, l = 1, 2, · · · ,
λ1 R2
R = min (Yt ; Yt > 0) .
(12.264)
(12.265)
(12.266)
74
Pour prouver (12.264) et (12.265), notons par ∆i (l) le nombre de sources qui démarrent
leur période active de longueur τ = l à l’instant i. On a
Yt
= R
t
+∞ X
X
∆i (l).
(12.267)
l=i i=t−l+1
Soit Ai l’ensemble des numéros de sources arrivées à l’instant i. La taille de Ai est ξi
où ξi est poissonnien de paramètre λ1 . Soit δ s (l) la fonction indicatrice telle que, pour
la source s,
δ s (l) =
(
1,
0,
avec la probabilité P (τ = l)
avec la probabilité 1 − P (τ = l) .
(12.268)
Les variables aléatoires δ s (l), s ∈ Ai sont i.i.d. et indépendantes de ξi , et
∆i (l) =
X
δ s (l).
(12.269)
s∈Ai
Par ailleurs,
h
E [∆i (l)] = λ1 P (τ = l)
E ∆i (l)∆ j (m)
h
COV ∆i (l), ∆ j (m)
i
i
(12.270)
= λ21 P (τ = l) P (τ = m) + λ1 P (τ = l) δi j δlm
(12.271)
= λ1 P (τ = l) δi j δlm .
(12.272)
En utilisant les équations (12.263), (12.267) et (12.272), il vient
w(l) = λ1 R2
+∞
X
P (τ ≥ t) , l = 0, 1, 2, · · · .
(12.273)
t=l+1
Les équations (12.264) et (12.265) découlent de (12.273). Q.E.D.
Par ailleurs, (12.273) et (12.265) permettent non seulement de déterminer λ1 et P (τ ≥ l)
à partir de mesures du processus Yt , mais aussi de montrer quand Yt est exactement
autosimilaire.
De la modélisation du trafic dans les réseaux de télécommunication
75
Propriété 20 Le processus {Yt }t=0,1,2,··· dont les sources sont à débit constant R est
exactement autosimilaire de paramètre H = 1 − β/2, 0 < β < 1, si et seulement si,
P (τ ≥ l + 1)
E [τ] h
i
3(l + 1)2−β − 3l2−β − (l + 2)2−β + (l − 1)2−β
2
Ã
!2−β 

1
E [τ] 3 
= −
δ  l +
(12.274)
 , l = 1, 2, · · · ,
2
2
=
´
³
´
³
où δ3 ( f ) désigne l’opérateur δ ( f (x)) = f x + 21 − f x − 12 appliqué trois fois et
·
µ³
´ ¶¸−1
P
l 2−β
3
E [τ] = 1 + 12 +∞
. La distribution P (τ ≥ l + 1) est du type Pareto,
δ
l
+
l=1
2
P (τ ≥ l + 1)
∼
E [τ]
2
β (1 − β) (2 − β) l−(β+1) , l → +∞.
(12.275)
Propriété 21 Le processus {Yt }t=0,1,2,··· est asymptotiquement autosimilaire du second
ordre si
P (τ > t) ∼
ct−α , 1 < α < 2.
(12.276)
Cela peut être montré facilement à partir de (12.273) et en utilisant le fait que de
manière générale si limk→+∞ r(k)/k−β = c pour 0 < β < 1, limm→+∞ r(m) (k) = g(k).
De plus, si {Yt }t=0,1,2,··· est asymptotiquement autosimilaire du second ordre tel que
limk→+∞ r(k)/k−β = c pour 0 < β < 1, P (τ > l) ∼ c (E [τ]) (α − 1) l−α , où α = β +
1, l → +∞. Cela découle directement de (12.265).
De manière générale, l’autosimilarité de {Yt }t=0,1,2,··· est étroitement liée à la nature de
Pareto de la loi de τ.
Nous allons maintenant étudier les performances d’une file à temps de service constant
d’une unité de temps, à un seul serveur, de discipline de service assez générale (cf. plus
bas) mais telle qu’à chaque unité de temps un client est servi, et à capacité finie égale
à h + 1. On suppose que R = 1, et que ξt suit une loi quelconque, pas nécessairement
Poisson, que E [τ] < +∞ et P (ξ = 0) < 1.
76
Propriété 22 La probabilité de débordement de la file est telle que
+∞
X
1
Pdébordement ≥
P (τ ≥ n) ,
(E [τ] + E [κ])2 n=n1
(12.277)
où n1 = ⌊(h + b) /a⌋ + 2, ⌊x⌋ désigne la partie entière de x, et
E [κ] = (1 − P (ξ = 0))−1 − 1
a = (E [τ] + E [κ])−1 ≤ 1,
b = a + 1.
Notons G1 cette borne. Pour n’importe quelle fonction d’échantillonnage du trafic
d’entrée, et à n’importe quelle instant t, un dépassement de tampon et le nombre de
paquets rejetés ne dépend pas de la discipline de service, ce qui implique que la probabilité de débordement de la file d’attente ne dépend que du trafic d’entrée et de la
taille du tampon, propriété également valable pour le taux de perte.
Pour présenter la discipline de service, supposons qu’à t = 0 le tampon est vide et
une source, la n˚1, arrive. Elle transmet ses paquets dans l’intervalle de temps [0; τ1 [,
noté T 1 . Ensuite, après un instant κ1 arrive la source suivante, n˚2, active pendant
τ2 unités de temps. L’intervalle I1 = [τ1 ; τ1 + κ1 [ est appelé intermission (du terme
médical : temps séparant deux accès de fièvre). Les clients de la deuxième source
sont transmis dans l’intervalle T 2 = [τ1 + κ1 ; τ1 + κ1 + τ2 [. De manière générale,
après la transmission de la source n˚i, i ≥ 2 au cours de la période T i = [ti−1 , ti−1 +
τi [, l’intervalle d’intermission
Ii = [ti−1 + τi ; ti [ suit sans arrivée de nouvelle source,
´
P ³
avec ti = ij=1 τ j + κ j , τ j étant la période active de la source j et κ j la largeur de
l’intervalle d’intermission I j .
Supposons maintenant que d’autres sources, la n˚i exceptée, arrivent au cours de l’intervalle T i . Notons par Bi l’ensemble de ces sources. A chaque instant t ∈ T i , la
discipline de service insère les nouveaux paquets des sources de Bi dans le tampon,
s’il y a suffisamment de place, ou sinon en éjecte certains parmi les nouveaux arrivés
ou les anciens et en garde exactement h dans le tampon. Dans le dernier cas, les paquets des sources B j ne peuvent être supprimés que si ceux des sources B1 , · · · , B j−1
ont été supprimés ou transmis. Les paquets des sources Bi peuvent être transmis dans
l’intervalle d’intermission I j , j ≥ i, s’ils n’ont pas été supprimés.
Considérons maintenant la variable aléatoire jt valant 1 s’il y a dépassement de la file
à t et 0 sinon. Pdébordement = limt→+∞ P ( jt = 1). Pour trouver la borne inférieure,
De la modélisation du trafic dans les réseaux de télécommunication
77
nous allons négliger les dépassements ayant lieu au cours des périodes d’intermission
et ceux des intervalles T i pour lesquels les paquets des sources Bi ne sont pas supprimés. On remplace alors la suite jt , t = 0, 1, 2, · · · par celle des ĵt en prenant ĵt = 0 pour
tous les débordements négligés et ĵt = jt pour tous les autres événements. Pour cette
nouvelle suite, le nombre d’instants t où ĵt = 1 sur T i ∪ Ii ne dépasse naturellement
pas ceux où jt = 1 sur T i ∪ Ii , où T i ∪ Ii est la réunion de T i et Ii d’une part, et, d’autre
part, les segments des suites ĵt sur les intervalles T i ∪ Ii deviennent indépendants et
identiquement distribués, de telle sorte que la quite ĵt peut être considérée comme un
processus régénérateur dont le iième cycle de régénération est dans l’intervalle T i ∪ Ii .
En utilisant le théorème de Smith (cf. [29]), on peut exprimer les probabilités station£ ¤
naires de dépassement en fonction de E ρ et E [τ] + E [κ], où ρ, τ et κ désignent de
manière générique les ρi , τi et κi . ρi est le nombre d’instants de débordements dans T i
auxquels les paquets de Bi sont supprimés. Les ρi sont indépendants et identiquement
distribués, et P (ρi = k) = P (ρ1 = k) et P (ρ1 = k) est lié au cas où le tampon est vide
à t = 0. En conséquence,
Pdébordement
≥
£ ¤
E ρ
.
E [τ] + E [κ]
(12.278)
avec
E [κ] =
1
−1
1 − P (ξ = 0)
(12.279)
£ ¤
Cherchons maintenant une borne inférieure pour E ρ . Considérons l’intervalle de
transmission [0; τ1 [ et supposons que sa longueur soit donnée, τ1 = n. On va trouver
une borne inférieure sur J(n) où J(n) est la valeur moyenne du nombre de d’instants
de débordements dans [1; n[ sachant que le tampon est vide à t = 1. On note B′1
l’ensemble des sources qui arrivent dans l’intervalle [1; n[.
Appelons instant de génération de [1; n[ l’instant t où au moins une source de B′1
engendre un paquet à la date t. Soit J1 (n) le nombre moyen d’instants de génération
£ ¤
dans [1; n[, sachant que le tampon est vide à t = 1. Dans ce cas, E ρ ≥ E [J(τ)] ≥
E [J1 (τ)] − h. Cherchons une borne inférieure pour J2 (n) = J1 (n) − h.
Le nombre moyen d’instants de génération dans [1; n[ est inférieur ou égal au nombre
d’instants de génération obtenu avec la suite de sources suivante. La source 1′ est celle
qui arrive la première après la date 0. Soit t1′ l’instant d’arrivée de 1′ et τ′1 la durée de
sa période d’activité. La source 1′ produit τ′1 instants de génération si tous sont dans
l’intervalle [1; n[. La source 2′ de la nouvelle suite de sources considérées est celle qui
78
arrive la première après la date t1′ + τ′1 − 1. Soit t2′ son instant d’arrivée et τ′2 la durée de
sa période d’activité. Cette source produit τ′2 instants de génération si t2′ + τ′2 ∈ [1; n[,
et ainsi de suite : la source i′ arrive à ti′ , est active pendant une période de temps τ′i et
produit τ′1 + · · · + τ′i instants de génération avec les source précédentes n˚1′ à n˚(i − 1)′
si ti′ + τ′i ∈ [1; n[.
Soit π le nombre de sources dans la suite qui terminent leurs périodes d’activité dans
]1; n]. Il vient
J2 (n)
≥
  π 

 X ′ 

max E  τi  − h, 0 .
(12.280)
i=1
Puisque
π+1
X
τ′i + κi′
≥
n−1
(12.281)
i=1
³
´
′
+ τ′i−1 et, puisque la variable aléatoire π + 1 ne dépend
où κ1′ = t1′ − 1, κi′ = ti′ − ti−1
h i
h i
pas de τ′1 + κ1′ lorsque i > π + 1, on a (E τ′i = E [τ] et E κi′ = E [κ])
(E [τ] + E [κ]) E [π + 1]
≥
n−1
(12.282)
et
E [π] ≥
"
#
n − (E [τ] + E [κ]) − 1
max
,0 .
E [τ] + E [κ]
Comme τ′i ≥ 1,E
(12.283), il vient
J2 (n)
≥
hP
π
′
i=1 τi
i
≥
E [π]. De cette borne et des équations (12.280) et
!
n − (E [τ] + E [κ]) − 1
− h, O .
max
E [τ] + E [κ]
Ã
(12.283)
(12.284)
De la modélisation du trafic dans les réseaux de télécommunication
79
Avant de faire la moyenne par rapport n, on prend J(n) ≥ 0 pour n ≤ h et J(n) plus
grand que le membre de droite de l’équation (12.284) pour n ≥ h + 1. L’équation
(12.284) permet de déduire
£ ¤
E ρ
≥
≥
!
n − (E [τ] + E [κ]) − 1
− h, O P (τ = n)
max
E [τ] + E [κ]
n=h+1
+∞
X
a
Ã
+∞
X
n=⌊(h+b)/a⌋+1
Ã
!
h+b
n−
P (τ = n)
a
(12.285)
où
1
a =
E [τ] + E [κ]
≤1
b = a+1≥1
(car (h+b)/a ≥ h+1). En subsituant (h+b)/a à ⌊(h + b) /a⌋+1 dans la borne ci-dessus,
et en utilisant
+∞
X
(n − n0 − 1) P (τ = n)
n=n0 +1
=
+∞
X
P (τ ≥ n) , n0 ≥ 0,
(12.286)
n=n0 +2
on obtient la borne cherchée. Q.E.D.
Appliquons la borne donnée à la propriété 22 à une distribution de Pareto P (τ = n) =
cn−α−1 ,1 < α < 2. Comme
+∞
X
n−α
≥
n=n0
n−α+1
0
, n0 > 1, α > 1,
α−1
(12.287)
et en remarquant que, dans ce cas,
P (τ ≥ n)
≥
c −α
n ,
α
(12.288)
80
on obtient
≥
Pdébordement
αcα (α − 1) (E [τ] + E [κ])2
Ã$
%
!−α+1
h+b
+2
α
(12.289)
où
E [τ] = c
+∞
X
n=1
 +∞
−1
X −α−1 

n , c =  n
−α
³
´−1
1 − e−λ1
−1
E [κ] =
(12.290)
n=1
(12.291)
Notons G2 cette borne inférieure de la probabilité de débordement dans le cas Pareto.
En conséquence, quand h est grand, Pdébordement ≥ c1 h−α+1 = c1 h−β = c1 h−2(1−H) ,
c1 étant une constante indépendante de h, mais dépendante de λ1 et α.
Cette borne prouve le résultat important qui montre que la probabilité de débordement
ne décroît pas exponentiellement lorsque le trafic est constitué de sessions distribuées
selon des lois barycerques, mais diminue hyperboliquement avec h. Comme ce trafic
présente des caractéristiques d’autosimilarité, du fait de la distribution barycerques
des sessions, ce résultat pourrait suggérer que c’est aussi le cas pour tout trafic autosimilaire. En pratique, cela signifie qu’il faut installer des mémoires tampons infiniment
plus grandes lorsque les trafics d’entrée sont autosimilaires que dans le cas où ils sont
à dépendances à court-terme.
Comme en général on dimensionne les tailles des mémoires tampons en fonction d’un
taux de perte à ne pas excéder, nous présentons maintenant une borne sur le taux de
perte de la file.
Propriété 23 Si E [τ] < +∞ et P (ξ = 0) < 1,
Pperte
≥ C (E [τ] + E [κ]) G1
=
G1
£ ¤
E ξ E [τ]
,
(12.292)
et dans le cas où la distribution est de Pareto, P (τ = n) = cn−α−1 ,
Pperte
≥ C (E [τ] + E [κ]) G2
=
G2
.
λ1 E [τ]
(12.293)
De la modélisation du trafic dans les réseaux de télécommunication
81
i
h
£ ¤
£ ¤
En effet, Pperte ≥ C E ρ , où C −1 = E ξ E [τ] E [τ] − 1 + P (ξ = 0)−1 , soit C −1 =
£ ¤
E ξ E [τ] (E [τ] + E [κ]). Démontrons-le.
Supposons qu’à t = 0, le tampon soit vide et une première source, la source n˚1,
arrive et ait une période d’activité de durée τ1 . Numérotons les paquets qui arrivent
au moyen de l’indice m = 1, 2, · · · . Considérons la suite des paquets ordonnés selon
leur numéro m et partitionons-là en intervalles L1 , L2 , · · · tels que Li ne contienne que
les paquets des sources arrivées dans l’intervalle T j ∪ I j . Considérons alors la suite
aléatoire im , m = 1, 2, · · · telle que im = 0 si le paquet m est transmis et im = 1 s’il
est perdu et notons Pperte = limm→+∞ P (im = 1). Déduisons-en la suite îm en prenant
îm = 0 pour tous les paquets de L j qui ne sont pas rejetés ou transmis dans l’intervalle
T j . Ainsi, le nombre de paquets tels que îm = 1 sur L j n’est-il pas plus grand que celui
des paquets tels que im = 1 d’une part, et, d’autre part, les segments de suites de îm
sur les intervalles L j deviennent-ils indépendants et identiquement distribués, de telle
sorte que le processus îm peut être considéré comme un processus de régénération dont
le jième cycle de régénération est dans l’intervalle L j . L’application du théorème de
Smith (cf. [29]) donne alors
Pperte
≥
Nombre moyen de îm = 1 sur L j
.
longueur moyenne de L j
(12.294)
£ ¤
Puisque, d’une part, le numérateur du membre de droite est exactement E ρ (nombre
moyen d’instants de débordement dans T j auxquels les paquets des sources B j sont
rejetés), et, d’autre part, le dénominateur vaut


ξ0∗
ξt
τX
1 −1 X


X

(0)
(t)
E τ1 + τν +
τν 
ν=1
= C −1 ,
(12.295)
t=1 ν=1
où ξ0∗ est le nombre d’autres sources arrivées à t = 0 en même temps que la source n˚1,
(0)
τ(0)
1 , · · · , τξ∗ sont les durées de leurs périodes d’activité, τ1 est la durée de la source
0
(t)
initiale n˚1, τ(t)
1 , · · · , τξ0 pour t > 0 sont les durées des périodes d’activité des sources
arrivées à t et les sommes en ν valent 0 si ξt = 0 ou ξt∗ = 0, on obtient finalement
£ ¤
Pperte ≥ C E ρ . Le reste de la démonstration est immédiat en utilisant les bornes
£ ¤
précédemment trouvées pour E ρ . Q.E.D.
L’on peut constater que le taux de perte décroît aussi hyperboliquement avec la taille
du tampon.
82
12.7. Un modèle de trafic modulable, prenant en compte les caractéristiques importantes du trafic, et adapté à la simulation
Les résultats présentés dans le §12.6 précédent montrent l’importance de la prise
en compte des corrélations dans le trafic pour l’étude des performances d’un système de télécommunications. Cependant, en pratique, un trafic fractal sur une infinité
d’échelles de temps n’a pas de sens. De plus, c’est un trafic fortement instable qui se
comporte comme s’il n’était pas stationnaire. Enfin, ces modèles présentent le fâcheux
inconvénient de nécessiter de revoir toute la théorie des files d’attente qui est établie
essentiellement non sur l’hypothèse d’un trafic fractal, mais sur celle d’un trafic poissonnien. C’est pourquoi des savants ont proposé une modélisation spécifique pour les
trafics présentant une forte autocorrélation, rendant bien compte de l’autosimilarité du
trafic sur quelques échelles de temps tout en étant markovienne par essence. Pour une
discussion à ce sujet, le lecteur peut se référer à [32] et [33]. Les dépendances à long
terme des processus peuvent être expliquées comme étant la résultante de la combinaison hiérarchique sur plusieurs échelles de temps de plusieurs processus. C’est cette
idée qui est sous-jacente à ces modèles pseudo-autosimilaires.
Nous présentons ici deux types de modélisation, une adaptée aux problèmes à
temps discrets et due à MM. S. R et J.Y. L B (cf. [26], mais la description
qui est donnée au §12.7.1 est tirée de [27]), et une pour les cas où le temps est continu
proposée par MM. A.T. A et B.F. N (cf. [1]).
12.7.1. Modèle à temps discret
Ce modèle a été conçu pour le trafic des réseaux ATM. Celui-ci est composé de
petits paquets de tailles fixes appelés cellules. L’unité de temps choisie correspond
à la durée, fixe, de transfert d’une cellule ; il ne peut donc y avoir qu’au maximum
une cellule par unité de temps. Le modèle proposé est du type M.M.P.P. adapté au cas
discret.
Soit Xt la variable aléatoire représentant le nombre de cellules (supposé être 0 ou 1)
à l’instant t. Soit Yt ∈ 1, 2, · · · , n une chaîne de Markov à temps discret de matrice
de transition A = (ai j ), le processus de modélisation. Soit φi j = Pr(Xt = j/Yt = i).
On ne s’intéresse qu’au cas stationnaire et on note πi = Pr(Yt = i) la distribution
stationnaire de Yt . Puisque le processus Xt est à valeur dans {0, 1}, ses moments sont
égaux et donnés par :
h
E Xtk
i
=
−π Λ→
−e , k = 1, 2 · · · , t = 0, 1, 2, · · ·
E [X] = →
(12.296)
De la modélisation du trafic dans les réseaux de télécommunication
83
−π = (π , π , · · · , π ), →
−e un vecteur colonne composé uniquement de 1, et Λ
avec →
1 2
n
définit par :
Λ
= diag (E [X/Y = 0] , E [X/Y = 1] , · · · , E [X/Y = n]) .
(12.297)
Si Nm représente le nombre d’arrivées dans une fenêtre temporelle de m unités de
temps, la variance de Nm peut s’écrire
V AR [Nm ] = mE [X] − m2 (E [X])2 + 2
m−1
X
i=1
³−
−e ´ . (12.298)
(m − i) →
π Λ Ai+1 Λ→
Maintenant, le modèle proposé consiste en la famille telle que A est

 1 −








1
a
−
³ ´2
1
a
− ··· −
b
³ a´2
b
a
³ ´n−1
1
a
···
³ ´n−1
b
a
1
a
1−
b
a
³ ´2
1
a
···
···
0
···
0
³ ´2
1 − ab
···
···
···
0
0
···
³ ´n−1
1
a
0
1−
0
···
³ ´n−1
b
a





 (12.299)




et Λ







1
0
0
···
0
0
0
0
···
0
···
···
···
···
···
0
0
0
···
0
0
0
0
···
0







(12.300)
Cette chaîne de Markov est donc paramétrée par 3 variables : a > 1, b ∈ (0, a) et n. La
moyenne E [X] est indépendante de a et est donnée par
E [X] =
1−
1−
³ ´
1
b
³ ´n
1
b
(12.301)
84
avec limn→+∞ E [X] = 1 − b1 quand b > 1. Le processus Xt est un processus ON/OFF
à temps discret alternant des périodes d’activités "ON" distribuées géométriquement
et d’autres de silence de distribution "presque" barycerque. Les périodes d’inactivité
étant des sommes de variables aléatoires géométriques de moyennes très différentes,
elles sont très hétérogènes. Tout cela permet de simuler un modèle à dépendances à
long-terme, tout en étant markovien par essence, c’est pourquoi il est dit modèle de
trafic pseudo-autosimilaire.
Pour comprendre le risque qu’il y a à utiliser des modèles autosimilaires en simulation,
remarquons que si le nombre d’états de la chaîne de Markov est grand, la probabilité
de passer dans l’état n − 1 est extrêmement faible, mais si par aventure le processus
y entre, il y reste en moyenne un temps considérable par construction. Ce temps peut
être de l’ordre de la durée de la simulation, si bien qu’il est impossible de voir les
estimateurs observés converger.
Pour un n donné, les paramètres du modèle peuvent être fixés pour faire coïncider
la moyenne et le paramètre de Hurst Hl à des valeurs déterminées. Le paramètre b
1−( 1 )
est donné par m = 1− 1b n , ce qui se résoud facilement numériquement. Le second
(b)
paramètre, a, est trouvé, par exemple, itérativement avec une méthode de NewtonRaphson, en estimant la pente de la variance par moindres-carrés. Le domaine, en
termes d’échelle de temps où le processus est autosimilaire peut être élargit en augmentant n. Un tel modèle peut être utilisé en entrée d’un modèle de commutateur, par
exemple.
12.7.2. Modèle à temps continu
Le modèle proposé ici est construit à partir de la superposition de sources M.M.P.P.
à deux états superposées. Le trafic résultant est donc un M.M.P.P., ou encore un
sous-ensemble de la classe des processus M.A.P. Soit d le nombre de telles sources
M.M.P.P. superposées. La ième peut être paramétrée de la façon suivante
D0 i
=
"
− (c1i + λ1i )
c2i
c1i
− (c2i + λ2i )
#
D1 i =
"
λ1i
0
0
λ2i
#
(12.302)
où les éléments diagonaux de D0 i sont négatifs et les autres positifs, et D1 i est une
matrice non négative avec au moins un élément non nul. La somme de D0 i et D1 i est
un générateur infinitésimal irréductible Di de vecteur des probabilités stationnaires
d’état ~πi = (c2i / (c1i + c2i ) , c1i / (c1i + c2i )). Le modèle M.A.P. de la superposition peut
s’écrire
 d

d
M
M

i
i

( D0 , D1 ) = 
D0 ,
D1 
i=1
i=1
(12.303)
De la modélisation du trafic dans les réseaux de télécommunication
85
Soit Nti le nombre d’arrivées dans ]0; t] du ième processus M.M.P.P. à deux états. Sa
variance est
h i
V AR Nti
=
´
¡ ∗
¢
2k1i ³
λi + 2k1i t −
1 − e−k2i t
k2i
(12.304)
où λ∗i = (c2i λ1i + c1i λ2i ) / (c1i + c2i ), k1i = (λ1i − λ2i )2 c1i c2i / (c1i + c2i )3 et k2i = c1i +
c2i .
Pour le ième M.M.P.P. à deux états la fonction de covariance du nombre d’événements
dans deux créneaux de temps de largeur ∆t, séparés de k − 1 créneaux de ce type est
(k > 0)
γi (k)
=
=
´
(λ1i − λ2i )2 c1i c2i e−((c1i +c2i )(k−1)∆t) ³
−((c1i +c2i )∆t)
−((c1i +c2i )2∆t)
1
−
2e
+
e
(c1i + c2i )4
´
k1i −(k2i (k−i)∆t) ³
(12.305)
1 − 2e(−k2i ∆t) + e(−k2i 2∆t) .
e
k2i
Si on suppose (c1i + c³2i )∆t << 1, i ∈ (1, 2, · · · , d),
´ un développement ³de Taylor du ´
terme de droite donne 1 − e−(c1i +c2i )∆t + e−(c1i +c2i )2∆t = ((c1i + c2i )∆t)2 +o ((c1i + c2i )∆t)2 .
Ainsi pour (c1i + c2i )∆t << 1, i ∈ (1, 2, · · · , d) a-t-on
γi (k)
≃
(∆t)2 (λ1i − λ2i )2 ci1 c2i e−((c1i +c2i )(k−1)∆t)
(c1i + c2i )2
= (∆)2 k1i k2i e−(k2i (k−1)∆t) .
(12.306)
Les caractéristiques du premier et du second ordre (moyenne, variance, autocovariance) du processus de comptage de chaque M.M.P.P. à deux états sont entièrement
déterminées par les trois quantités λ∗i , k1i et k2i . Comme chaque processus de ce
type est à quatre paramètres, cela laisse un degré de liberté pour construire différents
M.M.P.P. de base dont les processus de comptage associés
caractérisµ ont les³ mêmes
´2 ¶
∗
définit un tel
tiques du premier et du second ordre. Or, chaque ri ≥ k1i k2i / λi
processus, fonction de ri , de mêmes caractéristiques des premier et second ordres du
processus de comptage associé si
λ1 (ri )
= λ∗i +
p
p
k1i k2i ri
(12.307)
k1i k2i ri
(12.308)
λ2 (ri )
= λ∗i −
c1 (ri )
=
k2i ri
1 + ri
(12.309)
c2 (ri )
=
k2i
1 + ri
(12.310)
86
Ce paramètre ri peut être utilisé pour fixer d’autres caractéristiques de chaque M.M.P.P.
de base que les caractéristiques des premier et second ordre de leurs processus de
comptage. Le processus résultant de la superposition de chacune de ces sources est
donc à d degrés de liberté, correspondant chacun au degré de liberté laissé par le
choix possible de chaque ri . Cela est exploité pour obtenir la bonne fonction d’autocorrélation des temps entre arrivées du trafic de la superposition des d sources.
Les mesures faites sur du trafic réel composé de paquets de tailles variables suggèrent
que les caractéristiques du second ordre du nombre de paquets arrivant par créneau
de temps présentent le même type que celles d’un processus asymptotiquement autosimilaire du second ordre. Supposons que le nombre de paquets arrivant par créneau
de temps soit asymptotiquement tel que COV(k) = ψcov k−β où ψcov est une mesure
absolue de variance (une constante positive), 0 ≤ β ≤ 1. Les mesures menées par
M. A et ses collègues sur du trafic dans un réseau local montrent que ce comportement asymptotique est très vite atteint, même pour de faibles valeurs de k. Les ri
sont donc déterminés de telle sorte qu’on ait
γ(k)
=
d
X
γi (k) ≃ ψcov k−β , 1 ≤ k ≤ 10n
(12.311)
i=1
où n représente le nombre d’échelles de temps à prendre en compte dans le modèle.
Un algorithme est proposé pour déterminer les paramètres du modèle. Il requiert finalement cinq données :
1) La moyenne λ∗ du trafic ;
2) la valeur ρ de la fonction d’autocorrélation au rang 1 ;
3) le paramètre de Hurst H = 1 − β/2 ;
4) le nombre de processus M.M.P.P. de base d ;
5) le nombre d’échelles de temps à prendre en compte.
La prise en compte de la variabilité du modèle de trafic sur plusieurs échelles de temps
est faite à travers le choix des constantes de temps c1i et c2i de chaque processus
M.M.P.P. de base. Celles-ci sont prises telles que c1i = c2i = a1−i c11 , i = 1, · · · , d, i.e.
les paramètres de modulation sont fixés logarithmiquement par rapport à un facteur a.
L’échelle de temps la plus petite qu’il faut prendre en compte est celle de l’ordre de la
transmission d’un paquet.
Un résumé de la procédure de détermination des paramètres est donné Fig. 12.6.
1ère étape : le paramètre logarithmique a est fixé à partir du nombre de processus
M.M.P.P. de base d et du nombre d’échelles de temps à prendre en compte n :
a = 10n/(d−1) , d > 1.
(12.312)
De la modélisation du trafic dans les réseaux de télécommunication
Figure 12.6 – Algorithme de détermination des paramètres
87
88
Les paramètres n et d doivent être tels que a ≥ 5 à cause d’une hypothèse fondamentale prise à la deuxième étape. Ceci permet finalement de trouver c1i = c2i ,i = 1, · · · , d.
2ème étape : cette étape permet de déterminer partiellement les intensités d’arrivées
λi1 , λi2 ,i = 1, · · · , d et requiert H, n, d et a. Sans perte de généralité, supposons
λi1 > λi2 . On peut remarquer à partir de la variance du processus de comptage et
la fonction d’autocovariance d’un processus M.M.P.P. de base que les taux d’arrivées
n’interviennent que dans k1i à travers la quantité (λ1i − λ2i )2 . Ceci n’est pas surprenant car il est toujours possible d’interpréter la superposition de i processus M.M.P.P.
à deux états comme étant la superposition de i processus I.P.P. et d’un processus de
Poisson. Dans notre cas, les processus I.P.P. ont pour taux d’arrivées λiIPP = λ1i − λ2i ,
P
i = 1, · · · , d et celui du processus de Poisson est λ p = di=1 λ2i .
À partir de cette interprétation, on détermine au cours de cette deuxième étape le
~ . En prenant
vecteur des λiIPP à une constante de normalisation près κ, i.e. ~λIPP = κφ
∆t = 1 dans la formule de l’autocovariance (12.306), et en supposant (c1i + c2i ) << 1,
la fonction d’autocovariance du ième I.P.P. est (où on utilise c1i = c2i )
γi (k)
≃
κ2 2 −((c1i +c2i )(k−1)∆t)
φe
.
4 i
(12.313)
Ce qui est très important dans cette partie de la procédure de détermination des paramètres, c’est que, pour tout k jusqu’à une certaine valeur telle que (c1i + c2i ) k ≃ 1,
la fonction d’autocovariance est à peu près constante. A partir d’un certain rang, ce
n’est plus vrai et elle devient extrêmement plus petite pour (c1i + c2i ) k ≥ 5. Puisque
les intensités de modulation ont été choisies logarithmiquement, on peut trouver les
tailles relatives des taux d’arrivées des processus M.M.P.P. de base en supposant que
le facteur a n’est pas trop petit.
Pour illustrer cette méthode, considérons un modèle résultant de la superposition de
trois I.P.P. où λ1IPP = 6, 0, c11 = c21 = 10−2 , λ2IPP = 6, 0, c12 = c22 = 10−4 et
λ3IPP = 6, 0, c13 = c23 = 10−6 . La Fig. 12.7, extraite de [1], présente l’allure des
fonctions d’autocorrélations des trois processus I.P.P. en fonction de k. Finalement,
seul le troisième processus I.P.P. contribue de manière significative à la corrélation
pour k de l’ordre de 106 , tandis que les deux autres y contribuent jusqu’à k = 104 et
k = 102 . Il en va bien sûr de même pour les autocovariance. Cette remarque permet
d’appliquer la méthode suivante.
Les φi sont obtenus en imposant en d différents points définis par (c1i + c2i ) k = 1 de
la fonction d’autocovariance une valeur voulue :
De la modélisation du trafic dans les réseaux de télécommunication
89
Figure 12.7 – Fonctions d’autocorrélation du nombre d’arrivées par unité de temps
– pour (c1d + c2d ) k = 1 :
d
κ2 X ³ ´2 −ad− j κ2
(φd )2 e−1 ;
φj e
≃
4 j=1
4
¡
¢
– pour c1(d−1) + c2(d−1) k = 1 :
d
κ2 X ³ ´2 −ad−1− j
ψcov a−(d−2)β =
φj e
4 j=1
ψcov a−(d−1)β
=
≃
κ2
κ2
−1
(φd )2 e−a + (φd−1 )2 e−1 ;
4
4
– ··· ;
– pour (c11 + c21 ) k = 1 :
d
κ2 X ³ ´2 −a−( j−1)
φj e
.
ψcov =
4 j=1
(12.314)
(12.315)
(12.316)
Les (φi )2 sont déduits itérativement de ce système d’équations. Comme nous ne sommes
intéressés que par les valeurs relatives, nous prenons (φd )2 = 1 dans la première équation, ce qui donne le rapport ψcov /κ2 . (φd−1 )2 est tiré de la deuxième équation, (φd−2 )2
90
de la troisième, et ainsi de suite. Parfois, certaines équations ne peuvent être vérifées.
Dans ce cas, il faut prendre φ j = 0.
3ème étape : elle consiste à déterminer la constante κ à partir du résultat de l’étape
précédente et l’intensité du processus de Poisson λP . Il faut pour cela les quantités ρ,
λ∗ , et les résultats des étapes précédentes. Pour que ρ puisse exister avec ce modèle, il
faut que

 d
X
´´
³
³
−2
−k
2


2i
2ρ  φi k2i k2i − 1 − e

i=1
>
d
X
i=1
´2
³
−2
1 − e−k2i ,
φ2i k2i
(12.317)
où ∆t = 1, η2 est une constante multiplicative de la fonction d’autocovariance de
~ et de taux de
la superposition des d I.P.P. de taux d’arrivées définis par le vecteur φ
modulation obtenus à l’étape 2, c’est-à-dire c1i = c2i = (k2i /2). En effet,
ρ
=
=
=
Pd
γi (1)
h i
i
i=1 V AR N∆t
µP
³
´2 ¶
η2 di=1 φ2i c1i c2i (c1i + c2i )−4 1 − e−(c1i +c2i )
³P
¡
¡
¢¢´
λ∗ + η2 di=1 2φ2i c1i c2i (c1i + c2i )−4 (c1i + c2i ) − 1 − e−(c1i +c2i )
µP
³
´2 ¶
−2
η2 di=1 φ2i k2i
1 − e−k2i
³P
(12.318)
¢¢´ .
¡
−2 ¡
4λ∗ + 2η2 di=1 φ2i k2i
k2i − 1 − e−k2i
Pd
i=1
Dans ce cas (si (12.317) est vérifiée), il faut diminuer c1i = c2i = (k2i /2) en les multipliant par un facteur compris entre 0 et 1 ou diminuer ρ. M. A et ses collègues
n’ont jamais eu ce problème en pratique. Le fait que cette difficulté semble surtout
théorique est illustrée par l’observation que pour les cas où k2i < 1 et ρ < 0, 5, cela ne
doit jamais arriver, quels que soient les valeurs des φi . Ce problème résolu, η s’obtient
par la formule
η
=
s
Pd
i=1
³
−2 ¡
φ2i k2i
4ρλ∗
¢
¡
¡
¢¢´ .
1 − e−k2i 2 − 2ρ k2i − 1 − e−k2i
(12.319)
P
P
Si λ∗ ≥ η di=1 φi c2i / (c1i + c2i ) = η di=1 (φi /2), il existe une solution réalisable. Dans
ce cas, κ = η et alors λiIPP = κφi . L’intensité du processus de Poisson est alors
1 X
= λ∗ − κ
φ j.
2 j=1
d
λP
(12.320)
De la modélisation du trafic dans les réseaux de télécommunication
91
P
Si λ∗ < η di=1 (φi /2), il n’y a pas de solution réalisable immédiatement. Une telle solution peut être construite à partir des formules (12.307), (12.308), (12.309) et (12.310)
en cherchant une superposition de débit résultant λ∗ , de même structure d’autocovariance que celle définie par η et φi et k2i , i = 1, · · · , d. En considérant ces formules, il
est évident qu’il y a plusieurs superpositions de d M.M.P.P. à deux états qui peuvent
convenir, mais nous n’en donnons ici qu’une seule.
³
´
On peut par exemple fixer les constantes k1i = η2 / (4k2i ) φ2i et k2i = c1i + c2i dans les
formules (12.304) et (12.305). Il faut alors trouver les valeurs de c1i et c2i qui donnent
une solution réalisable sous la contrainte k2i = c1i + c2i . Décidons que la probabilité
d’être dans l’état actif ("ON") est la même pour tout i, i.e. pon = c2i / (c1i + c2i ). En
ayant k1i fixé,
η2 2
φ
4 i
=
³
´2
c1i c2i ³ IPP ´2
λi
= pon (1 − pon ) λiIPP
2
(c1i + c2i )
(12.321)
p
pour tout i, ce qui donne λiIPP = ηφi (1/ (2pon )) pon / (1 − pon ). En prenant λP = 0,
p
P
P
λ∗ = Á di=1 pon λiIPP = di=1 (ηφi /2) pon / (1 − pon ), pon peut être déterminé : pon =
³
³ P
´´2
(2λ∗ )2 (2λ∗ )2 + η di=1 φi . Finalement,
³ P
´2
(2λ∗ )2 + η di=1 φi
= φi
P
4λ∗ di=1 φi
λiIPP
(12.322)
et donc,
κ
=
³
³ P
´´2
(2λ∗ )2 + η di=1 φi
P
4λ∗ di=1 φi
(12.323)
et les différents ci j sont donnés par
c1i
=
c2i
=
´2
³ P
η di=1 φi
³ P
´2 k2i
(2λ∗ )2 + η di=1 φi
(2λ∗ )2
³ P
´2 k2i .
(2λ∗ )2 + η di=1 φi
(12.324)
(12.325)
92
Il est possible qu’un nombre d0 , 0 ≤ d0 < d des φ j soit égal à 0 après l’exécution de
cette procédure. Cela arrive quand le paramètre de Hurst est assez grand, typiquement
H > 0, 8. Le nombre de processus M.M.P.P. à deux états réellement actifs est alors
d − d0 , et le modèle M.A.P. correspondant a alors 2d−d0 états. Or la procédure requiert
parmi ses paramètres un nombre d de processus de base qui sont supposés ne pas être
inactifs en permanence. On commence donc toujours la procédure avec d = d∗ . S’il
s’avère que d0 = 0, la procédure de détermination des paramètres est achevée en une
seule itération, en revanche, si d0 > 0, il faut incrémenter d et la réitérer, et ainsi de
suite jusqu’à ce que d − d0 = d∗ .
Pour des valeurs assez grandes de H (H > 0, 8), utiliser une méthode des moindres
carrés pour c1d et c2d peut aider à mieux approcher de ρk−β la fonction d’autocorrélation.
Figure 12.8 – Comparaison des fonctions d’autocorrélation du processus de comptage
pour les trafics modélisé et original
M. A et ses collègues ont appliqué ce modèle à un trafic dont les caractéristiques sont les suivantes :
De la modélisation du trafic dans les réseaux de télécommunication
Paramètres d’entrée
d=4
n=6
λ∗
H = 0, 90
ρ = 0, 40
source
IPP1
IPP2
IPP3
IPP4
Poisson
λiIPP
2,679
1,698
1,388
1, 234
93
c1i
c2i
4, 571.10−1 3, 429.10−1
1, 445.10−2 1, 084.10−2
4, 571.10−4 3, 429.10−4
4, 571.10−6 3, 429.10−6
λ p = 0, 0
Figure 12.9 – Fonction d’autocorrélation du processus de comptage pour p0ct.tL
La Fig. 12.8 représente la fonction d’autocorrélation du processus de comptage de
ce trafic pour les traces et pour le modèle. À partir d’un certain rang, la fonction
d’autocorrélation pour le modèle chute brutalement, tandis que celle du trafic original
reste hyperbolique. C’est un résultat typique des modèles pseudo-autosimilaires qui
simulent un comportement autosimilaire sur un certain nombre d’échelles de temps,
mais qui retrouvent leur comportement markovien, c’est-à-dire une autocorrélation
décroissant exponentiellement, à partir d’un certain temps.
MM. A et N ont aussi appliqué leur modélisation aux traces (fichier
"p0ct.tL") obtenues à Bellcore (cf. [16]). La Fig. 12.9 représente les fonctions d’autocorrélation du processus de comptage pour les trafics réels et modélisés.
94
Figure 12.10 – Probabilité que la file d’attente dépasse x, en fonction de x, pour p0ct.tL
Pour valider cela, les auteurs ont simulé une file d’attente avec le trafic modélisé en
entrée, et les traces originales et tracé la probabilité que la file d’attente dépasse une
certaine valeur x : cette courbe est représentée Fig. 12.10. La vitesse du serveur a été
fixée de telle sorte que la charge soit de 60%.
12.8. Conclusion
Les modèles de trafic ont fait l’objet de nombreuses recherches depuis une quinzaine d’années. Des mesures ont montré que le trafic dans les réseaux présentait des
caractéristiques propres aux objets autosimilaires. C’est pourquoi de nombreuses publications ont porté sur le trafic fractal. Cependant, les modèles markoviens peuvent
être adaptés judicieusement pour simuler le comportement de trafics autosimilaires
sur un certain nombre d’échelles de temps. Ces modèles paraissent particulièrement
adaptés à la simulation de réseaux. Dans la majorité des simulations, où l’on étudie
le comportement d’algorithmes, où l’on compare des mécanismes, il importe surtout
d’avoir un modèle de trafic qui soit une référence pour la comparaison, et dans ce
cas le trafic de Poisson, aussi simple soit-il, reste le plus adéquat. Lorsque les sources
de trafic doivent rendre compte de phénomènes plus complexes, les modèles de type
B.M.A.P. sont probablement les plus adaptés.
Chapitre 13
Bibliographie
[1] A.T. Andersen, B.F. Nielsen - A Markovian Approach for Modeling Packet Traffic with
Long-Range Dependence. IEEE Journal on selected areas in communications, vol. 16, n˚5,
juin 1998.
[2] S. Asmussen, G. Koole - Marked point processes as limits of Markovian arrival streams.
Jounal of Applied Probability, vol. 30, pp. 365-372, 1993.
[3] P. Baudracco, A.-L. Beylot, C. Fleury, S. Monnier, M. Becker - Performance Measurement
of a WEB server, Design of a First Model. Research in Official Statistics. Volume 1, number
1, 1998.
[4] M. Becker - Évaluation des performances des systèmes et réseaux. Polycopié de cours,
Institut National des Télécommunications, 1996.
[5] N.H. Bingham, C.M. Goldie, J.L. Teugels - Regular Variation. Cambridge, New-York,
Melburn : Cambridge Univ. Press, 1987.
[6] C. Blondia - A Discrete-Time Batch Markovian Arrival Process as B-ISDN Traffic Model.
Belgian Journal of Operations Research, Statistics and Computer Science, vol. 32, 1993.
[7] A. Erramilli, O. Narayan, W. Willinger - Experimental Queueing Analysis with LongRange Dependent Packet Traffic. IEEE/ACM Transaction on Networking, vol. 4, n˚2, april
1996.
[8] W. Fischer, K. Meier-Hellstern - The Markov-modulated Poisson process (MMPP) cookbook. Performance Evaluation 18 (1992) 149-171. North-Holland.
[9] W. Grassmann, M. Taksar, D. Heyman - Regenerative analysis and steady state distribution
for Markov chains. Operation Research, vol. 33, 1985, pp. 1107-1116.
[10] H. Heffes - A class of data traffic processes - Covariance function characterization and
related queueing results. Bell Syst. Tech. J., vol. 59, pp. 897-929, 1980.
[11] H. Heffes, D.M. Lucantoni - A Markov modulated characterization of packetized voice
and data traffic and related statistical multiplexer performance. IEEE Journal on selected
95
96
areas in communications, vol. sac-4, n˚6, september 1986.
[12] H. Hlavacs, G. Kotsis, C. Steinkellner - Traffic Source Modelling. Technical Report
n˚TR-99101. Institute of Applied Computer Science and Information Systems, University
of Vienna.
[13] A. Hordijk, R. Schassenberger - Weak convergence for generalized semi-Markov processes. Stochastic Processes and their Applications, vol. 12, n˚3, pp. 271-291, 1982.
[14] G. Kemeny, J. Snell - Finite Markov chains. Van Nostrand-Reinhold, New-York, 1960.
[15] A.N. Kolmogorov - Wienersche Spiralen und einige andere interessante Kurven im Hilbertschen Raum (en russe). Comptes Rendus (Doklady) Acad. Sci. USSR, 26 :115–118,
1940.
[16] E. Leland, W. Willinger, D.V. Wilson - On the self-similar nature of Ethernet traffic.
Computer Communication Review, 23 (1993), 183-193.
[17] E. Leland, W. Willinger, D.V. Wilson - On the self-similar nature of Ethernet traffic.
IEEE/ACM Transactions in Networking, 2 (1994), 1-15. Version étendue de la publication
précédente.
[18] D.M. Lucantoni - New results on the single server queue with a batch markovian arrival
process. Communications in statistics. Stochastic models ISSN 0992-0287, vol. 7, n˚1, pp.
1-46, 1991.
[19] B.B. Mandelbrot - Long-run linearity, locally Gaussian processes, H-spectra, and infinite
variancies. Int. Econ. Rev., vol. 10, pp. 82-113, 1969.
[20] K. Meier-Hellstern - The Analysis of a Queue Arising in Overflow Models. IEEE Trans.
on Communications, vol. 37, n˚4, April 1989.
[21] J. K.-Y. Ng, S. Song, B.H. Tang - Some New Findings on the Self-Similarity Property in
Communications Networks and on Statistical End-to-end Delay Garantee. Techical Report
COMP-03-006, Hong Kong Baptist University, February 21, 2003, Hong Kong.
[22] M.F. Neuts - Models Based on the Markovian Arrival Process. IEICE Trans. Commun.,
vol. E75-B, n˚12, pp. 1255-1265, décembre 1992.
[23] C. Palm - Intensitätsschwankungen in Fernsprechverkehr. Ericsson Technics, 44, pp.1-89,
1943.
[24] K. Park, W. Willinger (Ed.) - Self-Similar Network Traffic and Performance Evaluation.
John Wiley & Son, Inc., 2000.
[25] S. Resnick, G. Samorodnitsky - Performance Decay in a Single Server Exponential
Queueing Model with Long Range Dependence. Oper. Res. 45 (1997), pp. 235-243.
[26] S. Robert, J.-Y. Le Boudec - New models for pseudo-self-similar traffics. Performance
Evaluation, 30, 1997, pp. 57-68.
[27] J. Roberts, U. Mocci, J. Virtamo (Eds.) - Broadband Network Teletraffic. Final Report of
Action, COST 242. Springer. Lecture Notes in Computer Science, vol. 1155. 1996.
[28] S. M. Ross - Introduction to probability models. 6ème édition, Academic Press, Londres,
1997.
Bibliographie
97
[29] W.L. Smith - Regenerative stochastic processes. In Proc. Roy. Soc. Ser. A, 1955, n˚232,
pp. 6-31.
[30] B. Tsybakov, N. D. Georganas - Self-similar processes in communications networks,
IEEE Trans. Inform. Theory, vol. 44, pp. 713-1725, May 1998.
[31] B. Tsybakov, N. D. Georganas - On Self-similar Traffic in ATM Queues : Definitions,
Overflow Probability Bound, and Cell Delay Distribution, IEEE Trans. Inform. Theory,
vol. 5, n˚3, pp. 397-409, June 1997.
[32] S. Vaton - Near completely decomposable Markov models of traffic. Eighth IFIP Workshop on Performance on Modelling and Evaluation of ATM and IP Networks, Bradford,
UK, july 2000.
[33] S. Vaton - ’Fractal’ versus ’Poisson’ models of traffic. Eighth IFIP Workshop on Performance Modelling and Evaluation of ATM and IP Networks, Bradford, UK, july 2000.
[34] J. Virtamo - Queueing Theory. S-38.143. Transparents de cours, 2003.
[35] W. Willinger, M. Taqqu, A. Erramilli - A Bibliographical Guide to Self-Similar Traffic
and Performance Modeling for Modern High-Speed Networks. In Stochastic Networks :
Theory and Applications, F. P. Kelly, S. Zachary and I. Ziedins editors, Clarendon Press
(Oxford University Press), Oxford, pages 339-366, 1996.
[36] W. Willinger, M. Taqqu, R. Sherman, D.V. Wilson - Self-Similarity Through High Variability : Statistical Analysis of Ethernet LAN Traffic at the Source Level. IEEE/ACM Transactions on Networking, Vol. 5, n˚1, 1997, 71-86.
Téléchargement