ELE111-Télétrafic

publicité
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
Chaîne de Markov - Télétrafic - Files d'attente
Version 5.0
Michel Terré
Electronique ELE111
[email protected]
Electronique B11
1
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
1 Rappels de probabilité
Le dimensionnement d'un réseau de Télécommunications demande quelques calculs de probabilités élémentaires. Il
n'est pas nécessaire de développer une théorie très complète pour suivre ces calculs. Il est cependant nécessaire de
savoir calculer quelques probabilités conditionnelles et quelques moments statistiques. Ce paragraphe rappelle les
notions de probabilité nécessaires pour ce cours. Les lecteurs connaissant bien le domaine peuvent donc passer
directement au paragraphe 2.
1.1 Evénements et probabilité
Considérons le cas d'une partie de roulette à 6 coups. A chaque tentative il y a 6 sorties possibles. On définit ainsi
l'espace des résultats possibles :
S = {1 2 3 4 5 6 }
On peut alors définir un événement comme un sous ensemble de S. Ainsi l'événement A = {2 4} correspond aux
sorties 2 ou 4 de la roulette. On peut alors définir l'événement complémentaire A = {1 3 5 6 } .
Deux événements sont dits exclusifs si ils n'ont aucun point commun. C'est à dire si la réalisation d'un des événements
rend l'autre impossible. L'événement B = {1 3 6 } est ainsi exclusif par rapport à l'événement A. De la même manière,
A et A sont exclusifs.
On définit la somme ou l'union de deux événements comme l'ensemble des valeurs des deux événements. Ainsi en
introduisant C = {1 2 3} , l'événement D = B ∪ C représente l'ensemble les valeurs D = {1 2 3 6 } .
On définit l'intersection de deux événements comme l'ensemble des valeurs qui sont communes aux deux événements.
Ainsi E = B ∩ C est constitué par l'ensemble des valeurs E = {1 3} .
Une mesure de probabilité P ou plus simplement une probabilité est une application qui associe à chaque élément de S
un réel compris entre 0 et 1.
P : S → [0,1]
et qui vérifie les propriété suivantes :
A chaque événement A appartenant à l'ensemble S on associe sa probabilité P ( A) . Cette probabilité est
positive est inférieure ou égale à 1.
0 ≤ P ( A) ≤ 1
P (∅ ) = 0 et P (S ) = 1
Pour tous les évènements A et B tels que A ∩ B = ∅ alors P( A ∪ B ) = P( A) + P (B )
En déduit alors :
( )
P A = 1 − P ( A)
Pour deux évènements quelconques :
P ( A ∪ B ) = P ( A ) + P (B ) − P ( A ∩ B )
Electronique B11
2
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
Enfin, si l'on considère une famille d'événements exclusifs Ai alors :
Ai ∩ A j = ∅ ceci ∀i ≠ j
et :
P ∪ Ai  = ∑ P( Ai )
i
 i
Exemple :
Pour le cas de la roulette considérée chaque valeur a une probabilité
1
2
de "sortir". La probabilité de A est P ( A) =
6
6
et la probabilité de A ∪ B , A et B étant exclusifs est donnée par :
P( A ∪ B ) =
2 3 5
+ =
6 6 6
Considérons maintenant des ensembles quelconques, c'est à dire pas obligatoirement exclusifs, et plaçons nous dans le
cas de deux événements Ai et B j .
Dans le cas général on écrit :
P( Ai , B j ) = P( Ai ∩ B j )
P( Ai ∪ B j ) = P( Ai ) + P( B j ) − P( Ai ∩ B j )
(∪ = ou , ∩ = et )
1.1.1
Probabilités conditionnelles
On définit aussi les probabilités conditionnelles. C'est à dire la probabilité d'avoir un événement Ai sachant qu'un autre
événement B j est vérifié.
Cette probabilité conditionnelle s'écrit P ( Ai B j ) , et elle s'obtient au moyen de l'équation :
P ( Ai B j ) =
P ( Ai , B j )
P( B j )
On peut écrire l'équation dans l'autre sens, on obtient alors :
P( B j Ai ) =
P ( Ai , B j )
P( Ai )
Exemple :
En reprenant les cas de la roulette évoquée précédemment, il vient :
2
2
P (C B) = 6 =
3 3
6
Electronique B11
3
Cnam
1.1.2
INTRODUCTION AUX TELECOMMUNICATIONS
Indépendance
L'indépendance statistique de deux événements signifie que la probabilité d'un des deux événements n'est pas influencée
par la réalisation ou non réalisation de l'autre événement. Dans le cas de deux événements indépendants Ai et B j , on a
donc :
P ( Ai B j ) = P ( Ai )
On en déduit alors au moyen des probabilités conditionnelles :
P( Ai , B j ) = P ( Ai ) P( B j )
1.2 Variable Aléatoire, densité et fonction de répartition
1.2.1
Variable aléatoire
Si l'on considère un espace S et un élément s ∈ S , on peut définir une fonction X (s ) dont le domaine est S et qui est à
valeurs réelles. La fonction X (s ) est appelée une variable aléatoire.
Exemple :
Considérons une partie de pile ou face. L'espace S contient deux points P(ile) et F(ace).
S = {P F }
On peut alors définir une fonction X (s ) de la manière suivante :
1 ( s = P )
X ( s) = 
− 1 ( s = F )
Les exemples présentés jusqu'alors ont toujours considéré un ensemble S comportant un nombre fini de valeurs. On
parle alors de variables aléatoires discrètes. Cependant l'ensemble S peut très bien être constitué de valeurs continues.
On parle alors, pour X ( s ) , de variable aléatoire continue.
1.2.2
Fonction de répartition
On considère alors des événements du type {X ≤ x} , expression dans laquelle x est une valeur réelle entre [−∞ +∞] .
La probabilité de cet événement s'écrit alors :
F ( x) = P( X ≤ x)
On parle aussi de fonction de répartition pour la fonction F ( x )
1.2.3
Densité de probabilité
On définit la densité de probabilité p ( x) de la variable aléatoire X comme la dérivée de la fonction de répartition F ( x )
par rapport à x.
p( x) =
dF ( x )
x ∈ [−∞ +∞]
dx
ou encore
F ( x) =
x
∫ p(u )du
x ∈ [−∞ +∞]
−∞
Lorsque l'on est confronté au problème d'estimer la probabilité pour qu'une variable aléatoire X soit comprise dans un
intervalle (x1 , x 2 ) avec x 2 > x1 , on considère les deux événements suivants :
Electronique B11
4
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
{X ≤ x 2 } et {X ≤ x1 }
On peut alors décomposer l'événement {X ≤ x 2 } en deux événement exclusifs {X ≤ x1 } et {x1 < X ≤ x 2 }
On a alors l'équation de probabilité suivante :
P ( X ≤ x 2 ) = P ( X ≤ x 1 ) + P ( x1 < X ≤ x 2 )
D'où :
F ( x 2 ) = F ( x1 ) + P( x1 < X ≤ x 2 )
P( x1 < X ≤ x 2 ) = F ( x 2 ) − F ( x1 )
x2
P( x1 < X ≤ x 2 ) =
∫ p( x)dx
x1
1.3 Moments statistiques
Si l'on considère une variable aléatoire de densité de probabilité p(x) , on définit la moyenne ou l'espérance de X de la
manière suivante :
E(X ) = m X =
+∞
∫ xp( x)dx
−∞
On définit la variance de X par :
Var ( X ) = σ 2X = E ( X − m X
)2
=
+∞
∫ (x − m X )
2
p ( x)dx
−∞
( )
En développant l'expression précédente, on montre que σ 2X = E X 2 − m 2X
On démontre facilement les propriétés suivantes :
Soit X i un ensemble de variables aléatoires, alors :


E ∑ X i  = ∑ E( X i )


 i
 i
En introduisant un coefficient scalaire α , on a :
E (αX i ) = αE ( X i )
Var (αX i ) = α 2Var ( X i )
Dans le cas de variables aléatoire X i indépendantes :


Var  ∑ X i  = ∑ Var ( X i )


 i
 i
1.4 Quelque lois usuelles
1.4.1
Variable aléatoire uniforme
Une variable aléatoire uniformément répartie entre [0 + a ] est une variable aléatoire continue à valeurs dans [0 + a ]
dont la densité de probabilité est de la forme :
Electronique B11
5
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
1
, x ∈ [0 + a ]
a
p( x) = 0 , x ∉ [0 + a ]
p( x) =
Le calcul de l'espérance donne :
+∞
1
E ( X ) = ∫ xp( x)dx =
a
−∞
+a
1  x2 
xdx
=
 
∫
a  2 
0
+a
a
2
=
0
Le calcul de la variance donne :
Var ( X ) =
+∞
2
∫ x p( x)dx =
−∞
1.4.2
1
a
+a
2
∫ x dx =
0
1  x3 
 
a  3 
+a
=
0
a2
3
Variable aléatoire gaussienne
Une variable aléatoire gaussienne est une variable aléatoire continue prenant valeur dans [−∞ +∞] et dont la densité
de probabilité est de la forme :
−( x − m X )2
p( x) =
1
e
2 σ 2X
2πσ 2X
, x ∈ [− ∞ + ∞ ]
La densité gaussienne est exprimée au moyen de la moyenne m X et de la variance σ 2X . La loi est dite centrée si la
moyenne est nulle et réduite si la variance est égale à 1.
1.4.3
Variable aléatoire exponentielle
Une variable aléatoire exponentielle est une variable aléatoire continue prenant valeur dans [0 +∞] et dont la densité
de probabilité est de la forme :
p( x) = 0 , x < 0
p ( x ) = λ e − λx , x ≥ 0
Le calcul de la moyenne et de la variance sont présentés dans le cours sur les modèles de trafic.
E(X ) =
1
λ
( )
2
E X2 =
λ2
( )
Var ( X ) = E X 2 − E ( X )2 =
1.4.4
1
λ2
Variable aléatoire binomiale
Une variable aléatoire binomiale est une variable aléatoire discrète prenant valeur dans {0 1} définie par les
probabilités suivantes :
P( X = 0) = 1 − p
P( X = 1) = p
Le calcul de l'espérance donne :
Electronique B11
6
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
E ( X ) = 0.(1 − p ) + 1. p = p
Var ( X ) = (0 − p )2 .(1 − p ) + (1 − p )2 . p = p − p 2
2 Chaîne de Markov
Un processus stochastique {X (t )}t∈T est une fonction du temps dont la valeur à chaque instant dépend de l'issue d'une
expérience aléatoire. A chaque instant t ∈ T , X (t ) est donc une variable aléatoire.
Si l'on considère un temps discret on note alors {X n }n∈N un processus stochastique à temps discret. Si l'on suppose
enfin que les variables aléatoires X n ne peuvent prendre qu'un ensemble discret de valeurs, on parlera de processus à
temps discret et à espace d'état discret. Ce paragraphe va aborder les processus à temps discret et à espace d'état discret.
Le chapitre sur le télétrafic abordera pour sa part les processus à temps continu et à espace d'état discret.
2.1 Définition d'une chaîne de Markov
{X n }n∈N
est une chaîne de Markov à temps discret si et seulement si :
P (X n = j X n −1 = i n −1 , X n − 2 = i n − 2 ,..., X 0 = i0 ) = P (X n = j X n −1 = i n −1 )
La probabilité pour que la chaîne soit dans un certain état à la n ième étape du processus ne dépend donc que de l'état du
processus à l'étape précédente (la n − 1ième ) et pas des états dans lequel il se trouvait aux étapes antérieures.
On définira une chaîne de Markov comme homogène lorsque cette probabilité ne dépend pas de n. On peut alors définir
la probabilité de transition d'un état i vers un état j notée p ij :
p ij = P (X n = j X n −1 = i ) ∀n ∈ N
En introduisant l'ensemble des états possibles noté E, on a :
∑ pij
=1
j∈E
[ ]
On définit alors la matrice de transition P = p ij
i , j∈E
 p11

p
P =  21
M

 M

Electronique B11
p12
p 22
K
p 23
p 32
O
K




O
7
Cnam
2.1.1
INTRODUCTION AUX TELECOMMUNICATIONS
Représentation sous forme de graphes
Les chaînes de Markov peuvent être représentées graphiquement sous la forme d'un graphe orienté. On associe alors un
nœud à chaque état et un arc orienté à la probabilité de transition.
Exemple
p12
p23
2
p31
1
p33
3
p14
p41
4
Dans cet exemple on a :
L'ensemble des état est E = {1,2,3,4}
L'analyse du graphe permet de déterminer immédiatement : p 23 = p 41 = 1
Ainsi que : p12 + p14 = 1 et p 31 + p 33 = 1
La matrice de transition s'écrit :
p12
0
p14 
 0


0
0
1
0 

P=
p
0
p 33
0 
 31

 1
0
0
0 

2.1.2
Régime transitoire
L'analyse du régime transitoire d'une chaîne de Markov consiste à déterminer le vecteur p(n) des probabilités d'être
dans un état j à l'étape n :
[
p( n ) = p1 ( n )
p2 ( n ) K
]
p Card ( E ) ( n )
Ce vecteur de probabilités dépend :
de la matrice de transition P
du vecteur de probabilités initiales p(0 )
Pour étudier ce vecteur de probabilité on peut faire les remarques suivantes :
p j ( n ) = P[ X n = j ]
or
P[X n = j ] =
∑ P[X n =
i∈E
]
j X n −1 = i . P[X n −1 = i ]
ce qui s'écrit encore :
p j ( n) =
∑ p ij . pi (n − 1)
i∈E
ce qui peut s'écrire matriciellement :
p(n) = p(n − 1).P
Electronique B11
8
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
En utilisant n fois cette expression, il vient :
p(n) = p (0).P n
On peut aussi introduire la probabilité de transition de l'état i à l'état j en m étapes, notée p ij( m) :
[
]
p ij( m) = P X n + m = j X n = i ∀n ∈ N
2.1.3
Classification des états
Une chaîne de Markov est dite irréductible si et seulement si de tout état i on peut atteindre tout état j en un nombre fini
d'étapes :
∀i, j ∈ E , ∃m > 1 / p ij( m) ≠ 0
Une chaîne de Markov est dite absorbante si il existe une sous chaîne d'états dont on ne peut plus ressortir. Toute chaîne
non, irréductible possède donc au moins une sous chaîne absorbante.
La chaîne suivante possède une la chaîne absorbante {4,5} :
p23
2
p12
p31
1
p33
3
p14
p45
Sous chaîne
absorbante
4
5
p54
Un état j est périodique si on ne peut y revenir qu'après un nombre d'étapes multiple de k > 1 :
∃k > 1 / p (jjm) = 0 pour m non multiple de k
La période d'une chaîne de Markov est le PGCD de la période de chacun de ses états. Une chaîne de Markov est dite
périodique si sa période est supérieure à 1. Dans le cas contraire, elle est dite apériodique.
2.1.4
Quelques probabilités
On introduit la probabilité f jj( n ) qui est la probabilité de revenir à l'état j , n étapes après l'avoir quitté. La probabilité
f jj de revenir en j après l'avoir quitté s'écrit alors :
f jj =
∞
∑ f jj
n =1
On peut alors introduire le temps moyen de retour à l'état j , M
Electronique B11
(n)
j
:
9
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
∞
∑ n. f jj
Mj =
On introduit la probabilité
f ij( n )
( n)
n =1
qui est la probabilité d'aller de l'état i à l'état j en exactement n étapes (s'en repasser de
manière intermédiaire par j).
On a alors de manière immédiate :
 f (1) = p
ij
 ij
 ( n)
( n −1)
,n≥2
 f ij = ∑ p ik f kj
k≠ j

On introduit enfin la probabilité f ij d'aller de l'état i à l'état j en un nombre quelconque d'étapes :
f ij =
∞
∑ f ij
( n)
n =1
En utilisant les équations précédentes, il vient :
(1)
f ij = f ij
f ij = p ij +
f ij = p ij +
∞
∑ f ij
( n)
n=2
∞
( n −1)
∑ ∑ pik f kj
n = 2k ≠ j
∑ p ik
k≠ j
f ij = p ij +
2.1.5
+
∞
∑ f kj(n−1)
n=2
∑ pik f kj
k≠ j
Régime permanent
L’analyse du régime permanent consiste à s’intéresser à la limite, lorsque n tend vers l’infini du vecteur des probabilités
p(n) . Cette limite existe-t-elle et comment la calculer ?
Pour répondre à cette question, il faut calculer le vecteur p(n) = p (0) P n et faire tendre n vers l’infini.
Pour calculer P n , il peut être avantageux de diagonaliser la matrice P :
P = UDU −1
expression dans laquelle U représente la matrice des vecteurs propres de P et D la matrice diagonale des valeurs
propres associées.
Il est alors aisé d’obtenir :
P n = UD nU −1
Le régime stationnaire existe si lim p(0 ).UD nU −1 existe.
n →∞
On peut montrer (la démonstration n’est pas présentée dans ce polycopié), que pour une chaîne de Markov irréductible
et apériodique, le vecteur p des probabilités limites p j = lim p j (n) existe toujours et est indépendant du vecteur des
n →∞
probabilités initiales p(0 )
Electronique B11
10
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
2.2 Récapitulatif
p ij probabilité de transition de l'état i à l'état j.
[ ]
P = p ij matrice des probabilités transition.
p(n) vecteur de probabilités d'états après n étapes.
p(0 ) vecteur de probabilités d'état à l'origine.
p(n) = p(0 ).P n
p ij(n) probabilité d'aller de l'état i à l'état j en n étapes.
f jj(n) probabilité de revenir en j, n étapes après l'avoir quitté
M j temps moyen de retour en j
f ij(n) probabilité d'aller de i à j, en exactement n étapes, c'est à dire s'en repasser de manière intermédiaire par j.
f ij probabilité d'aller de l'état i à l'état j en un nombre quelconque d'étapes :
3 Télétrafic
Ce chapitre présente les principaux résultats qui permettent de dimensionner les équipements d'un réseau de
Télécommunications. D'un point de vue pratique, on imagine bien que, lorsqu'un central téléphonique (commutateur
local CL) regroupe les lignes d'un ensemble d'immeubles dans une ville, ce central ne possède pas autant de lignes
allant vers le réseau que de lignes allant vers les différents particuliers qu'il dessert.
Central Téléphonique
M lignes
N<M lignes
On peut donc légitiment se demander de combien de lignes on a besoin pour desservir tous ces abonnés. On peut
intuitivement prévoir que ce nombre de lignes va étroitement dépendre du nombre d'abonné mais aussi du taux
d'occupation de leurs lignes téléphonique. On peut donc définir pour chaque usager ce taux d'occupation de sa ligne
téléphonique. En introduisant η pour représenter ce taux, on peut le définir de la manière suivante :
η=
N a × Da
24 × 3600
Dans cette expression N a représente le nombre d'appels passés ou reçus par jour, D a représente la durée moyenne
d'un appel en secondes. Enfin 24 × 3600 représente la durée d'une journée en secondes. On définit ainsi l'occupation de
sa ligne par l'abonné. L'unité retenue pour η est l'Erlang qui est noté E. et η représente le trafic de l'usager
Ainsi un trafic de 1 Erlang (1 E) correspond à une ligne de téléphone occupée 24 heures sur 24. On considère en général
que les usagers résidentiels d'un réseau téléphonique ont un trafic d'environ 0.05 E. Soit donc une occupation de leur
ligne téléphonique pendant 5 % de la journée, soit environ 1h12' par jour.
Pour dimensionner son réseau, l'opérateur va donc devoir calculer le nombre de ressources à mettre en œuvre pour
qu'avec une probabilité extrêmement proche de 1, un usager qui décroche son téléphone puisse disposer d'un circuit.
Pour cela il va falloir développer quelques formules de probabilité de blocage. Ces formules vont demander une
Electronique B11
11
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
modélisation statistique des instants de début et de fin d'appels ainsi que des durées de ces appels. Les paragraphes qui
suivent vont donc introduire les lois de probabilités utilisées pour ces dimensionnements.
3.1 Loi de probabilité de modélisation des instants d'arrivée d'appel
Considérons des appels qui débuteraient de manière aléatoire. Prenons ensuite un intervalle de temps t et divisons cet
intervalle en n sous intervalles de durée
t
.
n
t
n
t
On choisit n suffisamment grand pour que les conditions suivantes soient respectées :
t
n
-
Une seule arrivée d'appel peut survenir dans un intervalle
-
Les instants d'arrivée d'appels sont indépendants les uns des autres
-
La probabilité qu'un appel arrive dans un sous intervalle est proportionnelle à la durée du sous intervalle.
On écrit alors
p1 (1) =
λt
n
Dans cette expression, p1 (1) représente la probabilité d'arrivée d'un appel dans un sous intervalle. Le terme λ
représente le coefficient de proportionnalité entre la probabilité et la durée
t
du sous intervalle.
n
L'hypothèse de départ consistant à considérer comme nulle la probabilité d'avoir plusieurs appels dans un sous intervalle
s'écrit alors :
p 2 (1) + p 3 (1) + ... + p n (1) + ... =
+∞
∑ p k (1) = 0
k =2
La probabilité de n'avoir aucun appel durant un sous intervalle de temps
p0 ( 1 ) = 1 −
t
s'écrit donc :
n
+∞
∑ pk ( 1 )
k =1
En développant on obtient :
p 0 ( 1 ) = 1 − p1 ( 1 ) −
+∞
∑ pk ( 1 )
k =2
et en utilisant la propriété énoncée juste au dessus :
p0 ( 1 ) = 1 − p1 ( 1 )
La probabilité d'avoir k arrivées d'appels durant n intervalles de temps s'obtient alors en considérant le nombre de
manières de choisir k intervalles parmi n. Pour chacune de ces solutions on aura k intervalles avec une arrivée d'appel et
Electronique B11
12
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
n − k intervalles avec aucune arrivée d'appel. La probabilité d'un de ces cas sera donc égale à p1 (1) k . p0 (1) n − k . La
probabilité globale s'obtiendra en sommant les probabilités de tous les cas. On obtiendra finalement :
p k (n) = C nk p1 (1) k . p0 (1) n − k
Ou encore, en remplaçant les probabilités par leurs valeurs en fonction de λ , t et n :
k
 λ t   λt 
p k (n) = C nk    1 − 
n
 n 
(rappel : C nk =
n−k
n!
)
k! (n − k ) !
La limite de la probabilité p k (n) lorsque n tend vers l'infini va être égale à la probabilité d'avoir k arrivées d'appel
durant un intervalle de temps t. On note p k cette probabilité :
p k = lim p k (n)
n →∞
k
 λt   λ t 
En reprenant alors les différents termes de l'expression de p k (n) = C nk    1 − 
n
 n 
n−k
et en faisant tendre n vers
l'infini, il vient :
 λt 
1 − 
n

n−k
=e
(n − k )Ln 1− λt 

n 
≈ e
(n− k ) − λt 

n
n →∞
=e
k
− λt + λt
n
≈ e − λt
n →∞
(λt )k = (λt )k n (n − 1)(n − 2 )K(n − k + 1) ≈ (λt )k
n!
 λt 
C nk   =
k ! (n − k ) ! n k
k!
n → ∞ k!
n
nk
k
d'où :
pk =
(λt )k
k!
e − λt
Cette formule extrêmement importante représente la probabilité d'observer k arrivées d'appels dans un intervalle de
durée t. Il s'agit d'une distribution de Poisson. Le paramètre λ est le taux moyen d'arrivée d'appels. Typiquement il
s'agira d'un nombre moyen d'appels par secondes. On peut vérifier que ce paramètre représente bien le nombre moyen
d'appels durant une durée t. En effet, pour obtenir le nombre moyen, ayant la distribution de probabilité, il faut calculer
l'espérance statistique : E [k ] . On rappelle que l'espérance, dans le cas d'une loi discrète (c'est à dire pour une variable ne
prenant que des valeurs entières, comme c'est le cas ici pour le nombre d'appels arrivant durant un intervalle t), s'écrit :
E [k ] =
+∞
∑ k. p k
k =0
En reprenant alors l'expression de p k , il vient :
E [k ] =
Electronique B11
+∞
(λt )k
k =0
k!
∑ k.
e − λt
13
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
+∞
E [k ] = λt ∑
(λt )k −1 .e −λt
k =1 ( k
− 1)!
En reconnaissant le développement de e λt , il vient :
E [k ] = λt.e λt .e −λt = λt
La variance s'exprime de la manière suivante :
[ ]
Var (k ) = E k 2 − (E [k ])2 =
+∞
(λt )k
k =0
k!
∑k2
e −λt − (λt )2
+ ∞ (k − 1 + 1)(λt )k −1 

e −λt − (λt )2
Var (k ) =  (λt ) ∑


(
k
−
1
)!
k =1


 +∞ k (λt )k +∞ (λt )k
Var (k ) = (λt ) ∑
+∑

k =0 k!
 k =0 k!
 − λt
e
− (λt )2


+∞ (λt )k
k (λt )k −λt
e
+ (λt ) ∑
e −λt − (λt )2
k
!
k
!
k =0
k =0
+∞
Var (k ) = (λt ) ∑
Var (k ) = (λt )2 + (λt ) − (λt )2
Var (k ) = λt
Temps moyen entre appels
On introduit maintenant la variable aléatoire τ représentant le temps séparant deux arrivées d'appels.
τ1
τ2
τ3
temps
arrivée
d'appel
arrivée
d'appel
arrivée
d'appel
arrivée
d'appel
On introduit la probabilité A(t ) qui est la probabilité que le temps τ soit inférieur ou égal à une valeur t :
A(t ) = Prob(τ ≤ t )
On a donc :
A(t ) = 1 − Prob(τ > t )
Or Prob(τ > t ) représente la probabilité qu'il n'y ait aucune arrivée d'appels durant un temps t. Cette probabilité a
justement été établie au paragraphe précédent :
Prob(τ > t ) = p 0
Prob(τ > t ) = e −λt
On en déduit donc :
A(t ) = 1 − e −λt
Electronique B11
14
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
On peut aussi introduire la densité de probabilité de la variable aléatoire τ . On rappelle que la densité s'obtient
simplement en dérivant la probabilité par rapport à t. On obtient ainsi :
∂A(t )
∂t
a(t ) =
d'où :
a(t ) = λe −λt
Remarque : On rencontre plus souvent le calcul inverse, c'est à dire compte tenu d'une densité de probabilité a (t ) ,
t
A(t ) = ∫ a (u )du . On part de 0 car il s'agit d'une durée entre deux appels. On peut vérifier que l'intégrale donne alors
0
[
]
t
A(t ) = − e −λu 0 = 1 − e −λt
L'expression de la densité de probabilité permet de calculer la durée moyenne τ = E [τ] entre deux arrivées d'appel :
E [τ] =
+∞
∫ t.a(t )dt
0
E [τ] =
+∞
∫ λte
− λt
dt
0
En intégrant par partie, il vient :
+∞
 − 1 − λt 
E [τ] = λt.
e 
λ

0
+
+∞
∫
0
λ.
− 1 − λt
e dt
λ
D'où :
E [τ] =
1
λ
On obtient donc que, pour un taux d'arrivée d'appels de λ appels par secondes, le temps moyen entre appel est égal à
1
λ
Absence de mémoire du processus d'arrivée d'appels
On peut remarquer que, pour une loi exponentielle négative, le nombre d'appels qui ont pu arriver jusqu'à un temps t 0
n'a pas d'influence sur le nombre d'appels qui vont arriver après t 0
Supposons qu'aucun appel ne soit arrivé jusqu'à un temps t 0 et calculons la probabilité qu'un appel arrive durant une
durée t après le temps t 0 . On doit donc calculer la probabilité d'avoir une durée entre deux appels inférieure à t + t 0
tout en étant supérieure à t 0 . Cette probabilité s'écrit : prob(τ ≤ t + t 0 τ > t 0 ) . En utilisant la formule de Bayes sur les
probabilités conditionnelles (P( A B) P( A) = P( A et B ) ) , il vient :
prob(τ ≤ t + t 0 τ > t 0 ) =
prob(t 0 < τ ≤ t + t 0 )
prob(τ > t 0 )
Cette probabilité peut encore s'écrire
Electronique B11
15
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
prob(τ ≤ t + t 0 τ > t 0 ) =
prob(τ ≤ t + t 0 ) − prob(τ ≤ t 0 )
prob(τ > t 0 )
prob(τ ≤ t + t 0 τ > t 0 ) =
prob(τ ≤ t + t 0 ) − prob(τ ≤ t 0 )
1 - prob(τ ≤ t 0 )
En reprenant les expressions des différentes probabilités :
prob(τ ≤ t + t 0 τ > t 0 ) =
1 − e −λ (t +t0 ) − 1 + e −λt0
1 - 1 + e -λt0
D'où finalement :
prob(τ ≤ t + t 0 τ > t 0 ) = 1 − e −λt
On voit donc que la probabilité d'apparition d'un appel durant un temps t après une durée t 0 pendant laquelle aucun
appel n'est arrivé est la même que la probabilité d'apparition d'un appel pendant une durée t, indépendamment de ce qui
a pu arriver avant. On considère donc que la densité exponentielle négative est sans mémoire.
3.2 Loi de probabilité de modélisation des durées d'appels
Pour étudier les lois de probabilité qui modélisent les durées des appels on procède comme précédemment. On
considère donc un intervalle de temps de durée t que l'on décompose en n sous intervalles de durée
t
. On choisit n de
n
telle sorte que les hypothèses suivantes restent justifiées :
-
La probabilité qu'un appel se termine durant un sous intervalle est proportionnelle à la durée du sous intervalle. On
notera
-
µt
cette probabilité, expression dans laquelle µ représente le coefficient de proportionnalité.
n
La probabilité qu'un appel se termine durant un sous intervalle est indépendante du sous intervalle considéré
On introduit alors une variable aléatoire θ représentant la durée d'un appel.
On introduit alors la probabilité H (t ) que la durée d'un appel soit inférieure ou égale à t.
H (t ) = Prob(θ ≤ t )
La probabilité qu'un appel ayant débuté à t = 0 ne se termine pas avant t s'écrit alors :
Prob(θ > t ) = 1 − H (t )
cette probabilité est égale à la probabilité que l'appel ne se termine dans aucun des n sous intervalles de durée
t

1 − H (t ) =  1 − µ 
n

t
.
n
n
En faisant alors tendre n vers l'infini, on obtient :
t

1 − H (t ) = lim  1 − µ 
n
n →∞ 
1 − H (t ) = lim
n →∞
t

n.Ln 1−µ 
n


e
n
≈ lim
n→∞
 t
n. −µ 
e  n
D'où
1 − H (t ) = e −µt
Electronique B11
16
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
On obtient donc l'expression de la probabilité qu'un appel ait une durée inférieure ou égale à t :
H (t ) = 1 − e −µt
On peut en déduire la densité de probabilité associée, notée h(t ) :
h(t ) =
∂H (t )
∂t
h(t ) = µe −µt
De la même que dans les paragraphes précédents, la durée moyenne θ = E [θ] d'appel s'obtient en calculant :
E [θ] =
+∞
∫ t.h(t ).dt
0
En intégrant par partie on obtient :
E [θ] =
1
µ
En conclusion on a µ appels qui cessent par secondes et on a une durée moyenne d'appel égale à
1
µ
Les probabilités d'apparition d'appels et de fin d'appels qui ont été développées dans les deux paragraphes précédents
permettent de modéliser le processus complet d'apparition et de fin d'appels.
3.3 Modélisation des processus d'apparition et de fin d'appels
A chaque instant un certain nombre d'appels vont apparaître et d'autres vont se terminer. On peut donc modéliser l'état
où l'on se trouve à un instant donné comme une chaîne d'états. Chaque état représente le nombre de communications en
cours. On conçoit donc bien que si, à un instant donné, il y a k communications on ne peut passer que dans deux états
adjacents qui sont les états k − 1 et k + 1 . On reconnaît alors une chaîne de Markov. La différence par rapport au
chapitre 1 vient ici du fait que cette chaîne est à temps continu. La probabilité de passer d’un état i à un état j pendant un
temps dt sera donc notée p ij (dt )
On introduit alors les probabilités de transition d'état suivantes :
Etant dans l'état k, la probabilité p k ,k +1 (dt ) pour passer à l'état k + 1 durant un intervalle de temps dt s'écrit λ k dt
Etant dans l'état k, la probabilité p k ,k −1 (dt ) pour passer à l'état k − 1 durant un intervalle de temps dt s'écrit µ k dt
Etant dans l'état k + 1 , la probabilité p k +1,k (dt ) pour passer à l'état k durant un intervalle de temps dt s'écrit µ k +1 dt
Etant dans l'état k − 1 , la probabilité p k −1,k (dt ) pour passer à l'état k durant un intervalle de temps dt s'écrit λ k −1 dt
λ k −1 dt
k-1
k
µ k dt
Electronique B11
λ k dt
k+1
µ k +1 dt
17
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
Les grandeurs λ k et µ k sont des taux d'apparition et de fin d'appels du même type que ceux utilisés lors des
paragraphes précédents. La seule différence tient au fait que ces taux ont en indice l'état où se trouve le système.
On peut alors introduire la probabilité d'état, c'est à dire la probabilité d'être dans un état k à un instant t. Notons
p k (t ) cette probabilité (à rapprocher de la notation p j (n) utilisée pour les chaînes de Markov à temps discret lors du
chapitre 2).
La variation de cette probabilité durant un intervalle de temps dt est alors égale à la probabilité de rejoindre cet état en
"venant" d'un état k − 1 ou d'un état k + 1 moins la probabilité de "quitter" cet état pour aller vers un état k − 1 ou vers
un état k + 1 .
On a donc :
dp k (t ) = λ k −1 dt. p k −1 (t ) + µ k +1 dt. p k +1 (t ) − (λ k dt + µ k dt ) p k (t
En supposant le système stable, c'est à dire en supposant qu'il se stabilise sur des probabilités d'état fixes lorsque le
dp k (t )
= 0 lorsque t → ∞
dt
temps tend vers l'infini, on peut écrire
On peut alors noter p k = p k (t )
D'où finalement :
λ k −1 . p k −1 + µ k +1 . p k +1 − (λ k + µ k ) p k = 0
Cette équation est vérifiée pour tout k ≥ 0 avec les conditions p −1 = 0 , λ −1 = 0 et µ 0 = 0 .
La stabilité des probabilités signifie qu'il y a une probabilité égale de quitter l'état p k que de le rejoindre.
En écrivant le système d'équation précédent, on trouve :
µ 1 p1 = λ 0 p0
λ 0 p0 + µ 2 p 2 = (λ 1 + µ 1 ) p1
λ 1 p1 + µ 3 p 3 = (λ 2 + µ 2 ) p 2
...
En résolvant le système on trouve :
p1 =
λ0
p0
µ1

 λ λ
λ
 (λ 1 + µ 1 ) 0 p0 − λ 0 p0  = 1 0 p0
µ1

 µ 2µ1
 λ λ λ
λ λ
λ
1 
 (λ 2 + µ 2 ) 1 0 p0 − λ 1 0 p0  = 2 1 0 p0
p3 =
µ3 
µ 2µ1
µ1
 µ 2µ 2µ1
p2 =
1
µ2
...
On trouve alors assez facilement la forme générale :
 k −1 λ 
p k =  ∏ i  p0


 i =0 µ i +1 
Le système se trouvant obligatoirement dans un des états on a :
+∞
∑ pk
=1
k =0
Electronique B11
18
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
En remplaçant dans l'équation précédente, on obtient :
1
p0 =
∞ k −1
λi
∑∏µ
1+
k =1 i =0
i +1
3.4 Probabilité de blocage et formule d'Erlang B
On s'intéresse ici à un système disposant de N canaux de communications. Si les N canaux sont occupés, les appels qui
arrivent alors sont perdus (absence de tonalité ou tonalité d'occupation par exemple). On parle alors de blocage du
système. On va chercher à estimer cette probabilité de blocage en fonction du nombre de canaux disponibles et du
trafic. Compte tenu de ce qui a été énoncé sur le caractère sans mémoire du processus d'arrivée d'appels, on peut
considérer que la probabilité λ k dt et indépendante de l'état du système, d'où :
λ k .dt = λ.dt , ∀k ≤ N − 1
Pour la probabilité de fin d'appel on a par contre :
µ k .dt = k .µ.dt , ∀k < N
Cette probabilité de transition traduit juste que si k appels sont en cours chacun a une probabilité µdt de se terminer,
d'où la somme qui donne kµ.dt . En toute rigueur il faudrait soustraire à cette probabilité les probabilités
correspondantes à plusieurs appels qui se terminent dans l'intervalle dt car alors, on passe directement à un état plus
k
éloigné. Cependant on admettra que l'on peut négliger ces probabilités qui sont de la forme
∑ C ki (µdt )i
.
i =2
En utilisant ces expressions de λ k et de µ k dans les équations donnant p k et p0 , il vient :
1
p0 =
1+
N k −1
λ
∑ ∏ (i + 1)µ
k =1 i =0
1
p0 =
1+
k
λ 1
∑  µ  k!
k =1 
N
En introduisant alors la variable :
A=
λ
µ
qui représente le nombre d'appels qui apparaissent sur le nombre d'appels qui se terminent pendant un intervalle de
temps, ce qui représente en fait tout simplement le trafic, il vient :
1
p0 =
1+
Ak
k =1 k!
N
∑
ou encore en introduisant le 1 dans la sommation :
p0 =
1
Ak
k =0 k!
N
∑
En reportant alors dans l'expression de p k , il vient :
Electronique B11
19
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
Ak
p k = k!
N Ai
∑ i!
i =0
La probabilité de blocage d'un système disposant de N canaux et pour un trafic A s'écrit alors E ( A, N ) , elle est égale à
la probabilité de se trouver dans l'état N E ( A, N ) = p N et elle s'obtient grâce à l'équation suivante :
AN
E ( A, N ) = N !
N Ai
∑ i!
i =0




(
)
E
A
,
N
−
1
 E ( A, N ) =

N


+ E ( A, N − 1) 

A


Cette formule est très importante en Télécommunications et elle porte le nom de : formule d'Erlang-B.
Pour les grandes valeurs de N on peut approcher le dénominateur par e A et la formule devient :
E ( A, N ) =
AN −A
e
N!
3.5 Probabilité de mise en attente et formule d'Erlang C
Si l'on considère un système pour lequel les appels bloqués peuvent être mis en file d'attente avant d'être servis, on peut
alors définir une probabilité d'être mis en attente.
Avec ce système on a toujours
λ k .dt = λ.dt
mais, pour la probabilité de fin d'appel on a par contre :
k .µ.dt , ∀0 ≤ k ≤ N
µ k .dt = 
 N .µ.dt , k ≥ N
En utilisant :
 k −1 λ 
p k =  ∏ i  p0


 i =0 µ i +1 
On obtient, pour k > N :
k −1
 N −1 λ
λ 
pk =  ∏
p
∏

 0
 i =0 (i + 1)µ i = N Nµ 
 A N Ak −N
pk = 
.
 N! N k − N


 p0


D'où finalement :
 Ak
p , ∀0 ≤ k ≤ N

 k! 0
pk = 
k
A
N −k
p0 , ∀k > N
 N ! N
En utilisant l'expression de p0 :
Electronique B11
20
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
1
p0 =
∞ k −1
λi
∑∏µ
1+
k =1 i =0
i +1
et en décomposant la sommation, il vient :
1
p0 =
1+
N −1 k −1
∞ N −1
λ
k −1
λ
λ
+ ∑ ∏
∑∏
∏
k =1 i =0 (i + 1)µ k = N i =0 (i + 1)µ i = N Nµ
p0 =
1
N −1
A
Ak
1
+ ∑
k
−N
k =0 k!
k = N N! N
∑
p0 =
1
∞ Ak−N
A
A
+
∑
N! k = N N k − N
k =0 k!
N −1
∑
p0 =
∞
k
k
N
1
N −1
Ak A N ∞  A 
∑ k! + N ! ∑  N 

k =0
k =0
k
∞ A
A
1
 
< 1 donc ∑   =
A
N
N

k =0
1−
N
k
or
p0 =
1
N −1
k
A
AN
1
+
∑ k! N !
A
k =0
1−
N
La probabilité de mise en file d'attente se note C ( N , A) et elle est égale à
∞
∑ pk
k=N
D'où :
C ( N , A) =
∞
A k N −k
N
p0
k = N N!
∑
Cette formule est aussi très importante et elle porte le nome de : formule d'Erlang-C
3.6 Cas d'une population finie et distribution d'Engset
Les calculs précédents ont considéré le cas d'un trafic de type Poisson généré par une population infinie. Si l'on
considère maintenant le cas d'une population finie constituée de M clients, la probabilité d'apparition d'appels et
fonction du nombre d'appels déjà en cours. On se retrouve alors avec la configuration suivante (on se replace ici dans un
cas sans mise en file d'attente, où les appels sont perdus lorsque tous les canaux sont occupés et avec M>N) :
λ k .dt = (M − k ).λ.dt , ∀k ≤ N − 1
La probabilité de fin d'appel reste inchangée :
µ k .dt = k .µ.dt , ∀k < N
La probabilité p k devient alors :
Electronique B11
21
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
 k −1 ( M − i )λ 
 p0
pk =  ∏


(
i
+
1
)
µ
 i =0

pk =
M!
A k p0
( M − k )! k!
D'où :
k
pk = C M
A k p0
Pour p0 , on obtient :
1
p0 =
1+
N k −1 ( M
− i )λ
(
i
+
1)µ
k =1 i =0
∑∏
d'où :
p0 =
1
N
∑ C Ni A i
i =0
Soit en remplaçant dans l'expression de p k :
pk =
k
CM
Ak
N
∑ C Mi A i
i =0
Cette formule représente la distribution d'Engset
4 Files d'attente
4.1 File d'attente simple
Les premiers paragraphes de ce document ont essentiellement, à l'exception de l'analyse de la mise en file d'attente,
considéré un trafic de nature téléphonique. Si l'on s'intéresse maintenant à un trafic de données on peut considérer que
dans un échange d'informations entre deux applications on va souvent rencontrer un écart de débit entre les systèmes
locaux et les liens d'interconnexion. Les messages ne pourront pas tous être transmis et vont être mis en file d'attente.
Application A
Application B
Les files d'attente sont en général décrites au moyen d'une notation dite de Kendall qui est la suivante :
Electronique B11
22
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
A/B/C/K/m/Z
Six facteurs sont ainsi précisés :
A : qui représente le processus d'entrée
B : qui représente le processus de service
C : qui représente le nombre de serveurs
K : qui représente la capacité maximale
m : qui représente la population des usagers
Z : qui représente la discipline de service
Pour décrire les processus d'entrée (lettre A), on utilise les notations suivantes :
GI : loi générale indépendante
G : loi générale
Hk : loi hyperexponenetielle d'ordre k
Ek : loi d'Erlang k
M : loi exponentielle
D : loi constante
On s'intéressera essentiellement ici à des arrivées de type exponentielle et de paramètre λ . Les autres lois d'arrivée ont
moins d'intérêt dans le cadre de ce cours. Il a été vu que la loi exponentielle était sans mémoire et que le processus
d'arrivée pouvait donc être considéré comme un processus Markovien. C'est cette propriété qui explique l'emploi de la
lettre M pour la loi exponentielle.
Les principales méthodes de service sont les suivantes :
PAPS : premier arrivé, premier servi (terme anglais FIFO, first in first out)
DAPS : dernier arrivé premier servi (terme anglais LCFS, last come fisrt served)
A : aléatoire (terme anglais FIRO : first in random out)
Lorsque les trois derniers éléments de la notation de Kendall ne sont pas précisés, il est sous entendu que Z=PAPS,
m = +∞ et K = +∞ .
Si les instants d'arrivée suivent un loi exponentielle de paramètre λ , il en est de même pour les instants de départ des
données en sortie de la file d'attente. Ces instants forment aussi un processus Markovien. Enfin dans le cas où l'on
suppose enfin qu'il n'y a qu' 1 seul processeur pour gérer la file d'attente, cette dernière est dite de type :
M/M/1.
Dans un système M/M/1, on définit le temps de queue t q comme étant la somme du temps d'attente t a et du temps de
service t s .
tq = ta + ts
Electronique B11
23
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
file
d'attente
unité de
traitement
ts
ta
tq
On définit alors la charge c du système comme le rapport entre le nombre d'items à traiter divisé par la capacité de
traitement du système en item. Cette capacité de traitement est aussi appelée le taux de service : S. C'est tout
simplement l'inverse du temps de service. On a donc :
S=
1
λ
et c =
ts
ts
On rappelle que λ est le paramètre de la loi des instants d'arrivée et que c'est aussi le taux d'arrivée de paquets par
secondes dans la file d'attente.
Si on introduit la capacité de traitement du système D en bits/sec et que L représente la taille moyenne des paquets en
bits, alors :
S=
1 D
=
ts
L
En remplaçant dans l'expression de la charge c, on obtient :
c=
λL
D
On peut montrer que le temps d'attente dans la file d'attente t a se déduit du temps de service t s et de la charge c par la
formule suivante :
ta =
c
ts
1− c
Si l'on considère le temps passé dans la queue t q , on obtient finalement :




c 
1

 1 
L = L
tq = ta + t s = 1 +
t s = 
t s = 
λL  D D − λL

 1− c 
 1− c 
 1−

D 

On suppose ici que le débit D en bits/sec est supérieur au taux d'arrivée λL en bits/sec. Dans le cas contraire la file
d'attente déborde et le temps dans la queue n'est plus déterminé.
On rencontre assez souvent cette formule sous la forme :
Electronique B11
24
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
tq =
1
D
−λ
L
t q : temps passé dans la queue en secondes
D : débits de transmission en bits par secondes
L : taille moyenne des paquets en bits
λ : taux d'arrivée de paquets en paquets/sec
4.2 File d'attente en série
Lorsque deux files d'attente sont en série, si la première file d'attente est du type MM1 alors les instants d'arrivée
suivent une loi exponentielle et les instants de sortie aussi. L'entrée de la deuxième file d'attente est aussi un processus
Markovien. On a donc deux files MM1. Le temps de queue global est la somme des temps de chaque file
4.3 File d'attente à entrées multiples
Si on considère une file d'attente connectée à plusieurs sources de trafic alors, à condition d'avoir des messages de
même longueur sur toutes les entrées, on peut calculer le temps dans la queue en utilisant une paramètre λ égal à la
somme des λ i des différentes entrées.
λ = ∑ λi
i
5 Conclusion
Ce cours a présenté un aperçu des méthodes de modélisation du trafic et des files d'attente. Un certain nombre de
formules ont été introduites. Elles permettent de dimensionner un réseau de Télécommunications. Les calculs de
probabilité qui y conduisent restent finalement assez simples.
6 Références
[1] Foundation of Mobile Radio Engineering, Michel Daoud Yacoub, CRC Press, 1993
[2] Digital Communications, J.G. Proakis, Mc Graw Hill, 1995
[3] Autoformation en télécoms et réseaux, Maxime Maiman, Claude Servin, InterEditions, 1998
[4] Théorie des files d'attente, Bruno Baynat, Hermès, 2000
[5] Probabilités, Nino Boccara, Ellipses, 1995
Electronique B11
25
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
Table d'Erlang B
nombre de
canaux
1
2
3
4
5
6
7
8
9
10
Niveau de service ( taux de blocage admissible )
1%
2%
3%
5%
10%
20%
0.0101
0.0204
0.0309
0.0526
0.1111
0.25
0.1526
0.2235
0.2815
0.3813
0.5954
1
0.4555
0.6022
0.7151
0.8994
1.2708
1.9299
0.8694
1.0923
1.2589
1.5246
2.0454
2.9452
1.3608
1.6571
1.8752
2.2185
2.8811
4.0104
1.909
2.2759
2.5431
2.9603
3.7584
5.1086
2.5009
2.9354
3.2497
3.7378
4.6662
6.2302
3.1276
3.6271
3.9865
4.543
5.5971
7.3692
3.7825
4.3447
4.7479
5.3702
6.5464
8.5217
4.4612
5.084
5.5294
6.2157
7.5106
9.685
nombre de
canaux
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
5.1599
5.876
6.6072
7.3517
8.108
8.875
9.6516
10.437
11.23
12.031
5.8415
6.6147
7.4015
8.2003
9.0096
9.8284
10.656
11.491
12.333
13.182
6.328
7.141
7.9667
8.8035
9.65
10.505
11.368
12.238
13.115
13.997
7.0764
7.9501
8.8349
9.7295
10.633
11.544
12.461
13.385
14.315
15.249
8.4871
9.474
10.47
11.473
12.484
13.5
14.522
15.548
16.579
17.613
10.857
12.036
13.222
14.413
15.608
16.807
18.01
19.216
20.424
21.635
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
12.838
13.651
14.47
15.295
16.125
16.959
17.797
18.64
19.487
20.337
14.036
14.896
15.761
16.631
17.505
18.383
19.265
20.15
21.039
21.932
14.885
15.778
16.675
17.577
18.843
19.392
20.305
21.221
22.14
23.062
16.189
17.132
18.08
19.031
19.985
20.943
21.904
22.867
23.833
24.802
18.651
19.692
20.737
21.784
22.833
23.885
24.939
25.995
27.053
28.113
22.848
24.064
25.281
26.499
27.72
28.941
30.164
31.388
32.614
33.84
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
21.191
22.048
22.909
23.772
24.638
25.507
26.378
27.252
28.129
29.007
22.827
23.725
24.626
25.529
26.435
27.343
28.254
29.166
30.081
30.997
23.987
24.914
25.844
26.776
27.711
28.647
29.585
30.526
31.468
32.412
25.773
26.746
27.721
28.698
29.677
30.657
31.64
32.624
33.609
34.596
29.174
30.237
31.301
32.367
33.434
34.503
35.572
36.643
37.715
38.787
35.067
36.297
37.524
38.754
39.985
41.216
42.448
43.68
44.913
46.147
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
29.888
30.771
31.656
32.543
33.432
34.322
35.215
36.109
37.004
37.901
31.916
32.836
33.758
34.682
35.607
36.534
37.462
38.392
39.323
40.255
33.357
34.305
35.253
36.203
37.155
38.108
39.062
40.018
40.975
41.933
35.584
36.574
37.565
38.557
39.55
40.545
41.54
42.537
43.534
44.533
39.861
40.936
42.011
43.088
44.165
45.243
46.322
47.401
48.481
49.562
47.381
48.616
49.851
51.086
53.322
53.559
54.796
56.033
57.27
58.508
41
42
43
44
45
46
47
48
49
50
Electronique B11
26
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
7 Exercices
Exercice 1.
Démontrez que E ( X 2 ) =
2
pour une variable aléatoire de densité exponentielle et de paramètre λ .
λ2
Exercice 2.
On considère un loto avec des tirages de numéros de 1 à 43. Calculez la probabilité d'avoir un numéro qui se termine
par 7 sachant que c'est un numéro impair qui a été tiré.
Exercice 3.
On considère le mot de verrouillage de trame suivant :
0 1 0 1 1 0
-
En moyenne, au bout de combien de temps, risque t on de rencontrer une séquence de bits identique au mot de
verrouillage de trame lorsque l'on considère une transmission à 10 kbits/s.
-
Pour éviter une telle fausse détection, le mot est répété tous les 100 bits et on ne verrouille la trame que si on le
rencontre 3 fois successivement. Quelle est la probabilité de faire une fausse détection ?
Exercice 4.
Les chaînes de Markov suivantes sont-elles périodiques :
Chaîne n°1
Chaîne n°2
2
2
1
3
4
1
3
4
Chaîne n°3
2
1
3
4
Electronique B11
27
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
Exercice 5.
On considère la chaîne de Markov suivante :
0.6
0.4
1
0.6
0.2
0.6
2
0.2
2
0.4
Donner sa matrice de transition P
La chaîne est elle irréductible ?
La chaîne est elle apériodique ?
Si elle existe donnez la valeur limite du vecteur des probabilités d’états : lim p(n)
n →∞
Devoir
Une entreprise industrielle du secteur de l’automobile fait procéder à une enquête auprès des propriétaires
d’automobiles. Cette enquête concerne les intentions d’achat. Les propriétaires d’automobiles sont regroupés dans trois
classes suivant la cylindrée de leur véhicule.
Classe 1 : petite cylindrée
Classe 2 : moyenne cylindrée
Classe 3 : grosse cylindrée
Sur 10 propriétaires de la classe 1 :
6 resteront fidèles à la petite cylindrée
4 achèteront une moyenne cylindrée
Sur 20 propriétaires de la classe 2 :
12 resteront fidèles à la moyenne cylindrée
4 achèteront une grosse cylindrée
4 achèteront une petite cylindrée
Sur 15 propriétaires de la classe 3 :
9 resteront fidèles à la grosse cylindrée
6 achèteront une moyenne cylindrée.
Interprétez les résultats de cette enquête à l’aide d’un processus stochastique. Justifiez que ce processus est une
chaîne de Markov. Donnez le graphe associé et la matrice de transition P .
Ecrire P sous la forme P = UDU −1
On suppose la distribution initiale des probabilités d’état p (0 ) connue. Que devient ce vecteur de probabilités au
bout de n étapes. Vers quelle solution converge ce vecteur lorsque n tend vers l’infini.
Electronique B11
28
Cnam
INTRODUCTION AUX TELECOMMUNICATIONS
Exercice 6.
La capacité d'un autocommutateur public est de 5000 Erlangs. Il dessert des abonnés résidentiels et professionnels
respectivement de 40 et 60%. On sait qu'un professionnel a un trafic, à l'heure de pointe, 3 fois supérieur à celui d'un
résidentiel qui est supposé égal à 0.1 Erlang. Quel est le nombre d'abonnés desservis.
Exercice 7.
Un système à refus (formule d'Erlang-B) dispose de M circuits. Quel est le trafic offert pour que la probabilité de refus
soit de 1%, 10%, 50%, lorsque M est respectivement égal à 2,5 ou 10? (Utilisez l'abaque fourni en dehors du poly).
Exercice 8.
Deux systèmes de commutation sont reliés par deux faisceaux de 10 circuits chacun. En supposant un taux de perte de
1%, on demande :
le trafic autorisé par chaque faisceau ainsi que le rendement de la ligne
le trafic total autorisé par les deux faisceaux
on regroupe les deux faisceaux en un seul de 20 circuits, en supposant le même taux de perte, quels sont le nouveau
trafic autorisé et le rendement par ligne.
Exercice 9.
Une PME de 50 personnes souhaite changer son autocommutateur (PABX) et l'affecter uniquement à la téléphonie. Elle
dispose des données suivantes :
-
il y a 40 postes téléphoniques
-
le trafic mesuré à l'heure de pointe rapporté au poste est le suivant
-
5 mn / heure pour les appels sortant
-
3 mn / heure pour les appels rentrant
-
le trafic moyen est la moitié du trafic de pointe
-
l'activité de l'entreprise est de 8 heures/jour et de 21 jours/mois.
Déterminez
-
le trafic total en Erlang
-
le nombre de circuits nécessaires pour écouler ce trafic avec un taux de perte de 10% maximal
Exercice 10.
On considère un système de transmission ayant une capacité de 10kbits/s. On demande le temps passée dans la queue
d'une file d'attente MM1 pour un taux d'arrivée λ = 14 s −1 et une taille moyenne de paquet égale à 400 bits.
Exercice 11.
On considère un système dans lequel une application dialogue avec une application B à travers une liaison spécialisée
de débit D.
Déterminez le temps de réponse (ou temps de queue) lorsque les messages allant de A vers B ont une taille moyenne de
900 octets et que ceux de B vers A ont une taille moyenne de 100 octets. On précise qu'il y a 20 transactions par heure
et que le débit de la ligne est égal à 19200 bits/s.
On admettra que la signalisation accompagnant les données provoque une augmentation de 20% du volume des données
échangées.
Electronique B11
29
Téléchargement