Chapitre_3

publicité
Chapitre 3
Processus aléatoires
1.
Introduction
Le mot « signal » désigne l’évolution temporelle d’une grandeur physique
mesurable (courant, tension, force, température, pression, etc.). Ces signaux
physiques sont modélisés par des fonctions mathématiques x dépendant d’une
variable représentant le temps t . En pratique un signal est issu d’une mesure par
un capteur. Un signal est dit déterministe si son évolution peut être prédite en
utilisant un modèle mathématique. C’est le cas de la tension électrique aux
bornes d’une alimentation qui peut s’écrire x(t )  A cos( 2f 0 t ) . Si A et f0 sont
connus, on peut déterminer la valeur de l’amplitude à n’importe quel instant. Il
n’en est plus de même pour un signal tel que celui observé à la sortie d’un
microphone. Il semble que tout effort pour écrire l’équation d’un tel signal, même
avec un très grand nombre de paramètres, soit voué à l’échec. Par contre on
imagine assez bien que, faute de pouvoir donner la valeur du signal à un instant t,
il soit possible de préciser une distribution de valeurs possibles. D’où l’idée
d’utiliser des variables aléatoires pour décrire le phénomène à tout instant [4,5].
2.
Définition
Un processus aléatoire (ou stochastique) est une famille de fonction X (t ) ,
réelles ou complexes, définies dans un espace de probabilité, c’est-à-dire
dépendant de deux variables, l’une est le temps t , l’autre est la variable
 définissant le hasard. Selon que les variables sont continues ou discrètes, on
parle de processus aléatoires continus ou discrets.
2.1. Signaux aléatoires
Pour une réalisation  i donnée, le processus aléatoire X (t ,  ) se réduit à une
fonction x(t ,  i ) que l’on notera simplement xi (t ) , c’est un signal aléatoire. Par
convention, un signal aléatoire x(t )
est considéré comme un signal à puissance
moyenne finie, dont la puissance est calculée par l’équation :
1
Px  lim
T   T
T / 2
 x(t )
2
dt
(1.1)
T / 2
A partir de x(t ) , on peut définir la moyenne temporelle du signal :
T / 2
1
x  lim
x(t )dt
T  T 
T / 2
23
(1.2)
2.2. Variables aléatoires
A chaque instant t i , le processus aléatoire X (t ,  ) se réduit à une variable
aléatoire X (t i ,  ) notée X (t i ) ou simplement X i , dont le comportement nécessite la
connaissance de sa fonction de répartition :
FX i ( x)  FX ( x, t i )  prob( X i  x)
(1.3)
ou de sa densité de probabilité :
p X i ( x)  p X ( x, t i ) 
dFX i ( x)
dx
(1.4)
Pour évaluer la moyenne X de la variable aléatoire X , on peut calculer la moyenne
des N épreuves :
1 N
X  lim
Xn
(1.5)

N   N
n 1
Si l’on connait la loi de probabilité de X , l’espérance mathématique est donnée
par :
E X  

 xp
X
(1.6)
( x)dx

2.3. Vecteurs aléatoires
Soient les variables aléatoires X 1 , X 2 ,, X k associes aux instants t1 , t 2 ,, t k . Ces
variables aléatoires forment un vecteur aléatoire X 1 , X 2 ,, X k T . Ce vecteur est
caractérisé par sa fonction de répartition :
FX ( x1 , x2 , , xk )  prob( X 1  x1 , X 2  x2 , , X k  xk )
3.
(1.7)
Processus aléatoire
Un processus aléatoire X (t ,  ) est une famille de fonctions X (t ) , réelles ou
complexes, définies dans un espace de probabilité, c’est-à-dire dépendant de
deux variables, l’une est le temps t , l’autre est la variable  définissant le hasard
[4,5].
24
Figure.1 Processus aléatoire
-
X (t ,  ) est une variable aléatoire si t est fixe,  est variable.
-
X (t ,  ) est un signal aléatoire (réalisation) si t est variable,  est fixe.
-
X (t ,  ) est un nombre si t est fixe,  est fixe.
-
X (t ,  ) est processus aléatoire si t est variable,  est variable.
Selon que les variables t et  sont continues ou discrètes, on parle de processus
aléatoires continus ou discrets comme suit :
- si t et  sont continues alors X (t ,  ) est un processus aléatoire continu
-
(continuous random process).
si t est continu et  est discret alors X (t ,  ) est un processus aléatoire
-
discret (discrete random process).
si t est discret et  est continu alors X (t ,  ) est une séquence aléatoire
-
continue (continuous random sequence)
si t est discret et  est discret alors X (t ,  ) est une séquence aléatoire
discrète (discrete random sequence).
3.1. Statistiques d’un processus aléatoire
L’équation (1.7) caractérise les statiques d’ordre k du processus aléatoire
X (t ,  ) . De façon générale, on s’intéresse à des statistiques d’ordre 1 pour une
variable, et les statistiques d’ordre 2 pour un vecteur de deux variables
aléatoires.
3.1.1.
Statistiques d’ordre 1
Soit X i une variable aléatoire du processus aléatoire X (t ,  ) à l’instant t i . Sa
fonction de répartition est notée FX ( x, t i )  prob( X i  x) et sa densité de
probabilité p X ( x, t i )  dFX i ( x) / dx .
On peut définir les différents moments statistiques :
Moment d’ordre 1 (moyenne) :
25
EX i  

 xp
Xi
(1.8)
( x)dx

Moment d’ordre n

   x
EX
n
i
n
(1.9)
p X i ( x)dx

Moment centré de degré ou d’ordre n



E ( X i  E[ X i ]) n   ( x  E[ X i ]) n p X i ( x)dx
(1.10)

Moment centré d’ordre 2
Ce moment s’appelle la variance. Elle est définie comme :

  E ( X i  E[ X i ])    ( x  E[ X i ]) 2 p X ( x)dx
2
2
i
(1.11)

La variance peut être aussi s’exprimée sous la forme :
 2  E[ X i2 ]  mX2
(1.12)
i
La variance est une mesure de la dispersion de la variable aléatoire autour de
sa moyenne. Sa racine carrée est appelée écart-type (standard déviation).
3.1.2.
Statistiques d’ordre 2
Soient les deux variables aléatoires X 1  X (t1 ) , X 2  X (t 2 ) et la fonction de
répartition :
(1.13)
FX ( x1 , x 2 )  prob( X 1  x1 , X 2  x 2 )
et la densité de probabilité :
p X ( x1 , x 2 ) 
 2 FX ( x1 , x 2 )
x1x 2
(1.14)
On peut alors définir les différents moments du vecteur aléatoire
[ X 1 , X 2 ]T par E[ X 1m X 2n ] , en particulier, pour comparer les variables aléatoires, on
utilise la fonction d’autocorrélation statistique :
 
rx (t1 , t 2 )  E[ X 1 X 2 ] 
 x x
1
  
26
2
p X ( x1 , x 2 )dx1 dx 2
(1.15)
Et la fonction d’autocovariance, qui n’est autre que la fonction d’autocorrélation
des variables centrées :
 
c x (t1 , t 2 )  E[( X 1  m X1 )( X 2  m X 2 )] 
  (x
1
  X 1 )( x 2   X 2 ) p X ( x1 , x 2 )dx1 dx 2
(1.16)
  
En développant cette expression, on peut aboutir à :
c x (t1 , t 2 )  rx (t1 , t 2 )  m X1 m X 2
Remarque : Si t1  t 2 , on aura
(1.17)
.
3.2. Stationnarité et ergodicité
3.2.1.
Processus stationnaire au sens strict
Un processus aléatoire est dit stationnaire au sens strict, si toutes ses
propriétés statistiques sont invariantes à un changement d’origine du temps.
3.2.2.
Processus stationnaire au sens large
Un processus aléatoire est dit stationnaire au sens large, si toutes ses
propriétés statistiques d’ordre 1 et 2 sont invariantes à un changement d’origine
du temps.
Pour un processus aléatoire stationnaire au sens strict, on a :
pX i ( x)  pX j ( x)  pX ( x), i, j
(1.18)
Pour un processus aléatoire stationnaire au sens large, on a :
EX i   EX    X
(1.19)
   
(1.20)
E X i2  E X 2   X2
rx (t1 , t 2 )  rx ( ), c x (t1 , t 2 )  c x ( ),   t 2  t1
3.2.3.
(1.21)
Processus ergodique
Un processus aléatoire est dit ergodique (ergodic) si les valeurs moyennes
statistiques (d’ensemble sur ζ) sont égales aux valeurs moyennes temporelles
(sur une seule réalisation). La conséquence de cette hypothèse est très
importante en pratique. Elle permet de remplacer les calculs de moments
statistiques (qui supposent connues les densités de probabilité ou les fonctions
de répartition) par les moyennes temporelles sur une seule réalisation
(observation). En pratique, faire une estimation de la moyenne temporelle sur une
fenêtre de taille infinie est impossible. Il faut se contenter d’une approximation
27
calculée sur une fenêtre de taille finie, qui tendra asymptotiquement, avec la
taille
de
la
fenêtre,
vers
la
moyenne
statistique.
Cette hypothèse d’ergodicité est cependant difficile à vérifier. On admettra
fréquemment que les processus aléatoires usuels sont ergodiques [4,5].
Si le processus X (n ) est ergodique, et on ne dispose qu’une seule réalisation,
alors la moyenne et la fonction d’autocorrélation sont approximées par :
̂ X 
rˆX (m) 
1 N
 Xi
N i 1
(1.22)
1 N  m 1
*
 X i ( n ) X i ( n  m)
N  m i 1
, m  0,1,, N  1
(1.23)
3.3. Autocorrélation et autocovariance des processus aléatoires :
Pour un processus stationnaire, l’autocorrélation statistique est définie par :
rx ( )  EX (t ) X (t   )
(1.24)
On définit aussi l’autocorrélation temporelle :
T / 2
1
x(t ) x(t   )dt
T  T 
T / 2
x ( )  lim
(1.25)
Sous l’hypothèse d’ergodicité, on a donc :
(1.26)
x ( )  rx ( )
3.4. Coefficient d’autocorrélation
Les coefficients de corrélation l’autocovariance normalisée :
 X ( ) 
c x ( )
 X2
,  X (0)  1
(1.27)
Pour Autocovariance, c’est l’autocorrélation du processus centré. Si celui-ci est
stationnaire, on a :
c x ( )  E X (t )  m X  X (t   )  m X   rx ( )  m X2
(1.28)
3.5. Propriétés de la fonction d’autocorrélation
Parité : Les fonctions d’autocorrélation et d’autocovariance sont paires pour des
processus réels :
rx ( )  rx ( ) , c x ( )  c x ( )
28
(1.29)
Valeur en τ = 0 : En   0 , on a :
c x (0)   x2 et rx (0)   x2  m X2
(1.30)
La quantité c x (0) correspond à la puissance moyenne des fluctuations du signal,
alors que rx (0) correspond à la puissance moyenne totale.
Inégalités :
rx ( )  rx (0) et c x ( )  c x (0)
(1.31)
Coefficients de corrélation : A partir des inégalités précédentes, il est facile
de montrer que les coefficients de corrélation vérifient
(1.32)
 1   X ( )  1
Comportement pour    : Pour un processus aléatoire sans composante
périodique, on peut montrer que la dépendance entre X (t ) et X (t   ) diminue
lorsque  augmente. On a alors :
(1.33)
lim c x ( )  0
 
Et
(1.34)
2
2
lim rx ( )  lim c x ( )  m X  m X
 
 
3.6. Matrice de corrélation
Pour un vecteur aléatoire X  X 1 , X 2 ,, X k  , on peut définir une matrice de
T
corrélation dont les éléments sont les fonctions de corrélation des composantes
deux à deux :

R XX  E XX T
R XX

(1.35)
 EX 1 X 1  EX 1 X 2   EX 1 X k 
 EX X 



2 1












 EX k X k 
 EX k X 1 




Le processus est supposé stationnaire, EX i X i   rX (0) , E X i X j  E X j X i , donc
la matrice RXX est symétrique et chaque diagonale est constituée d’éléments
identiques (matrice Teoplitz). Dans le cas complexe, la matrice RXX devient


R XX  E XX H où XH est le transposé conjuguée de X. La matrice de corrélation
n’est plus symétrique, mais hermitienne.
29
4.
Processus aléatoires à temps discret
Un processus aléatoire à temps discret X (n ) est une séquence de variables
aléatoires définies pour tout entier n . La valeur moyenne, la fonction
d’autocorrélation et la fonction d’autocovariance sont données par :
EX (n)  mX (n)
(1.36)
rx (n1 , n2 )  EX (n1 ) X (n2 )
(1.37)
c x (n1 , n2 )  EX (n1 ) m X (n1 )X (n2 ) m X (n2 )  rx (n1 , n2 )  m X (n1 )m X (n2 ) (1.38)
Si le processus X (n ) est stationnaire au sens large, alors la moyenne :
EX (n)  mX  const
(1.39)
est indépendante de n , et la fonction d’autocorrélation :
rx (n, n  k )  rx (k )  c x (k )  m X2
(1.40)
ne dépend que du décalage temporel entre n et n  k .
Matrice d’autocorrélation
Soit un vecteur de M variables aléatoires X  X (n), X (n  1),  X (n  M  1) .
T
La matrice d’autocorrélation de ce processus est :

R XX  E XX T
R XX
5.

(1.41)
rX (1)  rX ( M  1)
 rX (0)
 r (1)



X













rX (0) 
rX ( M  1)
Filtrage des processus aléatoires
Les filtres linéaires sont très utilisés dans diverses applications du traitement
du signal. les entrées de ces filtres sont généralement des processus aléatoires.
Donc cette opération de filtrage peut être considérée comme une opération de
modélisation d’une séquence aléatoire. Les modèles les plus rencontrés sont le
processus AR, le processus MA et le processus ARMA [1,4,5].
Soient X (n ) , Y (n ) et h(n) l’entrée du filtre, la sortie du filtre et la réponse
impulsionnelle du filtre respectivement.
30
Figure 2. Filtrage des processus aléatoires
5.1. Processus AR
Un processus AR est representé par l’equation aux difference suivante
p
X (n)   ak X (n  k )  e(n)
(1.42)
k 1
où
X (n ) est la séquence aléatoire observée,
a k , k  1, 2, , p , sont des
constantes appelées les paramètres du modèle. e(n) est une séquence de
variables aléatoires gaussiennes, de moyenne nulle et de variance  n2 .
p est
l’ordre du filtre. Le mot autorégressif vient du fait que la valeur présente du
processus est une combinaison linéaire des valeurs passées du processus et un
terme de bruit. En prenant la transformée en Z de l’équation (), on aboutit à :


X (Z ) 1  a1 Z 1  a2 Z 2    a p Z  p  E(Z )
(1.43)
D’où la fonction de transfert du filtre est :
H (Z ) 
1
p
1   ak Z
(1.44)
k
k 1
La structure du filtre est représentée sur la figure (3).
Figure 3. Processus autorégressif d’ordre p
Pour déterminer la densité spectrale de puissance à la sortie du filtre qui est
donnée par :
31
 n2
Sx ( f ) 
p
1   ak e
2
(1.45)
 j 2fk
k 1
Nous avons besoin d’estimer les coefficients du modèle a k ainsi que la variance
du bruit  n2 .
En multipliant l’equation (1.42) par X ( n  l )
p
EX (n) X (n  l )   ak EX (n  k ) X (n  l )  Ee(n) X (n  l )
(1.46)
k 1
Le terme Ee(n) X (n  l )vaut  n2 pour l  0 . Cependant pour l  0 ce terme est nul
du fait que les termes X (n  l ) et e(n) sont idependants et Ee(n)  0 . Le premier
terme de l’equation () est la fonction d’autocorrelation rx (l ) .
Donc :
p
rx (l )   ak rx (l  k ), l  0
(1.47)
k 1
En mettant cette expression sous la forme matricielle :
rx (1)
rX (1)  rX ( p  1) a 1
 rX (0)

a
rx (2)
rX (1)



 2  R a  r

x
x

 







rx ( p)


rX (0)  a p
rX ( p  1)
(1.48)
Ce sont les équations de Yule-Walker.
Les coefficients a k sont la solution du système d’équations.
(1.49)
a   R x1 rx
Et la variance du bruit :
p
 n2  rx (0)   ak rx (k )
(1.50)
k 1
5.2. Processus MA
Un processus MA est définit par :
q
X (n)   bk e(n  k ) , b0  1
(1.51)
k 0
Où b0 , b1 , bq sont les parametres du modele AR et e(n) est un bruit blanc
constituant l’entré du filtre. En appliquant la transformée en Z, on aura :
32

X (Z )  E(Z ) 1  b1 Z 1    bq Z q

(1.52)
La figure montre un processus MA d’ordre q
Figure 4. Processus à moyenne ajustée d’ordre q
5.3.
Processus ARMA
Le modele d’un processus ARMA est donné par :
p
q
k 0
l 0
 ak X (n  k )   bl e(n  l ) , a0  b0  1
(1.53)
Oubien sous la forme :
p
q
k 1
l 1
X (n)   ak X (n  k )  e(n)   bl e(n  l )
(1.54)
En prenant la transformée en Z, nous obtenons :
q
H (Z ) 
1   bl Z l
l 1
p
1   ak Z
k
k 1
La figure ci-dessous montre un processus ARMA d’ordre ( p, q)
Figure 5. Processus autorégressif à moyenne ajustée d’ordre (p,q)
33
(1.55)
Le processus ARMA est vue comme un filtre de fonction de transfert H (z ) ayant
des pôles et des zéros. Excité par une entré e(n) , le modèle délivre un
processus X (n ) . Les polynômes A(z ) et B (z ) sont caractérisés par le lieu de leurs
racines dans le plan complexe. Il est supposé que le polynôme A(z ) à toutes
racines à l’intérieur du cercle unitaire du plan complexe pour assurer que le filtre
soit stable, sinon la sortie du modèle ne sera pas un processus stationnaire.
6.
Densités de probabilité usuelles
6.1. Loi gaussienne
Si la variable X suit une loi gaussienne (ou normale), de moyenne nulle et de
variance  2 , sa densité de probabilité s’écrit :
p X ( x) 
 x2 

exp  
2 
2 2
 2 
1
(1.56)
6.2. Loi uniforme
Soit X une variable aléatoire uniforme sur l’intervalle [−1/2,+1/2]. La densité de
probabilité s’écrit:
(1.57)
p X ( x)  rect ( x)
Cette variable est centrée, donc la variable X a une moyenne nulle :
EX  

 xp

1 / 2
X
( x)dx 
 xdx  0
(1.58)
1 / 2
Le moment d’ordre deux est:

  x
E X2 

1 / 2
2
p X ( x)dx 
1
 x dx  12
2
(1.59)
1 / 2
Puisque la moyenne est nulle, la variance et le moment d’ordre 2 sont égaux.
7.
Notion de bruit blanc
Un bruit blanc u (n) est un processus aléatoire centré vérifiant : ru (0)   u2 et
ru (k )  0
pour k  0 . La densité spectrale de puissance est donc constante sur
tout l’axe des fréquences
Pu ( f )   u2  cte.
34
Téléchargement