Chapitre 3 Processus aléatoires 1. Introduction Le mot « signal » désigne l’évolution temporelle d’une grandeur physique mesurable (courant, tension, force, température, pression, etc.). Ces signaux physiques sont modélisés par des fonctions mathématiques x dépendant d’une variable représentant le temps t . En pratique un signal est issu d’une mesure par un capteur. Un signal est dit déterministe si son évolution peut être prédite en utilisant un modèle mathématique. C’est le cas de la tension électrique aux bornes d’une alimentation qui peut s’écrire x(t ) A cos( 2f 0 t ) . Si A et f0 sont connus, on peut déterminer la valeur de l’amplitude à n’importe quel instant. Il n’en est plus de même pour un signal tel que celui observé à la sortie d’un microphone. Il semble que tout effort pour écrire l’équation d’un tel signal, même avec un très grand nombre de paramètres, soit voué à l’échec. Par contre on imagine assez bien que, faute de pouvoir donner la valeur du signal à un instant t, il soit possible de préciser une distribution de valeurs possibles. D’où l’idée d’utiliser des variables aléatoires pour décrire le phénomène à tout instant [4,5]. 2. Définition Un processus aléatoire (ou stochastique) est une famille de fonction X (t ) , réelles ou complexes, définies dans un espace de probabilité, c’est-à-dire dépendant de deux variables, l’une est le temps t , l’autre est la variable définissant le hasard. Selon que les variables sont continues ou discrètes, on parle de processus aléatoires continus ou discrets. 2.1. Signaux aléatoires Pour une réalisation i donnée, le processus aléatoire X (t , ) se réduit à une fonction x(t , i ) que l’on notera simplement xi (t ) , c’est un signal aléatoire. Par convention, un signal aléatoire x(t ) est considéré comme un signal à puissance moyenne finie, dont la puissance est calculée par l’équation : 1 Px lim T T T / 2 x(t ) 2 dt (1.1) T / 2 A partir de x(t ) , on peut définir la moyenne temporelle du signal : T / 2 1 x lim x(t )dt T T T / 2 23 (1.2) 2.2. Variables aléatoires A chaque instant t i , le processus aléatoire X (t , ) se réduit à une variable aléatoire X (t i , ) notée X (t i ) ou simplement X i , dont le comportement nécessite la connaissance de sa fonction de répartition : FX i ( x) FX ( x, t i ) prob( X i x) (1.3) ou de sa densité de probabilité : p X i ( x) p X ( x, t i ) dFX i ( x) dx (1.4) Pour évaluer la moyenne X de la variable aléatoire X , on peut calculer la moyenne des N épreuves : 1 N X lim Xn (1.5) N N n 1 Si l’on connait la loi de probabilité de X , l’espérance mathématique est donnée par : E X xp X (1.6) ( x)dx 2.3. Vecteurs aléatoires Soient les variables aléatoires X 1 , X 2 ,, X k associes aux instants t1 , t 2 ,, t k . Ces variables aléatoires forment un vecteur aléatoire X 1 , X 2 ,, X k T . Ce vecteur est caractérisé par sa fonction de répartition : FX ( x1 , x2 , , xk ) prob( X 1 x1 , X 2 x2 , , X k xk ) 3. (1.7) Processus aléatoire Un processus aléatoire X (t , ) est une famille de fonctions X (t ) , réelles ou complexes, définies dans un espace de probabilité, c’est-à-dire dépendant de deux variables, l’une est le temps t , l’autre est la variable définissant le hasard [4,5]. 24 Figure.1 Processus aléatoire - X (t , ) est une variable aléatoire si t est fixe, est variable. - X (t , ) est un signal aléatoire (réalisation) si t est variable, est fixe. - X (t , ) est un nombre si t est fixe, est fixe. - X (t , ) est processus aléatoire si t est variable, est variable. Selon que les variables t et sont continues ou discrètes, on parle de processus aléatoires continus ou discrets comme suit : - si t et sont continues alors X (t , ) est un processus aléatoire continu - (continuous random process). si t est continu et est discret alors X (t , ) est un processus aléatoire - discret (discrete random process). si t est discret et est continu alors X (t , ) est une séquence aléatoire - continue (continuous random sequence) si t est discret et est discret alors X (t , ) est une séquence aléatoire discrète (discrete random sequence). 3.1. Statistiques d’un processus aléatoire L’équation (1.7) caractérise les statiques d’ordre k du processus aléatoire X (t , ) . De façon générale, on s’intéresse à des statistiques d’ordre 1 pour une variable, et les statistiques d’ordre 2 pour un vecteur de deux variables aléatoires. 3.1.1. Statistiques d’ordre 1 Soit X i une variable aléatoire du processus aléatoire X (t , ) à l’instant t i . Sa fonction de répartition est notée FX ( x, t i ) prob( X i x) et sa densité de probabilité p X ( x, t i ) dFX i ( x) / dx . On peut définir les différents moments statistiques : Moment d’ordre 1 (moyenne) : 25 EX i xp Xi (1.8) ( x)dx Moment d’ordre n x EX n i n (1.9) p X i ( x)dx Moment centré de degré ou d’ordre n E ( X i E[ X i ]) n ( x E[ X i ]) n p X i ( x)dx (1.10) Moment centré d’ordre 2 Ce moment s’appelle la variance. Elle est définie comme : E ( X i E[ X i ]) ( x E[ X i ]) 2 p X ( x)dx 2 2 i (1.11) La variance peut être aussi s’exprimée sous la forme : 2 E[ X i2 ] mX2 (1.12) i La variance est une mesure de la dispersion de la variable aléatoire autour de sa moyenne. Sa racine carrée est appelée écart-type (standard déviation). 3.1.2. Statistiques d’ordre 2 Soient les deux variables aléatoires X 1 X (t1 ) , X 2 X (t 2 ) et la fonction de répartition : (1.13) FX ( x1 , x 2 ) prob( X 1 x1 , X 2 x 2 ) et la densité de probabilité : p X ( x1 , x 2 ) 2 FX ( x1 , x 2 ) x1x 2 (1.14) On peut alors définir les différents moments du vecteur aléatoire [ X 1 , X 2 ]T par E[ X 1m X 2n ] , en particulier, pour comparer les variables aléatoires, on utilise la fonction d’autocorrélation statistique : rx (t1 , t 2 ) E[ X 1 X 2 ] x x 1 26 2 p X ( x1 , x 2 )dx1 dx 2 (1.15) Et la fonction d’autocovariance, qui n’est autre que la fonction d’autocorrélation des variables centrées : c x (t1 , t 2 ) E[( X 1 m X1 )( X 2 m X 2 )] (x 1 X 1 )( x 2 X 2 ) p X ( x1 , x 2 )dx1 dx 2 (1.16) En développant cette expression, on peut aboutir à : c x (t1 , t 2 ) rx (t1 , t 2 ) m X1 m X 2 Remarque : Si t1 t 2 , on aura (1.17) . 3.2. Stationnarité et ergodicité 3.2.1. Processus stationnaire au sens strict Un processus aléatoire est dit stationnaire au sens strict, si toutes ses propriétés statistiques sont invariantes à un changement d’origine du temps. 3.2.2. Processus stationnaire au sens large Un processus aléatoire est dit stationnaire au sens large, si toutes ses propriétés statistiques d’ordre 1 et 2 sont invariantes à un changement d’origine du temps. Pour un processus aléatoire stationnaire au sens strict, on a : pX i ( x) pX j ( x) pX ( x), i, j (1.18) Pour un processus aléatoire stationnaire au sens large, on a : EX i EX X (1.19) (1.20) E X i2 E X 2 X2 rx (t1 , t 2 ) rx ( ), c x (t1 , t 2 ) c x ( ), t 2 t1 3.2.3. (1.21) Processus ergodique Un processus aléatoire est dit ergodique (ergodic) si les valeurs moyennes statistiques (d’ensemble sur ζ) sont égales aux valeurs moyennes temporelles (sur une seule réalisation). La conséquence de cette hypothèse est très importante en pratique. Elle permet de remplacer les calculs de moments statistiques (qui supposent connues les densités de probabilité ou les fonctions de répartition) par les moyennes temporelles sur une seule réalisation (observation). En pratique, faire une estimation de la moyenne temporelle sur une fenêtre de taille infinie est impossible. Il faut se contenter d’une approximation 27 calculée sur une fenêtre de taille finie, qui tendra asymptotiquement, avec la taille de la fenêtre, vers la moyenne statistique. Cette hypothèse d’ergodicité est cependant difficile à vérifier. On admettra fréquemment que les processus aléatoires usuels sont ergodiques [4,5]. Si le processus X (n ) est ergodique, et on ne dispose qu’une seule réalisation, alors la moyenne et la fonction d’autocorrélation sont approximées par : ̂ X rˆX (m) 1 N Xi N i 1 (1.22) 1 N m 1 * X i ( n ) X i ( n m) N m i 1 , m 0,1,, N 1 (1.23) 3.3. Autocorrélation et autocovariance des processus aléatoires : Pour un processus stationnaire, l’autocorrélation statistique est définie par : rx ( ) EX (t ) X (t ) (1.24) On définit aussi l’autocorrélation temporelle : T / 2 1 x(t ) x(t )dt T T T / 2 x ( ) lim (1.25) Sous l’hypothèse d’ergodicité, on a donc : (1.26) x ( ) rx ( ) 3.4. Coefficient d’autocorrélation Les coefficients de corrélation l’autocovariance normalisée : X ( ) c x ( ) X2 , X (0) 1 (1.27) Pour Autocovariance, c’est l’autocorrélation du processus centré. Si celui-ci est stationnaire, on a : c x ( ) E X (t ) m X X (t ) m X rx ( ) m X2 (1.28) 3.5. Propriétés de la fonction d’autocorrélation Parité : Les fonctions d’autocorrélation et d’autocovariance sont paires pour des processus réels : rx ( ) rx ( ) , c x ( ) c x ( ) 28 (1.29) Valeur en τ = 0 : En 0 , on a : c x (0) x2 et rx (0) x2 m X2 (1.30) La quantité c x (0) correspond à la puissance moyenne des fluctuations du signal, alors que rx (0) correspond à la puissance moyenne totale. Inégalités : rx ( ) rx (0) et c x ( ) c x (0) (1.31) Coefficients de corrélation : A partir des inégalités précédentes, il est facile de montrer que les coefficients de corrélation vérifient (1.32) 1 X ( ) 1 Comportement pour : Pour un processus aléatoire sans composante périodique, on peut montrer que la dépendance entre X (t ) et X (t ) diminue lorsque augmente. On a alors : (1.33) lim c x ( ) 0 Et (1.34) 2 2 lim rx ( ) lim c x ( ) m X m X 3.6. Matrice de corrélation Pour un vecteur aléatoire X X 1 , X 2 ,, X k , on peut définir une matrice de T corrélation dont les éléments sont les fonctions de corrélation des composantes deux à deux : R XX E XX T R XX (1.35) EX 1 X 1 EX 1 X 2 EX 1 X k EX X 2 1 EX k X k EX k X 1 Le processus est supposé stationnaire, EX i X i rX (0) , E X i X j E X j X i , donc la matrice RXX est symétrique et chaque diagonale est constituée d’éléments identiques (matrice Teoplitz). Dans le cas complexe, la matrice RXX devient R XX E XX H où XH est le transposé conjuguée de X. La matrice de corrélation n’est plus symétrique, mais hermitienne. 29 4. Processus aléatoires à temps discret Un processus aléatoire à temps discret X (n ) est une séquence de variables aléatoires définies pour tout entier n . La valeur moyenne, la fonction d’autocorrélation et la fonction d’autocovariance sont données par : EX (n) mX (n) (1.36) rx (n1 , n2 ) EX (n1 ) X (n2 ) (1.37) c x (n1 , n2 ) EX (n1 ) m X (n1 )X (n2 ) m X (n2 ) rx (n1 , n2 ) m X (n1 )m X (n2 ) (1.38) Si le processus X (n ) est stationnaire au sens large, alors la moyenne : EX (n) mX const (1.39) est indépendante de n , et la fonction d’autocorrélation : rx (n, n k ) rx (k ) c x (k ) m X2 (1.40) ne dépend que du décalage temporel entre n et n k . Matrice d’autocorrélation Soit un vecteur de M variables aléatoires X X (n), X (n 1), X (n M 1) . T La matrice d’autocorrélation de ce processus est : R XX E XX T R XX 5. (1.41) rX (1) rX ( M 1) rX (0) r (1) X rX (0) rX ( M 1) Filtrage des processus aléatoires Les filtres linéaires sont très utilisés dans diverses applications du traitement du signal. les entrées de ces filtres sont généralement des processus aléatoires. Donc cette opération de filtrage peut être considérée comme une opération de modélisation d’une séquence aléatoire. Les modèles les plus rencontrés sont le processus AR, le processus MA et le processus ARMA [1,4,5]. Soient X (n ) , Y (n ) et h(n) l’entrée du filtre, la sortie du filtre et la réponse impulsionnelle du filtre respectivement. 30 Figure 2. Filtrage des processus aléatoires 5.1. Processus AR Un processus AR est representé par l’equation aux difference suivante p X (n) ak X (n k ) e(n) (1.42) k 1 où X (n ) est la séquence aléatoire observée, a k , k 1, 2, , p , sont des constantes appelées les paramètres du modèle. e(n) est une séquence de variables aléatoires gaussiennes, de moyenne nulle et de variance n2 . p est l’ordre du filtre. Le mot autorégressif vient du fait que la valeur présente du processus est une combinaison linéaire des valeurs passées du processus et un terme de bruit. En prenant la transformée en Z de l’équation (), on aboutit à : X (Z ) 1 a1 Z 1 a2 Z 2 a p Z p E(Z ) (1.43) D’où la fonction de transfert du filtre est : H (Z ) 1 p 1 ak Z (1.44) k k 1 La structure du filtre est représentée sur la figure (3). Figure 3. Processus autorégressif d’ordre p Pour déterminer la densité spectrale de puissance à la sortie du filtre qui est donnée par : 31 n2 Sx ( f ) p 1 ak e 2 (1.45) j 2fk k 1 Nous avons besoin d’estimer les coefficients du modèle a k ainsi que la variance du bruit n2 . En multipliant l’equation (1.42) par X ( n l ) p EX (n) X (n l ) ak EX (n k ) X (n l ) Ee(n) X (n l ) (1.46) k 1 Le terme Ee(n) X (n l )vaut n2 pour l 0 . Cependant pour l 0 ce terme est nul du fait que les termes X (n l ) et e(n) sont idependants et Ee(n) 0 . Le premier terme de l’equation () est la fonction d’autocorrelation rx (l ) . Donc : p rx (l ) ak rx (l k ), l 0 (1.47) k 1 En mettant cette expression sous la forme matricielle : rx (1) rX (1) rX ( p 1) a 1 rX (0) a rx (2) rX (1) 2 R a r x x rx ( p) rX (0) a p rX ( p 1) (1.48) Ce sont les équations de Yule-Walker. Les coefficients a k sont la solution du système d’équations. (1.49) a R x1 rx Et la variance du bruit : p n2 rx (0) ak rx (k ) (1.50) k 1 5.2. Processus MA Un processus MA est définit par : q X (n) bk e(n k ) , b0 1 (1.51) k 0 Où b0 , b1 , bq sont les parametres du modele AR et e(n) est un bruit blanc constituant l’entré du filtre. En appliquant la transformée en Z, on aura : 32 X (Z ) E(Z ) 1 b1 Z 1 bq Z q (1.52) La figure montre un processus MA d’ordre q Figure 4. Processus à moyenne ajustée d’ordre q 5.3. Processus ARMA Le modele d’un processus ARMA est donné par : p q k 0 l 0 ak X (n k ) bl e(n l ) , a0 b0 1 (1.53) Oubien sous la forme : p q k 1 l 1 X (n) ak X (n k ) e(n) bl e(n l ) (1.54) En prenant la transformée en Z, nous obtenons : q H (Z ) 1 bl Z l l 1 p 1 ak Z k k 1 La figure ci-dessous montre un processus ARMA d’ordre ( p, q) Figure 5. Processus autorégressif à moyenne ajustée d’ordre (p,q) 33 (1.55) Le processus ARMA est vue comme un filtre de fonction de transfert H (z ) ayant des pôles et des zéros. Excité par une entré e(n) , le modèle délivre un processus X (n ) . Les polynômes A(z ) et B (z ) sont caractérisés par le lieu de leurs racines dans le plan complexe. Il est supposé que le polynôme A(z ) à toutes racines à l’intérieur du cercle unitaire du plan complexe pour assurer que le filtre soit stable, sinon la sortie du modèle ne sera pas un processus stationnaire. 6. Densités de probabilité usuelles 6.1. Loi gaussienne Si la variable X suit une loi gaussienne (ou normale), de moyenne nulle et de variance 2 , sa densité de probabilité s’écrit : p X ( x) x2 exp 2 2 2 2 1 (1.56) 6.2. Loi uniforme Soit X une variable aléatoire uniforme sur l’intervalle [−1/2,+1/2]. La densité de probabilité s’écrit: (1.57) p X ( x) rect ( x) Cette variable est centrée, donc la variable X a une moyenne nulle : EX xp 1 / 2 X ( x)dx xdx 0 (1.58) 1 / 2 Le moment d’ordre deux est: x E X2 1 / 2 2 p X ( x)dx 1 x dx 12 2 (1.59) 1 / 2 Puisque la moyenne est nulle, la variance et le moment d’ordre 2 sont égaux. 7. Notion de bruit blanc Un bruit blanc u (n) est un processus aléatoire centré vérifiant : ru (0) u2 et ru (k ) 0 pour k 0 . La densité spectrale de puissance est donc constante sur tout l’axe des fréquences Pu ( f ) u2 cte. 34