Chapitre 2 – Processus aléatoires • Définition Un processus aléatoire peut être défini comme une variable aléatoire dépendant explicitement d’un ou plusieurs paramètres. Dans notre cas, d’un seul paramètre : le temps. • Exemple - Considérons le processus aléatoire constitué des fonctions A cos(t ) où A, , dépendent du jet d’un dé, donc du hasard . Chaque fonction est un signal aléatoire, on dit une réalisation du processus Chapitre 2 – Processus aléatoires • Plus formellement • Soit un univers associé à une expérience aléatoire (, P (), P) Un processus aléatoire (stochastique) X est défini par T ou ( , t ) X ( , t ) • On peut l’interpréter comme - Une famille de fonction dépendant de et t - Une simple fonction de t lorsque est fixé - Une variable aléatoire lorsque t est fixé - Un nombre lorsque et t sont fixés Chapitre 2 – Processus aléatoires • Exemple (suite) X ( , t ) A( ) cos(( ).t ( )) • Lorsque est fixé, on obtient une réalisation qui est une fonction du temps, prise dans un ensemble de 63 216 fonctions sinusoïdales. • Lorsque t est fixé on obtient une simple variable aléatoire qui peut prendre 63 216 valeurs réelles. • Lorsque t et sont fixés, on obtient un simple réel. Chapitre 2 – Processus aléatoires • Si le temps est discret, c’est-à-dire que le hasard intervient à des instants aléatoires connus a priori, on parle de processus à temps discret, T dénombrable. • Si le temps est continu, le hasard se manifeste à tout instant, on dit que le processus est à temps continu, T ensemble continu. • Si la variable aléatoire prend des valeurs dans un ensemble discret, le processus est dit à état discret. • Si la variable aléatoire prend des valeurs dans un ensemble continu, le processus est dit à état continu. • On peut avoir toutes les combinaisons possibles, par exemple : temps continu, état discret… Chapitre 2 – Processus aléatoires • Fonction de répartition d’ordre 1 Si l’on fixe le temps, on obtient une variable aléatoire, soit X (t1 ) qui peut être caractérisée par sa fonction de répartition dite d’ordre 1 F1 ( x1 , t1 ) Pr X (t1 ) x1 • Densité de probabilité d’ordre 1 La densité de probabilité d’ordre 1 est la dérivée de par F1 rapport à x1 F1 ( x1 , t1 ) f1 ( x1 , t1 ) x1 Chapitre 2 – Processus aléatoires • Moyenne et variance m(t1 ) E X (t1 ) x1 f ( x1 , t1 )dx1 • Variance (écart-type au carré) * (t1 ) E X (t1 ) m(t1 ) X (t1 ) m(t1 ) 2 x1 m(t1 ) x1 m(t1 ) * f ( x1 , t1 )dx1 Chapitre 2 – Processus aléatoires • Fonction de répartition d’ordre 2 F2 ( x1 , x2 , t1 , t2 ) Pr X (t1 ) x1; X (t2 ) x2 • Densité de probabilité d’ordre 2 2 F2 ( x1 , x2 ; t1 , t2 ) f 2 ( x1 , x2 , t1 , t2 ) x1x2 • On a F2 x1 , x2 ; t1 , t2 F2 , ; t1 , t2 1 x1 x2 f 2 u1 , u2 ; t1 , t2 du1du2 F1 x1 ; t1 Pr X t1 x1 ; X t2 F2 x1 , ; t1 , t2 Chapitre 2 – Processus aléatoires • Les caractéristiques d’ordre 1 ne tiennent pas compte directement de l’évolution en fonction du temps. Il faut au moins considérer les caractéristiques d’ordre 2 pour avoir une information sur cette évolution • En toute rigueur et en général, la caractérisation du processus passe par la connaissance des fonctions de répartition ou densités de probabilité de tous les ordres • Dans bien des cas pratiques, notamment ceux qui intéressent l’automatique ou l’électronique, les caractéristiques d’ordre deux sont souvent suffisantes. Chapitre 2 – Processus aléatoires • Covariance * C (t1 , t2 ) E X t1 m t1 X t2 m t2 X Y x t m t x t m t * 1 1 2 2 f ( x1 , x2 ; t1 , t2 )dx1dx2 • Le coefficient de corrélation C (t1 , t2 ) (t1 , t2 ) (t1 ) (t2 ) - On peut montrer que 2 (t1 , t2 ) 1 . Si X et Y sont indépendantes alors (t1 , t2 ) 0. (t1 , t2 ) 0 est une condition nécessaire , non suffisante d’indépendance. Si 1 alors il existe une relation linéaire entre X et Y Chapitre 2 – Processus aléatoires • Fonction de corrélation Elle est définie par : R(t1 , t2 ) E X (t1 ) X t2 x1x2* f 2 ( x1 , x2 ; t1, t2 )dx1dx2 Propriétés * - C’est une fonction symétrique - 2 R(t1 , t1 ) E X (t1 ) 0 - R(t1 , t2 ) R(t1 , t1 ) R(t2 , t2 ) - RX (t )m(t ) C (t1 , t2 ) R(t1 , t2 ) m(t1 )m* (t2 ) , c’est la fonction d’auto-covariance. 2 Chapitre 2 – Processus aléatoires • Fonction d’inter-corrélation Soient deux processus aléatoires X et Y corrélation est définie par . La fonction d’inter- * RXY (t1 , t2 ) E X (t1 )Y t2 x1 y2 f XY ( x1 , y2 ; t1 , t2 )dx1dy2 La fonction d’inter-covariance est alors * CXY (t1 , t2 ) E X (t1 ) mX (t1 ) X (t2 ) mX (t2 ) Chapitre 2 – Processus aléatoires • Fonction d’inter-corrélation Soient deux processus aléatoires X et Y corrélation est définie par . La fonction d’inter- * RXY (t1 , t2 ) E X (t1 )Y t2 x1 y2 f XY ( x1 , y2 ; t1 , t2 )dx1dy2 La fonction d’inter-covariance est alors * CXY (t1 , t2 ) E X (t1 ) mX (t1 ) Y (t2 ) mY (t2 ) Chapitre 2 – Processus aléatoires • Exemple : Signal des télégraphistes Soit un signal qui ne peut prendre que deux valeur 0 ou 1. Les instants auxquels la fonction change de valeur correspondent à un processus de Poisson. La probabilité d’avoir k changements de valeurs pendant un temps T est donné par (aT )k aT P(k , T ) e , k! a: nombre moyen de changements par unité de temps. A l’origine la fonction prend la valeur 0 ou 1 avec une probabilité 1/2. Chapitre 2 – Processus aléatoires • Exemple : Signal des télégraphistes (suite) mx E x(t ) 0 P x(t ) 0 1 P x(t ) 1 1 P x(t ) 1 Or P x(t ) 1 P x0 1 et Nombre de chgts pair P x0 0 et Nombre de chgts impair P x0 1 P Nombre de chgts pair 1 P x0 0 P Nombre de chgts impair 2 On voit que la moyenne est indépendante de t et que cela est dû à P x0 0 P x0 1 Chapitre 2 – Processus aléatoires • Exemple : Signal des télégraphistes (suite) R(t1 , t2 ) E x(t1 ) x(t2 ) 11 P x(t1 ) 1 et x(t2 1) P x(t1 ) 1 P Nbre de chgts pair pendant le temps t2 -t1 a t2 t1 1 1 a t2 t1 P k pair, t2 t1 e 2 2 2 j ! j 0 1 a t t e 2 1 2 1 a t t 2 1 j ! 2 j 0 j a t2 t1 1 2 j 0 j ! 1 a t2 t1 a t2 t1 1 a t2 t1 2 a t t e e e 1 e 2 1 4 4 2j j Chapitre 2 – Processus aléatoires • Processus stationnaires Processus dont les caractéristiques sont indépendantes de l’origine des temps. -Stationnarité au sens strict Xest stationnaire au sens strict si la densité de probabilité vérifie pour tout f ( x1 , x2 , , xn ; t1 , , tn ) f ( x1, x2 , , xn ; t1 , , tn ) La fonction de répartition est indépendante du temps, la valeur moyenne également et la fonction d’auto-corrélation vérifie R(t1 , t2 ) E x(t1 ) x(t2 ) E x(t ) x(t ) R(t2 t1 ) R( ) Chapitre 2 – Processus aléatoires La stationnarité au sens strict est très restrictive, on peut l’affaiblir - Stationnarité au sens large ou second ordre X est stationnaire au sens large si les moments d’ordre un et deux sont invariants par tout changement de l’origine du temps. On a donc - E X (t ) m indépendant du temps R(t1 , t2 ) R(t2 t1 ) R( ) R( ) C (t1 , t2 ) C ( ) R( ) m 2 R( ) continue à l’origine et R(0) E x (t ) , 2 R( ) R(0) Chapitre 2 – Processus aléatoires Un processus aléatoire dépendant des lois du hasard et d’une variable, ici le temps, on peut se demander s’il y a des relations « fortes » entre les moyennes temporelles et les moyennes statistiques. On s’intéresse alors à une propriété que l’on appelle l’Ergodicité. Un processus est dit ergodique si ces moyennes temporelles existent, ont même valeur quelle que soit la réalisation, sauf pour un ensemble de probabilité nulle. Définissons la moyenne temporelle sur une réalisation (ordre 1) 1 t0 T X (0 ) X (0 , t ) lim X (0 , t )dt T T t0 - Notons que cette limite peut ne pas exister pour certaines ou pour toutes les réalisations. - Si elle existe, elle peut dépendre de l’échantillon Chapitre 2 – Processus aléatoires La moyenne statistique est E X (t ) xf ( x; t )dx m(t ) Le processus est ergodique relativement à la moyenne si X ( ) E X (t ) Et X ( ) existe et est indépendante de - On peut définir d’autres moyennes, comme par exemple 1 X ( , t ) X ( , t ) lim T 2T Dans ce cas l’ergodicité entraîne X ( ) E X (t ) et T T X ( , t ) X ( , t )dt X ( , t ) X , t R( ) Chapitre 2 – Processus aléatoires - La stationnarité et l’ergodicité sont des notions indépendantes, l’une n’entraîne pas l’autre - Les conditions d’ergodicité ne sont pas faciles à expliciter d’un point de vue pratique - Pour les processus gaussiens, on peut montrer que R( ) m2 d entraîne l’ergodicité. - Cette notion est importante en pratique car on peut évaluer les caractéristiques statistiques à partir d’une seule réalisation. Ceci n’a de valeur que si le processus est stationnaire et ergodique, c’est ce que l’on suppose souvent. Chapitre 2 – Processus aléatoires - Exemples : Signal des télégraphistes (suite) Ce signal est stationnaire au sens large. En effet 1 mx 2 Et On a 2 a 1 e R(t1 , t2 ) R(t2 t1 ) R( ) 4 R ( ) R ( ) 1 R ( ) R (0) 2 1 lim R ( ) E x (t ) 4 2 Chapitre 2 – Processus aléatoires - Exemples (suite) : • Le processus X (t ) Y (t ) A avec Y (t ) fonction déterministe et A une variable aléatoire telle que E A a est non stationnaire et non ergodique. • Le processus X (t ) A cos t où A est une v.a telle que E A a est non stationnaire et ergodique • le processus X (t ) cos(t ) où est une v.a uniformément répartie sur , et une v.a de densité de probabilité f , est ergodique et stationnaire. Chapitre 2 – Processus aléatoires - Lorsque le temps est discret, on parle de séquence aléatoire et on peut étendre facilement les notions précédentes. - On définit la moyenne E X n m(n) xf ( x, n)dx - La fonction d’auto-corrélation R(n1 , n2 ) E X (n1 ) X * (n2 ) - La stationnarité et l’ergodicité se définissent de manière identique et toutes les propriétés qui en découlent également.