Chapitre 2 – Processus aléatoires - Etud.insa

publicité
Chapitre 2 – Processus aléatoires
• Définition
Un processus aléatoire peut être défini comme une
variable aléatoire dépendant explicitement d’un ou
plusieurs paramètres. Dans notre cas, d’un seul
paramètre : le temps.
• Exemple
- Considérons le processus aléatoire constitué des fonctions
A cos(t   ) où A, ,  dépendent du jet d’un dé, donc
du hasard .
Chaque fonction est un signal aléatoire, on dit une réalisation
du processus
Chapitre 2 – Processus aléatoires
• Plus formellement
• Soit un univers associé à une expérience aléatoire
(, P (), P)
Un processus aléatoire (stochastique) X est défini par
  T  ou
( , t )  X ( , t )
• On peut l’interpréter comme
- Une famille de fonction dépendant de  et t
- Une simple fonction de t lorsque  est fixé
- Une variable aléatoire lorsque t est fixé
- Un nombre lorsque  et t sont fixés
Chapitre 2 – Processus aléatoires
• Exemple (suite)
X ( , t )  A( ) cos(( ).t   ( ))
• Lorsque  est fixé, on obtient une réalisation qui est une fonction du
temps, prise dans un ensemble de 63  216 fonctions sinusoïdales.
• Lorsque t est fixé on obtient une simple variable aléatoire qui peut
prendre 63  216 valeurs réelles.
• Lorsque t et  sont fixés, on obtient un simple réel.
Chapitre 2 – Processus aléatoires
• Si le temps est discret, c’est-à-dire que le hasard
intervient à des instants aléatoires connus a priori, on
parle de processus à temps discret, T dénombrable.
• Si le temps est continu, le hasard se manifeste à tout
instant, on dit que le processus est à temps continu, T
ensemble continu.
• Si la variable aléatoire prend des valeurs dans un
ensemble discret, le processus est dit à état discret.
• Si la variable aléatoire prend des valeurs dans un
ensemble continu, le processus est dit à état continu.
• On peut avoir toutes les combinaisons possibles, par
exemple : temps continu, état discret…
Chapitre 2 – Processus aléatoires
• Fonction de répartition d’ordre 1
Si l’on fixe le temps, on obtient une variable aléatoire,
soit X (t1 ) qui peut être caractérisée par sa fonction de
répartition dite d’ordre 1
F1 ( x1 , t1 )  Pr  X (t1 )  x1 
• Densité de probabilité d’ordre 1
La densité de probabilité d’ordre 1 est la dérivée de par F1
rapport à x1
F1 ( x1 , t1 )
f1 ( x1 , t1 ) 
x1
Chapitre 2 – Processus aléatoires
• Moyenne et variance

m(t1 )  E  X (t1 )   x1 f ( x1 , t1 )dx1

• Variance (écart-type au carré)
*

 (t1 )  E  X (t1 )  m(t1 )  X (t1 )  m(t1 )  


2

x1  m(t1 )  x1  m(t1 ) 



*
f ( x1 , t1 )dx1
Chapitre 2 – Processus aléatoires
• Fonction de répartition d’ordre 2
F2 ( x1 , x2 , t1 , t2 )  Pr  X (t1 )  x1; X (t2 )  x2 
• Densité de probabilité d’ordre 2
 2 F2 ( x1 , x2 ; t1 , t2 )
f 2 ( x1 , x2 , t1 , t2 ) 
x1x2
• On a
F2  x1 , x2 ; t1 , t2   
F2  , ; t1 , t2   1
x1


x2

f 2  u1 , u2 ; t1 , t2 du1du2
F1  x1 ; t1   Pr  X  t1   x1 ; X  t2      F2  x1 , ; t1 , t2 
Chapitre 2 – Processus aléatoires
• Les caractéristiques d’ordre 1 ne tiennent pas compte
directement de l’évolution en fonction du temps. Il faut
au moins considérer les caractéristiques d’ordre 2 pour
avoir une information sur cette évolution
• En toute rigueur et en général, la caractérisation du
processus passe par la connaissance des fonctions de
répartition ou densités de probabilité de tous les ordres
• Dans bien des cas pratiques, notamment ceux qui
intéressent l’automatique ou l’électronique, les
caractéristiques d’ordre deux sont souvent suffisantes.
Chapitre 2 – Processus aléatoires
• Covariance


*
C (t1 , t2 )  E  X  t1   m  t1    X  t2   m  t2   



X
Y




 x t   m t   x t   m t 
*
1
1
2
2
f ( x1 , x2 ; t1 , t2 )dx1dx2
• Le coefficient de corrélation
C (t1 , t2 )
 (t1 , t2 ) 
 (t1 ) (t2 )
- On peut montrer que  2 (t1 , t2 )  1 . Si X et Y sont
indépendantes alors  (t1 , t2 )  0.  (t1 , t2 )  0 est une
condition nécessaire , non suffisante d’indépendance. Si
  1 alors il existe une relation linéaire entre X et Y
Chapitre 2 – Processus aléatoires
• Fonction de corrélation
Elle est définie par :

R(t1 , t2 )  E  X (t1 ) X  t2    x1x2* f 2 ( x1 , x2 ; t1, t2 )dx1dx2

Propriétés
*
-
C’est une fonction symétrique
-
2

R(t1 , t1 )  E X (t1 )   0


-
R(t1 , t2 )  R(t1 , t1 ) R(t2 , t2 )
-
RX (t )m(t )  C (t1 , t2 )  R(t1 , t2 )  m(t1 )m* (t2 ) , c’est la fonction
d’auto-covariance.
2
Chapitre 2 – Processus aléatoires
• Fonction d’inter-corrélation
Soient deux processus aléatoires X et Y
corrélation est définie par
. La fonction d’inter-
*

RXY (t1 , t2 )  E  X (t1 )Y  t2  

  x1 y2 f XY ( x1 , y2 ; t1 , t2 )dx1dy2

La fonction d’inter-covariance est alors
*

CXY (t1 , t2 )  E  X (t1 )  mX (t1 )  X (t2 )  mX (t2 )  


Chapitre 2 – Processus aléatoires
• Fonction d’inter-corrélation
Soient deux processus aléatoires X et Y
corrélation est définie par
. La fonction d’inter-
*

RXY (t1 , t2 )  E  X (t1 )Y  t2  

  x1 y2 f XY ( x1 , y2 ; t1 , t2 )dx1dy2

La fonction d’inter-covariance est alors
*

CXY (t1 , t2 )  E  X (t1 )  mX (t1 ) Y (t2 )  mY (t2 )  


Chapitre 2 – Processus aléatoires
• Exemple
: Signal des télégraphistes
Soit un signal qui ne peut prendre que deux valeur 0 ou 1.
Les instants auxquels la fonction change de valeur correspondent à un
processus de Poisson. La probabilité d’avoir k changements de valeurs
pendant un temps T est donné par
(aT )k  aT
P(k , T ) 
e ,
k!
a: nombre moyen de changements par unité de temps.
A l’origine la fonction prend la valeur 0 ou 1 avec une probabilité 1/2.
Chapitre 2 – Processus aléatoires
• Exemple : Signal des télégraphistes (suite)
mx  E  x(t )  0  P  x(t )  0  1 P  x(t )  1  1 P  x(t )  1
Or
P  x(t )  1  P  x0  1 et Nombre de chgts pair  
P  x0  0 et Nombre de chgts impair 
 P  x0  1 P  Nombre de chgts pair  
1
P  x0  0  P  Nombre de chgts impair  
2
On voit que la moyenne est indépendante de t et que cela est dû à
P  x0  0   P  x0  1
Chapitre 2 – Processus aléatoires
• Exemple : Signal des télégraphistes (suite)
R(t1 , t2 )  E  x(t1 ) x(t2 )   11 P  x(t1 )  1 et x(t2  1) 
 P  x(t1 )  1  P  Nbre de chgts pair pendant le temps t2 -t1
a t2  t1 

1
1  a t2 t1
 P  k  pair, t2  t1   e

2
2
 2 j !
j 0

1  a t t
 e 2 1
2
 1  a t  t
2
1
 
j !
 2 j 0





j
a t2  t1

1
 
2 j 0
 j !


1  a t2 t1 a t2 t1
1
 a t2  t1
2 a t  t
 e
e
e
 1 e 2 1
4
4

2j

j





Chapitre 2 – Processus aléatoires
• Processus stationnaires
Processus dont les caractéristiques sont indépendantes de l’origine
des temps.
-Stationnarité au sens strict
Xest stationnaire
au sens strict si la densité de probabilité vérifie

pour tout
f ( x1 , x2 ,
, xn ; t1 ,
, tn )  f ( x1, x2 ,
, xn ; t1   ,
, tn   )
La fonction de répartition est indépendante du temps, la valeur
moyenne également et la fonction d’auto-corrélation vérifie
R(t1 , t2 )  E  x(t1 ) x(t2 )  E  x(t ) x(t   )   R(t2  t1 )  R( )
Chapitre 2 – Processus aléatoires
La stationnarité au sens strict est très restrictive, on peut
l’affaiblir
- Stationnarité au sens large ou second ordre
X est stationnaire au sens large si les moments d’ordre un et
deux sont invariants par tout changement de l’origine du
temps.
On a donc
-
E  X (t )  m indépendant du temps
R(t1 , t2 )  R(t2  t1 )  R( )  R( )
C (t1 , t2 )  C ( )  R( )  m
2
R( ) continue à l’origine et R(0)  E  x (t )  ,
2
R( )  R(0)
Chapitre 2 – Processus aléatoires
Un processus aléatoire dépendant des lois du hasard et d’une
variable, ici le temps, on peut se demander s’il y a des relations
« fortes » entre les moyennes temporelles et les moyennes
statistiques. On s’intéresse alors à une propriété que l’on appelle
l’Ergodicité.
Un processus est dit ergodique si ces moyennes temporelles
existent, ont même valeur quelle que soit la réalisation, sauf pour
un ensemble de probabilité nulle.
Définissons la moyenne temporelle sur une réalisation (ordre 1)
1 t0 T
X (0 )  X (0 , t )  lim  X (0 , t )dt
T  T t0
- Notons que cette limite peut ne pas exister pour certaines ou pour
toutes les réalisations.
- Si elle existe, elle peut dépendre de l’échantillon
Chapitre 2 – Processus aléatoires
La moyenne statistique est

E  X (t )   xf ( x; t )dx  m(t )

Le processus est ergodique relativement à la moyenne si
X ( )  E  X (t )
Et X ( ) existe et est indépendante de 
- On peut définir d’autres moyennes, comme par exemple
1
X ( , t ) X ( , t   )  lim
T  2T
Dans ce cas l’ergodicité entraîne
X ( )  E  X (t ) et

T
T
X ( , t ) X ( , t   )dt
X ( , t ) X  , t     R( )
Chapitre 2 – Processus aléatoires
- La stationnarité et l’ergodicité sont des notions indépendantes,
l’une n’entraîne pas l’autre
- Les conditions d’ergodicité ne sont pas faciles à expliciter d’un
point de vue pratique
- Pour les processus gaussiens, on peut montrer que



R( )  m2 d  
entraîne l’ergodicité.
- Cette notion est importante en pratique car on peut évaluer les
caractéristiques statistiques à partir d’une seule réalisation. Ceci
n’a de valeur que si le processus est stationnaire et ergodique,
c’est ce que l’on suppose souvent.
Chapitre 2 – Processus aléatoires
- Exemples : Signal des télégraphistes (suite)
Ce signal est stationnaire au sens large. En effet
1
mx 
2
Et
On a
2 a 
1 e
R(t1 , t2 )  R(t2  t1 )  R( ) 
4
R ( )  R (  )
1
R ( )  R (0) 
2
1
lim R ( )  E  x (t )  
 
4
2
Chapitre 2 – Processus aléatoires
- Exemples (suite)
:
• Le processus X (t )  Y (t )  A avec Y (t ) fonction déterministe et A
une variable aléatoire telle que E  A  a est non stationnaire et non
ergodique.
• Le processus X (t )  A cos t où A est une v.a telle que E  A  a
est non stationnaire et ergodique
• le processus X (t )  cos(t  ) où  est une v.a uniformément
répartie sur   ,   et  une v.a de densité de probabilité f , est
ergodique et stationnaire.
Chapitre 2 – Processus aléatoires
- Lorsque le temps est discret, on parle de séquence aléatoire et on
peut étendre facilement les notions précédentes.
- On définit la moyenne

E  X  n    m(n)   xf ( x, n)dx

- La fonction d’auto-corrélation
R(n1 , n2 )  E  X (n1 ) X * (n2 ) 
- La stationnarité et l’ergodicité se définissent de manière identique
et toutes les propriétés qui en découlent également.
Téléchargement