Signaux aléatoires - Sylvain Tisserant

publicité
Signaux aléatoires
A. Définitions
A.1. Description probabiliste
La notion de signal aléatoire est plus ou moins intuitive. Mais pour être capable de les traiter
nous devons en donner une définition formelle.
Un signal aléatoire peut être défini comme une fonction x(t,α) à deux paramètres. Le premier
représente le temps (continu ou discret) et l’autre une variable aléatoire. Pour une valeur
donnée de α, xα(t) = x(t,α) est une réalisation du signal temporel. On parle aussi d’échantillon
ou de trajectoire (fig. 10-1).
Fig. 10-1 : Quatre réalisations ou échantillons d’un même processus stochastique
Citons à titre d’exemple quelques signaux aléatoires :
- X ( t ) = A sin(ωt + ϕ) avec ϕ aléatoire uniformément distribué entre 0 et 2 π ;
- X ( t ) = A sin(ωt + ϕ) avec A et ϕ indépendants et aléatoires ;
- X(t) = A avec A suivant une loi de Gauss.
Il est cependant souvent difficile de définir un signal aléatoire d’une manière aussi compacte.
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 1
A chaque instant t, X(t) = x(t,α) est une variable aléatoire. Le signal aléatoire peut donc être
décrit par une densité de probabilité que nous noterons p(x,t) ou une fonction de répartition
F(x,t). Nous avons :
F( x, t ) = P [X( t ) ≤ x ]
p( x , t ) dx = P [x ≤ X ( t ) < x + dx ] ⇒ p( x , t ) =
∂ F( x , t )
∂x
La densité p(x,t) est dite densité de probabilité du premier ordre.
Il est également important de pouvoir décrire les relations pouvant exister entre tout couple de
variables aléatoires prises à deux instants t1 et t2. Pour cela nous définissons la fonction de
répartition et la densité de probabilité de deuxième ordre, avec :
F( x1 , t1; x 2 , t 2 ) = P [X( t1 ) ≤ x1; X( t 2 ) ≤ x 2 ]
p( x1 , t1 ; x 2 , t 2 ) =
∂ 2 F( x1 , t1 ; x 2 , t 2 )
∂x1 ∂x 2
De manière similaire nous pouvons également définir des probabilités d’ordres supérieurs.
A.2. Stationnarité
Un signal aléatoire est dit stationnaire (au sens strict) si toutes ses propriétés statistiques, à
tous les ordres, sont invariantes dans le temps. C’est-à-dire que les deux signaux X(t) et
Y(t) = X(t + τ) ont les mêmes propriétés statistiques.
Dans la pratique on se limite très souvent aux signaux aléatoires stationnaires du deuxième
ordre, pour lesquels les propriétés statistiques d’ordre 1 et 2 sont indépendantes des instants
d’observation. Nous avons alors :
F( x , t ) = F( x ) et
E( x, t ) = E(x ) = µ x
p( x , t ) = p( x )
et E ( x 2 , t ) = E ( x 2 ) = µ x 2 + σ x 2
F( x1 , t1; x 2 , t 2 ) = F( x1 , x 2 , τ) et p( x1 , t1 ; x 2 , t 2 ) = p( x1 , x 2 , τ) avec τ = t 2 − t1
La probabilité du premier ordre est indépendante du temps et celle du deuxième ordre ne
dépend que de l’intervalle séparant les deux instants d’observation.
Les deux figures suivantes illustrent cette notion. Le premier signal aléatoire (fig. 10-2.a) est
stationnaire au deuxième ordre au moins, alors que les trois autres exemples ne sont pas
stationnaires.
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 2
Fig. 10-2 : Exemples d’un processus stochastique stationnaire au 2ème ordre (a)
et d’un processus stochastique non stationnaire (b).
Fig. 10-3 : Exemples de deux processus stochastiques non stationnaires.
A.3. Ergodisme
Considérons un échantillon (ou trajectoire) d’un signal aléatoire, que nous notons x(t) pour
alléger l’écriture. C’est un signal temporel dont nous pouvons calculer la valeur moyenne :
1 T
x ( t ) dt
T →∞ T 0
x = lim
∫
Un signal aléatoire est dit ergodique si ses valeurs moyennes statistiques sont identiques à ses
valeurs moyennes temporelles. C’est-à-dire pour un signal stationnaire :
E( x n ) = x n
⇔
+∞
∫ −∞
1 T n
x ( t ) dt
T →∞ T 0
x n p( x ) dx = lim
∫
Il est alors possible d’estimer les propriétés statistiques d’un signal aléatoire par l’analyse
temporelle d’un de ses échantillons.
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 3
B. Autocorrélation statistique et densité spectrale de puissance
B.1. Fonction d’autocorrélation statistique
La fonction d’autocorrélation statistique d’un signal aléatoire X(t) est définie par :
R X ( t1 , t 2 ) = E[X( t1 ) X( t 2 )] = E( x1 x 2 )
Soit :
R X ( t1 , t 2 ) =
+∞
+∞
∫ −∞ ∫ −∞
x1 x 2 p( x1 , t 1 ; x 2 , t 2 ) dx1 dx 2
en se souvenant que x1 = X(t1) et x2 = X(t2).
La fonction d’autocovariance est définie comme la variance du couple x1 et x2 :
C X ( t 1 , t 2 ) = E ( x1 x 2 ) − E ( x1 ) E ( x 2 )
Pour un signal stationnaire, la densité de probabilité du deuxième ordre ne dépend que de
l’intervalle τ = t2 – t1. Il en est donc de même pour les fonctions d’autocorrélation et
d’autocovariance :
R X (τ) =
+∞
+∞
∫−∞ ∫−∞
x1 x 2 p( x1 , x 2 , τ) dx1 dx 2
et C X (τ) = R X (τ) − E ( x ) 2
Nous avons les propriétés suivantes :
R X (−τ) = R X (τ) et C X (−τ) = C X (τ)
R X ( 0) = E ( x 2 ) = µ x 2 + σ x 2
et C X (0) = σ x 2
RX(0) représente l’espérance mathématique de la puissance du signal.
L’inégalité de Cauchy-Schwartz permet de montrer que :
R X (τ) ≤ R X (0) ;
C X (τ) ≤ C X (0) et µ x 2 − σ x 2 ≤ R X (τ) ≤ µ x 2 + σ x 2
Cela permet d’introduire la fonction d’autocovariance normalisée :
ρ X (τ) =
C X (τ)
C X (0)
B.2. Densité spectrale de puissance
Considérons un signal aléatoire stationnaire X(t). Comme son comportement est indépendant
du temps, donc jusqu’à l’infini, il est comparable aux signaux déterministes à énergie infinie.
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 4
Pour ce type de signaux nous avons défini (cf. chap. 8) la densité spectrale de puissance à
partir du signal mutilé sur un intervalle de largeur T, en cherchant la limite lorsque T tend
vers l’infini :
X T (ν ) X T * ( ν )
S x (ν) = lim
T
T →∞
Attention aux notations ! Dans l’expression précédente XT(ν) représente la transformée de
Fourier du signal tronqué.
Procédons de même pour un signal aléatoire stationnaire. Considérons le signal aléatoire
mutilé XT(t) qui se confond avec X(t) sur l’intervalle [0, T] et est nul à l’extérieur. Pour tout
échantillon xT(t) de ce signal aléatoire tronqué nous pouvons calculer sa transformée de
Fourier :
TF[x T ( t )] =
T
∫0
x ( t ) e − jωt dt
Ce qui définit une grandeur aléatoire, la transformée de Fourier du signal aléatoire TF[XT(t)],
qui correspond à l’ensemble des transformées des échantillons de XT(t).
Par analogie avec les signaux déterministes à énergie infinie définissons la quantité suivante :
Φ x ( ν, T ) =
2
1
TF[x T ( t )]
T
Elle nous donne la densité spectrale de puissance de l’échantillon lorsque T tend vers l’infini.
Pour chaque échantillon donné xT(t) cette quantité est appelée périodogramme de la
réalisation. Il s’agit d’une variable aléatoire dont nous pouvons calculer l’espérance
mathématique.
Nous pouvons écrire :
Φ x (ν, T ) =
T
1 T
1 T T
x ( t ) e − jωt dt
x (u ) e jωu du =
x ( t ) x (u ) e − jω( t − u ) dt du
T 0
T 0 0
0
∫
∫
∫ ∫
Calculons l’espérance mathématique de ce périodogramme :
E[Φ x (ν, T)] =
1 T T
E[x ( t ) x (u )] e − jω( t − u ) dt du
T 0 0
E[Φ x (ν, T)] =
∫ ∫
1 T T
R X ( t, u ) e − jω( t − u ) dt du
T 0 0
∫ ∫
Si le signal est stationnaire nous avons :
E[Φ x (ν, T)] =
1 T T
R X ( t − u ) e − jω( t − u ) dt du
T 0 0
∫ ∫
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 5
Effectuons un changement de variable avec v = t – u. Il vient :
E[Φ x (ν, T)] = −
1 T t −T
1 T t
R X ( v) e − jω v dv dt =
R X ( v) e − jω v dv dt
T 0 t
T 0 t −T
∫ ∫
∫ ∫
Le domaine d’intégration est défini par :
0 ≤ t ≤ T et
t−T ≤ v ≤ t
Dans le plan (t, v) c’est un losange (fig. 10-4). Celui-ci se décompose en deux triangles que
nous pouvons mettre sous la forme :
pour − T ≤ v ≤ 0 0 ≤ t ≤ v + T


pour 0 ≤ v ≤ T
v≤t≤T
Fig. 10-4 : Domaine d’intégration pour calcul de l’espérance mathématique d’un
périodogramme, avant (à gauche) et après (à droite) le changement de variable.
Cette observation nous permet de décomposer le calcul de l’espérance du périodogramme en
une somme de deux termes et d’inverser l’ordre des intégrations pour écrire :
E[Φ x (ν, T)] =
1 0 v+T
1 T T
R X ( v) e − jω v dt dv +
R X ( v) e − jω v dt dv
T −T 0
T 0 v
E[Φ x (ν, T)] =
1 0
1 T
( v + T ) R X ( v) e − jω v dv +
(T − v) R X ( v) e − jω v dv
T −T
T 0
∫ ∫
∫
∫ ∫
∫
Ce qui nous donne :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 6
E[Φ x (ν, T )] =
T 
∫ − T 1 −
v 
 R X ( v) e − jω v dv
T 
Nous reconnaissons une fonction triangle de base [-T, T]. Nous pouvons donc écrire :
E[Φ x (ν, T )] =
∫
+∞  v 
v
Λ  R X ( v) e − jω v dv
Λ  R X ( v) e − jω v dv =
T
T
−T  
−∞  
T
∫
Soit encore :

 τ 
E[Φ x (ν, T )] = TF R X (τ) Λ 
 T 

A la limite lorsque T tend vers l’infini :
lim E[Φ x (ν, T)] =
T →∞
+∞
∫−∞
R X ( t ) e − jω t dt
L’espérance mathématique du périodogramme tend vers la transformée de Fourier de la
fonction d’autocorrélation statistique du signal aléatoire. De par sa construction, nous
pouvons définir cette limite comme la densité spectrale de puissance du processus
stochastique.
Nous obtenons un résultat similaire à ce que nous avions obtenu, dans le chapitre 8, que pour
un signal déterministe. La densité spectrale d’énergie, ou de puissance, d’un signal
déterministe est égale à la transformée de Fourier de son autocorrélation. Pour les signaux
aléatoires stationnaires nous avons le théorème de Wiener-Khintchine :
La densité spectrale de puissance d’un signal aléatoire stationnaire est égale à la transformée
de Fourier de sa fonction d’autocorrélation statistique :
S X (ν) = TF[R X (τ)]
Nous pouvons donc écrire :
R X (τ) = TF −1 [S X (ν)]
C’est-à-dire :
R X (τ) =
+∞
∫ −∞
SX (ν) e j 2π ν τ dν
Pour τ = 0 nous avons :
E( x 2 ) = R X (0) =
+∞
∫ −∞
S X (ν) dν
L’espérance mathématique de la puissance du signal aléatoire est égale à l’intégrale sur tout le
spectre en fréquence de la densité spectrale de puissance. La définition est donc cohérente.
En pratique la densité spectrale de puissance d’un processus stochastique peut être obtenue en
calculant la valeur moyenne d’un grand nombre de périodogrammes.
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 7
C. Illustrations
C.1. Premier exemple
Considérons le signal aléatoire défini par :
X ( t ) = A sin (ωt + ϕ)
pour lequel A et ω sont des constantes alors que la phase à l’origine ϕ est aléatoire,
uniformément distribuée sur l’intervalle [0, 2π[.
Dans un premier temps déterminons ses fonctions de répartition F(x, t) et densité de
probabilité p(x, t). Partons de la définition :
F( x, t ) = P [X( t ) ≤ x ]
Notons φ(t) la phase instantanée modulo 2π :
φ( t ) ≡ ωt + ϕ (2π)
Cherchons tout d’abord le domaine de définition de la phase instantanée φ(t) pour que :
X ( t ) = A sin [φ( t )] ≤ x
Pour cela nous pouvons nous aider de la figure 10-5. Elle montre que nous devons distinguer
quatre cas :
∅
x < −A



x
 x 
− A ≤ x ≤ 0 π − arc sin  , 2π + arc sin  
A
 A 





x
 x  
0 ≤ x ≤ A
0, arc sin   ∪ π − arc sin  , 2π


A
 A  




[0, 2π]
A ≤ x
A un instant t donné, la phase instantanée est une variable aléatoire uniformément distribuée
sur [0, 2π[. Dans chacun des cas la probabilité est donc proportionnelle à la largeur du
domaine de définition. Le calcul est facile et se résume à :
∀ x < −A
F( x ) = 0


1 1
x
F( x ) = + arcsin  ∀ x ∈ [− A, A ]
2 π
A


F( x ) = 1
∀x > A
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 8
La fonction de répartition ne dépend pas de t. Pour la densité de probabilité nous avons :
p( x , t ) =
∂ F( x , t )
∂x
Ce qui nous donne :
p( x ) =
1
2
π A −x
2
∀ x ∈ ] − A , A[
La figure 10-6 présente l’allure de ces deux fonctions.
Fig. 10-5 : Recherche de φ tel que A sin(φ) ≤ x.
Fig. 10-6 : Fonction de répartition et densité de probabilité
du signal aléatoire décrit en C.1.
La fonction de répartition et la densité de probabilité ne dépendant pas du temps le signal est
stationnaire. Calculons les deux premiers moments. L’espérance mathématique est nulle :
E( x ) =
+∞
∫ −∞
x p( x ) dx = 0
Le calcul direct du moment d’ordre deux est possible :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 9
E( x 2 ) =
+∞
∫−∞
x 2 p( x ) dx =
+A
∫−A
x2
1
dx =
π A2 − x2
A2
2
Mais il est plus facile de calculer la variance en écrivant :
E( x 2 ) =
2π
∫0
x 2 p(ϕ) dϕ =
2π
∫0
A 2 sin 2 (ωt + ϕ)
dϕ A 2
=
2π
2
Calculons les moyennes temporelles (valeurs moyenne et efficace) correspondantes pour un
échantillon quelconque et comparons. La moyenne est nulle :
1
T →∞ T
x = lim
+T / 2
∫−T / 2
A sin(ωt + ϕ) dt = 0
Calculons la puissance moyenne :
1
T →∞ T
x 2 = lim
+T / 2
∫−T / 2
A 2 sin 2 (ωt + ϕ) dt
Calculons d’abord l’intégrale :
1
I=
T
∫
+T / 2
A2
A sin (ωt + ϕ) dt =
T
−T / 2
A2
I=
2T
2
2
+T / 2
+ T / 2 1 − cos(2ωt )
∫−T / 2
A2
 sin( 2ωt ) 
=
 t − 2ω 
 −T / 2 2 T

2
dt
sin(ωT) 

T −
ω 

Puis prenons la limite il vient :
x2 =
A2
2
Le signal est ergodique.
Calculons la fonction d’autocorrélation statistique :
R X ( t1 , t 2 ) =
+∞
+∞
∫−∞ ∫−∞
x1 x 2 p( x1 , t1 ; x 2 , t 2 ) dx1 dx 2
Comme nous avons :
x1 = X ( t1 ) = A sin (ωt1 + ϕ) et x 2 = X( t 2 ) = A sin (ωt 2 + ϕ)
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 10
Nous pouvons écrire :
R X (t1 , t 2 ) =
2π
∫0
A sin (ωt1 + ϕ) A sin (ωt 2 + ϕ)
dϕ A 2
=
cos [ω( t 2 − t 1 )]
2π
2
Ce qui nous donne :
A2
cos (ωτ ) avec τ = t 2 − t1
R X (t1 , t 2 ) =
2
Le signal étant stationnaire la fonction d’autocorrélation statistique ne dépend que de
l’intervalle séparant les deux instants t1 et t2.
Si nous comparons à un résultat obtenu dans le chapitre 8 (§ B.2.) nous constatons que les
fonctions d’autocorrélation statistique et temporelle sont identiques.
C.2. Deuxième exemple
Considèrons le signal aléatoire défini par :
X( t ) = A sin ωt
où A est une variable aléatoire gaussienne centrée, de variance σ2 et où ω est une constante.
Ce signal, assez proche du précédent, est-il stationnaire ? Est-il ergodique ?
Commençons par calculer espérance mathématique et variance. Nous avons :
E( x ) =
E( x 2 ) =
+∞
∫−∞
+∞
∫ −∞
A sin(ωt ) p(A) dA = sin(ωt )
A 2 sin 2 (ωt ) p(A) dA = sin 2 (ωt )
+∞
∫−∞
+∞
∫ −∞
A p(A) dA = 0
A 2 p(A) dA = σ 2 sin 2 (ωt )
Le moment d’ordre 2 n’est pas indépendant du temps. Le signal n’est donc pas stationnaire.
Comparons ces moyennes statistiques aux moyennes temporelles évaluées sur un échantillon :
x=
+∞
∫−∞
+∞
A sin(ωt ) dt = 0 = E ( x )
A2
≠ E( x 2 )
x =
A sin (ωt ) dt =
2
−∞
2
∫
2
2
Le signal n’est pas ergodique.
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 11
Calculons la fonction d’autocorrélation statistique :
R X ( t1 , t 2 ) =
+∞
+∞
∫−∞ ∫−∞
x1 x 2 p( x1 , t1 ; x 2 , t 2 ) dx1 dx 2
Comme nous avons :
x1 = X( t1 ) = A sin (ωt1 ) et x 2 = X( t 2 ) = A sin (ωt 2 )
Nous pouvons écrire :
R X (t1 , t 2 ) =
+∞
∫ − ∞ A sin (ωt1 ) A sin (ωt 2 ) p(A) dA = σ
2
sin (ωt1 ) sin (ωt 2 )
Ne dépend pas que de la différence t2 – t1.
C.3. Troisième exemple
Considérons un signal aléatoire (courbe verte de la figure 10-7) défini de la manière suivante :
- constant sur chaque intervalle [tn, tn+1[ avec tn = θ + n ∆t ;
- θ est aléatoire avec une densité de probabilité uniforme sur [0, ∆t[ ;
- sur chaque intervalle l’amplitude aléatoire suit une distribution uniforme entre –1 et +1 ;
- les amplitudes sont indépendantes d’un intervalle à un autre.
Calculons les moments statistiques d’ordre 1 et 2 :
E[ x ( t )] =
E[ x 2 ( t )] =
+∞
∫−∞
+∞
∫−∞
x p( x ) dx =
x 2 p( x ) dx =
+1
dx
∫ −1 x 2 = 0
+1
∫ −1
x2
dx 1
=
2 3
Nous vérifions ainsi que le signal est stationnaire d’ordre 2. Il est évident que les moments
d’ordres supérieurs sont également indépendants du temps, il est donc stationnaire au sens
strict.
Calculons la valeur moyenne et la valeur efficace d’un échantillon.
1 T
x ( t ) dt
T→ ∞ T 0
x = lim
∫
Comme le signal est constant sur chaque intervalle nous pouvons transformer l’intégrale en
une somme discrète :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 12
T
∫0
N
x ( t ) dt =
∑ x k ∆t
avec T = N ∆t
k =0
Nous avons donc pour la valeur moyenne :
1
x = lim
N→ ∞ N +1
N
∑xk
k =0
Par définition cette limite correspond à la valeur moyenne de la variable aléatoire dont chaque
xk est une réalisation. Donc :
1
x = lim
N→ ∞ N +1
N
∑ x k = 0 = E( x )
k =0
De même pour la variance nous avons :
1 T 2
1
x = lim
x ( t ) dt = lim
T→ ∞ T 0
N→ ∞ N +1
∫
2
N
∑ x k 2 = 3 = E( x 2 )
1
k =0
Le signal est ergodique.
Fig. 10-7 : Visualisation d’un échantillon du signal aléatoire décrit en C.3.
(unité de graduation de l’axe horizontal : ∆t).
Calculons la fonction d’autocorrélation statistique de ce signal stationnaire :
R X (τ) = E[x ( t ) x ( t + τ)]
Clairement si les instants sont séparés de plus de ∆t les variables aléatoires x(t) et x(t+τ) sont
indépendantes, donc :
τ > ∆t ⇒ R X (τ) = E( x1 ) E( x 2 ) = E( x ) 2 = 0
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 13
De manière générale nous avons :
R X (τ) = E( x 2 ) si t et t + τ dans une même tranche de temps
R X (τ) = E( x ) 2
si non
Pour τ positif le premier cas correspond à tn < t < tn+1-τ et pour τ négatif cela correspond à
tn+τ < t < tn+1. Nous sommes donc dans le premier cas si t se trouve dans un intervalle de
temps de largeur de ∆t-|τ|. Nous pouvons donc écrire :
R X ( t1 , t 2 ) = E ( x 2 )
∆t − τ
∆t
+ E( x ) 2
τ
∆t
C’est-à-dire :
R X (τ) = E ( x 2 )
∆t − τ
∆t
Nous reconnaissons une fonction triangle :
1  τ 
R X (τ) = Λ 
3  ∆t 
Fig. 10-8 : Fonction d’autocorrélation statistique du signal aléatoire décrit en C.3.
Nous pouvons donc déterminer la densité spectrale du signal aléatoire :
S X (ν ) =
 ν 
  τ  ∆t
1
∆t

TF Λ  = Sinc 2 (π ∆t ν ) = Sinc 2  π
3
3
  ∆t  3
 ν0 
Dans le terme de droite nous avons fait apparaître la fréquence du signal :
ν0 =
S. Tisserant – ESIL – Traitement du signal – 2009-2010
1
∆t
10 - 14
Cette densité spectrale (Fig. 10-9) s’annule pour ν = k ν0 (k ≠ 0).
Fig. 10-9 : Densité spectrale du signal aléatoire décrit en C.3.
D. Couple de signaux aléatoires
D.1. Fonctions d’intercorrélation et d’intercovariance
Une fonction d’intercorrélation de deux processus aléatoires X(t) et Y(t) est définie par :
R XY (t1 , t 2 ) = E[X( t1 ) Y( t 2 )]
Soit :
R XY ( t1 , t 2 ) =
+∞
+∞
∫−∞ ∫−∞
x1 y 2 p( x1 , t1 ; y 2 , t 2 ) dx1 dy 2
avec x1 = X(t1) et y2 = Y(t2).
Pour des signaux stationnaires, la densité de probabilité du deuxième ordre ne dépend que de
l’intervalle τ = t2 – t1. Il en est donc de même pour la fonction d’intercorrélation :
R XY (τ) = E[X( t ) Y( t + τ)] =
+∞
+∞
∫−∞ ∫−∞
x1 y 2 p( x1 , y 2 , τ) dx1 dy 2
Inversons les indices X et Y, il vient :
R YX (τ) = E[Y(t ) X(t + τ)]
Les signaux étant stationnaires, cette espérance mathématique est invariante sous une
translation temporelle, par exemple t → t-τ :
E[Y(t ) X( t + τ)] = E[Y(t − τ) X( t )] = E[X(t ) Y( t − τ)]
Donc :
R YX (τ) = R XY (−τ)
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 15
On définit une fonction d’intercovariance par :
C XY (t1 , t 2 ) = R XY ( t1 , t 2 ) − E( x) E( y)
soit pour des signaux stationnaires :
C XY (τ) = R XY (τ) − E(x ) E( y)
L’inégalité de Cauchy-Schwartz permet de montrer que :
R XY (τ) ≤ R X (0) R Y (0)
et
C XY (τ) ≤ C X (0) C Y (0)
Deux signaux sont orthogonaux si :
R XY (τ) = R YX (τ) = 0
Deux signaux sont non corrélés si :
∀( t1 , t 2 ) C XY (t1 , t 2 ) = 0 ⇔ R XY (t1 , t 2 ) = E(x ) E( y)
La fonction d’intercovariance normalisée est définie par :
ρ XY (τ) =
C XY (τ)
C X (0) C Y (0)
Elle est nulle lorsque les signaux sont décorrélés.
D.2. Somme de signaux aléatoires
Considérons la somme de deux signaux aléatoires : Z(t) = X(t) + Y(t). Elle a pour fonction
d’autocorrélation :
R Z (τ) = E{[X( t ) + Y( t )][X( t + τ) + Y(t + τ)]}
Soit en développant :
R Z (τ) = E[X( t ) X(t + τ)] + E[X( t ) Y(t + τ)] + E[Y( t ) X(t + τ)] + E[Y( t ) Y(t + τ)]
Ce qui nous donne :
R Z (τ) = R X (τ) + R XY (τ) + R YX (τ) + R Y (τ)
L’espérance mathématique d’une somme étant égale à la somme des espérances, nous avons
pour la fonction d’intercovariance :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 16
C Z (τ) = R Z (τ) − E (z) 2 = R Z (τ) − [E ( x ) + E ( y)]2
Donc :
C Z (τ) = C X (τ) + C XY (τ) + C YX (τ) + C Y (τ)
Et si les deux signaux sont non corrélés :
C Z (τ) = C X (τ) + C Y (τ)
D.3. Densités spectrales mutuelles
Les fonctions de densité spectrale mutuelle sont définies par :
S XY (ν) = TF [R XY (τ)]
S YX (ν) = TF [R YX (τ)]
Elles vérifient :
S YX (ν) = S XY * (ν)
On peut montrer que :
S XY (ν )
2
≤ S X (ν ) S Y ( ν )
D.4. Fonction de cohérence
Par analogie avec la fonction d’intercovariance normalisée nous pouvons définir une fonction
de cohérence par :
ΓXY (ν) =
avec :
D XY (ν)
2
D X (ν ) D Y ( ν )
D X (ν) = TF [C X (τ)]
D Y (ν) = TF [C Y (τ)]
D XY (ν) = TF [C XY (τ)]
Lorsque la corrélation est maximum, X(t) = Y(t), nous avons :
ΓXX (ν) =
D XX (ν)
2
D X (ν ) D X ( ν )
=1
Lorsque les signaux sont décorrélés nous avons :
C XY (τ) = 0 ⇔ D XY (ν) = 0 ⇔ ΓXY (ν) = 0
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 17
E. Processus stochastiques remarquables
E.1. Processus gaussiens
De nombreux processus dans la nature sont gaussiens, ou peuvent y être assimilés en première
approximation. C’est en particulier le cas lorsqu’ils résultent de la superposition d’un grand
nombre de phénomènes aléatoires indépendants (théorème de la limite centrale).
Un processus stochastique X(t) est gaussien si pour toute partition t1, t2, …, tn le vecteur
aléatoire [x(t1), x(t2), …, x(tn)] est gaussien.
La fonction d’autocorrélation statistique s’écrit alors :
R X (t1 , t 2 ) = E[x( t1 ) x( t 2 )] = µ (t1 ) µ ( t 2 ) + ρ( t1 , t 2 ) σ(t1 ) σ( t 2 )
Un processus gaussien est stationnaire si les valeurs moyennes et les covariances sont
indépendantes du temps.
On parle de bruit blanc gaussien si les variables aléatoires x(tk) sont mutuellement
indépendantes. Le coefficient de corrélation ρ(t1, t2) est alors nul pour t1 ≠ t2 et vaut 1 sinon.
Un bruit blanc gaussien a alors pour fonction d’autocorrélation statistique :
R X (τ) = E[x ( t ) x ( t + τ)] = µ 2 + σ 2 δ(τ)
Ce qui nous donne pour sa densité spectrale de puissance :
S X ( ν ) = µ 2 δ(ν ) + σ 2
Un bruit blanc gaussien n’a pas de réalité physique car de puissance infinie. On définit un
bruit gaussien à bande limitée. Par exemple :
 ν
S X (ν) = µ 2 δ(ν) + σ 2 Π 
 Bν



Ce qui donne pour les fonctions d’autocorrélation et d’autocovariance statistiques :
R X ( τ) = µ 2 + 2 σ 2 B ν Sinc (2π B ν τ)
C X ( τ) = 2 σ 2 B ν Sinc ( 2π B ν τ)
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 18
E.2. Bruit blanc
Un bruit blanc (par analogie avec la lumière visible) est un processus aléatoire stationnaire
dont la fonction de densité spectrale est constante :
S X (ν ) = A ∀ ν
La fonction d’autocorrélation s’obtient en prenant la transformée de Fourier inverse :
R X (τ) = A δ(τ)
Donc x(t1) et x(t2) sont orthogonaux pour t1 ≠ t2.
La puissance d’un tel processus étant infinie celui-ci n’est pas réalisable physiquement :
+∞
∫ −∞
S X (ν) dν = ∞
C’est pourquoi on définit le bruit blanc à bande limitée :
A pour 0 ≤ ν1 ≤ ν ≤ ν 2
S X (ν ) = 
0 pour ν ≤ ν1 ou ν 2 ≤ ν
avec ν1 et ν2 positifs. On note Bν = ν2 - ν1.
Considérons deux cas selon que la borne inférieure est nulle ou non. Commençons par le cas
illustré par la figure 10-10 correspondant à un spectre de type passe-bas avec : ν1 = 0 et
ν2 = Bν. Calculons la fonction d’autocorrélation correspondante. Nous avons :
R X (τ) =
Bν
∫−B A e
j 2π υ τ
ν
R X (τ) = A
+B
 A e j 2π υ τ  ν
dν = 

 j 2π τ  − B
ν
sin(2π B ν τ)
e j 2π B ν τ − e − j 2π B ν τ
= 2A
j 2π τ
2π τ
Ce qui nous donne :
R X (τ) = 2 A B ν Sinc(2π B ν τ)
Cette fonction d’autocorrélation, illustrée sur la figure 10-11, s’annule pour :
R X ( τ) = 0 ⇔ 2 π B ν τ = k π ⇔ τ =
S. Tisserant – ESIL – Traitement du signal – 2009-2010
k
2 Bν
avec k ≠ 0
10 - 19
Fig. 10-10 : Densité spectrale d’un bruit blanc à bande passante
limitée du type passe-bas
Fig. 10-11 : Fonction d’autocorrélation d’un bruit blanc à bande passante
limitée du type passe-bas
Le second cas correspond à un spectre de type passe-bande avec : ν1 ≠ 0 (Fig. 10-12).
Fig. 10-12 : Densité spectrale d’un bruit blanc à bande passante
limitée du type passe-bande
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 20
Calculons la fonction d’autorrélation correspondante, le domaine d’intégration couvre deux
bandes :
R X (τ) =
− ν1
∫−ν
A e j 2π υ τ dν +
2
ν2
∫ν
A e j 2π υ τ dν
1
Soit :
−ν
ν
 A e j 2π υ τ  1  A e j 2π υ τ  2
R X (τ) = 
+


 j 2π τ  ν
 j 2π τ  − ν
2
1
Ce qui nous donne :
R X (τ) = A
e − j 2π υ1 τ − e − j 2 π υ 2 τ
e j 2 π υ 2 τ − e j 2π υ1 τ
+A
j 2π τ
j 2π τ
Soit encore :
R X ( τ) =
A
[sin(2π ν 2 τ) − sin(2π ν1 τ)]
πτ
Exprimons les deux fréquences ν2 et ν1 en fonction de la fréquence centrale et de la largeur de
la bande passante :
Bν

ν1 = ν 0 − 2
ν + ν2

avec ν 0 = 1

2

Bν
ν
=
ν
+
0
 2
2

Avec ces notations nous avons :
α = 2π ν 0 τ
A
[sin(α + β) − sin(α + β)] avec 
R X (τ) =
πτ
β = π B τ
ν

Ce qui donne :
R X ( τ) =
2A
2A
cos(α ) sin(β) =
cos(2π ν 0 τ) sin( π B ν τ)
πτ
πτ
Soit encore :
R X (τ) = 2 A B ν cos(2π ν 0 τ) Sinc(π B ν τ)
Cette fonction d’autocorrélation est présentée sur la figure suivante. Les courbes en pointillé
correspondent aux enveloppes :
± 2 A B ν Sinc(π B ν τ)
Cette fonction s’annule pour :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 21
cos(2π ν 0 τ) = 0 ⇔ τ =
1
k
+
4 ν0 2 ν0
et :
Sinc(π B ν τ) = 0 ⇔ τ =
k
avec k ≠ 0
Bν
Fig. 10-13 : Fonction d’autocorrélation d’un bruit blanc à bande passante
limitée du type passe-bande
Remarque : Il est facile de vérifier qu’avec ν1 = 0 nous retrouvons le résultat obtenu
directement pour un bruit blanc à bande limitée de type passe-bas. En effet :
ν1 = 0 ⇔ ν 0 =
Bν
2
⇒ R X (τ) = 2 A B ν cos(π B ν τ) Sinc(π B ν τ)
Ce qui nous donne :
R X (τ) = A B ν
sin(2 π B ν τ)
2 cos(π Bν τ) sin(π Bν τ)
= A Bν
π Bν τ
π Bν τ
Donc :
R X (τ) = 2 A B ν Sinc(2 π B ν τ)
E.3. Processus aléatoire à bande étroite
Un processus stochastique qui peut s’écrire :
X ( t ) = A1 ( t ) cos(ω0 t ) − A 2 ( t ) sin(ω0 t )
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 22
où A1 et A2 sont des processus aléatoires stationnaires non corrélés suivant une même loi de
probabilité d’espérance mathématique nulle et d’écart-type faible devant ω0 est un processus
stochastique à bande étroite.
Etudions la densité spectrale d’un tel processus. Commençons par la fonction
d’autocorrélation statistique :
R X (τ) = E[x ( t ) x ( t + τ)]
= E[a1 ( t ) a 1 ( t + τ)] cos(ω0 t ) cos[ω0 ( t + τ)]
− E[a1 ( t ) a 2 ( t + τ)] cos(ω0 t ) sin[ω0 ( t + τ)]
− E[a 2 ( t ) a1 ( t + τ)] sin(ω0 t ) cos[ω0 ( t + τ)]
+ E[a 2 ( t ) a 2 ( t + τ)] sin(ω0 t ) sin[ω0 ( t + τ)]
Comme A1 et A2 obéissent à la même loi de probabilité :
E[a1 ( t ) a1 (t + τ)] = E[a 2 (t ) a 2 ( t + τ)] = R A (τ)
Comme A1 et A2 sont de moyenne nulle et non corrélés :
E[a1 (t ) a 2 (t + τ)] = E[a 2 (t ) a1 ( t + τ)] = 0
Avec un peu de trigonométrie nous obtenons :
R X (τ) = R A (τ) cos(ω0 τ)
Nous pouvons maintenant calculer la densité spectrale du processus :
S X (ν ) = TF[R X (τ)] = S A (ν ) * TF[cos(ω0 τ)]
Or :
TF[cos(ω0 τ)] =
1
[δ(ν − ν 0 ) + δ(ν + ν 0 )] avec ω0 = 2πν 0
2
Donc :
S X (ν ) =
1 +∞
S A (ν) [δ(ν − u − ν 0 ) + δ(ν − u + ν 0 )] du
2 −∞
∫
Soit :
S X (ν ) =
1
[S A (ν − ν 0 ) + SA (ν + ν 0 )]
2
L’allure de cette densité spectrale est présentée sur la figure suivante :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 23
Fig. 10-14 : Densité spectrale d’un processus à bande étroite
Un processus aléatoire à bande étroite peut s’écrire sous une autre forme. Effectuons un
changement de variables en introduisant deux variables aléatoires R et Φ telles que :
A1 = R cos Φ
A 2 = R sin Φ
soit encore :
R = A1 2 + A 2 2
A 
Φ = a tan  2 
 A1 
Nous avons alors :
X ( t ) = R ( t ) cos[ω0 t + Φ ( t )]
R est appelé enveloppe et Φ phase, alors que A1 est la composante en phase et A2 la
composante en quadrature.
Supposons que ces composantes en phase et en quadrature suivent une loi normale de
variance σ2. Elles décrivent alors un processus gaussien à bande étroite. A tout instant t, que
nous oublions dans les expressions suivantes pour en alléger l’écriture, nous avons :
p (a 1 ) =
 a 2 
exp  − 1  et p(a 2 ) =
 2 σ2 
2π σ


1
 a 2 
exp  − 2 
 2 σ2 
2π σ


1
Comme les deux variables sont indépendantes la densité conjointe est :
p (a 1 , a 2 ) =
 a 2 +a 2 
2 
exp  − 1
2
2


2σ
2πσ


1
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 24
Ce qui nous donne pour la densité conjointe des deux autres variables aléatoires :
p(r, ϕ) dr dϕ =
 r2 
 r dr dϕ
exp  −
2
2

2πσ
 2σ 
1
Celle-ci peut se factoriser. Les variables instantanées r et ϕ sont donc indépendantes et elles
ont pour densités de probabilité :
 r2 
 pour r ≥ 0
exp  −
 2 σ2 
σ2


1
p(ϕ) =
pour ϕ ∈ [0, 2π [
2π
p( r ) =
r
La variable r suit une loi de Rayleigh et ϕ une distribution uniforme.
E.4. Processus Markoviens
Un processus stochastique X(t) est markovien si pour toute partition croissante t1, t2, …, tn la
densité de probabilité vérifie :
p[x(tn)=xn | x(tn-1)=xn-1, …, x(t1)=x1] = p[x(tn)=xn | x(tn-1)=xn-1]
Toute l’information sur le passé est concentrée dans le dernier état observé.
La probabilité conditionnelle p[x(tn)=xn | x(tn-1)=xn-1] est appelée densité de probabilité de
transition.
La formule de Bayes, qui permet d’exprimer la probabilité d’observer un événement A
lorsque celui-ci connaît un nombre fini N de causes possibles :
N
p(A ) =
∑ p(A i) p(i)
i =1
peut se généraliser pour un processus markovien, en écrivant :
p( x , t ) =
+∞
∫ − ∞ p(x, t x(t 0 ) = x 0 ) p(x 0 , t 0 ) dx 0
La connaissance de la densité de probabilité à un instant donné et de la densité de probabilité
de transition caractérise totalement un processus markovien.
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 25
E.5. Marche aléatoire
La marche aléatoire X(t) est un processus markovien à temps discret et à états discrets défini
de la manière suivante : A chaque instant t = nT, la variable x(t) est augmentée ou diminuée
avec une égale probabilité d’une quantité s, avec la condition initiale x(t = 0) = 0.
Nous avons donc :
n
∑ xi
x (nT ) =
i =1
où chaque variable xi peut prendre une des deux valeurs ±s avec une probabilité 1/2. Ces
variables sont mutuellement non corrélées. Nous avons :
∀i E ( x i ) = 0, E ( x i 2 ) = s 2
et ∀i, j E ( x i x j ) = 0
Nous pouvons donc calculer l’espérance et la moyenne quadratique de x(t). Nous avons :
[
]
E[x (nT )] = 0 et E x 2 (nT ) = n s 2
Nous pouvons également calculer la densité de probabilité de cette variable aléatoire. Si à
l’instant nT la variable a subi k incrémentations, et donc n-k décrémentations, elle a pour
valeur :
x ( nT ) = k s − ( n − k ) s = ( 2k − n ) s
La probabilité d’avoir x(nT) = ms est donc égale à la probabilité d’avoir k incrémentations
avec :
n+m
k=
2
qui admet au plus une solution. Donc :

C kn
P[x (nT ) = m s ] = n
2


P[x (nT ) = m s ] = 0
si k =
n+m
existe
2
si non
E.6. Processus de Wiener
Nous pouvons généraliser le processus discret de la marche aléatoire en un processus continu
en remplaçant la somme discrète et le tirage entre deux valeurs par une intégration par rapport
au temps d’un bruit blanc de moyenne nulle.
Soit B(t) un bruit blanc de moyenne nulle, nous nous intéressons au signal X(t) défini
comme :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 26
X( t ) =
t
∫0 B(u) du
avec
R B ( τ) = σ 2 δ ( τ)
Calculons l’espérance et la moyenne quadratique de ce signal.
 t

t

E[x ( t )] = E
b(u ) du  = E[b(u )] du = 0
 0

0


∫
[
] ∫
∫
 t

t
t t
E x 2 ( t ) = E  b(u ) du b( v) dv  =
E[b(u ) b( v)] du dv
 0

0
0 0


∫
∫∫
En reconnaissant la fonction d’autocorrélation statistique du bruit blanc il vient :
[ ] ∫∫R
E x 2 (t ) =
t
t
B ( u − v) du dv =
0 0
Soit :
[
]
E x 2 (t) = σ 2
En résumé :
t
∫0 ∫0 σ
t
∫ 0 dv = σ
[
t
2
2
δ(u − v) du dv
t
]
E[x ( t )] = 0 et E x 2 ( t ) = σ 2 t
Lorsque le bruit blanc est gaussien le processus stochastique X(t) ainsi construit par
intégration est un processus de Wiener, qui permet de décrire le mouvement brownien.
Calculons la fonction d’autocorrélation statistique de ce processus :
 t1

t2
t1 t 2

R X ( t1 , t 2 ) = E[x ( t1 ) x ( t 2 )] = E
b(u ) du
b( v) dv  =
E[b(u ) b( v)] du dv
 0

0
0
0


∫
∫
∫ ∫
Donc :
R X ( t1 , t 2 ) = σ 2
t1
t2
∫0 ∫0
δ(u − v) du dv
Si t1 ≤ t2, nous pouvons décomposer l’intégrale double sur deux domaines :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 27
t1
t2
∫0 ∫0
δ(u − v) du dv =
t1
t1
∫0 ∫0
δ(u − v) du dv +
t1
t2
∫0 ∫ t
δ(u − v) du dv
1
Le second terme est nul puisque nous avons u < v. Nous avons donc :
t1
t2
t1
t2
∫0 ∫0
δ(u − v) du dv = t1
De même pour t2 ≤ t1 nous avons :
∫0 ∫0
δ(u − v) du dv = t 2
C’est-à-dire :
R X ( t1 , t 2 ) = σ 2 min( t1 , t 2 )
F. Filtrage linéaire des signaux aléatoires
Considérons un système linéaire invariant soumis en entrée à un signal aléatoire. Le signal de
sortie est également un signal aléatoire que nous cherchons à caractériser.
Si le signal d’entrée est gaussien il en est de même pour le signal de sortie :
s( t ) =
+∞
∫ − ∞ e(u) h(t − u) du
Nous savons en effet que la superposition de signaux gaussiens est gaussienne.
F.1. Description statistique du signal de sortie
Pour les autres signaux nous cherchons à caractériser les propriétés statistiques des signaux de
sortie à l’aide de leurs moments, variance et covariance. Pour un signal en entrée stationnaire
nous avons :
 +∞

+∞
+∞

E (s, t ) = E
e(u ) h ( t − u ) du  =
E (e, u ) h ( t − u ) du =
E (e) h ( t − u ) du
 −∞

−
∞
−
∞


∫
∫
∫
Donc le moment d’ordre 1 ne dépend pas du temps :
E (s ) = E (e)
+∞
∫ − ∞ h(u) du = E(e) H(0)
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 28
où H(0) est le gain statique du filtre (en réponse à un signal d’entrée constant).
Déterminons la fonction d’autocorrélation statistique du signal de sortie. En notant :
s( t ) =
+∞
∫−∞
e( t − u ) h (u ) du et s( t + τ) =
+∞
∫ − ∞ e(t + τ − v) h(v) dv
nous avons pour le produit :
s( t ) s( t + τ) =
+∞
+∞
∫ − ∞ ∫ − ∞ e(t − u) e(t + τ − v) h(u) h(v) du dv
Ce qui nous donne :
R S (τ) = E [s( t ) s( t + τ)] =
+∞
+∞
∫ − ∞ ∫ − ∞ E [e(t − u) e(t + τ − v)]h(u) h(v) du dv
La fonction d’autocorrélation statistique du signal de sortie RS est donc reliée à la fonction
d’autocorrélation statistique du signal d’entrée RE :
R S ( τ) =
+∞
+∞
∫ − ∞ ∫ − ∞ R E (τ + v − u) h(u) h(v) du dv
Exprimons RE en fonction de la densité spectrale du signal d’entrée SE :
R S ( τ) =
+∞
+∞
+∞
+∞
+∞
∫ − ∞ ∫ − ∞ ∫ − ∞ S E (ν) e
j 2π ν (τ + v − u )
dν h (u ) h ( v) du dv
Soit :
R S ( τ) =
+∞
∫ − ∞ ∫ − ∞ ∫ − ∞ S E (ν) e
j 2π ν τ
dν h (u ) e − j 2π ν u h ( v) e j 2π ν v du dv
L’intégration sur u donne :
+∞
∫−∞
L’intégration sur v donne :
+∞
h (u ) e − j 2π ν u du = H(ν)
∫ − ∞ h ( v) e
j 2π ν v
dv = H * (ν)
Nous pouvons donc écrire :
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 29
+∞
∫ −∞
R S (τ) =
H (ν )
2
S E (ν) e j 2π ν τ dν
En prenant la transformation de Fourier inverse il vient :
SS ( ν ) = H ( ν )
2
S E (ν )
Nous retrouvons un résultat similaire à celui obtenu pour les signaux déterministes.
Pour la valeur quadratique moyenne du signal de sortie nous avons :
[ ]
E s 2 ( t ) = R S (0) =
+∞
∫−∞
H (ν )
2
S E (ν) dν
Celle-ci est donc indépendante de t. Nous avons également :
[ ]
E s 2 ( t ) = R S (0) =
+∞
+∞
∫ − ∞ ∫ − ∞ R E (v − u) h(u) h(v) du dv
Pour un système causal nous avons aussi :
[ ] ∫ ∫
+∞
+∞
0
0
E s 2 (t ) =
R E ( v − u ) h (u ) h ( v) du dv
Effectuons un changement de variable en posant u = v-w, il vient :
[ ] ∫ ∫
E s2 =
+∞
+∞
−∞
−∞
R E ( w ) h ( v − w ) h ( v) dw dv
Ce qui écrit sous la forme :
[ ] ∫
Es
2

 +∞

R E (w)
h ( v − w ) h ( v) dv  dw
=


−∞

 −∞
+∞
∫
fait apparaître l’autocovariance temporelle de la réponse impulsionnelle du filtre Ch(t). Nous
avons alors :
[ ] ∫
E s2 =
+∞
−∞
R E ( t ) C h ( t ) dt
S. Tisserant – ESIL – Traitement du signal – 2009-2010
10 - 30
F.2. Intercorrélation entrée-sortie
Calculons l’intercorrélation statistique entre les signaux d’entrée et de sortie d’un filtre :
R ES (τ) = E[e( t ) s( t + τ)]
Nous pouvons écrire :
R ES (τ) =
+∞
∫ −∞
E[e( t ) e( t + τ − u )] h (u ) du =
+∞
∫ − ∞ R E (τ − u) h(u) du
Soit :
R ES (τ) = R E (τ) * h (τ)
Ce qui nous donne en prenant la transformée de Fourier :
S ES (ν ) = H (ν) S E (ν )
F.3. Bande équivalente de bruit
Un filtre idéal est un système linéaire invariant dont la fonction de transfert harmonique est
constante sur une certaine bande passante Bν et nulle ailleurs.
Un filtre idéal est donc caractérisé par deux informations : son gain et sa bande passante.
Par définition, le filtre idéal équivalent à un filtre réel a pour gain le gain maximum du filtre
réel et sa bande passante est telle que si les deux filtres sont soumis à un même bruit blanc en
entrée les valeurs moyennes quadratiques des signaux en sortie sont identiques.
Considérons par exemple un filtre passe-bas réel caractérisé par sa fonction de transfert
harmonique H(ν). Notons Hmax son gain maximum. Le filtre passe-bas idéal équivalent a donc
une fonction de transfert harmonique de la forme :
H max
H (ν ) = 
0
pour ν ≤ B ν
pour ν > B ν
Supposons les deux filtres soumis en entrée à un même bruit blanc décrit par sa densité
spectrale de puissance :
S E (ν ) = σ 2
Calculons la moyenne quadratique du signal de sortie des deux filtres. Pour le filtre réel nous
avons :
[ ]
E s 2 ( t ) réel =
+∞
∫−∞
H(ν)
2
S E (ν) dν = σ 2
S. Tisserant – ESIL – Traitement du signal – 2009-2010
+∞
∫−∞
2
H(ν) dν
10 - 31
et pour le filtre idéal :
[ ]
E s 2 ( t ) idéal =
+∞
∫ −∞
H (ν )
2
S E (ν) dν = σ 2
+ Bν
∫−B
H 2max dν = 2 σ 2 H 2max B ν
ν
La bande passante du filtre idéal doit être telle que ces deux valeurs quadratiques soient
égales. Cela nous donne pour sa largeur :
Bν =
+∞
1
2 H 2max
∫−∞
2
H(ν) dν
Ce que le théorème de Parseval nous permet d’écrire sous la forme :
Bν =
1
2 H 2max
+∞
∫ − ∞ h(t)
S. Tisserant – ESIL – Traitement du signal – 2009-2010
2
dt =
C h (0)
2 H 2max
10 - 32
Téléchargement