Telechargé par Anouer Ghrairi

Signaux Aleatoires-1

publicité
SIGNAUX ALÉATOIRES
Hichem Naamen
5 mai 2022
Table des matières
1 Rappels
1.1 Signaux temporels discrets . . . . . . . . . . . . . . .
1.2 Systèmes temporels discrets . . . . . . . . . . . . . .
1.2.1 Linéarité et invariance temporelle . . . . . . .
1.2.2 Causalité . . . . . . . . . . . . . . . . . . . .
1.2.3 Stabilité . . . . . . . . . . . . . . . . . . . . .
1.2.4 Inversibilité . . . . . . . . . . . . . . . . . . .
1.3 Description dans le domaine temporel des filtres LSI
1.4 Transformé de Fourier discrète temporelle . . . . . .
1.5 Transformé en z . . . . . . . . . . . . . . . . . . . . .
1.6 Classes spéciales de filtres . . . . . . . . . . . . . . .
1.7 Organigramme des filtres . . . . . . . . . . . . . . .
1.8 DFT et FFT . . . . . . . . . . . . . . . . . . . . . .
1.9 Combinaison des systèmes LTI . . . . . . . . . . . .
1.9.1 Couplage série : . . . . . . . . . . . . . . . . .
1.9.2 Couplage parallèle : . . . . . . . . . . . . . .
1.9.3 Feedback : . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Processus aléatoires à temps discret
2.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 définitions . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Moments statistiques . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Définitions de quelques estimateurs statistiques . . . . .
2.2.2 Remarques . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Descripteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Descripteurs du premier ordre . . . . . . . . . . . . . . .
2.3.2 Descripteurs du second ordre . . . . . . . . . . . . . . .
2.3.3 Auto/Inter–Corrélation . . . . . . . . . . . . . . . . . .
2.4 Appendice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.3 Covariance . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.4 Corrélation . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Moments temporels . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Moment temporel d’ordre 1 (moyenne) . . . . . . . . . .
2.5.2 Moment temporel d’ordre 2 (fonction d’auto–corrélation
2.6 Interprétation de la Covariance et des fonctions de Corrélation
2.6.1 Interprétation de la Covariance . . . . . . . . . . . . . .
2.6.2 Interprétation des fonctions de Corrélation . . . . . . .
2.7 Notions de probabilités . . . . . . . . . . . . . . . . . . . . . . .
2.7.1 Fonction de répartition et densité de probabilités . . . .
2.7.2 Modèles statistiques . . . . . . . . . . . . . . . . . . . .
2.8 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9 Signaux Stationnaires Ergodiques . . . . . . . . . . . . . . . . .
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
2
3
3
4
4
5
7
8
9
10
11
11
12
12
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
temporelle)
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
14
18
18
19
19
19
19
20
21
21
22
22
22
23
23
23
23
23
24
25
25
25
26
26
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ii
TABLE DES MATIÈRES
2.9.1 Signaux Stationnaires . . . . .
2.9.2 Signaux Ergodiques . . . . . .
2.10 Exemple d’un signal aléatoire : le bruit
2.10.1 Définition : . . . . . . . . . . .
2.10.2 Comportement temporel : . . .
2.10.3 Comportement fréquentiel : . .
2.11 Densité spectrale de puissance . . . . .
. . . .
. . . .
blanc
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
31
31
31
32
32
3 Modèles paramétriques des signaux et des systèmes
35
3.1 Les modèles autoregressifs AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Les modèles à moyenne ajustée MA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Les modèles autoregressif à moyenne ajustée ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 La matrice de Corrélation
4.1 Propriété 1 : La matrice R est positive semi-définie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Propriété 2 : La matrice R est hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Propriété 3 : La matrice R est Toeplitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Propriété 4 : Les valeurs propres de Rm sont λm
i , pour i=0,1,2...,N. . . . . . . . . . . . . . . . . . . .
4.5 Propriété 5 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Propriété 6 : Les vecteurs propres non nuls q0 q1 ... qN correspondant aux valeurs propres sont
linéairement indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7 Propriété 7 : Puisque la matrice de corrélation R est hermitienne, ses valeurs propres sont réelles.
Ses valeurs propres sont supérieures ou égales à zéro vu que la matrice R est semi-défini positive . .
4.8 Propriété 8 : Si R est une matrice hermitienne ayant différentes valeurs propres, les vecteurs propres
sont orthogonaux les uns aux autres. En conséquence, il existe une matrice Q unitaire avec QH Q I
4.9 Propriété 9 : La somme des valeurs propres de R est égale à la trace de R, et le produit des valeurs
propres de R est égal au déterminant de R6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
H
d’une matrice hermitienne et est
4.10 Propriété 10 : Le quotient de Rayleigh est défini par : R wwHRw
w
borné par les valeurs propres minimale et maximale : λmin ¤ R ¤ λmax . Où les valeur minimale et
maximale sont atteintes quand le vecteur w est choisi pour être le vecteur propre correspondant aux
valeurs propres minimale et maximale, respectivement . . . . . . . . . . . . . . . . . . . . . . . . . .
41
41
41
42
42
42
5 Filtrage de Wiener
5.1 Régression linéaire . . . . . . . . . . . . . . .
5.1.1 Mesure, modèle et écart . . . . . . . .
5.1.2 Minimisation de l’écart quadratique .
5.1.3 Équations de la régression linéaire . .
5.2 Filtrage de Wiener . . . . . . . . . . . . . . .
5.2.1 Définition du problème . . . . . . . . .
5.2.2 Résolution au sens des moindres carrés
5.2.3 Description matricielle . . . . . . . . .
5.2.4 Applications du filtrage de Wiener . .
5.3 Suppression d’une perturbation . . . . . . . .
5.3.1 Filtrage de Wiener classique . . . . . .
5.3.2 Remarque . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 Filtrage adaptatif
6.1 Pourquoi du filtrage adaptatif ? . . . . . . . . . . . . . . . . . .
6.1.1 Quelques exemples : soustraction de bruit, égalisation et
6.1.1.1 Soustraction de bruit. . . . . . . . . . . . . . .
6.1.1.2 Egalisation. . . . . . . . . . . . . . . . . . . . .
6.1.1.3 Identification. . . . . . . . . . . . . . . . . . .
6.2 Filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Algorithme récursif des moindres carrés (RLMS) . . . .
6.2.2 Gain d’adaptation normalisé . . . . . . . . . . . . . . .
43
43
44
45
45
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
47
47
47
49
50
50
51
52
53
53
54
54
. . . . . . . .
identification.
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
56
56
56
56
56
57
57
58
60
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
TABLE DES MATIÈRES
7 Filtrage de Kalman
7.1 Introduction . . . . . . . . . .
7.1.1 Équation du processus
7.1.2 Équation de mesure .
7.2 Estimations optimales . . . .
7.3 Notations adoptées . . . . . .
7.4 Filtre de Kalman . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
62
62
62
63
65
Liste des tableaux
2.1
Définitions et propriétés des matrices de corrélation et de covariance.
iv
. . . . . . . . . . . . . . . . . . . . . . . .
21
Table des figures
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
Représentation graphique d’un signal xpnq temporel et discret.
. . . . . . . . . . . . . . . .
.
.
.
.
.
.
Systèmes en parallèle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Représentation d’un système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
2
2
10
10
11
12
12
12
13
2.1
2.2
Cartographie des événements élémentaires vers les points d’une ligne réelle. . . . . . . . . . . . . . . . . . . . . .
Distributions des probabilités : (a)fonction de distribution de la variable aléatoire définie pour le jet de la pièce de
monnaie. (b)fonction densité. (c)fonction de distribution d une variable aléatoire définie pour l’expérience de la roue
de roulette. (d)fonction densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Représentation d’un ensemble de réalisations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Moyenne d’ensemble et moyenne temporelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
Représentation d’un système discret temporel. . . . . . . . . . . . . . . . . . . . . . .
Notation canonique pour les réseaux numériques. . . . . . . . . . . . . . . . . . . . . .
structures canoniques d’un filtre du quatrième ordre IIR et d’un filtre F IR du Nième ordre.
Structure canonique d’un filtre du deuxième ordre F IR. . . . . . . . . . . . . . . . . . .
Systèmes en série. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Systèmes en parallèle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
27
28
28
28
29
29
31
31
32
32
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
Structure canonique d’un processus autoregressif. . . . . . . . . . . . . . . . . . . .
Fonction de transfert entrée–sortie d’un modèle autoregressif. . . . . . . . . . . . . .
Poursuite d’un bruit coloré avec un modèle AR. . . . . . . . . . . . . . . . . . . . .
Approximation d’un signal avec une constante. . . . . . . . . . . . . . . . . . . . .
Prédiction d’erreur à partir de l’estimation d un bruit coloré en utilisant le modèle pARq.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
36
37
37
37
38
38
39
39
5.1
5.2
5.3
5.4
5.5
Illustration des distributions uniforme, gaussienne et exponentielle.
Régression linéaire. . . . . . . . . . . . . . . . . . . . . . .
Filtrage de Wiener. . . . . . . . . . . . . . . . . . . . . . .
Suppression de la perturbation yp pnq. . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
48
48
50
53
54
6.1
6.2
6.3
Soustraction de bruit.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
57
58
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
Signaux deterministes. . . . . . . . . . . . .
Signaux ergodiques. . . . . . . . . . . . . .
Signaux deterministes. . . . . . . . . . . . .
Signaux aléatoires. . . . . . . . . . . . . . .
Exemple de processus stationnaire et ergodique.
.
.
.
.
.
.
.
.
.
Exemple de processus non stationnaire. . . . . . .
Bruit blanc Gaussien et bruit blanc uniforme. . . .
Représentation spectrale d un bruit blanc. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Suppression d’une perturbation par filtrage de Wiener. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Structure canonique du modèle de la moyenne ajustée. . . .
Fonction de transfert du modèle MA reliant x[n] et w[n]. . .
Structure canonique du modèle ARMA. . . . . . . . . . .
Fonction de transfert du modèle ARMA reliant x[n] et w[n].
l’égalisation est une ƒidentification inverse‚.
l’Identification directe. . . . . . . . . . .
v
.
.
.
.
.
.
.
.
vi
TABLE DES FIGURES
6.4
6.5
6.6
Modèle pour le filtrage linéaire optimal.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
7.1
7.2
7.3
7.4
7.5
7.6
Structure canonique représentant un système linéaire, discret dans le temps et dynamique.
à posteriori, à priori, lissage et prédiction. . . . . . . . . . . . . . . . . . . . . . . . .
Lissage, filtrage et prédiction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estimations d’états et erreurs de covariance. . . . . . . . . . . . . . . . . . . . . . .
Résume du filtre de Kalman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Le filtre de Kalman en tant que propagation de densité. . . . . . . . . . . . . . . . . .
Modèle pour l’égalisation linéaire. . . . . . . . . . . . . . . . . . . . . .
Dérivée de l’erreur quadratique en l’instant n par rapport au coefficient wk pnq.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
58
58
59
62
64
64
65
69
70
Chapitre
1
Rappels
1.1
Signaux temporels discrets
Un signal discret temporel est une séquence indexée de nombres réels ou complexes. Donc, un signal discret
temporel est une fonction d’une variable n à variables entières, dénotée par xpnq. Bien que la variable indépendante
n ne représente pas nécessairement le ptempsq, n peut, par exemple, correspondre à une coordonnée spatiale ou
une distance, xpnq est généralement, référencé comme une fonction de temps. Du fait que le signal discret temporel
est non défini pour les valeurs non entières de n. La représentation graphique de xpnq sera sous la forme sucette
plollipopq, comme le montre la figure1.1.
Les signaux discrets temporels peuvent survenir comme un résultat de l’échantillonnage d’un signal continu
temporel, tel que la parole, avec un convertisseur analogique–digital pA{Dq. Par exemple, si un signal continu
temporel xa ptq est échantillonné à la fréquence fs 1{Ts echantillons par seconde, donc le signal échantillonné xpnq
sera relié à xa ptq ainsi :
xpnq xa pnTs q
Cependant, tous les signaux temporels ne sont pas obtenus de cette manière. En particulier, quelques signaux
peuvent être considérés naturellement des séquences discrètes dans le temps puisqu’il n’y a pas de convertisseur physique pA{Dq capable de les convertir. À titre d’exemple de signaux qui font partie de cette catégorie, les populations
statistiques, les prix quotidiens du stock des marchés, les inventaires des entrepôts etc..
Bien que la majorité de l’information liée aux signaux à intérêt pratique sont des fonctions très compliqués du
temps, pourtant, il y a trois importants signaux discrets temporels fréquemment utilisés dans la représentation et
la description des signaux plus compliqués. Il y a le pic de Dirac, dénoté par δ pnq et défini par :
δ pnq "
1: n0
0 : autrement
qui joue le même rôle dans le traitement du signal discret temporel que l’impulsion unitaire joue dans le traitement du signal continu temporel. Le pic unitaire peut être utilisé pour décomposer un signal arbitraire xpnq en une
somme pondérée, étendue et périodique d’échantillons unitaires ainsi :
xpnq 8
k¸
k
8
xpk qδ pn k q
Cette décomposition est la version discrète de la propriété de déplacement pour les signaux continus temporels.
L’échelon, dénoté par upnq est ainsi défini :
upnq "
1: n¥0
0 : autrement
et est relié au pic de Dirac par :
n
¸
upnq k
8
1
δ pk q
2
CHAPITRE 1. RAPPELS
Figure 1.1 – Représentation graphique d’un signal xpnq temporel et discret.
xpnq upn0 nq
1.2
"
1 : n ¤ n0
0 : n ¡ n0
Systèmes temporels discrets
Un système discret temporel est un opérateur mathématique ou une projection qui transforme un signal (entrée)
en un autre signal (sortie) dans le sens de règles ou fonctions fixées. La notation T r–s sera utilisée pour représenter
un système, tel que celui représenté dans la figure1.2.
Par exemple, la relation entre l’entrée et la sortie peut être exprimée en termes concis de règles mathématiques
ou fonctions tel que :
y pnq x2 pnq
où
y pnq 0.5y pn 1q
xp nq
Figure 1.2 – Représentation d’un système discret temporel.
Cependant, il est possible de décrire un système en termes d’un algorithme qui procure une séquence d’instructions ou opérations à appliquer aux valeurs du signal d’entrée. Par exemple :
y1 pnq 0.5y1 pn 1q
0.25xpnq
y3 pnq 0.4y3 pn 1q
0.5xpnq
y2 pnq 0.25y2 pn 1q
y pnq y1 pnq
1.2.1
y2 pnq
0.5xpnq
y3 pnq
Linéarité et invariance temporelle
Les deux propriétés du système qui sont d’une grande importance pour la simplification et le design des systèmes
discrets temporels sont la linéarité et l’invariance temporelle. Un système est dit linéaire si pour toutes entrées x1 pnq
et x2 pnq et pour toutes constantes à valeurs complexes a et b, on a :
T rax1 pnq
bx2 pnqs aT rx1 pnqs
bT rx2 pnqs
3
CHAPITRE 1. RAPPELS
L’importance de cette propriété est mise en relief par l’observation du fait que si l’entrée est décomposée en une
superposition de pics de Dirac pondérés :
xpnq 8
k¸
k
donc la sortie est :
y pnq 8
k¸
k
8
8
xpk qδ pn k q
xpk qT rδ pn k qs 8
k¸
k
8
xpk qhk pnq
où hk pnq T rδ pn k qs est la réponse du système des pics de Dirac retardées δ pn k q. L’équation1.1 est référencée
comme la somme d’une superposition et illustre qu’un système linéaire est complètement spécifié une fois que les
signaux hk pnq sont connues.
La seconde importante propriété est l’invariance temporelle. Un système est dit invariant temporellement si un décalage de l’entrée par n0 entraine un décalage de la sortie par n0 . Donc, si y pnq
est la réponse du système invariant temporellement de l’entrée xpnq, il en découle que pour tout
décalage de l’entrée, xpn n0 q, la réponse du système sera y pn n0 q. L’invariance temporelle veut dire
que les propriétés du systéme ne changent pas avec le temps.
Un système qui est à la fois linéaire et invariant temporellement est appelé (LSI : linear schift invariant)
système. Pour un système LSI, si hpnq T rδ pnqs est la réponse du Dirac δ pnq, donc la réponse de δ pn k q est
hpn k q. Par conséquent, pour un système LSI la somme apportée par l’équation1.1 devient :
y pnq 8
k¸
k
8
xpk qhpn k q
(1.1)
qui est la somme convolution. Afin de simplifier la notation, la somme convolution est exprimée de la manière
suivante :
y pnq xpnq hpnq
Puisque la somme convolution nous permet d’évaluer la réponse d’un système LSI d’une arbitraire entrée xpnq,
les systèmes LSI sont uniquement caractérisés par leur réponse, hpnq, d’un pic de Dirac. Ce signal est référencé
comme la réponse du système au pic de Dirac.
1.2.2
Causalité
Un système est dit causal si, pour tout n0 , la réponse du système au temps n0 ne dépend que des
valeurs de l’entrée pour n n0 . Pour un système causal il n’est pas possible aux changements de la
sortie de précéder les changements de l’entrée. Le systéme décrit par l’équation y pnq xpnq xpn 1q par
exemple est causal, par contre le système décrit par l’équation y pnq xpnq xpn 1q n’est pas causal puisque la
sortie en n n0 dépend de la valeur de l’entrée en n0 1.
Si un système est linéaire et invariant, sera causal si et seulement si hpnq 0 pour n 0,
1.2.3
Stabilité
Dans plusieurs applications, il est important pour un système d’avoir une réponse, y pnq, qui est bornée en
amplitude chaque fois que l’entrée est bornée. Un système avec cette propriété est dit être stable dans le sens d’une
entrée bornée sortie bornée BIBO. Plus prcisément, un système est BIBO stable si, pour toute entrée bornée,
|xpnq| ¤ A 8, la sortie est bornée, |y pnq| ¤ B 8. Dans la cas d’un système LSI, la stabilité est garantie une
fois que la réponse d’un pic de Dirac est absolument sommable
8̧
n
|hpnq|
8
8
par exemple, un système LSI avec hpnq an upnq est stable quand |a|
(1.2)
1
4
CHAPITRE 1. RAPPELS
1.2.4
Inversibilité
Un système est dit inversible si l’entrée du système peut être déterminée d’une façon unique par l’observation
de la sortie. Afin qu’un système soit inversible, il est nécessaire que des entrées distinctes produisent des sorties
distinctes. D’une autre manière, deux entrées quelconques x1 pnq et x2 pnq avec x1 pnq x2 pnq, il doit être vrai que
y1 pnq y2 pnq. Par exemple, le système défini par :
y pnq xpnqg pnq
est inversible si et seulement si g pnq 0 pour tout n.
1.3
Description dans le domaine temporel des filtres LSI
Définition 1 : La réponse impulsionnelle (IR) hptq d’un filtre est la réponse de ce filtre à l’impulsion de Dirac.
Définition 2 : un filtre est dit à réponse impulsionnelle finie (FIR) si celle–ci est définie sur un support borné
en temps.
Définition 3 : un filtre est dit à réponse impulsionnelle infinie (IIR) si celle–ci est définie sur un support non
borné en temps.
Autrement dit, pour un filtre pF IRq, la réponse impulsionnelle est non nulle uniquement à l’intérieur d’un intervalle fermé T rt1 , t2 s, alors que pour un filtre pIIRq, l’intervalle T est infini, c’est à dire que l’on peut avoir
t1 Ñ 8, t2 Ñ 8, ou t1 Ñ 8 et t2 Ñ 8
Une classe importante de systèmes LSI sont ceux pour lesquels l’entrée xpnq et la sortie est y pnq sont reliées par
une équation linéaire aux différences à coefficients constants (LCCDE) (Linear Constant Coefficient Difference
Equation) de la forme :
y pnq
p
¸
apk qy pn k q k 1
q
¸
bpk qxpn k q
(1.3)
k 0
Dans cette équation aux différences, p et q sont des entiers qui déterminent l’ordre du système et ap1q, ..., appq
et bp1q, ..., bpq q sont les coefficients du filtre qui définissent le système. L’équation aux différences est souvent écrite
sous la forme :
y p nq q
¸
bpk qxpn k q k 0
p
¸
apk qy pn k q
(1.4)
k 1
Ce qui montre clairement que la sortie y pnq est égale a une combinaison linéaire des valeurs antécédentes (passées)
de la sortie, y pn k q pour k 0, 1, ..., p, le long des valeurs passées et présentes, xpn k q pour k 0, 1, ..., q. Pour
le cas spécial p 0, l’equation aux différences devient :
y pnq q
¸
bpk qxpn k q
(1.5)
k 0
et la sortie est simplement une somme pondérée des valeurs courantes et passées. En conséquence, la réponse
du Dirac est finie en longueur :
hpnq q
¸
bpk qδ pn k q
k 0
et le système est référencé système à réponse impulsionnelle finie en longueur (Finite Length Impulse Response) (FIR). Toutefois, si p 0 donc la réponse impulsionnelle est, en général, infinie en longueur et le système
est référencée comme un système à réponse impulsionnelle de longueur infinie (Infinite Length Impulse Response
System) (IIR). Par exemple si :
5
CHAPITRE 1. RAPPELS
y pnq ay pn 1q
xp nq
par conséquent la réponse au Dirac est hpnq an upnq
Les filtres dynamiques constituent une sous classe des filtres linéaires. Ils sont caractérisés par une fonction de
transfert en p ou z ayant la forme d’une fraction rationnelle. Ceci est équivalent au fait que la relation entrée–sortie
peut être représentée par une équation différentielle à coefficients constants dans le cas continu, ou une équation
aux différences à coefficients constants dans le cas discret. Ceci est le cas de nombreux processus physiques.
–Dans le cas continu :
n
¸
ai y piq ptq i 0
m
¸
bj xpj q ptq
j 0
m
°
H ppq bj p j
j 0
n
°
(1.6)
ai pi
i 0
–Dans le cas discret :
n
¸
ai y pk iq i 0
m
¸
bj xpk j q
j 0
m
°
H pz q j 0
n
°
bj z j
ai z i
(1.7)
i 0
Ce filtre est appelé filtre récursif (filtre R.I.I, Réponse impulsionnelle finie, signaux A.R.M.A, Auto Regressif
Moving Average). Il correspond au cas le plus général
–filtre à réponse impulsionnelle finie (R.I.F) (signaux Moving Average)
H pz q m
¸
bj z j
j 0
(1.8)
–filtre tous pôles (b0 est le seul non nul, ai non nuls) (signaux Auto Regressif ) :AR
H pz q °
n
b0
ai z i
i 0
(1.9)
1.4
Transformé de Fourier discrète temporelle
L’analyse fréquentielle des signaux discrets temporels et des systèmes procurent une importante analyse, un outil
de design et souvent procurent des aperçus des solutions des problèmes qui, autrement, ne peuvent pas être possibles.
L’importance centrale de l’analyse fréquentielle des signaux discrets temporels est la transformée de Fourier discrète
temporelle (Discrete Time Fourier Transform) (DTFT). La DT F T d’un signal xpnq est la fonction à valeurs
complexes de la variable continue fréquentielle ω est définie par :
8̧
X pejω q k
8
xpnqejnω
(1.10)
La transformée de Fourier à temps continu. xptq étant le signal temporel, on définit la transformée de Fourier
par :
6
CHAPITRE 1. RAPPELS
X pf q »8
8
xptqe2πjf t dt,
xptq »8
8
X ptqe
2πjtf
df
Afin que la DT F T d’un signal soit définie, cependant, la somme de l’équation 1.7 doit converger. Une condition
suffisante pour que la somme converge uniformément vers une fonction continue de ω est que xpnq soit absolument
sommable :
8̧
n
|xpnq|
8
8
(1.11)
Bien que la majorité des signaux auront une DT F T , les signaux tel que l’échelon et l’exponentielle complexe ne
sont pas absolument sommables et par conséquent n’ont pas une DT F T . Cependant, si on permet à la DT F T de
contenir des fonctions généralisées, donc la DT F T de l’exponentielle complexe est une impulsion :
xpnq ejnω0
ùñ X pejω q 2πu0 pω ω0 q;
Où u0 pω ω0 q est utilisée pour dénoter une impulsion de fréquence ω
l’échelon est :
|ω|
π
ω0 . De façon similaire, la DT F T
de
1
πu0 pω q; |ω| π
1 ejω
La DT F T possède quelques propriétés intéressantes de symétrie. Par exemple, puisque ejnω est périodique en
fonction de ω avec une periode de 2π, il s’ensuit que X pejω q est aussi périodique de période 2π. En plus, si xpnq est
à valeurs réelles, donc X pejω q sera conjuguée symétrique :
upnq ùñ U pejω q X pejω q X pejω q
La DT F T est, en général, une fonction de ω à valeurs complexes. Par conséquent, elle est représentée normalement sous la forme polaire en termes de son amplitude et de sa phase :
X pejω q |X pejω q|ejφx pωq
Pour les signaux réels, la conjuguée symétrique de X pejω q implique que l’amplitude est une fonction paire,
|X pejω q| |X pejω q| et que la phase est une fonction impaire φx pω q φx pω q.
La transformée de Fourier discrète temporelle ayant une spéciale importance est la DT F T de la réponse impulsionnelle d’un système LSI :
8̧
H pejω q n
8
hpnqejnω
(1.12)
La DT F T est appelée la réponse fréquentielle du filtre, et définie comment une exponentielle complexe est
changée en amplitude et en phase par le système. À noter que la condition de l’existence de la DT F T apportée par
l’équation 1.8 est la même que celle pour la stabilité BIBO d’un système LSI. Par conséquent, il en découle que
la DT F T de hpnq existe pour les systèmes stables BIBO.
La DT F T est une transformation inversible dans la même sens que, étant donnée la DT F T X pejω q d’un signal
xpnq, le signal peut être reconstruit en utilisant la DT F T inverse (IDT F T ) ainsi :
xpnq 1
2π
»π
π
X pejω qejnω dω
(1.13)
En plus, pour se procurer une méthode qui calcule xpnq à partir de X pejω q, la IDT F T peut être aussi vue
comme la décomposition de xpnq en une combinaison linéaire d’exponentielles complexes.
Il y a un nombre de propriétés utiles et importantes de la DT F T . Peut être la plus importante parmi ces
dernières est le théoreme de convolution, qui spécifie que la DT F T de la convolution de deux signaux
y pnq xpnq hpnq
7
CHAPITRE 1. RAPPELS
est égal au produit des transformées
Y pejω q X pejω qH pejω q
Une autre propriété importante est le theorème de Parseval, qui spécifie que la somme des carrés du signal xpnq,
est égale à l’intégrale des carrés de ses DT F T :
8̧
n
1.5
|xpnq|2
8
2π1
»π
π
|X pejω q|2 dω
(1.14)
Transformé en z
La transformé en z est une généralisation de la DT F T qui permet à plusieurs signaux n’ayant pas de DT F T
d’être décrits par les techniques de transformation. La transformé en z d’un signal discret temporel xpnq est définie
ainsi :
X pz q 8̧
8
xpnqz n
(1.15)
n
Où z
DT F T :
rejω est une variable complexe. À noter que lorsque r 1, ou z ejω , la transformé en z devient la
X pejω q X pz q|zejω
8̧
n
8
xpnqejnω
L’opérateur z n représente un délai de n échantillons.
Comme pour la DT F T , la transformé en z est seulement définie quand la somme de l’équation 1.12 converge.
Puisque, généralement, la somme ne converge pas pour toutes les valeurs de z, associées à chaque transformé en
z une région de convergence qui définie ces valeurs de z pour lesquelles la somme converge. Pour une séquence de
longueur finie, la somme de l’équation 1.12 contient seulement un nombre fini de termes. Donc, la transformé en z
d’une séquence de longueur finie est un polynôme en z et la région de convergence va inclure toutes les valeurs de
z à l’exception de z 0 ou z 8.
En plus, une condition de symétrie qui sera intéressante au cours des discussions sur le spectre de puissance est
la suivante : Si xpnq est une séquence symétrique conjuguée :
xpnq x pnq
donc sa transformé en z satisfait la relation :
X pz q X p1{z q
(1.16)
Une transformé en z ayant une spéciale importance dans le design et l’analyse des systèmes LSI est la fonction
système, qui est la transformé en z de la réponse à l’échelon :
8̧
H pz q n
8
hpnqz n
Pour un filtre F IR décrit par une LCCDE sous la forme donnée par l’équation 1.6, la fonction du système est
un polynôme en z 1
H pz q q
¸
k 0
bpk qz k
bp0q
q
¹
p1 zk z1 q
k 1
(1.17)
8
CHAPITRE 1. RAPPELS
et les racines de ce polynôme, zk , sont appelées les zéros du filtre. A cause de la forme de H pz q des filtres F IR, ils
sont souvent référencés all–zerof ilters. Pour un filtre IIR décrit par l’équation générale aux différences apportée
par l’équation 1.5, la fonction système est un rapport de deux polynômes en z 1 :
q
°
H pz q 1
q
±
bpk qz k
k 0
p
°
k 1
apk qz k
bp0q p1 zk z1 q
k 1
p
±
p1 pk z1 q
(1.18)
k 1
Les racines du polynôme numérateur, zk , sont les zéros de H pz q et les racines du polynôme dénominateur, pk ,
sont appelées les pôles. Si l’ordre du polynôme numérateur est zéro, q 0, donc :
q
°
H pz q 1
k 0
p
°
k 1
bp0q
apk qz k
p
±
bp0q
p1 pk z1 q
(1.19)
k 1
et H pz q est appelée un all–polef ilter.
Si les coefficients apk q et bpk q de la fonction système sont à valeurs réelles (ce qui équivaut que hpnq est à valeurs
réelles) donc :
H pz q H pz q
et les pôles et les zéros de H pz q seront des paires conjuguées. C’est à dire, si H pz q a un pôle (zéro) en z
donc H pz q aura aussi un pôle (zéro) en z a .
1.6
a,
Classes spéciales de filtres
On appelle filtre linéaire un système à la fois linéaire et invariant dans le temps. Ceci implique qu’une combinaison
linéaire d’entrées entraı̂ne la même combinaison linéaire des sorties, et de plus tout décalage temporel de l’entrée
entraı̂ne le même décalage en sortie.
Dans le domaine temporel, l’entrée et la sortie sont liées par une opération de convolution introduisant la réponse
impulsionnelle hptq dans le cas continu ou hpnq dans le cas discret. Un filtre linéaire est donc un convolueur.
Soit xptq (resp. xpnq) l’entrée du filtre et y ptq (resp. y pnq) sa sortie, nous avons alors :
–Dans le cas continu :
y ptq hptq xptq »8
8
hpuqxpt uqdu
–dans le cas discret cette relation s’écrit :
y pnq hpnq xpnq 8
k¸
k
8
hpk qxpn k q
Un filtre linéaire est un système linéaire qui admet les signaux exponentiels comme fonctions propres. Pour un
signal exponentiel à l’entrée du filtre, on obtient le même signal exponentiel en sortie multiplié par un nombre
complexe (gain du filtre, fonction de transfert). En effet la réponse à un signal sinusoı̈dal est un signal sinusoı̈dal
de même fréquence dont l’amplitude est multipliée par le gain du filtre à cette fréquence et déphasé de l’argument
de la fonction de transfert. Les relations précédentes s’écrivent aussi par passage à la transformée de Laplace, ou de
Fourier, ou en z
Y ppq H ppqX ppq,
Y pz q H pz qX pz q,
Il y a plusieurs classes spéciales de filtres qu’on rencontrera dans les chapitres suivants. En premier lieu, sont
les filtres qui ont une phase linéaire. Ces filtres sont importants dans les applications tel que le traitement de
la parole et l’image et ont une réponse fréquentielle sous la forme :
H pejω q Apejω qej pβ αωq
(1.20)
9
CHAPITRE 1. RAPPELS
où Apejω q est une fonction à valeurs réelles de ω et α et β sont des constantes. Pour qu’un filtre
causal ait une phase linéaire et soit réalisable en utilisant une équation linéaire aux différences à
coefficients constants, le filtre doit être F IR. En plus, la condition sur la phase linéaire impose la
contrainte que la réponse impulsionnelle hpnq soit conjugée symétrique (hermitienne).
h pnq hpN
1 nq
ou conjuguée antisymétrique (anti–hermitienne)
h pnq hpN
1 nq
Ces contraintes, à leur tour, imposent la contrainte que les zéros de la fonction système ont lieu sous la forme
de paires conjuguées et réciproques :
H pz q z N 1 H p1{z q
D’une autre façon, si H pz q a un zéro en z z0 , donc H pz q doit aussi avoir un zéro en z 1{z0 .
Un autre filtre ayant une forme spéciale est le allpassf ilter. Les filtres allpass sont utiles pour les applications
tel que l’égalisation de phase et ont une réponse fréquentielle avec une amplitude constante :
|H pejω q| A
Pour un filtre allpass ayant une fonction système rationnelle, H pz q doit avoir la forme de :
H pz q z n0 A
N
¹
z 1
αk
1
1 αk z
k 1
Par conséquent, si H pz q a un zéro (pôle) en z αk , donc H pz q doit aussi avoir un pôle (zéro) en z 1{αk .
Finalement, un filtre stable et causal qui a une fonction système rationnelle ayant tous ses pôles
et zéros a l’intérieur du cercle unité est dit être un filtre à phase minimale. Donc, pour un filtre à
phase minimale, |zk | 1 et |pk | 1 dans l’équation 1.15. À noter qu’un filtre à phase minimale aura
un inverse stable et causal, 1{H pz q, qui sera aussi à phase minimale. Cette propriété sera utile pour le
développement du théorème de la factorisation spectrale et la dérivation du filtre causal de Wiener.
1.7
Organigramme des filtres
Une LCCDE définie un relation entre l’entrée, xpnq, et la sortie du filtre, y pnq. Pendant l’implémentation
logicielle ou matérielle du filtre, il y a plusieurs façons pour lesquelles les calculs nécessaires pour calculer la valeur
de la sortie y pnq au temps n doivent être déclarées. Par exemple, l’équation aux différences :
y pnq 0.2y pn 1q
xpnq
0.5xpn 1q
et la paire d’équations couplées aux différences :
wpnq 0.2wpn 1q
y pnq wpnq
xpnq
0.5wpn 1q
sont en fait deux implementations du filtre de premier ordre IIR ayant la fonction système :
H pz q 1 0.5z 1
1 0.2z 1
10
CHAPITRE 1. RAPPELS
Figure 1.3 – Notation canonique pour les réseaux numériques.
Figure 1.4 – structures canoniques d’un filtre du quatrième ordre IIR et d’un filtre F IR du Nième ordre.
En décrivant ces différentes implémentations du filtre, il convient d’utiliser des cartographies ou des réseaux
numériques qui montrent comment un certain système donné est réalisé en termes d’interconnexions des éléments
de base de calcul du filtre (additionneurs, multiplicateurs et retardateurs). La notation utilisée sera montrée dans
la figure 1.3.
Exemple :
Considérons le système discret temporel avec la fonction de transfert suivante :
H pz q 2.4z 1 1.6z 2
1 1.8z 1 0.9z 2
Étant donné H pz q, l’équation aux différences de ce type est :
y pk q 2.4xpk 1q
1.8
1.6xpk 2q
1.8y pk 1q 0.9y pk 2q
DFT et FFT
La transformé de Fourier discrète DF T procure une représentation de Fourier d’un signal discret temporel qui est
utile en tant qu’outil de design et d’analyse. Toutefois, puisque la DT F T est une fonction continue de la variable ω,
elle est sensible aux calculs numériques. Pour une sequence de longueur finie, il y a une autre représentation appelée
11
CHAPITRE 1. RAPPELS
Figure 1.5 – Structure canonique d’un filtre du deuxième ordre F IR.
DF T qui est une fonction de la variable entière k, et est par conséquent facilement évaluée avec un ordinateur.
Pour une séquence xpnq de longueur finie N et qui est égale à zéro à l’extérieur de l’intervalle r0, N 1s la DF T
ayant N points est :
X pk q N¸1
xpnqej2πkn{N
(1.21)
n 0
À noter que la DT F T de xpnq est égale à la transformé de Fourier discrète temporelle échantillonnée aux N
fréquences également espacées entre 0 et 2π :
X pk q X pejω q|ω2πk{N
(1.22)
L’inverse de la transformé de Fourier discrète pIDF T q :
xpnq N 1
1 ¸
X pk qej2πkn{N
N k 0
(1.23)
qui procure la relation exigée pour déterminer xpnq à partir des coefficients X pk q de la DF T .
À rappeler que le produit des deux DT F T des deux signaux correspondants, dans le domaine temporel, est la
convolution plineaireq des deux signaux. Pour la DF T , cependant, si H pk q et X pk q sont les DF T aux N points
de hpnq et xpnq, respectivement, et si Y pk q X pk qH pk q, donc :
y pnq N
¸
xppk qqN hppn k qqN
k 0
qui est la convolution circulaires aux N-points de xpnq et hpnq où :
xppnqqN
xpn
mod N q
En général, la convolution circulaire de deux séquences n’est pas la même que la convolution linéaire. Toutefois,
il y a un cas spécial et particulier dans lequel les deux sont les mêmes. Spécialement, si xpnq est une séquence de
longueur finie N1 et hpnq une séquence finie de longueur N2 , donc, la convolution lineaire de xpnq et hpnq a une
longueur L N1 N2 1. Dans ce cas, la convolution circulaire aux N-points de xpnq et hpnq sera égale a la
convolution linéaire procurée pour N ¥ L.
1.9
1.9.1
Combinaison des systèmes LTI
Couplage série :
H1 psq H psq Y psq
X psq
Y1 psq
,
X psq
H2 psq Y psq
,
Y1 psq
YY ppssqq . YX1ppssqq H2 psqH1 psq H1 psqH2 psq,
1
H psq H1 psqH2 psq,
12
CHAPITRE 1. RAPPELS
Figure 1.6 – Systèmes en série.
1.9.2
Couplage parallèle :
Figure 1.7 – Systèmes en parallèle.
Y psq H1 psqX psq
H2 psqX psq rH1 psq
H psq H1 psq
1.9.3
H2 psqs X psq H psqX psq,
H2 psq,
Feedback :
Figure 1.8 – Systèmes en parallèle.
Y psq F psq rX psq
GpsqY psqs X psq,
La fonction de transfert du système est :
H psq Y psq
X psq
1 FFppssqqGpsq ,
À noter que nous disposons de quatre façons différentes pour représenter un système. Dans le domaine temporel,
il y a l’équation aux différences et la réponse impulsionnelle, dans le domaine fréquentiel, il y a la fonction de
transfert, et dans le domaine graphique on a le flowgraph du signal. Avec un peu de précaution, il est possible de
passer d’un domaine vers un autre.
13
CHAPITRE 1. RAPPELS
Figure 1.9 – Représentation d’un système.
is g e et des e
m
u
iq
m
it u
n sont
est pas
et ab es
h
el
e
a
r d nstabl t
e i ho d e
l inform
de l es
s
e
d
pr i
u
t
i
ab naux aleatoir t
les m
e
th
od
oire
h
i
c
mem
h
e
t super
b
leses o
de
la
ntrolab
o
c
s- es
le-l m
n nes
d
s
a
ieu
tu
sti
y
un s stem
n
in
i
a
s them tiqu
e
e
conomie
e
s
sd
e
l
et genieurs 2-
e
so
s
h
es
m en- c o
u
r
naa
s
nt les bonn
Chapitre
2
Processus aléatoires à temps discret
Domaines d’application : Télécommunications. Techniques de mesures. Étude des vibrations mécaniques.
Surveillance des processus industriels. Radar. Acoustique. Reconnaissance des formes. Traitements d’images. Analyses biomédicales. Géophysique. Astronomie. etc..
Un signal déterministe ne transporte aucune information étant donné que son évolution est donnée par une
formule mathématique complètement connue. La plupart des signaux utilisés en pratique comportent une certaine
incertitude dans leurs évolutions. Cette incertitude peut dans certains cas être décrite par une loi de probabilité (
ex : gaussienne à paramètres connus ou inconnus). A titre d’exemple le signal transmis entre deux ordinateurs peut
être considéré comme un signal aléatoire pouvant prendre par exemple 2 valeurs, 0 ou 1. On pourra supposer que
les symboles 0 et 1 sont de plus équiprobables. En effet le phénomène aléatoire du signal vient du fait que l’on ne
connaı̂t pas à l’avance la succession des 0 et des 1. De plus si une telle succession était connue alors la transmission
n’aurait plus aucun intérêt puisqu’elle n’apporte pas d’information supplémentaire. Nous ne nous intéressons dans
cette présentation qu’à certaines propriétés et définitions qui nous seront utiles par la suite.
2.1
2.1.1
Variables aléatoires
définitions
Considérons le jet d’une pièce de monnaie pP
obtient :
nP
NT
P ile, F F aceq, si le nombre de jets NT
0.5;
nF
NT
est très grand, on
0.5
La probabilité d’obtenir l’une ou l’autre des faces est la même :
P rtP u 0.5;
P rtF u 0.5
(2.1)
L’ensemble de toutes les éventualités possibles est appelé l’espace des échantillons ou évènement certain, dénoté
par Ω auquel est assignée la probabilité un :
P rtΩu 1
Pour la pièce de monnaie on a :
Ω tP, F u et
P rtP, F u 1
Les sous ensembles de l’ensemble des échantillons sont appelées évènements. Et les événements constituées
d’un seul élément sont appelées événement élémentaire. Pour la pièce de monnaie, il n’y a que deux événements
élémentaires :
ω1
tP u
;
14
ω2
tF u
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
15
étant donnée l’expérience du jet d’une pièce de monnaie, supposons qu’une variable à valeurs réelles est définie
de façon que la valeur 1 est attribuée a x si l’on obtient P ile et la valeur 1 si l’on obtient F ace. Grâce a cette
définition, une cartographie vient d’être établit entre l’ensemble des événements élémentaires ωi P Ω et l’ensemble
des nombres réels R.i.e, f : Ω Ñ R. Cette cartographie est donnée par :
tP u ñ x 1
ω2 tF u ñ x 1
ω1
En se basant sur les définitions attribuées pour les événements élémentaires dans l’équation 2.1, il s’ensuit
l’équipartition de la probabilité pour x d’avoir 1 ou 1 :
P rtx 1u 0.5
P rtx 1u 0.5
(2.2)
Puisque les seules possibilités pour la pièce de monnaie sont Pile ou Face, donc les seules valeurs qui peuvent
être attribuées a x sont 1 et 1. Donc, pour tout nombre α différent de 1 et 1, la probabilité pour que x α est
égale a zéro :
P rtx αu 0
α 1
si
et la probabilité pour que x prenne l’une des deux valeurs, x 1 ou x 1 est égale a un :
P rtΩu P rtx 1u 1
Avec l’attribution d’une probabilité pour chaque événement élémentaire dans l’espace des échantillons Ω, et
avec la cartographie de chaque événement élémentaire ωi P Ω une valeur x, une variable aléatoire est définie et
spécifiée en termes de probabilité. Plus généralement, une variable aléatoire x à laquelle sont attribuées l’une des
deux valeurs x 1 et x 1 avec :
P rtx 1u p
et
P rtx 1u 1 p
est référencée comme une variable aléatoire de Bernoulli.
Une variable aléatoire légèrement plus compliquée peut être définie en remplaçant la pièce de monnaie par un
dé. Dans ce cas, la variable aléatoire x prendra l’une des valeurs comprises entre un et six.
De la même manière, une variable aléatoire complexe peut être définie en attribuant des nombres complexes aux
événements élémentaires dans l’espace des échantillons. Par exemple, avec une expérimentation qui consiste à jeter
deux dés de couleurs respectives noir et blanc, une variable aléatoire complexe est ainsi définie :
z
m
jn
Où m est le nombre rapporté par le dé noir et n celui du dé blanc.
Chacune des variables aléatoires précédemment considérées est un exemple de variable aléatoire discrète puisque
l’ensemble des échantillons Ω est constitué d’événements discrets ωi .
Contrairement, une variable aléatoire du type continue doit assurer la continuité des valeurs. Par exemple,
considérons une roue de roulette à résolution infinie pour laquelle tout nombre de l’intervalle r0, 1s peut être le
résultat d’un tour de la roue, pour cette expérience l’espace des échantillons est :
Ω tω : 0 ¤ ω
¤ 1u
Si la roue est conçue de façon que tout les nombres de l’intervalle r0, 1s soient équiprobables, donc l’attribution
d’une probabilité dans Ω est construite de la manière suivante. Pour tout intervalle I pα1 , α2 s inclut dans r0, 1s,
on défini la probabilité de l’événement ωi P I ainsi :
P rtω
P I u P rtα1
ω
¤ α2 u α2 α1
16
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
En plus, supposons que pour les deux intervalles disjoints I1 et I2 , la probabilité du résultat soit dans I1 ou I2
est égale a la somme :
P rtω
P I1
ou ω
P I2 u P rtω P I1 u
P rtω
P I2 u
La postulation de l’axiome de la probabilité de la somme d’événements disjoints, venait de definir une probabilité
attribuée à l’espace des échantillons qui peut être utilisée pour déterminer la probabilité de tout événement défini
sur Ω. Finalement, si le résultat de la rotation de la roue est attribué à la variable x, donc on vient de spécifier une
variable aléatoire du type continu.
En regardant de près les variables aléatoires qui avaient été considérés auparavant, on se rend
compte que pour chaque variable aléatoire il y a une expérimentation : le jet de la pièce de monnaie,
le jet du dé, ou la rotation de la roue de la roulette. À noter que la caractérisation de la variable aléatoire x est
statistique en termes de l’attribution d’une probabilité, ou loi de probabilité, définie sur les événements de l’espace
des échantillons Ω. Cette loi de probabilité est une règle qui attribue un nombre, appelé probabilité, à chaque
événement A dans l’espace des échantillons. Afin d’être une loi de probabilité valide, les trois axiomes suivants
doivent être verifiés :
1. P rpAq ¥ 0 pour chaque événement A P Ω.
2. P rpΩq 1 pour un événement certain Ω.
3. Pour tous deux événements mutuellement exclusifs A1 et A2 ,
P rpA1 Y A2 q P rpA1 X A2 q P rpA1 q P rpA2 q
P rpA1 Y A2 Y A3 q
P rpA1 X A2 X A3 q P rpA1 q
P rpA2 q
P rpA1 X A2 q
P rpA3 q
P rpA1 X A3 q
P rpA2 X A3 q
Une fois que l’attribution d’une probabilité est définie sur les événements dans l’espace des échantillons, il est
possible de développer une description probabiliste d’une variable aléatoire x. Cette description est souvent exprimée
en termes d’une probabilité qui à x est attribué une valeur sachant que :
P rtx 1u
ou
P rtx ¤ 0u ou
P rt0
x ¤ 1u
Figure 2.1 – Cartographie des événements élémentaires vers les points d’une ligne réelle.
- Pour chaque t, xt p q est une variable aléatoire égale à l’état du processus considéré à l’instant t.
- Pour ω fixé, x pω q est une réalisation du processus qui est fonction du temps.
- Pour t et ω fixés, xt pω q est un nombre.
17
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
Pour les applications en traitement de signal, c’est une description probabiliste de la variable
aléatoire, plutôt que la caractérisation d’une description statistique des événements dans l’espace des
échantillons. Donc, il est plus commode d’avoir une loi de probabilité qui est attribuée directement à
la variable aléatoire en–soi, plutôt qu’aux événements dans l’espace des échantillons. Pour une variable
aléatoire à valeurs réelles x, Une caractérisation statistique est la fonction de distribution de probabilité, Fx pαq
donnée par :
Fx pαq P rtx ¤αu
(2.3)
La variable aléatoire définie pour l’expérimentation de la pièce de monnaie, la fonction de la distribution de
probabilité est :
Fx pαq $
&
0
0.5
%
1
1
1 ¤ α
1¤α
:
:
:
α
1
(2.4)
qui est tracée sur la figure 2.2. À noter qu’il y a deux changements en Fx pαq, l’un en x 1 et l’autre en x 1.
Ces discontinuités de Fx pαq sont dues aux probabilités discrètes en ces points.
Une autre utile caractérisation statistique d’une variable aléatoire est la fonction densité de probabilité, fx pαq,
qui est la drivée de la fonction de distribution :
fx pαq d
Fx pαq
dα
(2.5)
Pour la variable aléatoire ayant la fonction de distribution donnée par l’équation 2.4, la fonction densité de
probabilité, tracée dans la figure 2.2b, est :
fx pαq 1
u0 pα
2
1q
1
u0 pα 1q
2
(2.6)
Où u0 pαq est la fonction impulsion unité. Les fonctions densités contenant des impulsions sont caractéristiques
des variables aléatoires du type discret.
Pour la variable aléatoire continue définie durant l’expérience de la rotation de la roue de la roulette, la fonction
distribution de probabilité est :
Fx pαq $
& 0
:
:
:
α
%
1
α 0
0¤α
1¤α
1
(2.7)
Figure 2.2 – Distributions des probabilités : (a)fonction de distribution de la variable aléatoire définie pour le jet de la pièce
de monnaie. (b)fonction densité. (c)fonction de distribution d une variable aléatoire définie pour l’expérience de la roue de roulette.
(d)fonction densité
Et la fonction densité de probabilité est :
fx pαq "
1
0
:
:
0¤α¤1
autrement
Ces fonctions de distribution et densités sont montrées dans fig.2.2c et 2.2d, respectivement. À noter, en contraste
avec la variable aléatoire discrète, la fonction distribution de probabilité d’une variable aléatoire du type continue
est une fonction continue de α et la fonction densité est continue par morceaux.
18
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
Pour les variables aléatoires complexes, la fonction distribution ainsi définie dans l’équation 2.3 n’est pas appropriée puisque l’inégalité z α est dépourvu de sens quand z est un nombre complexe. Puisque la variable aléatoire
complexe z x jy est, en essence, une paire de variables aléatoires, x et y, Les affectations de probabilité à z
sont élaborées en termes de fonctions de distribution conjointe et densité conjointe de x et y.
2.2
2.2.1
Moments statistiques
Définitions de quelques estimateurs statistiques
Considérons une variable aléatoire réelle unidimensionnelle z, on la caractérise généralement à l’aide des grandeurs suivantes :
1. Sa valeur moyenne :
µz
N¸1
1
Nlim
Ñ8 N
z pnq,
(2.8)
n 0
On notera que la valeur moyenne µz représente la composante continue du signal autour de
laquelle prennent place les fluctuations.
Ce moment correspond à la moyenne sur l’ensemble des événements possibles. Le résultat dans le cas général
est donc une fonction du temps.
–Dans le cas continu :
mptq E rxptqs »
Ω
xpt, ω qppω qdω,
–Dans le cas discret :
mpnq l
¸
pi xi
i 1
Si cette moyenne ne dépend pas du temps, on dit que le signal aléatoire est stationnaire à l’ordre
1. Si la moyenne est nulle, le signal aléatoire est dit centré.
Remarque : Rappelons ici les deux propriétés principales de l’espérance mathématique
–L’espérance est linéaire :
@α, β P R, E rαx
βy s αE rxs
βE ry s
–Si deux variables x et y sont indépendantes, alors :
E rxy s E rxs.E ry s
2. Sa puissance moyenne :
Pz
1
µz Nlim
Ñ8 N
2
N¸1
z 2 pnq,
(2.9)
n 0
3. Sa variance qui mesure la puissance des fluctuations autour de la valeur moyenne
σz2
1
Nlim
Ñ8 N
N¸1
pzpnq µz q2
1
Nlim
pz2 pnq 2µz zpnq µ2z q
Ñ8 N n0
n 0
N¸1
µz 2µz µz
2
µ2z
µz 2µz 2
2
µ2z
19
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
qui vaut finalement
µz µ2z
σz2
(2.10)
2
4. Son écart–type (ou déviation standard) défini comme la racine carrée de la variance :
σz
a
µz2
µ2z
(2.11)
Sa valeur est égale à la valeur efficace des variations du signal autour de la valeur moyenne. Il est intéressant de
noter que la puissance moyenne µz2 de la variable z peut également s’écrire sous la forme
µ2z
µz2
σz2
(2.12)
On voit ainsi que la puissance de la variable µz2 est égale à la puissance de sa valeur moyenne µ2z plus la puissance
de ses fluctuations σz2
2.2.2
Remarques
1. Il est intéressant de relever que si l’on considère une notation vectorielle du type :
Z rz p0q, ..., z pN
1qs,
ZT
z p0q
..
.
z pN
1q
la puissance s’écrit simplement sous la forme d’un produit scalaire :
Pz
N1
N¸1
z 2 p nq n 0
1 T
zz
N
(2.13)
2. De même, l’indépendance (ou la non correspondance) de deux signaux ou vecteurs peut se mesurer avec le
produit scalaire :
r
xyT |x||y|cospθq
(2.14)
Dans le cas où les signaux sont orthogonaux (c’est à dire indépendants), xT y sera nul alors que si les signaux
sont fortement dpendants (ou ressemblants), la valeur du produit xy T sera proche de 1.
2.3
Descripteurs
2.3.1
Descripteurs du premier ordre
L’éspérance ou moyenne est :
µX ptq E tX ptqu,
(2.15)
pour un signal déterministe, µX ptq est la trajectoire moyenne
2.3.2
Descripteurs du second ordre
*Un
*Il
signal aléatoire X est dit du second ordre si @t, E t|X ptq|2 u
est uniformément du second ordre s’il existe B
*Un
¡ 0 tel que @t, E t|X ptq| u
2
B.
signal aléatoire analogique du second ordre est dit continue en moyenne d’ordre 2 lorsque :
lim E t|X pt
δ
*La
8.
Puissance instantanée :
Ñ0
δ q X ptq|2 u 0,
(2.16)
20
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
PX ptq E t|X ptq|2 u,
*La
(2.17)
Covariance :
–Dans le cas continu :
γ pt1 , t2 q E rxpt1 qx pt2 qs mpt1 qm pt2 q,
–Dans le cas discret :
γ pn, k q E rxn xk s mpnqm pk q,
*La
Variance :
On définit la variance d’un signal aléatoire dans le cas continu comme dans le cas discret par :
σ 2 pxq E rx2 s E pxq2
(2.18)
E rpx E pxqq s
2
Pour un signal aléatoire centré (E pxq 0) ; la variance est alors égale à la puissance.
σ 2 p xq E rx2 s P
V arX ptq E t|X ptq µX ptq|2 u,
2.3.3
(2.19)
Auto/Inter–Corrélation
*Soient
X, Y deux signaux aléatoires réels. L’intercorrélation est donnée par :
RXY pt, sq E tX ptqY psqu,
*Soit
(2.20)
X un signal aléatoire réel. Son auto–corrélation est donnée par :
RX pt, sq E tX ptqX psqu,
(2.21)
Ce moment correspond encore une fois à la moyenne statistique du produit de deux échantillons du signal pris
à des instants différents t1 et t2 :
–Dans le cas continu :
Rxx pt1 , t2 q E rxpt1 qx pt2 qs,
–Dans le cas discret :
Rxx pn, k q E rxn xk s,
On remarquera que le signal aléatoire peut prendre des valeurs complexes. Lorsque les quantités précédentes ne
dépendent que de la différence (t1 t2 ) ou (n k) ; on dit que le signal aléatoire est stationnaire à l’ordre 2. On a
alors l’habitude de noter :
Rxx pτ q E rxptqx pt τ qs,
ou
Rxx piq E rxn xni s,
Exemple :
Étant donné quatre vecteurs échantillons réels :
xp1q 1
,
0
xp2q 2
1
,
xp3q Une estimation du vecteur moyenne peut être ainsi calculée :
2
2 ,
xp4q 0
2 .
21
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
m̂ K
1 ¸ pkq
x
K k1
14
" 1
0
2
1
2
2
*
0
2
{ .
1{4
1 4
L’estimation de la matrice de corrélation est :
R̂x
K1
1
4
K
¸
xpkq pxpkq qT
k 1
" 1 1
0
0
2 2
1
9{4
3{2
3{2 9{4 .
1
2 2 2
2
0 2 0
*
2
En déduire la matrice de covariance Cx
Remarque :
–Signal à temps discret :
γm,n
E rpxm E pxm qqpxn E pxn qqs
appelée covariance ou fonction d’autocorrélation ou encore fonction de corrélation de xn . La définition de
γm,n est donnée parfois sans les termes E pxm q et E pxn q même si la suite xn n’est pas centrée.
–Signal à temps continu :
γt1 ,t2
E rpxpt1 q mpt1 qqpxpt2 q mpt2 qqs
est appelée indifféremment covariance ou fonction de corrélation ou fonction d’autocorrélation de xptq. La
définition de γt1 ,t2 est donnée parfois sans les termes mpt1 q et mpt2 q même si la fonction xptq n’est pas
centrée.
2.4
2.4.1
Appendice
Résumé
(Auto)corrélation et covariance
Rx E txxT u ;
Cx E tpx mqpx mqT u
Rx RxT
Symétrie
Positive, semie–définie
Interrelation
Intercorrélation et inter–covariance
Relation de Ryx et Cyx
Interrelation
Orthogonalité et non corrélation
Somme de x et y
aT Rx a ¥ 0
Rx Cx
; Rx RxT
; aT Cx a ¥ 0 ; @a
mx mxT
Rxy E txyT u ; Cxy E tpx mx qpy my qT u
Ryx RyxT
Rxy Cxy
; Ryx RyxT
mx myT
x et y orthogonaux : Rxy r0s
x et y non corrélés : Cxy r0s
si x et y orthogonaux : Rx+y Rx
si x et y non corrélés : Cx+y Cx
Table 2.1 – Définitions et propriétés des matrices de corrélation et de covariance.
Ry
Cy
22
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
2.4.2
Variance
V arpz q σz2
1
Nlim
Ñ8 N
N¸1
pzpnq µz q2
N¸
1
1
Nlim
pz2 pnq 2µz zpnq µ2z q
Ñ8 N n0
n 0
µz 2µz µz
2
σz2
2.4.3
µ2z
µz 2µz 2
2
µ2z
µz µ2z
(2.22)
2
Covariance
Cx pk, lq E rtxpk q mx pk qutxplq mx plqu s
E rxpkqxplq s E rxpkqmx plq s E rmx pkqxplq s mx pkqmx plq
rx pk, lq mx pkqmx plq mx pkqmx plq mx pkqmx plq
rx pk, lq mx pkqmx plq
Cx pk, lq rx pk, lq mx pk qmx plq
2.4.4
Corrélation
Rx
y
E rtpx yutx yuT s
E rxxT xyT yxT
Rx Rxy Ryx Ry
Rx
y
Rx
Rxy
Ryx
yy T s
Ry
De la même manière, la matrice de covariance pour la somme de deux vecteurs aléatoires :
Cx
Si x et y sont orthogonaux donc Rxy
Cx
y
Cxy
Cyx
Cy
Ryx r0s, on en déduit :
Rx
y
Rx
De même si x et y sont non corrélées donc Cxy
Cx
y
Ry
si x et y sont orthogonaux
Cyx r0s, on en déduit :
Cx
Cy
si x et y sont non corrélées
Cette dernière équation est la généralisation du résultat des variables aléatoires qui spécifient que :
varrx
*
*
y s varrxs
La fonction de corrélation
La DSP
varry s si x et y sont non corrélées
ñ Ressemblance en fonction du temps
ñ Ressemblance en fonction de la fréquence
23
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
2.5
Moments temporels
Dans ce qui suit, nous supposerons les signaux de puissance finie. Des définitions équivalentes peuvent être
données pour des signaux d’énergie finie.
2.5.1
Moment temporel d’ordre 1 (moyenne)
–Dans le cas continu :
xptq ¡ lim
1
T Ñ8 T
» T {2
T {2
xpt, ω qdt
(2.23)
–Dans le cas discret :
xpnq ¡ lim
N
Ñ8 2N
n¸
N
1
1 nN
xpn, ω q
(2.24)
Dans le cas général, le sommation étant faite sur le temps, le résultat obtenu est normalement une variable
aléatoire dépendant de ω. Dans le cas contraire on dira que le signal est ergodique à l’ordre 1.
2.5.2
Moment temporel d’ordre 2 (fonction d’auto–corrélation temporelle)
–Dans le cas continu :
xptqxpt τ q ¡ lim
1
T Ñ8 T
» T {2
T {2
xpt, ω qx pt τ, ω qdt
(2.25)
–Dans le cas discret :
xpnqxpn k q ¡ lim
N
2.6
2.6.1
Ñ8 2N
n¸
N
1
1 nN
xpn, ω qx pn k, ω q
(2.26)
Interprétation de la Covariance et des fonctions de Corrélation
Interprétation de la Covariance
Comme dans le cas d’une v.a à une dimension, la variance de la v.a X est définie par :
varpX q E prX
E pX qs q E rpX q s rE pX qs
2
2
2
et on a une expression analogue pour la variable Y . Mais les grandeurs E pX q, E pY q, varpX q et varpY q ne
permettent pas de mesurer un lien éventuel pouvant exister entre X et Y . On introduit alors la nouvelle quantité,
appelée covariance de X et Y , définie par :
Cov pX, Y q E prX
E pX qsrY E pY qsq
On peut vérifier, directement à partir de sa définition, que l’opérateur Cov pX, Y q possède les propriétés suivantes :
Cov pX, X q varpX q
Cov pX, Y q Cov pY, X q
Cov pαX, βY q αβCov pX, Y q
Cov pX, Y q E pXY q E pX qE pY q
L’espérance E trX aY s2 u est un polynôme de degré 2 par rapport à la variable a. Comme ce polynôme ne prend
que des valeurs non négatives lorsque a varie sur R, on peut en déduire l’inégalité suivante (Inégalité de Schwartz) :
|Cov pX, Y q|2
¤ |CovpX, X q||CovpY, Y q|
24
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
Cette inégalité montre que le nombre :
r
Cov pX, Y q
a
varpX q varpY q
a
Yq
Covσ pX,
σ
X Y
appelé coefficient de corrélation linéaire de pX, Y q, vérifie :
1¤r ¤1
Deux v.a X et Y sont dites non corrélées si elles vérifient la propriété suivante :
Cov pX, Y q 0
On dit aussi que les v.a sont orthogonales. Il est facile de voir que X et Y sont non corrélées si,
et seulement si, r 0. On admet que plus la valeur absolue de r est proche de 1, plus les v.a sont
corrélées. Donc plus r est proche de 0, plus les v.a sont décorrélées et elles sont orthogonales pour
r 0. Deux v.a indépendantes sont forcément non corrélées et ceci pour toute loi de probabilité.
La réciproque est fausse pour une loi de probabilité quelconque mais peut être vrai pour certaines
lois particulières comme la loi de Gauss. Cependant la non corrélation conduit au résultat suivant
important dans la pratique : si deux v.a X et Y sont non corrélées, on a pour tout couple pα, β q de
nombres réels :
varpαX
βY q α2 varpX q
β 2 varpY q
Le coefficient de corrélation entre X et Y représente le cosinus de l’angle formé par les vecteurs X E pX q et
Y E pY q. Un coefficient de corrélation nul exclut l’existence de relation linéaire entre X et Y mais n’exclut pas
l’existence d’autres types de relations.
Dans la pratique, la notion d’indépendance est difficile à vérifier et on préfère se limiter à savoir si deux v.a sont
plus ou moins corrélées. L’étude d’un couple aléatoire se fait donc souvent, de manière incomplète, à partir de la
seule connaissance de la matrice définie par :
varpX q
Γ Cov pX, Y q
Cov pY, X q
varpY q
Cette matrice symétrique, dénommée matrice de covariance ou matrice de corrélation du couple aléatoire est
complètement déterminée par les moments du second ordre du couple pX, Y q.
2.6.2
Interprétation des fonctions de Corrélation
Les fonctions de corrélation normées permettent de quantifier les liens statistiques existant entre la fonction
aléatoire xpt, ω q à l’instant t et la fonction aléatoire y pt τ, ω q à l’instant t τ . Considérons tout d’abord deux
variables aléatoires réelles xpω q et y pω q et leur coefficient de corrélation :
rxy
E rpxpωq mσxσqpypωq my qs
x y
–lorsque les deux v.a sont indépendantes : rxy 0
–lorsque xpω q αy pω q, α P R, rxy sgnpαq
ce sont bien sûr les deux cas extrêmes. D’une façon générale, la nullité de rxy n’entraı̂ne pas
l’indépendance des variables aléatoires xpω q et y pω q sauf si celles–ci sont conjointement gaussiennes.
Toutefois, on pourra admettre en première approximation que si rxy 0, les liens statistiques entre
xpω q et y pω q sont faibles, du moins si la relation supposée est linéaire.
Considérons maintenant les fonctions aléatoires xpt, ω q et y pt, ω q, leur fonction de corrélation mutuelle normée
est :
rxy
Rxσ yσpτ q
c c
x y
25
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
rxy pτ q est l’équivalent du coefficient de corrélation rxy des deux variables aléatoires xpω q et y pω q mais cette fois
pour les deux variables aléatoires xpt, ω q et y pt τ, ω q.
–Si rxy 0, cela signifie que les liens statistiques entre xpt, ω q et y pt τ, ω q sont faibles. Si au
contraire |rxy pτ q| 1, on pourra considérer que les liens statistiques entre xpt, ω q et y pt τ, ω q sont
forts.
Ceci est bien sûr vrai si y pt, ω q xpt, ω q. Si |rx pτ q| 1, on peut considérer que xpt, ω q et xpt τ, ω q
sont fortement (linéairement) dépendants. Si au contraire rx pτ q 0 on peut considérer qu’ils sont
peu dépendants l’un de l’autre.
–Si |rx pτ q| décroı̂t lentement lorsque τ augmente, ceci signifie que les variables aléatoires xpt, ω q
et xpt τ, ω q sont fortement dépendantes, même pour des valeurs de τ importantes. On fait ainsi
apparaı̂tre la notion de (mémoire) du signal, liée à la largeur de la fonction de corrélation.
–Si |rx pτ q| décroı̂t rapidement vers 0 lorsque τ augmente, on pourra considérer qu’il possède une
(mémoire courte), le cas extrême étant celui du bruit blanc dont on verra qu’il possède pour fonction
de corrélation une impulsion de Dirac.
2.7
2.7.1
Notions de probabilités
Fonction de répartition et densité de probabilités
Dans le cas d’une variable aléatoire continue x, on définit la probabilité d’avoir la valeur mesurée x1 inférieure
à une valeur x donnée
P pxq probpx1
xq
(2.27)
Cette fonction porte le nom de fonction de répartition la variable x.
La probabilité d’avoir la valeur mesurée x1 comprise entre deux valeurs x et x
x1
P px
∆xq P px1
x
x
∆xq P px1
xq
∆x vaut donc
(2.28)
Cette relation permet de définir la densité de probabilité
ppxq P px1
lim
Ñ0
∆x
x ∆xq
∆x
dPdxpxq
(2.29)
et d’en tirer la fonction de répartition
P pxq avec comme propriété évidente
x1
P p8
»x
8
ppxqdx
8q P p8q 1
(2.30)
(2.31)
C’est la densité de probabilité qui est généralement utilisée comme modèle pour décrire la répartion des valeurs
d’une variable aléatoire. À partir de celle–ci, on peut calculer la valeur moyenne, la variance et la puissance d’une
variable x à l’aide de
2.7.2
µx
σx2
µx2
»
8
8
» 8
8
» 8
Modèles statistiques
Les modèles les plus fréquemment utilisés sont
8
xppxqdx
(2.32)
px µx q2 ppxqdx
(2.33)
x2 ppxqdx
(2.34)
26
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
1. la répartition uniforme entre deux valeurs extrêmes xmin et xmax
ppxq constante 2. la répartition gaussienne entre
8 et 8
ppxq 1
xmax xmin
?1
2πσx
exp
px 2σµ2x q
1
∆x
(2.35)
2
(2.36)
x
Dans le cas fréquent de signaux à valeur moyenne nulle pµx
0q, on tire les propriétés intéressantes suivantes
pxmax 12xmin q ∆x
12
P p|x| σx q 68%
P p|x| 3σx q 99.7%
2
2
distribution unif orme : σx2
distribution gaussienne :
On peut imaginer, suivant les applications, d’autres distributions comme par exemple la distribution exponentielle
décrite par
ppxq 2.8
?1
2σx
exp
?
2
|x µx |
σx
(2.37)
Définitions
–définition : Un signal aléatoire est un signal qui ne se reproduit pas à l’identique lors qu’on ré-itère une
expérience dans les mêmes conditions.
Communément, la plupart du processus stochastique, mais pas toujours, représente le bruit ou la partie inconnue
et non désirée d’une mesure effectuée sur un système physique. Les processus stochastiques ou aléatoires sont ceux
qui peuvent être seulement décrits d’une façon probabiliste ou en termes de leurs prévision ou comportement en
moyenne.
La plupart des moyennes statistiques communes sont la moyenne, la variance et l’autocorrelation. Ces moyennes
sont strictement l’ensemble des moyennes à travers tous les processus possibles de sortie à travers tous les temps et
les situations typiques de ce processus.
Un seul historique temporel infini d’un processus aléatoire est appelé fonction échantillon (ou un enregistrement
d’un échantillon le long d’un intervalle de temps fini)(Bendat et Piersol 1971). La collection de toutes les fonctions
échantillon, appelée l’ensemble, est définie comme un processus aléatoire, vu qu’il couvre toute l’information possible
du processus.
Les processus aléatoires peuvent être classés en stationnaires et non stationnaires. Les processus stationnaires à
leur tour sont classés en ergodiques et non ergodiques comme le montre la figure 1.3.
* Soit (Ω, F , P) un espace probabilisé et L (Ω) l’espace des variables aléatoires sur (Ω, F , P). Un signal
aléatoire est une application :
pour les signaux analogiques X : R ÝÑ L pΩq
t ÞÝÑ X ptq
Pour les signaux numériques X : ZZ ÝÑ L pΩq
t ÞÝÑ X rts
* Par la suite on écrira X ptq indifféremment pour les signaux aléatoires analogiques ou numériques.
* Un signal aléatoire est un processus stochastique, c’est à dire l’évolution d’une variable aléatoire en fonction
du temps.
* Pour une réalisation d’un évènement ω P Ω, l’application t ÞÝÑ X rω, ts s’appelle trajectoire du signal aléatoire
X.
2.9
Signaux Stationnaires Ergodiques
Un signal aléatoire est dit strictement stationnaire à l’ordre n si ses moments statistiques sont invariants par changement de l’origine des temps. Généralement, on se restreint à l’ordre 2 (sens large). La fonction d’auto–corrélation
ne dépend donc que du retard entre les deux signaux. La stationnarité est conservée par opération stationnaire
(ex : filtrage). Un signal aléatoire est dit ergodique si les moyennes temporelles existent et sont indépendantes
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
27
de l’échantillon. Le théorème de Birkoff affirme que si un signal aléatoire est stationnaire et ergodique, alors les
moments temporels et statistiques sont gaux.
E rxptqs Rxx pt1 , t2 q Exemple : le signal xptq a.sinpω0 t
xptq ¡ cste,
xpt1 qxpt2 q ¡ Rxx pt1 t2 q,
φq est :
–déterministe si a, ω0 , et φ sont constants.
–aléatoire si a, ω0 sont constants et φ est aléatoire.
–si φ est équirépartie sur l’intervalle r0; 2π s, le signal aléatoire est stationnaire et ergodique.
–si φ est équirépartie sur l’intervalle r0; π s, le signal aléatoire est toujours ergodique mais non stationnaire.
Figure 2.3 – Représentation d’un ensemble de réalisations.
2.9.1
Signaux Stationnaires
Soit un ensemble d’enregistrements xptq décrivant le phénomène étudié. Les propriétés moyennes du signal
peuvent être évaluées à n’importe quel instant t1 du signal en faisant une moyenne sur l’ensemble des réalisations.
On peut ainsi évaluer la valeur moyenne, la valeur quadratique moyenne (ou carré moyen ) ou tout autre grandeur
moyenne. Si ces valeurs moyennes sont invariantes en fonction de l’instant t1 où elles sont calculées, alors on dit
que le signal est stationnaire.
2.9.2
Signaux Ergodiques
Pour la plupart des signaux stationnaires, les valeurs moyennes évaluées sur un ensemble à l’instant t1 sont égales
aux valeurs moyennes correspondantes évaluées relativement au temps à partir d’une seule réalisation xptq, où xptq
est choisie arbitrairement dans l’ensemble des réalisations et où la moyenne temporelle est évaluée sur une durée
T. Cette propriété est appelée ergodicité. Les signaux dotés de cette propriété sont dits ergodiques. Sauf mention
explicite, les signaux considérés pendant ce cours seront considérés stationnaires et ergodiques. Signal ergodique ô
Signal stationnaire + (moyenne d’ensemble = moyenne temporelle)
Selon l’approche probabiliste, les paramètres statistiques des données réelles sont obtenus à travers l’ensemble
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
28
Figure 2.4 – Moyenne d’ensemble et moyenne temporelle.
Figure 2.5 – Signaux deterministes.
Figure 2.6 – Signaux ergodiques.
des moyennes. l’estimation de tout paramètre du processus stochastique peut être obtenue en moyennant un grand
nombre de réalisations du processus considéré, à chaque instant temporel.
Toutefois, pour plusieurs applications, seulement quelques ou même un seul échantillon du processus est disponible. Pour ces situations, on a besoin d’apprendre dans quels cas les paramètres statistiques du processus peuvent
être estimés en utilisant la moyenne temporelle d’un unique échantillon (ou d’un element de l’ensemble) du processus. Ceci est évidemment non possible si le paramètre désiré varie. L’équivalence entre la moyenne de l’ensemble et
la moyenne temporelle est appelée ergodicité.
La moyenne temporelle d’un processus stationnaire considéré représenté par xpk q est calculé par :
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
Figure 2.7 – Signaux deterministes.
Figure 2.8 – Signaux aléatoires.
m̂xN
2N1
N
¸
1 N
xpk q
29
30
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
Si
2
σm̂
x
N
Nlim
E t|m̂x mx |2 u 0
Ñ8
N
(2.38)
Le processus est dit moyennement ergodique dans le sens des moindres carrés. Par conséquent, le processus
moyennement ergodique possède une moyenne temporelle qui approxime la moyenne de l’ensemble quand N Ñ 8.
Bien sur, m̂xN est une estimation non biaisée de mx puisque :
E rm̂xN s N
¸
1
2N
1 N
E rxpk qs mx
2
Par conséquent, le processus sera considéré ergodique si la variance de m̂xN tend vers 0 pσm̂
xN
pN Ñ 8q.
2
La variance σm̂
peut être exprimée après quelques manipulations
x
Ñ 0q quand
N
2
σm̂
xN
2N
2N
¸
1
1 l2N
σx2
pk
l, k q 1 |l|
2N 1
(2.39)
pk l, kq est l’autocovariance du processus stochastique xpkq.
Où
La variance de m̂xN tend vers zéro si et seulement si :
σx2
N
1 ¸ 2
σx pk
N Ñ8 N
l0
l, k q Ñ 0
lim
La condition précédente est nécessaire et suffisante pour garantir que le processus soit moyennement ergodique.
Le concept d’ergodicité peut être étendu aux statistiques d’ordre supérieur. En particulier, pour les statistiques
du second ordre on peut définir le processus
lqx pk q
xl pk q xpk
Où la moyenne de ce processus correspond a l’autocorrelation de xpk q,i.e., rx plq. L’ergodicité moyenne de xl pk q
implique l’ergodicité des moindres carrés de l’autocorrelation de xpk q.
La moyenne temporelle de xl pk q est donnée par :
m̂xl ,N
2N1
N
¸
1 kN
xl pk q
Ceci est une estimation non biaisée de rx plq. Si la variance de m̂xl ,N tend vers zéro quand N tend vers l’infini,
le processus xpk q est dit moindre carré ergodique de l’autocorrelation, i.e.,
lim E t|m̂xl ,N
N
Ñ8
rx plq|2 u 0
La condition précédente est satisfaite si et seulement si :
N
1 ¸
E txpk
N Ñ8 N
i 0
lim
lqx pk qxpk
l
iqx pk
iqu rx2 plq 0
Ici on suppose que xpnq possède des moments stationnaires du quatrième ordre. Le concept d’ergodicité peut
être étendu aux processus non stationnaires, cependant, ceci est au–delà des possibilités de ce cours.
La notion de stationnarité et le concept d’ergodicité sont importants pour comprendre le contexte
des systèmes de l’ingénierie. La stationnarité réfère à la statistique de l’invariance temporelle, donc,
toutes les fonctions densités de probabilité associées au processus sont invariantes par rapport a une
translation temporelle.
Un processus ergodique est caractérisé par des propriétés statistiques qui peuvent être estimées à
31
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
partir des moyennes temporelles d’un seul échantillon de la fonction ou d’une réalisation. Ceci veut
dire que l’information statistique même du processus peut être déterminée en moyennant les sorties
mesurées aux différents instants (ce qui est tout a fait possible) au lieu de moyenner les différentes
sorties obtenues au même instant (strictement impossible a réaliser ou à faire). Heureusement, en
pratique, plusieurs processus dans le cadre de l’ingénierie sont en fait ergodiques et par conséquent
soumis à l’analyse mathématique.
Figure 2.9 – Exemple de processus stationnaire et
Figure 2.10 – Exemple de processus non station-
ergodique.
naire.
2.10
Exemple d’un signal aléatoire : le bruit blanc
2.10.1
Définition :
Un bruit blanc est un processus stationnaire au second ordre constitué d’une suite de variables aléatoires centrées
et decorrelées.
Remarque : On indique parfois l’indépendance, mais dans la plupart des situations, l’indépendance à l’ordre 2,
c’est à dire la décorrelation, suffit.
Soit bpt, ω q un tel processus.
E rbpt, ω qs 0
V arrbpt, ω qs σb2
La decorrélation entraine pour la fonction d’autocorrélation :
E rbpt, ω qs 0
V arrbpt, ω qs σb2
γb pτ q E rbpt, ω qbpt
τ, ω qs
"
σb2
0
si
si
τ
τ
0
0
Ce qui peut s’écrire de façon résumée en utilisant l’impulsion de Dirac :
γb pτ q σb2 δ pτ q
2.10.2
Comportement temporel :
L’allure des trajectoires obtenues avec ce type de processus est bien évidemment très peu régulière, puisqu’il
est équiprobable de placer l’amplitude du signal n’importe où à chaque instant selon une probabilité réglée par la
fonction de répartition.
La distribution des amplitudes fait partie des caractéristiques principales du bruit blanc. Les figures ci–dessous
montrent une trajectoire de bruit blanc gaussien et une trajectoire de bruit blanc uniforme avec les histogrammes
des amplitudes obtenues.
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
32
Figure 2.11 – Bruit blanc Gaussien et bruit blanc uniforme.
2.10.3
Comportement fréquentiel :
Par définition, le spectre d’un signal aléatoire est la transformée de Fourier de sa fonction d’autocorréllation.
En appliquant cela, nous obtenons :
Γpν q »8
8»
σb2
σb2
γb pτ qeiντ dτ
8
8
δ pτ qeiντ dτ
Ce qui signifie que toutes les fréquences sont représentées dans ce signal avec la même puissance. il n’y a pas de
fréquences privilégiées. Le modèle du bruit blanc est bien sûr théorique. Cependant il approche assez bien certains
phénomènes physiques, comme les bruits thermiques en électronique par exemple.
Figure 2.12 – Représentation spectrale d un bruit blanc.
2.11
Densité spectrale de puissance
Le théorème de Wiener–Kintchine permet d’assurer que la densité spectrale de puissance d’un signal aléatoire
de fonction autocorrélation Rxx pτ q est donnée par :
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
33
–continu :
Sxx pf q T F rRxx pτ qs
–discret :
Sxx pν q 8
n¸
n
8
xpnqe2jπnν
La puissance du signal aléatoire stationnaire et ergodique peut être obtenue par la relation :
1
P lim
T Ñ8 T
» T {2
T {2
xpt, ω qx pt, ω qdt
Rxx p0q
E r|xptq|2 s
» 8
Sxx pf qdf
8
(2.40)
34
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET
r
e
s
e m ta b
t
s
sy les arbr l
ux
s
e
ur em na
h
he pierres
es its-h s
i
s2
ru igna c
s
ir e
onnent
d
i
de
u
q
s
s
u
t
t
sup
e
f
sti
n
i
e
-
on je
t
t
e
d
e
urs signaux
a
n
a -i
ur
co t o s
en
amlea -
- co
ui donn
q
s
e e t de s m
e
at
u
tiq e-on jette d
bl nt des f
e
r
a
u
ie est controla
en
hem na
c
i
h
s
am
t
i
ru de l inform
i
r
s p res-ingenie br
u
toi
r
lea matiques-un
erre
s sur l e
s
a
Chapitre
3
Modèles paramétriques des signaux et des
systèmes
Il y a une large variété de manières pour représenter ou modéliser un signal en utilisant les outils calculatoires
du signal et des processus aléatoires. Dans ce chapitre on va considérer les modèles paramétriques dans le sens
qu’ils contiennent un certain nombre de libres paramètres qui peuvent être ajustés pour optimiser un certain critère
donné, tel que les moindres carrés ou l’erreur quadratique moyenne. Les plus simples modèles sont ceux appelés
autoregressive model (AR) et moving average (MA) qui utilisent comme paramètres libres, les coefficients
des polynômes du dénominateur et numérateur d’une fonction de transfert rationnelle qui est gouvernée par des
processus déterministes ou aléatoires.
3.1
Les modèles autoregressifs AR
Un signal discret temporel xrns est un processus autoregressif pARq d’ordre p s’il peut s’écrire sous la forme
suivante :
xrns a1 xrn 1s ... ap xrn ps wrns
Où a1 , a2 , ..., ap sont les paramètres du modèle pARq et le signal wrns est un bruit blanc à moyenne nulle et de
variance σ 2 , c’est à dire qu’on a : Cw rms σ 2 δ rms. En réarrangeant l’ordre des termes dans la définition, on peut
écrire le processus autoregressif récursivement :
xrns a1 xrn 1s a2 xrn 2s ... ap xrn ps
w rns
(3.1)
Ce qui montre que le processus autoregressif du pieme ordre peut s’écrire comme un combinaison linéaire des p
récentes valeurs du signal additionnée d’un terme qui est statistiquement indépendant des valeurs antérieures du
processus. On l’appelle la séquence innovatrice, et représente la nouvelle information, ou la composante imprédictible
du signal aléatoire.
Une autre façon de considérer les signaux autoregressifs est de reconnaitre que la définition du processus
représente aussi une convolution de la séquence d’entrée xrns avec les paramètres autoregressifs, de façon que
le signal de sortie soit la séquence innovatrice :
p
¸
ak xrn k s wrns
(3.2)
k 0
Où on pose a0
donne :
1, la signification de ceci peut être comprise quand on réarrange légèrement les termes, ce qui
xrns p
¸
ak xrn k s
k1
loooooooooomoooooooooon
r s
x̂ n
35
w rns
(3.3)
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES
36
Figure 3.1 – Structure canonique d’un processus autoregressif.
dans laquelle on peut voir la sommation comme une estimation du signal xrns, déterminé par ses récents p
paramètres, on a :
xrns x̂rns wrns
(3.4)
En écrivant le processus sous cette forme, on voit bien que la séquence xrns est plutôt unique dans le sens qu’elle
est le mieux estimée par ses récentes valeurs antérieures et ceci après avoir soustrais cette composante prédictible,
tout ceci est une séquence de bruit blanc qui est indépendant des valeurs antérieures. Le terme autoregressif provient
de la possibilité d’écrire la séquence xrns en utilisant un modèle regressif développé le long de ses valeurs antérieures,
c’est à dire en utilisant une combinaison linéaire finie de ses valeurs antérieures.
En utilisant la régression linéaire, ou le modèle autoregressif de la séquence xrns, on voit bien qu il y a une
relation entrée–sortie entre les séquences xrns et wrns, donc, on peut envisager la création de la séquence xrns par
le traitement de la séquence wrns avec un filtre linéaire invariant. Pour le moment, ignorons le fait que les séquences
xrns et wrns peuvent être aléatoires, et ne considérons que la relation entrée–sortie entre eux, on peut appliquer la
transformé en z aux deux membres de l’égalité, (en assumant pour le moment que les signaux sont déterministes
ou donnés), on obtient :
xp z q
xpz q
p
¸
ak z k X rz s W rz s
k 1
p
¸
1
ak z k
(3.5)
W rz s
(3.6)
W z
(3.7)
k 1
xpz q 1
p
°
1 ak z k
rs
k 1
Cette relation entrée–sortie implique que l’on peut considérer la séquence xrns comme étant générée par filtrage
de la séquence wrns avec un filtre tout pôle, puisque la fonction de transfert est H pz q X pz q{W pz q, la relation
entre X pz q et W pz q peut être écrite comme une fonction de transfert rationnelle où le polynôme numérateur est
donné par B pz q 1, et le polynôme dénominateur est donné par Apz q p
°
1
ak z k (voir fig3.2).
k 1
Figure 3.2 – Fonction de transfert entrée–sortie d’un modèle autoregressif.
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES
37
Cette interprétation de l’entrée–sortie d’un processus pARq fournit deux façons intéressantes pour envisager la
relation entrée–sortie entre les signaux xrns et wrns. Spécifiquement, on peut utiliser la relation X pz q H pz qW pz q
pour voir que le signal xrns comme étant généré par le filtrage d–un bruit blanc wrns avec un filtre tout pôle. Ce
qui nous permet, d’une manière simple, de générer des processus aléatoires (ou des signaux déterministes) avec
un modèle spectral qui peut être contrôlé paramétriquement à travers les coefficients de Arz s. Un point de vue
alternatif survient a partir de l’écriture du signal sous la forme de la prédiction de l’erreur prévoyant qu’on a
xrns x̂rns wrns. En l’érivant sous cette forme, on peut considérer que le signal xrns étant filtré en utilisant
le filtre de prédiction d’erreur avec la fonction de transfert Apz q, de façon que la sortie soit le bruit blanc wrns.
Dans ce sens, la composante prédictible de xrns peut être complètement supprimée par le filtre F IR prédicteur
d’erreur de fonction de transfert Apz q, ne laissant que la séquence d’innovation, ou la composante imprédictible,
xrns x̂rns wrns.
L’une des applications du modèle pARq est l’utilisation du modèle paramétrique pour la prédiction de la séquence
xrns. Par exemple, quelqu’un peut tenter de prédire la prochaine valeur d’un bruit coloré avec un modèle pARq.
Figure 3.3 – Poursuite d’un bruit coloré avec un modèle AR.
Fig3.3 montre l’entrée wrns et la sortie xrns d’un filtre F IR prédicteur désigné de poursuivre (tracking) l’entrée
en utilisant seulement les valeurs antérieures (passées) de l’entrée. Le signal utilisé dans la fig3.4 est réutilisé dans
fig3.3
Figure 3.4 – Approximation d’un signal avec une constante.
Puisque le bruit coloré peut être généré par filtrage d’un bruit blanc. Donc, on s’attend à ce que l’erreur entre
les signaux prédits et mesurés sera la séquence d’un bruit blanc. Fig3.5 montre la séquence de la prédiction d’erreur,
qui en effet apparait uncorrelée d’un échantillon vers l’autre,i.e., bruit blanc.
Figure 3.5 – Prédiction d’erreur à partir de l’estimation d un bruit coloré en utilisant le modèle pARq.
38
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES
3.2
Les modèles à moyenne ajustée MA
Le signal discret temporel xrns est appelé processus moving average (MA) d’ordre q s’il peut s’écrire sous la
forme :
xrns b0 wrns
b1 wrn 1s
...
bq w r n q s ,
(3.8)
Où b0 , b1 , ..., bq sont les paramètres du modèle MA et le signal xrns est un le processus d’un bruit blanc, i.e., on
a Cw rms σ 2 δ rms. Étant donné que la séquence xrns peut être considérée comme une combinaison linéaire des plus
récentes valeurs de la séquence, donc on l’appelle moving average ou moyenne ajustée. À partir de cette structure,
chaque fois que la séquence xrns est considérée comme la sortie d’un filtre F IR dont l’entrée est une séquence d’un
bruit blanc, donc, on peut se référer à une séquence de moyenne ajustée. Plus généralement, même lorsque l’entrée
n’est pas une séquence d’un bruit blanc, le processus du filtrage avec un filtre F IR peut être considéré comme étant
le calcul de la moyenne ajustée de l’entrée. Les modèles financiers utilisent souvent la moyenne ajustée durant 50
jours ou 100 jours comme indicateurs des tendances des prix et indices des divers stocks. Dans le même contexte, q
0, 1, ..., q, de façon aussi que xrns q 1 1 ° wrn ks,i.e.,
k0
la moyenne arithmétique des plus récentes q 1 valeurs de wrns.
En observant les relations entre les séquences xrns et wrns avec le modèle flowgraph du signal, dans fig3.6, on
constate que xrns peut être considérée comme la version filtrée par un F IR de la séquence wrns.
et bk sont souvent calculées de façon que bk
1{q
q
1, k
Figure 3.6 – Structure canonique du modèle de la moyenne ajustée.
De même, on peut aussi observer ceci dans fig3.7, grâce a la fonction de transfert de la relation entrée–sortie
entre les deux séquences.
Figure 3.7 – Fonction de transfert du modèle MA reliant x[n] et w[n].
3.3
Les modèles autoregressif à moyenne ajustée ARMA
Un signal discret temporel xrns est un processus autoregressif a moyenne ajustée (ARMA) d’ordre q, p s’il peut
s’écrire sous la forme suivante :
xrns
a1 xrn 1s
...
ap xrn ps b0 wrns
b1 wrn 1s
...
bq w r n q s ,
(3.9)
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES
39
Où a1 , ..., ap , b0 , ..., bq sont les paramètres du modèle ARMA et le signal wrns est un processus de bruit blanc,i.e.,
on a Cw rms σ 2 δ rms. On peut encore une autre fois relier xrns et wrns à travers la relation de la fonction de
transfert, telle que :
xpz q q
°
k 0
p
°
bk z k
1 ak z k
W z
rs
(3.10)
k 1
La relation d’entrée’sortie implique que l’on peut considérer la séquence xrns comme étant générée en filtrant
la séquence wrns avec une fonction rationnelle, i.e., un filtre de ”pôle zéro” avec les polynômes numérateur et
dénominateur d’ordre fini, où le polynôme numérateur est donné par B rz s
donné par B rz s 1
p
°
q
°
bk z k , et le dénominateur est
k 0
k
ak z . Il est couramment supposé que la fonction rationnelle est ”strictement propre”, ce
k 1
qui signifie que l’ordre du numérateur est strictement inférieur à celui du dénominateur, i.e., q p. Fig3.8 et fig3.9
illustrent le flowgraph et la fonction de transfert du modèle ARMA reliant les séquences xrns et wrns.
Figure 3.8 – Structure canonique du modèle ARMA.
Figure 3.9 – Fonction de transfert du modèle ARMA reliant x[n] et w[n].
40
36
37 85 3
4
96442881
1
8 86 7 8
03
48
29
48
756 23
95 4 9 3
8
9164056
98
7067 2148
08
1
1
42 48111745028
31
664
5 96 4
2
165 971
8
35 86280348 338
2
9
5
3
89
20 72535940812
9 793
32
3.14
1
5
9
46
55
10 4612 2
4
8
3 3 0 1 90 4
2
41 9 756659
0
4
38
1
5
6 270193852 9
0
1
2384
8841971
2
0
5
6
79
05820974
1
5
7
94
3
99 32823066470
2
6
81 6406
5
2
307
8
6
92
46095505822
45
93
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES
23846
2
6
4
Chapitre
4
La matrice de Corrélation
Normalement, les filtres adaptatifs utilisent les signaux d’entrée disponibles à l’instant k dans leurs équations
de mise à jour. Ces entrées sont les éléments du vecteur signal d’entrée dénoté
xpk q rx0 pk q x1 pk q ... xN pk qsT
La matrice de corrélation est définie par R E rxpk qxH pk qs, où xH pk q est la transposition hermitienne de xpk q,
c’est à dire la transposition suivie de la conjugaison complexe et vice–versa. Quelques proprités de la matrice de
corrélation sont dues à la nature statistique du problème du filtrage adaptatif, mais les autres propriétés dérivent
de la théorie de l’algèbre.
Pour un certain vecteur d’entrée, la matrice de corrélation est définie par :
E r|x0 pk q|2 s
E rx1 pk qx pk qs
0
R ..
.
E rx0 pk qx1 pk qs
E r|x1 pk q|2 s
..
.
E rxN pk qx0 pk qs E rxN pk qx1 pk qs
..
.
E rx0 pk qxN pk qs
E rx1 pk qxN pk qs
H
E rxpk qx pk qs
..
.
(4.1)
E r|xN pk q|2 s
Les propriétés principales de la matrice R sont les suivantes :
4.1
Propriété 1 : La matrice R est positive semi-définie
Preuve :
Considérons un vecteur de pondération arbitraire complexe w, on peut former un signal donné par :
le carré de l’amplitude de y pk q est :
y pk q wH xpk q
y pk qy pk q |y pk q|2
wH xpkqxH pkqw ¥ 0
la valeur de la moyenne quadratique pM S q de y pk q est donnée par :
M S ry pk qs E r|y pk q|2 s wH E rxpk qxH pk qsw wH Rw ¥ 0
Donc, la matrice R est positive semi–définie.
D’habitude, la matrice R est positive semi–définie, à moins que les signaux qui composent le vecteur d’entrée
ne soient linéairement dépendants. En pratique, les signaux linéairement dépendants sont rarement rencontrés
4.2
Propriété 2 : La matrice R est hermitienne
Preuve :
41
42
CHAPITRE 4. LA MATRICE DE CORRÉLATION
E trxpkqxH pkqsH u E rxpkqxH pkqs R
RH
4.3
Propriété 3 : La matrice R est Toeplitz
Une matrice est Toeplitz si les éléments de la diagonale principale et ceux des diagonales secondaires sont égaux.
Quand le vecteur du signal d’entrée composé des versions retardées du même signal (ceci lorsque : xi pk q x0 pk iq, pour i 1, 2, ..., N ) pris d’un processus W SS (wide–sense stationary), la matrice R est Toeplitz.
Preuve :
pour le vecteur du signal d’entrée composé des versions retardées, avec xpk q W SS, la matrice R possède la forme
suivante :
rx p0q
rx p1q
rx p0q
..
.
p q
rx 1
R ..
.
rx pN q
rx pN
..
1q
rx pN q
rx pN 1q
..
.
.
(4.2)
rx p0q
En examinant la partie droite de cette équation, on peut facilement en déduire que la matrice R est Toeplitz. À
noter que rx piq rx piq, ce qui s’ensuit aussi du fait que la matrice R est hermitienne.
4.4
Propriété 4 : Les valeurs propres de Rm sont λm
i , pour i=0,1,2...,N.
Preuve :
En multipliant l’équation R.q
λ.q par Rm1 , on obtient :
Rm1 Rqi
4.5
Rm1 λi .qi λi Rm2 Rqi
λi Rm2 λi .qi λ2i Rm3 Rqi
... λmi qi
(4.3)
Propriété 5 :
Supposons que R possède N
1 vecteurs propres qi linéairement indépendants ; donc si l’on construit une
matrice Q avec les vecteurs propres qi comme colonnes, il en découle que :
0
Q1 RQ .
..
0
λ1
..
.
0
0
λ0
..
0
0 .. Λ
.
.
(4.4)
λN
Preuve :
RQ Rrq0 q1 ... qN s rλ0 q0 λ1 q1 ... λN qN s
λ0
0
Q .
..
0
λ1
..
.
..
.
0
0 .. QΛ
.
0
0 λN
en conclusion, puisque Q est inversible car les vecteurs qi sont linéairement indépendants, on peut montrer que :
Q1 RQ Λ
43
CHAPITRE 4. LA MATRICE DE CORRÉLATION
4.6
Propriété 6 : Les vecteurs propres non nuls q0 q1 ... qN correspondant aux valeurs propres sont linéairement indépendants
Preuve :
On se construit une combinaison linéaire des vecteurs propres telle que :
a0 q0
a1 q1
...
aN qN
0
(4.5)
en multipliant cette équation par R on obtient :
a0 Rq0
a1 Rq1
...
aN RqN
a0 λ0 q0
a1 λ1 q1
...
aN λN qN
0
(4.6)
Maintenant, en multipliant l’équation p2.5q par λN et en soustrayant le résultat de l’équation p2.6q, on obtient :
a0 pλ0 λN qq0
a1 pλ1 λN qq1
...
aN 1 pλN 1 λN qqN 1
0
(4.7)
en répétant les étapes précédentes, c’est à dire en multipliant l’équation précédente d’une part par par R et d’autre
part par λN 1 , puis en soustrayant les résultats, on obtient :
a0 pλ0 λN qpλ0 λN 1 qq0
a1 pλ1 λN qpλ1 λN 1 qq1
...
aN 2 pλN 2 λN 1 qqN 2
0
(4.8)
en répétant plusieurs fois les étapes précédentes, on aboutit à :
a0 pλ0 λN qpλ0 λN 1 q...pλ0 λ1 qq0
0
(4.9)
puisqu’on a supposé que λ0 λ1 , λ0 λ2 , ..., λ0 λN , et q0 était supposé non nul, donc a0 0. La même lignée
d’idées peut être utilisée pour montrer que a0 a1 a2 ... aN 0 est l’unique solution de l’équation p2.5q.
En définitive, les vecteurs propres correspondants aux valeurs propres sont linéairement indépendants.
4.7
Propriété 7 : Puisque la matrice de corrélation R est hermitienne,
ses valeurs propres sont réelles. Ses valeurs propres sont supérieures
ou égales à zéro vu que la matrice R est semi-défini positive
Preuve :
Considérons un vecteur complexe arbitraire w,
pwH RwqH wH RH pwH qH wH Rw
(4.10)
Donc, wH Rw est un nombre réel. Maintenant, supposons que λi est une valeur propre de R correspondant au
vecteur propre qi , c’est à dire Rqi λi qi . En multipliant cette équation par qH
i , on obtient :
qH
i Rqi
λi qHi qi λi kqi k2
(4.11)
Où l opération kak2 |a0 |2 |a1 |2 ... |aN |2 est le carré de la norme euclidienne du vecteur a, qui est toujours
positive, puisque le terme a gauche de l équation est réel, kqi k2 0, et R est semi–défini positive, on peut en
conclure que λi est réelle et non négative.
À noter que Q n’est pas unique, car chaque vecteur qi peut être multiplié par une constante non nulle, et le vecteur
résultant est aussi un vecteur propre. Pour des pratiques, on ne considère que les vecteurs propres normalisés,
qH
i qi
1
i 0, 1, ..., N
(4.12)
44
CHAPITRE 4. LA MATRICE DE CORRÉLATION
4.8
Propriété 8 : Si R est une matrice hermitienne ayant différentes
valeurs propres, les vecteurs propres sont orthogonaux les uns
aux autres. En conséquence, il existe une matrice Q unitaire avec
QH Q I
Preuve :
Étant donné deux valeurs propres λi et λj , il s’ensuit que :
Rqi
λi qi
et
Rqj
λj qj
(4.13)
En utilisant le fait que R est hermitienne et que λi et λj sont réelles, donc :
H
qH
i R λi qi
(4.14)
En multipliant cette équation par qj , on obtient, :
qH
i Rqj
Maintenant, en multipliant l’équation Rqj
λi qHi qj
(4.15)
λj qj par qHi , on obtient :
qH
i Rqj
λi qHi qj
(4.16)
λi qH
i qj
λj qHi qj
(4.17)
donc,
Puisque λi
λj , on en conclut facilement que :
qH
i qj
0
ij
pour
(4.18)
Si l’on construit la matrice Q avec les vecteurs propres normalisés, la matrice Q est une matrice unitaire.
À noter comme résultat important le fait que toute matrice hermitienne R peut être diagonalisée par une
adéquate matrice unitaire Q, meme si les valeurs propres de R ne sont pas distincts. Par conséquent, pour les
matrices hermitiennes ayant des valeurs propres qui se répètent il est toujours possible de trouver un ensemble
complet de vecteurs propres orthonormés. Une utile forme pour décomposer une matrice hermitienne qui résulte de
la propriété précédente est :
R QΛQH
N
¸
λi qi qH
i
(4.19)
i 0
Ceci est connu sous le nom de décomposition spectrale. De cette décomposition, on peut facilement déduire que :
wH Rw N
¸
λi wH qi qH
i w i 0
N
¸
λi |wH qi |2
(4.20)
i 0
En plus, puisque qi λi R1 qi , les vecteurs propres de la matrice et de son inverse coı̈ncident, par contre les
valeurs propres sont réciproques les uns aux autres. Comme conséquence :
R1
N
¸
1
λ
i0 i
qi qH
i
(4.21)
45
CHAPITRE 4. LA MATRICE DE CORRÉLATION
Une autre conséquence de la propriété unitaire de Q pour les matrices hermitiennes est que toute matrice
hermitienne peut être ecrite sous la forme :
? H
?λ0 q0H a
R r λ0 q0
4.9
a
λ1 q1
a
λN qN s ...
?
λ1 q1 H
LL
..
.
(4.22)
λN qH
N
Propriété 9 : La somme des valeurs propres de R est égale à la
trace de R, et le produit des valeurs propres de R est égal au
déterminant de R6 .
Preuve :
trrQ1 RQs trrΛs
Où, trrAs N
°
i 0
(4.23)
aii . Puisque trrAA1 s trrA1 As, on a :
trrQ1 RQs trrRQQ1 s trrRIs trrRs N
¸
(4.24)
λi
i 0
On a aussi
detrQ1 RQs detrRsdetrQsdetrQ1 s detrRs detrΛs N
¹
λi
(4.25)
i 0
4.10
Propriété 10 : Le quotient de Rayleigh est défini par : R wwHRw
w
d’une matrice hermitienne et est borné par les valeurs propres
minimale et maximale : λmin ¤ R ¤ λmax . Où les valeur minimale
et maximale sont atteintes quand le vecteur w est choisi pour être
le vecteur propre correspondant aux valeurs propres minimale et
maximale, respectivement
H
Preuve :
Supposons que w Qw1 , où Q est la matrice qui diagonalise R, donc :
R
w1H QH RQw1
w1H QH Qw1
w1H Λw1
w 1H w 1
N
°
0
i°
N
1
λi wi
i 0
(4.26)
(4.27)
2
(4.28)
1
wi
2
Il est alors possible de montrer que la valeur minimale de la précédente équation a lieu quand wi 0 pour i j
avec λj étant la plus petite valeur propre. De façon identique, la valeur maximale de R a lieu quand wi 0 pour
i l, quand λl est la plus grande valeur propre.
Il y a plusieurs façons qui définissent la norme d une matrice. La norme de la matrice R, dénoté par kRk, est définie
par :
46
CHAPITRE 4. LA MATRICE DE CORRÉLATION
2
2
kRk
kRwk
max
2
w 0
kwk
wH RH Rw
max
w0
wH w
(4.29)
(4.30)
À noter que la norme de R est une mesure de la croissance du vecteur w en amplitude, quand il est multiplié par
R. Quand la matrice est hermitienne, la norme de R est facilement obtenue en utilisant les résultats des équations
... Le resultat est que :
kRk λmax
(4.31)
Où λmax est la valeur propre maximale de R.
Le problème commun rencontré en filtrage adaptatif est la solution du système des équations linéaires telle que :
Rw p
(4.32)
Dans le cas où il y a une erreur au niveau du vecteur p, due à l’estimation ou la quantification, comment est
donc affectée la solution du système des équations linéaires ?
Pour une matrice R hermitienne définie positive, il peut être démontré que l’erreur relative de la solution du
système des équations linéaires est bornée par :
k∆wk
¤ λλmax k∆pk
(4.33)
kwk
min kpk
Où λmax et λmin sont les valeurs propres minimale et maximale de R, respectivement. Le rapport λmax {λmin
est appelé le nombre de conditionnement de la matrice. donc :
C
λλmax kRkkR1 k
(4.34)
min
La valeur de C influence le comportement de la convergence de plusieurs algorithmes du filtrage adaptatif. Une
grande valeur de C indiques que la matrice R est mal conditionnée, et ques erreurs introduites par la manipulation
de R peuvent être largement amplifiées.
Quand C 1, la matrice est parfaitement conditionnée. Dans la cas où R représente la matrice de corrélation du
signal d’entrée d’un filtre adaptatif, avec un vecteur d’entrée composé d éléments non corrélés d’une ligne à retard,
donc C 1.
Chapitre
5
Filtrage de Wiener
Le filtrage adaptatif est basé sur la recherche de paramètres optimaux par minimisation d’un critère de performance. Fréquemment, cette minimisation se fait en recherchant les moindres carrés. Étant donné le cadre dans
lequel cette présentation est faite, il est nécessaire d’introduire quelques éléments préalables. On commencera donc
par rappeler quelques définitions d’estimateurs statistiques puis on montrera ce que sont la régression linéaire et le
filtrage de Wiener avant de parler du filtrage adaptatif proprement dit.
5.1
Régression linéaire
La régression linéaire consiste en la recherche de la droite passant au mieux parmi un ensemble de points
mesurés (figure 2). Le critère conduisant à cet optimum est la minimisation des distances quadratiques entre les
points mesurés et la droite optimum.
On notera que la régression linéaire s’applique aux systèmes statiques alors que l’approche de Wiener (que l’on
verra dans la section suivante) sert à optimiser des systèmes évoluant au cours du temps.
5.1.1
Mesure, modèle et écart
Comme on souhaite faire passer une droite parmi un ensemble de points,on se donne un modèle dont l’équation
est :
ym
ax
(5.1)
b
L’écart de y pnq par rapport au modèle s’écrit donc :
epnq y pnq ym pnq
epnq y pnq paxpnq
bq
(5.2)
Si l’on décrit la mesure y pnq par rapport au modèle ym pnq, on a évidemment :
y pnq ym pnq
epnq
(5.3)
On associe généralement deux grandeurs à l’écart epnq :
1. sa valeur moyenne µe qui doit tendre vers 0 si le modèle n’est pas biaisé ;
2. sa puissance σe2 qui doit diminuer lorsque a et b se rapprochent des vraies valeurs liant y à x.
On notera que pour le calcul d’une régression linéaire, on fait l’hypothèse qu’il n’y a pas de bruit sur la valeur
de la variable indépendante xpnq.
5.1.2
Minimisation de l’écart quadratique
L’obtention de la droite passant au mieux parmi les points mesurés nécessite la recherche du minimum d’une
fonction dépendant des paramètres recherchés a et b. Pour cela, on définit un critère d’optimisation qui mesure la
puissance ou la variance de l’écart :
47
48
CHAPITRE 5. FILTRAGE DE WIENER
Figure 5.1 – Illustration des distributions uniforme, gaussienne et exponentielle.
Figure 5.2 – Régression linéaire.
J pa, bq N 1
N 1
1 ¸ 2
1 ¸
e pnq pypnq paxpnq
N n0
N n0
bqq2
(5.4)
Lorsque l’écart quadratique est minimum, on a :
avec
BJ pa, bq 0
Ba
BJ pa, bq 0
Bb
(5.5)
49
CHAPITRE 5. FILTRAGE DE WIENER
BJ pa, bq 1 N¸1 2pypnq paxpnq
Ba
N n0
N¸1
N2
pxpnqypnq
n 0
N2 BJ pa, bq Bb
N¸1
bqqp0 xpnq 0q
ax2 pnq
xpnqy pnq
N¸1
a
bxpnqq
x2 pnq
b
N¸1
xp nq
n0
n0
N 1
1 ¸
2py pnq paxpnq bqqp0 0 1q
N n0
N 1
2 ¸
n 0
N
pypnq
n 0
N2 N¸1
axpnq
y pnq
a
n 0
N¸1
bq
xpnq
n 0
N¸1
b
n 0
On en tire 2 équations dont les inconnues sont a et b :
a
N 1
1 ¸ 2
x pnq
N n 0
a
5.1.3
b
N 1
N 1
1 ¸
1 ¸
xpnq xpnqy pnq
N n0
N n0
N 1
1 ¸
xpnq
N n 0
N 1
N 1
1 ¸
1 ¸
b
y pnq
N n0
N n0
(5.6)
(5.7)
Équations de la régression linéaire
Se souvenant de la définition d’une valeur moyenne, on voit que les équations (25) et (24) s’écrivent plus
simplement sous la forme :
b µy
aµx
aµx2
bµx
(5.8)
µxy
(5.9)
Sous forme matricielle, cela donne :
1
µx
µx
µx2
a
b
µy
µxy
dont la solution est
a
b
µx
µx2
1
µx
1 µ
y
(5.10)
µxy
L’inversion de la matrice et le calcul explicite de a et b donnent alors
µx µy µxy
(5.11)
µ2x µx2
µx µxy µy µx2
b
(5.12)
µ2x µx2
Dans le cas particulier où la droite passe par l’origine, les valeurs moyennes µx et µy sont nulles et on a :
a
a
µxy
µx2
°
xny n
°
p q p q xT y ,
x2 pnq
xT x
b0
(5.13)
50
CHAPITRE 5. FILTRAGE DE WIENER
5.2
Filtrage de Wiener
Dans de nombreuses applications, les signaux temporels sont entachées d’une interférence ou d’un bruit non
désirés. Il faut alors trouver une solution permettant de supprimer ou tout au moins réduire ces composantes
perturbatrices. Dans le cas où le spectre du signal désiré et celui du signal perturbateur se superposent, il n’est pas
possible de recourir au filtrage classique. Le filtre de Wiener apporte une solution à ce problème lorsque le processus
est stationnaire.
5.2.1
Définition du problème
On considère ici le schéma de la figure 3 dans lequel on trouve :
1. le signal dexcitation xpnq connu ou mesuré ;
2. le signal de sortie du processus yp pnq inatteignable ;
3. le signal de sortie mesuré y pnq entâché d’un bruit epnq inconnu ;
4. le signal modélisé yw pnq à l’aide des paramètres wk ;
5. le signal d’écart εpnq entre le modèle yw pnq et la mesure y pnq .
Figure 5.3 – Filtrage de Wiener.
On admet que le signal mesuré y pnq, causé par l’excitation xpnq, peut être modélisé à l’aide d’un modèle MA
(Moving Average = moyenne glissante) d’ordre p représentant un processus stationnaire inconnu :
yp pnq p¸1
wk xpn k q
k 0
Le but poursuivi est de trouver les coefficients wk du modèle MA à partir de la mesure des signaux d’entrée
xpnq et de sortie y pnq.
La recherche d’une solution consiste à rendre yw pnq aussi proche que possible du signal yp pnq en minimisant
l’erreur quadratique moyenne (Mean Square Error = MSE) par ajustage des coefficients wk . Il est important de
bien comprendre que
si la solution exacte est trouvée, le signal d’écart εpnq n’est pas nul, mais égal au bruit de la
mesure epnq.
Afin d’alléger l’écriture de ce qui suit, on se contentera de traiter le cas particulier où le processus est décrit par
3 paramètres (l’extension à une dimension plus grande se fait sans difficulté)
w0
W w1
w2
(5.14)
51
CHAPITRE 5. FILTRAGE DE WIENER
Dans ce cas, l’estimateur yw pnq du signal yp pnq vaut :
yw pnq w0 xpnq
5.2.2
w1 xpn 1q
w2 xpn 2q
0¤n¤N
1
(5.15)
Résolution au sens des moindres carrés
Le problème ainsi posé est proche de celui de la régression linéaire que l’on a étudié pour les systèmes statiques
(ou sans mémoire). Dans le cas des systèmes dynamiques, les signaux évoluent temporellement. L’erreur est alors
une fonction du temps que l’on cherche à réduire en minimisant sa valeur quadratique moyenne ; cela se fait en
variant les coefficients inconnus wk . On pose donc :
εpnq y pnq yw pnq
J
N1
N¸1
pypnq yw pnqq2
(5.16)
(5.17)
n 0
Tenant compte de l’équation (33), il vient
J pw0 , w1 , w2 q N 1
1 ¸
pypnq w0 xpnq w1 xpn 1q w2 xpn 2qq2
N n0
(5.18)
Le calcul des dérivées partielles de J pw0 , w1 , w2 q par rapport à chacun des coefficients inconnus wk donne
BJ 2 N¸1pypnq w xpnq w xpn 1q w xpn 2qqpxpnqq
0
1
2
Bw0 N n0
N2
N¸1
pxpnqypnq w0 xpnqxpnq w1 xpnqxpn 1q w2 xpnqxpn 2qq
n 0
BJ 2 N¸1pypnq w xpnq w xpn 1q w xpn 2qqpxpn 1qq
0
1
2
Bw1 N n0
N2
N¸1
pxpn 1qypnq w0 xpn 1qxpnq w1 xpn 1qxpn 1q w2 xpn 1qxpn 2qq
n 0
BJ 2 N¸1pypnq w xpnq w xpn 1q w xpn 2qqpxpn 2qq
0
1
2
Bw2 N n0
N2
N¸1
pxpn 2qypnq w0 xpn 2qxpnq w1 xpn 2qxpn 1q w2 xpn 2qxpn 2qq
n 0
Tenant compte de la définition de la fonction de corrélation
rxy pk q N 1
1 ¸
xpnqy pn
N n0
kq N 1
1 ¸
xpn k qy pnq ryx pk q
N n 0
on voit que ces trois dérivées s’écrivent plus simplement sous la forme
BJ
Bw0 2prxy p0q w0 rxx p0q w1 rxx p1q w2 rxx p2qq
BJ
Bw1 2prxy p 1q w0 rxx p 1q w1 rxx p0q w2 rxx p1qq
BJ
Bw 2prxy p 2q w0 rxx p 2q w1 rxx p 1q w2 rxx p0qq
2
(5.19)
52
CHAPITRE 5. FILTRAGE DE WIENER
Comme l’erreur quadratique obtenue est minimum lorsque ces dérivées s’annullent, on obtient finalement un
ensemble de 3 équations à 3 inconnues
w0 rxx p0q
w0 rxx p 1q
w1 rxx p1q
w2 rxx p2q rxy p0q
w1 rxx p0q
w0 rxx p 2q
w1 rxx p 1q
w2 rxx p1q rxy p 1q
w2 rxx p0q rxy p 2q
que l’on écrit sous la forme matricielle suivante
rxx p0q
rxx p 1q
rxx p 2q
rxx p1q
rxx p0q
rxx p 1q
rxx p2q
rxx p1q
rxx p0q
w0
w1
w2
rxy p0q
rxy p1q
rxy p2q
(5.20)
Cette matrice d’autocorrélation est obligatoirement symétrique car la fonction d’autocorrélation est paire.
En représentant la matrice d’autocorrélation par le symbole Rxx , le vecteur des paramètres par W et le vecteur
d’intercorrélation par rxy , ce résultat s’écrit plus succinctement sous la forme :
Rxx W rxy
(5.21)
1
W R
xx rxy
(5.22)
dont la solution est
Cette équation porte le nom d’équation normale ou de Wiener–Hopf.
5.2.3
Description matricielle
Les calculs que l’on vient d’exposer peuvent être présentés dans une écriture plus concise fréquemment utilisée.
Définissant tout d’abord les vecteurs colonnes suivants :
W
w0
w1
..
.
Xpnq wp1
xpnq
xpn 1q
..
.
xp n p
(5.23)
1q
on obtient :
– le signal estimé yw pnq
yw p n q p¸1
wi xpn iq WT Xpnq XpnqT W
(5.24)
i 0
– l’erreur d’estimation εpnq
εpnq y pnq yw pnq y pnq XpnqT W
– l’erreur quadratique ε pnq
(5.25)
2
ε2 pnq py pnq XpnqT Wq2
ε pnq y pnq 2y pnqXpnq W
2
2
T
W XpnqXpnq W
T
T
(5.26)
(5.27)
– l’erreur quadratique moyenne J pW q fonction des paramètres W
J pW q E tε2 pnqu E tpy pnq XpnqT Wq2 u
E ty2 pnqu 2E tpypnqXpnqT Wqu
E tWT XpnqXpnqT Wu
d’où
J pWq ryy p0q 2rTxy W
WT Rxx W
(5.28)
53
CHAPITRE 5. FILTRAGE DE WIENER
– le gradient de J pW q par rapport au vecteur W des coefficients wk
dJ
dW
2rxy
2Rxx W
(5.29)
– le vecteur des paramètres optimaux qui annule le gradient
1
W R
xx rxy
5.2.4
(5.30)
Applications du filtrage de Wiener
Les applications du filtrage de Wiener diffèrent par la manière dont est extraite la réponse désirée. Dans ce
contexte, on peut distinguer quatre classes fondamentales utilisant le filtrage de Wiener :
1. l’identification de processus ; dans ce cas, on souhaite trouver la réponse impulsionnelle wpnq représentant au
mieux le processus inconnu ;
2. la modélisation inverse avec laquelle on tente de reconstruire un signal ;
3. la prédiction linéaire qui, sur la base des échantillons précédents, permet d’estimer une valeur à venir ;
4. la suppression d’un signal perturbateur.
Dans ce qui suit, compte tenu du cadre dans lequel est présentée cette note, on se contentera d’illustrer comment
on peut supprimer une perturbation grâce au filtrage adaptatif.
5.3
Suppression d’une perturbation
Comme illustration du filtrage de Wiener, imaginons la mesure de l’activité cardiaque d’un fœtus l’aide d’un
électrocardiogramme (ECG) pris au niveau de l’abdomen de la mère et qui, naturellement, est perturbé par l’ECG
de celle–ci.
Cette mesure nécessite l’utilisation de 2 capteurs. Avec le premier, on mesure le signal de référence xpnq
représentant, si possible, uniquement l’ECG de la mère. Avec le deuxième, on mesure le signal y pnq qui est l’ECG
du fœtus perturbé par l’activité cardiaque de la mère.
Les signaux du schéma de Wiener (figure 4) sont alors les suivants :
1. xpnq l’ECG maternel mesuré près du coeur,
2. y pnq l’ECG fœtal perturbé par celui de la mère,
3. yp pnq l’ECG maternel près du fœtus,
4. yw pnq l’estimation de l’ECG maternel près du fœtus,
5. epnq l’ECG fœtal,
6. εpnq l’estimation de l’ECG fœtal.
Figure 5.4 – Suppression de la perturbation yp pnq.
54
CHAPITRE 5. FILTRAGE DE WIENER
On notera que dans ce problème, les rôles sont inversés par rapport à la définition initiale du filtre de Wiener.
En effet, le signal epnq considéré plus haut comme une perturbation du signal recherché yp pnq, est, dans notre cas,
le signal ECG que l’on souhaite mesurer et le signal yp pnq est la perturbation que l’on souhaite rejeter. C’est en
recherchant yw pnq yp pnq que l’on obtient une bonne estimation εpnq de lECG fœtal epnq.
Dans cette simulation et dans un but didactique, on a choisi un modèle MA constitué de deux coefficients
seulement W rw0 , w1 sT . Le système à résoudre s’écrit alors :
rxx p0q
rxx p1q
rxx p1q
rxx p0q
w0
w1
rxy p0q
rxy p1q
(5.31)
La recherche des coefficients W peut se faire de deux manières :
1. Dans le cas où l’on considère que le processus générateur de la perturbation est stationnaire, on commence
par enregistrer la totalité des signaux xpnq et ypnq. Puis, on calcule le vecteur des coefficients W après avoir calculé
Rxx et rxy pour l’ensemble des points acquis.
2. Si les signaux ne sont pas stationnaires (ce qui est le cas lorsque le processus change au cours du temps), il
1
faut, après chaque échantillonnage, calculer les coefficients W R
xx rxy .
5.3.1
Filtrage de Wiener classique
La figure 5 présente les résultats que l’on obtient avec un filtrage de Wiener classique dans lequel l’ensemble des
points acquis est analysé en une seule fois. Dans cette approche, on fait l’hypothèse que le processus générateur de
la perturbation est stationnaire. Sur la figure 5, on a tracé dans l’ordre :
– le signal xpnq correspondant à l’ECG maternel,
– le signal y pnq correspondant à l’ECG fœtal perturbé,
– l’estimation εpnq de l’ECG fœtal et sa valeur exacte epnq en pointillé.
On peut relever à quel point le résultat obtenu est proche du signal original. Un exemple de codage pour 2
paramètres est donné à la figure 5.
Figure 5.5 – Suppression d’une perturbation par filtrage de Wiener.
5.3.2
Remarque
D’un point de vue pratique, le filtre de Wiener tel qu’il a été présenté ci–dessus souffre de quelques limitations :
– il nécessite le calcul de la matrice d’autocorrélation Rxx et du vecteur d’intercorrélation rxy , tous deux coûteux
en temps de calcul ;
– il faut inverser la matrice Rxx , ce qui peut demander beaucoup de calcul et d’espace mémoire ;
– si les signaux ne sont pas stationnaires (ce qui est fréquent), Rxx et rxy évoluent au cours du temps ; il faut
donc à chaque instant résoudre l’équation de Wiener–Hopf.
CHAPITRE 5. FILTRAGE DE WIENER
55
Pour des applications en temps réel, il faut donc trouver un moyen rapide, efficace et robuste pour calculer
1
récursivement la solution W R
xx rxy . C’est ce que fait le filtrage adaptatif.
Exemple de codage d’un filtre de Wiener
les signaux mesures sont stockés dans les vecteurs xt et xt
initialisation des calculs
rxx0 = 0 ; rxx1 = 0 ;
rxy0 = 0 ; rxy1 = 0 ;
boucle de calculs
kmax = length(xt)-1 ;
for n = 1 :kmax
lecture des signaux
xn = xt(n) ;
yn = yt(n) ;
xn1 = xt(n+1) ;
yn1 = yt(n+1) ;
corrélation
rxx0 = rxx0 + xn*xn ;
rxx1 = rxx1 + xn*xn1 ;
rxy0 = rxy0 + xn*yn ;
rxy1 = rxy1 + xn*yn1 ;
end ;
solution de Wiener-Hopf
Rxx = [rxx0 rxx1 ;
rxx1 rxx0]
rxy = [rxy0 ; rxy1]
w = inv(Rxx) * rxy
calcul du signal recherche
xn1 = 0 ;
for n = 0 :kmax-1
xn = xt(n+1) ;
yn = yt(n+1) ;
ew(n+1) = yn - [xn, xn1]*w ;
xn1 = xn ;
end
Chapitre
6
Filtrage adaptatif
6.1
Pourquoi du filtrage adaptatif ?
Les méthodes adaptatives en traitement du signal visent l’adaptation automatique des opérateurs de traitement
aux propriétés statistiques des signaux et des systèmes, ainsi que l’adaptation à leurs variations dans le temps. Il
s’agit donc d’un mélange bien pondéré entre la stationnarité, qui permet grâce à la permanence dans le temps de
propriétés statistiques de se débarrasser, ou tout au moins de réduire, les fluctuations purement aléatoires, et la
non–stationnarité, c’est–à–dire la variation ƒlente‚au cours du temps de ces propriétés, sans laquelle il n’y aurait
pas besoin de l’adaptatif : il suffirait de calculer une fois pour toute le ƒfiltre optimal‚puis de le mettre en ligne.
Ces méthodes ont connu un essor considérable depuis les années 60, dû au développement du traitement
numérique et à l’augmentation constante de la puissance des processeurs de traitement (DSP, Digital Signal Processors), permettant la mise en œuvre en temps réel d’algorithmes de plus en plus sophistiqués, à des cadences de
plus en plus rapides. Elles sont arrivées à une certaine maturité aussi bien en ce qui concerne le développement et
l’implémentation des algorithmes, que du point de vue des outils théoriques d’étude des performances. Ce chapitre
se propose d’en donner une vue synthétique, non exhaustive mais suffisante, pour permettre au lecteur d’y trouver
rapidement les outils et résultats qui l’intéressent, et éventuellement les références vers des ouvrages permettant
d’approfondir des aspects spécifiques.
6.1.1
Quelques exemples : soustraction de bruit, égalisation et identification.
Ce paragraphe présente succinctment trois exemples classiques d’application du filtrage adaptatif : la soustraction
de bruit, l’égalisation et l’identification directe. Ces exemples ne constituent qu’une infime fraction des applications
classiques du filtrage adaptatif parmi lesquelles figurent notamment l’annulation d’écho, certains codages de compression, la formation de voies ainsi que de nombreuses techniques de traitement d’antenne. Le lecteur intéressé par
des présentations détaillées d’applications du filtrage adaptatif peut se référer, entre autres, aux articles fondateurs
[Widrow60, 67, 75] et [Bellanger 85].
6.1.1.1
Soustraction de bruit.
Le schéma typique d’un dispositif de soustraction de bruit est celui de la figure (6.1). Un signal observé se
compose d’un signal utile, non observé que l’on souhaite estimer, pollué de manière additive par un bruit supposé
indépendant du signal utile. Lorsque ce bruit sur l’observation est obtenu par filtrage linéaire d’une source de bruit
auprès de laquelle il est possible de placer un capteur, il devient envisageable d’estimer le bruit pour ensuite le
soustraire du signal observé.
6.1.1.2
Egalisation.
Le problème est celui de la figure (6.2) : l’observation est une version perturbée par un bruit blanc additif b, de
variance σb2 , de la sortie d’un filtre H pz q –le canal de transmission –attaqué par un bruit blanc normé (les données
transmises). Le but est d’estimer les données à partir des observations. Si l’on choisit de minimiser la puissance
de l’erreur entre les données transmises et la sortie du filtre égaliseur, la meilleure solution linéaire est le filtre de
Wiener dont la fonction de transfert en z s’écrit :
W pz q H p1{z q
H pz qH p1{z q
56
σb2
(6.1)
57
CHAPITRE 6. FILTRAGE ADAPTATIF
Figure 6.1 – Soustraction de bruit.
En l’absence de bruit pσb2 q, W pz q se réduit au filtre inverse 1{H. En présence de bruit, de fortes valeurs du gain
1{H peuvent conduire à trop amplifier le bruit, la solution de Wiener régularise le filtre inverse grâce la prise en
compte de la constante pσb2 q : elle est semblable au filtre inverse aux fréquences pour lesquelles le rapport signal à
bruit est fort mais amplifie moins les zones de faible rapport signal à bruit.
Figure 6.2 – l’égalisation est une ƒidentification inverse‚.
6.1.1.3
Identification.
Ayant accès à l’entrée et à la sortie d’un filtre linéaire dont la sortie est bruitée, un problème d’identification
directe consiste à estimer le filtre linéaire inconnu. Ce problème correspond au schéma de la figure (6.3). Lorsque le
système inconnu est susceptible de varier au fils du temps, le processus d’indentification peut être effectué à l’aide
d’un traitement adaptatif.
Voyons sur cet exemple pourquoi la solution du problème se formalise en termes d’optimisation d’un critère de
coût, ici l’erreur quadratique moyenne pEQM q minimale. Notons un le signal d’entrée, vn rH pz qsun la sortie
du système à identifier H pz q, bn le bruit additif de sortie, xn vn bn la sortie bruitée (signal de référence), et
enfin yn rH pz qsun la sortie du système estimé H pz q. On compare les deux systèmes grâce à l’erreur d’estimation
en xn yn bn pH H qun . La puissance moyenne, ou variance pour des signaux centrés, de cette erreur est
nommée EQM de l’identification, et se calcule facilement ici compte–tenu de l’indépendance des signaux aléatoires
un et bn :
EQM pH q E pe2n q σb2
varpH H qun
¥ σb2 .
(6.2)
L’identification du systme H coı̈ncide ici avec la minimisation de l’EQM .
6.2
Filtrage adaptatif
Un filtre adaptatif est un système numérique dont les coefficients se modifient eux mêmes en fonction des
signaux extérieurs. Il est utilisé chaque fois qu’un environnement est mal connu ou changeant ou pour supprimer
des perturbations situées dans le domaine de fréquences du signal utile, ce que les filtres classiques ne peuvent pas
faire.
CHAPITRE 6. FILTRAGE ADAPTATIF
58
Figure 6.3 – l’Identification directe.
Figure 6.4 – Modèle pour le filtrage linéaire optimal.
Figure 6.5 – Modèle pour l’égalisation linéaire.
Un filtre adaptatif est constitué de deux parties distinctes :
un filtre numérique à coefficients ajustables ;
un algorithme de modification des coefficients basé sur un critère d’optimisation.
6.2.1
Algorithme récursif des moindres carrés (RLMS)
Nous savons que pour trouver les paramètres optimaux, il faut descendre le long d’une paraboloı̈de afin d’atteindre le minimum de l’erreur quadratique moyenne. Mathématiquement, cette descente se fait dans le sens opposé
à celui du gradient. Voir equation 5.29.
59
CHAPITRE 6. FILTRAGE ADAPTATIF
BJ 2r
xy
BW
2Rxx W
(6.3)
et on atteint le point optimum lorsque le gradient s’annule. La valeur des paramètres est alors donnée par la
solution
1
W R
xx rxy
(6.4)
De manière heuristique, on imagine bien que cette solution peut être atteinte récursivement en corrigeant les
valeurs des coefficients wk en chaque instant n dans le sens opposé à l’évolution de l’erreur quadratique par rapport
au vecteur des coefficients W pnq (figure 6.6) :
Wpnq Wpn 1q γ
2
B ε2 p nq
BW
où γ est un facteur de pondération du gradient.
Figure 6.6 – Dérivée de l’erreur quadratique en l’instant n par rapport au coefficient wk pnq.
Comme l’erreur quadratique à l’instant n vaut :
ε pnq 2
y pnq p¸1
wi xpn iq
2
ypnq XpnqT W
2
(6.5)
i 0
il vient :
Bε2 pnq 2εpnq Bεpnq 2εpnqXpnq
BW
BW
(6.6)
On en déduit que la recherche de l’optimum peut se faire avec l’algorithme récursif suivant :
Wpnq Wpn 1q
γεpnqXpnq
(6.7)
que l’on désigne sous le nom d’algorithme RLM S (Recursive Least Mean Square).
Les grandeurs dont on a besoin sont :
le vecteur des p coefficients à l’instant n 1 :
Wpn 1q rw0 pn 1q, w1 pn 1q, ..., wp1 pn 1qsT
les
(6.8)
p dernières valeurs du signal d’entrée :
Xpnq rxpnq, xpn 1q, ..., xpn p
1qsT
(6.9)
60
CHAPITRE 6. FILTRAGE ADAPTATIF
valeur du signal de sortie y pnq à l’instant n ;
gain d’adaptation γ de l’algorithme récursif (généralement très inférieur à 1).
La valeur du gain d’adaptation γ est difficile à fixer : si on la choisit trop faible, la convergence vers la valeur
optimum est très lente ; si on la choisit trop forte, la convergence se fait en oscillant onguement autour de la valeur
optimum ; enfin, si le gain d’adaptation est trop élevé, le processus d’optimisation diverge.
Les avantages de cet algorithme résident dans la simplicité à le déduire, à le programmer, et au peu de calculs
à effectuer. Par contre, ses inconvénients sont la lente convergence des paramètres et le risque d’oscillations ou
de divergence si le gain d’adaptation est trop grand. Ces inconvénients, associés au fait que les signaux sont
généralement non stationnaires, ont nécessité la recherche d’une adaptation automatique du gain.
la
le
6.2.2
Gain d’adaptation normalisé
Pour la plupart des situations pratiques, on choisit un gain initial γ0 0.1 qui, après normalisation par le
nombre de paramètres et par la variance du signal d’entrée, donne un gain d’adaptation qui évolue en fonction de
la puissance du signal d’entrée :
γ
γ0
p.σ
2
(6.10)
x
De manière à éviter que le gain n’augmente indéfiniment lorsque la puissance du signal de référence tend vers
zéro, on peut corriger le dénominateur du gain en y ajoutant un terme constant a ! 1 :
γ
a
γ0
p.σx2
(6.11)
L’algorithme s’écrit alors :
Wpnq Wpn 1q
a
γ0
εpnqXpnq
p.σx2
(6.12)
Comme cet algorithme utilise un gain normalisé par la puissance σx2 du signal xpnq, il porte le nom d’algorithme
N LM S ( Normalised Least Mean Square).
Chapitre
7
Filtrage de Kalman
Le long de ce chapitre on discutera la technique appelée filtrage de Kalman. Le filtrage de Kalman est une
technique pour estimer l’état d’un système dynamique à partir d’une incomplète séquence ou à partir des mesures
bruitées. Les mesures ne nécessitent pas d’être eux mêmes les variables d’état, mais doivent être reliées aux variables
d’état à travers une relation fonctionnelle linéarisable. C’est une solution d’un problème linéaire quadratique Gaussien, qui est le problème de l’estimation instantanée de l’état d’un système linéaire et dynamique qui est perturbé
par un bruit blanc Gaussien-en utilisant les mesures des observables qui sont linéairement reliées à l’état, mais
corrompues (perturbées) par le bruit blanc. Il est optimal dans le sens de la moyenne quadratique. Il est l’une
des grandes innovations dans la théorie de l’estimation statistique et est largement utilisé dans une grande variété
d’applications.
Rudolf Emil Kalman est né à Budapest en 1930, et a émigré avec sa famille aux US en 1943. Il a étudié à MIT et
compléta un Ph.D. à Columbia en 1957. Il étudia les travaux de Wiener sur le filtrage et introduis l’idée d’appliquer
dans l’espace des états en mettant en équation l’opérateur prévision avec une projection dans un espace des états de
dimension fini, et le filtre de Kalman est élaboré. Le filtre de Wiener est utilisé en électronique analogique, mais le
filtre de Kalman est idéalement fait pour manipuler les données numériques. Le filtre de Kalman a été utilisé comme
une partie du système de guidage du projet Apollo. Une large partie des systèmes de guidage et des processus de
contrôle incluent des filtres de Kalman et plusieurs extensions existent de nos jours.
Dans la prédiction numérique météorologique, la relation fonctionnelle pour connecter les observables et le vecteur
état est le modèle de prédiction numérique du temps (beau, pluvieux, ...) (numerical weather prediction NWP),
augmenté à d’autres modèles qui peuvent relier les observables aux variables d’état. Le filtrage de Kalman permet
à l’analyse initiale d’être réalisée d’une façon optimale à partir d’observations prises à des instants (moments)
aléatoires (le modèle est utilisé pour effectuer une interpolation temporelle optimale qui inclut les dynamiques
atmosphériques et physiques comme le montre le modèle NWP), et en des endroits aléatoires (l’interpolation spatiale
est faite grâce à des modèles d’équations), et à partir divers ensembles d’observations (sondes pluviométriques, bouée,
balise flottante, satellites...). Récemment, les modèles NWP ont commencé à incorporer les mesures de rayonnement
par les satellites, plutôt que les variables extraites de la température et l’humidité.
7.1
Introduction
Le célèbre filtre de Kalman enraciné dans la formulation de l’espace d’état ou dans les systèmes
linéaires dynamiques, procure une solution récursive du problème du filtrage linéaire optimal. Il
s’applique aux environnements stationnaires ou non. La solution est récursive dans le sens que
chaque mise à jour de l’estimation d’état est calculée à partir de l’estimation précédente et de la
nouvelle donnée d’entrée, donc seulement la précédente estimation nécessite d’être mémorisée. En
plus, afin d’éliminer la mémorisation complète des données observées précédentes, le filtre de Kalman
est plus efficace d’un point de vue calculatoire que le calcul direct de l’estimation à partir de toutes
les données observées précédemment pour chaque pas temporel du processus du filtrage.
Considérons un système linéaire, discrétisé dans le temps et dynamique du diagramme en bloc
comme le montre la figure 7.1. Le concept d’état est fondamental pour cette description. Le vecteur
d’état ou simplement état, dénoté par xk , est défini comme étant l’ensemble minimal de données
suffisantes pour décrire d’une manière unique le comportement dynamique non forcé du système ;
l’indice k dénote le temps discret. En d’autres termes, l’état est la plus petite quantité de données du
comportement passé du système dont on a besoin pour prédire son comportement futur. Typique61
62
CHAPITRE 7. FILTRAGE DE KALMAN
ment, l’état xk est inconnu. Pour l’estimer, on utilise un ensemble de données observées pobservationsq,
dénoté par le vecteur yk .
En termes mathématiques, le diagramme en bloc de la figure.1 englobe la paire d’équations suivantes :
7.1.1
Équation du processus
xk
1
Fk
1,k xk
wk
où Fk 1,k est la matrice de transition amenant l’état xk de l’instant k à l’instant k 1. Le processus de bruit
wk est supposé additif, blanc et Guaussien, avec une moyenne nulle et une matrice de covariance définie par :
E rwn wkT s "
Qk ,
0,
nk
nk
(7.1)
où T désigne la transposition matricielle. La dimension de l’espace d’état est dénotée par M .
7.1.2
Équation de mesure
yk
Hk xk
vk
(7.2)
où yk est l’observable à l’instant k et Hk est la matrice des mesures. Le bruit de mesure vk est assumée être
additif, blanc et Guaussien avec une moyenne nulle et une matrice de covariance définie par :
E rvn vkT s "
Rk , n k
0, n k
(7.3)
En plus, le bruit de la mesure vk est non corrélé avec le bruit du processus wk . La dimension de l’espace des
mesures est dénotée par N .
Figure 7.1 – Structure canonique représentant un système linéaire, discret dans le temps et dynamique.
Le problème du filtrage de Kalman, à savoir le problème qui consiste à résoudre conjointement les équations
du processus et celles des mesures pour un état inconnu et d’une manière optimale, peut être maintenant formulé
ainsi :
Utilisation de toutes les données observées, composées des vecteurs y1 , y2 ,..., yk , afin de trouver pour chaque
k ¥ 1 l’erreur quadratique moyenne minimale de l’estimation de l’état xk .
Le problème est appelé filtrage pf iltering q si i k, prédiction ppredictionq si i ¡ k et lissage psmoothing q si
1 ¤ i ¤ k.
7.2
Estimations optimales
Avant de procéder à l’élaboration du filtre de Kalman, il est utile de réviser certains concepts de base de
l’estimation optimale. Pour se simplifier les choses, ce rappel est présenté dans le contexte des variables aléatoires
63
CHAPITRE 7. FILTRAGE DE KALMAN
scalaires et la généralisation de la théorie des variables aléatoires vectorielles. Supposons que l’observable suivante
soit donnée :
yk
xk
(7.4)
vk
où xk est un signal inconnu et vk une composante du bruit additif. Supposons que xk dénote l’estimation à priori
du signal xk , étant donnée les observations y1 , y2 ,..., yk . En général, l’estimé x
pk est différente du signal inconnu
xk . Pour trouver cette estimé d’une manière optimale, on a besoin d’une fonction coût pperteq pour les estimés
incorrectes. La fonction coût doit satisfaire deux conditions :
La fonction coût est non négative.
La fonction coût est une fonction non décroissante de l’erreur d’estimation de xk définie par :
x̃k
xk xpk
(7.5)
Ces deux conditions sont satisfaites par l’erreur quadratique moyenne définie par :
Jk
E rpxk xpk q2 s
Jk
E rpx̃k q2 s
(7.6)
où E est l’opérateur espérance pexpectation operatorq. La dépendance de la fonction coût Jk en fonction du
temps met l’accent sur la nature non stationnaire du processus d’estimation récursif.
Pour trouver la valeur optimale de l’estimé x
pk , on doit invoquer deux théorèmes de la théorie des processus
stochastiques.
Références des deux théorèmes :
R.E Kalman, “A new approach to linear filtering and prediction problems”, Transactions of the ASME, Ser.
D., Journal of Basic Engineering, 82, 34–45 (1960).
H.L. Van Trees, “Detection, Estimation, and Modulation Theory, Part I”. New York., Wiley 1968.
Théorème 1 : Estimateur conditionnel de la moyenne.
pk qui
Si les processus aléatoires xk et yk sont conjointement Guaussiens, donc, l’estimé optimale x
minimise l’erreur quadratique moyenne Jk est l’estimateur conditionnel moyen :
x
pk
E rxk | y1 , y2 , ..., yk s
(7.7)
Théorème 2 : Principe d’orthogonalité.
Supposons que les processus aléatoires xk et yk de moyennes nulles, donc :
E rxk s E ryk s 0
@k
(7.8)
il en découle que :
(i) les processus aléatoires xk et yk sont conjointement Guaussiens ; ou
(ii) si l’estimé optimale est restreinte d’être une fonction linéaire des observables avec comme
fonction coût l’erreur quadratique moyenne,
pk connaissant les observables y1 , y2 , ..., yk est la projection ortho(iii) donc, l’optimum de l’estimé x
gonale de xk sur l’espace engendré par ces observables.
7.3
Notations adoptées
Si on dispose de toutes les mesures jusqu’à l’instant k (y compris k), disponibles pour l’estimation de xk , on
pk
peut alors établir une estimé à posteriori notée x
x
pk
E rxk | y1 , y2 , ..., yk s estimé à posteriori
64
CHAPITRE 7. FILTRAGE DE KALMAN
Si on dispose de toutes les mesures avant l’instant k (k non compris), disponibles pour l’estimation de xk , on
p
peut donc établir une estimé à priori notée x
k
x
p
k
E rxk | y1 , y2 , ..., yk1 s estimé à priori
p
pk sont deux estimations de la même quantité xk . Cependant, x
p
Il est important de noter que x
k et x
k est une
estimé de xk avant que la mesure yk ne soit prise en compte, et x
pk est une estimé de xk après que la mesure yk soit
prise en compte. Naturellement, x
pk est meilleure que x
p
pk .
k car on utilise plus d’information pour calculer x
Si on dispose de mesures après l’instant k, disponibles pour l’estimation de xk , on peut donc établir une estimé
du lissage
x
pk|k
N
E rxk | y1 , y2 , ..., yk , ..., yk N s estimé du lissage
Si on veut trouver la meilleure prédiction de xk au delà d’un pas temporel des mesures disponibles, on peut
établir une estimé de prédiction
x
pk|kM
E rxk | y1 , y2 , ..., ykM s estimé de prédiction
Les relations entre l’à posteriori, à priori, lissage et prédiction de l’estimation d’état sont représentés dans les
figures.2 et 3.
Figure 7.2 – à posteriori, à priori, lissage et prédiction.
Figure 7.3 – Lissage, filtrage et prédiction.
p0 pour l’estimation de l’état initial en absence de toute mesure disponible.
Dans la notation suivante, on utilise x
La première mesure est réalisée à l’instant k 1. Puisqu’on ne dispose d’aucune mesure pour estimer x0 , il est
raisonnable de considérer x
p0 comme étant la valeur de l’espérance de l’état initial x0 :
p0
x
E p x0 q
65
CHAPITRE 7. FILTRAGE DE KALMAN
On utilise le terme Pk pour dénoter la covariance de l’erreur d’estimation. Pk dénote la covariance de l’erreur
p
pk :
d’estimation de x
k , et Pk dénote la covariance de l’erreur d’estimation de x
Pk
Pk
E rpxk xpk qpxk xpk qT s
E rpxk xpk qpxk xpk qT s
Figure 7.4 – Estimations d’états et erreurs de covariance.
Ces relations sont représentées dans la figure.7.4. La figure montre qu’après le traitement des mesures à l’instant
pk1 ) et de la covariance de cette estimé dénotée Pk1 . Juste à
k 1, on dispose d’une estimé de xk1 (dénotée x
l’instant k et avant le traitement des mesures à cet instant, on calcule l’estimation de xk dénotée x
p
k et sa covariance
dénotée Pk . puis on traite les mesures à l’instant k pour améliorer notre estimation de xk . Le résultat obtenu est
dénoté x
pk , et sa covariance par Pk .
7.4
Filtre de Kalman
Supposons qu’une mesure dans un système linéaire et dynamique, décrite par les équations (1) et (3), réalisée
à l’instant k. Il est exigé d’utiliser l’information contenue dans la nouvelle mesure yk pour mettre à jour l’estimé
p
de l’état inconnu xk . Supposons que x
k dénote l’estimé à priori de l’état, qui est toujours disponible
à l’instant k. Avec un estimateur linéaire comme objectif, on peut exprimer l’estimé à posteriori x
pk comme une
combinaison linéaire de l’estimé à priori et de la nouvelle mesure, comme le décrit l’équation :
pk
x
Gpk1q xpk
(7.9)
Gk yk
p1q
où les matrices Gk et Gk qui doivent être déterminées. Le vecteur erreur d’état est défini par :
x̃k
xk xpk
(7.10)
En appliquant le principe d’orthogonalité à la situation en main, on peut donc écrire :
E rx̃k yiT s 0
pour
i 1, 2, ..., k 1
(7.11)
En substituant les équations (3), (10) et (11) dans (12), on obtient :
p1q
T
p
E rpxk Gk x
k Gk Hk xk Gk vk qyi s 0
pour
i 1, 2, ..., k
(7.12)
Puisque le bruit wk du processus et le bruit vk de mesure sont non corrélés, il s’ensuit que :
E rvk yiT s 0
p1q
(7.13)
p1q
En utilisant cette relation et en y ajoutant Gk xk Gk xk , l’équation (13) est réécrite sous la forme :
p1q qx yT
k i
E rpI Gk Hk Gk
p1q px
Gk
k
xpk qyiT s 0
(7.14)
où I est la matrice identité. À partir du principe d’orthogonalité, on remarque que :
T
p
E rpxk x
k qyi s 0
(7.15)
66
CHAPITRE 7. FILTRAGE DE KALMAN
En conséquence, l’équation (15) se simplifie :
pI Gk Hk Gpk1q qE rxk yiT s 0
pour
i 1, 2, ..., k 1
(7.16)
pour des valeurs arbitraires de l’état xk et l’observable yi , l’équation (17) ne peut être satisfaite que lorsque les
p1q
facteurs de pondération Gk et Gk soient ainsi reliés :
p1q 0
I Gk Hk Gk
(7.17)
p1q
ou, d’une façon équivalente, Gk est définie en termes de Gk :
p1q I G H
k k
(7.18)
Gk
En substituant l’équation (19) en (10), on peut exprimer l’estimé à posteriori de l’état à l’instant k ainsi :
pk
x
xpk
p
Gk pyk Hk x
kq
(7.19)
La matrice Gk est appelée gain de Kalman.
Maintenant, reste le problème de trouver une formulation explicite de Gk . À partir du principe d’orthogonalité,
on a :
pk qyiT s 0
E rpxk x
(7.20)
p k qy
piT s 0
E rpxk x
(7.21)
il en découle que
pkT est une estimé de yk étant donné les mesures précédentes y1 , y2 , ..., yk1 .
où y
Définissons le processus d’innovation
ỹk
yk ypk
(7.22)
le processus d’innovation représente une mesure de la nouvelle information contenue dans yk ; ce qui peut aussi
s’exprimer sous la forme :
yk Hk xpk
Hk xk vk Hk xpk
vk Hk x̃k
ỹk
(7.23)
Donc, en soustrayant Eq.(22) de (21) et en utilisant la définition de l’Eq.(23), on peut écrire :
pk qỹkT s 0
E rpxk x
(7.24)
pk ainsi :
En utilisant Eq.(3) et Eq(20), on peut exprimer le vecteur erreur d’état xk x
pk
xk x
x̃k Gk pHk x̃k vk q
pI Gk Hk qx̃k Gk vk
(7.25)
en substituant Eq.(24) et (26) dans (25), on obtient :
E rtpI Gk Hk qx̃
k Gk vk upHk x̃k
vk qs 0
(7.26)
Puisque la mesure de bruit vk est indépendante de l’état xk et par conséquent l’erreur de prédiction x̃
k de
l’Eq.(27) est réduite à :
pI Gk Hk qE rx̃k x̃k T sHTk Gk E rvk vkT s 0
(7.27)
67
CHAPITRE 7. FILTRAGE DE KALMAN
Définissons la matrice de covariance à priori
P
k
E rpxk xpk qpxk xpk qT s
E rx̃k x̃k T s
(7.28)
en invoquant les définitions de la covariance des Eq.(4) et (29), on peut écrire Eq.(28) ainsi :
pI Gk Hk qPk HTk Gk Rk 0
(7.29)
en résolvant cette équation pour Gk , on obtient la formule désirée :
Gk
Pk HTk rHk Pk HTk
Rk s1
(7.30)
Eq.(31) est la relation désirée pour calculer le gain de Kalman Gk , qui est défini en termes de la matrice
de covariance à priori P
k . Pour terminer la procédure d’estimation récursive, on considère la propagation de la
covariance d’erreur, qui décrit les effets du temps sur les matrices de covariance des erreurs d’estimation. Cette
propagation nécessite deux étapes de calcul :
1. La matrice de covariance à priori P
k à l’instant k définie par Eq.(29). Connaissant Pk , calculer la matrice
de covariance à posteriori Pk , qui à l’instant k est définie par :
Pk
E rx̃k x̃Tk s
E rpxk xpk qpxk xpk qT s
(7.31)
2. Connaissant l’ancienne matrice de covariance à posteriori, Pk1 , calculer la mise à jour de la matrice de
covariance à priori P
k.
Pour réaliser l’étape.1, on substitue l’Eq.(26) dans (32) et en notant que le processus de bruit vk est indépendant
de l’erreur d’estimation à priori x̃
k . On aboutie par la suite à :
Pk
pI Gk Hk qE rx̃k x̃k T spI Gk Hk qT Gk E rvk vkT sGTk
pI Gk Hk qPk pI Gk Hk qT Gk Rk GTk
(7.32)
En développant les termes de l’Eq.(33) et en utilisant (31), on peut reformuler la dépendance de la matrice de
covariance à posteriori Pk en fonction de la matrice de covariance à priori P
k d’une façon simple :
Pk
pI Gk Hk qPk pI Gk Hk qPk HTk GTk
pI Gk Hk qPk Gk Rk GTk Gk Rk GTk
pI Gk Hk qPk
Pk
Gk Rk GTk
(7.33)
pI Gk Hk qPk
Concernant la deuxième étape de propagatin de la covariance d’erreur, on commence par reconnaitre que l’estimé
à priori d’état est définie en termes des anciennes estimé à posteriori de la manière suivante :
p
x
k
Fk,k1 xpk1
(7.34)
On peut ainsi utiliser l’Eq.(1) et (35) pour exprimer l’erreur d’estimation à priori sous une autre forme :
x̃
k
xk xpk
pFk,k1 xk1 wk1 q Fk,k1 xpk1
Fk,k1 pxk1 xpk1 q wk1
Fk,k1 x̃k1 wk1
(7.35)
68
CHAPITRE 7. FILTRAGE DE KALMAN
p k 1
En conséquence, en utilisant l’Eq.(36) et (29) et en notant que le processus de bruit wk est indépendant de x
P
k
Fk,k1 E rx̃k1 x̃Tk1 sFTk,k1
Fk,k1 Pk1 FTk,k1 Qk1
P
k
Fk,k1 Pk1 FTk,k1
E rwk1 wkT1 s
(7.36)
Q k 1
Ce qui définie la dépendance de la matrice de covariance à priori P
k en fonction de l’ancienne matrice de
covariance à posteriori Pk1 .
Avec les équations Eqs.(35), (37), (31), (20) et (34), on peut maintenant résumer l’estimation récursive de l’état
comme le montre la figure.2. Cette figure inclut aussi l’initialisation. En l’absence de toute donné à l’instant k 0,
on peut choisir l’estimé initiale d’état ainsi :
p0
x
E rx0 s
(7.37)
et la valeur initiale de la matrice de covariance à posteriori ainsi :
P0
E rpx0 E rx0 sqpx0 E rx0 sqT s
(7.38)
Ce choix des conditions initiales n’est pas seulement intuitivement satisfaisant mais possede aussi l’avantage de
produire une estimé non biaisée de l’état xk .
Le filtre de Kalman utilise une densité de probabilité Guaussienne durant le processus de propagation, la diffusion
est purement linéaire et la fonction densité évolue comme une impulsion Guaussienne qui se translate, s’étale et se
renforce de demeurer Guaussienne tout au long du processus.
La composante aléatoire du modèle dynamique wk entraine la hausse de l’incertitude, quand la composante
déterministe Fk 1,k xk entraine la dérive en bloc de la fonction densité. L’effet d’une observation extérieure y est
de superposer un effet réactif sur la diffusion dans laquelle la densité tend à pointer au voisinage des observations.
La figure.3 montre la propagation de la forme de la fonction densité en utilisant le filtre de Kalman.
69
CHAPITRE 7. FILTRAGE DE KALMAN
+
+
+
+
+
+
Figure 7.5 – Résume du filtre de Kalman.
70
CHAPITRE 7. FILTRAGE DE KALMAN
p(x)
Deterministic
drift
x
p(x)
Stochastic
diffusion
x
p(x)
Reactive
effect of
measurement
x
p(x)
y
x
Figure 7.6 – Le filtre de Kalman en tant que propagation de densité.
Téléchargement