La Quantification des Signaux - Faculté Polytechnique de Mons

publicité
Chapitre 2
La Quantification des Signaux
Notes de Cours.
B. Gosselin
2.1
Introduction
La représentation numérique d’un signal implique la quantification de chaque échantillon selon
un nombre fini de valeurs discrètes. L’objectif visé est, soit une transmission, soit un traitement
déterminé (filtrage, analyse spectrale,…) :
•
Dans le premier cas, chaque échantillon du signal est quantifié, codé, puis transmis; à la
réception, il est décodé, puis converti en amplitude continue : après interpolation, on souhaite
retrouver l’image la plus fidèle possible du signal original. La statistique du signal doit donc être
préservée : elle va influencer d’une façon essentielle la procédure de quantification.
•
Dans le second cas, la loi de quantification est imposée par le système de traitement ; une
contrainte importante pour un système de traitement numérique consiste à commettre des erreurs
de calcul qui soient négligeables vis-à-vis de l’incertitude sur le signal lui-même ; cet objectif doit
être atteint malgré le caractère non - stationnaire de certains signaux, tel le signal vocal par
exemple.
L’erreur qui résulte de la quantification d’un signal déterministe est aussi déterministe ; ses
propriétés peuvent donc, en principe, être établies par une approche déterministe. En réalité, les
signaux tels que, par exemple, le signal vocal, doivent être considérés comme étant aléatoires : la
suite des erreurs de quantification est par conséquent aussi aléatoire, et l’on parle alors de bruit de
quantification. Il est très important d’en connaître les propriétés statistiques, tout au moins celles
des premier et second ordre, c’est-à-dire :
La Quantification des Signaux
2
•
la densité de probabilité p e (e ) ;
•
la moyenne µ e ;
•
la variance σ 2e ;
•
la fonction d’autocovariance φ ee (k ) ;
•
la covariance mutuelle avec le signal φ ex (k ) ;
•
le rapport signal à bruit RSB.
Considérons un signal x (t ) à temps continu et à bande limitée [− B,+ B ] . Lorsqu’on
l’échantillonne à une fréquence supérieure ou égale à la fréquence de Nyquist f e = 2 B , on obtient,
sans perte d’information, un signal à temps discret x (n ) . On interprétera ce signal comme un
processus aléatoire à temps discret X (n ) . On suppose que ce processus aléatoire possède les
bonnes propriétés habituelles de stationnarité et d’ergodicité. A la sortie du quantificateur, ce
processus devient un processus aléatoire à valeurs discrètes, c’est à dire que Y = Q( X ) prend ses
valeurs dans un ensemble fini de L éléments.
Une loi de quantification sans mémoire, ou instantanée, est définie par :
•
(L+1) niveaux de décision : x 0 , x1, ⋯ x L ;
•
L valeurs quantifiées : y1 , y 2 , ⋯ y L .
A toute amplitude X comprise dans l’intervalle [xi −1 , xi ] , on fait correspondre une valeur quantifiée
yi située dans cet intervalle :
Y = yi
si
X ∈ [ xi−1 , x i ]
pour i = 1,2,⋯ , L
(2.1)
Les amplitudes extrêmes du signal sont en principe x 0 = −∞ et x L = +∞ ; en fait, le domaine de
variation de x est borné et supposé symétrique par rapport à l’origine. On a donc x 0 = − x max et
x L = + xmax .
La valeur quantifiée de sortie peut également être représentée au moyen d’un mot,
généralement au format binaire, choisi parmi les L que contient un dictionnaire. Ainsi, par exemple,
lorsque le nombre de valeurs quantifiées est une puissance de 2, soit L = 2 b , chaque valeur
quantifiée peut être représentée par un mot de b bits, en codant les indices de référence de ces
valeurs.
La loi de quantification Q( x ) peut affecter deux formes :
•
L est pair et x = 0 est un niveau de décision (midrise characteristic) ;
•
L est impair et y = 0 est une valeur de sortie (midthread characteristic) ;
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
3
Ces caractéristiques sont représentées à la figure 2.1, qui illustre également l’erreur de quantification
e = Q( x ) − x . La seconde caractéristique, qui assure une valeur quantifiée insensible aux petites
fluctuations éventuelles autour de l’origine, est en général préférée.
La différence entre deux niveaux de quantification successifs est appelée pas de
quantification :
∆i = xi − xi−1
(2.2)
Le pas de quantification est en général fonction de l’amplitude du signal (quantification non
uniforme). Le cas le plus simple est celui de la quantification uniforme.
x(1)
y
y
y(8)
y(9)
y(7)
y(8)
y(6)
x(2) x(3)
x
x(1)
y(7)
x(2) x(3)
x
x(4) x(5) x(6)
y(3)
x(5) x(6) x(7)
y(3)
y(2)
y(2)
y(1)
y(1)
e=y-x
e=y-x
x
x
Figure 2.1 - Exemples de lois de quantification.
La statistique du bruit de quantification e(n ) est relativement aisée à déterminer lorsque le
signal est aléatoire et de grande amplitude, c’est-à-dire lorsqu’à la fois son écart-type et la différence
entre deux échantillons successifs sont grands vis-à-vis du pas de quantification. Les propriétés qui
correspondent à la quantification d’un bruit blanc continu gaussien de variance finie lorsque le pas de
quantification tend vers zéro sont appelées propriétés asymptotiques. Ces dernières ne sont
toutefois pas valables pour les signaux aléatoires dont l’amplitude est de l’ordre de grandeur du pas
de quantification, et une analyse mathématique précise de la quantification est dans ce cas
indispensable.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
2.2
4
Quantification Uniforme
Une loi uniforme et symétrique (figure 2.2) est caractérisée par :
•
Les niveaux de saturation ± x s ;
•
Le nombre de niveaux quantifiés L ; on choisi normalement L (ou L+1) = 2 b .
Le pas de quantification ∆ vaut alors :
∆=
2 xs
,
L
(2.3)
et la valeur quantifiée yi est choisie au milieu de l’intervalle i : y i =
x i−1 + xi
2
(2.4)
y
y(9)
y(8)
y(7)
y(6)
x
-xs x(1) x(2) x(3) x(4)
x(5) x(6) x(7) x(8) xs
y(4)
y(3)
y(2)
y(1)
e=y-x
∆ /2
x
-∆ /2
Figure 2.2 - Loi de Quantification Uniforme.
•
Pour x ≤ x s =
L ⋅∆
∆
∆
, l’erreur de quantification est comprise entre − et + :
2
2
2
− xs ≤ x ≤ xs ⇒ e ≤
∆
2
(2.5)
On parle dans ce cas d’erreur (ou de bruit) de granulation.
•
Lorsque x > xs , Il y a dépassement ; on parle alors d’erreur (ou de bruit) de saturation ou de
dépassement.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
5
Erreur de granulation
Soit un signal x, dont la densité de probabilité p x ( x ) est Gaussienne, d’écart-type σ x (figure
2.3). L’aire hachurée définit la probabilité pour que les amplitudes de x contribuent à la valeur
quantifiée y k , soit :
yk −
∆
∆
≤ x < yk +
2
2
(2.6)
px
yk
x
D
Figure 2.3 - Quantification d’un signal Gaussien.
La densité de probabilité p e (e ) de l’erreur de granulation peut être obtenue par la superposition de
∆
∆
telles aires ramenées entre − et + :
2
2
p e (e ) = ∑ px ( y k + e ) ⋅ rect ∆ / 2 (e )
où la fonction rect ∆ / 2 (e) est définie par :
(2.7)
k
rect α (τ) = 1, − α ≤ τ < α
= 0, ailleurs
(2.8)
σx
tend vers l’infini, la loi (2.7) tende vers une
∆
∆
∆ σx
répartition de moyenne nulle, et uniforme entre −
et +
(
> 3 ou 4 est considéré comme
2
2 ∆
suffisant en pratique). Si la probabilité de dépassement est négligeable, on a donc :
On conçoit aisément que lorsque le rapport
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
6
∆
2
∆
e>
2
1
 ∆
p e (e ) = 
0

e≤
(2.9)
On en déduit que la moyenne du bruit de granulation est nulle, et que sa variance (“ mean
squared error ”) vaut :
∆
2
∞
e2
∆2
de
=
∫∆ ∆
12
σ 2e = ∫ e 2 p e (e )de =
−∞
−
(2.10)
2
x
4∆
3∆
2∆
∆
t
0
-∆
-2 ∆
-3 ∆
y=e-x
∆ /2
t
-∆ /2
Figure 2.4 - Quantification avant échantillonnage.
σx
supérieur à 3 ou 4, considérons la figure 2.4. Il
∆
est clair que les opérations d’échantillonnage et de quantification peuvent être permutées ; or cette
figure met en évidence le fait que l’erreur de granulation continue présente un spectre beaucoup plus
étendu que celui du signal. Le signal e (n ) obtenu par l’échantillonnage de e (t ) sera donc sujet au
phénomène de recouvrement des spectres ; à la limite, il apparaîtra comme un bruit blanc. En
d’autres termes, pourvu qu’entre deux instants d’échantillonnage successifs, le signal x (t ) traverse
1
1
un nombre suffisant de niveaux de décision (Téch . =
>>
), on peut admettre que les
Féch.
2 Fmax (e )
Toujours dans l’hypothèse d’un rapport
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
7
erreurs successives e (n ) ne sont pratiquement pas corrélées ; de même, la corrélation mutuelle
erreur - signal est négligeable.
En résumé, pour un signal aléatoire Gaussien dont l’écart-type est supérieur à quelques pas de
quantification, on peut considérer deux points importants :
•
L’erreur de quantification est un bruit blanc de répartition uniforme, de moyenne nulle et dont la
∆2
variance est égale à
:
12
1

p e (e ) =  ∆
0

∆
2
∆
e>
2
e≤
µe = 0
(2.11)
 ∆2

φ ee (k ) =  12
0

•
k=0
k ≠0
La corrélation entre l’erreur de granulation et le signal est négligeable :
φ ex (k ) = 0
∀k
(2.12)
Ces propriétés restent qualitativement valables pour la quantification d’un signal présentant une
distribution Gamma, ou de Laplace (table 2.1). La distribution Gamma est très proche de la loi de
répartition expérimentale d’un signal de parole. La distribution de Laplace, quant à elle, en est
relativement proche, tout en présentant une expression plus simple à utiliser.
Distorsions dues aux dépassements de capacité
Si la valeur à représenter excède le domaine de représentation admissible, il en résulte des
distorsions. Un dépassement doit donc en principe être évité, mais cela n’est pas possible avec
rigueur pour un signal tel que Gaussien, par exemple. De manière générale, la probabilité de
dépassement vaut, pour un signal symétrique :
∞
p D = 2 ∫ p x ( x )dx
(2.13)
xs
On définit le facteur de charge du quantificateur par :
Γ=
xs
σx
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
(2.14)
La Quantification des Signaux
8
Lois de répartition
Expression analytique ( µ x = 0)
Uniforme
1 / 2.rect a (e ); σ 2x = a 2 / 3
1
Gaussienne
2π . σ x
.e − x
1
−
.e
2 .σ x
Laplace
Gamma
3
8πσ x x
.e
2
2
/( 2σ x )
2 . x /σx
− 3 x /( 2σ x )
Table 2.1 - Lois de répartition usuelles (signaux à moyenne nulle).
La table 2.2 reprend l’évolution de la probabilité de dépassement en fonction du facteur de charge,
pour un signal Gaussien.
Γ
PD
2
0,0455
3
0,0027
4
0,0000634
Table 2.2 - Probabilités de dépassement pour un signal Gaussien.
Lorsque cette probabilité de dépassement n’est pas négligeable, les expressions précédentes
doivent être corrigées. La densité de probabilité du bruit de granulation devient :
1 − pD

p e (e ) =  ∆
0

et la variance :
σ 2e =
∆
2
∆
e>
2
e≤
∆2
(1 − pD )
12
(2.15)
(2.16)
Quant à la variance du bruit de dépassement, elle vaut :
∞
σ 2D = 2 ∫ ( x − x s ) p x ( x )dx
2
xs
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
(2.17)
La Quantification des Signaux
9
et la variance totale du bruit de quantification est égale à σ 2e + σ2D . Il est clair que l’erreur de
dépassement est fortement corrélée avec le signal.
Rapport Signal à Bruit (RSB)
En l’absence de dépassement, le rapport signal à bruit (RSB) est calculé comme suit :
∆2 xs2 −2b
σ =
=
2
12 3
(2.18)
 3σ2

RSB (dB ) = 10 log 2x 2 2b  ≈ 6,02b + 4,77 − 20 log Γ
 xs

(2.19)
2
e
Le RSB vaut donc :
Cette loi est représentée à la figure 2.5.
RSB=10log(sx 2/se2) (dB)
100
86
80
65.8
60
b=16
14
40
12
42
10
8
20
0
-100
-80
-60
-40
-20
0
-20logG
(dB)
Figure 2.5 - RSB pour la quantification uniforme d’un signal Gaussien.
En cas de dépassement, le RSB est dégradé, et devient :
 σ2x
RSB = 10 log 2
2
 σe + σD



(2.20)
Cette dégradation du RSB dépend essentiellement de la loi de répartition du signal x (cfr. 2.13,
2.16, 2.17).
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
10
Exemples :
•
Dans le cas d’un signal aléatoire à répartition uniforme, le dépassement se manifeste pour
σx
1
a2
=
(une répartition uniforme entre -a et +a implique une variance σ 2x =
), soit pour
3
xs
3
− 20 log Γ = −4,77 dB .
•
Pour un signal sinusoïdal, il y a dépassement à partir de
•
Pour un signal à répartition Gaussienne, le dépassement se manifeste progressivement.
σx
1
=
( − 20 log Γ = −3,01dB ).
xs
2
Ces propriétés sont illustrées à la figure 2.6.
RSB=10log(sx 2/se2) (dB)
Loi de répartition :
100
1: Laplace
2: Gauss
3: Uniforme
4: Sinusoïdale
80
4
3
98.1
96.3
86.0
77.4
60
2
b=16
1
40
20
0
-100
-80
-60
-40
-20
-20logG
0
Figure 2.6 - Dégradation du RSB due à la saturation.
2.3
Quantification Non Uniforme
La figure 2.6 a mis en évidence l’existence d’un maximum du RSB pour un nombre donné de
bits et pour une loi de répartition donnée. Ce maximum est atteint pour une certaine valeur du facteur
de charge ; il est lié à la loi de répartition et à la loi de quantification. Il est légitime de penser qu’une
adaptation de la loi de quantification à la densité de probabilité du signal est susceptible de conduire
à un meilleur RSB. En effet, l’importance de l’erreur de granulation sera réduite pour les amplitudes
du signal les plus probables.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
11
On supposera le signal borné − x max ≤ x ≤ + x max , ce qui correspond à la situation concrète
usuelle. Pour un nombre L de niveaux de quantification, la variance du bruit de granulation peut
s’écrire :
∞
L
σ 2e = ∫ e 2 p e (e)de = ∑
xi
∫ (x − y )
2
i
p x ( x )dx
(2.21)
i =1 xi −1
−∞
Cette variance peut être minimisée par un choix adéquat des niveaux de décision x i et des
niveaux quantifiés yi . Un ensemble de conditions nécessaires est fourni par :
 ∂σ2e
 ∂x = 0
 i
 2
 ∂σ e = 0
 ∂yi
i = 1,2,⋯ , L − 1
(2.22)
i = 1,2,⋯ , L
On peut montrer que ces conditions deviennent suffisantes si ln p x ( x ) est concave, c’est-à-dire si
∂ 2 (ln p x ( x ))
< 0 ∀x . On peut également montrer que cette condition est vérifiée pour les
∂x 2
distributions de Gauss et de Laplace.
La résolution de (2.22) en tenant compte de (2.21) conduit à :
x *i =
y i + y i+1
2
i = 1,2,⋯ , L − 1
(2.23)
Le niveau de décision optimum est donc situé à égale distance des valeurs quantifiées qui
l’entoure.
D’autre part, lorsque les x i sont fixés, on déduit de (2.22) et (2.21) :
xi
∫ x ⋅ p ( x )dx
x
y =
*
i
xi −1
xi
∫ p (x )dx
i = 1,2,⋯, L
(2.24)
x
x i− 1
La valeur quantifiée optimum coïncide donc avec la valeur moyenne du signal dans l’intervalle
*
associé: y i = E{x x i−1 < x ≤ x i }.
On peut par conséquent concevoir une procédure itérative qui, à partir de la loi uniforme (par
exemple), converge vers la loi optimum par application successive et alternée de (2.23) et (2.24).
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
12
2.4
Quantification Logarithmique
2.4.1
Principe
Une loi de quantification non uniforme peut être conçue comme le résultat d’une compression
des amplitudes du signal, suivie par une quantification uniforme. Vient ensuite une expansion qui
agit en sens opposé à celui de la compression (figure 2.7).
x
u
Quantification
uniforme
û
y
Figure 2.7 - Quantification avec compression et expansion.
Le signal x possède par hypothèse une densité de probabilité symétrique et bornée par − xmax
et + x max . Après avoir subi une compression définie par la fonction u = F ( x ) , telle que
2x
u max = x max , il est quantifié uniformément sur L niveaux, avec un pas ∆ = max (figure 2.8). Les
L
seuils de décision x i et les pas de quantification ∆i sont ainsi définis.
Aux valeurs quantifiées ui correspondent les niveaux quantifiés de sortie yi après expansion
par la fonction y = F −1 (u ) .
Lorsque L >> 1 , on peut linéariser la fonction F dans l’intervalle [xi −1 , xi ] , et il vient :
F ′( yi ) ⋅ ∆i ≈ F (x i ) − F ( x i−1 ) = ∆ =
2 x max
L
(2.25)
En prenant la convention de désigner F ′( x ) par g ( x ) , on obtient :
∆i =
∆
2 x max
=
g ( yi ) Lg ( y i )
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
(2.26)
La Quantification des Signaux
13
u=F(x)
umax
ui
D
ûi
u i-1
x
x i-1
yi
x max
xi
Di
Figure 2.8 - Exemple de Loi de Compression.
D’autre part, si le nombre L de niveaux de quantification est élevé, p x ( x ) peut être considéré
comme constante dans l’intervalle [xi −1 , xi ] , et l’on a :
p x ( x ) ≈ Pi pour x ∈ [xi−1 , x i ]
xi
L
σ = ∑ Pi
i =1
∫ ( x − y ) dx
2
2
e
Dès lors, l’expression (2.21) peut s’écrire :
(2.27)
i
(2.28)
xi −1
D’autre part, pour un intervalle i donné, on a :
u = uˆi + g ( y i )( x − yi )
(2.29)
Il vient alors :
σ
u
L
(
u − uˆi )2
1
(
u − uˆ i )2 ∆ i
= ∑ Pi ∫
⋅
du = ∑ Pi ∫ 2
⋅ du
g 2 ( y i ) g ( yi )
g ( yi ) ∆
i =1
i =1
u
u
L
2
e
ui
i
i −1
(2.30)
i− 1
L
u
i
P
1
σ = ∑ 2 i ∆i ∫ (u − uˆ i )2 ⋅ du
∆
i =1 g ( yi )
u i− 1
2
e
(2.31)
Les intégrales qui interviennent dans (2.31) sont relatives à une quantification uniforme, et valent
∆2
chacune
. On obtient ainsi :
12
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
14
∆2
σ =
12
2
e
L
Pi
∑ g (y )∆
2
i =1
(2.32)
i
i
Par passage à la limite, on obtient finalement :
2
∆2 max p x ( x )
2 x max
dx
=
12 − x∫max g 2 (x )
3L2
x
σ 2e =
xmax
∫
0
p x (x)
dx
g 2 (x)
(2.33)
Cette dernière expression doit être minimisée sous la contrainte :
xmax
∫ g ( x )dx = F ( x ) = x
max
(2.34)
max
0
On en déduit la loi de compression optimale :
x
Fopt (x ) = x max
∫
3
0
xmax
∫
3
p x (x )dx
(2.35)
p x ( x )dx
0
Les niveaux de décision x i et les valeurs quantifiées yi sont donnés respectivement par :
 xi = F −1 (ui )


−1
 y i = F (uˆ i )

uˆi =
(2.36)
ui−1 + ui
2
Quant à la variance de l’erreur de granulation, on obtient après calcul :
3
3
σ 2e, min
Exemple :
x
x


2  max3
1  max3
= 2  ∫ p x ( x )dx  =  ∫ p x ( x )dx  ⋅ 2 −2b
3L  0

 12 − x max
(2.37)
Soit une source Gaussienne de variance σ 2x , la variance de l’erreur de
granulation vaut alors :
σ 2e =
3 2 − 2b
πσx ⋅ 2
2
(2.38)
L’expression (2.37), valable lorsque le nombre de niveaux quantifiés est élevé, ne concerne
que l’erreur de granulation. En pratique, la valeur de x max peut cependant être choisie pour que le
bruit de dépassement soit négligeable.
Ce qui paraît plus génant, c’est que l’expression (2.37) résulte d’une adaptation à la densité
de probabilité du signal, c’est-à-dire aussi à sa variance. Un objectif fréquent en pratique consiste à
assurer un RSB indépendant de la variance du signal dans une gamme d’amplitudes aussi large que
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
15
possible (pour rappel, le signal de parole est non- stationnaire). La solution consiste en principe à
choisir la loi de compression de la forme :
g(x) =
α
x
(2.39)
La variance (2.33) devient alors :
2
σ
2
e, min
2x 
=  max  ⋅
3  αL 
xmax
∫x
2
p x ( x )dx
0
(2.40)
2
1 x 
≈  max  σ 2x
3  αL 
de sorte que le RSB est indépendant de la variance du signal :
  αL
RSB (dB ) = 10 log 3
  x max




2




(2.41)
La loi de compression (2.39) est cependant inutilisable telle quelle car elle implique une densité
de niveaux quantifiés qui tend vers l’infini lorsque l’amplitude du signal tend vers zéro. Il faut donc
raccorder les deux branches de cette loi ( x < 0 et x > 0 ) par une droite qui passe par l’origine : ce
sont les deux solutions classiques adoptées pour la transmission téléphonique.
2.4.2
La Loi A
La loi A, en usage en Europe, est représentée à la figure 2.9. Elle est définie par :
 A⋅ x
⋅ sgn ( x )

1
+
ln
A


(
)
F x =
 A⋅ x
1 + ln 

 xmax
x ⋅
max

1 + ln A
0≤



 ⋅ sgn ( x )
x
x max
≤
1
A
(2.42)
x
1
≤
≤1
A x max
Pour des signaux de grande amplitude, le RSB est donné par (2.41), avec α =
  L 2 

RSB (dB ) = 10 log  3
  1 + ln A  


Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
x max
, soit :
1 + ln A
(2.43)
La Quantification des Signaux
16
RSB (dB ) = 6,02b + 4,77 − 20 log(1 + ln A)
Pour L = 2 b , il vient :
Signal codé
(2.44)
Sortie Normalisée
127
112
0.875
96
0.750
80
0.625
64
0.500
A=87.56
48
0.375
32
0.250
16
0.125
0
1/8
1/4
1/2
1
1/128 1/64 1/32 1/16
Niveau relatif du signal d’entrée
Figure 2.9 - La Loi de Compression A.
A
1 + ln A
Pour des petits signaux, on a :
g (x) =
soit, d’après (2.33) :
1  x   1 + ln A 
σ 2e =  max  ⋅ 

3 L   A 
2
et donc, il vient :
et pour L = 2 b :
(2.45)
2
  L ⋅ A 2  σ
RSB (db) = 10 log 3
 ⋅  x
  1 + ln A   x max
(2.46)



2



 A 
RSB (dB ) = 6,02 + 4,77 + 20 log 
 − 20 log Γ
 1 + ln A 
(2.47)
(2.48)
Or, pour une quantification uniforme sur L niveaux avec dépassement négligeable, le RSB est
donné par (2.19). La loi A assure donc pour les petits signaux un RSB supérieur de
 A 
20 log 
.
 1 + ln A 
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
17
A
= 16 , soit A=87,56. De plus, on a
1 + ln A
choisi L=256 (b=8). La représentation des petits signaux correspond alors à une quantification
uniforme sur 212 = 4096 niveaux !
La loi européenne utilise une valeur de A telle que
Pour les grands signaux, la formule (2.44) donne, pour A=87,56 :
RSB = 6,02b − 9,99 = 38,15 dB
(2.49)
La courbe du RSB en fonction du facteur de charge est représentée à la figure 2.10. Elle est
indépendante de la loi de répartition du signal tant que le bruit de saturation reste négligeable.
RSB=10log( sx 2/se2) (dB)
A = 87.56
80
b=8
Signal gaussien
60
40 38.16
b UNIF =14
12
10
20
8
0
-80
-60
-40
-20
0
-20logG
(dB)
Figure 2.10 - RSB pour la loi de compression A.
2.4.2
La Loi µ
La loi de compression en usage aux USA est la loi µ, définie par :

x
ln  1 + µ
xmax
F ( x ) = xmax ⋅ 
ln (1 + µ )


 ⋅ sgn( x )
Pour µ = 255 , cette loi est très proche de la loi A=87,56.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
(2.50)
La Quantification des Signaux
18
2.5
Codage Entropique
2.5.1
Introduction à la Théorie de l’Information
Soit un quantificateur Y = Q( X ) . La sortie de ce quantificateur prend ses valeurs dans un
ensemble fini de L éléments :
Y = yi
si
X ∈ [ xi−1 , x i ]
pour i = 1,2,⋯ , L
(2.51)
Chaque sortie yi du quantificateur peut être représentée au moyen d’un mot, le plus souvent
au format binaire, choisi parmi les L que contient un dictionnaire. Par exemple, il est ainsi possible de
coder l’indice i lui-même de la valeur quantifiée yi , ce qui conduit à des mots de code de longueur
identique.
La sortie Y du quantificateur peut être vue comme une source d’information à valeurs
discrètes. Cette source est dite sans mémoire si les sorties du quantificateur sont statistiquement
indépendantes. L’évaluation de l’information qu’apporte la réalisation d’un événement Y = y i
repose sur les deux principes suivants :
•
l’information est dépendante de la probabilité de cet événement (un événement rare apporte
plus d’information) ;
•
deux événements indépendants ont une mesure globale d’information égale à la somme des
mesures de chacun d’entre eux ;
Sur ces bases, on définit une mesure de l’information selon :
1
= − log 2 Pi
Pi
I ( p{Y (k ) = y i }& p{Y (l ) = y j }) = − log 2 (Pi ⋅ Pj ) = −[log 2 Pi + log 2 Pj ]
I ( p{Y (k ) = y i }) = log 2
et
(2.52)
(2.53)
La quantité d’information qu’apporte, en moyenne, une réalisation de Y, est donnée par l’entropie
d’ordre zéro de la source, soit :
L
H Q = E{− log 2 Pi } = −∑ Pi log 2 Pi
(2.54)
i =1
où Pi est la probabilité d’occurrence de la sortie yi du quantificateur :
Pi = p{Y = yi } =
xi
∫ p (x )dx
x
x i− 1
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
(2.55)
La Quantification des Signaux
19
Exemple : entropie d’une variable binaire
Soit un événement Y, prenant la valeur 0, avec une probabilité p0, ou la valeur 1, avec une
probabilité p1=1-p0. L’entropie d’une telle source d’information vaut :
H Q = − p0 log 2 p0 − (1 − p0 ) log 2 (1 − p0 )
(2.56)
Cette entropie est maximale pour p1 = p0 = 1/2, et vaut alors 1 bit. Ceci correspond à une
exploitation optimale du bit utilisé pour coder l’événement, puisque chaque bit émis contient un
maximum d’information.
2.5.2
Codage d’une Source Discrète Sans Mémoire
Le codage entropique repose sur une procédure de codage à longueur variable, qui
assigne des mots de longueur variable aux valeurs possibles yi , de façon telle que les valeurs
hautement probables soient associées à des mots courts du code, et vice - versa. Ceci permet donc
en principe de réduire la longueur moyenne des mots du code.
Définitions :
•
Un code instantané est un code tel que chacun des mots du dictionnaire peut être décodé
indépendamment des autres mots, c’est-à-dire dès que le dernier bit du mot considéré est reçu.
•
Un code uniquement décodable signifie que, recevant une séquence de mots du code, la
source peut être reconstituée sans ambiguïté.
L’importance de l’entropie H Q vient du théorème du codage sans bruit d’une source
discrète sans mémoire :
Pour toute source discrète sans mémoire Y, il existe un code instantané et uniquement
décodable représentant exactement cette source, vérifiant :
HQ ≤ b < HQ +1
(2.57)
où b est le débit moyen, c’est-à-dire la longueur moyenne des mots du code.
Ce théorème signifie que, parmi tous les codes instantanés uniquement décodables, celui qui
minimise la longueur moyenne des mots du code a une longueur moyenne égale à l’entropie de la
source. L’entropie H Q apparaît donc comme une limite fondamentale pour représenter sans
distorsion une source d’information.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
20
Le codage entropique est une technique qui permet de réaliser ce taux de transmission idéal.
Si le codage entropique est parfaitement réalisé, le taux de transmission à la sortie du quantificateur à
L niveaux peut être réduit de :
∆b = log 2 L − H Q
(2.58)
∆b représente donc la redondance de la source discrète.
Il est toutefois évident qu’aucune réduction n’est possible si toutes les valeurs yi sont
1
équiprobables. En effet, on a alors Pi = , et donc de (2.54), H Q = log 2 L .
L
Taux de transmission moyen :
Soit un mot du code, de bi bits, associé au niveau yi . bi peut être inférieur, égal, ou
supérieur à log 2 L . La longueur moyenne des mots du code définit également le taux de transmission
moyen, et donc :
L
b = ∑ Pibi bits/échantillon
(2.59)
i =1
La réduction alors obtenue vaut :
log 2 L − b bits/échantillon
(2.60)
Le code optimal est obtenu pour :
bi = − log 2 Pi
(2.61)
Comme bi est entier, le code optimal ne peut être obtenu que si les probabilités satisfont la
contrainte Pi = 2 −bi . Dans tous les autres cas, le taux de transmission moyen b qui résulte du
codage entropique sera légèrement supérieur à H Q .
Il peut toutefois s’avérer utile d’appliquer un codage entropique sur des séquences de valeurs,
plutôt que sur des valeurs uniques, afin de se rapprocher le plus possible de H Q . L’effet du codage
de séquences est de fournir une meilleure approche de la contrainte Pi = 2 −bi .
2.5.3
Codage d’une Source Discrète Avec Mémoire
Lorsqu’il existe une dépendance statistique entre les échantillons successifs de la source, on
peut chercher à l’exploiter afin de réduire encore le nombre de bits nécessaire pour représenter
exactement la source. Toutefois, le codage entropique devient alors assez complexe, car de longues
séquences doivent être traitées, et les probabilités conjointes connues ou estimées par calcul. En
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
21
pratique, il est possible d’éliminer les redondances linéaires du signal en effectuant un filtrage avant la
quantification, afin d’approximer une source sans mémoire. Les sorties du quantificateur sont alors
non corrélées (linéairement), et le taux de transmission minimum est donc toujours théoriquement
donné par l’entropie d’ordre 0, H Q .
La méthode linéaire optimale de décorrélation est l’Analyse en Composantes Principales
(ACP). Cette méthode implique toutefois trop de calculs et s’avère inexploitable en pratique. Deux
solutions sont alors envisageables :
•
Prédiction
Cette méthode consiste à coder la différence entre la valeur réelle de l’échantillon et une valeur
prédite. Par exemple, le codage DPCM consiste à coder la différence de valeur entre deux
échantillons consécutifs : d (t ) = x (t ) − x (t − 1) . La méthode de prédiction est assez efficace pour un
signal de parole, mais s’avère relativement peu adéquate pour un signal d’image.
•
Transformation
Cette méthode alternative, souvent employée pour le signal d’image, consiste à décomposer le
signal en blocs, et à appliquer ensuite une transformée sur chacun d’eux. Une transformée très
exploitée en raison de ses performances proches de celles de l’ACP est la Transformée en Cosinus
Discrète (DCT).
2.5.4
L’Algorithme de Huffman
Afin d’éviter un problème inhérent à l’utilisation d’un code de longueur variable, on pourrait
ajouter des séparateurs entre mots du code dans une séquence. Cela n’est cependant pas nécessaire
lorsque le code vérifie la condition dite du préfixe : aucun mot du code ne doit être le préfixe d’un
autre mot du code.
L’algorithme de Huffman permet d’obtenir un tel code, et on peut montrer qu’il est
l’algorithme optimal. Pour aucun autre code uniquement décodable, la longueur moyenne des mots
du code est inférieure. Cet algorithme consiste à construire progressivement un graphe orienté en
forme d’arbre binaire, où chaque branche partant d’un nœud est associée à un symbole 0 ou 1, en
partant des nœuds terminaux. Un mot du code est associé à chaque nœud terminal en prenant
comme mot de code la succession des symboles binaires sur les branches.
Les phases de cet algorithme sont les suivantes :
•
Soient les deux listes de départ {y1 ⋯ y L } et {P1 ⋯ PL }.
•
Les deux symboles les moins probables sont sélectionnés, et deux branches dans l’arbre
sont créées et étiquetées par les deux symboles binaires 0 et 1.
•
Les deux listes sont réactualisées, en rassemblant les deux symboles utilisés en un nouveau
symbole, et en lui associant comme probabilité la somme des deux probabilités
sélectionnées.
•
Les deux étapes précédentes sont répétées tant qu’il reste plus d’un symbole dans la liste.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
22
Exemple :
Soit une source ne pouvant prendre que six valeurs différentes, avec les probabilités fournies à
la table 2.3 ci-dessous. Un codage direct des indices nécessiterait évidemment 3 bits.
Symbole
y1
y2
y3
y4
y5
y6
Probabilité
0,5
0,15
0,17
0,08
0,06
0,04
Table 2.3 - Probabilités associées aux six événements {Y = yi }.
L’entropie de cette source discrète est égale à 2,06 bits. L’algorithme de Huffman fournit
l’arbre binaire représenté à la figure 2.11. La table de codage résultante est reprise à la table 2.4.
La longueur moyenne des mots est égale à 2,1 bits, valeur très voisine de la limite théorique.
0
y1
0,5
y2
0,15
1
y3
0,17
0
y4
0,08
0
y5
0,06
1
y
0,04
0
0
0,32
1
0,5
1 0,18
1
0,1
6
Figure 2.11 - Illustration de l’algorithme de Huffman.
Symbole
y1
y2
y3
y4
y5
y6
Code
0
100
101
110
1110
1111
Table 2.4 - Définition du Code.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
2.5.5
23
Quantification Scalaire avec Contrainte Entropique
Nous avions recherché, à la section 2.3, le quantificateur scalaire qui permettait de minimiser la
distorsion σ 2e , pour un nombre de niveaux de quantification L = 2 b donné, c’est-à-dire en
respectant une contrainte sur le débit de transmission. Nous allons à présent ré-optimiser le
quantificateur, cette fois en vue de rendre possible un codage entropique efficace à sa sortie. Le
problème de la recherche d’un quantificateur optimum consiste alors à minimiser l’entropie H Q à la
sortie du quantificateur (et donc le taux de transmission moyen b), étant donné une contrainte σ 2e sur
la distorsion tolérée pour le signal.
L’entropie H Q à la sortie du quantificateur s’exprime :
L
H Q = − ∑ Pi log 2 Pi
(2.62)
i =1
Sous l’hypothèse que le nombre L de niveaux de quantification est élevé, la densité de
probabilité p x ( x ) peut être supposée constante dans l’intervalle [xi −1 , xi ] . De (2.54), il vient :
Pi = p x ( yi )( xi − xi−1 ) = p x ( y i )∆ i
(2.63)
Dès lors, l’expression de l’entropie de la sortie du quantificateur peut s’écrire :
L
L
i =1
L
i =1
L
i =1
i =1
H Q = − ∑ p x ( yi )∆ i log 2 p x ( y i ) − ∑ p x ( y i )∆i log 2 ∆ i
H Q = − ∑ px ( yi )∆ i log 2 p x ( yi ) − ∑ p x ( yi )∆ i log 2
L
L
L
i =1
i =1
i =1
∆
g(yi )
H Q = − ∑ p x ( yi )∆ i log 2 p x ( y i ) − ∑ p x ( y i )∆i log 2 ∆ + ∑ px ( yi )∆ i log 2 g ( yi )
(2.64)
(2.65)
(2.66)
Par passage à la limite, on obtient :
∞
∞
H Q = − ∫ p x (x ) log 2 p x ( x )dx − log 2 ∆ ∫ p x (x )dx +
−∞
−∞
∞
∞
−∞
−∞
H Q = − ∫ p x ( x ) log 2 p x ( x )dx − log 2 ∆ +
∞
∫ p (x ) log g ( x )dx
x
2
(2.67)
−∞
∫ p ( x ) log g ( x )dx
x
2
(2.68)
Le premier terme ne dépend que de la source. Il est défini comme étant l’entropie différentielle à
l’entrée du quantificateur :
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
24
∞
h ( X ) = E{− log 2 p x (x )} = − ∫ p x (x ) log 2 p x ( x )dx
(2.69)
−∞
Il vient donc :
H Q = h( X ) − log 2 ∆ +
∞
∫ p ( x )log g ( x )dx
x
2
(2.70)
−∞
Ce résultat fourni l’entropie pour une loi de compression donnée, et caractérisée par g ( x ) .
Nous avons vu que, pour un grand nombre de niveaux de quantification, la variance σ 2e peut
être approximée par :
∆2 max p x ( x )
σ =
dx
12 − x∫max g 2 ( x )
(2.71)
∆2  1 
σ =
E

12  g 2 ( x ) 
(2.72)
x
2
e
soit :
2
e
On montre facilement que, pour une variable aléatoire X, E{X 2 } ≥ [E {X }]2 , avec le signe égalité si
et seulement si X = E{X } avec une probabilité égale à 1, c’est-à-dire si X est une constante. Cela
permet d’écrire :
∆ 2   1 
σ ≥

E 
12   g ( x )
2
2
e
(2.73)
avec égalité si la fonction g ( x ) est une constante sur tout le support de p x ( x ) . En outre, g doit
vérifier les contraintes :
 F (0 ) = 0

 F ( xmax ) = xmax
(2.74)
On en déduit que g = 1.
Cela signifie que le meilleur quantificateur de la source continue X (n ) est tout simplement le
quantificateur uniforme suivi d’un codage entropique (pour autant que le pas de quantification
soit suffisamment petit pour que l’hypothèse de densité de probabilité p x ( x ) constante dans un
intervalle ∆i demeure valable).
L’entropie minimisée vaut alors (cfr. Quantification Uniforme) :
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
25
min H Q = h( X ) − log 2 ∆ = h( X ) −
1
log 2 12 ⋅ σ 2e
2
(2.75)
Le terme log 2 ∆ représente donc la perte d’information due à la quantification, et vaut
l’entropie différentielle du quantificateur. En effet :
H e = E{− log 2 pe (e)} = log 2 ∆ ,
(2.76)
puisque la densité de probabilité p e (e ) est considérée comme uniformément répartie entre
 ∆ ∆
− 2 ,+ 2  .


Exemples :
Dans le cas d’une source gaussienne de variance σ 2x , il est aisé de calculer que l’entropie
différentielle h ( X ) vaut :
1
h ( X ) = log 2 2 πeσ2x
(2.77)
2
On obtient alors, pour un taux de transmission b (c’est-à-dire une entropie H Q ) donné :
πe 2 − 2b
σ 2e =
σx ⋅ 2
6
(2.78)
Dans le cas d’une source Gaussienne, le gain apporté par le quantificateur avec contrainte
entropique, relativement au quantificateur scalaire logarithmique (cfr. (2.38)) est donc de :
3π / 2 3 3
=
≈ 1,91
πe / 6
e
(2.79)
soit 2,81 dB.
Pour un niveau de bruit toléré σ 2e , le gain est de :
∆b =
1
3 3
log 2
≈ 0,467 bits
2
e
(2.80)
Dans le cas d’une distribution Gamma (qui, pour rappel, est très proche de la loi de répartition
expérimentale d’un signal de parole), le gain par rapport au quantificateur logarithmique est de 1,7
bits !
Borne Inférieure de Shannon :
Il a été démontré que, lorsqu’on accepte une distorsion moyenne au plus égale à σ 2e , alors le
plus petit nombre de bits nécessaire pour représenter une source discrète, sans mémoire, de densité
de probabilité p x ( x ) quelconque, est donné par la borne inférieure de Shannon :
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
26
b(σ 2e ) = h ( X ) −
1
log 2 (2πeσ 2e )
2
(2.81)
Si l’on veut une distorsion nulle, le codage doit se faire sans perte. On a b(0) = H Q , l’entropie
de la source. Plus le niveau de bruit toléré σ 2e augmente, plus le nombre de bits nécessaires pour
coder le signal diminue. Si l’on accepte une distorsion supérieure ou égale à la puissance de la
source, alors il n’est même plus nécessaire de chercher à la coder. On a b(σ2e ) = 0 .
La comparaison de (2.81) avec l’expression (2.75) du taux de transmission minimum du
quantificateur scalaire avec contrainte entropique montre un écart de :
1
πe
∆b = log 2
= 0,255
2
6
bits
(2.82)
Cela signifie que le codage entropique des sorties d’un quantificateur uniforme n’est qu’à
0,255 bit au-dessus de la limite inférieure théorique absolue ! Ce résultat est valable quelque soit la
densité de probabilité p x ( x ) du signal.
Pour un débit b fixé, la distorsion obtenue σ 2e est à 1,53 dB au dessus de la limite théorique.
Cette différence par rapport à la borne inférieure de Shannon est le prix à payer pour avoir la
simplicité d’un codage de symboles élémentaires (source sans mémoire).
Problèmes pratiques du Codage à Longueur Variable
La mise en œuvre du quantificateur scalaire avec contrainte entropique s’avère relativement
délicate en pratique. Les mots du code étant de longueur variable, il se pose des problèmes de
propagation d’erreur : une simple erreur de transmission dans un mot du code peut en effet causer
une perte de synchronisation, ce qui rend impossible la reconstruction correcte de longues séquences
de mots. Il est donc nécessaire d’insérer régulièrement des bits de synchronisation. D’autre part, le
débit global obtenu est variable, puisqu’il dépend de l’information locale contenue dans le signal
(exemple : silence/parole). Si cela ne pose guère de problème pour les systèmes acceptant un débit
variable, tel qu’internet, il est indispensable de rendre fixe le débit pour d’autres systèmes qui, eux,
acceptent les symboles à un taux constant, tels que les GSMs ou les chaînes de télévision
numériques, par exemple. A cette fin, les mots de code de longueur variable doivent être mémorisés
dans un tampon. Sous peine de perte d’information, il est évidemment nécessaire d’éviter un
dépassement de la capacité de cette mémoire tampon. En pratique, le quantificateur est alors
contrôlé par la mémoire tampon elle-même, qui, via un système logique, va permettre une adaptation
du pas de quantification, par exemple (cfr. quantification adaptative). Une alternative consiste à
rendre fixe la longueur des mots du code, en considérant des séquences de symboles de longueur
différentes. Ceci est illustré à la table 2.5, pour le codage de trois symboles élémentaires A, B, et C,
où B est le plus probable.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
27
Source
BBB
BBA
BBC
BA
BC
A
C
Code
000
001
010
011
100
101
110
Table 2.5 - Codage de séquences de longueur variable.
Enfin, il reste les problèmes liés à la statistique du signal. D’une part, un code est établi pour
une densité de probabilité donnée, et n’est donc optimal que pour cette dernière. A titre d’exemple,
le codage d’Huffman exploité pour la transmission de fax ou le codage JPEG a été dans les deux cas
calculé sur un ensemble d’images types, et n’est donc pas optimal pour un signal particulier. D’autre
part, la mémorisation du dictionnaire des valeurs au niveau du récepteur, nécessaire pour procéder
au décodage, peut restreindre les possibilités d’une implémentation matérielle. Une solution
commune à ces deux problèmes consiste à transmettre alors une information sur la statistique du
signal, afin de pouvoir reconstruire (recalculer) le code. On parle alors de Codage à Longueur
Variable Adaptatif Calculé : à une suite de N valeurs x(k), on associe :
-
un préfixe, qui détermine la distribution de probabilité ;
-
un suffixe, qui consiste en un codage à longueur variable qui peut être recalculé étant donné
le préfixe ;
Un exemple de tel code est le code ATRL, qui peut être utilisé pour la transmission d’un
signal binaire pour lequel la probabilité p0 d’avoir le symbole élémentaire « 0 » est assez élevée (p0
>> p1 = 1- p0). On applique alors un codage entropique sur des séquences de symboles, de
longueur maximum de 2m symboles, où m est à déterminer en fonction de p0. La règle de codage est
la suivante :
•
Pour une séquence de 2m symboles « 0 » consécutifs, on émet le code « 0 » ;
•
Dans les autres cas (un symbole « 1 » est rencontré), on émet le code « 1 », suivi d’un
nombre de m bits qui représente le nombre de symboles « 0 » consécutifs rencontré avant
ce symbole « 1 ». Un exemple de code est donné à la table 2.6.
Séquence d’entrée
0000
1
01
001
0001
Code émis
0
100
101
110
111
Table 2.6 - Exemple de code ATRL, pour m=2.
On peut montrer qu’un tel code est optimal pour un choix de m tel que : p 0 = (1 / 2 )2 .
−m
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
2.6
28
Quantification Adaptative
Une solution séduisante à priori pour la quantification d’un signal non stationnaire consiste à
utiliser une loi adaptative. En effet, une quantification logarithmique est invariante, et, quoique très
utile pour la quantification de signaux non stationnaires comme la parole avec un nombre de bits
suffisant (typiquement 8), le codage de la parole avec moins de bits par échantillon nécessite une
quantification adaptative.
Il s’agit en général de l’adaptation à la variance à court - terme du signal, d’une loi de
quantification conçue pour une certaine répartition moyenne des amplitudes. Deux types de
réalisations équivalentes sont possibles :
•
Le quantificateur est fixe, il est adapté à un signal de variance unité et il est précédé par un
amplificateur à gain variable (figure 2.12) ;
x
Quantificateur
δ =δ
i
i,opt
y
; σ =1
u
σ ou σ
x
y
Estimation de
2
x
σ
(1)
2
y
(σ )
(2)
(1) adaptation progressive
(2) adaptation rétrograde
Figure 2.12 - Adaptation d’un quantificateur fixe.
•
Les pas de quantification sont rendus proportionnels à la variance du signal (figure 2.13) ;
x
y
Quantificateur
δ = σ. δ
i
opt
Estimation de
(1)
2
σx
2
( σy )
(1) adaptation progressive
(2)
Figure 2.13 - Adaptation du pas de quantification.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
(2) adaptation rétrograde
La Quantification des Signaux
29
L’adaptation est dite progressive (Adaptative Quantization with Forward estimation ou
AQF) lorsque l’estimation de la variance est faite sur le signal original x. Dans ce cas, il faut
transmettre, en plus du signal quantifié, une information sur la variance estimée σˆ 2x . Cette information
est toutefois transmise à une cadence plus faible que celle utilisée pour les échantillons (une fois par
tranche d’échantillons).
On peut aussi songer à une adaptation rétrograde (Adaptative Quantization with
Backward estimation ou AQB) : la variance est alors estimée sur le signal quantifié y. Ceci permet
de ne pas transmettre d’information sur la variance, qui peut en effet être estimée à la réception après
décodage du signal. Comme y est soumis au bruit de quantification, il est clair que cette procédure
est plus grossière que l’adaptation progressive, sauf lorsque le nombre de niveaux quantifiés est
assez élevé.
Le problème essentiel, pour la quantification adaptative, est celui de l’estimation de la variance
σ . L’écart - type peut être estimé sur un bloc de N échantillons par les formules suivantes :
2
x
AQF :
AQB :
σˆ x (n ) =
σˆ x (n ) =
1
N
N −1
1
N
N
∑x
i =0
2
n +i
(2.83)
∑y
i =1
2
n −i
(2.84)
La période d’apprentissage N est choisie en fonction du délai d'encodage toléré, des
contraintes sur le débit global (AQF), et de la stationnarité du signal. Dans le cas de la parole
échantillonnée à 8 kHz, une valeur de N=128 est une bonne estimation.
Les estimateurs (2.83) et (2.84) demandent la mémorisation de N échantillons avant
quantification, ce qui implique un délai. Une autre procédure consiste à affecter les échantillons
passés d’un poids qui décroît avec leur âge. Par exemple, dans le cas d'une AQB, cela donne :
∞
2
i −1
2
σˆ x (n ) = (1 − α)∑ α ⋅ y n−i
0 < α <1
(2.85)
i =1
Le coefficient (1 − α ) est un coefficient de normalisation qui rend la somme des poids égale à
l’unité. L’équation (2.85) peut être écrite sous la forme :
σˆ 2x (n ) = α ⋅ σˆ 2x (n − 1) + (1 − α ) ⋅ y n2−1
(2.86)
Lorsque α est voisin de 1, les poids varient peu pour i élevé (signal stationnaire). Par contre,
lorsque α est proche de 0, l’estimateur suit plus fidèlement l’évolution des quelques échantillons
précédents (signal non stationnaire).
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
30
Le paramètre α détermine la constante de temps d’adaptation (laquelle est, par définition,
1
le temps nécessaire pour que σ̂ x (n ) décroisse d’un facteur
de sa valeur initiale lorsque y
e
devient une séquence de zéros). On calcule aisément que, si Fe désigne la fréquence
d’échantillonnage, la constante de temps du problème vaut :
τ=
2
1
⋅
Fe ln (1 / α)
(2.87)
La figure 2.14 présente l’effet de la valeur de α sur la vitesse d’adaptation, dans le cas d’un
signal de parole échantillonné à 8 kHz. La valeur de 0,9 cause des changements rapides de σˆ 2x qui
suit les maxima locaux du signal avec une constante de temps de 2,2 ms. Cette sorte d’adaptation
est appelée instantanée. La valeur de 0,99 produit des changements lents de σˆ 2x qui ne suit pas les
pics locaux du signal mais seulement l’enveloppe, avec une constante de temps de 25 ms. Cette
sorte d’adaptation est appelée syllabique.
Figure 2.14 - Estimation de la variance d’un signal de parole.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
La Quantification des Signaux
31
Références :
1. Jayant N. S. & Noll P., “ Digital Coding of Waveforms ”, Prentice-Hall Ed., 1984.
2. Leich H., “ Le Codage de la Parole ”, Notes de Cours, Faculté Polytechnique de Mons, 1996.
3. Moreau N., “ Techniques de Compression des Signaux ”, Ed. Masson, 1995.
4. Boite R., Hasler M., Dedieu H., «Effets non linéaires dans les filtres numériques », Presses
polytechniques et universitaires romandes, 1997.
Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin
Téléchargement