Chapitre 2 La Quantification des Signaux Notes de Cours. B. Gosselin 2.1 Introduction La représentation numérique d’un signal implique la quantification de chaque échantillon selon un nombre fini de valeurs discrètes. L’objectif visé est, soit une transmission, soit un traitement déterminé (filtrage, analyse spectrale,…) : • Dans le premier cas, chaque échantillon du signal est quantifié, codé, puis transmis; à la réception, il est décodé, puis converti en amplitude continue : après interpolation, on souhaite retrouver l’image la plus fidèle possible du signal original. La statistique du signal doit donc être préservée : elle va influencer d’une façon essentielle la procédure de quantification. • Dans le second cas, la loi de quantification est imposée par le système de traitement ; une contrainte importante pour un système de traitement numérique consiste à commettre des erreurs de calcul qui soient négligeables vis-à-vis de l’incertitude sur le signal lui-même ; cet objectif doit être atteint malgré le caractère non - stationnaire de certains signaux, tel le signal vocal par exemple. L’erreur qui résulte de la quantification d’un signal déterministe est aussi déterministe ; ses propriétés peuvent donc, en principe, être établies par une approche déterministe. En réalité, les signaux tels que, par exemple, le signal vocal, doivent être considérés comme étant aléatoires : la suite des erreurs de quantification est par conséquent aussi aléatoire, et l’on parle alors de bruit de quantification. Il est très important d’en connaître les propriétés statistiques, tout au moins celles des premier et second ordre, c’est-à-dire : La Quantification des Signaux 2 • la densité de probabilité p e (e ) ; • la moyenne µ e ; • la variance σ 2e ; • la fonction d’autocovariance φ ee (k ) ; • la covariance mutuelle avec le signal φ ex (k ) ; • le rapport signal à bruit RSB. Considérons un signal x (t ) à temps continu et à bande limitée [− B,+ B ] . Lorsqu’on l’échantillonne à une fréquence supérieure ou égale à la fréquence de Nyquist f e = 2 B , on obtient, sans perte d’information, un signal à temps discret x (n ) . On interprétera ce signal comme un processus aléatoire à temps discret X (n ) . On suppose que ce processus aléatoire possède les bonnes propriétés habituelles de stationnarité et d’ergodicité. A la sortie du quantificateur, ce processus devient un processus aléatoire à valeurs discrètes, c’est à dire que Y = Q( X ) prend ses valeurs dans un ensemble fini de L éléments. Une loi de quantification sans mémoire, ou instantanée, est définie par : • (L+1) niveaux de décision : x 0 , x1, ⋯ x L ; • L valeurs quantifiées : y1 , y 2 , ⋯ y L . A toute amplitude X comprise dans l’intervalle [xi −1 , xi ] , on fait correspondre une valeur quantifiée yi située dans cet intervalle : Y = yi si X ∈ [ xi−1 , x i ] pour i = 1,2,⋯ , L (2.1) Les amplitudes extrêmes du signal sont en principe x 0 = −∞ et x L = +∞ ; en fait, le domaine de variation de x est borné et supposé symétrique par rapport à l’origine. On a donc x 0 = − x max et x L = + xmax . La valeur quantifiée de sortie peut également être représentée au moyen d’un mot, généralement au format binaire, choisi parmi les L que contient un dictionnaire. Ainsi, par exemple, lorsque le nombre de valeurs quantifiées est une puissance de 2, soit L = 2 b , chaque valeur quantifiée peut être représentée par un mot de b bits, en codant les indices de référence de ces valeurs. La loi de quantification Q( x ) peut affecter deux formes : • L est pair et x = 0 est un niveau de décision (midrise characteristic) ; • L est impair et y = 0 est une valeur de sortie (midthread characteristic) ; Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 3 Ces caractéristiques sont représentées à la figure 2.1, qui illustre également l’erreur de quantification e = Q( x ) − x . La seconde caractéristique, qui assure une valeur quantifiée insensible aux petites fluctuations éventuelles autour de l’origine, est en général préférée. La différence entre deux niveaux de quantification successifs est appelée pas de quantification : ∆i = xi − xi−1 (2.2) Le pas de quantification est en général fonction de l’amplitude du signal (quantification non uniforme). Le cas le plus simple est celui de la quantification uniforme. x(1) y y y(8) y(9) y(7) y(8) y(6) x(2) x(3) x x(1) y(7) x(2) x(3) x x(4) x(5) x(6) y(3) x(5) x(6) x(7) y(3) y(2) y(2) y(1) y(1) e=y-x e=y-x x x Figure 2.1 - Exemples de lois de quantification. La statistique du bruit de quantification e(n ) est relativement aisée à déterminer lorsque le signal est aléatoire et de grande amplitude, c’est-à-dire lorsqu’à la fois son écart-type et la différence entre deux échantillons successifs sont grands vis-à-vis du pas de quantification. Les propriétés qui correspondent à la quantification d’un bruit blanc continu gaussien de variance finie lorsque le pas de quantification tend vers zéro sont appelées propriétés asymptotiques. Ces dernières ne sont toutefois pas valables pour les signaux aléatoires dont l’amplitude est de l’ordre de grandeur du pas de quantification, et une analyse mathématique précise de la quantification est dans ce cas indispensable. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 2.2 4 Quantification Uniforme Une loi uniforme et symétrique (figure 2.2) est caractérisée par : • Les niveaux de saturation ± x s ; • Le nombre de niveaux quantifiés L ; on choisi normalement L (ou L+1) = 2 b . Le pas de quantification ∆ vaut alors : ∆= 2 xs , L (2.3) et la valeur quantifiée yi est choisie au milieu de l’intervalle i : y i = x i−1 + xi 2 (2.4) y y(9) y(8) y(7) y(6) x -xs x(1) x(2) x(3) x(4) x(5) x(6) x(7) x(8) xs y(4) y(3) y(2) y(1) e=y-x ∆ /2 x -∆ /2 Figure 2.2 - Loi de Quantification Uniforme. • Pour x ≤ x s = L ⋅∆ ∆ ∆ , l’erreur de quantification est comprise entre − et + : 2 2 2 − xs ≤ x ≤ xs ⇒ e ≤ ∆ 2 (2.5) On parle dans ce cas d’erreur (ou de bruit) de granulation. • Lorsque x > xs , Il y a dépassement ; on parle alors d’erreur (ou de bruit) de saturation ou de dépassement. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 5 Erreur de granulation Soit un signal x, dont la densité de probabilité p x ( x ) est Gaussienne, d’écart-type σ x (figure 2.3). L’aire hachurée définit la probabilité pour que les amplitudes de x contribuent à la valeur quantifiée y k , soit : yk − ∆ ∆ ≤ x < yk + 2 2 (2.6) px yk x D Figure 2.3 - Quantification d’un signal Gaussien. La densité de probabilité p e (e ) de l’erreur de granulation peut être obtenue par la superposition de ∆ ∆ telles aires ramenées entre − et + : 2 2 p e (e ) = ∑ px ( y k + e ) ⋅ rect ∆ / 2 (e ) où la fonction rect ∆ / 2 (e) est définie par : (2.7) k rect α (τ) = 1, − α ≤ τ < α = 0, ailleurs (2.8) σx tend vers l’infini, la loi (2.7) tende vers une ∆ ∆ ∆ σx répartition de moyenne nulle, et uniforme entre − et + ( > 3 ou 4 est considéré comme 2 2 ∆ suffisant en pratique). Si la probabilité de dépassement est négligeable, on a donc : On conçoit aisément que lorsque le rapport Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 6 ∆ 2 ∆ e> 2 1 ∆ p e (e ) = 0 e≤ (2.9) On en déduit que la moyenne du bruit de granulation est nulle, et que sa variance (“ mean squared error ”) vaut : ∆ 2 ∞ e2 ∆2 de = ∫∆ ∆ 12 σ 2e = ∫ e 2 p e (e )de = −∞ − (2.10) 2 x 4∆ 3∆ 2∆ ∆ t 0 -∆ -2 ∆ -3 ∆ y=e-x ∆ /2 t -∆ /2 Figure 2.4 - Quantification avant échantillonnage. σx supérieur à 3 ou 4, considérons la figure 2.4. Il ∆ est clair que les opérations d’échantillonnage et de quantification peuvent être permutées ; or cette figure met en évidence le fait que l’erreur de granulation continue présente un spectre beaucoup plus étendu que celui du signal. Le signal e (n ) obtenu par l’échantillonnage de e (t ) sera donc sujet au phénomène de recouvrement des spectres ; à la limite, il apparaîtra comme un bruit blanc. En d’autres termes, pourvu qu’entre deux instants d’échantillonnage successifs, le signal x (t ) traverse 1 1 un nombre suffisant de niveaux de décision (Téch . = >> ), on peut admettre que les Féch. 2 Fmax (e ) Toujours dans l’hypothèse d’un rapport Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 7 erreurs successives e (n ) ne sont pratiquement pas corrélées ; de même, la corrélation mutuelle erreur - signal est négligeable. En résumé, pour un signal aléatoire Gaussien dont l’écart-type est supérieur à quelques pas de quantification, on peut considérer deux points importants : • L’erreur de quantification est un bruit blanc de répartition uniforme, de moyenne nulle et dont la ∆2 variance est égale à : 12 1 p e (e ) = ∆ 0 ∆ 2 ∆ e> 2 e≤ µe = 0 (2.11) ∆2 φ ee (k ) = 12 0 • k=0 k ≠0 La corrélation entre l’erreur de granulation et le signal est négligeable : φ ex (k ) = 0 ∀k (2.12) Ces propriétés restent qualitativement valables pour la quantification d’un signal présentant une distribution Gamma, ou de Laplace (table 2.1). La distribution Gamma est très proche de la loi de répartition expérimentale d’un signal de parole. La distribution de Laplace, quant à elle, en est relativement proche, tout en présentant une expression plus simple à utiliser. Distorsions dues aux dépassements de capacité Si la valeur à représenter excède le domaine de représentation admissible, il en résulte des distorsions. Un dépassement doit donc en principe être évité, mais cela n’est pas possible avec rigueur pour un signal tel que Gaussien, par exemple. De manière générale, la probabilité de dépassement vaut, pour un signal symétrique : ∞ p D = 2 ∫ p x ( x )dx (2.13) xs On définit le facteur de charge du quantificateur par : Γ= xs σx Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin (2.14) La Quantification des Signaux 8 Lois de répartition Expression analytique ( µ x = 0) Uniforme 1 / 2.rect a (e ); σ 2x = a 2 / 3 1 Gaussienne 2π . σ x .e − x 1 − .e 2 .σ x Laplace Gamma 3 8πσ x x .e 2 2 /( 2σ x ) 2 . x /σx − 3 x /( 2σ x ) Table 2.1 - Lois de répartition usuelles (signaux à moyenne nulle). La table 2.2 reprend l’évolution de la probabilité de dépassement en fonction du facteur de charge, pour un signal Gaussien. Γ PD 2 0,0455 3 0,0027 4 0,0000634 Table 2.2 - Probabilités de dépassement pour un signal Gaussien. Lorsque cette probabilité de dépassement n’est pas négligeable, les expressions précédentes doivent être corrigées. La densité de probabilité du bruit de granulation devient : 1 − pD p e (e ) = ∆ 0 et la variance : σ 2e = ∆ 2 ∆ e> 2 e≤ ∆2 (1 − pD ) 12 (2.15) (2.16) Quant à la variance du bruit de dépassement, elle vaut : ∞ σ 2D = 2 ∫ ( x − x s ) p x ( x )dx 2 xs Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin (2.17) La Quantification des Signaux 9 et la variance totale du bruit de quantification est égale à σ 2e + σ2D . Il est clair que l’erreur de dépassement est fortement corrélée avec le signal. Rapport Signal à Bruit (RSB) En l’absence de dépassement, le rapport signal à bruit (RSB) est calculé comme suit : ∆2 xs2 −2b σ = = 2 12 3 (2.18) 3σ2 RSB (dB ) = 10 log 2x 2 2b ≈ 6,02b + 4,77 − 20 log Γ xs (2.19) 2 e Le RSB vaut donc : Cette loi est représentée à la figure 2.5. RSB=10log(sx 2/se2) (dB) 100 86 80 65.8 60 b=16 14 40 12 42 10 8 20 0 -100 -80 -60 -40 -20 0 -20logG (dB) Figure 2.5 - RSB pour la quantification uniforme d’un signal Gaussien. En cas de dépassement, le RSB est dégradé, et devient : σ2x RSB = 10 log 2 2 σe + σD (2.20) Cette dégradation du RSB dépend essentiellement de la loi de répartition du signal x (cfr. 2.13, 2.16, 2.17). Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 10 Exemples : • Dans le cas d’un signal aléatoire à répartition uniforme, le dépassement se manifeste pour σx 1 a2 = (une répartition uniforme entre -a et +a implique une variance σ 2x = ), soit pour 3 xs 3 − 20 log Γ = −4,77 dB . • Pour un signal sinusoïdal, il y a dépassement à partir de • Pour un signal à répartition Gaussienne, le dépassement se manifeste progressivement. σx 1 = ( − 20 log Γ = −3,01dB ). xs 2 Ces propriétés sont illustrées à la figure 2.6. RSB=10log(sx 2/se2) (dB) Loi de répartition : 100 1: Laplace 2: Gauss 3: Uniforme 4: Sinusoïdale 80 4 3 98.1 96.3 86.0 77.4 60 2 b=16 1 40 20 0 -100 -80 -60 -40 -20 -20logG 0 Figure 2.6 - Dégradation du RSB due à la saturation. 2.3 Quantification Non Uniforme La figure 2.6 a mis en évidence l’existence d’un maximum du RSB pour un nombre donné de bits et pour une loi de répartition donnée. Ce maximum est atteint pour une certaine valeur du facteur de charge ; il est lié à la loi de répartition et à la loi de quantification. Il est légitime de penser qu’une adaptation de la loi de quantification à la densité de probabilité du signal est susceptible de conduire à un meilleur RSB. En effet, l’importance de l’erreur de granulation sera réduite pour les amplitudes du signal les plus probables. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 11 On supposera le signal borné − x max ≤ x ≤ + x max , ce qui correspond à la situation concrète usuelle. Pour un nombre L de niveaux de quantification, la variance du bruit de granulation peut s’écrire : ∞ L σ 2e = ∫ e 2 p e (e)de = ∑ xi ∫ (x − y ) 2 i p x ( x )dx (2.21) i =1 xi −1 −∞ Cette variance peut être minimisée par un choix adéquat des niveaux de décision x i et des niveaux quantifiés yi . Un ensemble de conditions nécessaires est fourni par : ∂σ2e ∂x = 0 i 2 ∂σ e = 0 ∂yi i = 1,2,⋯ , L − 1 (2.22) i = 1,2,⋯ , L On peut montrer que ces conditions deviennent suffisantes si ln p x ( x ) est concave, c’est-à-dire si ∂ 2 (ln p x ( x )) < 0 ∀x . On peut également montrer que cette condition est vérifiée pour les ∂x 2 distributions de Gauss et de Laplace. La résolution de (2.22) en tenant compte de (2.21) conduit à : x *i = y i + y i+1 2 i = 1,2,⋯ , L − 1 (2.23) Le niveau de décision optimum est donc situé à égale distance des valeurs quantifiées qui l’entoure. D’autre part, lorsque les x i sont fixés, on déduit de (2.22) et (2.21) : xi ∫ x ⋅ p ( x )dx x y = * i xi −1 xi ∫ p (x )dx i = 1,2,⋯, L (2.24) x x i− 1 La valeur quantifiée optimum coïncide donc avec la valeur moyenne du signal dans l’intervalle * associé: y i = E{x x i−1 < x ≤ x i }. On peut par conséquent concevoir une procédure itérative qui, à partir de la loi uniforme (par exemple), converge vers la loi optimum par application successive et alternée de (2.23) et (2.24). Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 12 2.4 Quantification Logarithmique 2.4.1 Principe Une loi de quantification non uniforme peut être conçue comme le résultat d’une compression des amplitudes du signal, suivie par une quantification uniforme. Vient ensuite une expansion qui agit en sens opposé à celui de la compression (figure 2.7). x u Quantification uniforme û y Figure 2.7 - Quantification avec compression et expansion. Le signal x possède par hypothèse une densité de probabilité symétrique et bornée par − xmax et + x max . Après avoir subi une compression définie par la fonction u = F ( x ) , telle que 2x u max = x max , il est quantifié uniformément sur L niveaux, avec un pas ∆ = max (figure 2.8). Les L seuils de décision x i et les pas de quantification ∆i sont ainsi définis. Aux valeurs quantifiées ui correspondent les niveaux quantifiés de sortie yi après expansion par la fonction y = F −1 (u ) . Lorsque L >> 1 , on peut linéariser la fonction F dans l’intervalle [xi −1 , xi ] , et il vient : F ′( yi ) ⋅ ∆i ≈ F (x i ) − F ( x i−1 ) = ∆ = 2 x max L (2.25) En prenant la convention de désigner F ′( x ) par g ( x ) , on obtient : ∆i = ∆ 2 x max = g ( yi ) Lg ( y i ) Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin (2.26) La Quantification des Signaux 13 u=F(x) umax ui D ûi u i-1 x x i-1 yi x max xi Di Figure 2.8 - Exemple de Loi de Compression. D’autre part, si le nombre L de niveaux de quantification est élevé, p x ( x ) peut être considéré comme constante dans l’intervalle [xi −1 , xi ] , et l’on a : p x ( x ) ≈ Pi pour x ∈ [xi−1 , x i ] xi L σ = ∑ Pi i =1 ∫ ( x − y ) dx 2 2 e Dès lors, l’expression (2.21) peut s’écrire : (2.27) i (2.28) xi −1 D’autre part, pour un intervalle i donné, on a : u = uˆi + g ( y i )( x − yi ) (2.29) Il vient alors : σ u L ( u − uˆi )2 1 ( u − uˆ i )2 ∆ i = ∑ Pi ∫ ⋅ du = ∑ Pi ∫ 2 ⋅ du g 2 ( y i ) g ( yi ) g ( yi ) ∆ i =1 i =1 u u L 2 e ui i i −1 (2.30) i− 1 L u i P 1 σ = ∑ 2 i ∆i ∫ (u − uˆ i )2 ⋅ du ∆ i =1 g ( yi ) u i− 1 2 e (2.31) Les intégrales qui interviennent dans (2.31) sont relatives à une quantification uniforme, et valent ∆2 chacune . On obtient ainsi : 12 Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 14 ∆2 σ = 12 2 e L Pi ∑ g (y )∆ 2 i =1 (2.32) i i Par passage à la limite, on obtient finalement : 2 ∆2 max p x ( x ) 2 x max dx = 12 − x∫max g 2 (x ) 3L2 x σ 2e = xmax ∫ 0 p x (x) dx g 2 (x) (2.33) Cette dernière expression doit être minimisée sous la contrainte : xmax ∫ g ( x )dx = F ( x ) = x max (2.34) max 0 On en déduit la loi de compression optimale : x Fopt (x ) = x max ∫ 3 0 xmax ∫ 3 p x (x )dx (2.35) p x ( x )dx 0 Les niveaux de décision x i et les valeurs quantifiées yi sont donnés respectivement par : xi = F −1 (ui ) −1 y i = F (uˆ i ) uˆi = (2.36) ui−1 + ui 2 Quant à la variance de l’erreur de granulation, on obtient après calcul : 3 3 σ 2e, min Exemple : x x 2 max3 1 max3 = 2 ∫ p x ( x )dx = ∫ p x ( x )dx ⋅ 2 −2b 3L 0 12 − x max (2.37) Soit une source Gaussienne de variance σ 2x , la variance de l’erreur de granulation vaut alors : σ 2e = 3 2 − 2b πσx ⋅ 2 2 (2.38) L’expression (2.37), valable lorsque le nombre de niveaux quantifiés est élevé, ne concerne que l’erreur de granulation. En pratique, la valeur de x max peut cependant être choisie pour que le bruit de dépassement soit négligeable. Ce qui paraît plus génant, c’est que l’expression (2.37) résulte d’une adaptation à la densité de probabilité du signal, c’est-à-dire aussi à sa variance. Un objectif fréquent en pratique consiste à assurer un RSB indépendant de la variance du signal dans une gamme d’amplitudes aussi large que Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 15 possible (pour rappel, le signal de parole est non- stationnaire). La solution consiste en principe à choisir la loi de compression de la forme : g(x) = α x (2.39) La variance (2.33) devient alors : 2 σ 2 e, min 2x = max ⋅ 3 αL xmax ∫x 2 p x ( x )dx 0 (2.40) 2 1 x ≈ max σ 2x 3 αL de sorte que le RSB est indépendant de la variance du signal : αL RSB (dB ) = 10 log 3 x max 2 (2.41) La loi de compression (2.39) est cependant inutilisable telle quelle car elle implique une densité de niveaux quantifiés qui tend vers l’infini lorsque l’amplitude du signal tend vers zéro. Il faut donc raccorder les deux branches de cette loi ( x < 0 et x > 0 ) par une droite qui passe par l’origine : ce sont les deux solutions classiques adoptées pour la transmission téléphonique. 2.4.2 La Loi A La loi A, en usage en Europe, est représentée à la figure 2.9. Elle est définie par : A⋅ x ⋅ sgn ( x ) 1 + ln A ( ) F x = A⋅ x 1 + ln xmax x ⋅ max 1 + ln A 0≤ ⋅ sgn ( x ) x x max ≤ 1 A (2.42) x 1 ≤ ≤1 A x max Pour des signaux de grande amplitude, le RSB est donné par (2.41), avec α = L 2 RSB (dB ) = 10 log 3 1 + ln A Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin x max , soit : 1 + ln A (2.43) La Quantification des Signaux 16 RSB (dB ) = 6,02b + 4,77 − 20 log(1 + ln A) Pour L = 2 b , il vient : Signal codé (2.44) Sortie Normalisée 127 112 0.875 96 0.750 80 0.625 64 0.500 A=87.56 48 0.375 32 0.250 16 0.125 0 1/8 1/4 1/2 1 1/128 1/64 1/32 1/16 Niveau relatif du signal d’entrée Figure 2.9 - La Loi de Compression A. A 1 + ln A Pour des petits signaux, on a : g (x) = soit, d’après (2.33) : 1 x 1 + ln A σ 2e = max ⋅ 3 L A 2 et donc, il vient : et pour L = 2 b : (2.45) 2 L ⋅ A 2 σ RSB (db) = 10 log 3 ⋅ x 1 + ln A x max (2.46) 2 A RSB (dB ) = 6,02 + 4,77 + 20 log − 20 log Γ 1 + ln A (2.47) (2.48) Or, pour une quantification uniforme sur L niveaux avec dépassement négligeable, le RSB est donné par (2.19). La loi A assure donc pour les petits signaux un RSB supérieur de A 20 log . 1 + ln A Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 17 A = 16 , soit A=87,56. De plus, on a 1 + ln A choisi L=256 (b=8). La représentation des petits signaux correspond alors à une quantification uniforme sur 212 = 4096 niveaux ! La loi européenne utilise une valeur de A telle que Pour les grands signaux, la formule (2.44) donne, pour A=87,56 : RSB = 6,02b − 9,99 = 38,15 dB (2.49) La courbe du RSB en fonction du facteur de charge est représentée à la figure 2.10. Elle est indépendante de la loi de répartition du signal tant que le bruit de saturation reste négligeable. RSB=10log( sx 2/se2) (dB) A = 87.56 80 b=8 Signal gaussien 60 40 38.16 b UNIF =14 12 10 20 8 0 -80 -60 -40 -20 0 -20logG (dB) Figure 2.10 - RSB pour la loi de compression A. 2.4.2 La Loi µ La loi de compression en usage aux USA est la loi µ, définie par : x ln 1 + µ xmax F ( x ) = xmax ⋅ ln (1 + µ ) ⋅ sgn( x ) Pour µ = 255 , cette loi est très proche de la loi A=87,56. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin (2.50) La Quantification des Signaux 18 2.5 Codage Entropique 2.5.1 Introduction à la Théorie de l’Information Soit un quantificateur Y = Q( X ) . La sortie de ce quantificateur prend ses valeurs dans un ensemble fini de L éléments : Y = yi si X ∈ [ xi−1 , x i ] pour i = 1,2,⋯ , L (2.51) Chaque sortie yi du quantificateur peut être représentée au moyen d’un mot, le plus souvent au format binaire, choisi parmi les L que contient un dictionnaire. Par exemple, il est ainsi possible de coder l’indice i lui-même de la valeur quantifiée yi , ce qui conduit à des mots de code de longueur identique. La sortie Y du quantificateur peut être vue comme une source d’information à valeurs discrètes. Cette source est dite sans mémoire si les sorties du quantificateur sont statistiquement indépendantes. L’évaluation de l’information qu’apporte la réalisation d’un événement Y = y i repose sur les deux principes suivants : • l’information est dépendante de la probabilité de cet événement (un événement rare apporte plus d’information) ; • deux événements indépendants ont une mesure globale d’information égale à la somme des mesures de chacun d’entre eux ; Sur ces bases, on définit une mesure de l’information selon : 1 = − log 2 Pi Pi I ( p{Y (k ) = y i }& p{Y (l ) = y j }) = − log 2 (Pi ⋅ Pj ) = −[log 2 Pi + log 2 Pj ] I ( p{Y (k ) = y i }) = log 2 et (2.52) (2.53) La quantité d’information qu’apporte, en moyenne, une réalisation de Y, est donnée par l’entropie d’ordre zéro de la source, soit : L H Q = E{− log 2 Pi } = −∑ Pi log 2 Pi (2.54) i =1 où Pi est la probabilité d’occurrence de la sortie yi du quantificateur : Pi = p{Y = yi } = xi ∫ p (x )dx x x i− 1 Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin (2.55) La Quantification des Signaux 19 Exemple : entropie d’une variable binaire Soit un événement Y, prenant la valeur 0, avec une probabilité p0, ou la valeur 1, avec une probabilité p1=1-p0. L’entropie d’une telle source d’information vaut : H Q = − p0 log 2 p0 − (1 − p0 ) log 2 (1 − p0 ) (2.56) Cette entropie est maximale pour p1 = p0 = 1/2, et vaut alors 1 bit. Ceci correspond à une exploitation optimale du bit utilisé pour coder l’événement, puisque chaque bit émis contient un maximum d’information. 2.5.2 Codage d’une Source Discrète Sans Mémoire Le codage entropique repose sur une procédure de codage à longueur variable, qui assigne des mots de longueur variable aux valeurs possibles yi , de façon telle que les valeurs hautement probables soient associées à des mots courts du code, et vice - versa. Ceci permet donc en principe de réduire la longueur moyenne des mots du code. Définitions : • Un code instantané est un code tel que chacun des mots du dictionnaire peut être décodé indépendamment des autres mots, c’est-à-dire dès que le dernier bit du mot considéré est reçu. • Un code uniquement décodable signifie que, recevant une séquence de mots du code, la source peut être reconstituée sans ambiguïté. L’importance de l’entropie H Q vient du théorème du codage sans bruit d’une source discrète sans mémoire : Pour toute source discrète sans mémoire Y, il existe un code instantané et uniquement décodable représentant exactement cette source, vérifiant : HQ ≤ b < HQ +1 (2.57) où b est le débit moyen, c’est-à-dire la longueur moyenne des mots du code. Ce théorème signifie que, parmi tous les codes instantanés uniquement décodables, celui qui minimise la longueur moyenne des mots du code a une longueur moyenne égale à l’entropie de la source. L’entropie H Q apparaît donc comme une limite fondamentale pour représenter sans distorsion une source d’information. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 20 Le codage entropique est une technique qui permet de réaliser ce taux de transmission idéal. Si le codage entropique est parfaitement réalisé, le taux de transmission à la sortie du quantificateur à L niveaux peut être réduit de : ∆b = log 2 L − H Q (2.58) ∆b représente donc la redondance de la source discrète. Il est toutefois évident qu’aucune réduction n’est possible si toutes les valeurs yi sont 1 équiprobables. En effet, on a alors Pi = , et donc de (2.54), H Q = log 2 L . L Taux de transmission moyen : Soit un mot du code, de bi bits, associé au niveau yi . bi peut être inférieur, égal, ou supérieur à log 2 L . La longueur moyenne des mots du code définit également le taux de transmission moyen, et donc : L b = ∑ Pibi bits/échantillon (2.59) i =1 La réduction alors obtenue vaut : log 2 L − b bits/échantillon (2.60) Le code optimal est obtenu pour : bi = − log 2 Pi (2.61) Comme bi est entier, le code optimal ne peut être obtenu que si les probabilités satisfont la contrainte Pi = 2 −bi . Dans tous les autres cas, le taux de transmission moyen b qui résulte du codage entropique sera légèrement supérieur à H Q . Il peut toutefois s’avérer utile d’appliquer un codage entropique sur des séquences de valeurs, plutôt que sur des valeurs uniques, afin de se rapprocher le plus possible de H Q . L’effet du codage de séquences est de fournir une meilleure approche de la contrainte Pi = 2 −bi . 2.5.3 Codage d’une Source Discrète Avec Mémoire Lorsqu’il existe une dépendance statistique entre les échantillons successifs de la source, on peut chercher à l’exploiter afin de réduire encore le nombre de bits nécessaire pour représenter exactement la source. Toutefois, le codage entropique devient alors assez complexe, car de longues séquences doivent être traitées, et les probabilités conjointes connues ou estimées par calcul. En Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 21 pratique, il est possible d’éliminer les redondances linéaires du signal en effectuant un filtrage avant la quantification, afin d’approximer une source sans mémoire. Les sorties du quantificateur sont alors non corrélées (linéairement), et le taux de transmission minimum est donc toujours théoriquement donné par l’entropie d’ordre 0, H Q . La méthode linéaire optimale de décorrélation est l’Analyse en Composantes Principales (ACP). Cette méthode implique toutefois trop de calculs et s’avère inexploitable en pratique. Deux solutions sont alors envisageables : • Prédiction Cette méthode consiste à coder la différence entre la valeur réelle de l’échantillon et une valeur prédite. Par exemple, le codage DPCM consiste à coder la différence de valeur entre deux échantillons consécutifs : d (t ) = x (t ) − x (t − 1) . La méthode de prédiction est assez efficace pour un signal de parole, mais s’avère relativement peu adéquate pour un signal d’image. • Transformation Cette méthode alternative, souvent employée pour le signal d’image, consiste à décomposer le signal en blocs, et à appliquer ensuite une transformée sur chacun d’eux. Une transformée très exploitée en raison de ses performances proches de celles de l’ACP est la Transformée en Cosinus Discrète (DCT). 2.5.4 L’Algorithme de Huffman Afin d’éviter un problème inhérent à l’utilisation d’un code de longueur variable, on pourrait ajouter des séparateurs entre mots du code dans une séquence. Cela n’est cependant pas nécessaire lorsque le code vérifie la condition dite du préfixe : aucun mot du code ne doit être le préfixe d’un autre mot du code. L’algorithme de Huffman permet d’obtenir un tel code, et on peut montrer qu’il est l’algorithme optimal. Pour aucun autre code uniquement décodable, la longueur moyenne des mots du code est inférieure. Cet algorithme consiste à construire progressivement un graphe orienté en forme d’arbre binaire, où chaque branche partant d’un nœud est associée à un symbole 0 ou 1, en partant des nœuds terminaux. Un mot du code est associé à chaque nœud terminal en prenant comme mot de code la succession des symboles binaires sur les branches. Les phases de cet algorithme sont les suivantes : • Soient les deux listes de départ {y1 ⋯ y L } et {P1 ⋯ PL }. • Les deux symboles les moins probables sont sélectionnés, et deux branches dans l’arbre sont créées et étiquetées par les deux symboles binaires 0 et 1. • Les deux listes sont réactualisées, en rassemblant les deux symboles utilisés en un nouveau symbole, et en lui associant comme probabilité la somme des deux probabilités sélectionnées. • Les deux étapes précédentes sont répétées tant qu’il reste plus d’un symbole dans la liste. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 22 Exemple : Soit une source ne pouvant prendre que six valeurs différentes, avec les probabilités fournies à la table 2.3 ci-dessous. Un codage direct des indices nécessiterait évidemment 3 bits. Symbole y1 y2 y3 y4 y5 y6 Probabilité 0,5 0,15 0,17 0,08 0,06 0,04 Table 2.3 - Probabilités associées aux six événements {Y = yi }. L’entropie de cette source discrète est égale à 2,06 bits. L’algorithme de Huffman fournit l’arbre binaire représenté à la figure 2.11. La table de codage résultante est reprise à la table 2.4. La longueur moyenne des mots est égale à 2,1 bits, valeur très voisine de la limite théorique. 0 y1 0,5 y2 0,15 1 y3 0,17 0 y4 0,08 0 y5 0,06 1 y 0,04 0 0 0,32 1 0,5 1 0,18 1 0,1 6 Figure 2.11 - Illustration de l’algorithme de Huffman. Symbole y1 y2 y3 y4 y5 y6 Code 0 100 101 110 1110 1111 Table 2.4 - Définition du Code. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 2.5.5 23 Quantification Scalaire avec Contrainte Entropique Nous avions recherché, à la section 2.3, le quantificateur scalaire qui permettait de minimiser la distorsion σ 2e , pour un nombre de niveaux de quantification L = 2 b donné, c’est-à-dire en respectant une contrainte sur le débit de transmission. Nous allons à présent ré-optimiser le quantificateur, cette fois en vue de rendre possible un codage entropique efficace à sa sortie. Le problème de la recherche d’un quantificateur optimum consiste alors à minimiser l’entropie H Q à la sortie du quantificateur (et donc le taux de transmission moyen b), étant donné une contrainte σ 2e sur la distorsion tolérée pour le signal. L’entropie H Q à la sortie du quantificateur s’exprime : L H Q = − ∑ Pi log 2 Pi (2.62) i =1 Sous l’hypothèse que le nombre L de niveaux de quantification est élevé, la densité de probabilité p x ( x ) peut être supposée constante dans l’intervalle [xi −1 , xi ] . De (2.54), il vient : Pi = p x ( yi )( xi − xi−1 ) = p x ( y i )∆ i (2.63) Dès lors, l’expression de l’entropie de la sortie du quantificateur peut s’écrire : L L i =1 L i =1 L i =1 i =1 H Q = − ∑ p x ( yi )∆ i log 2 p x ( y i ) − ∑ p x ( y i )∆i log 2 ∆ i H Q = − ∑ px ( yi )∆ i log 2 p x ( yi ) − ∑ p x ( yi )∆ i log 2 L L L i =1 i =1 i =1 ∆ g(yi ) H Q = − ∑ p x ( yi )∆ i log 2 p x ( y i ) − ∑ p x ( y i )∆i log 2 ∆ + ∑ px ( yi )∆ i log 2 g ( yi ) (2.64) (2.65) (2.66) Par passage à la limite, on obtient : ∞ ∞ H Q = − ∫ p x (x ) log 2 p x ( x )dx − log 2 ∆ ∫ p x (x )dx + −∞ −∞ ∞ ∞ −∞ −∞ H Q = − ∫ p x ( x ) log 2 p x ( x )dx − log 2 ∆ + ∞ ∫ p (x ) log g ( x )dx x 2 (2.67) −∞ ∫ p ( x ) log g ( x )dx x 2 (2.68) Le premier terme ne dépend que de la source. Il est défini comme étant l’entropie différentielle à l’entrée du quantificateur : Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 24 ∞ h ( X ) = E{− log 2 p x (x )} = − ∫ p x (x ) log 2 p x ( x )dx (2.69) −∞ Il vient donc : H Q = h( X ) − log 2 ∆ + ∞ ∫ p ( x )log g ( x )dx x 2 (2.70) −∞ Ce résultat fourni l’entropie pour une loi de compression donnée, et caractérisée par g ( x ) . Nous avons vu que, pour un grand nombre de niveaux de quantification, la variance σ 2e peut être approximée par : ∆2 max p x ( x ) σ = dx 12 − x∫max g 2 ( x ) (2.71) ∆2 1 σ = E 12 g 2 ( x ) (2.72) x 2 e soit : 2 e On montre facilement que, pour une variable aléatoire X, E{X 2 } ≥ [E {X }]2 , avec le signe égalité si et seulement si X = E{X } avec une probabilité égale à 1, c’est-à-dire si X est une constante. Cela permet d’écrire : ∆ 2 1 σ ≥ E 12 g ( x ) 2 2 e (2.73) avec égalité si la fonction g ( x ) est une constante sur tout le support de p x ( x ) . En outre, g doit vérifier les contraintes : F (0 ) = 0 F ( xmax ) = xmax (2.74) On en déduit que g = 1. Cela signifie que le meilleur quantificateur de la source continue X (n ) est tout simplement le quantificateur uniforme suivi d’un codage entropique (pour autant que le pas de quantification soit suffisamment petit pour que l’hypothèse de densité de probabilité p x ( x ) constante dans un intervalle ∆i demeure valable). L’entropie minimisée vaut alors (cfr. Quantification Uniforme) : Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 25 min H Q = h( X ) − log 2 ∆ = h( X ) − 1 log 2 12 ⋅ σ 2e 2 (2.75) Le terme log 2 ∆ représente donc la perte d’information due à la quantification, et vaut l’entropie différentielle du quantificateur. En effet : H e = E{− log 2 pe (e)} = log 2 ∆ , (2.76) puisque la densité de probabilité p e (e ) est considérée comme uniformément répartie entre ∆ ∆ − 2 ,+ 2 . Exemples : Dans le cas d’une source gaussienne de variance σ 2x , il est aisé de calculer que l’entropie différentielle h ( X ) vaut : 1 h ( X ) = log 2 2 πeσ2x (2.77) 2 On obtient alors, pour un taux de transmission b (c’est-à-dire une entropie H Q ) donné : πe 2 − 2b σ 2e = σx ⋅ 2 6 (2.78) Dans le cas d’une source Gaussienne, le gain apporté par le quantificateur avec contrainte entropique, relativement au quantificateur scalaire logarithmique (cfr. (2.38)) est donc de : 3π / 2 3 3 = ≈ 1,91 πe / 6 e (2.79) soit 2,81 dB. Pour un niveau de bruit toléré σ 2e , le gain est de : ∆b = 1 3 3 log 2 ≈ 0,467 bits 2 e (2.80) Dans le cas d’une distribution Gamma (qui, pour rappel, est très proche de la loi de répartition expérimentale d’un signal de parole), le gain par rapport au quantificateur logarithmique est de 1,7 bits ! Borne Inférieure de Shannon : Il a été démontré que, lorsqu’on accepte une distorsion moyenne au plus égale à σ 2e , alors le plus petit nombre de bits nécessaire pour représenter une source discrète, sans mémoire, de densité de probabilité p x ( x ) quelconque, est donné par la borne inférieure de Shannon : Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 26 b(σ 2e ) = h ( X ) − 1 log 2 (2πeσ 2e ) 2 (2.81) Si l’on veut une distorsion nulle, le codage doit se faire sans perte. On a b(0) = H Q , l’entropie de la source. Plus le niveau de bruit toléré σ 2e augmente, plus le nombre de bits nécessaires pour coder le signal diminue. Si l’on accepte une distorsion supérieure ou égale à la puissance de la source, alors il n’est même plus nécessaire de chercher à la coder. On a b(σ2e ) = 0 . La comparaison de (2.81) avec l’expression (2.75) du taux de transmission minimum du quantificateur scalaire avec contrainte entropique montre un écart de : 1 πe ∆b = log 2 = 0,255 2 6 bits (2.82) Cela signifie que le codage entropique des sorties d’un quantificateur uniforme n’est qu’à 0,255 bit au-dessus de la limite inférieure théorique absolue ! Ce résultat est valable quelque soit la densité de probabilité p x ( x ) du signal. Pour un débit b fixé, la distorsion obtenue σ 2e est à 1,53 dB au dessus de la limite théorique. Cette différence par rapport à la borne inférieure de Shannon est le prix à payer pour avoir la simplicité d’un codage de symboles élémentaires (source sans mémoire). Problèmes pratiques du Codage à Longueur Variable La mise en œuvre du quantificateur scalaire avec contrainte entropique s’avère relativement délicate en pratique. Les mots du code étant de longueur variable, il se pose des problèmes de propagation d’erreur : une simple erreur de transmission dans un mot du code peut en effet causer une perte de synchronisation, ce qui rend impossible la reconstruction correcte de longues séquences de mots. Il est donc nécessaire d’insérer régulièrement des bits de synchronisation. D’autre part, le débit global obtenu est variable, puisqu’il dépend de l’information locale contenue dans le signal (exemple : silence/parole). Si cela ne pose guère de problème pour les systèmes acceptant un débit variable, tel qu’internet, il est indispensable de rendre fixe le débit pour d’autres systèmes qui, eux, acceptent les symboles à un taux constant, tels que les GSMs ou les chaînes de télévision numériques, par exemple. A cette fin, les mots de code de longueur variable doivent être mémorisés dans un tampon. Sous peine de perte d’information, il est évidemment nécessaire d’éviter un dépassement de la capacité de cette mémoire tampon. En pratique, le quantificateur est alors contrôlé par la mémoire tampon elle-même, qui, via un système logique, va permettre une adaptation du pas de quantification, par exemple (cfr. quantification adaptative). Une alternative consiste à rendre fixe la longueur des mots du code, en considérant des séquences de symboles de longueur différentes. Ceci est illustré à la table 2.5, pour le codage de trois symboles élémentaires A, B, et C, où B est le plus probable. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 27 Source BBB BBA BBC BA BC A C Code 000 001 010 011 100 101 110 Table 2.5 - Codage de séquences de longueur variable. Enfin, il reste les problèmes liés à la statistique du signal. D’une part, un code est établi pour une densité de probabilité donnée, et n’est donc optimal que pour cette dernière. A titre d’exemple, le codage d’Huffman exploité pour la transmission de fax ou le codage JPEG a été dans les deux cas calculé sur un ensemble d’images types, et n’est donc pas optimal pour un signal particulier. D’autre part, la mémorisation du dictionnaire des valeurs au niveau du récepteur, nécessaire pour procéder au décodage, peut restreindre les possibilités d’une implémentation matérielle. Une solution commune à ces deux problèmes consiste à transmettre alors une information sur la statistique du signal, afin de pouvoir reconstruire (recalculer) le code. On parle alors de Codage à Longueur Variable Adaptatif Calculé : à une suite de N valeurs x(k), on associe : - un préfixe, qui détermine la distribution de probabilité ; - un suffixe, qui consiste en un codage à longueur variable qui peut être recalculé étant donné le préfixe ; Un exemple de tel code est le code ATRL, qui peut être utilisé pour la transmission d’un signal binaire pour lequel la probabilité p0 d’avoir le symbole élémentaire « 0 » est assez élevée (p0 >> p1 = 1- p0). On applique alors un codage entropique sur des séquences de symboles, de longueur maximum de 2m symboles, où m est à déterminer en fonction de p0. La règle de codage est la suivante : • Pour une séquence de 2m symboles « 0 » consécutifs, on émet le code « 0 » ; • Dans les autres cas (un symbole « 1 » est rencontré), on émet le code « 1 », suivi d’un nombre de m bits qui représente le nombre de symboles « 0 » consécutifs rencontré avant ce symbole « 1 ». Un exemple de code est donné à la table 2.6. Séquence d’entrée 0000 1 01 001 0001 Code émis 0 100 101 110 111 Table 2.6 - Exemple de code ATRL, pour m=2. On peut montrer qu’un tel code est optimal pour un choix de m tel que : p 0 = (1 / 2 )2 . −m Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 2.6 28 Quantification Adaptative Une solution séduisante à priori pour la quantification d’un signal non stationnaire consiste à utiliser une loi adaptative. En effet, une quantification logarithmique est invariante, et, quoique très utile pour la quantification de signaux non stationnaires comme la parole avec un nombre de bits suffisant (typiquement 8), le codage de la parole avec moins de bits par échantillon nécessite une quantification adaptative. Il s’agit en général de l’adaptation à la variance à court - terme du signal, d’une loi de quantification conçue pour une certaine répartition moyenne des amplitudes. Deux types de réalisations équivalentes sont possibles : • Le quantificateur est fixe, il est adapté à un signal de variance unité et il est précédé par un amplificateur à gain variable (figure 2.12) ; x Quantificateur δ =δ i i,opt y ; σ =1 u σ ou σ x y Estimation de 2 x σ (1) 2 y (σ ) (2) (1) adaptation progressive (2) adaptation rétrograde Figure 2.12 - Adaptation d’un quantificateur fixe. • Les pas de quantification sont rendus proportionnels à la variance du signal (figure 2.13) ; x y Quantificateur δ = σ. δ i opt Estimation de (1) 2 σx 2 ( σy ) (1) adaptation progressive (2) Figure 2.13 - Adaptation du pas de quantification. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin (2) adaptation rétrograde La Quantification des Signaux 29 L’adaptation est dite progressive (Adaptative Quantization with Forward estimation ou AQF) lorsque l’estimation de la variance est faite sur le signal original x. Dans ce cas, il faut transmettre, en plus du signal quantifié, une information sur la variance estimée σˆ 2x . Cette information est toutefois transmise à une cadence plus faible que celle utilisée pour les échantillons (une fois par tranche d’échantillons). On peut aussi songer à une adaptation rétrograde (Adaptative Quantization with Backward estimation ou AQB) : la variance est alors estimée sur le signal quantifié y. Ceci permet de ne pas transmettre d’information sur la variance, qui peut en effet être estimée à la réception après décodage du signal. Comme y est soumis au bruit de quantification, il est clair que cette procédure est plus grossière que l’adaptation progressive, sauf lorsque le nombre de niveaux quantifiés est assez élevé. Le problème essentiel, pour la quantification adaptative, est celui de l’estimation de la variance σ . L’écart - type peut être estimé sur un bloc de N échantillons par les formules suivantes : 2 x AQF : AQB : σˆ x (n ) = σˆ x (n ) = 1 N N −1 1 N N ∑x i =0 2 n +i (2.83) ∑y i =1 2 n −i (2.84) La période d’apprentissage N est choisie en fonction du délai d'encodage toléré, des contraintes sur le débit global (AQF), et de la stationnarité du signal. Dans le cas de la parole échantillonnée à 8 kHz, une valeur de N=128 est une bonne estimation. Les estimateurs (2.83) et (2.84) demandent la mémorisation de N échantillons avant quantification, ce qui implique un délai. Une autre procédure consiste à affecter les échantillons passés d’un poids qui décroît avec leur âge. Par exemple, dans le cas d'une AQB, cela donne : ∞ 2 i −1 2 σˆ x (n ) = (1 − α)∑ α ⋅ y n−i 0 < α <1 (2.85) i =1 Le coefficient (1 − α ) est un coefficient de normalisation qui rend la somme des poids égale à l’unité. L’équation (2.85) peut être écrite sous la forme : σˆ 2x (n ) = α ⋅ σˆ 2x (n − 1) + (1 − α ) ⋅ y n2−1 (2.86) Lorsque α est voisin de 1, les poids varient peu pour i élevé (signal stationnaire). Par contre, lorsque α est proche de 0, l’estimateur suit plus fidèlement l’évolution des quelques échantillons précédents (signal non stationnaire). Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 30 Le paramètre α détermine la constante de temps d’adaptation (laquelle est, par définition, 1 le temps nécessaire pour que σ̂ x (n ) décroisse d’un facteur de sa valeur initiale lorsque y e devient une séquence de zéros). On calcule aisément que, si Fe désigne la fréquence d’échantillonnage, la constante de temps du problème vaut : τ= 2 1 ⋅ Fe ln (1 / α) (2.87) La figure 2.14 présente l’effet de la valeur de α sur la vitesse d’adaptation, dans le cas d’un signal de parole échantillonné à 8 kHz. La valeur de 0,9 cause des changements rapides de σˆ 2x qui suit les maxima locaux du signal avec une constante de temps de 2,2 ms. Cette sorte d’adaptation est appelée instantanée. La valeur de 0,99 produit des changements lents de σˆ 2x qui ne suit pas les pics locaux du signal mais seulement l’enveloppe, avec une constante de temps de 25 ms. Cette sorte d’adaptation est appelée syllabique. Figure 2.14 - Estimation de la variance d’un signal de parole. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin La Quantification des Signaux 31 Références : 1. Jayant N. S. & Noll P., “ Digital Coding of Waveforms ”, Prentice-Hall Ed., 1984. 2. Leich H., “ Le Codage de la Parole ”, Notes de Cours, Faculté Polytechnique de Mons, 1996. 3. Moreau N., “ Techniques de Compression des Signaux ”, Ed. Masson, 1995. 4. Boite R., Hasler M., Dedieu H., «Effets non linéaires dans les filtres numériques », Presses polytechniques et universitaires romandes, 1997. Copyright © 2002 Faculté polytechnique de Mons – B. Gosselin