Polytech Marseille, IRM4
3
4. Pour une source à trois symboles quelles sont les valeurs possibles de l’entropie
de la source ? Même question pour une source à 4 symboles. Peut-on citer des
conditions sur les probabilités des 4 symboles pour qu’il existe un code meilleur
que le code fixe de longueur 2 ? Quelle est la condition pour qu'un code optimal
coïncide avec l'entropie ?
Pour une source à M symboles, l'entropie peut prendre toutes les valeurs entre 0 et
l'entropie maximale, log2 (M). Pour le vérifier il suffit d'observer qu'elle peut prendre
des valeurs arbitrairement petites, en prenant la probabilité d'un des symboles proche
de 1, et qu'elle est continue, et donc vérifie le théorème des valeurs intermédiaires.
Si on pose p
1
= 1 – 1/n et p
k
= 1/n (M – 1), 1 < k ≤ M, l'entropie peut s'écrire H (n) , et
H (n) ∼ 1/n + (M – 1) . 1/n (M – 1) [log
2
(n) + log
2
((M – 1 ] ∼ log
2
(n) / n tend vers 0
quand n tend vers l'infini. Pour la continuité il s'agit d'une fonction de M variables à
valeurs dans R, mais le théorème reste valide.
Pour la condition d'existence d'un code efficace, meilleur que le code fixe, on peut
reprendre une remarque précédente. Si la source a 4 symboles, de probabilités
p
1
≥ p
2
≥ p
3
≥ p
4
, la longueur moyenne du code sera L = p
1
+ 2 p
2
+ 3 p
3
+ 3 p
4
, et
comme
p
1
+ p
2
+ p
3
+ p
4
= 1, L = p
1
+ 2 p
2
+ 3 [1 – (p
1
+ p
2
) ] = 3 – 2 p
1
– p
2
. La
condition que ce code est meilleur que le code ixe s'écrit donc L = 3 – 2 p
1
– p
2
< 2, ou
encore 2 p
1
+ p
2
> 1. On peut noter une condition nécessaire, que p
1
> 1/3.
Les exemples précédents vérifiaient bien ces conditions : 2 × 0.44 + 0.23 = 1.11
(exercice 3), et 2 × 9/16 + 3/16 = 21/16 > 1 (exercice 2). Si on prend des valeurs moins
éloignées de l'équirépartition cela ne sera plus possible : si p
1
= 0.33, ou si p
1
= 0. 35 et
p
2
= 0.29, avec par exemple p
3
= 0.2 et p
4
= 0.16 la redondance réelle présente dans
les données ne permet pas la moindre compression.
Le fait que la longueur moyenne d'un code optimal puisse atteindre l'entropie
n'arrivera, comme on l'a déjà souligné, que si tous les p
k
s'écrivent 1/2
α
k
. La
démonstration de cette propriété est une conséquence du théorème de comparaison.
5. Vérifiez que pour une source discrète de n symboles l’entropie est maximale si les
probabilités sont identiques. Montrez que pour une source continue prenant ses
valeurs dans l’intervalle [a, b] l’entropie est maximale si la loi de probabilité est
uniforme. Y a-t-il une loi qui minimise la valeur de l’entropie ?
La démonstration générale dans le cas discret tient à la résolution d'un problème
d'optimisation sous contrainte, qui peut se faire à l'aide de multiplicateur de Lagrange.
Ce calcul a été fait en séance, et nous renvoyons pour la méthode aux cours
d'optimisation.
Pour les cas continus il faut utiliser des théorèmes de convexité du calcul des
probabilités, comme l'inégalité de Jensen. Nous développerons ces éléments dans un
fascicule complémentaire au cours d Théorie de l'Information.
Pour la minimisation de l'entropie, comme il s'agit d'un information complète, cela
revient à supprimer le caractère aléatoire, et donc à considérer une situation
déterministe.