Principes généraux
de codage
entropique d'une
source
Cours : Compression d'images
Master II: IASIG
Dr. Mvogo Ngono Joseph
Table des matières
Objectifs 5
Introduction 7
I - Entropie d'une source 9
II - Définitions et résultats fondamentaux liés au codage de
source 11
III - Les algorithmes de codage statistiques 13
IV - Algorithme de codage arithmétique 17
Conclusion 21
3
Objectifs
L'objectif de ce module est de rappeler les résultats fondamentaux du codage entropique
ou compression reversible d'une source de données ( texte, image, ...).
Ces résultats préliminaires seront utilisés dans notre méthodologie de compression des
images de télédétection. Plusieurs types de méthodes de codage entropique seront
abordées notamment les méthodes d'ordre zéro, non-adaptatives à savoir :
l'algorithme de codage de Shannon-Fano
l'algorithme de codage de Huffman
l'algorithme de codage arithmétique
5
Introduction
La notion de codage entropique ou compression réversible d'une source correspond à un
codage sans perte des symboles de la source avec pour objectif d'atteindre une limite
théorique du gain de compression de Shannon caractérisée par l'entropie de la source. Le
but du codage entropique est de remplacer les messages émis par une source S utilisant un
alphabet N-aire
{
s
1
,
s
2
,
.
.
.
.
.
.
.
.
,
s
N
}
par des messages écrits dans l'alphabet binaire utilisé
par les systèmes de stockage d'information sur ordinateur. Les codes étudiés ici sont des
codes de longueur variable, on suppose qu'un code associe à chaque symbole
s
i
i
=
1,
N
de la source un mot de code binaire
m
i
, séquence de
l
i
bits. Un tel code
doit avoir des propriétés permettant de reconstruire sans ambiguïté les messages émis par
la source, nous passerons en revue dans la section suivante quelques définitions et sultats
fondamentaux de la théorie des codes.
7
I - Entropie d'une
source I
Définition : Notion d'entropie d'une source simple ou sans mémoire
Soit une source S définie par son alphabet
{
s
1
,
s
2
,
.
.
.
.
.
.
.
.
,
s
N
}
de symboles et ses
caractéristiques d'émission régies par une loi de probabilité P :
{
P
s
1
,
P
s
2
,
.
.
.
.
.
.
P
s
N
}
.Une source sera dite simple ( ou sans mémoire) si les
symboles émis par la source S sont indépendants et de même loi. Une suite de N
symboles émis aux instants
1
,
2
,
.
.
.
.
.
.
n
par S suit donc une loi de probabilité :
P
s
1
,
s
2
,
.
.
.
.
.
.
s
n
=
p
s
1
p
s
2
.
.
.
.
.
p
s
n
.
L'entropie d'ordre zéro H(S) d'une source simple S, de loi de probabilité P, est
définie par l'expression :
H
S
=
i
=
1
N
p
s
i
log
2
p
s
i
.
L'entropie dans ce cas a la propriété suivante:
H(S) est maximale si tous les symboles
{
s
1
,
s
2
,
.
.
.
.
.
.
.
.
,
s
N
}
de la source S
sont équiprobables. Dans ce cas , l'entropie est égale à l'information
associée à chaque message pris individuellement.
i
{
1,2,............ N
}
, p
s
i
=
1
N
H
S
=
log
2
N
.
Exemple : Calcul de l'entropie d'une source binaire
Considérons le cas d'une source binaire S dont l'alphabet est {0,1} tel que P(1) = p
et donc P(0)=1-p
0
p
1
H
S
=
plog
2
p

1
p
log
2
1
p
=
f
p
la fonction f(p) est symétrique par rapport à p=0.5 et est maximale pour p=0.5
Définition : Entropie d'ordre K
On suppose une source à amplitude discrète avec mémoire, Il existe alors des
dépendances statistiques entre les échantillons successifs de la source.
Soit
s
=
s
n
=
s
n
, s
n
1
,
....
, s
n
K
1
T un vecteur constitué de K échantillons
successifs de la source. Ce vecteur est caractérisé par sa probabili conjointe
P
S
s
qui est indépendante du temps si on considère une source stationnaire, s est une
réalisation du vecteur aléatoire
S
=
S
n
, S
n
1
,
.....
S
n
K
1
T.On désigne par entropie
d'ordre k ou entropie conjointe des vecteurs aléatoires l'expression :
H
K
S
=
1
KE
log
2
P
S
S
=
1
K∑ ∑
s
....
p
S
s
log
2
p
S
s
9
1 / 14 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !