TD SUR LA COMPRESSION DES DONNEES ALGORITHMES DE SHANNON-FANO ET DE HUFFMAN CODAGE ARITHMETIQUE Soit une source pouvant émettre 11 symboles différents avec les probabilités suivantes : Symbole A C D E F H N O S Espace (b) - Probabilité 0,12 0,03 0 08 0,05 0,03 0,02 0,30 0,20 0,02 0,14 0,01 1) Quelle est son entropie ? 2) Décoder le message suivant : 11100011 10011011 00110011 01100111 11011110 10100000 10011111 11110110 10001 sachant : qu’il a été émis par cette source et compressé au moyen de l’algorithme de Shannon-Fano, et que lors de la construction de la table de codage, les symboles ayant des probabilités d’occurrence identiques ont été classés par ordre alphabétique (les caractères spéciaux étant classés avant les lettres). 3) Quel est le gain obtenu par rapport au meilleur codage possible sans compression, les symboles étant codés chacun avec le même nombre de bits ? Comparer les entropies de l’information codée dans les deux cas (avec et sans compression). 4) Quelle aurait été l’entropie de l’information codée si on avait utilisé le même mécanisme de compression mais si les symboles émis avaient été équiprobables ? 5) Encoder ce même message en utilisant l’algorithme de Huffman 6) Encoder le mot de 7 caractères, constitué des symboles 9 à 15 de ce même message, en utilisant le codage arithmétique et en conservant la même table de probabilité des symboles utilisés.