Telechargé par marco.chiappara

Dunod - La télévision numérique

publicité
9782100520442-prelim.fm Page III Jeudi, 24. juin 2010 6:25 18
Hervé Benoit
La télévision
numérique
Satellite, câble, TNT, ADSL, TV mobile
5e édition
9782100520442-prelim.fm Page IV Jeudi, 24. juin 2010 6:25 18
Toutes les marques citées dans cet ouvrage sont des marques
déposées par leurs propriétaires respectifs.
Couverture : Rachid Maraï
Photo de couverture : SES ASTRA
Illustrations intérieures : Alain et Ursula Bouteveille et Raphaëlle Danet
© Dunod, Paris, 1996, 1998, 2002, 2006, 2010
ISBN 978-2-10-055576-5
9782100520442-Livre.fm Page V Jeudi, 24. juin 2010 11:35 11
Table des matières
AVANT-PROPOS
XI
INTRODUCTION
1
CHAPITRE 1 – LA TÉLÉVISION EN COULEURS :
RAPPEL DES STANDARDS ANALOGIQUES
1.1
1.2
Les bases : le noir et blanc
La couleur compatible
5
5
9
CHAPITRE 2 – LA NUMÉRISATION
DES SIGNAUX VIDÉO
© Dunod. La photocopie non autorisée est un délit.
2.1
2.2
2.3
2.4
Numériser la vidéo, pour quoi faire ?
Formats de numérisation (4.2.2, 4.2.0, SIF, CIF, 720p, 1080i, 1080p)
2.2.1
Le format 4:2:2
2.2.2
Les formats 4:2:0, SIF, CIF et quart de CIF
2.2.3
Les formats à haute définition 720p, 1080i, 1080p
Problèmes de transport
2.3.1
Le codage de source
2.3.2
Le codage de canal
Séquence des opérations à l’émission
17
17
18
20
21
23
24
25
25
25
CHAPITRE 3 – LA COMPRESSION
DES SIGNAUX VIDÉO ET AUDIO
3.1
Quelques principes généraux de compression de données
3.1.1
Codage RLC (Run Length Coding)
3.1.2
Codage à longueur variable ou entropique
(VLC, Variable Length Coding)
27
28
28
28
V
9782100520442-Livre.fm Page VI Jeudi, 24. juin 2010 11:35 11
LA TÉLÉVISION NUMÉRIQUE
3.2
3.3
3.4
3.5
Cas particulier des images :
la transformée en cosinus discrète (DCT)
Application à la compression d’images fixes (JPEG)
La compression d’images animées (MPEG)
3.4.1
Le codage vidéo MPEG-1 (applications multimédia)
3.4.2
Le codage vidéo MPEG-2 (applications broadcast)
3.4.3
La norme de compression MPEG-4.10 ou H264/AVC
La compression des signaux audio
3.5.1
Principes de la compression audio MPEG
3.5.2
Les couches du codage audio MPEG-1
3.5.3
Format général de la trame MPEG audio
3.5.4
Autres codages audio : Dolby Digital (AC3, DTS, e-AC3)
CHAPITRE 4 – MULTIPLEXAGE DES SIGNAUX
4.1
4.2
VI
Organisation du multiplex MPEG-1 (couche système)
Organisation du multiplex MPEG-2
(trains programme et transport)
4.2.1
Constitution du paquet transport MPEG-2
4.2.2
Organisation du multiplex transport ; les tables MPEG-2
30
34
37
38
46
53
56
56
61
63
65
69
69
73
76
79
CHAPITRE 5 – EMBROUILLAGE
ET ACCÈS CONDITIONNEL
5.1
5.2
5.3
Principes de l’embrouillage de la norme DVB
Mécanismes d’accès conditionnel
Principaux systèmes d’accès conditionnel
CHAPITRE 6 – CODAGE DE CANAL
6.1
6.2
6.3
6.4
6.5
Dispersion d’énergie
Codage de Reed-Solomon (codage externe)
Dispersion temporelle des erreurs
(entrelacement ou Forney convolutional interleaving)
Codage convolutif (codage interne)
Nouveaux algorithmes de codage de canal (BCH, LDPC)
87
88
90
93
95
96
98
98
100
102
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
7.1
7.2
Généralités sur la modulation par signaux numériques
Les modulations en quadrature
103
104
107
9782100520442-Livre.fm Page VII Jeudi, 24. juin 2010 11:35 11
TABLE DES MATIÈRES
7.3
7.4
7.5
Modulations pour la télévision par câble (DVB-C)
et satellite (DVB-S)
109
Télévision numérique terrestre (DVB-T) :
la modulation OFDM
115
Les normes de transmission DVB de seconde génération
(DVB-S2, DVB-T2, DVB-C2)
124
7.5.1
Adaptation de mode et de flux d’entrée et correction d’erreur
de seconde génération
125
7.5.2
La norme de transmission par satellite DVB-S2
(ETSI EN 302 307)
128
7.5.3
La norme de transmission terrestre DVB-T2
(ETSI EN 302 755)
131
7.5.4
La norme de transmission par câble DVB-C2
(ETSI EN 302 769)
132
CHAPITRE 8 – RÉCEPTION
DE LA TÉLÉVISION NUMÉRIQUE
8.1
8.2
8.3
8.4
8.5
135
Vue d’ensemble du processus d’émission/réception
135
Le récepteur/décodeur satellite
137
Le récepteur numérique « câble »
140
8.3.1
Le récepteur de base (sans voie de retour)
140
8.3.2
Le récepteur numérique câble interactif (avec voie de retour) 141
Le récepteur numérique terrestre (DVB-T)
143
Évolution de la set-top box
146
8.5.1
Intégration des fonctions
146
8.5.2
Évolutions fonctionnelles du décodeur
147
© Dunod. La photocopie non autorisée est un délit.
CHAPITRE 9 – ASPECTS LOGICIELS
9.1
9.2
10.1
10.2
ET INTEROPÉRABILITÉ
151
Les principaux moteurs d’interactivité propriétaires utilisés en Europe
9.1.1
MediaHighway
9.1.2
OpenTV
Les middlewares européens ouverts
9.2.1
MHEG-5
9.2.2
DVB-MHP
155
155
156
157
157
159
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
163
La télévision numérique terrestre
La télévision à haute définition
163
167
VII
9782100520442-Livre.fm Page VIII Jeudi, 24. juin 2010 11:35 11
LA TÉLÉVISION NUMÉRIQUE
10.3
La télévision en relief (3DTV)
168
10.4
Le téléviseur numérique intégré (iDTV)
172
10.5
La télévision numérique sur IP (par exemple via ADSL
et fibre optique)
10.5.1 Distribution de la télévision sur IP via un réseau domestique
10.5.2 Principaux éléments du protocole DVB-IP
10.5.3 Transport de la télévision numérique sur IP
10.5.4 Formats de codage de la télévision numérique sur IP
10.5.5 Interface utilisateur
174
176
177
178
180
180
10.6
La télévision mobile personnelle (TMP)
10.6.1 Le standard terrestre DVB-H
10.6.2 Le standard hybride terrestre-satellite DVB-SH
10.6.3 Autres standards de télévision mobile personnelle
181
181
183
187
10.7
Conclusion
190
ANNEXE 1 – DÉTECTION ET CORRECTION
DES ERREURS DANS LES TRANSMISSIONS NUMÉRIQUES
VIII
191
A1.1
Un code détecteur d’erreurs : la parité
191
A1.2
Codes correcteurs d’erreur en blocs
192
A1.3
Le codage convolutif (ou convolutionnel)
196
ANNEXE 2 – CALCUL DE L’EFFICACITÉ SPECTRALE
AVEC LES PARAMÈTRES DVB (CÂBLE ET SATELLITE)
199
ANNEXE 3 – LE BUS DISEQCTM (DIGITAL
SATELLITE EQUIPMENT CONTROL) ET LE SYSTÈME USALS
203
A3.1
Les différents niveaux DiSEqC
203
A3.2
Fonctionnement de DiSEqC
A3.2.1 Le ToneBurst
A3.2.2 Format des messages DiSEqC 1.0 et supérieurs
204
205
206
A3.3
Les différents champs du message DiSEqC
A3.3.1 Octet de framing
A3.3.2 Octet d’adresse
A3.3.3 Octet de commande
A3.3.4 Octet(s) de données
207
207
207
209
210
A3.4
Les niveaux supérieurs de DiSEqC
211
A3.5
Le système d’aide au pointage d’antenne motorisée USALS
211
9782100520442-Livre.fm Page IX Jeudi, 24. juin 2010 11:35 11
TABLE DES MATIÈRES
ANNEXE 4 – LE BUS D’INTERCONNEXION
AUDIOVISUEL SÉRIE À HAUTE VITESSE IEEE1394
213
ANNEXE 5 – LIAISONS DVI ET HDMI
POUR LA CONNEXION NUMÉRIQUE DE DISPOSITIFS D’AFFICHAGE VIDÉO
À HAUTE DÉFINITION
217
ANNEXE 6 – AUTRES SYSTÈMES
DE TÉLÉVISION NUMÉRIQUE
A6.1
A6.2
A6.3
A6.4
Le
Le
Le
Le
système
système
système
système
DSS (satellite, USA)
ATSC (terrestre, USA)
ISDB-T (terrestre, Japon)
DTMB (terrestre, Chine)
ANNEXE 7 – L’INTERFACE COMMUNE DVB-CI
ET L’EXTENSION CI+
© Dunod. La photocopie non autorisée est un délit.
A7.1
A7.2
L’interface commune DVB-CI
L’interface commune sécurisée CI+
223
223
225
227
229
231
231
234
GLOSSAIRE
237
BIBLIOGRAPHIE
255
INDEX
259
IX
9782100520442-Livre.fm Page X Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page XI Jeudi, 24. juin 2010 11:35 11
Avant-propos
Cet ouvrage n’a pas pour ambition de faire du lecteur un expert en télévision
numérique, ce que l’auteur lui-même ne prétend pas être, mais de décrire et expliquer de manière aussi simple et complète que possible les différents aspects du
problème très complexe qu’a posé la définition de systèmes de transmission de
programmes de télévision numérique à usage grand public, et les solutions retenues
pour le standard européen DVB (Digital Video Broadcasting), basé sur la norme de
compression MPEG-2.
© Dunod. La photocopie non autorisée est un délit.
Il s’adresse à des lecteurs ayant des notions de télévision « classique », qu’un rappel
des principes de base des standards actuels permettra néanmoins de rafraîchir au
besoin.
Le but principal de cet ouvrage est donc de permettre au lecteur de comprendre
les principes et d’avoir une vue relativement globale de cette nouvelle technologie, et, s’il le désire, d’approfondir ses connaissances sur tel ou tel aspect par la
lecture d’ouvrages spécialisés plus détaillés (ouvrages au demeurant souvent en
anglais).
Afin d’en faciliter l’accès, on trouvera en fin d’ouvrage une petite bibliographie ainsi
qu’un glossaire de la terminologie (française et anglo-saxonne) et des abréviations
utilisées.
Pour une assimilation plus facile, la progression retenue dans cet ouvrage pour
aborder les principaux éléments des standards de télévision numérique « grand
public » suit tout d’abord l’ordre chronologique des principales étapes (de la numérisation brute utilisée dans les studios de télévision aux normes de compression
MPEG-2, en passant par JPEG et MPEG-1) et ensuite celui des opérations de traitement de signal effectuées à l’émission (du codage MPEG vidéo et audio à la modulation en passant par le multiplexage et le codage de canal).
XI
9782100520442-Livre.fm Page XII Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Cette progression se termine par la description fonctionnelle d’un récepteur/
décodeur de télévision numérique (que les concepts acquis dans les chapitres
précédents permettront, nous l’espérons, de démystifier) ainsi que sur quelques
perspectives d’évolution.
Cette cinquième édition comporte notamment une mise à jour importante sur
les standards DVB de deuxième génération pour la transmission de la télévision
numérique par satellite, terrestre ou câble (DVB-S2, DVB-T2, DVB-C2), pour la télévision mobile personnelle (DVB-H, DVB-SH), ainsi qu’une introduction à la télévision en relief (3DTV).
XII
9782100520442-Livre.fm Page 1 Jeudi, 24. juin 2010 11:35 11
Introduction
À la fin des années mille neuf cent quatre-vingt, la possibilité de diffuser des
images de télévision sous forme numérique à destination du grand public paraissait encore très lointaine, et son introduction semblait ne pas pouvoir avoir lieu
avant la fin du XXe siècle.
Ceci était principalement dû au débit très important alors nécessaire à la transmission d’une image vidéo numérisée (de 108 à 270 Mb/s pour un système TV à 525
ou 625 lignes !).
© Dunod. La photocopie non autorisée est un délit.
D’autre part, à cette époque, il semblait plus important et plus urgent d’améliorer
la qualité de l’image télévisée, et les trois principaux acteurs mondiaux (d’abord
Japon puis Europe, enfin États-Unis) dépensèrent des sommes importantes pour
la mise au point de systèmes de télévision à définition améliorée (IDTV, Improved
Definition TeleVision) et à haute définition (HDTV, High Definition TeleVision) de
1 050 à 1 250 lignes.
Simplement numérisées, les images HDTV auraient nécessité un débit environ
quatre fois plus important qu’une image de qualité conventionnelle, soit de l’ordre
du gigabit par seconde !
Les systèmes HD proposés alors furent donc analogiques (MUSE au Japon, HDMAC en Europe, ainsi que les premières propositions américaines), avec une
« assistance » numérique que l’on peut considérer comme le prélude à la
compression.
À partir de la fin des années quatre-vingt, le développement très rapide d’algorithmes de compression vidéo efficaces (norme JPEG, pour images fixes puis MPEG,
pour images animées), réduisant de façon très importante le débit nécessaire à la
transmission des images, a changé radicalement cet état de fait en ramenant celuici à des valeurs beaucoup plus raisonnables (de 1,5 à 30 Mb/s selon la résolution
pour les images animées), alors que les progrès spectaculaires de l’intégration
1
9782100520442-Livre.fm Page 2 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
permettaient simultanément d’envisager la réalisation pratique de circuits de
décompression et des mémoires associées à un prix abordable.
On s’est d’autre part rendu compte que le prix d’un récepteur haute définition ne
pourrait pas atteindre rapidement un niveau compatible avec une diffusion vraiment « grand public », non pas tellement à cause du coût de l’électronique, mais
principalement en raison de celui, très élevé, du dispositif de visualisation nécessaire (qu’il soit basé sur un tube 16/9 de grande dimension, un projecteur LCD ou
tout autre dispositif connu).
Ce même « grand public » semblait d’autre part beaucoup plus sensible à la qualité
des programmes (et également à leur quantité…) qu’à celle de l’image, et la crise
économique avait de plus tendance à tirer les achats de produits « bruns » vers le
bas de gamme…
Sous l’impulsion des États-Unis, qui retrouvaient là l’occasion de reprendre l’initiative en raison de leur prédominance dans le domaine du traitement de l’information numérique, les études se sont donc réorientées vers la mise au point de
systèmes permettant la diffusion numérique d’images de qualité comparable ou
légèrement supérieure à celle des systèmes actuels, mais avec bien d’autres possibilités nouvelles liées à la numérisation complète du signal.
2
Les premières émissions numériques à destination du grand public ont démarré
aux États-Unis au milieu de l’année 1994 avec le projet DirecTV, et dont le succès a
été immédiat (plus d’un million d’abonnés un an après son lancement).
L’Europe ne s’est pas pour autant endormie, et à partir de fin 1991 s’est décidée à
abandonner les études sur la HDTV analogique (HD-MAC) et a créé l’European
Launching Group (ELG) pour l’étude et la normalisation de systèmes numériques
de diffusion TV qui, en 1993, donneront naissance au projet DVB (Digital Video
Broadcasting), basé sur la norme de compression MPEG-2.
Le système proposé doit également permettre une évolution vers la haute définition,
pour des applications principalement professionnelles dans un premier temps
(transmission vers les salles de spectacle, applications médicales, etc.) et s’adapter
à tout type de support de transmission (satellite, câble, terrestre, réseau local…).
En Europe, c’est Canal+ qui a lancé les premières émissions régulières sur Astra 1
en 1996 suivie de près par TPS, AB-Sat sur Eutelsat (Hot Bird) et de nombreux
autres opérateurs européens.
C’est le bouquet numérique britannique BSkyB, qui n’a pourtant démarré ses
émissions numériques sur Astra 2 que fin 1998, qui compte le plus grand nombre
d’abonnés en Europe (au Royaume-Uni et depuis 2002 en Italie par l’acquisition et
le développement du bouquet de Canal+ rebaptisé Sky Italia).
9782100520442-Livre.fm Page 3 Jeudi, 24. juin 2010 11:35 11
INTRODUCTION
Dans les dernières années du XXe siècle, d’autres formes de télévision numérique
ont vu le jour : télévision numérique par câble, puis par transmission hertzienne
terrestre (TNT), via la ligne téléphonique (IPTV sur ADSL) et plus récemment par
fibre optique. C’est la conjonction de ces développements qui permet un arrêt
rapide de la télévision analogique, déjà effectif dans certains pays (Allemagne, Suisse,
États-Unis…) et qui le sera pratiquement partout en Europe dès 2012.
D’autre part, la chute rapide du prix des téléviseurs à écran plat de grandes dimensions et de résolution compatible avec la haute définition (jusqu’à 1920 × 1 080) a
rendu la disparition des écrans à tube cathodique (CRT) pratiquement effective en
2010. C’est ce développement coïncidant avec l’apparition de normes de compression
(MPEG-4) et de transmission (DVB-S2, DVB-T2, DVB-C2) encore plus efficaces
qui permet un réel développement à grande échelle de la télévision haute définition
en Europe.
La sophistication toujours croissante des téléphones mobiles, désormais munis
d’écrans couleurs, souvent tactiles, de taille et de résolution relativement élevées, et
le développement de normes de transmission adaptées à la mobilité (DVB-H, DVB-SH,
T-DMB…) permettent le développement d’une télévision personnelle transportable
virtuellement partout.
© Dunod. La photocopie non autorisée est un délit.
Enfin, le début de la décennie 2010 semble vouloir marquer le vrai départ de la télévision en relief, rendu possible par les progrès impressionnants des écrans plats,
des normes de compression et de transmission, ainsi que par l’augmentation des
capacités de la liaison HDMI.
3
9782100520442-Livre.fm Page 4 Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page 5 Jeudi, 24. juin 2010 11:35 11
Chapitre 1
La télévision en couleurs :
rappel des standards analogiques
5
Tout d’abord, un peu (très peu) d’histoire…
1.1
Les bases : le noir et blanc
© Dunod. La photocopie non autorisée est un délit.
Il faut se rappeler que les normes actuellement en vigueur (NTSC, PAL, SECAM,
D2MAC, PAL+) dérivent toutes, directement ou indirectement, des standards
monochromes définis dans les années quarante et cinquante, qui en ont établi la
« charpente ».
Les premiers essais de télévision électromécanique utilisant le disque de Nipkow
pour l’analyse et la reproduction de l’image remontent à la fin des années vingt,
avec une définition initiale de… 30 lignes et 12,5 images par seconde ! Cette faible
définition permettait la transmission des images sur un émetteur radio AM ordinaire (bande passante inférieure à 10 kHz)…
La définition s’est rapidement accrue à 60, 90, 120 puis 180 lignes (Allemagne,
France) et 240 lignes (Angleterre, USA) vers 1935.
Ces définitions, limites pour le disque de Nipkow d’analyse, sont celles avec
laquelle les premières émissions régulières ont eu lieu, le tube cathodique ayant fait
son apparition pour la visualisation.
9782100520442-Livre.fm Page 6 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 1.1 – Représentation simplifiée du balayage progressif
Ces premières émissions utilisaient un balayage progressif (toutes les lignes de
l’image sont balayées dans l’ordre, figure 1.1).
6
Pour des raisons pratiques (rayonnements dus aux fuites magnétiques des transformateurs d’alimentation, filtrages imparfaits), il est apparu indispensable d’utiliser une fréquence d’image liée à celle du secteur alternatif (60 Hz aux USA, 50 Hz
en Europe) pour minimiser l’effet visuel de ces imperfections : la fréquence
d’analyse fut donc de 25 images/s en Europe et 30 images/s aux USA.
Outre leur définition spatiale très insuffisante, ces premières images souffraient
d’un papillotement fort gênant (également appelé flicker de trame).
Peu avant la deuxième guerre mondiale, la prise de vue était devenue électronique
grâce à l’iconoscope, et les définitions utilisées atteignaient 405 lignes (Angleterre),
441 lignes (USA, Allemagne) ou 455 lignes (France) grâce au balayage entrelacé.
Cette « astuce » géniale inventée en 1927 (transmission d’une première trame
composée des lignes impaires de l’image, puis d’une seconde composée des lignes
paires, figure 1.2) permettait en effet de doubler la fréquence de rafraîchissement
de l’écran (50 ou 60 Hz au lieu de 25 ou 30 Hz) sans augmentation de bande
passante pour un nombre de lignes total donné.
Le maintien du lien entre la fréquence du secteur et la fréquence trame a cependant
inévitablement conduit à différencier les standards entre les deux continents,
même à nombre de lignes d’analyse égal (cas des systèmes à 441 lignes américain
et allemand par exemple).
9782100520442-Livre.fm Page 7 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 1 – LA
TÉLÉVISION EN COULEURS
:
RAPPEL DES STANDARDS ANALOGIQUES
Figure 1.2 – Représentation simplifiée du balayage entrelacé
(première trame en trait plein, seconde trame en tirets)
Tous ces systèmes avaient néanmoins déjà en commun les caractéristiques
suivantes :
© Dunod. La photocopie non autorisée est un délit.
• un signal d’image composite unique (abrégé sous le sigle VBS, Video Baseband Signal : figure 1.3, combinant la vidéo proprement dite et les signaux
de synchronisation) ;
• un balayage entrelacé d’ordre 2, reconnu comme le meilleur compromis
entre papillotement et bande passante nécessaire à la transmission du signal
vidéo.
Figure 1.3 – Vue d’une ligne de signal monochrome
7
9782100520442-Livre.fm Page 8 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Peu après, compte tenu de l’accroissement de la dimension des tubes, de la résolution
de l’œil et des conditions d’observation, la définition de ces systèmes est apparue
encore insuffisante. Une analyse avec une définition verticale de 500 à 700 lignes
réunissait la plupart des suffrages.
Ce sont les caractéristiques principales suivantes qui ont été finalement retenues
pour le standard monochrome américain (1941), devenu NTSC lors de sa
« colorisation » (1952) :
• 525 lignes, balayage entrelacé (2 trames de 262,5 lignes) ;
• fréquence trame : Fv = 60 Hz (59,94 Hz depuis l’introduction de la couleur
NTSC 1) ;
• fréquence ligne : Fh = 15 750 Hz (60 × 262,5) ; 15 734 Hz depuis la couleur
(59,94 × 262,5) ;
• bande passante vidéo : 4,2 MHz ;
• modulation vidéo négative, son FM (à + 4,5 MHz de la porteuse vision).
8
Après la guerre (1949), la majorité des pays d’Europe (à l’exception notable de la
France et de la Grande-Bretagne…) adoptait le standard monochrome GERBER,
plus connu sous l’appellation CCIR, avec une fréquence trame de 50 Hz, une
fréquence ligne aussi proche que possible de celle du système américain et des
modulations similaires, afin de pouvoir bénéficier au maximum de l’expérience
américaine pour les concepts de base des récepteurs.
Ceci impliquait donc un nombre de lignes supérieur (dans le rapport 60/50 environ), et par suite une bande passante vidéo plus large pour obtenir une résolution
horizontale cohérente avec la résolution verticale, d’où les caractéristiques principales retenues :
•
•
•
•
•
625 lignes, balayage entrelacé (2 trames de 312,5 lignes) ;
fréquence trame : Fv = 50 Hz ;
fréquence ligne : Fh = 15 625 Hz (50 × 312,5) ;
bande passante vidéo : 5 MHz ;
modulation vidéo négative, son FM (à + 5,5 MHz de la porteuse vision 2).
1. Ce léger changement de la fréquence ligne et trame a été décidé afin de minimiser l’effet visuel du battement entre la sous-porteuse couleur et la porteuse FM son au niveau du démodulateur des récepteurs, en
utilisant celle-ci comme horloge de référence pour la fréquence ligne (15 734 = 4 500 000/286), d’où une
structure de battement fixe moins gênante.
2. La France est le seul pays au monde à utiliser encore une modulation vidéo positive et un son AM
(+ 6,5 MHz par rapport à la porteuse vision) !
9782100520442-Livre.fm Page 9 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 1 – LA
TÉLÉVISION EN COULEURS
:
RAPPEL DES STANDARDS ANALOGIQUES
C’est sur cette base qu’ont ensuite été définis les systèmes PAL, SECAM puis
D2MAC et PAL+.
Des systèmes différents ont été utilisés jusqu’au début des années quatre-vingt en
Angleterre (405 lignes, lancé avant la guerre) et en France (819 lignes, système mis
au point en 1949 par Henri de France, également inventeur du SECAM).
L’avènement de la couleur a sonné le glas de ces systèmes en raison principalement
de la quasi impossibilité d’échange d’images en couleur entre standards à normes
de balayage différentes avec les moyens techniques de l’époque…
1.2
La couleur compatible
Dès le début des années cinquante, les Américains avaient établi les spécifications
d’un système de télévision en couleurs (NTSC, National Television Standard Committee) bâti sur l’a priori de départ de la compatibilité totale avec le système de TV noir et
blanc alors en service et le parc de téléviseurs installés ; de la même manière, les téléviseurs couleur devaient pouvoir recevoir normalement les émissions monochromes,
qui sont restées majoritaires aux USA jusqu’au milieu des années soixante.
Les Européens ont suivi avec une bonne dizaine d’années de retard avec le SECAM
et le PAL.
© Dunod. La photocopie non autorisée est un délit.
De longs travaux préalables sur la perception des couleurs, associés à beaucoup
d’ingéniosité ont permis d’aboutir à ces standards, qui malgré leurs imperfections
satisfont encore les téléspectateurs du monde entier après plus de 40 ans pour le plus
ancien.
Le triple signal vidéo « couleur » (rouge, vert, bleu) fourni par le dispositif de prise
de vue devait être transformé en un signal qui d’une part soit visualisable sans
défaut majeur sur un téléviseur monochrome, d’autre part « tienne » dans un canal
de télévision existant, tout en assurant une image couleur de qualité satisfaisante…
Quelle gageure !
L’idée de base fut donc de transformer par combinaison linéaire les 3 composantes
RVB en 3 autres signaux équivalents Y, Cb, Cr (ou Y, U, V) :
• Y = 0,587 V + 0,299 R + 0,114 B appelé « signal de luminance » ;
• Cb = 0,564(B – Y) ou U = 0,493(B – Y), différence de couleur ou
« chrominance » bleue ;
• Cr = 0,713(R – Y) ou V = 0,877(R – Y), différence de couleur ou
« chrominance » rouge.
9
9782100520442-Livre.fm Page 10 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
La combinaison choisie pour le signal de luminance représente bien la luminosité
de l’image, ce qui permet à un téléviseur noir et blanc de la considérer comme un
signal monochrome.
Les signaux de chrominance, quant à eux, représentent la « coloration » de l’image
monochrome véhiculée par Y, et permettent par combinaison linéaire avec Y de
retrouver les signaux RVB dans le récepteur couleur.
La résolution de l’œil étant moindre pour les transitions de couleurs que pour les
transitions de luminosité, les signaux de chrominance pourront se satisfaire
d’une bande passante réduite (entre le quart et la moitié de la bande passante
luminance).
Cet ensemble de signaux YUV ou YCbCr est le point commun à tous les systèmes
de télévision couleur, y compris les systèmes numériques les plus récents : les
choix initiaux des pionniers de la télévision couleur étaient sans aucun doute
judicieux !
10
Pour pouvoir transporter ces 3 signaux dans un canal monochrome existant
(6 MHz aux USA, 7 ou 8 MHz en Europe), on a eu l’idée d’ajouter au signal composite monochrome VBS (figure 1.3), formé de Y et de la synchro, une sous-porteuse
modulée par les signaux de chrominance pour former un nouveau signal composite appelé CVBS (Colour Video Baseband Signal, figure 1.4).
Figure 1.4 – Ligne de signal couleur (PAL ou NTSC)
Afin de ne pas trop perturber les récepteurs noir et blanc du parc ni trop affecter la
bande passante luminance tout en restant dans les limites de la bande passante
vidéo existante (4,2 MHz en NTSC, 5 à 6 MHz en PAL ou SECAM), cette sousporteuse est située dans le haut du spectre vidéofréquence (figure 1.5).
9782100520442-Livre.fm Page 11 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 1 – LA
TÉLÉVISION EN COULEURS
:
RAPPEL DES STANDARDS ANALOGIQUES
Figure 1.5 – Spectre du signal PAL B/G
Jusqu’à ce point, il n’y a aucune différence de principe entre les trois standards
NTSC, PAL et SECAM. Les différences entre ces systèmes portent essentiellement
sur la manière de moduler cette sous-porteuse et sur la valeur de sa fréquence.
✦
NTSC
© Dunod. La photocopie non autorisée est un délit.
Il utilise une sous-porteuse à 3,579545 MHz verrouillée sur la fréquence ligne
F
( 455 × ----b ) et modulée en amplitude avec suppression de porteuse selon deux axes
2
orthogonaux (modulation d’amplitude en quadrature ou QAM) par deux signaux I
(In phase) et Q (Quadrature).
Ces deux signaux sont deux combinaisons linéaires de R – Y et B – Y correspondant
à une rotation des axes de modulation de 33° par rapport à la phase de la salve de
référence (axe B – Y).
Il en résulte un vecteur dont la phase représente la teinte et l’amplitude l’intensité
(ou saturation) de la couleur (figure 1.6).
Une salve ou burst de référence (fsc = 3,579545 MHz, phase 180° par rapport à l’axe
B-Y) sur le palier du noir permet de reconstituer dans le récepteur la sous-porteuse
nécessaire pour démoduler ces signaux.
Le choix d’un multiple de la demi-fréquence ligne pour la sous-porteuse fait que
les spectres « luminance » et « chrominance » sont intercalés, ce qui permet une
séparation quasi parfaite par un filtrage en peigne (comb filter, peu utilisé dans les
récepteurs en raison de son coût).
11
9782100520442-Livre.fm Page 12 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Le NTSC s’est cependant révélé à l’usage très sensible aux rotations de phase dues à
la transmission, provoquant des virages de teinte importants, en particulier dans les
couleurs « chair » (d’où la fameuse expression « Never Twice the Same Colour »…).
Ceci a conduit les Européens à chercher des palliatifs qui ont donné naissance
(mais seulement dix ans plus tard !) aux systèmes SECAM et PAL.
12
Figure 1.6 – Le plan des couleurs en NTSC
✦
SECAM (SÉquentiel Couleur À Mémoire)
Il évite cet inconvénient en utilisant pour la sous-porteuse la modulation de
fréquence, insensible aux rotations de phase ; elle ne permet cependant pas la
modulation simultanée par deux signaux comme la modulation en quadrature.
Deux lignes consécutives étant jugées suffisamment semblables pour pouvoir être
considérées comme identiques (c’est là toute l’astuce du système), on module donc
séquentiellement de ligne à ligne la sous-porteuse alternativement par les signaux
D¢b = 1,5(B – Y) et D¢r = – 1,9(R – Y) ; à charge pour le récepteur de récupérer les
deux signaux simultanément.
La fréquence de repos de la sous-porteuse est 4,250 MHz (272 × Fh) pour D¢b et
4,406250 MHz (282 × Fh) pour D¢r .
Dans le récepteur, on utilise une ligne à retard de 64 µs (durée d’une ligne) et un
circuit permutateur qui permettent de disposer simultanément du signal D¢b de la
ligne en cours et D¢r de la ligne précédente (ou inversement).
9782100520442-Livre.fm Page 13 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 1 – LA
TÉLÉVISION EN COULEURS
:
RAPPEL DES STANDARDS ANALOGIQUES
Ce système est très robuste, mais il a pour inconvénients que la sous-porteuse,
toujours présente même dans les zones non colorées de l’image, est plus visible
qu’en NTSC ou en PAL et que le rendu des transitions entre couleurs saturées est
médiocre en raison de la nécessité de tronquer les excursions maximales de
fréquence pour ne pas trop « mordre » sur la bande de luminance.
En outre, le filtrage en peigne n’est pas possible en raison du spectre continu du
signal FM.
✦
PAL (Phase Alternating Line)
C’est un proche cousin du NTSC, dont il corrige le principal défaut. Il utilise une
sous-porteuse, verrouillée sur la fréquence ligne à 4,433619 MHz, soit
1 -⎞
135- + -----⎛ 1---------F , et modulée en quadrature par les signaux U = 0,493(B – Y) et
⎝ 4
625⎠ b
V = 0,877(R – Y).
Pour éviter les inconvénients dûs aux rotations de phase, on inverse une ligne sur
deux la phase de la porteuse V, ce qui permet, grâce à une ligne à retard de 64 µs
dans le récepteur, d’annuler les éventuelles erreurs de phase en additionnant les
signaux V de deux lignes successives (on reprend ici l’idée du SECAM considérant
deux lignes consécutives comme identiques).
La phase de la salve de référence est alternée d’une ligne à l’autre entre + 135° et
– 135° par rapport à la phase de la porteuse U (0°) pour pouvoir synchroniser le
démodulateur V dans le récepteur.
Les autres caractéristiques du PAL sont très voisines de celles du NTSC.
© Dunod. La photocopie non autorisée est un délit.
Outre le PAL « standard » (dit PAL B/G), il existe deux autres variantes moins
connues, utilisées en Amérique du Sud, où les canaux sont de 6 MHz, comme en
NTSC :
• le PAL M (Brésil, 525 lignes/60 Hz, s/p à 3,575611 MHz) ;
• le PAL N (Argentine, 625 lignes/50 Hz, s/p à 3,582056 MHz).
✦
D2MAC
Dans les années quatre-vingt, les Européens ont cherché à améliorer la qualité des
images et du son pour les nouveaux services de télévision directe par satellite, en
évitant les principaux inconvénients des systèmes « composites » (cross colour,
cross luminance, bande passante réduite) et en adoptant un son numérique, ce qui
a donné naissance aux systèmes MAC (Multiplexed Analog Components).
Le D2MAC est le plus connu des systèmes MAC, même s’il n’a pas rencontré le
succès escompté ; il remplace le multiplexage fréquentiel (partage de bande
13
9782100520442-Livre.fm Page 14 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
passante) entre luminance, chrominance et son par un multiplexage temporel
(partage de temps), et peut être considéré comme une étape vers la transmission
totalement numérique du signal TV.
À l’émission, après échantillonnage (704 points par ligne pour Y, 352 pour U et V 1)
et conversion A/N, les signaux Y, U et V sont comprimés dans le temps (facteur 2/3
pour Y et 1/3 pour U et V), éventuellement embrouillés, puis reconvertis en analogique de manière à pouvoir être transmis séquentiellement sur la ligne (figure 1.7).
14
Figure 1.7 – Une ligne de signal D2MAC
La période habituellement occupée par la synchro et la suppression ligne est
remplacée par une salve de données codées en format « duobinaire ».
Ces données transportent le son numérique, la synchronisation et d’autres informations (sous-titrage, télétexte, format 4/3 ou 16/9 de l’émission…), et en cas
d’émission à péage, les données de contrôle d’accès du système Eurocrypt qui fait
partie de la norme D2MAC.
Comme en SECAM, on transmet alternativement la composante U sur une ligne et
V sur la suivante, de manière à réduire la bande passante nécessaire, et à obtenir
une résolution égale à la moitié de la résolution luminance suivant les 2 axes de
l’image.
1. Le D2MAC est basé sur le format numérique 4:2:2 (720 points Y et 360 Cb ou Cr par ligne), mais pour des
raisons pratiques, on est conduit à réduire légèrement ces nombres ; en effet 720 points à 13,5 MHz représentent une durée de 53,33 µs, supérieure à la durée utile normalisée du signal vidéo analogique (52 µs),
ce qui entraînerait des problèmes de « clamp » dans le récepteur.
9782100520442-Livre.fm Page 15 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 1 – LA
TÉLÉVISION EN COULEURS
:
RAPPEL DES STANDARDS ANALOGIQUES
Cette résolution est pratiquement équivalente à celle du format 4:2:0 (voir le paragraphe 2.2 « formats de numérisation » au chapitre 2), et voisine de celle des systèmes professionnels au format 4:2:2 utilisés dans les studios des stations TV.
Le multiplexage temporel se traduit par une absence totale de cross-colour et crossluminance après décodage dans le récepteur (traitement essentiellement numérique qui consiste pour la vidéo à décomprimer les signaux YUV) avec une bande
passante luminance d’environ 5 MHz, ce qui se traduit par une résolution horizontale nettement améliorée par rapport au PAL ou au SECAM.
✦
PAL+
C’est un développement récent, destiné à permettre la transmission d’images 16/9
à définition améliorée (sur un récepteur 16/9 approprié) de manière compatible
avec les récepteurs PAL 4/3 du parc 1.
Pour ce faire, lors d’émissions en 16/9, le codeur PAL+ produit une image 4/3 en
format letterbox (format utilisé pour la diffusion des films cinéma à la télévision),
dont la partie visible normalement sur un récepteur PAL ordinaire occupe
432 lignes (576 × 3/4).
Cette image est obtenue par filtrage vertical passe bas à partir des 576 lignes de
l’image 16/9 d’origine ; le résultat du filtrage complémentaire (passe-haut) est
transmis sur la sous-porteuse à 4,43 MHz pendant les 144 lignes noires non utilisées, ce qui permet au récepteur PAL+ de reconstituer une image avec une pleine
résolution verticale de 576 lignes avec une perturbation relativement faible des
récepteurs 4/3.
© Dunod. La photocopie non autorisée est un délit.
D’autre part, afin de pouvoir disposer d’un maximum de bande passante luminance (5 MHz) et de réduire les effets de cross-colour et cross-luminance, la phase
de la sous-porteuse des deux lignes contiguës des deux trames constituant une
image est transmise en opposition de phase.
Ceci permet d’annuler le cross-color dans le récepteur en ajoutant la partie haute du
spectre des deux trames et d’annuler le cross-luminance en les soustrayant, d’où la
nécessité d’une mémoire de trame, qui contribue au prix élevé des récepteurs PAL+.
Une détection de mouvement permet d’éviter les défauts introduits par ce procédé
connu sous le nom de « colorplus » sur les objets colorés en mouvement rapide.
1. Les études du PAL+ ont eu lieu de 1990 à 1992 ; après une période expérimentale de plus d’un an, les émissions officielles ont démarré en 1995 lors du salon de Berlin (IFA).
Le PAL+ est officiellement adopté par la plupart des pays utilisant le système PAL.
Le système de signalisation de format WSS peut toutefois être utilisé indépendamment du PAL+, notamment en PAL « ordinaire » et en SECAM pour signaler les émissions 16/9.
15
9782100520442-Livre.fm Page 16 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
On obtient ainsi une image 16/9 de qualité comparable à celle du D2MAC, à condition toutefois d’être dans de très bonnes conditions de réception (rapport
signal/bruit élevé).
Afin que le récepteur puisse être informé du format de l’émission en cours, des bits
de signalisation de format (WSS, Wide Screen Signalling) ont été ajoutés sur la
première moitié (inutilisée) de la ligne 23 (figure 1.8), pour permettre au récepteur
d’adapter son format d’affichage.
16
Figure 1.8 – La ligne 23 PAL+ (WSS)
Ces bits peuvent également être utilisés par des récepteurs 16/9 ordinaires pour
faire varier l’amplitude verticale du balayage, sans tirer profit des autres avantages
du PAL+ ; c’est ce que l’on appelle parfois familièrement le « PAL plus du pauvre »
(Poor man’s PAL+)...
Après cette entrée en matière (un peu longue ?), nous allons tenter de décrire le
plus simplement possible, sans rentrer dans des détails inutilement complexes, les
principes qui ont permis la mise en service d’une nouvelle génération de télévision
entièrement numérique, dont l’impact sur notre façon d’utiliser ces nouvelles
images est encore difficile à imaginer aujourd’hui.
9782100520442-Livre.fm Page 17 Jeudi, 24. juin 2010 11:35 11
Chapitre 2
La numérisation
des signaux vidéo
2.1
17
Numériser la vidéo, pour quoi faire ?
© Dunod. La photocopie non autorisée est un délit.
Depuis de nombreuses années déjà, les professionnels de la vidéo utilisent dans
les studios des chaînes de télévision des formats numériques divers (par exemple
D1 en « composantes », D2 en « composite ») pour l’enregistrement, la manipulation, le montage et la copie des signaux vidéo.
Afin de faciliter l’interopérabilité des matériels et l’échange de programmes, le
CCIR (Comité Consultatif International des Radiocommunications 1) a normalisé
les conditions de numérisation (recommandation CCIR 601) et d’interface (recommandation CCIR 656) des signaux vidéo numériques en composantes (Y, Cb, Cr) au
format 4:2:2.
Les principaux avantages de ces formats numériques normalisés sont de permettre
des copies multiples sans aucune dégradation de la qualité des images, de créer des
effets spéciaux irréalisables en analogique, ainsi que de faciliter les montages de
toute sorte et les échanges internationaux indépendamment du standard utilisé
ensuite pour la diffusion (NTSC, PAL, SECAM, D2MAC, MPEG…).
1. Le CCIR (Comité Consultatif International de la Radiodiffusion), branche « Radiodiffusion » du CCITT
(Comité Consultatif International du Télégraphe et du Téléphone), est devenu IUT-R lorsque le CCITT est
devenu IUT (International Union for Telecommunications).
9782100520442-Livre.fm Page 18 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Le revers de la médaille, sans recours à la compression, est toutefois un débit très
important, qui les rend pratiquement inutilisables pour la transmission vers les
téléspectateurs.
2.2
18
Formats de numérisation (4.2.2, 4.2.0, SIF, CIF, 720p,
1080i, 1080p)
En effet, pour numériser un signal analogique de bande passante Fmax, il faut tout
d’abord l’échantillonner (prélever sa valeur) avec une fréquence d’échantillonnage
Féch au moins égale à 2 fois la fréquence maximale du signal pour ne pas perdre
d’information (théorème de l’échantillonnage de Shannon).
Ceci permet d’éviter les effets néfastes du repliement de spectre (aliasing) : en effet,
l’échantillonnage crée deux bandes « parasites » autour de la fréquence d’échantillonnage qui s’étalent de Féch – Fmax à Féch + Fmax, ainsi qu’autour de tous ses
harmoniques (figure 2.1).
Pour que le spectre d’entrée et la partie inférieure du spectre « parasite » ne se
mélangent pas, il faut que Féch – Fmax > Fmax, ce qui est réalisé si Féch > 2Fmax : un
filtrage suffisamment efficace est donc nécessaire avant conversion pour garantir
que le spectre du signal d’entrée est limité à Fmax, avec en outre une atténuation
aussi faible que possible de la bande passante utile.
Compte tenu des courbes de réponse de filtres réalisables pratiquement, la fréquence
d’échantillonnage devra être supérieure à la valeur minimale théorique de 2Fmax.
Pour le cas d’un signal vidéo, dont la bande passante à la source est de 6 MHz environ, le CCIR préconise une fréquence d’échantillonnage de 13,5 MHz 1 verrouillée
1. Pour certaines applications « multimédia » (vidéo sur PC essentiellement), on utilise souvent d’autres fréquences d’échantillonnage pour obtenir ce que l’on appelle des pixels carrés, facilitant le mélange d’images
vidéo et informatiques sans distorsion de rapport d’aspect.
En effet, le rapport d’aspect (rapport largeur / hauteur) de l’image TV standard et des moniteurs informatiques est de 4/3, et pour que les résolutions horizontale et verticale soient identiques, ce qui est le cas des
formats graphiques informatiques actuels, il faut que le nombre de pixels par ligne et le nombre de lignes
utiles soient aussi dans le rapport 4/3, ce qui n’est le cas, avec un échantillonnage à 13,5 MHz, ni en
525 lignes (720/480 > 4/3), ni en 625 lignes (720/576 < 4/3).
En 525 lignes (480 lignes utiles), les «pixels carrés» impliquent 640 pixels/ligne (640 = 480 × 4/3) ce qui
est obtenu avec une fréquence d’échantillonnage de 12,2727 MHz.
Ce n’est pas un hasard si ce format de 640 × 480 correspond à la résolution du mode graphique VGA de
base (fréquence ligne 31 468 Hz / fréquence trame 59,94 Hz), qui est en fait une version non entrelacée (ou
« progressive ») du standard de balayage NTSC…
En 625 lignes (576 lignes utiles), il faut 768 pixels/ligne (768 = 576 × 4/3), ce qui requiert une fréquence
d’échantillonnage de 14,75 MHz.
Les formats à haute définition 720p et 1080i, dont le nombre de pixels horizontaux et verticaux est dans le
même rapport que le format de l’‘image (16/9), sont des formats à « pixels carrés ».
9782100520442-Livre.fm Page 19 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 2 – LA
NUMÉRISATION DES SIGNAUX VIDÉO
Figure 2.1 – Spectre d’un signal échantillonné avec Féch > 2Fmax
sur la fréquence ligne Fh (864Fh pour les systèmes à 625 lignes, 858Fh pour les
systèmes à 525 lignes).
La partie utile de la ligne compte 720 échantillons dans les deux cas.
Un tel échantillonnage, qui détermine une structure fixe des échantillons par
rapport à l’image à la fois d’une ligne à l’autre et d’une image à l’autre, est dit orthogonal (figure 2.2) ; les échantillons, qui forment les pixels de l’image (ou pels en
abrégé), se situent sur une grille rectangulaire.
La manière la plus « économique » en bits, mais qui donnera au mieux une qualité
équivalente à un bon signal composite analogique semble donc a priori de numériser
celui-ci à 13,5 MHz.
© Dunod. La photocopie non autorisée est un délit.
La résolution minimum pour la quantification d’un signal vidéo avec une qualité
suffisante pour sa diffusion vers un terminal de visualisation est de 8 bits (le rapport
signal/bruit maximal est en effet d’environ 6 dB par bit de quantification, soit
environ 48 dB pour 8 bits).
Ceci donne donc un débit minimum de 13,5 × 8 = 108 Mb/s, ce qui est déjà considérable.
Cependant, la forme « composite » du signal numérisé offre peu d’avantages par
rapport au signal analogique lui-même au niveau de la production, si ce n’est la
copie sans dégradation.
C’est pourquoi cette manière de numériser le signal vidéo n’est pratiquement pas
utilisée à la source dans les applications broadcast, le signal numérique composite
s’adaptant assez mal aux différentes manipulations du signal vidéo (trucages,
compression) ainsi qu’aux échanges internationaux.
19
9782100520442-Livre.fm Page 20 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
20
Figure 2.2 – Structure d’échantillonnage orthogonal
2.2.1 Le format 4:2:2
La recommandation CCIR 601, établie en 1982 définit donc pour ces applications
les conditions de numérisation des signaux vidéo, basées sur un signal YCbCr au
format dit 4:2:2 (4 échantillons Y pour 2 échantillons Cb et 2 échantillons Cr), avec
une numérisation sur 8 bits, avec possibilité d’extension à 10 bits pour les applications les plus exigeantes.
Quel que soit le standard de balayage, la fréquence d’échantillonnage est de
13,5 MHz pour la luminance Y et de 6,75 MHz pour les signaux de chrominance Cb
et Cr , ce qui correspond à une définition de 720 échantillons par ligne en luminance et 360 échantillons par ligne en chrominance, dont la position correspond à
celle des échantillons impairs de luminance (figure 2.3).
Les signaux Cb et Cr étant disponibles simultanément à chaque ligne, la définition
verticale est identique pour la luminance et la chrominance, et correspond au
nombre de lignes utiles du standard d’analyse de départ (480 pour les standards à
525 lignes, 576 pour ceux à 625 lignes).
9782100520442-Livre.fm Page 21 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 2 – LA
NUMÉRISATION DES SIGNAUX VIDÉO
Figure 2.3 – Position des échantillons dans le format 4:2:2
Le débit brut résultant est donc : 13,5 × 8 + 2 × 6,75 × 8 = 216 Mb/s (270 Mb/s
avec 10 bits).
La numérisation de la partie utile du signal vidéo ne demande toutefois « que »
166 Mb/s si on tient compte de l’inutilité de numériser les intervalles de suppression
(souvent appelés blanking) ligne et trame. On peut donc tirer profit de ces temps
libres pour transporter des voies son numériques et des données de service ou
autres.
La recommandation CCIR 656, quant à elle, définit l’interface normalisée pour les
échanges de signaux au format 4:2:2, et même les connecteurs associés pour les
applications de studio.
© Dunod. La photocopie non autorisée est un délit.
Sans entrer dans les détails, disons que cette « norme » fournit les signaux Y Cb Cr
obtenus en numérisant le signal selon CCIR 601 sous une forme mutiplexée dans le
temps (Cr1Y1Cb1Y2Cr3Y3Cb3…) sur un même « bus » parallèle de 8 bits associé à
une horloge synchrone de 27 MHz (une période par échantillon Y, Cb ou Cr).
La synchronisation ainsi que la transmission de données pendant la période de
suppression sont incluses dans le flux de données, et les connecteurs normalisés
sont de type DB25.
Il existe également une forme « série » de l’interface CCIR 656, plus simple au
niveau de la connectique (BNC) et mieux adaptée à la transmission, mais générant
un débit légèrement supérieur (243 Mb/s) en raison du codage des données sur 9
bits dans ce mode.
2.2.2 Les formats 4:2:0, SIF, CIF et quart de CIF
Pour les applications moins exigeantes en résolution, et visant des débits de transmissions aussi faibles que possibles, certains « sous-produits » du format 4:2:2 ont
été définis :
21
9782100520442-Livre.fm Page 22 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
✦
Le format 4:2:0
Il est obtenu à partir du standard 4:2:2 en utilisant la même chrominance pour
« colorier » deux lignes successives, de manière à réduire le débit et la quantité de
mémoire dans les circuits de traitement tout en procurant une résolution chrominance verticale équivalente à la résolution horizontale, donc suffisante.
La figure 2.4 montre la position des échantillons dans le format 4:2:0.
Figure 2.4 – Position des échantillons dans le format 4:2:0
22
Afin d’éviter le sautillement désagréable observé lors des transitions horizontales
très violentes en SECAM (où une chrominance provient de la ligne en cours de
balayage alors que l’autre vient de la précédente), les échantillons Cb et Cr transmis
sont obtenus en moyennant ceux des deux lignes successives qu’ils « colorieront » à
la reproduction.
La résolution luminance et la résolution horizontale chrominance sont identiques
au 4:2:2.
C’est ce format qui sert de base de départ aux codages D2MAC et MPEG2 ([email protected]).
✦
Le format SIF (Source Intermediate Format)
Il a une résolution luminance de 360 × 240 à une fréquence image de 29,97 Hz ou
360 × 288 à 25 Hz selon le standard d’origine (525 ou 625 lignes).
La figure 2.5 illustre la position des échantillons dans le format SIF.
En luminance, il est obtenu en supprimant une trame sur deux (plus d’entrelacement) et en effectuant un filtrage horizontal réduisant d’un facteur 2 le nombre
d’échantillons par ligne.
9782100520442-Livre.fm Page 23 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 2 – LA
NUMÉRISATION DES SIGNAUX VIDÉO
Figure 2.5 – Position des échantillons dans le format SIF
En chrominance, on effectue à partir de la trame d’origine un filtrage à la fois horizontal et vertical, ce qui donne une résolution de 180 × 144 ou 180 × 120 selon le
standard.
Cette résolution, à peu près équivalente à celle d’un magnétoscope VHS, est utilisée
comme base de départ pour la compression MPEG1 que nous étudierons plus loin.
✦
Le format CIF (Common Intermediate Format)
© Dunod. La photocopie non autorisée est un délit.
Il est un compromis entre les formats SIF européen et américain, défini pour servir
de base aux applications de visiophonie : il reprend la résolution spatiale dérivée du
625 lignes (360 × 288) et la résolution temporelle du 525 lignes (29,97 Hz).
✦
Le format QCIF (Quart de CIF)
Il divise encore cette résolution par quatre (deux selon chaque axe), en luminance
comme en chrominance ; il est utilisé comme base pour la compression H261 dans
les applications de type visiophone ou vidéo conférence sur RNIS.
La résolution temporelle est également divisée par deux ou quatre (fréquence de
rafraîchissement d’image de 15 ou 7,5 Hz pour le visiophone).
2.2.3 Les formats à haute définition 720p, 1080i, 1080p
Après quelques faux départs (MUSE, HD-MAC…), les conditions nécessaires à un
démarrage à grande échelle de la Télévision à Haute définition semblent enfin
réunies.
23
9782100520442-Livre.fm Page 24 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Deux formats standard de départ ont été retenus pour les applications TVHD
« broadcast », chacun décliné en deux variantes (59.94 / 60 Hz et 50 Hz selon le
continent) :
• Le format 720p : c’est un format à balayage progressif de résolution horizontale 1280 pixels et de résolution verticale 720 lignes (ou pixels).
• Le format 1280i : ce format à balayage entrelacé offre une résolution horizontale de 1920 pixels et une résolution verticale de 1080 pixels.
Pour ces deux formats, les résolutions horizontale et verticale sont équivalentes,
car elles sont dans le même rapport que le rapport d’aspect de l’image (16/9).
Un rapide calcul du débit nécessaire à la numérisation en format 4 :4 :4 de ces deux
formats HD donne des débits de l’ordre de 1 à 1,5 Gb/s selon la fréquence de rafraîchissement et la résolution, soit 4 à 5 fois plus que qu’une image à définition standard.
Le format 1080p (utilisé par exemple par le disque Blu-rayTM) est pour le moment
jugé trop « gourmand » en bande passante pour les applications broadcast.
2.3
24
Problèmes de transport
On conçoit qu’un débit de l’ordre de 200 Mb/s nécessité par la norme 4:2:2 telle
quelle ne puisse être envisagée pour diffuser le signal vidéo vers l’utilisateur final,
car il nécessiterait une bande passante au moins égale à 5 ou 6 fois celle occupée
par un signal analogique PAL ou SECAM : de fait, avec une technique de modulation 64-QAM (adaptée au transport sur câble, avec des symboles de 6 bits) environ
40 MHz seraient nécessaires ; avec une modulation QPSK (adaptée au satellite, avec
des symboles de 2 bits), c’est une largeur d’environ 135 MHz qui serait occupée !
(voir chapitres 6 et 7 consacrés au codage de canal et à la modulation).
Ce serait bien entendu encore moins envisageable avec les débits 4 à 5 fois plus
élevés générés par la numérisaton d’images à haute définition en 720p ou 1080i.
C’est la conviction que l’on ne saurait résoudre avant longtemps ce problème de
manière économique – notamment en raison du coût des mémoires nécessaires à
la compression du signal vidéo – qui a retardé le démarrage de la télévision à diffusion 100 % numérique, et donné naissance dans les années quatre-vingt aux standards hybrides tels que D2MAC (vidéo analogique, son numérique) pour la
transmission de qualité améliorée.
Les progrès de la compression vidéo et de l’intégration dans la seconde moitié des
années quatre-vingt ont précipité les événements, rendant ainsi ces standards
pratiquement obsolètes aujourd’hui !
9782100520442-Livre.fm Page 25 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 2 – LA
NUMÉRISATION DES SIGNAUX VIDÉO
Les conditions sine qua non à remplir pour pouvoir envisager de lancer un service
de diffusion de télévision numérique imposaient donc de trouver des solutions à
des problèmes que l’on peut classer en deux grandes catégories :
2.3.1 Le codage de source
Il s’agit ici de mettre au point des techniques de compression vidéo et audio visant à
réduire le débit numérique – en terme de mégabits par seconde d’images animées
de résolution donnée – à une valeur aussi faible que possible, mais compatible avec
une dégradation pratiquement imperceptible du rendu de l’image télévisée en
mouvement et du son associé.
2.3.2 Le codage de canal
Il consiste à développer des algorithmes de correction d’erreurs associés à des techniques de modulation les plus efficaces possibles (en terme de Mb/s par MHz),
compte tenu de la bande passante disponible et des défauts prévisibles du canal de
transmission (bruit, échos...).
Bien d’autres problèmes étaient également à résoudre, mais on peut en première
analyse les considérer comme secondaires…
2.4
Séquence des opérations à l’émission
© Dunod. La photocopie non autorisée est un délit.
Plusieurs programmes pouvant être transmis sur un seul canal RF, la séquence des
opérations à l’émission peut être illustrée schématiquement par la figure 2.6.
Figure 2.6 – Séquence des principales opérations à l’émission
Nous suivrons l’ordre des blocs fonctionnels de cette figure pour détailler ces différentes opérations dans les chapitres suivants.
25
9782100520442-Livre.fm Page 26 Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page 27 Jeudi, 24. juin 2010 11:35 11
Chapitre 3
La compression
des signaux vidéo et audio
27
Nous avons laissé entendre dans le chapitre précédent que la compression était
absolument indispensable à la transmission d’images vidéo dans un canal de
largeur acceptable.
© Dunod. La photocopie non autorisée est un délit.
Une occupation spectrale comparable à celle d’une transmission analogique
actuelle implique en effet un débit utile maximum de l’ordre de 30 à 40 Mb/s pour
pouvoir « passer » sur un canal satellite de 27 à 36 MHz ou un canal câble de 6 à
8 MHz (avec les modulations et les dispositifs de correction d’erreurs adaptées à
ces deux cas, que nous étudierons aux chapitres 6 et 7).
Nous allons maintenant examiner les principes et les étapes de la compression
permettant d’obtenir ce résultat (et même, en fait, aujourd’hui beaucoup mieux),
et aux différentes normes actuellement ou prochainement utilisées.
Ces méthodes de compression font appel à des procédés généraux de compression
de données et exploitent en outre la redondance spatiale interne à une image
(plages uniformes), la corrélation entre les points voisins et la moindre sensibilité
de l’œil aux détails fins pour les images fixes (JPEG) et de plus, pour les images
animées (MPEG), la redondance temporelle entre images successives.
9782100520442-Livre.fm Page 28 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
3.1
Quelques principes généraux de compression de données
3.1.1 Codage RLC (Run Length Coding)
Lorsqu’une source d’information émet des éléments de message pouvant comporter des suites relativement longues d’éléments identiques, ce qui est le cas de la
transformée DCT après seuillage et quantification (voir ci-après), il est intéressant
de ne pas coder individuellement chaque élément, mais de coder plutôt le couple
valeur/nombre de répétitions, ce qui donne un facteur de réduction de débit
d’autant plus important que la suite est plus longue.
Ce codage ne perd aucune information : il est dit réversible.
Ce type de codage est couramment employé pour la compression en vue du stockage en informatique (compression de fichiers ZIP, etc.) ainsi que pour la télécopie.
Il peut être combiné à un codage à longueur variable (VLC) pour en augmenter
l’efficacité.
28
3.1.2 Codage à longueur variable ou entropique (VLC, Variable Length Coding)
Ces systèmes de codage sont basés sur le fait que la probabilité d’apparition d’un
élément (ou message) codé sur n bits généré par une source parmi les 2 puissances
n possibles n’est pas équivalente pour tous les éléments. On aura donc intérêt à
coder sur moins de bits les éléments d’apparition fréquente et sur plus de bits les
éléments plus rares, pour obtenir une longueur moyenne inférieure à la longueur
fixe, ce qui permet une réduction de débit.
Ceci implique cependant soit une analyse préalable de la suite des éléments à transmettre, incompatible avec le « temps réel », soit la connaissance a priori obtenue
statistiquement de la probabilité d’apparition de tous les éléments possibles (selon
la nature de l’information transmise par la source).
Par exemple, la fréquence d’apparition des différentes lettres de l’alphabet dans
une langue donnée est connue, ce qui permet d’utiliser ce type de codage pour la
compression de textes.
Le cas des images vidéo transformées par DCT se prête bien à ce codage en
raison de la concentration de l’information sur peu de coefficients, à l’inverse de
la forme temporelle du signal vidéo dont tous les échantillons ont des valeurs
équiprobables.
On démontre que la quantité d’information Q (en bits) transmise par un élément
est égale au logarithme (base 2) de l’inverse de sa probabilité d’apparition p :
1
Q = log 2 ⎛⎝ --⎞⎠ = – log 2 ( p )
p
9782100520442-Livre.fm Page 29 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
On appelle entropie H d’une source d’informations (exprimée en bits par message)
la somme des produits de la quantité d’information de chaque message par sa
probabilité d’apparition.
H =
∑ pi log2 ⎛⎝ ---pi⎞⎠
1
i
Le but du codage à longueur variable, dont le plus connu est celui de Huffman, est
de s’approcher le plus possible du débit entropique (nombre de bits par élément
aussi proche que possible de l’entropie de la source).
L’algorithme de Huffman suppose la connaissance préalable de la probabilité de
chaque élément, et permet d’approcher le débit entropique ; il fonctionne de la
manière suivante :
© Dunod. La photocopie non autorisée est un délit.
• On reclasse d’abord chacun des éléments par ordre de probabilité décroissante pour constituer une « table des occurrences » (deux colonnes de
gauche de la figure 3.1).
• On prend ensuite les 2 éléments de probabilité la plus faible et on les
regroupe en un seul élément de probabilité égale à la somme des deux
probabilités ; on attribue le bit 0 à celui de plus faible probabilité et 1 à
l’autre. On a ainsi réduit d’un élément la liste, et on recommence en regroupant ce nouvel élément avec celui de probabilité la plus faible restant, et ainsi
de suite jusqu’à épuisement de tous les éléments de la liste (probabilité
cumulée de 100 %).
• On bâtit ainsi l’arbre de codage de Huffman (partie centrale figure 3.1) où
l’on attribue à chaque élément le code obtenu en mettant bout à bout les bits
rencontrés sur le chemin suivi pour l’atteindre, ce qui donne la table des
codes finale (colonne de droite figure 3.1).
Pour illustrer cette méthode (figure 3.1), nous avons supposé un message formé
des 8 éléments A, B, C, D, E, F, G, H de probabilités respectives :
p(A) = 40 %, p(B) = 5 %, p(C) = 20 %, p(D) = 2 %, p(E) = 10 %, p(F) = 3 %,
p(G) = 14 %, p(H) = 6 %.
Dans cet exemple, le calcul de la longueur moyenne des mots après codage (somme
des produits du nombre de bits de chaque élément par sa probabilité) donne
1
2,51 bits, alors que l’entropie théorique ∑ p i log 2 ⎛ ---⎞ est de 2,44 bits : l’efficacité
⎝ p i⎠
i
du codage de Huffman est donc très bonne.
29
9782100520442-Livre.fm Page 30 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 3.1 – Application de l’algorithme de codage de Hufmann.
Les zones grisées matérialisent les correspondances horizontales non contiguës
Comme il y a 8 éléments différents dans la table, un codage binaire pur nécessiterait
3 bits par élément : le gain apporté par le codage de Huffmann est donc ici :
30
3,00
– 2,51- = 0,49
--------- = 16,3 % environ
----------------------3
3
Ce type de codage est réversible et peut s’appliquer aux signaux vidéo en complément d’autres méthodes permettant de générer des éléments dont la probabilité
n’est pas uniforme (DCT par exemple) ; dans ce cas le gain de compression peut
être beaucoup plus important.
3.2
Cas particulier des images :
la transformée en cosinus discrète (DCT)
La transformée en cosinus discrète (Discrete Cosine Transform, DCT) est un cas
particulier, appliqué aux signaux discrets (échantillonnés), de la transformée de
Fourier, qui décompose un signal périodique en une série de fonctions sinus et
cosinus harmoniques.
Nous ne nous étendrons pas sur les détails mathématiques, mais nous dirons
simplement que, sous certaines conditions, la DCT décompose le signal en une
série de fonctions uniquement cosinus harmoniques en phase avec le signal
d’origine, ce qui réduit de moitié le nombre de coefficients nécessaires par rapport
à une transformée de Fourier.
9782100520442-Livre.fm Page 31 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
Dans le cas d’une image, nous travaillons à partir d’un signal échantillonné bidimensionnel et nous aurons affaire à une DCT en deux dimensions (horizontale et
verticale), qui transformera les valeurs de luminance (ou de chrominance) discrètes
d’un bloc de N × N pixels en un autre bloc de N × N coefficients correspondant à
l’amplitude de chacune des fonctions cosinus harmoniques.
Dans le bloc transformé, les coefficients des fréquences horizontales croissantes
vont de gauche à droite sur l’axe horizontal et ceux des fréquences verticales croissantes de haut en bas sur l’axe vertical.
Afin de réduire la complexité et le temps de traitement par les circuits intégrés, on a
choisi de découper l’image en blocs de 8 × 8 pixels (figure 3.2) que la DCT transforme en une matrice de 8 × 8 coefficients, dont le premier (en haut à gauche, coordonnées 0, 0) donne la composante continue (DC) représentant l’intensité moyenne
du bloc, et le dernier (en bas à droite), la composante de fréquence spatiale la plus
élevée selon les deux axes (figure 3.3).
La figure 3.4 représente de façon visuelle la contribution de chacun des coefficients
à l’aspect du bloc de 8 × 8 pixels d’origine (l’aspect du bloc pourrait être obtenu en
pondérant chacune de ces cases par son coefficient et en additionnant l’ensemble).
© Dunod. La photocopie non autorisée est un délit.
Selon le nombre de détails contenus dans ce bloc, les coefficients de fréquence
croissante seront plus ou moins élevés, mais ils diminuent en général très rapidement avec la fréquence en raison de la moindre énergie des fréquences spatiales
élevées dans les images naturelles.
Figure 3.2 – Découpage en blocs de 8 × 8 pixels
(les valeurs représentent l’intensité lumineuse d’un pixel)
31
9782100520442-Livre.fm Page 32 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 3.3 – Transformation du bloc de 8 × 8 pixels en matrice de 8 × 8 coefficients
32
Figure 3.4 – Illustration de la contribution de chacun des coefficients à l’aspect du bloc
9782100520442-Livre.fm Page 33 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
La DCT a donc la propriété remarquable de concentrer l’énergie du bloc sur peu de
coefficients situés dans l’angle supérieur gauche ; d’autre part, les coefficients sont
décorrélés les uns des autres. Ceci pourra être mis à profit dans les étapes ultérieures
de la compression.
Jusqu’à ce point, le traitement effectué par la simple DCT est réversible (sans perte
d’information).
Cependant, compte tenu des particularités psycho-physiologiques de la vision
humaine (moindre sensibilité de l’œil aux fréquences spatiales élevées), on peut
effectuer ensuite un seuillage fonction de la fréquence : les valeurs inférieures à un
seuil déterminé, considérées comme peu ou non visibles, seront mises à 0 ; il y a là
évidemment perte d’information (non réversibilité), mais avec peu d’incidence sur
la qualité subjective de l’image.
Les coefficients seront enfin quantifiés avec une précision de plus en plus faible
lorsque la fréquence augmente, permettant ainsi une réduction supplémentaire de
la quantité d’information nécessaire à coder un bloc ; là encore, il y a perte d’information, donc non réversibilité. Les paramètres de la quantification pourront être
utilisés pour réguler le débit lors de la transmission d’images animées (nous
verrons comment dans le cas de la compression MPEG plus loin).
© Dunod. La photocopie non autorisée est un délit.
Le résultat du processus seuillage/quantification est illustré par la figure 3.5.
Figure 3.5 – Résultat du processus : seuillage + quantification
La suite des coefficients obtenus est ensuite lue en balayant la matrice en zigzag
(figure 3.6).
33
9782100520442-Livre.fm Page 34 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 3.6 – Lecture de la matrice en zigzag
Cette méthode permettant d’obtenir le plus rapidement possible des suites relativement longues de coefficients nuls, ceci augmente encore l’efficacité des traitements
ultérieurs (codages RLC et VLC décrits ci-avant).
34
3.3
Application à la compression d’images fixes (JPEG)
Les premières applications visant à réduire la quantité d’informations nécessaire
au codage d’images fixes ont vu le jour il y a une dizaine d’années, avec comme
principal objectif de réduire de façon significative la taille des fichiers graphiques,
puis de photographies, en vue de leur stockage ou de leur transmission.
L’ISO (International Standard Organization) a créé en 1990 un groupe de travail
international baptisé JPEG (Joint Photographic Experts Group) pour élaborer une
norme de compression d’images photographiques de résolutions variables, sous
forme YCbCr ou RVB.
Cette norme, publiée en 1993 sous la référence ISO/IEC 10918, est très ouverte et peut
être considérée comme une « boîte à outils » pour la compression d’images fixes.
Nous n’entrerons pas dans son détail, ce qui n’est pas l’objet de cet ouvrage, mais nous
décrirons néanmoins ses principes, qui ont largement inspiré les normes MPEG.
Il est à noter que la compression JPEG peut être avec ou sans pertes (réversible),
selon le but et le taux de compression recherchés, mais les utilisations les plus
9782100520442-Livre.fm Page 35 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
courantes sont avec pertes, ce qui permet d’atteindre, selon la nature de l’image,
des taux de compression supérieurs à 10 sans dégradation notable de qualité.
Dans le cas du codage avec pertes, dont le processus sera repris en grande partie par
MPEG pour les images animées, la compression JPEG se décompose en 6 étapes :
✦
Décomposition en blocs
L’image d’origine sous forme YCbCr est découpée en blocs élémentaires de
8 × 8 pixels, (figure 3.2) soit, pour une image au format CCIR 601 de 720 × 576, un
total de 6 480 blocs de luminance Y et 3 240 blocs pour chacune des composantes
Cb et Cr .
Chacun de ces blocs forme une matrice de 64 nombres de 0 à 255 (résultat de la
numérisation sur 8 bits) pour la luminance et de – 128 à + 127 pour les composantes
Cb et Cr .
✦
Transformation DCT
Comme nous l’avons vu plus haut, cette transformation appliquée à chacun des
blocs (Y, Cb, Cr) génère pour chacun d’eux une nouvelle matrice 8 × 8 (figure 3.3)
composée des coefficients des composantes de fréquences spatiales de plus en plus
élevées au fur et à mesure que l’on s’éloigne de l’origine (en haut à gauche) qui
représente la composante continue (luminance moyenne) du bloc.
La valeur de ces coefficients diminue rapidement en s’éloignant de l’origine de la
matrice, qui se termine généralement par une série de 0.
Ainsi, si un bloc est de luminance et de couleur uniformes, seul le premier coefficient ne sera pas nul, on aura donc un seul coefficient au lieu de 64 à transmettre.
© Dunod. La photocopie non autorisée est un délit.
✦
Seuillage et quantification
Cette étape tient compte des particularités de la vision humaine (l’œil ne distingue
pas les détails fins au-dessous d’un certain niveau de luminance) : elle consiste à
mettre à 0 les coefficients inférieurs à une valeur prédéterminée et à coder les coefficients restants avec une précision décroissante quand la fréquence augmente.
À la différence des 63 autres (AC), le coefficient de fréquence nulle (DC) est codé en
DPCM (Differential Pulse Code Modulation : codage différentiel par rapport à celui
du bloc précédent) ce qui permet d’augmenter la précision de quantification à
nombre de bits donné, de manière à minimiser la visibilité des blocs sur l’image
reconstituée, car l’œil, s’il est peu sensible aux détails fins, est au contraire très
sensible à de faibles différences de luminance sur les plages uniformes.
35
9782100520442-Livre.fm Page 36 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
✦
Lecture en zigzag
À l’exception du coefficient DC traité séparément, les 63 coefficients AC sont lus en
zigzag (figure 3.6) pour transformer la matrice en un flot de données série adapté
aux prochaines étapes du processus (codage RLC et VLC).
✦
Codage RLC
Afin de tirer parti au maximum des suites de coefficients nuls fournis par la quantification et la lecture en zigzag, on code le nombre d’occurrences des coefficients nuls
et la valeur du prochain non nul, ce qui réduit le nombre de données à transmettre.
✦
Codage entropique de Huffman (VLC)
Cette dernière étape consiste à coder les coefficients avec une longueur d’autant
plus courte qu’ils sont plus fréquents statistiquement, comme nous l’avons vu plus
haut.
Ces deux dernières étapes (RLC + VLC) permettent à eux seuls un facteur de
compression de l’ordre de 2 à 3.
36
Figure 3.7 – Décodage JPEG, schéma de principe
9782100520442-Livre.fm Page 37 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
Lorsque le temps de compression/décompression n’est pas primordial, ce qui est
souvent le cas pour des images fixes, ces opérations peuvent être entièrement logicielles.
Il existe cependant un certain nombre de processeurs spécialisés (surtout pour le
décodage) permettant une accélération très importante de ces processus, dont le
schéma de principe est visible à la figure 3.7.
Nous ne décrirons pas le codage JPEG sans perte, car du fait qu’il utilise un codage
de type prédictif à la place de la DCT, il est assez peu similaire au codage MPEG que
nous allons aborder maintenant.
3.4
La compression d’images animées (MPEG)
En 1990, le besoin de stocker sous forme numérique et de reproduire des images
animées et le son stéréophonique associé sur diverses plates-formes a conduit à la
formation par l’ISO d’un groupe d’experts (MPEG, Moving Picture Experts Group)
venant de toutes les parties concernées par le problème (Informatique, Télécommunications, Électronique grand public, Semiconducteurs, Radiodiffusion,
Universités).
Le travail de ce groupe s’est concrétisé tout d’abord en 1992 par la norme ISO/IEC
11172, beaucoup plus largement connue sous le nom de MPEG-1.
Le but principal était de permettre le stockage et la reproduction sur support
CD-ROM (à l’époque à « simple vitesse » uniquement) ou CD-I, avec un débit de
l’ordre de 1,5 Mb/s (image + son).
© Dunod. La photocopie non autorisée est un délit.
Outre la redondance spatiale intrinsèque d’une image fixe utilisée dans le codage
JPEG, le codage d’images animées permet en effet d’exploiter la forte redondance
temporelle des images successives qui constituent une séquence vidéo.
Étant donné le taux de compression à atteindre (plus de 100 par rapport au format
4:2:2 de la norme CCIR 656 !), on réduit d’entrée de jeu la difficulté de la tâche en
sacrifiant la résolution.
Le format de départ des images sera donc le SIF (360 × 288 @ 25 Hz ou 360 × 240 @
30 Hz), dont la résolution correspond à peu près à celle d’un magnétoscope grand
public.
Ces images pourront être éventuellement accompagnées d’un son stéréophonique
haute-fidélité similaire à celui de la norme MUSICAM définie pour la radio numérique DAB (Digital Audio Broadcasting).
37
9782100520442-Livre.fm Page 38 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Nous examinerons les principes du codage audio dans le chapitre suivant qui lui est
consacré.
La norme MPEG-1 se compose de 3 parties distinctes :
• MPEG system (ISO/IEC 11172-1) : définit la structure du multiplex MPEG-1 ;
• MPEG video (ISO/IEC 11172-2) : définit le codage vidéo MPEG-1 ;
• MPEG audio (ISO/IEC 11172-3) : définit le codage audio MPEG-1.
3.4.1 Le codage vidéo MPEG-1 (applications multimédia)
Le principal objectif était d’atteindre un débit constant total de 1,5 Mb/s (débit d’un
CD-ROM simple vitesse) dont 1,15 Mb/s pour la partie purement vidéo de MPEG-1,
les 350 Kb/s restants étant utilisés par le son (stéréo) et des données auxiliaires.
Le codage vidéo utilise les mêmes principes que JPEG avec pertes, auxquels sont
adjointes de nouvelles techniques formant ensemble la « boîte à outils » MPEG-1 et
permettant de réduire considérablement la quantité d’informations nécessaire à la
transmission d’images successives fortement corrélées temporellement.
38
Ces techniques dites de « prédiction avec compensation de mouvement » consistent à permettre de déduire avec un minimum d’informations additionnelles la
plupart des images de celles qui les précèdent (et même qui les suivent !), nous
verrons comment plus loin.
Ceci nécessite dans le codeur un dispositif d’estimation de mouvement, qui est la
partie la plus complexe (cette fonction n’est heureusement pas nécessaire dans le
décodeur).
S’agissant d’images animées, le décodage devra pouvoir se faire en « temps réel »
lors de la reproduction, donc presque obligatoirement en hardware… pour le
moment du moins.
Le codage, beaucoup plus complexe, pourra se faire éventuellement en plusieurs
« passes » dans les applications où le temps réel n’est pas indispensable et où la
qualité prime (par exemple gravure de disques) mais devra se faire en « temps
réel » (ce qui ne veut pas dire nul) pour la plupart des applications, en particulier
celles de transmission en « direct ».
La réalisation pratique du codeur est donc un compromis entre rapidité, taux de
compression, qualité et complexité…
D’autre part, la nécessité d’un temps de synchronisation et d’une résolution d’accès
aléatoire à une séquence pas trop longs (0,5 seconde maximum) limite le nombre
d’images pouvant dépendre d’une même première à une dizaine ou une douzaine
pour un système à 25 images par seconde.
9782100520442-Livre.fm Page 39 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
✦
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
Les types d’images MPEG
MPEG définit 3 types d’images 1 qui s’enchaînent selon le schéma de la figure 3.8.
Figure 3.8 – Enchaînement des trois types d’images MPEG
© Dunod. La photocopie non autorisée est un délit.
39
• les images I (Intra) sont codées sans aucune référence à d’autres images,
comme en JPEG, c’est-à-dire qu’elles contiennent tous les éléments nécessaires à leur reconstruction par le décodeur, et sont de ce fait le point
d’entrée obligatoire lors de l’accès à une séquence.
Le taux de compression des images I est relativement faible (comparable à
celui de JPEG avec pertes) ;
• les images P (Prédites) sont codées par rapport à l’image de type I ou P
précédente, grâce aux techniques de prédiction avec compensation de
mouvement.
La compensation de mouvement n’étant pas parfaite, on ne pourra multiplier indéfiniment le nombre d’images P entre deux images I, car, étant utilisées pour coder d’autres images P ou B, elles propagent donc en l’amplifiant
toute erreur de codage.
Leur taux de compression est nettement plus important que celui des
images I ;
1. Un 4e type d’images dites D (grossières et de décodage simple, car elles n’utilisent que le coefficient DC de
la DCT) est prévu par la norme MPEG-1. Elles sont destinées à être utilisées pour se déplacer à grande vitesse à l’intérieur de la séquence.
9782100520442-Livre.fm Page 40 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• les images B (Bidirectionnelles) sont codées par interpolation entre les deux
images de type I ou P précédente et suivante qui les encadrent.
Comme elles ne sont pas utilisées pour définir d’autres images, les images B
ne propagent donc pas les erreurs de codage.
C’est ce type d’images qui offre le taux de compression le plus fort.
Selon la complexité du codeur utilisé, on pourra ne coder que des images I, des
images I et P ou des images I, P et B, avec bien sûr des résultats très différents au
niveau du taux de compression et des possibilités d’accès aléatoire (donc de montage
également), mais aussi du temps de codage et de la qualité perçue.
Deux paramètres M et N définissent la manière dont les images I, P et B
s’enchaînent :
• M est la distance (en nombre d’images) entre deux images P successives ;
• N est la distance entre deux images I successives.
Pour atteindre un débit vidéo de 1,15 Mb/s avec une qualité satisfaisante tout en
gardant une résolution d’accès aléatoire acceptable (< 0,5 s), les paramètres les
plus couramment utilisés sont M = 3 et N = 12 (figure 3.9).
40
Figure 3.9 – Exemple de groupe d’images M = 3, N = 12
Dans ce cas, une séquence vidéo est composée de 1/12 (8,33 %) d’images I, 1/4
(25 %) d’images P et 2/3 (66,66 %) d’images B : le taux de compression global est
favorisé par le fait que ce sont les images les plus fréquentes qui ont le taux de
compression le plus élevé.
À l’affichage, après codage et décodage, les images de la séquence vidéo doivent
naturellement être reproduites dans le même ordre que celui de la prise de vue.
Avec les paramètres définis ci-avant (M = 3, N = 12), le mode de codage des images
successives se traduit par la correspondance numéro ? (type d’image) ci-dessous :
9782100520442-Livre.fm Page 41 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
1(I) 2(B) 3(B) 4(P) 5(B) 6(B) 7(P) 8(B) 9(B) 10(P) 11(B) 12(B) 13(I) 14(B) 15(B)
16(P)…
Cependant, pour coder ou décoder une image B (Bidirectionnelle), le codeur et le
décodeur auront besoin de l’image I ou P qui la précède et de l’image P ou I qui la suit.
L’ordre des images sera donc modifié avant le codage de sorte que codeur et décodeur disposent, avant les images B, des images I et/ou P nécessaires à leur traitement, soit :
1(I) 4(P) 2(B) 3(B) 7(P) 5(B) 6(B) 10(P) 8(B) 9(B) 13(I) 11(B) 12(B) 16(P) 14(B)
15(B)…
L’augmentation du taux de compression procuré par les images B se paie donc par
un temps de codage/décodage plus long (durée de deux images), et une augmentation de la taille mémoire nécessaire dans le codeur comme dans le décodeur (stockage d’une image supplémentaire).
✦
Décomposition en couches d’une séquence vidéo MPEG
MPEG définit également une hiérarchie de « couches » (layers) à l’intérieur d’une
séquence d’images, illustrée par la figure 3.10.
© Dunod. La photocopie non autorisée est un délit.
41
Figure 3.10 – Hiérarchie de couches de la séquence au bloc
On trouve en partant du niveau le plus haut :
• séquence : couche la plus élevée, elle détermine le contexte dans lequel cette
séquence est définie (paramètres vidéo de base tels que norme de balayage,
etc.) ;
9782100520442-Livre.fm Page 42 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• groupe d’images (Group Of Pictures ou GOP) : c’est la couche permettant
l’accès aléatoire à la séquence, avec une première image de type I. Dans le cas
décrit ci-avant, le groupe d’images en comporte 12 (1 × I, 3 × P et 8 × B) ;
• image (picture), de type I, P ou B : c’est la couche d’affichage élémentaire ;
• tranche (slice) : est définie comme une suite de macroblocs contigus ;
l’ensemble des slices doit couvrir toute l’image, sans chevauchement entre
elles. Une slice peut théoriquement aller d’un seul macrobloc à l’image
entière, mais en pratique, il s’agira le plus souvent d’une rangée horizontale
complète de macroblocs ;
• macrobloc (macroblock) : de taille 16 × 16 pixels (4 blocs de luminance et
2 blocs de chrominance 1 × Cr et 1 × Cb, chacun de 8 × 8 pixels, figure 3.11) :
c’est la couche où s’effectue la prédiction avec compensation de mouvement ;
• bloc (block) : de 8 × 8 pixels ; c’est, comme en JPEG, la couche ou s’effectue
la DCT.
42
Figure 3.11 – Composition d’un macrobloc 4:2:0.
O : échantillons de luminance, * : échantillons Cb ou Cr
9782100520442-Livre.fm Page 43 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
En raison du découpage de l’image en un nombre entier de macroblocs de 16 × 16,
la définition horizontale de MPEG-1 est réduite à 352 pixels en luminance
(22 macroblocs) et non pas 360 comme pour l’image SIF d’origine (en effet, 360
n’est pas multiple de 16).
La résolution de MPEG-1 est donc 352 × 288 @ 25 Hz (soit 22 × 18 = 396 macroblocs) pour les images dont l’origine est à 625 lignes et 352 × 240 @ 30 Hz
(22 × 15 = 330 macroblocs) pour les images d’origine 525 lignes.
✦
L’estimation et la compensation de mouvement
Entre deux images successives, les objets en mouvement entraînent une différence
entre les zones correspondant au départ sur la première image et à l’arrivée sur la
deuxième.
Il n’y a pas de corrélation temporelle évidente entre ces zones.
L’estimation de mouvement consiste donc à trouver un vecteur assurant la correspondance entre une zone d’arrivée sur la deuxième image et une zone de départ sur
la première.
© Dunod. La photocopie non autorisée est un délit.
Cette recherche se fait au niveau du macrobloc (16 × 16 pixels), en déplaçant, à
l’intérieur d’une fenêtre de recherche, un macrobloc de l’image en cours au voisinage de cette position dans l’image précédente de manière à trouver le plus ressemblant (Block Matching), ce qui donne un vecteur de mouvement (figure 3.12), qui
s’appliquera à toutes les composantes du macrobloc (Y, Cb, Cr).
Figure 3.12 – Représentation schématique de la compensation de mouvement
43
9782100520442-Livre.fm Page 44 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Seuls les macroblocs différant d’une image à l’autre auront ainsi besoin d’être
codés, d’où une réduction significative de la quantité d’information à transmettre.
Cette comparaison se faisant entre une image P et une image I ou deux images P, les
vecteurs de mouvement peuvent être d’amplitude relativement importante (en
raison de la distance entre ces deux images, 3 dans le cas M = 3, N = 12).
Pour les images B, les vecteurs intermédiaires sont obtenus par une interpolation
qui tient compte de leur position temporelle entre les images I et/ou P (figure 3.12).
On calcule ensuite la différence entre le bloc à coder et le bloc que l’estimation de
mouvement a trouvé le plus proche, et cette différence est transmise après un
codage similaire à celui des blocs des images I (DCT, quantification, VLC).
La taille moyenne des objets étant supérieure au macrobloc, il y a généralement
corrélation entre les vecteurs de mouvement associés à deux macroblocs contigus,
d’où l’intéret d’utiliser une méthode de codage différentielle (DPCM) avec codage
entropique pour transmettre ces vecteurs.
Si pour un bloc donné la compensation de mouvement n’a pas donné de résultat
exploitable, ce qui est relativement peu fréquent, le bloc est codé en Intra.
✦
44
Régulation de débit
Pour s’adapter aux contraintes du canal (de transmission ou d’enregistrement/lecture) et du buffer d’entrée spécifié pour le décodeur MPEG de référence, le
débit doit généralement être constant en sortie du codeur 1.
Ceci n’est pas garanti par le processus que nous avons décrit jusqu’ici, étant donné
la nature très diverse des images à coder et la variabilité des mouvements qu’elles
contiennent.
Pour réguler le débit en sortie du codeur, on utilise en fin de processus une
mémoire tampon (FIFO) dont on surveille l’état de remplissage de manière à le
1. Dans le cas des émissions TV, plusieurs programmes sont transmis dans un seul canal (voir chapitre suivant « multiplexage des signaux »). Dans ce cas, le codage à débit constant dit CBR (Constant Bit Rate) est
avantageusement remplacé par un codage à débit variable dit VBR (Variable Bit Rate) dans lequel le débit
instantané alloué à un programme peut varier en fonction des besoins (mouvements dans l’image).
L’allocation de débit instantané à chacun des programmes du multiplex doit bien sûr tenir compte des besoins en débit des autres programmes au même moment.
Comme il est peu probable que tous les programmes nécessitent simultanément un débit maximum, ceci
permet la plupart du temps d’accorder un débit plus élevé à un programme lors de mouvements importants dans la scène sans atérer la qualité des autre programmes.
Ce type de codage est connu sous le nom de multiplexage statistique.
9782100520442-Livre.fm Page 45 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
maintenir entre certaines limites en jouant sur la résolution des coefficients de
quantification, dont l’influence sur le débit est majeure.
On peut ainsi obtenir un débit constant, avec une résolution qui variera en fonction
du contenu de l’image (plus elle sera mouvementée, moins bonne sera sa résolution).
La figure 3.13 donne un schéma synoptique du codeur MPEG (qui ne donne qu’une
faible idée de sa complexité réelle).
45
Figure 3.13 – Schéma simplifié du codeur MPEG-1
© Dunod. La photocopie non autorisée est un délit.
Le décodeur quant à lui, n’ayant pas à accomplir d’estimation de mouvement, est
beaucoup plus simple (figure 3.14), ce qui était l’un des objectifs essentiels lors de
la définition de la norme.
Figure 3.14 – Schéma simplifié du décodeur MPEG-1
9782100520442-Livre.fm Page 46 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
3.4.2 Le codage vidéo MPEG-2 (applications broadcast)
Les normes européennes qui couvrent la télédiffusion sont le résultat des travaux,
démarrés en 1991, du groupe de travail ELG devenu DVB, dont l’objectif principal
était la définition d’un système de télévision numérique pour diffusion par satellite,
câble ou réseau terrestre.
MPEG-2 constitue la norme pour le codage de source du système défini par le DVB.
MPEG-2 peut être décrite comme une « boîte à outils » de compression plus
complexe que MPEG-1, dont elle peut également être considérée comme un surensemble : en effet, elle en reprend tous les outils en y ajoutant d’autres.
De plus, la norme prévoit en effet la compatibilité ascendante, ce qui signifie qu’un
décodeur MPEG-2 doit pouvoir décoder des trains élémentaires à la norme
MPEG-1.
Comme pour MPEG-1, la norme se compose de 3 parties :
• MPEG-2 System (ISO/IEC 13818-1) ;
• MPEG-2 Video (ISO/IEC 13818-2) ;
• MPEG-2 Audio (ISO/IEC 13818-3).
46
✦
Profils et niveaux MPEG-2
MPEG-2 comporte 5 profils (profiles) qui déterminent le jeu d’outils de compression utilisé, donc le compromis entre taux de compression et coût du décodeur et
4 niveaux (levels) définissant la résolution de l’image, qui s’étage de la résolution
SIF à la haute définition.
Certaines combinaisons de profils et niveaux de peu d’intéret ne seront pas utilisées.
La figure 3.15 illustre les différents niveaux et profils et leurs principales caractéristiques.
Pour ce qui est des niveaux, leur signification est la suivante :
• le niveau low (bas) correspond à la résolution SIF utilisée en MPEG-1 ;
• le niveau main (principal) correspond à la résolution 4:2:0 « normale »
(jusqu’à 720 × 576) ;
• le niveau high-1440 (haut-1440) est destiné à la TVHD (jusqu’à
1 440 × 1 152) ;
• le niveau high (haut) est optimisé pour la TVHD (jusqu’à 1 920 × 1 152).
En ce qui concerne les profils, c’est un peu plus compliqué :
9782100520442-Livre.fm Page 47 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
© Dunod. La photocopie non autorisée est un délit.
Figure 3.15 – Niveaux et profils MPEG-2 (source : DVB Project Office)
• le profil simple est destiné à simplifier le codeur et le décodeur, au détriment
du taux de compression, en n’utilisant pas de prédiction de type B
(bidirectionnelle) ;
• le profil main correspond actuellement au meilleur compromis qualité/taux
de compression, en utilisant les 3 types d’images (I, P, B), au prix d’un
codeur et d’un décodeur plus complexes ;
• les profils scalable (codage hiérarchique) sont prévus pour des utilisations
ultérieures et permettront de transmettre une image de base (base layer) en
terme de résolution spatiale (spatially scalable profile) ou de quantification
(SNR scalable profile) ainsi que des informations supplémentaires séparées
(enhanced layer) permettant d’améliorer ses caractéristiques, par exemple
pour transmettre la même émission en définition standard et HD ou
permettre une réception de qualité acceptable en cas de réception difficile et
de qualité optimale dans de bonnes conditions (par exemple pour la télévision numérique terrestre) ;
• le profil high est prévu pour des applications de télédiffusion HDTV (format
4:2:0 ou 4:2:2).
Il y a compatibilité ascendante entre les profils, et un décodeur d’un profil déterminé pourra décoder tous les profils inférieurs (à gauche sur la figure 3.15).
47
9782100520442-Livre.fm Page 48 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
La combinaison la plus importante à court terme, car c’est celle retenue pour les
applications de télédiffusion numérique grand public en Europe, est dite main
profile at main level ([email protected]).
Elle correspond au codage d’images entrelacées au format 4:2:0, de résolution
720 × 480/30 Hz ou 720 × 576/25 Hz avec une « boîte à outils » permettant le
codage d’images de type I, P et B.
Selon le compromis qualité/débit recherché et la nature des images, le débit sera
compris entre 4 Mb/s (qualité à peu près équivalente à celle d’une image codée en
PAL ou SECAM) et 9 Mb/s (qualité voisine d’une image de studio CCIR 601).
Tout le processus de codage des images animées décrit dans le paragraphe précédent pour MPEG-1 s’applique à MPEG-2 ([email protected]), notamment la hiérarchie de
couches (du bloc à la séquence de la figure 3.10), mis à part la résolution d’origine
et le traîtement des images entrelacées que nous verrons ci-dessous.
Une différence est à noter pour les slices : en MPEG-2, elles ne couvrent pas nécessairement toute l’image, et elles doivent de plus se composer uniquement de
macroblocs contigus situés sur la même ligne horizontale (figure 3.16).
48
Outre niveaux et profils, par rapport à MPEG-1, la principale nouveauté et complication supplémentaire vient du traîtement des images entrelacées.
Celles-ci, pour un résultat optimum, pourront être traitées de manière différente
selon l’importance des mouvements entre les deux trames d’une même image
Figure 3.16 – Exemple de tranches (slices) MPEG-2
9782100520442-Livre.fm Page 49 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
(les cas extrêmes sont d’un côté le télécinéma, où il n’y a pas de mouvement entre
les deux trames TV qui proviennent de l’analyse de la même image cinéma, et de
l’autre les images vidéo de manifestations sportives où l’on peut trouver des
mouvements importants entre les deux trames d’une même image).
✦
Modes de prédiction spécifiques à MPEG-2 (images entrelacées)
La figure 3.17 représente la séquence temporelle de la position verticale des lignes
des trames successives dans un système entrelacé.
49
© Dunod. La photocopie non autorisée est un délit.
Figure 3.17 – Position des lignes de trames successives
dans un système entrelacé
Pour le codage intra des images entrelacées, MPEG-2 permet de choisir entre deux
structures d’images dites frame (structure image) ou field (structure trame) :
✧
La structure image (appelée aussi « progressive »)
Elle est appropriée aux cas où il y a peu de mouvement entre deux trames successives. Les blocs et macroblocs sont découpés dans l’image complète (figure 3.18), et
la DCT s’effectue donc sur des points verticaux distants de 20 ms dans le temps, ce
qui ne pose pas de problème si les deux trames diffèrent peu.
Dans ce cas, il reste toutefois possible de coder les blocs les plus animés en mode
inter-trame, c’est-à-dire en les découpant dans une trame.
9782100520442-Livre.fm Page 50 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 3.18 – Découpage des blocs dans les macroblocs en mode image (frame)
✧
La structure trame (appelée aussi « entrelacée »)
Elle est préférable lorsque le mouvement est important d’une trame à l’autre : dans
ce cas, afin d’éviter un contenu en fréquences verticales élevées qui réduirait l’efficacité de la compression après DCT, le découpage des macroblocs est fait en considérant chacune des trames comme une image indépendante à l’intérieur de
laquelle sont pris les blocs (figure 3.19).
50
En ce qui concerne l’estimation de mouvement, plusieurs modes sont également
prévus.
Un macrobloc peut être prédit en mode image, trame ou mixte.
• Dans le mode image, un macrobloc formé dans la trame impaire sert à
prédire un bloc correspondant dans la prochaîne trame impaire, et de même
pour les blocs de la trame paire, et la prédiction se fait donc sur une durée
de 40 ms (2 trames) ;
Figure 3.19 – Découpage des blocs dans les macroblocs en mode trame (field)
9782100520442-Livre.fm Page 51 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
• dans le mode trame, la prédiction d’un bloc est effectuée à partir d’un bloc
de la trame précédente, et les vecteurs de mouvement correspondent alors à
une durée de 20 ms ;
• dans le mode mixte, les blocs sont prédits à partir de deux blocs appartenant
à deux trames.
✦
Description succincte du processus de codage MPEG-2
Tout comme en MPEG-1, la norme ne définit pas explicitement de méthode de
codage, mais seulement la syntaxe régissant le train binaire en sortie du codeur, ce
qui laisse une (trop ?) grande liberté à son concepteur.
Le schéma-bloc de la figure 3.13 s’applique également au codeur MPEG-2.
À partir de l’image numérisée au format 4:2:0 (cas du main profile), le codeur choisit pour chaque image son type (I, P ou B) et si elle doit être codée en mode frame
ou field. Le codeur doit ensuite estimer les vecteurs de mouvement pour chaque
macrobloc de 16 × 16 pixels. Le nombre de vecteurs dépend du type d’image et du
mode de codage choisi pour chaque bloc.
Dans le cas général où le codeur est capable de générer des images B (bidirectionnelles), il devra réordonner les images avant codage et transmission.
L’unité de codage de base est le macrobloc, composé de 4 blocs de luminance de
8 × 8 pixels et (dans le cas du format 4:2:0) de 2 blocs de chrominance (un Cb et
un Cr) de 8 × 8 pixels qui couvrent la même zone de l’image.
© Dunod. La photocopie non autorisée est un délit.
Tous les macroblocs de l’image sont codés en séquence de la gauche vers la droite et
du haut vers le bas, et un mode de codage est choisi indépendamment pour chacun
d’eux.
Une fois le mode de codage choisi, la prédiction avec compensation de mouvement
du contenu du bloc est faite à partir de l’image de référence (I ou P) passée (cas des
images P) et éventuellement future (cas des images B). La prédiction est soustraite
des données réelles du macrobloc, ce qui donne le signal d’erreur de prédiction.
Dans une image à structure frame, le codeur devra choisir d’effectuer la DCT en
mode frame ou field : ceci dépend principalement de l’amplitude du mouvement
entre les deux trames de l’image.
Le signal d’erreur est ensuite séparé en blocs de 8 × 8 auxquels la DCT est appliquée.
Chaque bloc de coefficients résultant est quantifié et balayé en zigzag pour former
une suite de coefficients.
L’information auxiliaire nécessitée par le décodeur pour reconstruire le bloc (mode
de codage, vecteurs de mouvement…) est codée et les coefficients quantifiés sont
codés en utilisant une table VLC (codage de Huffman).
51
9782100520442-Livre.fm Page 52 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Une unité de contrôle de débit surveille l’état de remplissage du FIFO de sortie, et
utilise cette information en retour pour contrôler le nombre de bits que le codeur
générera pour les blocs suivants, en jouant principalement sur les coefficients de
quantification.
On obtient alors en sortie du codeur un train binaire complet utilisable par un
décodeur.
Pour augmenter la qualité de l’image décodée, le codeur lui-même stocke et décode
(déquantification des coefficients puis DCT inverse) les images I et P, référence
pour reconstruire d’autres images obtenues par prédiction avec compensation de
mouvement dans le décodeur, et calcule un signal d’erreur qui est ajouté au signal
de prédiction.
✦
Description succincte du décodage MPEG-2
Comme nous l’avons déjà dit, le décodage est plus simple que le codage, car il n’a
pas à effectuer d’estimation de mouvement qui est l’une des parties les plus
complexes du codeur.
Le schéma-bloc du décodeur de la figure 3.14 reste valable pour MPEG-2.
52
Le tampon (buffer) d’entrée reçoit les données du canal de transmission, et le
décodeur lit le train binaire jusqu’à trouver le début d’une image, son type (I, P
ou B) et sa structure (frame ou field).
Il débute le décodage à la première image I qu’il doit stocker en mémoire, ainsi que
l’image P suivante pour servir de référence aux images P ou B qui en dépendent.
Pour les images I, le décodage proprement dit consiste à appliquer à chaque bloc le
décodage VLC, la déquantification des coefficients et la transformation DCT inverse.
Pour les images P ou B, il consiste à construire la prédiction de chaque macrobloc à
partir de son type, des vecteurs de mouvement et des images de référence en
mémoire. Le décodeur lit, décode et déquantifie les coefficients DCT de l’erreur de
prédiction transmise pour chaque bloc de 8 × 8, et après transformation DCT
inverse, ajoute le résultat à la prédiction.
L’image est reconstruite lorsque tous les macroblocs ont été traités.
La dernière étape du décodage est la remise des images dans l’ordre initial d’affichage.
Comme on l’a vu plus haut, le besoin de mémoire pour le décodeur est d’environ
3 images (deux images de référence et l’image en cours de reconstruction), soit
pour une image 4:2:0 environ 16 Mbits (sans « astuce » particulière : un peu plus
en 625 lignes et un peu moins en 525) !
9782100520442-Livre.fm Page 53 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
3.4.3 La norme de compression MPEG-4.10 ou H264/AVC
Cette nouvelle norme de compression vidéo est issue des travaux d’une équipe
commune (JVT, Joint Video Team) composée de membres du Video Coding Expert
Group (VCEG) de l’ITU-T et du Motion Pictures Expert Group (MPEG) de l’ISO-IEC,
d’où sa double appellation de H264 et MPEG-4.10.
L’appellation H264/AVC (Advanced Video Coding) est également souvent utilisée.
Cette norme, enregistrée sous le N° ISO-IEC14496-10, présente l’avantage d’augmenter considérablement l’efficacité de la compression (gain d’au moins 50 % par
rapport à MPEG-2), ce qui est particulièrement intéressant en vue de la télévision
à haute définition (TVHD) qui en MPEG-2 demande une bande passante de 15
à 18 Mb/s.
C’est pourquoi en Septembre 2004, le DVB a autorisé et défini son utilisation en
alternative au MPEG-2 pour la télévision par satellite, câble, terrestre ou tout autre
moyen de transmission à large bande (ADSL par exemple).
© Dunod. La photocopie non autorisée est un délit.
Le standard H264/AVC se compose de deux « couches » : une couche de codage
vidéo (Video Coding Layer ou VCL) dont le rôle est de représenter de façon la plus
compacte possible le contenu vidéo et une couche d’abstraction du réseau (Network
Abstraction Layer ou NAL) qui formate la représentation VCL de manière la plus
appropriée à sa destination (transport ou stockage).
• La couche NAL formate les données issues du codage VCL en « unités NAL »
qui contiennent un nombre entier d’octets. Selon la destination du stream
généré (transport stream ou bitstream pur), les unités NAL sont ou non
précédées d’un préfixe de démarrage.
• La partie VCL représente le codage proprement dit de H264. Tout comme
MPEG-1 et 2, c’est un hybride de prédiction inter-images, qui exploite les
dépendances statistiques temporelles et les dépendances statistiques spatiales
(intra image) au moyen d’un codage par transformée du résidu de prédiction.
Comme MPEG-2, H264 supporte le codage d’images au format 4:2:0 entrelacées ou
progressives, mais dans le cas de H264 une séquence peut comporter les deux types
d’images.
Les dernières extensions de la norme (FRExt) permettent aussi de coder des images
au format 4:2:2 et 4:4:4 avec différents espaces de couleur (YCBCR, RGB, YCGCO) et
autorisent une précision supérieure à 8 bits (10 ou 12) pour les échantillons vidéo.
L’amélioration très importante de l’efficacité du codage H264 par rapport à MPEG-2
ne provient pas de l’adoption d’un algorithme « révolutionnaire » mais d’une somme
d’améliorations relativement peu importantes prises séparément.
53
9782100520442-Livre.fm Page 54 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
C’est l’utilisation combinée :
• de modes de prédiction plus sophistiqués, qui peuvent varier à l’intérieur
même d’une image et se référer à un nombre plus important d’images
successives,
• d’une transformée entière au lieu de la DCT pouvant porter sur des blocs
4*4 ou 8*8,
• d’un codage entropique adaptatif plus efficace (CAVLC et CABAC),
qui permet d’atteindre ce résultat.
Le codage entropique est « adapté au contexte » et peut utiliser deux modes dont
l’un appelé CABAC (Context Adaptative Binary Arithmetic Coding) permet à lui seul
de réduire d’environ 10 à 15 % le débit nécessaire au codage d’une image à qualité
égale par rapport à l’autre dit CAVLC (Context Adaptative Variable Length Coding),
qui est déjà plus performant que le simple VLC de MPEG-2.
L’utilisation de nouveaux outils (PicAFF, Picture Adaptive Frame Field et MBAFF,
MacroBlock Adaptive Frame Field) permet un meilleur traitement des images entrelacées.
54
Enfin, un filtre de « déblocage » permet de diminuer sensiblement la visibilité des
blocs – un défaut commun à la plupart des systèmes de compression vidéo – et en
conséquence de réduire d’environ 5 à 10 % le débit à qualité d’image subjective égale.
Tout comme MPEG-2, H264/AVC comporte plusieurs profils et niveaux.
Les profils définissent la complexité du jeu d’outils de codage utilisé, résumés dans
le tableau 3.1.
En ce qui concerne les niveaux, ils correspondent à la résolution et s’échelonnent de
1 (QCIF) à 5 (1k * 2k), avec de nombreux niveaux intermédiaires.
La haute définition « grand public » (1080i ou 720p) correspond aux niveaux 4 et
4.1.
Le tableau 3.2 caractérise les différents niveaux.
9782100520442-Livre.fm Page 55 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
Tableau 3.1 – Outils de codage des différents profils de la norme H264
© Dunod. La photocopie non autorisée est un délit.
55
Tableau 3.2 – Les différents niveaux de la norme H264
9782100520442-Livre.fm Page 56 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
3.5
La compression des signaux audio
L’utilisation de l’audio numérique est devenue courante pour le grand public
depuis l’apparition du disque compact (CD) au début des années 1980.
Le but étant d’obtenir une qualité haute-fidélité, une bande passante d’au moins
20 kHz était nécessaire, ce qui impliquait donc une fréquence d’échantillonnage
supérieure à 40 kHz ; c’est une valeur de 44,1 kHz qui a finalement été retenue.
Il fallait également assurer un rapport signal/bruit et une dynamique élevés (supérieurs à 80 dB).
La numérisation d’un signal analogique (Pulse Code Modulation, PCM), introduit
un « bruit de quantification » correspondant à l’incertitude sur le bit de poids le
plus faible, ce qui se traduit par un rapport signal/bruit de 6 dB par bit de quantification, soit 96 dB avec la numérisation sur 16 bits retenue.
Il en résulte un débit de 44,1 × 16 × 2 = 1 411,2 Kb/s pour un signal stéréophonique !
Un tel débit est acceptable sans compression pour le Compact Disc audio, car sa
capacité de 640 Mo permet d’assurer dans ces conditions environ 74 minutes de
son stéréophonique haute-fidélité.
56
Deux autres fréquences d’échantillonnage sont couramment utilisées : 32 kHz
(D2-MAC, NICAM, télécommunications…) et 48 kHz (enregistrement de studio,
cassette audio numérique DAT…).
Tout comme la cassette audio numérique DCC, les normes MPEG-1 et 2 prévoient
la possibilité d’utiliser comme source des signaux audio échantillonnés à l’une des
3 fréquences ci-dessus.
Les débits qu’elles procurent sont évidemment quelque peu différents, mais restent
du même ordre de grandeur (de 1 à 1,5 Mb/s), bien trop élevés pour l’utilisation
telle quelle en son d’accompagnement d’une image codée à la norme MPEG-1 ou
MPEG-2.
Comme pour la vidéo, on est donc confronté au besoin de comprimer les données
issues de la numérisation du signal audio.
3.5.1 Principes de la compression audio MPEG
À l’origine des travaux du groupe MPEG audio, il n’y avait pas moins de 14 propositions différentes, classées en 4 groupes, dont 2 seulement (MUSICAM et ASPEC)
ont été retenues pour servir de base à la spécification finale.
9782100520442-Livre.fm Page 57 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
Là encore, on exploite les « faiblesses » de l’audition humaine pour réduire le
nombre d’informations à transmettre sans détériorer de façon perceptible la
qualité du signal audio.
On a depuis très longtemps remarqué que l’oreille présentait un maximum de sensibilité entre 1 et 5 kHz. La courbe de sensibilité, qui représente le seuil d’audibilité
d’un signal en fonction de sa fréquence en l’absence de signal « perturbateur », est
représentée à la figure 3.20 où le signal A est audible puisqu’il dépasse le seuil de
perception.
57
© Dunod. La photocopie non autorisée est un délit.
Figure 3.20 – Seuil d’audibilité en fonction de la fréquence
On a remarqué plus récemment que cette courbe était affectée en présence de
signaux multiples : par exemple, dans le cas de deux signaux relativement proches
en fréquence, le signal le plus fort fait remonter le seuil d’audibilité à son voisinage,
ce qui a pour effet de rendre l’oreille moins sensible aux fréquences environnantes.
La figure 3.21 représente ce cas, où le signal A, audible précédemment est maintenant masqué par le signal B voisin, plus puissant que A : on appelle cet effet
masquage fréquentiel.
Il existe également un effet de masquage temporel : un son de forte amplitude
masque également des sons plus faibles le suivant ou le précédant immédiatement
(figure 3.22).
De nombreuses expérimentations ont permis de déterminer un modèle psychoacoustique de l’audition humaine, base de la conception d’un codeur dit « perceptuel »
9782100520442-Livre.fm Page 58 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 3.21 – Masquage fréquentiel (A masque par B)
58
Figure 3.22 – Masquage temporel
caractérisé par une courbe de masquage et une quantification variables en fonction
des signaux à coder.
Le principe du codage consiste à diviser la bande passante audio en 32 sousbandes de largeur identique au moyen d’un banc de filtres dits « polyphase ».
Le signal de sortie d’un filtre de sous-bande, correspondant à une durée 32 échantillons PCM d’entrée est appelé échantillon de sous-bande.
La figure 3.23 illustre le principe du codage perceptuel.
Le modèle psycho-acoustique permet d’éliminer les signaux de sous-bande inférieurs au seuil du modèle psycho-acoustique (non perçus par l’auditeur) et définit
9782100520442-Livre.fm Page 59 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
Figure 3.23 – Principe du codage perceptuel
59
la précision de quantification nécessaire pour chacune des sous-bandes, de
manière à ce que le bruit de quantification reste inférieur au seuil d’audibilité dans
cette sous-bande.
Les zones où l’oreille est la plus sensible peuvent ainsi être quantifiées avec plus de
précision que les autres.
© Dunod. La photocopie non autorisée est un délit.
Les schémas-bloc très simplifiés d’un codeur et d’un décodeur MPEG audio sont
représentés par la figure 3.24.
L’analyse du signal pour déterminer la courbe de masquage et la quantification ne
se fait pas à chaque échantillon PCM, mais dans un intervalle de temps appelé
« trame » dont la durée est de 12 × 32 échantillons PCM (MPEG-1 couche I) ou
12 × 96 échantillons PCM (MPEG-1 couche II).
Dans cet intervalle, le codeur évalue également l’amplitude du signal la plus élevée
pour définir un facteur d’échelle (scaling factor) qui sera codé sur 6 bits (couvrant
ainsi une plage dynamique de 128 dB par pas de 2 dB).
Tous les éléments nécessaires au décodage du son seront fournis au niveau de la
trame, qui constitue ainsi l’unité la plus petite pour l’accès aléatoire (comparable
au groupe d’images en vidéo).
9782100520442-Livre.fm Page 60 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
60
Figure 3.24 – Schéma théorique du codeur MPEG audio (en haut)
et du décodeur MPEG audio (en bas)
9782100520442-Livre.fm Page 61 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
3.5.2 Les couches du codage audio MPEG-1
Les normes MPEG audio définissent trois couches (layers) de codage, qui diffèrent
par leur taux de compression pour une qualité audio perçue donnée.
La norme de télévision numérique DVB prescrit pour le son l’utilisation des
couches I et II de la spécification MPEG-1 audio 1 qui prévoit quatre modes de
transmission principaux :
• stereo : les voies G et D sont codées de manière complètement indépendante ;
• joint_stereo : exploitation de la redondance entre les voies gauche et droite
afin de réduire le débit (avec deux codages possibles : intensity_stereo ou
MS_stereo 2) ;
• dual_channel : deux voies son indépendantes (par exemple son bilingue) ;
• mono : une seule voie son.
✧
La couche I ou pré-MUSICAM
Elle utilise l’algorithme PASC (Precision Adaptive Subband Coding) développé par
PHILIPS pour sa cassette audio numérique (DCC).
Elle utilise un débit fixe parmi 14 possibles (de 32 à 448 Kb/s) ; la qualité hautefidélité nécessite 192 Kb/s par voie audio (384 Kb/s en stéréo).
Son avantage principal est la relative simplicité d’implémentation du codeur et du
décodeur.
© Dunod. La photocopie non autorisée est un délit.
La quantification des coefficients de sous-bande est définie pour toute la durée de
la trame par un nombre de 4 bits permettant un codage sur 0 à 15 bits pour chaque
sous-bande, ainsi que le facteur d’échelle sur 6 bits.
1. La norme MPEG-2 audio reprend l’essentiel de MPEG-1 et prévoit en outre une possibilité d’extension
« multicanaux » permettant la transmission de son à voies multiples (par exemple « Surround sound » à
5 voies) tout en restant compatible avec le mode stéréo MPEG-1 de base, ce qui permet une évolution ultérieure de la spécification DVB.
Des données supplémentaires « ancillary_data » se trouvent à la fin de la trame et font appel à des paquets
d’extension avec des PID différents. Ces données sont ignorées par un décodeur MPEG-1 audio standard
et traitées dans un décodeur MPEG-2 par une extension complémentaire.
Le principe de codage/décodage surround compatible MPEG-1 est illustré à la figure 3.25.
La norme MPEG-2 audio prévoit de plus la possibilité d’utiliser des fréquences d’échantillonnage égales à
la moitié des valeurs standard (16 kHz / 22,05 kHz / 24 kHz), doublant ainsi la durée des trames et divisant
le débit par deux, au prix bien sûr d’une bande passante réduite de moitié.
2. Pour les couches I et II, seul le codage « intensity_stereo » est autorisé en mode joint_stereo ; seule la
couche III autorise les deux modes, éventuellement combinés.
61
9782100520442-Livre.fm Page 62 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
62
Figure 3.25 – Processus d’encodage/décodage surround compatible MPEG-1
✧
La couche II
Son algorithme est connu sous le nom de MUSICAM, est le standard retenu pour la
radio (DAB) et la télévision (DVB) numériques européennes.
Elle permet d’obtenir une qualité équivalente avec un débit moindre (réduction de
30 à 50 %) que pour la couche I, au prix d’un accroissement modéré de la complexité
du codeur et du décodeur.
Le débit, fixe, peut être choisi de 32 à 192 Kb/s par voie, la qualité subjective
« HiFi » étant obtenue à partir de 128 Kb/s par voie, soit 256 Kb/s en stéréo.
Le modèle psycho-acoustique utilisé est le même que pour la couche I, mais la
trame a une durée triple, ce qui réduit la proportion des bits « système », et la quantification des coefficients de sous-bande a une résolution dégressive (quantification définie sur 4 bits pour les bandes basses, 3 bits pour les moyennes, 2 bits pour
les plus élevées) au lieu du format uniforme sur 4 bits de la couche I. D’autre part,
3 échantillons de sous-bande consécutifs peuvent éventuellement être regroupés
en « granules » pour être codés par un seul coefficient, d’où la réduction de débit.
9782100520442-Livre.fm Page 63 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
✧
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
La couche III
C’est le fameux format MP3, qui utilise un modèle psycho-acoustique différent dit
« modèle 2 », un codage de Huffman et une analyse du signal basée sur la DCT au
lieu du codage en sous-bandes des couches I et II. Les deux types de codages
joint_stereo sont autorisés.
Elle permet le débit variable et un taux de compression environ 2 fois plus élevé que
la couche 2, au prix d’une complexité nettement supérieure du codeur et du décodeur, ainsi que d’un temps de codage/décodage plus long. La qualité HiFi est obtenue dès 64 Kb/s par voie (128 Kb/s en stéréo).
Elle est principalement destinée aux applications sur réseaux à faible débit (par
exemple RNIS) et son utilisation n’étant pas prévue actuellement par DVB, nous ne
la détaillerons donc pas.
Comme dans le cas des profils et niveaux MPEG video, les couches MPEG audio
bénéficient d’une compatibilité ascendante entre elles, c’est-à-dire qu’un décodeur
couche III pourra également décoder les couches I et II, et qu’un décodeur couche
II décodera normalement la couche I.
3.5.3 Format général de la trame MPEG audio
La trame constitue l’unité d’accès élémentaire à une séquence audio MPEG (les
notions de séquence et d’unité d’accès seront développées au chapitre suivant).
Une trame (couche I, II ou III) se décompose en 4 parties :
•
•
•
•
© Dunod. La photocopie non autorisée est un délit.
✧
en-tête de 32 bits (header) ;
parité sur 16 bits (CRC) ;
données audio (AUDIO), longueur variable ;
données auxiliaires (AD, ancillary data), longueur variable.
Cas de la couche I
La trame MPEG audio couche I se compose de 384 échantillons PCM audio d’entrée.
Le nombre d’échantillons PCM étant indépendant de la fréquence d’échantillonnage, la durée de la trame est inversement proportionnelle à la fréquence d’échantillonnage.
Celle-ci est de : 12 ms à 32 kHz ; 8,7 ms à 44,1 kHz ; 8 ms à 48 kHz.
Remarques
L’en-tête transporte la synchronisation et les informations système, détaillées au
tableau 1.3.
La parité (CRC) est d’utilisation facultative.
63
9782100520442-Livre.fm Page 64 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 3.26 – Représentation simplifiée de la structure
d’une trame MPEG audio couche I
Le champ « allocation de bits/ESB » (32 entiers codés sur 4 bits) définit la résolution de codage (de 0 à 15 bits) des échantillons de chacune des 32 sous-bandes.
Le champ « facteur d’échelle » (32 entiers codés sur 6 bits) indique pour chaque
sous-bande le facteur multiplicatif des échantillons ainsi quantifiés.
✧
Cas de la couche II
La trame se compose dans ce cas de douze « granules » de 3 × 32 = 96 échantillons
audio PCM, soit 1 152 échantillons au total. Sa durée est donc triple de celle de la
couche I.
C’est-à-dire : 36 ms à 32 kHz ; 26,1 ms à 44,1 kHz ; 24 ms à 48 kHz.
64
La structure de la partie « audio » diffère de la couche I en raison d’une affectation
de bits plus complexe due aux options de codage plus nombreuses.
Figure 3.27 – Représentation simplifiée de la structure
d’une trame MPEG audio couche II
Remarques
L’en-tête transporte la synchronisation et les informations système, détaillées au
tableau 3.1.
La parité (CRC) est d’utilisation facultative.
Le champ « allocation de bits/ESB » (32 entiers codés sur 2 à 4 bits selon la sousbande) définit la résolution de codage des échantillons de chacune des sousbandes et si ceux-ci sont ou non regroupés par 3.
Le champ « SCFSI » (SCale Factor Selection Information) (32 entiers codés sur
2 bits) indique si le facteur d’échelle de sous-bande s’applique à toute la trame ou
s’il y a 2 ou 3 facteurs d’échelle.
9782100520442-Livre.fm Page 65 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
Tableau 3.1 – Les champs de l’en-tête de trame MPEG audio (couches I à III)
Le champ « facteur d’échelle » (entiers codés sur 6 bits) indique le facteur multiplicatif des échantillons ainsi quantifiés pour la portion de trame définie par SCFSI.
3.5.4 Autres codages audio : Dolby Digital (AC3, DTS, e-AC3)
Le son multicanal devenant plus important avec la généralisation des installations
audio de type home cinéma (Home Theater), le DVB a ajouté à la norme la possibilité de transmettre un son de type 5.1 ou plus 1 utilisant le système Dolby Digital
(AC3) ou DTS 2 et plus récemment Dolby Digital Plus (e-AC3).
© Dunod. La photocopie non autorisée est un délit.
Le son AC3, DTS ou e-AC3 est transmis sous forme de PES en tant que données
privées et doit être signalisé s’il est présent.
Des descripteurs DVB publics AC3 descriptor et DTS descriptor ont été définis à cet
effet. L’e-AC3 est signalisé par certaines extensions au descripteur AC3.
Pour les émissions en définition standard, le son de base MPEG-1 couche 2
(ISO/IEC11172-3) doit néanmoins toujours être transmis d’une part pour que le
parc des récepteurs existants puisse recevoir en mono ou stéréo le son des
programmes utilisant le son multicanal, d’autre part parce que le décodeur AC3 ou
1. 5.1 signifie 5 canaux à pleine bande passante (20 Hz à 20 kHz) : AV gauche, AR droite, AV centre, AR gauche et AR droite + 1 canal de basse à bande passante réduite (subwoofer, bande passante 3 Hz à 120 Hz)
représenté par le chiffre 0.1.
2. Le DTS n’est pas utilisé actuellement en émission raison des débits élevés qu’il demande.
65
9782100520442-Livre.fm Page 66 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
DTS n’est en général pas inclus dans les récepteurs pour en réduire le coût et éviter
d’avoir à payer deux fois les licences du système (ces décodeurs étant généralement
inclus dans les amplificateurs home cinéma récents).
Pour les émissions en HD de la TNT française, comme il n’y avait pas de contrainte
de compatibilité avec un parc existant, le législateur a choisi de ne pas imposer la
transmission du son MPEG et a laissé le libre choix aux chaînes qui, pour la
plupart, ont choisi le nouveau format Dolby Digital Plus (e-AC3). De ce fait, les
récepteurs TNT HD français doivent pouvoir décoder le son e-AC3 et pouvoir au
minimum le fournir décodé sous forme stéréo analogique.
✦
Dolby Digital (AC3)
Le Dolby Digital est un codage perceptuel basé sur les mêmes principes que le
codage MPEG, qui offre l’avantage par rapport au MPEG-2 multicanal d’être utilisé
depuis de nombreuses années dans les cinémas et plus récemment par les DVD
vidéo, pour lesquels il est devenu le standard de fait.
Il supporte des fréquences d’échantillonnage de 32, 44.1 et 48 KHz et des débits
audio de 32 kb/s à 640 kb/s, et il peut coder l’audio sous forme mono, stéréo ou
multicanal 5.1.
66
C’est également le codage audio unique retenu pour les standards américains ATSC
(terrestre) et DSS (satellite). Son format très schématique est représenté ci-dessous :
Sync
CRC1
Sy. info
BSI
Audio 1
Audio 2
Audio 3
Audio 4
Audio 5
Figure 3.28 – Vue schématique du décodeur AC3
Audio 6
Aux
CRC2
9782100520442-Livre.fm Page 67 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 3 – LA
COMPRESSION DES SIGNAUX VIDÉO ET AUDIO
La trame contient deux champs CRC (Cyclic redundancy Check) permettant de
détecter les erreurs dans une trame. Le champ BSI indique la fréquence d’échantillonnage, le débit, le nombre de canaux codés, et les services disponibles (contrôle
de dynamique, mode karaoke…).
La « charge utile » (payload) se compose de six blocs audio de chacun 256 échantillons, soit un total de 1536 échantillons par trame. La durée effective de la trame
dépend de la fréquence d’échantillonnage et du débit alloué.
✦
Dolby Digital Plus (e-AC3)
Le Dolby Digital Plus (DD+), également appelé e-AC3 (enhanced AC3), est un
nouveau format de compression audio numérique des laboratoires Dolby, incompatible avec le format antérieur AC3, par rapport auquel il apporte des améliorations visant à accroître la qualité pour un débit donné ainsi que le nombre de
canaux audio. Il permet de transmettre jusqu’à 13 + 1 canaux audio avec un débit
de pointe pouvant atteindre 6 144 Mb/s.
Du fait de l’incompatibilité du flux e-AC3 avec la génération précédente de décodeurs et de sa bande passante potentiellement très élevée, la sortie SP-DIF des
décodeurs e-AC3 vers un système home cinéma devra transcoder ce flux à un
format antérieur (AC3, PCM ou DTS).
Voici ses principales caractéristiques :
© Dunod. La photocopie non autorisée est un délit.
• Plage de débit codé : 32 kb/s à 6 144 Mb/s.
• Configurations audio : de 1.0 à 13.1 (de la simple mono à 13 canaux + 1
canal de basse).
• Fréquences d’échantillonnage : 32, 44,1 ou 48 kHz.
• Précision d’échantillonnage : jusqu’à 24 bits.
La spécification complète du système est publiée par l’ETSI sous la référence
TS 102 366.
67
9782100520442-Livre.fm Page 68 Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page 69 Jeudi, 24. juin 2010 11:35 11
Chapitre 4
Multiplexage des signaux
4.1
Organisation du multiplex MPEG-1 (couche système)
© Dunod. La photocopie non autorisée est un délit.
Les codeurs audio et vidéo fournissent à leur sortie des trains élémentaires de
données (Elementary Streams, ES) qui constituent la couche de compression
(compression layer). Chaque train élémentaire se compose d’unités d’accès (Access
Units, AU) qui sont les représentations codées des unités de présentation (Presentation Units, PU), c’est-à-dire les images ou les trames sonores décodées selon qu’il
s’agit de vidéo ou d’audio.
Ces trains de données, ainsi qu’éventuellement d’autres données dites privées
(private data), doivent être combinés de façon ordonnée et augmentés de diverses
informations permettant au décodeur de les séparer et d’assurer la synchronisation
de l’image et du son à la reproduction.
La partie 1 (système) de la norme ISO/IEC 11172 (MPEG-1) définit ainsi les règles
pour la constitution d’une « couche système » (system layer) regroupant vidéo,
audio et données privées en un seul train, ainsi que les contraintes sur les trains
élémentaires permettant d’assurer cette combinaison.
Les cinq fonctions de base de la couche système qui « entoure » (ou plutôt…
empaquette) la couche de compression sont les suivantes :
• synchronisation de trains élémentaires compressés multiples à la reproduction ;
• combinaison de ces trains multiples en un seul train de données ;
69
9782100520442-Livre.fm Page 70 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• initialisation des mémoires tampons (buffers) au début de la reproduction ;
• gestion continue de ces buffers ;
• enfin, identification du temps par des marqueurs (time stamps).
Un ensemble de codage MPEG-1 « système » doit donc réaliser le codage des
données vidéo et audio, puis le multiplexage de ces informations et des données
privées, en ajoutant les informations nécessaires à leur synchronisation et d’autres
relatives aux ressources nécessaires au décodage du train binaire MPEG-1 (telles
que la taille des buffers nécessaires au décodage de chacun des trains élémentaires
avec un décodeur de référence appelé System Target Decoder, STD).
Chaque train élémentaire est découpé en paquets qui constituent ainsi un Packetized
Elementary Stream (PES) ; un paquet est constitué d’un en-tête de paquet (packet
header) suivi des données proprement dites.
L’en-tête de paquet commence par un code de départ sur 32 bits dont les 8 derniers
identifient le type (audio, vidéo ou données privées) et le numéro du train élémentaire auquel le paquet de données appartient. L’en-tête indique la longueur du
paquet et la taille du buffer d’entrée nécessaire à son décodage par le STD.
70
Il peut contenir également un marqueur de décodage (Decoding Time Stamp ou DTS)
indiquant le moment de décodage de la première unité d’accès (AU) du paquet et/ou
un marqueur de présentation (Presentation Time Stamp ou PTS) indiquant l’instant
où l’unité de présentation correspondante (PU) doit être « présentée » (visualisée ou
sonorisée selon le cas).
Tableau 4.1 – Structure d’un paquet MPEG-1
9782100520442-Livre.fm Page 71 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 4 – MULTIPLEXAGE
DES SIGNAUX
Ces marqueurs servent ainsi à la synchronisation des fonctions de décodage audio
et vidéo, et sont envoyés fréquemment (la norme spécifie un intervalle maximum
de 0,7 s).
Ils sont codés sur 33 bits, qui représentent un temps absolu exprimé en périodes
d’horloge de référence à 90 kHz (voir ci-après).
Un paquet peut contenir ensuite un nombre variable d’octets de données, fonction
des caractéristiques du support d’enregistrement ou de transmission utilisé.
La norme prévoit aussi la possibilité d’ajouter un train élémentaire d’ajustement
(padding stream) pour obtenir un débit constant ou s’aligner sur les secteurs
physiques d’un dispositif de stockage, ainsi que des octets de bourrage (stuffing
bytes) à l’intérieur d’un paquet (maximum 16 par paquet).
Les paquets sont regroupés en packs, dont l’en-tête (pack header) fournit les informations de timing et de débit au moyen des champs de référence d’horloge système
(System Clock Reference, SCR) sur 33 bits et de débit du multiplex (mux_rate field).
Les champs SCR sont utilisés pour synchroniser dans le décodeur une horloge
système commune à 90 kHz (System Time Clock ou STC) qui sert de base de temps
et d’unité de mesure aux champs DTS et PTS des paquets.
L’en-tête de pack, dont le format est illustré par le tableau 4.2 débute par un code de
départ sur 32 bits.
© Dunod. La photocopie non autorisée est un délit.
Le premier pack d’un train MPEG-1 contient obligatoirement un en-tête système
(system header). C’est un paquet spécial qui résume l’ensemble des paramètres
système utilisés au cours de ce train (débit maximum, identification des trains
élémentaires audio, vidéo et données, taille minimale du buffer d’entrée…).
Tableau 4.2 – Structure de l’en-tête de pack MPEG-1
71
9782100520442-Livre.fm Page 72 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
L’en-tête système peut optionnellement être répété lors de tout nouveau pack au
cours du train MPEG-1 pour faciliter l’accès à un point quelconque de ce train.
Cet en-tête système commence lui aussi par un code de départ sur 32 bits.
72
Tableau 4.3 – Structure de l’en-tête système MPEG-1
Le nombre de trains élémentaires pouvant composer un train MPEG-1 est ainsi
spécifié :
• vidéo : 0 à 16 ;
• audio : 0 à 32 ;
• données privées : 0 à 2.
Le train MPEG-1 se termine par un code de fin, également sur 32 bits (00 00 01
B9 hex).
La figure 4.1 schématise le contenu d’un train MPEG-1 complet.
9782100520442-Livre.fm Page 73 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 4 – MULTIPLEXAGE
DES SIGNAUX
Figure 4.1 – Contenu d’un pack MPEG-1
4.2
Organisation du multiplex MPEG-2
(trains programme et transport)
Comme en MPEG-1, les trains élémentaires (ES) sont organisés en paquets pour
former les Packetized Elementary Streams (PES) vidéo, audio et données privées.
© Dunod. La photocopie non autorisée est un délit.
Comme en MPEG-1 également, les paquets PES débutent par un en-tête de paquet,
dont le format est explicité par la figure 4.2 et le tableau 4.4.
Figure 4.2 – En-tête de PES MPEG-2
73
9782100520442-Livre.fm Page 74 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Tableau 4.4 – Structure de l’en-tête de paquet MPEG-2
74
Figure 4.3 – Schéma conceptuel de la génération
des trains programme et transport MPEG-2
9782100520442-Livre.fm Page 75 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 4 – MULTIPLEXAGE
DES SIGNAUX
La partie « système » de MPEG-2 (ISO/IEC 13818-1), qui définit l’organisation du
multiplex MPEG-2, prévoit deux manières différentes de multiplexer ces PES pour
former deux types de trains selon l’application visée, comme l’illustre la figure 4.3.
✦
Program Stream
Le train « programme » de MPEG-2 est créé à partir d’un ou plusieurs PES qui
doivent obligatoirement partager la même horloge de référence.
Ce type de train est destiné à des applications où le dispositif de stockage ou de transmission est susceptible de n’introduire que très peu d’erreurs (error free medium),
comme c’est le cas par exemple dans les applications multimédia sur CD-ROM ou
disque dur. Ses paquets peuvent donc être relativement longs (par exemple
2 048 octets), et il est organisé de manière similaire à un train « système » MPEG-1,
nous ne le détaillerons donc pas (voir paragraphe 4.1).
C’est ce type de multiplex MPEG-2 qui est utilisé sur le disque vidéo numérique
(DVD).
✦
Transport Stream
Le train « transport » de MPEG-2 – comme son nom l’indique – est principalement
destiné au transport de programmes TV à longue distance sur des supports ou dans
des milieux susceptibles d’introduire un taux d’erreurs assez élevé (error prone
medium), la longueur des paquets doit être relativement courte pour permettre
l’introduction de dispositifs de correction d’erreurs efficaces, que nous détaillerons
plus loin dans le chapitre consacré au codage de canal.
La longueur des paquets « transport » de MPEG-2 a donc été fixée à 188 octets,
valeur retenue notamment pour les émissions par satellite, câble ou terrestres à la
norme européenne DVB.
© Dunod. La photocopie non autorisée est un délit.
Ce type de train est destiné à combiner plusieurs programmes ne partageant pas
forcément la même horloge système (STC) à l’intérieur d’un même multiplex.
Les différents PES (vidéo, audio…) formant un programme donné doivent néanmoins partager la même horloge afin de pouvoir être synchronisés par le décodeur.
La figure 4.4 illustre le processus de création d’un train « transport » MPEG-2, dont
nous allons détailler maintenant la constitution.
75
9782100520442-Livre.fm Page 76 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 4.4 – Création d’un train transport MPEG-2
à partir des PES1 qui le composent
76
4.2.1 Constitution du paquet transport MPEG-2
Un paquet « transport » de 188 octets se compose d’un en-tête de paquet (packet
header) de 4 octets et d’une « charge utile » (payload) de 184 octets maximum,
éventuellement précédée d’un champ d’adaptation (adaptation field), voir figure 4.5.
La « charge utile » est constituée des paquets des trains élémentaires (Packetized
Elementary Streams, PES) composant les programmes TV transmis par le canal,
ainsi qu’un certain nombre de données auxiliaires permettant au décodeur de se
retrouver dans le train transport MPEG-2.
Le format de l’en-tête de paquet « transport » est explicité par la figure 4.6 et le
tableau 4.5. 1
La norme ISO/IEC 13818-1 précise qu’un paquet « transport » donné ne peut
transporter que des données issues d’un seul paquet PES, et qu’un paquet PES
débute obligatoirement au début d’un paquet transport et se termine obligatoirement à la fin d’un paquet transport.
Du fait de la longueur beaucoup plus faible des paquets « transport » (184 octets
utiles) par rapport à celle des paquets PES (par exemple 2 048 octets), ces derniers
devront donc être découpés en tronçons de 184 octets.
1. PES1 est découpé entre les paquets transport PT1, PT3 et PT4 ; PES2 tient exactement dans le paquet PT6.
9782100520442-Livre.fm Page 77 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 4 – MULTIPLEXAGE
DES SIGNAUX
Figure 4.5 – Constitution du paquet transport (cas général)
77
© Dunod. La photocopie non autorisée est un délit.
Tableau 4.5 – Structure de l’en-tête de paquet transport MPEG-2
Figure 4.6 – Détail de l’en-tête de paquet transport
9782100520442-Livre.fm Page 78 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
La longueur des paquets PES n’étant en général pas multiple de 184 octets, le
dernier paquet transport d’un paquet PES devra donc débuter par un champ
d’adaptation (Adaptation Field, AF) dont la longueur sera le complément à 184 du
nombre d’octets restant à transmettre pour terminer ce paquet PES (figure 4.7).
Figure 4.7 – Constitution du dernier paquet transport d’un PES
78
Outre ce rôle de remplissage, le champ d’adaptation sera également utilisé pour la
transmission de la référence d’horloge du programme (Program Clock Reference,
PCR), dont la cadence de répétition minimale est de 10 par seconde ainsi que
divers types de données optionnelles.
Un paquet « transport » pourra éventuellement n’être constitué que d’un champ
d’adaptation, de 184 octets dans ce cas particulier (transport de données privées,
de PCR, etc.).
La figure 4.8 illustre le format général du champ d’adaptation dont le contenu est
précisé par le tableau 4.6.
Figure 4.8 – Détail du champ d’adaptation
9782100520442-Livre.fm Page 79 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 4 – MULTIPLEXAGE
DES SIGNAUX
Tableau 4.6 – Constitution du champ d’adaptation MPEG-2
4.2.2 Organisation du multiplex transport ; les tables MPEG-2
Comme nous l’avons vu, un multiplex « transport » MPEG-2 peut transporter
plusieurs programmes, composés chacun d’un ou plusieurs trains élémentaires en
paquets (PES).
Afin que le décodeur puisse se retrouver dans cette jungle, MPEG-2 a défini quatre
types de tables dont l’ensemble constitue l’information spécifique des programmes
(Program Specific Information, PSI).
Program Association Table (PAT)
Cette table, dont la présence est obligatoire, est transportée par les paquets dont
l’indicateur porte le numéro 0 (PID = 0 × 0000).
Son rôle est d’indiquer, pour chaque programme convoyé par le multiplex « transport », le lien entre le numéro de programme (de 0 à 65 535) et le PID des paquets
transportant une table indiquant la « carte » du programme (Program Map Table,
PMT).
La PAT est toujours transmise en clair, même si tous les programmes sont
embrouillés.
© Dunod. La photocopie non autorisée est un délit.
Conditional Access Table (CAT)
Cette table doit être présente dès lors qu’un programme au moins est à accès conditionnel.
Elle est transportée par les paquets de PID = 0 × 0001 et indique les PID des
paquets transportant les EMM pour un ou plusieurs systèmes de contrôle d’accès
(une des informations nécessaires au désembrouillage des programmes à accès
conditionnel, voir chapitre suivant).
Transport Stream Description Table (TSDT)
Cette table décrit le contenu du multiplex.
Elle est transportée par les paquets de PID = 0 × 0002.
79
9782100520442-Livre.fm Page 80 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Program Map Table (PMT)
Il y a en a une par programme présent dans le multiplex.
Elle indique principalement (en clair) les PID des trains élémentaires constituant
le programme et optionnellement d’autres informations « privées » relatives au
programme, qui peuvent être éventuellement embrouillées (par exemple ECM
pour le contrôle d’accès, voir chapitre suivant).
Elle peut être transportée par des paquets de PID arbitraire définis par l’émetteur
dans la PAT (hors valeurs réservées).
La norme DVB ajoute des tables complémentaires aux tables MPEG-2 dont une partie
est facultative. Ces informations appelées DVB-SI (Service Information) permettant
au récepteur de se configurer automatiquement et à l’utilisateur de « naviguer »
dans les nombreux services offerts.
Cette information se compose de quatre tables obligatoires et de trois tables facultatives (voir ETSI EN 300468, Digital Video Broadcasting [DVB], specification for
service information (SI) in DVB systems) :
✧
Tables obligatoires de DVB-SI
Ces tables concernent le multiplex courant (actual transport stream).
80
Network Information Table (NIT)
Cette « table d’information de réseau » transporte des informations spécifiques
relatives à un réseau constitué de plusieurs canaux physiques (donc plusieurs trains
transports indépendants), telles que (au minimum) les fréquences et/ou les numéros
de canaux du réseau utilisés lors de la configuration du récepteur.
Elle est transportée par le paquet de PID = 0 × 0010.
Service description table (SDT)
Cette table liste les noms et d’autres paramètres associés à chaque service d’un
même multiplex.
Elle est transportée par le paquet de PID = 0 × 0011.
Event Information Table (EIT) « present/following »
Cette table est utilisée pour la transmission d’informations relatives aux « événements » en cours ou à venir immédiatement à la suite de l’émission en cours dans
le multiplex MPEG reçu.
Elle est transportée par le paquet de PID = 0 × 0012.
9782100520442-Livre.fm Page 81 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 4 – MULTIPLEXAGE
DES SIGNAUX
Time and Date Table (TDT)
Cette table est utilisée pour la remise à l’heure de l’horloge interne du récepteur.
Elle est transportée par le paquet de PID = 0 × 0014.
✧
Tables facultatives de DVB-SI
Tables concernant le multiplex courant (actual transport stream).
Bouquet Association Table (BAT)
Cette table (présente dans tous les multiplex constituant le bouquet) est utilisée
pour grouper la présentation à l’utilisateur de « bouquets » de services associés.
Un service particulier peut appartenir à un ou plusieurs bouquets.
Elle est transportée par les paquets de PID = 0 × 0011.
Event Information Table (EIT) « schedule »
Cette table est utilisée pour la transmission d’informations relatives aux programmes sur une période plus longue (journée, semaine) dans le multiplex MPEG reçu.
Elle est transportée par les paquets de PID = 0 × 0012.
Running Status Table (RST)
Cette table est transmise pour la mise à jour rapide d’un ou plusieurs événements,
une seule fois, au moment où un changement se produit (à la différence des autres
tables qui sont transmises de façon répétitive).
Elle est transportée par les paquets de PID = 0 × 0013.
Time Offset Table (TOT)
Cette table permet d’indiquer le décalage horaire par rapport à l’heure GMT.
© Dunod. La photocopie non autorisée est un délit.
Elle est transportée par les paquets de PID = 0 × 0014.
Stuffing Tables (ST)
Ces tables de « remplissage » sont utilisées par exemple pour invalider des tables
devenues inutiles.
Elles sont transportées par les paquets de PID = 0 × 0010 à 0 × 0014.
✧
Tables concernant d’autres multiplex (other transport stream)
Elles ont le même format et utilisent les mêmes PID que les tables « actual transport stream ».
Network Information Table (NIT)
Service description table (SDT)
81
9782100520442-Livre.fm Page 82 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Event Information Table (EIT) « present / following » et « schedule »
La fréquence de répétition des tables doit être suffisante pour permettre au décodeur
d’accéder assez rapidement au programme recherché et d’accélérer la mise en service.
Le document ETSI TR 101 290 définit les cadences de répétition maximales et minimales des tables selon leur type.
Les informations « quasi statiques » (PAT, PMT) pourront éventuellement être
stockées dans une mémoire non volatile du décodeur pour permettre un accès plus
rapide après la première mise en service. Ultérieurement, cette mémoire devra être
remise à jour lors des modifications éventuelles du contenu du multiplex.
Chaque table est constituée, selon son importance, d’une ou plusieurs sections (au
maximum 256, chacune de longueur maximale 1 024 octets, sauf pour la table
private ou elle peut atteindre 4 096 octets).
Les tableaux 4.7 à 4.10 montrent la structure et les différents champs des sections
des 4 catégories de tables (PAT, CAT, PMT et private) définies par la norme MPEG-2.
Les tables additionnelles de DVB ont un format similaire simplement adapté à leur
contenu.
82
Tableau 4.7 – Description d’une section de la table d’allocation de programmes (PAT)
9782100520442-Livre.fm Page 83 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 4 – MULTIPLEXAGE
DES SIGNAUX
Tableau 4.8 – Tables de contrôle d’accès (CAT) et de description de multiplex (TSDT)
© Dunod. La photocopie non autorisée est un délit.
83
Tableau 4.9 – Table de carte de programme (PMT)
9782100520442-Livre.fm Page 84 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Tableau 4.10 – Description d’une section de données privées (private section)
(*) la zone de données privées est représentée ici en format libre (syntax_indicator = 0).
Si syntax_indicator = 1, le format données privées est similaire à celui de la CAT
(sauf longueur).
✧
Insertion des sections dans les paquets transport
Contrairement aux PES, les sections ne débutent ni ne finissent pas forcément avec
un paquet transport. Lorsqu’une section (ou un PES) débute dans un paquet,
l’indicateur payload_unit_start_indicator (PUSI) est mis à « 1 ».
84
S’il s’agit d’une section, le paquet peut débuter par la fin d’une autre section, précédée ou non d’un champ d’adaptation (adaptation_field). Le premier octet de la
« charge utile » (payload), est un indicateur appelé pointer_field qui donne le décalage (offset) du début de la nouvelle section par rapport à cet octet.
La figure 4.9 illustre le cas où une section débute dans un paquet transport, après
un champ d’adaptation (AF) et la fin d’une section précédente.
Figure 4.9 – Cas général du début de section dans un paquet transport
Le bit PUSI est à 1 lorsqu’il y a au moins un début de section dans un paquet transport.
Les sections n’étant pas alignées sur le début du paquet, le premier octet de la charge utile
(pointer_field) indique le décalage (offset) du début de section.
Au moment de l’installation, lors de la recherche, le récepteur bâtit au moyen des
tables PAT (éventuellement NIT) et PMT une liste de services disponibles, qui peuvent
atteindre plusieurs milliers en cas de réception multisatellite.
9782100520442-Livre.fm Page 85 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 4 – MULTIPLEXAGE
DES SIGNAUX
Un guide électronique des programmes (Electronic Program Guide, EPG) peut être
bâti au moyen des informations EIT « schedule ». Il permet de connaître le contenu
des émissions et de programmer un enregistrement jusqu’à une semaine à l’avance.
Afin de faciliter l’accès aux chaînes les plus souvent regardées, les récepteurs nonpropriétaires permettent la constitution de listes de chaînes favorites que l’utilisateur
peut regrouper à sa guise par genre, langue ou tout autre critère de son choix.
S’il s’agit de récepteurs pour télévision à péage « propriétaires », les chaînes mémorisées peuvent être limitées à celles du bouquet (ou associées) au moyen des tables
BAT et sont numérotées selon un ordre fixé par l’opérateur, modifiable ou non par
l’utilisateur.
La ou les listes ainsi constituées mémorisent les numéros de PID des éléments
constituant chaque programme ou service et permettent d’y accéder rapidement
sans consulter les tables PAT et PMT s’il n’y a pas eu de changement dans le multiplex.
Ces changements peuvent être éventuellement détectés et pris en compte automatiquement par la consultation périodique des tables NIT, mais cette option n’est pas
très simple à mettre en œuvre pour un récepteur satellite non propriétaire.
Pour la télévision numérique terrestre, le nombre de programmes est beaucoup plus
restreint et l’ensemble des multiplex d’un même pays constitue en général un seul
réseau avec une NIT et une SDT communes contenant notamment un champ
« logical channel number » (LCN) décrivant une numérotation des programmes
définie par un organisme régulateur (en France, le CSA).
© Dunod. La photocopie non autorisée est un délit.
Si la fonction de suivi réseau est activée, le récepteur TNT pourra remettre à jour
automatiquement sa liste de chaînes lors des changements de contenus de multiplex.
85
9782100520442-Livre.fm Page 86 Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page 87 Jeudi, 24. juin 2010 11:35 11
Chapitre 5
Embrouillage
et accès conditionnel
87
La proportion d’émissions gratuites (à accès libre) est déjà de plus en plus
réduite dans les nouveaux services analogiques proposés par câble ou satellite ;
il est donc certain qu’au moins au départ la plupart des émissions numériques
seront payantes.
© Dunod. La photocopie non autorisée est un délit.
Les formes de péage pourront être beaucoup plus diversifiées (abonnement classique, péage à la séance, vidéo « quasi à la demande »…) que celles que nous
connaissons actuellement, ce qui sera grandement facilité par le débit de données
élevé offert par le système.
La norme DVB prévoit, comme nous l’avons vu dans le chapitre précédent, le
transport de données d’accès conditionnel auxquelles on accède par la table d’accès
conditionnel (CAT) ainsi qu’au moyen d’autres paquets de données privées indiqués par la PMT ;
La norme définit aussi un algorithme commun d’embrouillage (Common Scrambling
Algorithm, CSA) pour lequel le compromis coût/complexité a été choisi avec un
objectif de durée de vie suffisamment long (temps pendant lequel il devrait pouvoir
résister aux attaques des pirates…).
En ce qui concerne l’accès conditionnel (Conditional Access, CA) lui-même, il n’est
pas spécifié par la norme, car la plupart des opérateurs veulent jalousement avoir le
sien, ce qui s’explique à la fois pour des raisons « commerciales » de contrôle des
9782100520442-Livre.fm Page 88 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
abonnés et pour des raisons de sécurité, car plus un système est ouvert, plus il a de
chances d’être piraté rapidement.
Cependant, afin d’éviter à l’utilisateur désirant avoir accès à plusieurs réseaux utilisant des systèmes d’accès conditionnel différents d’avoir à « empiler des boîtes »,
c’est-à-dire un décodeur par réseau, deux options au moins sont prévues par la
norme :
Simulcrypt
Possibilité d’accéder à une même émission par plusieurs systèmes d’accès conditionnel différents (technique nécessitant des accords entre réseaux).
Dans ce cas, le multiplex transport devra comporter des paquets d’accès conditionnel correspondant à chacun des systèmes d’accès conditionnel utilisant le même
algorithme d’embrouillage (celui normalisé par le DVB).
Multicrypt
Utilisation d’un module d’accès conditionnel et de désembrouillage « détachable »
au format mécanique PCMCIA inséré sur le chemin des données reçues au niveau
« transport » via une interface normalisée (Common Interface, DVB-CI) qui
comporte également un bus, permettant au module, qui peut comporter un lecteur
de carte à puce, de communiquer avec le décodeur.
88
Dans cette approche, une même boîte peut disposer de plusieurs slots PCMCIA :
l’utilisateur peut alors connecter un module pour chaque réseau utilisant un
système d’accès conditionnel et/ou d’embrouillage différent (voir annexe 7).
Cette interface pourra également être utilisée pour d’autres applications (transfert
de données, etc.).
5.1
Principes de l’embrouillage de la norme DVB
Étant donné la nature très… délicate de cette partie de la norme, seuls ses principes généraux sont publics, les détails d’implémentation n’étant accessibles qu’aux
organisations opérant des réseaux de télévision à péage moyennant engagement de
confidentialité.
L’algorithme d’embrouillage, prévu pour résister le plus longtemps possible aux
attaques des pirates, consiste en un chiffrement à deux couches indépendantes,
dont chacune pallie les éventuelles faiblesses de l’autre :
• une couche « blocs » de 8 octets (reverse cipher block chaining mode) ;
• une couche « train » (générateur d’octets pseudo-aléatoires).
9782100520442-Livre.fm Page 89 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 5 – EMBROUILLAGE
ET ACCÈS CONDITIONNEL
L’algorithme d’embrouillage utilise deux mots de contrôle de 64 bits alternés
(pair/impair) avec une fréquence de l’ordre de deux secondes, de manière à rendre
le piratage plus difficile.
Un mot de contrôle est transmis (crypté, dans les ECM) pendant que l’autre est
utilisé ; les mots de contrôle doivent donc être stockés temporairement dans des
registres du dispositif de désembrouilage.
Il existe également un mot de contrôle « par défaut » (par exemple pour
embrouillage à accès libre).
La norme DVB prévoit de plus la possibilité d’embrouillage à deux niveaux, qui ne
peuvent toutefois pas être utilisés simultanément :
✧
Au niveau transport
Nous avons vu dans le chapitre précédent (figure 4.6) que l’en-tête du paquet
« transport » comportait un champ de 2 bits appelés « transport_scrambling_flags ».
Leur état indique si indique que le paquet est embrouillé et avec quel mot de contrôle
selon le tableau 5.1.
89
© Dunod. La photocopie non autorisée est un délit.
Tableau 5.1 – Signification des bits transport_scrambling_flags
L’embrouillage au niveau transport est réalisé après multiplexage sur l’ensemble de
la charge utile du paquet transport, les PES arrivant au multiplexeur étant « en
clair ».
Du fait qu’un paquet transport ne peut contenir que des données provenant d’un
seul PES, il est néanmoins possible de n’embrouiller au niveau « transport » que
tout ou partie des PES composant un ou plusieurs programmes du multiplex.
✧
Au niveau PES
Dans ce cas, l’embrouillage a généralement lieu « à la source », avant multiplexage, et
sa présence et son mot de contrôle sont indiquées par les 2 bits « PES_scrambling_control » dans l’en-tête de PES dont le format est indiqué au chapitre précédent
(voir tableau 4.4).
9782100520442-Livre.fm Page 90 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Le tableau 5.2 précise le mot de contrôle utilisé selon l’état de ces deux bits.
Tableau 5.2 – Signification des bits PES_scrambling_flags
Les limitations suivantes s’appliquent à l’embrouillage au niveau PES :
• l’en-tête lui-même n’est bien sûr pas embrouillé dans ce cas ; le désembrouilleur sait où commencer le désembrouillage grâce au champ
PES_header_length (longueur d’en-tête PES) et où l’arrêter grâce au champ
packet_length ;
• l’embrouillage doit se faire sur des tronçons de 184 octets, et seul le dernier
paquet transport d’un PES peut comporter un champ d’adaptation ;
• l’en-tête de PES ne doit pas excèder 184 octets pour tenir dans un seul
paquet transport ;
• le mot de contrôle par défaut n’est pas autorisé en embrouillage PES.
90
5.2
Mécanismes d’accès conditionnel
Les informations nécessaires au désembrouillage sont transmises dans des messages spécifiques appelés messages d’accès conditionnel (Conditional Access Messages,
CAM), qui sont de deux types (ECM et EMM) et sont générés à partir de 3 données
d’entrées :
• un mot de contrôle (control word) destiné à initialiser la séquence de
désembrouillage ;
• une clé de service (service key) utilisée pour crypter le mot de contrôle, pour
un groupe d’un ou plusieurs utilisateurs ;
• une clé utilisateur (user key) utilisée pour crypter la clé de service.
Le schéma de la figure 5.1 illustre le processus.
9782100520442-Livre.fm Page 91 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 5 – EMBROUILLAGE
ET ACCÈS CONDITIONNEL
Figure 5.1 – Processus de codage des ECM et EMM
Les ECM (Entitlement Control Messages) sont une fonction du mot de contrôle et de
la clé de service et sont transmis toutes les 2 secondes environ.
Les EMM (Entitlement Management Messages) sont une fonction de la clé de
service et de la clé utilisateur et sont transmis toutes les 10 secondes environ.
À la réception, le principe du décryptage consiste à retrouver la clé de service à
partir des EMM et de la clé utilisateur contenue par exemple dans une carte à puce.
Cette clé de service est ensuite elle-même utilisée pour décrypter les ECM afin de
retrouver le mot de contrôle permettant l’initialisation du système de désembrouillage.
Ce processus est très schématiquement illustré par la figure 5.2.
© Dunod. La photocopie non autorisée est un délit.
La figure 5.3 illustre le processus suivi pour retrouver les EMM et ECM nécessaires
à désembrouiller un programme donné (ici le programme 3).
La Table d’Association de Programmes (PID 0) indique le PID M du paquet où se
trouve la Table de Carte de Programme (PMT) qui indique, outre les PID des PES
audio, vidéo et des PCR du programme, ceux transportant les ECM qui permettront de retrouver le mot de contrôle de désembrouillage.
La Table d’Accès Conditionnel (CAT, PID 0 × 0001) indique dans quels paquets se
trouvent les EMM d’un ou plusieurs systèmes d’accès conditionnel.
À partir de ces informations et de la clé utilisateur contenue dans la carte à puce, le
système de désembrouillage peut reconstituer le mot de contrôle qu’il devra utiliser
pour désembrouiller le prochain paquet (PES ou transport selon le cas).
Le processus décrit ci-dessus est bien sûr très schématique et l’implémentation
effective du système ainsi que le support contenant la clé utilisateur pourront varier
d’un opérateur à l’autre, et il est bien évident que les détails de ces systèmes ne sont
pas du domaine public.
91
9782100520442-Livre.fm Page 92 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 5.2 – Reconstitution des mots de contrôle à partir des ECM et EMM
92
Figure 5.3 – Processus suivi pour retrouver les EMM et ECM
9782100520442-Livre.fm Page 93 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 5 – EMBROUILLAGE
5.3
ET ACCÈS CONDITIONNEL
Principaux systèmes d’accès conditionnel
Le tableau 5.3 indique les principaux systèmes d’accès conditionnel utilisés par les
opérateurs de télévision numérique à péage. La plupart de ces systèmes utilisent la
norme d’embrouillage DVB-CSA avec un désembrouilleur et un logiciel de contrôle
d’accès intégrés au récepteur, les droits d’accès étant contenus dans une carte
d’abonné à puce.
Système
Origine
Opérateurs (exemples)
Conax
Conax AS (Norvège)
Divers opérateurs scandinaves
CryptoWorks
Philips
Viacom, MTV Networks…
IrDETO
Nethold
Multichoice…
Mediaguard
SECA (Kudelski S.A.)
Canal+, Canal Sat, Top Up TV…
Nagravision
Kudelski S.A.
Dish Network, Premiere
Viaccess
France Telecom
AB-Sat, SSR/SRG, Numéricable, TNTSAT, FRANSAT…
Videoguard
News Datacom (NDS)
BskyB, Sky Italia…
Tableau 5.3 – Principaux systèmes européens d’accès conditionnel
© Dunod. La photocopie non autorisée est un délit.
Afin de lutter contre le piratage, les systèmes d’accès conditionnel évoluent sans
cesse, et les versions se sont multipliées ces dernières années (ce qui peut nécessiter un renouvellement périodique des cartes d’abonné). Le tableau 5.3 ne prétend
donc pas être exhaustif ni à jour et n’est fourni qu’à titre indicatif.
93
9782100520442-Livre.fm Page 94 Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page 95 Jeudi, 24. juin 2010 11:35 11
Chapitre 6
Codage de canal
Une fois les opérations de codage de source effectuées (l’ensemble du processus
étudié dans les précédents chapitres), on dispose donc d’un train « transport »
constitué de paquets de 188 octets que l’on désire transmettre par voie radiofréquence (satellite, câble, émission terrestre) vers les utilisateurs.
© Dunod. La photocopie non autorisée est un délit.
Nous avons laissé entendre plus haut que ces « canaux » de transmission n’étaient
malheureusement pas exempts d’erreurs, en raison de toutes sortes de perturbations qui viennent s’ajouter au signal utile (bruit, interférences, échos…).
Or un signal numérique, en particulier lorsque l’on en a pratiquement supprimé
toute redondance lors d’un processus de compression, exige un taux d’erreurs
(BER ou Bit Error Rate) extrêmement faible pour obtenir des performances satisfaisantes (BER de 10–10 à 10–12, soit de l’ordre d’une erreur par heure pour un débit
utile de 30 Mb/s).
Un canal assurant ce taux d’erreurs est dit « quasi sans erreur » (QEF, Quasi Error
Free) ; on utilise aussi l’expression de « super canal ».
Il convient donc de prendre des mesures préventives avant modulation pour
permettre la détection et la correction dans le récepteur de la plupart des erreurs
apportées par le canal de transmission dans des conditions normales d’exploitation.
Ces mesures, dont la principale consiste toujours à réintroduire une redondance
calculée dans le signal (donc à diminuer l’efficacité du processus de compression),
sont appelées Forward Error Correction (FEC) et constituent l’essentiel du codage
de canal.
95
9782100520442-Livre.fm Page 96 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Elles devront être bien sûr adaptées aux spécificités du canal de transmission.
Figure 6.1 – Suite des opérations de correction d’erreur effectuées à l’émission
Ces opérations sont explicitées dans les paragraphes suivants, sans toutefois
entrer vraiment en profondeur dans les arcanes des codes correcteurs d’erreurs
sophistiqués utilisés.
L’annexe A en fin d’ouvrage en expose cependant le principe en s’appuyant sur la
description de codes plus simples et fournit quelques références bibliographiques
au lecteur désireux de « creuser » ce sujet.
6.1
96
Dispersion d’énergie
Cette partie du traitement n’est pas à proprement parler destinée à la correction
des erreurs, mais elle est spécifiée comme devant la précéder à l’émission pour
uniformiser le spectre RF.
Les paquets transport ont une longueur de 188 octets, et le premier est un octet de
synchronisation de valeur 47 hex. (01000111), les bits de poids fort étant transmis
en tête (figure 6.2).
Figure 6.2 – Paquet « transport » avant correction d’erreur
Afin d’éviter les longues suites de 0 ou de 1, le signal doit être rendu quasi aléatoire
(randomized) pour assurer la dispersion d’énergie du spectre radiofréquence rayonné
(répartition uniforme de l’énergie dans le canal d’émission).
Ceci est obtenu au moyen d’un embrouillage des données (ou brassage) par une
séquence pseudo-aléatoire (PRBS, Pseudo Random Binary Sequence) de polynôme
générateur 1 + X14 + X15.
9782100520442-Livre.fm Page 97 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 6 – CODAGE
DE CANAL
Le schéma correspondant du générateur pseudo-aléatoire, qui est le même pour
l’embrouillage et le désembrouillage (ou débrassage), est relativement simple et
représenté à la figure 6.3.
Figure 6.3 – Schéma correspondant du générateur pseudo-aléatoire
(d’après prETS 300 421, European Telecommunication Standards Institute, 1995)
Le générateur pseudo-aléatoire est réinitialisé tous les 8 paquets transport par le
chargement de la séquence « 100101010000000 » dans son registre.
Afin de pouvoir repérer le début de la séquence, l’octet de synchronisation du
premier paquet du groupe de 8 auquel s’applique l’embrouillage est inversé (47 hex
devient donc B8 hex).
Les octets de synchronisation ne sont pas affectés par l’embrouillage bien que la
séquence ne soit pas interrompue pendant ce temps (seule l’entrée ENABLE qui
valide la sortie du générateur n’est pas active pendant les octets de synchronisation).
© Dunod. La photocopie non autorisée est un délit.
La figure 6.4 illustre la structure des paquets transport ainsi « randomisés » à la
sortie du dispositif de dispersion d’énergie.
Figure 6.4 – Paquets transport après dispersion d’énergie
(d’après prETS 300 421, European Telecommunication Institute, 1995)
Celui-ci doit être actif même en l’absence de données ou en présence de données
non conformes à MPEG-2 à son entrée pour éviter l’émission d’une porteuse pure
en toutes circonstances.
97
9782100520442-Livre.fm Page 98 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
6.2
Codage de Reed-Solomon (codage externe)
Afin de pouvoir corriger la majeure partie des erreurs introduites par le canal de
transmission, nous avons indiqué précédemment qu’il était nécessaire d’introduire
une redondance dans le signal permettant de détecter et, jusqu’à un certain point,
corriger ces erreurs.
Un codage dit externe (outer coding), par opposition au codage complémentaire
interne (inner coding) décrit plus loin pour les cas du satellite et du terrestre, est
spécifié par DVB pour tous les modes de transmission.
C’est un code de Reed-Solomon RS (204, 188, T = 8), version raccourcie du code RS
(255, 239, T = 8), voir annexe A. Il permet, en combinaison avec « l’entrelacement »
qui le suit, la correction des erreurs « en rafale » introduites par le canal.
Ce codage s’applique individuellement à chacun des paquets de la figure 6.4,
y compris les octets de synchronisation.
Il ajoute 16 octets de parité aux octets d’information des paquets transport,
et permettra au décodeur de canal de corriger jusqu’à 8 octets erronés, d’où
l’appellation RS (204, 188, T = 8).
Au-delà de 8 octets en erreur, le paquet sera signalé comme erroné et non correctible par le décodeur de canal, laissant aux circuits suivants du récepteur le choix du
sort à lui réserver…
98
La figure 6.5 indique le format des paquets transport protégés.
Figure 6.5 – Format des paquets transport protégés
6.3
Dispersion temporelle des erreurs
(entrelacement ou Forney convolutional interleaving)
Cette étape est destinée à augmenter l’efficacité du codage de Reed-Solomon.
Afin de répartir dans le temps les erreurs introduites par le canal, qui se produisent
souvent en rafales affectant plusieurs octets successifs, pouvant ainsi excéder la
capacité de correction du codage Reed-Solomon seul (8 octets par paquet), on
procède à un « entrelacement » temporel des octets en modifiant leur ordre de
transmission.
9782100520442-Livre.fm Page 99 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 6 – CODAGE
DE CANAL
Ce processus illustré par la figure 6.6, est connu sous le nom de Forney convolutional interleaving.
© Dunod. La photocopie non autorisée est un délit.
Figure 6.6 – Forney convolutional interleaving
(d’après prETS 300 421, European Telecommunication Standards Institute, 1995)
Il consiste schématiquement, au moyen d’une banque de 12 FIFOs et d’un dispositif
d’aiguillage à 12 branches, à transmettre 12 octets successifs (d’indices j = 0 à 11)
204
L
chacun à travers un FIFO de longueur M × j (avec M = -- = ------- = 17 , où L est
12
I
la longueur du paquet protégé et I la « profondeur d’entrelacement », interleaving
depth).
Un octet se trouve donc décalé dans le temps de 0 à 187 (11 × 17) positions ; le
processus inverse a lieu en synchronisme à la réception, l’octet retardé de j × 17
positions à l’émission est retardé de (11 – j) × 17 positions à la réception : tout le
monde est donc au final retardé de (j + 11 – j) × 17, c’est-à-dire 187 positions et
l’ordre initial est retrouvé.
De cette manière, une rafale d’erreurs, après réarrangement temporel dans le
récepteur, se trouvera répartie sur deux paquets successifs, et restera la plupart du
temps en deçà des capacités de correction du codage de Reed-Solomon.
L’octet de synchronisation, inversé ou non, suit toujours le chemin d’indice j = 0
pour permettre son repérage.
Le traitement décrit jusqu’à ce point est commun à tous les modes de transmission
RF prévus actuellement (satellite, câble, terrestre), quel que soit le type de modulation utilisée.
Dans le cas du câble (modulation 64-QAM, voir chapitre suivant), la seule opération restant à effectuer avant filtrage et modulation sera la conversion du train de
bits série en 2 signaux I et Q de 3 bits chacun représentant des symboles de 6 bits.
Cette opération purement logique est appelée symbol mapping.
99
9782100520442-Livre.fm Page 100 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
La figure 6.7 représente schématiquement ce processus ; le processus réel est plus
complexe en raison du codage différentiel des deux bits de poids fort (MSB) des
symboles, voir chapitre suivant.
Figure 6.7 – Exemple de symbol mapping (cas de la modulation 64-QAM)
Pour le satellite et les émissions terrestres, le codage de canal comporte une opération supplémentaire, appelée codage interne.
Elle est destinée à corriger un maximum d’erreurs aléatoires dues au faible rapport
signal à bruit.
100
La correction d’erreur permise par ce codage de type convolutif est complémentaire
de celle réalisée par l’ensemble entrelacement + codage de Reed-Solomon.
Son objectif est d’obtenir, à partir d’un taux d’erreur (BER) d’environ 10–2 à la
sortie du démodulateur QPSK, un taux d’erreur maximal de l’ordre de 10–4 à
l’entrée du décodeur Reed-Solomon, pour garantir une réception « quasi sans
erreur » (BER de l’ordre de 10–10 à 10–11 après décodage RS).
6.4
Codage convolutif (codage interne)
Le principe de ce codage est décrit, dans ses grandes lignes, à l’annexe A.
Figure 6.8 – Codage convolutif (paramètres de base DVB)
9782100520442-Livre.fm Page 101 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 6 – CODAGE
DE CANAL
Le cas de la norme DVB est illustré schématiquement par la figure 6.8, pour les
paramètres de base ci-dessous :
•
•
•
•
RC = 1/2 ;
K=7;
G1 = 171oct ;
G2 = 133oct.
La forte redondance introduite par ce code (100 %) permet une correction
d’erreurs très puissante, indispensable en cas de transmission à très faible rapport
signal/bruit, mais elle réduit de moitié l’efficacité spectrale du canal : dans ce cas,
les signaux X et Y obtenus en sortie du codeur sont directement appliqués respectivement aux entrées I et Q du modulateur QPSK, et le débit « utile » du canal (en
bits par seconde) est la moitié de celui effectivement utilisé par la transmission.
Le codage convolutif permet cependant de ne pas transmettre tous les bits des
sorties X et Y en effectuant une opération dite de « poinçonnage » (puncturing) sur
les trains de sortie, réduisant ainsi la redondance du code ; le principe consiste à
supprimer un bit d’une des 2 sorties pendant que le bit simultané de l’autre sortie
est transmis.
Les signaux I et Q sont alors obtenus en alternant les sorties X et Y de manière à
former deux trains binaires équilibrés.
On obtient ainsi les valeurs poinçonnées du taux d’émission spécifiées par la
norme (punctured rate Rc = 2/3, 3/4, 5/6 ou 7/8).
© Dunod. La photocopie non autorisée est un délit.
Ces chiffres représentent le rapport entre le débit utile et le débit effectif transmis.
Ils sont le produit du code rate convolutif pur (1/2) et du taux de poinçonnage : par
exemple, le code rate 2/3, est le produit de 1/2 (code convolutif) par 4/3 (le poinçonnage garde 3 bits sur 4).
Cette opération augmente la capacité de transmission du canal au prix d’une
réduction de la distance limite (dfree), donc de la capacité de correction des erreurs
aléatoires dues au bruit.
Le choix du code rate par le diffuseur sera donc un compromis entre le débit utile
du canal et l’étendue de la zone de service recherchée pour une puissance d’émission et une dimension d’antenne de réception données.
Le tableau 6.1 donne la distance limite dfree, le schéma de poinçonnage des sorties
X et Y du codeur convolutif et la définition des signaux I et Q appliqués à l’entrée du
modulateur QPSK (satellite), pour les cinq code rates prévus par la norme DVB.
101
9782100520442-Livre.fm Page 102 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Tableau 6.1 – Caractéristiques du codage convolutif DVB
Remarque : pour X et Y, 0 signifie bit non transmis, 1 signifie bit transmis.
Pour le cas des émissions terrestres en modulation OFDM, après le codage interne,
les opérations supplémentaires de sérialisation, d’entrelacement interne et de
symbol mapping sont nécessaires pour adapter le train série au grand nombre de
porteuses utilisées.
La ligne SOFDM représente la sortie sérialisée appliquée à l’entrée du dispositif
d’entrelacement interne utilisé uniquement dans le cas de la télévision terrestre en
modulation OFDM.
102
6.5
Nouveaux algorithmes de codage de canal (BCH, LDPC)
Afin d’augmenter significativement la capacité de transmission pour un rapport
signal/bruit donné (et donc se rapprocher de la limite de la théorie de l’information
de Shannon) et afin de ne plus limiter le format des données transportées au seul
transport stream, de nouveaux algorithmes de codage ont été introduits pour les
systèmes DVB de seconde génération.
Ces algorithmes sont brièvement couverts au chapitre 7, section 7.5 « Les normes
de transmission DVB de seconde génération (DVB-S2, DVB-T2, DVB-C2) ».
9782100520442-Livre.fm Page 103 Jeudi, 24. juin 2010 11:35 11
Chapitre 7
Modulation
des signaux numériques
103
© Dunod. La photocopie non autorisée est un délit.
Une fois effectuées les différentes opérations constituant le codage de source
(codage MPEG audio et vidéo, insertion de données, multiplexage, embrouillage
éventuel), puis celles constituant le codage de canal (dispersion d’énergie, codage
externe de Reed-Solomon, entrelacement et, pour le satellite et le terrestre, codage
interne convolutif) on dispose d’un flux de données prêt à moduler une porteuse
pour l’émission vers les utilisateurs.
Selon le médium utilisé (satellite, câble, terrestre) on disposera d’une largeur de
bande déterminée par des considérations à la fois techniques et administratives,
ces dernières découlant en grande partie des premières.
Les conditions techniques (rapport signal/bruit et échos principalement) sont en
effet très différentes entre la réception de signaux provenant de satellites, stables
mais faibles car provenant d’un émetteur peu puissant (quelques dizaines de
watts) situé à 36 000 km de distance, de réseau câblé où l’on dispose généralement
des signaux relativement puissants et stables sur la prise de l’abonné, et la réception hertzienne terrestre où les conditions peuvent être très variables.
De ce fait :
• le rapport signal/bruit (C/N ou CNR, Carrier to Noise Ratio) d’une réception
satellite est très faible (de l’ordre de 10 dB), mais le signal reçu est pratiquement dépourvu d’écho ;
9782100520442-Livre.fm Page 104 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• à l’inverse, en réception câble, le rapport signal/bruit est relativement élevé
(supérieur à 30 dB), mais le signal peut être affecté d’échos courts dus à des
désadaptations d’impédance de ligne ;
• en réception hertzienne terrestre, les conditions sont plus difficiles que
celles sur câble, surtout si l’on envisage la réception avec des antennes
sommaires et la réception mobile (échos aggravés, interférences, variations
de signal importantes).
C’est pourquoi les techniques de modulation différeront pour s’adapter au mieux
aux conditions imposées par le canal de transmission et à la cohabitation avec les
émissions analogiques.
• Sur satellite, les canaux sont en général de largeur 27 MHz (Astra par exemple)
à 36 MHz (Télécom par exemple), ce qui résulte de la nécessité d’employer la
modulation de fréquence (FM) pour la transmission d’une émission de télévision analogique (bande passante 6 à 8 MHz avec le ou les sons associés) dans
les conditions de rapport signal/bruit très faible indiquées précédemment.
• Sur câble ou en émission terrestre, la largeur des canaux s’étage de 6 MHz
(USA) à 7 ou 8 MHz (Europe), en raison de l’emploi de la modulation
d’amplitude à Bande Latérale Atténuée (BLA ou VSB, Vestigial Side Band)
pour la vidéo, avec une ou plusieurs porteuses son associées.
104
Les émissions numériques héritent de cette situation et devront en général utiliser
les mêmes largeurs de canaux que leurs homologues analogiques, en raison, entre
autres, de la coexistence des deux types d’émissions sur un même satellite, réseau
câblé ou hertzien et du souhait d’une certaine compatibilité avec les matériels
d’émission et de distribution existants.
7.1
Généralités sur la modulation par signaux numériques
Les signaux numériques sont des suites d’impulsions rectangulaires représentant
des 0 et des 1.
Selon les caractéristiques du canal, plusieurs bits peuvent être combinés pour
former des symboles afin d’augmenter l’efficacité spectrale de la modulation.
Toutefois, sans filtrage, le spectre des signaux numériques est infini, impliquant
théoriquement une bande passante infinie pour leur transmission, ce qui n’est bien
sûr pas envisageable.
De ce fait, il convient de leur appliquer un filtrage pour limiter cette bande passante ;
ce filtrage devra être choisi de manière à optimiser les performances de la chaîne de
transmission.
9782100520442-Livre.fm Page 105 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
La limitation de bande passante se traduit en effet par un allongement théoriquement infini de la réponse temporelle, ce qui, sans précaution particulière, peut se
traduire par des « chevauchements » entre symboles successifs, donc des erreurs
de démodulation : c’est ce que l’on appelle l’interférence intersymbole (Inter
Symbol Interference, ISI).
Pour éviter ce problème, le filtrage doit satisfaire le premier critère de Nyquist, de
sorte que la réponse temporelle présente des zéros aux temps multiples de la
période de symbole.
Le filtre le plus communément utilisé est dit en cosinus surélevé (raised cosine
filter), plus connu sous le simple nom de filtre de Nyquist.
Afin d’optimiser l’occupation de bande et le rapport signal/bruit, le filtrage est
réparti également entre l’émetteur et le récepteur, chacun comportant un filtre
« demi-Nyquist » (square root raised cosine filter).
Ce filtrage est caractérisé par son facteur de roll-off a, qui détermine la raideur du
filtre.
Sa réponse en fréquence normalisée à la fréquence de symbole (symbol rate) 1/T
est donnée par le tableau 7.1 (voir également figure 7.1).
Pour un signal de période de symbole T la bande passante B occupée après filtrage
est donc liée à la fréquence de symbole (symbol rate) 1/T et au facteur de roll-off a
par la relation :
© Dunod. La photocopie non autorisée est un délit.
1
B = ( 1 + α ) × ----2T
La figure 7.1 montre la courbe de réponse en fréquence du filtrage de Nyquist
(normalisée à la fréquence de symbole 1/T) pour 3 valeurs de facteurs de roll-off
(0,2 ; 0,35 ; 0,5), et la figure 7.2 la réponse temporelle correspondante (normalisée
à la période de symbole T).
La réponse temporelle fait bien apparaître des zéros situés à des multiples de la
période de symbole : pour réduire l’interférence intersymbole à son minimum, il
conviendra d’échantillonner le signal à ces instants (avec d’autant plus de précision
que le facteur de roll-off sera faible).
Tableau 7.1 – Caractéristiques du filtrage de Nyquist
105
9782100520442-Livre.fm Page 106 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 7.1 – Caractéristiques du filtrage de Nyquist
106
Figure 7.2 – Réponse temporelle du filtre de Nyquist
pour trois valeurs de roll-off α
9782100520442-Livre.fm Page 107 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
7.2
DES SIGNAUX NUMÉRIQUES
Les modulations en quadrature
Les modulations numériques les plus simples modulent directement la porteuse
par le train de bits série représentant l’information à transporter, en amplitude
(ASK, Amplitude Shift Keying) ou en fréquence (FSK, Frequency Shift Keying).
La faible efficacité spectrale de ces modulations les rend cependant inappropriées
à la transmission de débits élevés sur des canaux de largeur aussi réduite que
possible.
Afin d’augmenter l’efficacité spectrale du processus de modulation, on utilise différentes formes de Modulation d’Amplitude en Quadrature (MAQ ou QAM), initialement développée pour transmettre deux signaux analogiques sur une seule
porteuse (la première application importante connue a été, à la fin des années
quarante, la modulation de la sous-porteuse couleur du système NTSC par les deux
signaux de différence de couleur).
Dans des conditions données de rapport signal/bruit, la modulation QAM est
deux fois plus efficace que la simple modulation d’amplitude (AM) à porteuse
supprimée.
© Dunod. La photocopie non autorisée est un délit.
La figure 7.3 représente le processus schématique de modulation/démodulation en
quadrature.
Figure 7.3 – Processus modulation/démodulation en quadrature
Les symboles d’entrée (codés sur n bits) sont convertis en 2 signaux I (In phase) et Q
(Quadrature) chacun codé sur n/2 bits, soit 2n/2 états pour chacun des signaux I et Q.
Le signal I est utilisé pour moduler une sortie non déphasée de l’oscillateur local,
et le signal Q module une sortie déphasée de π/2 (90°) de ce même oscillateur.
107
9782100520442-Livre.fm Page 108 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Il en résulte dans l’espace I, Q une « constellation » de points correspondant aux
différentes valeurs que peuvent prendre les signaux I et Q.
Le tableau 7.2 résume les caractéristiques des principaux types de modulation
obtenus en fonction du nombre de bits pour chacun des signaux I et Q.
Tableau 7.2 – Caractéristiques de quelques modulations QAM
Les figures 7.4 et 7.5 représentent respectivement la constellation des modulations
4-QAM (connue sous le nom QPSK, Quadrature Phase Shift Keying) et 64-QAM à la
sortie du modulateur.
108
On y remarque que chaque point est bien distinct de ses voisins, et qu’il n’y a donc
pas d’ambiguïté sur la valeur du symbole transmis à ce niveau.
Figure 7.4 – Constellation QPSK
9782100520442-Livre.fm Page 109 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
109
© Dunod. La photocopie non autorisée est un délit.
Figure 7.5 – Constellation 64-QAM
7.3
Modulations pour la télévision par câble (DVB-C)
et satellite (DVB-S)
Afin de déterminer le meilleur choix possible pour ces modulations, un certain
nombre d’études théoriques et d’essais pratiques ont été entrepris, tant sur satellite
que sur câble.
9782100520442-Livre.fm Page 110 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
La figure 7.6 montre le taux d’erreurs (BER) théorique (donc dans des conditions
idéales) en fonction du rapport Eb/N0 1 pour les modulations 4-QAM (QPSK) à 64QAM.
On peut y remarquer une différence d’environ 12 dB pour un taux d’erreur donné
en faveur de la modulation QPSK par rapport à la modulation 64-QAM.
110
Figure 7.6 – Taux d’erreur (BER) en fonction du rapport signal à bruit (SNR)
pour différentes modulations en quadrature
1. Le rapport Eb/N0 (énergie moyenne par bit/densité de bruit) est préféré en modulation numérique au rapport C/N, car il tient compte du nombre d’états utilisés pour la modulation.
Il y a bien sûr une relation entre ces deux rapports, qui recouvrent la même réalité physique.
Eb/N0 est lié au rapport Es/N0 (énergie moyenne par symbole/densité de bruit) par la relation :
Eb/N0 = Es/Nolog2M
où M représente le nombre d’états de la modulation (par exemple 4 pour QPSK, 64 pour 64-QAM).
Le rapport Es/N0 est lui-même lié à C/N par la relation :
Es/N0 = (C/N)BeqT
où Beq est la bande équivalente de bruit (≈ largeur de canal BW) et T la période symbole.
D’où il vient la relation entre Eb/N0 et C/N (hors codage de canal) :
Eb/N0 ≈ (C/N)BW·T/log2M
C/N et Eb/N0 sont normalement exprimés en dB ; cette relation devient alors :
Eb/N0 (dB) = C/N (dB) + 10log[BW·T/log2M]
De plus, on spécifie habituellement la fréquence symbole RS = 1/T, d’où :
Eb/N0 (dB) = C/N (dB) + 10log[BW/RSlog2M]
et C/N (dB) = Eb/N0 (dB) + 10log[RSlog2M/BW]
Pour le satellite on a M = 4 (QPSK) ; si BW = 33 MHz et RS = 27,5 Ms/s, on a alors :
C/N = Eb/N0 + 2,2 (dB).
9782100520442-Livre.fm Page 111 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
Dans un récepteur réel, en raison de diverses imperfections (bruit de phase du
tuner, dissymétrie entre I et Q…), ces courbes sont décalées vers la droite, ce qui
signifie qu’il faut un rapport signal/bruit supérieur à la théorie pour obtenir un
taux d’erreur (BER) donné.
La différence (décalage vers la droite) entre la courbe théorique et la réalité obtenue
est appelée perte d’implémentation (implementation loss) et s’exprime en dB (pour
fixer les idées, elle ne doit pas atteindre 1 dB pour un bon récepteur).
Compte tenu des rapports signal/bruit obtenus en réception satellite, une modulation QPSK (2 bits par symbole) s’avère être en pratique le nombre de bits par
symbole le plus élevé possible, donc la meilleure efficacité spectrale possible, pour
les émissions par satellite.
Dans le cas du câble, une modulation jusqu’à 64-QAM (6 bits par symbole), beaucoup plus efficace, est utilisable (certaines propositions américaines envisagent
même le 256-QAM).
La figure 7.7 représente l’effet du bruit sur la constellation récupérée à la sortie du
démodulateur après transmission dans le cas d’un signal QPSK en réception satellite
bruitée.
© Dunod. La photocopie non autorisée est un délit.
111
Figure 7.7 – Effet du bruit sur la constellation QPSK en réception à faible niveau
9782100520442-Livre.fm Page 112 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
La figure 7.8 représente le cas d’une réception câble utilisant une modulation 64QAM avec un rapport signal/bruit assez faible (de l’ordre de 23 dB).
112
Figure 7.8 – Cas d’une réception câble 64-QAM avec S/B de 23 dB
On conçoit qu’à partir d’un certain niveau de bruit, le démodulateur ne pourra plus
distinguer avec certitude un point de la constellation de ses voisins, il y aura donc
ambiguïté sur le symbole reçu, et donc erreur potentielle ; ceci se produira pour un
niveau de bruit d’autant plus faible qu’il y aura plus de points dans la constellation,
les points étant plus proches les uns des autres.
Nous avons indiqué au paragraphe précédent que la réception sur câble, si elle
bénéficiait d’un rapport signal/bruit relativement élevé, pouvait par contre être
affectée d’échos importants.
9782100520442-Livre.fm Page 113 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
La figure 7.9a montre l’effet de ces échos sur la constellation, où l’on ne distingue
plus les différents points en raison d’une interférence intersymbole très élevée.
L’utilisation dans le récepteur d’un égaliseur d’échos (echo equalizer) permet dans
ce cas de retrouver une constellation pratiquement parfaite (figure 7.9b).
113
Figure 7.9 – Constellation 64-QAM avec échos importants :
(a) avant égalisation ; (b) après égalisation
© Dunod. La photocopie non autorisée est un délit.
D’autres types de défauts de transmission ou d’imperfections dans les matériels
d’émission et/ou de réception (courbe de réponse en fréquence imparfaite, interférences, intermodulation…) augmentent l’interférence intersymbole, et apparaissent comme du bruit sur la constellation, d’où la nécessité des dispositifs de
correction d’erreurs décrits précédemment.
Un autre problème que le récepteur doit résoudre avec ces types de modulation est
dû au fait qu’il ne dispose pas de référence de phase absolue pour démoduler la
constellation (contrairement au cas de la sous-porteuse NTSC ou PAL, où une salve
de référence est envoyée régulièrement à chaque début de ligne).
Il y a donc ambiguïté de phase de 90° (le circuit de récupération de porteuse peut
se verrouiller selon 4 états de phase différents), qui se traduira par le fait que le
récepteur ne pourra pas se synchroniser tant que la phase de la porteuse récupérée
ne sera pas correcte.
Dans le cas de la modulation 64-QAM retenue pour le câble, on évite ce problème
en utilisant une modulation différentielle pour les 2 bits de poids fort (l’état de ces
9782100520442-Livre.fm Page 114 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
bits détermine un changement de phase et non une phase absolue), ce qui permet
au récepteur de fonctionner quelle que soit la phase sur laquelle il est verrouillé (les
bits de poids faible sont identiques dans les 4 quadrants).
Le tableau 7.3 représente la table de vérité pour le codage des bits de poids fort
(MSB) des signaux I and Q modulant la porteuse pour la modulation QAM utilisée
en DVB-C.
Tableau 7.3 – Table de vérité du codage différentiel des MSB de I et Q en DVB-C
114
Dans le cas de la modulation QPSK du satellite (non différentielle), l’information
d’absence de synchronisation pourra être utilisée pour modifier de 90° (jusqu’à
3 fois) la relation de phase entre la porteuse récupérée et le signal reçu jusqu’à ce
que la synchronisation soit obtenue.
Tableau 7.4 – Les différents débits utiles
en fonction de la largeur du canal et du code rate pour une modulation QPSK (satellite)
(d’après prETS 300 421, © ETSI 1995)
9782100520442-Livre.fm Page 115 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
Les zones grisées indiquent les cas pouvant être transposés de façon « transparente », c’est-à-dire sans modification des paquets « transport », sur un canal
câble (64-QAM) de largeur 8 MHz.
Dans ce cas, le traitement en tête de réseau pourra se limiter à la démodulation
QPSK et au décodage de canal satellite (Viterbi, désentrelacement, Reed-Solomon,
débrassage) pour récupérer les paquets « transports » corrigés de 188 octets et à
réeffectuer un codage de canal câble (brassage, Reed-Solomon, entrelacement)
suivi d’une modulation 64-QAM.
7.4
Télévision numérique terrestre (DVB-T) :
la modulation OFDM
Ce type de modulation, dont le principe consiste à répartir un train binaire à haut
débit sur un grand nombre de porteuses « orthogonales » (plusieurs centaines à
plusieurs milliers) transportant chacune un faible débit, a été notamment retenu
pour la radio numérique DAB.
Son principal avantage est son excellent comportement en cas de réception à trajets
multiples, ce qui est fréquent lors de la réception terrestre mobile ou portable, le retard
des trajets multiples devenant dans ce cas très inférieur à la période d’un symbole.
Le principe de la modulation OFDM également appelée COFDM (Coded Orthogonal
Frequency Division Multiplexing) consiste à moduler (en QPSK ou QAM selon le
compromis robustesse/débit recherché) un grand nombre N de porteuses par des
symboles de durée Ts (égale à leur période), la fréquence de deux porteuses consécutives étant distante de 1/Ts .
© Dunod. La photocopie non autorisée est un délit.
Ceci détermine la condition d’orthogonalité entre ces porteuses, dont le spectre est
visible à la figure 7.10 : pour la valeur centrale d’une porteuse donnée, on observe
un passage par 0 du spectre des porteuses voisines.
La relation entre la fréquence f0 de la porteuse la plus basse et celle fk d’une
k
porteuse de rang k (avec 0 ≤ k ≤ N – 1) est f k = f 0 + ---- .
Ts
Le spectre d’un tel ensemble de porteuses possède des lobes parasites secondaires,
comme le montre la figure 7.11, ici pour N = 32 (la largeur de ces lobes est égale à
1/Ts).
Cependant, dans les conditions de réception terrestres réelles, les signaux issus de
trajets multiples s’ajoutant au signal direct font que les conditions d’orthogonalité
entre porteuses ne sont plus respectées, ce qui a pour conséquence la présence
d’interférence intersymbole.
115
9782100520442-Livre.fm Page 116 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
116
Figure 7.10 – Spectre des porteuses adjacentes en modulation OFDM
(d’après la Revue de l’UER – Technique, n° 224, août 1987)
Figure 7.11 – Spectre d’un signal OFDM à 32 porteuses
(d’après la Revue de l’UER – Technique, n° 224, août 1987)
9782100520442-Livre.fm Page 117 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
On s’affranchit de ce problème en faisant précéder la durée de symbole Ts d’un
intervalle de garde ∆ pour obtenir une nouvelle période symbole T ′s = ∆ + Ts. Cet
intervalle de garde est en général inférieur ou égal à Ts/4 et il est occupé par une
copie de la fin du symbole utile.
Pour simplifier le filtrage et éviter tout repliement de spectre lors de l’échantillonnage, on est conduit à réduire la bande passante à une valeur inférieure à la moitié
de la fréquence d’échantillonnage, ce qui revient à supprimer un certain nombre de
porteuses aux extrémités de la bande (par exemple N ′ = 28 au lieu de N = 32).
En général, N est beaucoup plus grand que 32, et donc l’importance relative des
lobes secondaires beaucoup plus faible que sur la figure 7.11.
Figure 7.12 – Formation de l’intervalle de garde
✦
Télévision numérique terrestre (standard DVB-T)
© Dunod. La photocopie non autorisée est un délit.
Pour la télévision numérique terrestre, le module technique du DVB a retenu une
modulation OFDM à 2 048 porteuses (2K) ou 8 192 porteuses (8K), pour laquelle
on peut considérer que le spectre est virtuellement rectangulaire (figure 7.13).
Figure 7.13 – Spectre d’un signal DVB-T avec ∆ = TS/4
117
9782100520442-Livre.fm Page 118 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Le standard DVB-T est principalement utilisé sur des canaux (UHF) de 8 MHz,
mais prévoit aussi les cas des canaux de 7 ou 6 MHz et peut donc s’adapter à toutes
les situations existant au monde.
Il a été conçu pour coexister avec la télévision analogique grâce à une bonne résistance aux interférences avec les canaux adjacents (Adjacent Channel Interference
ou ACI) et à l’intérieur même du canal (Co-Channel Interference ou CCI).
Le tableau 7.5 en résume les principaux paramètres (canaux européens de 7 ou
8 MHz).
118
Tableau 7.5 – Principaux paramètres des signaux terrestres DVB-T
(modulation OFDM 2K ou 8K)
Afin d’adapter le train binaire à la modulation OFDM et d’augmenter encore la
robustesse du système, après un codage de canal identique à celui du satellite, les
données subissent un processus d’entrelacement complexe, en deux étapes :
• tout d’abord, un premier entrelacement au niveau « bit » forme des matrices
de 126 mots de 2, 4 ou 6 bits selon la modulation choisie pour les porteuses
(QPSK, 16-QAM ou 64 QAM) ;
• ces matrices sont ensuite regroupées par 12 (mode 2K) ou 48 (mode 8K)
pour former des symboles de 1 512 × 2 bits (mode 2K en QPSK) à
6 048 × 6 bits (mode 8K en 64-QAM) qui serviront à moduler les 1 512 ou
6 048 porteuses utiles.
Étant donné le grand nombre de porteuses, la modulation de celles-ci ne s’effectue
évidemment pas individuellement pour chacune d’elles, mais au moyen d’une
9782100520442-Livre.fm Page 119 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
transformée inverse de Fourier rapide (iFFT) sur 2 048 points (mode 2K) ou
8 192 points (mode 8K) qui convertit les données complexes d’entrée du domaine
temporel au domaine fréquentiel.
En mode 8K, la longue période de symbole (896 µs avec des canaux de 8 MHz),
combinée à l’intervalle de garde maximal (1/4 = 224 µs), autorise une réception
satisfaisante même en présence d’échos très longs (différence de trajet de plusieurs
dizaines de kilomètres) ce qui permet la création de réseaux à large couverture
(nationale par exemple) à canal unique (Single Frequency Network ou SFN), avec
des émetteurs pouvant être éloignés de plusieurs dizaines de kilomètres les uns des
autres.
Le mode 2K 1 est plus simple à réaliser au niveau du démodulateur, mais cette
simplification se paie par une division par quatre de la distance d’écho admissible, ce qui rend ce mode inadapté aux réseaux SFN, ainsi que par une moindre
immunité aux parasites impulsionnels. (allumage de moteurs à explosion,
moteurs électriques, etc.).
Cependant, l’écart quatre fois plus important qu’en mode 8K entre les porteuses
divise par quatre les conséquences de l’effet Doppler qui se manifeste lors de la
réception mobile et autorise ainsi en principe une réception mobile à vitesse élevée
(environ 250 km/h en haut de la gamme UHF en mode 2K). La vitesse maximale
est quatre fois plus faible en mode 8K qu’en mode 2K, et inversement proportionnelle à la fréquence
© Dunod. La photocopie non autorisée est un délit.
La norme DVB-T prévoit de plus une possibilité de codage hiérarchique au moyen
d’une modulation QAM non uniforme caractérisée par une plus grande distance
entre les états adjacents situés dans des quadrants différents qu’entre les états
appartenant au même quadrant. Les configurations de constellations non uniforme
sont définies par le paramètre a (qui peut prendre les valeurs 1, 2 ou 4).
La figure 7.14 représente la constellation d’un exemple de modulation non
uniforme.
Ceci permet la diffusion simultanée d’un bitstream prioritaire modulant les deux
bits de poids fort d’une émission 16 ou 64-QAM, ce qui permet de la considérer à la
réception comme bruitée et modulée en QPSK, et d’un second moins prioritaire
1. Le Royaume-Uni, qui a démarré le premier service de TV numérique terrestre à la norme DVB-T fin 1998
(bouquet On Digital, rebaptisé ITV Digital), a choisi la variante à 2K porteuses parce que les premiers circuits alors disponibles ne supportaient que ce mode.
Cette simplification se traduisait au départ par une économie non négligeable, qui a rapidement disparu
car les circuits couvrent désormais toutes les possibilités de la spécification DVB-T.
119
9782100520442-Livre.fm Page 120 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
120
Figure 7.14 – Exemple de constellation 16-QAM non uniforme (α = 4)
modulant les bits de poids faible, autorisant une démodulation QAM moins
robuste (nécessitant un bon rapport C/N) mais à débit plus élevé.
Les applications peuvent être la diffusion sur un même canal de plusieurs
programmes pouvant être reçus dans des conditions de réception différentes, ou
d’un même programme avec des caractéristiques de résolution différentes selon les
conditions de réception.
La diffusion simultanée d’un bitstream QPSK très robuste à débit relativement
faible permettant la réception mobile satisfaisante d’une émission à définition standard
et d’un bitstream QAM à débit plus élevé transmettant une émission haute définition
ou plusieurs à définition standard, destiné à la réception fixe, est ainsi possible.
Le signal DVB-T est organisé en trames (frames) successives de 68 symboles.
Quatre trames successives forment une super-trame (superframe) de 272 symboles
qui permet la transmission d’un nombre entier de paquets protégés RS de
204 octets, ce qui évite d’avoir à insérer des octets de bourrage, quels que soient les
paramètres de transmission utilisés.
9782100520442-Livre.fm Page 121 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
De manière à aider le récepteur à acquérir le signal et à l’informer des paramètres
de modulation et de codage de canal, le signal OFDM inclut des porteuses qui ne
sont pas modulées par le bitstream « utile » (voir tableau 7.5).
On distingue les porteuses pilotes continues (continual pilot carriers) dont la position est fixe, les porteuses pilotes « dispersées » (scattered pilot carriers) qui se
décalent de trois positions à chaque symbole et les porteuses TPS (Transmission
Parameter Signalling).
Les porteuses pilotes sont transmises avec une puissance supérieure aux autres
porteuses et sont modulées par une séquence pseudo-aléatoire (PRBS) dont le
polynôme générateur est X11 + X2 + 1.
Elles permettent au récepteur de se synchroniser et de faire une estimation du
canal (altération de réponse en fréquence due aux trajets multiples, etc.) en vue de
sa correction.
Les porteuses TPS transportent à faible cadence tous les paramètres de transmission au moyen d’une modulation BPSK différentielle (1 bit/symbole) très robuste.
Elles permettent une acquisition accélérée du signal au récepteur, ainsi qu’une
réponse rapide à un éventuel changement de mode.
Toutes les porteuses TPS transportent à un moment donné le même bit d’information.
Cette très forte redondance permet de décoder l’information TPS même lorsque le
signal DVB-T est inexploitable pour une réception satisfaisante.
© Dunod. La photocopie non autorisée est un délit.
L’information TPS est transmise une fois par trame (68 symboles) ; sa longueur est
donc de 68 bits.
Figure 7.15 – Structure de la trame TPS
Le tableau 7.6 donne le détail de l’affectation des bits TPS.
La figure 7.16 donne un bloc-diagramme du processus codage de canal + modulation DVB-T (les blocs spécifiques au système DVB-T sont en gris plein).
Ce bloc-diagramme, bien que très simplifié, montre que le processus est nettement
plus complexe que pour le cas du câble ou du satellite.
121
9782100520442-Livre.fm Page 122 Jeudi, 24. juin 2010 11:35 11
TÉLÉVISION NUMÉRIQUE
122
Figure 7.18 – Les principales étapes de codage de canal et de modulation DVB-T
LA
9782100520442-Livre.fm Page 123 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
Tableau 7.6 – Détail de l’affectation des bits de l’information TPS
La spécification DVB-T a été normalisée en 1997 par l’ETSI sous la référence ETS
300 744.
✧
Exercice : calcul du débit effectif d’un mode DVB-T courant
(cas des émissions en France)
© Dunod. La photocopie non autorisée est un délit.
•
•
•
•
•
canal de 8 MHz ;
mode 8K (paramètre indifférent pour le débit) ;
modulation 64-QAM ;
intervalle de garde 1/32 ;
taux de poinçonnage (puncturing rate) : 2/3.
Nous avons 6 048 porteuses utiles modulées en 64-QAM (6 bits/symbole) avec une
fréquence symbole de 1 116,0714 Hz, soit un débit brut de :
6 048 × 6 × 1 116,0714 = 40,500 Mb/s
Le calcul du débit utile doit prendre en compte l’intervalle de garde (soit 32/33 avec
∆ = 1/32) et le codage de canal (soit 2/3 pour le poinçonnage et 188/204 pour le
codage RS) d’où le débit utile de :
32 2 188
40,500 × ----- × - × ------- = 24,188 Mb/s
33 3 204
Ce débit permet, selon le compromis qualité d’image/quantité de programmes
choisi par l’opérateur, de transmettre 4 à 6 programmes TV.
123
9782100520442-Livre.fm Page 124 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Selon le compromis robustesse/débit de transmission choisi par l’opérateur, le
système DVB-T permet d’obtenir les débits minimum et maximum suivants pour
un canal de 8 MHz :
• débit minimum : 4,98 Mb/s (modulation QPSK, intervalle de garde 1/4,
code rate 1/2) ;
• débit maximum : 31,67 Mb/s (modulation 64-QAM, intervalle de garde
1/32, code rate 7/8).
On voit que le débit peut varier dans un rapport de 1 à 6 !
7.5
Les normes de transmission DVB de seconde génération
(DVB-S2, DVB-T2, DVB-C2)
Ces normes de seconde génération peuvent être considérées comme une extension
des normes DVB-S, DVB-T et DVB-C qu’elles ne sont destinées à remplacer
complètement qu’à très long terme en raison du parc important de récepteurs de
première génération.
Dans un premier temps, elles sont principalement – mais pas exclusivement –
utilisées pour lancer de nouveaux services en haute définition.
124
Elles améliorent notablement leur flexibilité et leur efficacité en permettant
d’approcher les limites absolues de capacités de transmission énoncées par Shannon dans sa théorie de l’information.
Ce résultat remarquable a pu être obtenu principalement grâce au remplacement
des codes de Reed-Solomon et convolutif utilisés dans la première génération par
des codes correcteurs d’erreurs beaucoup plus souples et plus efficaces (concaténation
de codes BCH et LDPC).
À la différence des normes de première génération, elles ne sont plus limitées à un
seul flux au format transport stream MPEG-2, mais peuvent aussi transmettre un
ou plusieurs flux dits « génériques » au moyen d’une encapsulation spécifique
(Generic Stream Encapsulation ou GSE) et elles incluent des modes permettant de
transporter plusieurs flux avec des « priorités » (robustesses) différentes.
De ce fait, la taille des blocs sur lesquels la correction d’erreur s’effectue a dû être
rendue plus souple et indépendante du format du flux d’entrée. Elle ne porte donc
plus directement sur les paquets de 188 octets du format transport stream mais sur
des blocs de longueur optimisée.
Nous n’entrerons pas dans les détails des opérations assez complexes nécessaires à
l’adaptation des différents formats d’entrée possibles et nous contenterons d’en
indiquer les grandes lignes.
9782100520442-Livre.fm Page 125 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
7.5.1 Adaptation de mode et de flux d’entrée et correction d’erreur de
seconde génération
Selon le type de flux d’entrée, différentes opérations sont nécessaires à la formation d’un bloc de longueur adaptée au mode d’émission visé et aux performances
recherchées pour la correction d’erreur, indépendamment du format du ou des
flux d’entrée.
C’est à ce bloc appelé BBFRAME (trame en bande de base) que le codage BCH
s’appliquera. La figure 7.17 indique schématiquement comment est créée la BBFRAME
dont la longueur peut aller de 3 072 à 58 192 bits selon le mode d’émission et les
paramètres choisis pour le codage interne LDPC (figures 7.17 à 7.19).
125
© Dunod. La photocopie non autorisée est un délit.
Figure 7.17 – Format du flux à la sortie de l’adaptation de mode
La BBFRAME débute par un en-tête (BBHEADER) de longueur fixe (80 bits) qui
décrit le format du champ de données (DATA FIELD) pour que le décodeur puisse
reconstituer le flux d’origine.
Figure 7.18 – Formation de la BBFRAME
9782100520442-Livre.fm Page 126 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Un champ de padding optionnel peut être ajouté si nécessaire après le champ de
données optionnel pour amener la longueur du bloc à 16 200 ou 64 800 bits après
codage BCH et LDPC.
La BBFRAME subit ensuite une randomisation au moyen d’une séquence pseudoaléatoire dont le polynôme générateur est 1 + X14 + X15.
✦
Codage externe de DVB-S2, T2, C2 (codage BCH)
Les codes BCH (Bose-Chaudhuri, Hocquenghem) sont des codes correcteurs d’erreurs
paramétrisés inventés indépendamment en 1959 par Hocquenghem et une année
plus tard par Bose et Ray-Chaudhuri, d’où l’abréviation BCH qui leur a été donnée.
Ils peuvent être décodés de manière simple au moyen d’une méthode algébrique
connue sous le nom de décodage de syndrome. Cette simplicité se traduit par une
circuiterie de décodage sans processeur, ce qui permet une taille et une consommation
d’énergie modestes.
Un code BCH est un code correcteur d’erreur cyclique multiniveau à longueur
variable destiné à corriger des erreurs aléatoires multiples.
Sa grande flexibilité permet d’adapter ses caractéristiques à l’application visée
(longueur de bloc, seuil d’erreur tolérable).
126
C’est pourquoi le codage BCH a été choisi pour remplacer le codage de Reed-Solomon
qui s’appliquait à des paquets taille unique (paquets transport de 188 octets).
Dans les systèmes DVB de seconde génération, le codage BCH s’applique à des
blocs appelés BBFRAME (littéralement « trame de bande de base ») dont la
longueur peut aller de 3 072 à 58 192 bits selon la longueur de la FECFRAME
(16 200 ou 64 800 bits) à obtenir après codage BCH puis LDPC et les paramètres
choisis pour le codage interne LDPC.
Seule la FECFRAME dite « normale » de 64 800 bits est utilisée pour les applications
de diffusion vers le grand public.
Selon le taux choisi pour le codage LDPC, le codage BCH ajoute 128, 160 ou 192 bits
à la BBFRAME ce qui permet de corriger 8, 10 ou 12 bits erronés.
✦
Codage interne de DVB-S2, T2, C2 (codage LDPC)
Ce codage a été inventé au début des années 1960 par Gallager mais son intérêt
pratique n’est pas apparu à l’époque et il est resté dans l’oubli pendant près de
trente ans. Il a été redécouvert dans les années 1990 et est apparu comme une
9782100520442-Livre.fm Page 127 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
alternative intéressante aux turbocodes, qui venaient de faire leur apparition, en
raison de ses performances et du fait qu’il ne faisait l’objet d’aucun brevet.
Un code LDPC (Low Density Parity Check, littéralement « contrôle de parité à faible
densité ») est un code correcteur d’erreur linéaire construit en utilisant un graphe
bipartite dit « épars » (sparse). Les codes LDPC permettent d’approcher la limite de
Shannon pour la capacité de transmission d’un canal. Ils peuvent être décodés en
un temps proportionnel à leur longueur de bloc en utilisant des techniques itératives
dites « à propagation de croyance » (belief propagation).
Le codage LDPC a été choisi en 2003 pour remplacer le codage convolutif dans le
standard satellite de deuxième génération du DVB (DVB-S2) et par la suite pour les
standards DVB-T2 et DVB-C2.
Dans les systèmes DVB de seconde génération, le codage LDPC porte la longueur
des blocs BBFRAME préalablement codés BCH à 16 200 (FECFRAME courte) ou
64 800 bits (FECFRAME normale).
Pour la trame normale, le taux de codage peut aller de 1/4 à 9/10 selon la robustesse
recherchée.
La figure 7.19 illustre le résultat de la concaténation des codages BCH et LDPC.
127
© Dunod. La photocopie non autorisée est un délit.
Figure 7.19 – Concaténation des codes BCH et LDPC dans les normes DVB-x2
✦
Entrelacement de bits (bit interleaving)
La sortie du codeur LDPC est entrelacée au niveau bit au moyen d’une matrice
d’entrelacement écrite en colonnes et lue en ligne. La taille de la matrice dépend de
la modulation utilisée.
La figure 7.20 illustre ce processus dans le cas de DVB-S2 pour la FECFRAME
normale (64 800 bits) et la modulation 8-PSK pour lequel la matrice est constituée
de 3 colonnes de 21 600 lignes.
9782100520442-Livre.fm Page 128 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
128
Figure 7.20 – Principe de l’entrelacement bit de DVB-S2 (64 200, 8-PSK)
7.5.2 La norme de transmission par satellite DVB-S2 (ETSI EN 302 307)
La norme DVB-S2, enregistrée sous la référence EN 302 307, couvre une gamme
beaucoup plus large d’applications que DVB-S, d’une part vers les très hauts débits par
l’utilisation de constellations de modulation jusqu’à 32 états (modulation 32-APSK
à 5 bits par symbole), d’autre part vers les applications demandant une robustesse
accrue, grâce notamment à l’utilisation de la modulation QPSK et de code rates très
faibles.
On peut ainsi atteindre une efficacité spectrale d’environ 4 bits/Hz (APSK32, code
rate 9/10), soit un débit théorique de 135 Mb/s dans un canal de 33 MHz, si on peut
garantir un C/N de l’ordre de 16 dB.
On peut aussi privilégier la robustesse par l’utilisation de la modulation QPSK
(2 bits par symbole) et un code rate faible de 1/4 : on peut ainsi maintenir le fonctionnement avec un C/N aussi faible que –3 dB (c’est-à-dire avec un signal deux
fois plus faible que le bruit dans lequel il est noyé !), mais l’efficacité spectrale
9782100520442-Livre.fm Page 129 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
descend alors à moins de 0,5 bit/Hz, soit un débit d’environ 15 Mb/s dans un canal
de 33 MHz.
Un nombre très grand de possibilités intermédiaires est offert, avec l’utilisation des
modulations 8-PSK (3 bits par symbole) et 16-APSK (4 bits par symbole) avec des
code rates pouvant varier de 1/4 à 9/10.
Pour les applications grand public, seules les modulations QPSK (déjà utilisée en
DVB-S) et 8-PSK sont utilisées, et la gamme de code rates ne s’étend que de 1/2 à 9/10.
Figure 7.21 – Les constellations QPSK et 8-PSK de DVB-S2
Le facteur de roll-off, qui est fixé à 0,35 en DVB-S, peut en DVB-S2 prendre les
valeurs de 0,20, 0,25 et 0,35, ce qui permet de tirer un meilleur parti de la bande
passante du transpondeur.
© Dunod. La photocopie non autorisée est un délit.
Des codes correcteurs d’erreur plus performants portant sur des blocs de 64 800 ou
16 200 bits (codage BCH au lieu de Reed-Solomon et codage LDPC au lieu de Viterbi)
permettent d’approcher la limite de Shannon qui fixe le rapport C/N théorique
minimal pour une modulation donnée.
L’utilisation combinée de ces innovations permet d’améliorer, à conditions de
réception (C/N) identiques, l’efficacité spectrale d’au moins 30 % par rapport à
DVB-S.
C’est ce que montre la figure 7.22 si l’on compare par exemple DVB-S2 (8-PSK, code
rate 1/2) à DVB-S (QPSK, code rate 3/4) pour un niveau de C/N de l’ordre de 7 dB.
Cela permet soit d’augmenter la couverture d’un satellite à débit identique, soit
d’augmenter le débit à couverture identique, par exemple pour introduire la TVHD.
Le tableau 7.7 montre un gain de capacité respectif de 36 % et 32 % de DVB-S2 par
rapport à DVB-S dans deux conditions de réception différentes.
129
9782100520442-Livre.fm Page 130 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 7.22 – Efficacité spectrale (bit/s par symbole/s)
en fonction de C/N selon la modulation et le code rate.
La ligne discontinue représente la limite théorique de Shannon
(d’après ETSI, EN 302 307)
PIRE du satellite
130
51 dBW
53,7 dBW
Système
DVB-S
DVB-S2
DVB-S
DVB-S2
Modulation & codage
QPSK 2/3
QPSK 3/4
QPSK 7/8
8-PSK 2/3
Facteur de roll-off
0,35
0,2
0,35
0,25
Débit symbole (Mbaud)
27,5
30,9
27,5
29,7
C/N (dB) nécessaire
5,1
5,1
7,8
7,8
Débit utile (Mb/s)
33,8
46
44,4
58,8
Gain net
–
+36%
–
+32%
Tableau 7.7 – Comparaison des capacités de transmission entre DVB-S
et DVB-S2 pour deux exemples de conditions de réception équivalentes
(D’après EBU Technical Review 10/04)
C’est cette augmentation de capacité de DVB-S2 combinée à l’efficacité de la
compression H264 qui permet de trouver la bande passante nécessaire à la multiplication rapide des chaînes de TVHD.
La combinaison H264/DVB-S2 permet aussi un quasi-doublement du nombre de
programmes SD transmis par transpondeur par rapport à MPEG-2/DVB-S. Le coût
des composants pour DVB-S2 et H264 étant désormais abordable, certains
bouquets utilisent également cette combinaison pour la télévision à définition
standard.
9782100520442-Livre.fm Page 131 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
7.5.3 La norme de transmission terrestre DVB-T2 (ETSI EN 302 755)
Comme la norme DVB-T, la norme DVB-T2, enregistrée sous la référence EN
302 755, est basée sur la modulation COFDM mais sa flexibilité a été considérablement augmentée par l’accroissement du nombre des tailles de FFT permises
(nombre de porteuses) qui s’étend de 1k à 32k.
Le nombre de modes de modulation des porteuses a été augmenté grâce à l’introduction du 256-QAM ainsi que le nombre d’intervalles de garde qui s’étend de 1/4
à 1/128.
En ce qui concerne les codes correcteurs d’erreur, DVB-T2 fait appel au même
couple BCH/LDPC que la norme satellite de seconde génération (DVB-S2), dont il
résulte une excellente robustesse combinée à une grande efficacité.
Cette efficacité est encore augmentée grâce à une réduction significative de la
proportion des porteuses pilotes (de plus de 10 % du total à moins de 1,5 % dans le
cas le plus favorable) ainsi que par l’utilisation du mode 32k qui permet de gagner
environ 2 % d’occupation du canal grâce à un spectre plus « carré » que mode 8k.
Une nouvelle option de « rotation de constellation » permet une augmentation
supplémentaire de robustesse dans certains cas difficiles.
Une technique comparable au time slicing de DVB-H permet à DVB-T2 d’ajuster
individuellement la robustesse des services à des conditions de réception différentes (antenne extérieure ou intérieure par exemple) et de réduire la consommation
des appareils en ne décodant qu’un seul service plutôt que l’ensemble du multiplex.
© Dunod. La photocopie non autorisée est un délit.
Le tableau 7.8 montre l’étendue des possibilités de paramétrage de DVB-T2 par
rapport à DVB-T.
Système
DVB-T
DVB-T2
Interface d’entrée
Transport stream unique (TS)
Transport stream multiple, flux générique encapsulé (GSE)
Correction d’erreurs
Convolution + RS
LDPC + BCH
Taux FEC
1/2, 2/3, 3/4, 5/6, 7/8
1/2, 3/5, 2/3, 3/4, 4/5, 5/6
Modulation porteuses
QPSK, 16-QAM, 64-QAM
QPSK, 16-QAM, 64-QAM, 256-QAM
Intervalle de garde
1/4, 1/8, 1/16, 1/32
1/4, 19/256, 1/8, 19/128, 1/16, 1/32, 1/128
Taille FFT
2k, 8k
1k, 2k, 4k, 8k, 16k, 32k
% Pilotes dispersées
8 % du total
1, 2, 4 ou 8 % du total
% Pilotes continues
2,6 % du total
0,35 % du total
Tableau 7.8 – Paramétrages possibles de DVB-T et DVB-T2
(d’après DVB project office)
131
9782100520442-Livre.fm Page 132 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Le standard DVB-T2 prévoit aussi l’émission en diversité au moyen d’un codage dit
d’Alamouti, pour permettre d’améliorer la couverture des réseaux SFN de petites
dimensions ainsi que des possibilités d’extension compatible du standard grâce à
l’utilisation de « trames d’extension future » (Future Extension Frames ou FEF).
Comme pour le DVB-T une dizaine d’années plus tôt, c’est le Royaume-Uni qui a
été le pionnier de l’utilisation du DVB-T2 à la fin de 2009 pour le lancement de la
haute définition sur le réseau numérique terrestre (Freeview).
Le tableau 7.9 montre le gain de débit (+46,5 %) pouvant être obtenu au moyen de
DVB-T2 par rapport à DVB-T à conditions de réception équivalentes (cas d’un
réseau MFN).
132
DVB-T
DVB-T2
Taille FFT
2k ou 8k
32k
Taux FEC
2/3
3/5
Modulation porteuses
64-QAM
256-QAM
Intervalle de garde
1/32
1/128
Débit utile
24,13 Mb/s
35,4 Mb/s (+46,5 %)
Tableau 7.9 – Comparaison des capacités de transmission de DVB-T
et DVB-T2 à conditions de réception équivalentes
(d’après DVB project office)
7.5.4 La norme de transmission par câble DVB-C2
(ETSI EN 302 769)
Tout comme la diffusion par satellite et la diffusion terrestre, la transmission par
câble a besoin de bénéficier des progrès dans les algorithmes de codage de canal
afin de permettre une augmentation de capacité de transport significative nécessitée
entre autres par l’apparition de la haute définition.
Les travaux de DVB-C2 ont démarré plus tard que ceux de DVB-S2 et DVB-T2, c’est
pourquoi le standard n’est pas encore officiellement enregistré comme une norme
européenne à l’heure où nous écrivons ces lignes, mais il est pratiquement finalisé
et publié dans le document DVB A138 (avril 2009).
Afin d’augmenter significativement la capacité de transport par rapport à DVB-C,
les constellations ont été augmentées jusqu’à 4 096 états, ce qui a nécessité une
amélioration importante de la résistance aux échos (relativement courts dans un
réseau câblé).
La modulation COFDM 4k avec deux valeurs possibles d’intervalles de garde (1/64
ou 1/128) a été choisie de préférence à un système à porteuse unique avec égalisation
d’écho.
9782100520442-Livre.fm Page 133 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 7 – MODULATION
DES SIGNAUX NUMÉRIQUES
Le tableau 7.10 montre les principales différences entre DVB-C et DVB-C2.
Système
DVB-C
DVB-C2
Interface d’entrée
Transport stream unique (TS)
Transport stream multiple, flux générique encapsulé (GSE)
Mode
Codage et modulation constants
Codage et modulation variable et adaptatifs
Correction d’erreurs
Reed-Solomon
LDPC + BCH
Entrelacement
Bit
Bit, temporel et fréquentiel
Type de modulation
TDM (porteuse unique)
COFDM 4k (3 408 porteuses)
Modes
16-QAM, 64-QAM
16-QAM, 64-QAM, 256-QAM, 1024-QAM, 4096-QAM
Porteuses pilotes
NA
Dispersées + continues
Intervalle de garde
NA
1/64, 1/128
Tableau 7.10 – Comparaison entre les normes DVB-C et DVB-C2
(d’après DVB project office)
© Dunod. La photocopie non autorisée est un délit.
133
Figure 7.23 – Performances de bruit comparées de DVB-C et DVB-C2
par rapport à la limite théorique de Shannon
(d’après DVB Project Office – DVB-C2 : the most advanced Digital Cable System)
Le tableau 7.11 résume les principales caractéristiques des émissions aux normes
DVB selon le médium de transmission utilisé. On peut remarquer que le codage de
source est entièrement commun, que le codage de canal est plus simple pour les
émissions par câble et que les modulations diffèrent pour chaque médium.
BCH
–
Rendement de code (code
rate)
6, 7 ou 8 MHz
Largeur du canal
N.A.
6, 7 ou 8 MHz
16 à 4 096-QAM
OFDM 4K
N.A.
1/128
Par blocs (8-PSK, 16
et 32-APSK)
1/4 à 9/10
LDPC
27-36 MHz
QPSK
TDM
35 %
N.A.
N.A.
1/2, 2/3, 3/4, 5/6, 7/8
Convolutif
Forney, profondeur 12
27-36 MHz
QPSK à 32-APSK
TDM
20, 25 ou 35 %
N.A.
Par blocs (8-PSK, 16
et 32-APSK)
1/4 à 9/10
LDPC
N.A.
BCH
6, 7 ou 8 MHz
QPSK à 64-QAM
OFDM 2k ou 8k
N.A.
1/32 à 1/4
N.A.
1/2, 2/3, 3/4, 5/6, 7/8
Convolutif
Forney, profondeur 12
Reed-Solomon
(204,188, T = 8)
Tableau 7.11 – Principales caractéristiques des signaux TV numériques aux normes DVB
TDM
16 à 64-QAM
Mode
Facteur de roll-off
Modulation
N.A.
15 %
Intervalle de garde
N.A.
Absent
Codage interne
Entrelacement bits
Forney, profondeur 12
Entrelacement octets
Reed-Solomon
(204,188, T = 8)
1 + X14 + X15
Brassage
Reed-Solomon
(204,188, T = 8)
188 octets
Codage externe
DVB-CSA (Common Scrambling Algorithm)
Embrouillage
Paquet transport
MPEG-2 ou MPEG-4 AVC (H264)
Terrestre (DVB-T)
MPEG-1 (couche II), Dolby Digital, Dolby Digital+ ou AAC
Satellite (DVB-S2)
Codage vidéo
Satellite (DVB-S)
Codage audio
Câble (DVB-C2)
134
Câble (DVB-C)
6, 7 ou 8 MHz
QPSK à 256-QAM
OFDM 1k à 32k
N.A.
1/128 à 1/4
Par blocs (16, 64
et 256-QAM)
1/2, 3/5, 2/3, 3/4, 4/5, 5/6
LDPC
N.A.
BCH
Terrestre (DVB-T2)
LA
Paramètre
9782100520442-Livre.fm Page 134 Jeudi, 24. juin 2010 11:35 11
TÉLÉVISION NUMÉRIQUE
9782100520442-Livre.fm Page 135 Jeudi, 24. juin 2010 11:35 11
Chapitre 8
Réception
de la télévision numérique
8.1
135
Vue d’ensemble du processus d’émission/réception
© Dunod. La photocopie non autorisée est un délit.
Pour servir à la fois de synthèse aux notions développées dans les précédents
chapitres, et d’introduction à la description d’un récepteur avec décodeur intégré,
appelé IRD (Integrated Receiver-Decoder) ou plus familièrement set-top box (littéralement « boîte posée sur le poste ») par les Anglo-Saxons, nous récapitulerons
rapidement de façon très simpliste la suite des opérations que subit le signal TV de
sa source à sa visualisation par l’utilisateur.
La partie supérieure de la figure 8.1 illustre la succession des étapes du processus à
l’émission, dont le rôle est de fournir sur un seul canal RF un multiplex de
programmes MPEG-2 :
① Les signaux vidéo et audio des programmes à transmettre attaquent autant de
codeurs MPEG-2 ou MPEG-4 qui fournissent les PES vidéo et audio à l’entrée
du multiplexeur.
② Ces PES sont utilisés par le multiplexeur pour former des paquets transport de
188 octets, éventuellement embrouillés (des paquets CAT transportant les
informations de contrôle d’accès ECM et EMM sont alors insérés) ainsi que les
informations des tables PAT et PMT, celles du guide de programme (EPG) ainsi
que de la NIT.
9782100520442-Livre.fm Page 136 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 8.1 – Schéma simplifié de la chaîne d’émission / transmission / réception DVB
③ La correction d’erreur RS + convolution (DVB-S, DVB-T, DVB-C) ou BCH + LDPC
(DVB-S2, DVB-T2, DVB-C2) augmente le débit d’un facteur qui dépend du
compromis débit/robustesse recherché ; un reformatage des données suivi d’un
filtrage et d’une conversion D/A fournit les signaux I et Q analogiques.
136
④ I et Q modulent en QPSK (DVB-S) ou 8-PSK (DVB-S2) ou QAM (câble) ou
COFDM (DVB-T, DVB-T2).
⑤ Cette fréquence intermédiaire est transposée ensuite dans la bande de
fréquence appropriée à sa transmission selon le médium utilisé.
Dans le cas du satellite, le changement de fréquence amène celle-ci à la valeur
requise pour la « voie montante » du satellite, où elle subira un nouveau changement de fréquence dans le transpondeur pour sa diffusion vers les téléspectateurs dans la bande 10,7 à 12,75 GHz.
La diffusion directe sur câble est relativement rare en Europe, et passe le plus
souvent par l’intermédiaire d’un satellite et d’une station de tête de réseau câblé
qui assure la démodulation QPSK/remodulation QAM et la transposition sur le
canal VHF ou UHF approprié.
Côté récepteur, la partie basse de la figure 8.1 montre que les opérations, symétriques de celles de l’émission, s’effectuent, logiquement, dans l’ordre inverse
de l’émission.
⑥ En cas de réception satellite, un premier abaissement de fréquence se fait dans
la tête de réception de l’antenne qui amène la fréquence du signal entre 950 et
2 150 MHz (entrée du récepteur), où il subit un deuxième changement de
fréquence (après sélection du canal). La réception câble et terrestre (40-860 MHz)
ne nécessite qu’un changement de fréquence.
9782100520442-Livre.fm Page 137 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 8 – RÉCEPTION
DE LA TÉLÉVISION NUMÉRIQUE
⑦ Cette FI démodulée, fournit les vecteurs I et Q analogiques.
⑧ Après conversion analogique/numérique, filtrage et reformatage de I et Q, la
correction d’erreur permet de retrouver les paquets « transport » de 188 octets.
⑨ Le démultiplexeur sélectionne les PES correspondant au programme choisi par
l’utilisateur, éventuellement désembrouillés au préalable grâce aux ECM et
EMM et à la clé privée de l’utilisateur (carte).
⑩ Le décodeur MPEG-2 ou MPEG-4 reconstruit les images et le son du
programme sélectionné.
8.2
Le récepteur/décodeur satellite
Le schéma-bloc de la figure 8.2 représente les blocs fonctionnels d’un IRD satellite,
qui ne correspond pas forcément au découpage retenu par tous les fabricants pour
l’intégration des circuits. Celui-ci peut varier considérablement selon les fournisseurs et le niveau d’intégration qui s’accroît très rapidement d’une génération de
matériel à la suivante.
© Dunod. La photocopie non autorisée est un délit.
Les signaux en provenance du satellite (bande 10,7 - 12,75 GHz, voir annexe A2)
sont amplifiés et convertis dans la gamme 950 - 2 150 MHz (en 2 bandes) par le
convertisseur à faible bruit (LNC, Low Noise Converter) situé au foyer de la parabole, puis appliqués à l’entrée « antenne » de l’IRD.
• Le tuner (ou front-end), le plus souvent commandé par un bus I2C, sélectionne le canal désiré dans la gamme 950 - 2 150 MHz. Dans le concept
« traditionnel », il le transpose à une valeur FI de 480 MHz et effectue la
sélectivité requise au moyen d’un filtre à onde de surface (FOS) ; le signal
amplifié est démodulé de façon cohérente selon les axes 0 et 90° pour fournir
les signaux I et Q analogiques en sortie. La récupération de la phase de la
porteuse, nécessaire à une démodulation correcte, se fait en coopération
avec les étages suivants qui asservissent par une boucle la fréquence et la
phase de l’oscillateur du démodulateur (carrier recovery loop).
Les tuners satellite sont actuellement de type zero IF (ZIF) : la démodulation
I/Q se fait directement à la fréquence d’entrée, sans changement de
fréquence, ce qui permet une réduction de coût sensible, notamment due à
l’élimination du filtre à ondes de surface ; la sélectivité est assurée par un
filtrage passe-bas intégré au circuit.
• Les signaux I et Q sont appliqués chacun à un convertisseur analogique/numérique (ADC) fonctionnant au double de la fréquence symbole (de
l’ordre de 30 MHz en Europe). Il s’agit le plus souvent d’un double convertisseur
137
9782100520442-Livre.fm Page 138 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
d’une résolution de 6 bits, capable d’échantillonner le signal à plus de
60 MHz. Là encore, la fréquence d’échantillonnage est asservie à la fréquence
symbole au moyen d’une boucle à verrouillage de phase (clock recovery loop).
• Le bloc QPSK, outre les fonctions de récupération d’horloge et de porteuse
(boucles de verrouillage de phase mentionnées précédemment), réalise le
filtrage demi-Nyquist complémentaire de celui appliqué à l’émission sur les
signaux I et Q, fournis par exemple sur 2 × 3 ou 4 bits au bloc fonctionnel
suivant (FEC).
• Le bloc FEC distingue au moyen d’une logique majoritaire les « 0 » des « 1 »
puis effectue l’ensemble de la correction d’erreurs, c’est-à-dire le décodage
de Viterbi du code convolutif de l’émission, le désentrelacement, le décodage
de Reed-Solomon et le débrassage ; les données en sortie (paquets transport
de 188 octets) sont en général fournies sous forme parallèle (8 bits de
données + signaux de contrôle dont l’un signale la présence éventuelle
d’erreurs non correctibles).
138
Figure 8.2 – Blocs fonctionnels d’un IRD satellite
9782100520442-Livre.fm Page 139 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 8 – RÉCEPTION
DE LA TÉLÉVISION NUMÉRIQUE
© Dunod. La photocopie non autorisée est un délit.
Les trois blocs ADC, QPSK et FEC sont aujourd’hui intégrés en un seul et même
circuit.
• Les paquets « transport » attaquent le bloc DESCR (désembrouilleur) qui
communique avec le processeur principal par un bus parallèle permettant le
transfert rapide de données. Il assure la sélection et le désembrouillage des
paquets du programme choisi, sous le contrôle du dispositif de contrôle
d’accès. Il est parfois combiné avec le démultiplexeur.
• Le bloc DEMUX (démultiplexeur) permet la sélection au moyen de « filtres »
des PES correspondant au programme choisi par l’utilisateur.
• Les PES audio et vidéo issus du démultiplexeur sont ensuite appliqués au
bloc MPEG, généralement un décodeur combiné audio/vidéo, qui assure
également les fonctions de générateur d’écran graphique nécessaire au
guide de programmes (EPG). Le décodage MPEG-2 nécessite en général
16 Mbits de mémoire DRAM, (quelquefois plus en 625 lignes si la gestion
mémoire n’est pas très efficace).
• Les signaux vidéo issus du décodeur MPEG-2 (de forme YUV numérique au
format CCIR 656) sont ensuite appliqués à un codeur vidéo (DENC) assurant leur conversion en signaux analogiques RVB + synchro pour une
visualisation de qualité optimale via la prise péritel du téléviseur, et PAL ou
SECAM (composite et Y/C) pour l’enregistrement sur magnétoscope.
• Les signaux audio numériques sont appliqués via une liaison série I2S ou
similaire à un double convertisseur numérique/analogique audio (DAC) de
résolution 16 bits ou plus qui reconstitue les signaux analogiques gauche et
droite.
• L’ensemble du système est contrôlé par un processeur (µP) 32 bits assez
puissant (RISC) qui commande tous les circuits précédents, interprète les
ordres en provenance de la commande à distance, gère le ou les lecteurs de
cartes à puces et les interfaces de communication généralement présents. Le
logiciel représente plusieurs centaines de kilo-octets, dont tout ou partie est
contenu en FLASH-EPROM pour permettre d’éventuelles remises à jour par
la transmission au cours de la vie du produit.
Les blocs DEMUX, MPEG, DENC et µP constituent désormais un monocircuit
décodeur de source.
• Le dispositif de contrôle d’accès comporte en général un ou deux lecteurs de
carte à puce (le second étant alors prévu pour une carte bancaire). Dans le cas
d’un module de contrôle d’accès détachable (utilisant le common interface,
matérialisé par la présence d’un ou plusieurs slots PCMCIA), le dispositif de
139
9782100520442-Livre.fm Page 140 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
contrôle d’accès ainsi que le « désembrouilleur » sont situés dans un module
au format PCMCIA. Le démultiplexeur, intégré à l’IRD, reçoit alors des
paquets transport « en clair ».
• Enfin, l’IRD peut communiquer avec le monde extérieur (PC, modem, etc.)
par une ou plusieurs interfaces normalisées : série RS232 et/ou parallèle
IEEE1284 (qui tendent à être remplacés par l’USB), ligne téléphonique
(modem intégré), nécessaires pour l’interactivité et l’accès à de nouveaux
services (téléchargement de fichiers ou de logiciels, téléachat, télépaiement,
accès aux réseaux…)
8.3
Le récepteur numérique « câble »
8.3.1 Le récepteur de base (sans voie de retour)
Il ne diffère en principe de son homologue pour réception satellite que par les
parties « réception » et « décodage de canal », adaptées aux bandes de fréquences
câble et à la modulation QAM prescrites par le DVB. Leur schéma-bloc est représenté à la figure 8.3.
140
Figure 8.3 – Schéma-bloc d’un décodeur de canal câble DVB-C
Nous nous limiterons donc à la description de ces blocs.
• Le tuner sélectionne le canal désiré dans les gammes VHF/UHF (50 à
860 MHz), le transpose en une fréquence FIF de 36,15 MHz et effectue la
sélectivité requise au moyen d’un filtre à onde de surface (FOS) ; le signal FI
amplifié est transposé à la fréquence symbole (FS = 6,875 MHz) au moyen
d’un oscillateur-mélangeur dont la fréquence (Fosc = FIF + FS = 43,025 MHz)
9782100520442-Livre.fm Page 141 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 8 – RÉCEPTION
DE LA TÉLÉVISION NUMÉRIQUE
© Dunod. La photocopie non autorisée est un délit.
et la phase sont contrôlées par une boucle d’asservissement (carrier recovery
loop) en provenance du démodulateur QAM qui suit.
Les circuits démodulateurs QAM récents (à partir de l’année 2000) acceptent
directement la FI à 36,15 MHz, ce qui permet d’éviter l’étage de conversion
ci-dessus.
• Le signal QAM ainsi transposé est appliqué à un convertisseur analogique/numérique (ADC) d’une résolution de 9 ou 10 bits (< 256-QAM), et
converti avec une fréquence d’échantillonnage égale par exemple à 4 fois la
fréquence symbole FS (application avec double conversion). La fréquence
d’échantillonnage est asservie à la fréquence symbole par une boucle à
verrouillage de phase (clock recovery loop) en provenance du bloc suivant
(démodulation/filtrage/égalisation). Dans le cas d’une application à simple
changement de fréquence, le signal FI à 36,15 MHz est le plus souvent souséchantillonné à une fréquence de l’ordre de 20 MHz, qui n’est plus
nécessairement liée à la fréquence symbole.
• Le bloc suivant (QAM) est le principal élément du décodage de canal : il
réalise à partir du signal QAM numérisé, la démodulation numérique et le
filtrage demi-Nyquist, l’égalisation d’échos des signaux I et Q, et le reformatage des données en sortie sous une forme appropriée au circuit FEC suivant
(généralement parallèle). Il effectue en outre les fonctions de récupération
d’horloge et de porteuse (boucles à verrouillage de phase mentionnées ciavant), ainsi que la génération, à partir du signal d’entrée QAM numérisé,
d’une tension de commande automatique de gain (AGC) appliquée à l’amplificateur FI du tuner.
• Le bloc FEC effectue la correction des erreurs, qui inclut le désentrelacement,
le décodage de Reed-Solomon et le débrassage ; les données en sortie (paquets
transport de 188 octets) sont en général fournies sous le même format parallèle que dans le cas du satellite (8 bits de données + signaux de contrôle avec
signalisation de la présence éventuelle d’erreurs non correctibles).
Les trois blocs ADC, QAM et FEC sont désormais intégrés en un seul et même
circuit.
Le processeur, ainsi que les fonctions de contrôle d’accès, désembrouillage,
démultiplexage, décodage MPEG-2 audio/vidéo et toutes les fonctions accessoires
(OSD, interfaces, modem…) sont, à service équivalent, identiques à celles décrites
ci-avant pour le cas du satellite.
8.3.2 Le récepteur numérique câble interactif (avec voie de retour)
Le récepteur interactif ne diffère, en principe, du récepteur simple que par sa partie
« interface réseau », en raison de la nécessité d’une voie montante ou upstream.
141
9782100520442-Livre.fm Page 142 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Celle-ci nécessite, en plus des circuits de réception usuels (voie descendante ou
downstream) du récepteur câble décrit au paragraphe précédent, des blocs fonctionnels nécessaires à l’émission de données vers la station de tête de réseau.
Afin que tous les récepteurs connectés puissent envoyer des données vers la tête de
réseau, la bande allouée à la voie montante (en général de 5 à 65 MHz) est partagée
en canaux sur lesquels le temps est découpé en tranches (slots), allouées dynamiquement aux récepteurs par la tête de réseau.
La gestion de la communication avec la tête de réseau nécessite dans le récepteur
un logiciel sophistiqué dit MAC (Media Access Control), ce qui nécessite des
ressources (puissance processeur et taille mémoire FLASH et RAM) beaucoup plus
conséquentes que pour un récepteur sans interactivité.
Deux standards principaux existent à l’heure actuelle pour les liaisons bidirectionnelles sur câble :
142
• Le standard DOCSIS, d’origine américaine, est principalement destiné aux
« modems câble » pour accès à Internet à haut débit.
La voie montante utilise la modulation QPSK ou 16-QAM en salve (burst)
dans la bande VHF basse (5 à 45 MHz).
La voie descendante « données » utilise la modulation QAM dans des
canaux de mêmes caractéristiques que ceux de la voie descendante TV,
avec laquelle elle peut partager la plus grande partie de la bande VHF/UHF
(70 à 860 MHz).
Une version EURO-DOCSIS adaptée au plan de fréquence des canaux européens existe.
Figure 8.4 – Schéma-bloc d’un modem câble (DOCSIS)
9782100520442-Livre.fm Page 143 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 8 – RÉCEPTION
DE LA TÉLÉVISION NUMÉRIQUE
• Le standard DVB/DAVIC, (spec. ETSI ETS 300 800) d’origine principalement
européenne, est destiné à apporter l’interactivité aux décodeurs de TV par
câble. Il adjoint à la voie descendante TV classique QAM dite in band une
deuxième voie descendante à débit plus réduit pour les données, dite out of
band et utilisant la modulation QPSK.
Cette voie utilise des canaux de 1 ou 2 MHz (débit de 1,5 ou 3 Mb/s) dans la
bande VHF moyenne (70 à 130 MHz), mais peut également utiliser des
canaux plus élevés.
La voie montante utilise la modulation QPSK dans la bande VHF basse (5 à
65 MHz) avec des canaux de 200 kHz, 1 MHz ou 2 MHz.
143
© Dunod. La photocopie non autorisée est un délit.
Figure 8.5 – Schéma-bloc d’un récepteur câble interactif (DVB-DAVIC)
8.4
Le récepteur numérique terrestre (DVB-T)
Son schéma-bloc ne diffère en principe de ses homologues pour réception satellite
ou câble sans voie de retour que par les parties « réception » et « décodage de
canal », adaptées aux bandes de fréquences VHF/UHF déjà utilisées par la télévision analogique et à la modulation COFDM prescrites par le DVB. Comme le
montre la figure 8.6, cette fonction est beaucoup plus complexe que dans le cas du
câble ou du satellite, du fait de la modulation utilisée.
Nous nous limiterons donc là encore à la description de ces blocs.
• Le bloc tuner + FI pour TV numérique terrestre est similaire à celui pour
câble, mais il doit satisfaire des exigences encore plus sévères en ce qui
LA
144
Figure 8.6 – Schéma-bloc d’un décodeur de canal DVB-T
(d’après doc. Philips Semiconductors)
9782100520442-Livre.fm Page 144 Jeudi, 24. juin 2010 11:35 11
TÉLÉVISION NUMÉRIQUE
9782100520442-Livre.fm Page 145 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 8 – RÉCEPTION
•
•
•
•
© Dunod. La photocopie non autorisée est un délit.
•
•
DE LA TÉLÉVISION NUMÉRIQUE
concerne le bruit de phase du PLL et la sélectivité (en raison de la coexistence
avec les émissions analogiques sur les canaux adjacents). Il sélectionne le
canal désiré dans les gammes VHF/UHF (47 à 230 et 470 à 860 MHz), le
transpose en une fréquence FIF de 36,15 MHz et effectue la sélectivité requise
au moyen d’un filtre à onde de surface (FOS) ; le signal FI amplifié est soit
transposé à une fréquence FS de l’ordre de 4,5 MHz, au moyen d’un oscillateur-mélangeur « supradyne » (Fosc = FIF + FS ≅ 40,65 MHz), soit appliqué
directement au circuit démodulateur COFDM les plus récents (à partir de
l’année 2001), qui acceptent la FI à 36,15 MHz, ce qui permet d’éviter un
étage de conversion supplémentaire.
Le signal COFDM, transposé ou non, est appliqué à un convertisseur analogique/numérique (ADC) d’une résolution de 9 ou 10 bits, et converti avec
une fréquence d’échantillonnage de l’ordre de 20 MHz (sous-échantillonnage lorsqu’il s’agit du signal FI à 36,15 MHz).
Le bloc démodulation COFDM est le principal élément de la démodulation.
À partir du signal FI numérisé, des signaux I et Q sont reconstitués et le
signal OFDM est démodulé au moyen d’une transformée de Fourier rapide
(FFT) sur 2K ou 8K points, selon le nombre de porteuses du signal reçu.
Le bloc correction de canal assure l’estimation du canal de transmission et sa
correction et participe à la synchronisation temporelle et fréquentielle.
Le bloc synchronisation assure, à partir des informations fournies par le bloc
« correction de canal », la synchronisation temporelle et fréquentielle de la
démodulation COFDM.
Le bloc décodage de canal effectue le désentrelacement fréquentiel et le
demapping des symboles COFDM puis la même correction d’erreurs que
pour le satellite, c’est-à-dire le décodage de Viterbi, le désentrelacement, le
décodage de Reed-Solomon et le débrassage.
Les données en sortie (paquets transport de 188 octets) sont en général
fournies sous forme parallèle (8 bits de données + signaux de contrôle dont
l’un signale la présence éventuelle d’erreurs non correctibles). Un format
série est également disponible sur les circuits récents.
L’ensemble des blocs inclus dans le grand rectangle grisé forme aujourd’hui un seul
et même circuit intégré.
Le processeur, ainsi que les fonctions de contrôle d’accès, désembrouillage, démultiplexage, décodage MPEG-2 audio/vidéo et toutes les fonctions accessoires (OSD,
interfaces, modem…) sont, à service équivalent, identiques à celles décrites ciavant pour le cas du satellite ou câble sans voie de retour.
145
9782100520442-Livre.fm Page 146 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
8.5
Évolution de la set-top box
8.5.1 Intégration des fonctions
Le schéma-bloc de la figure 8.2 représente pratiquement le découpage fonctionnel
d’un récepteur/décodeur (IRD) européen de première génération (1996). À cette
époque, chacun des blocs fonctionnels correspondait pratiquement à un circuit
intégré majeur.
La plupart de ces circuits étaient alors réalisés en technologie CMOS avec géométries de 0,5 µm.
L’intégration avançant très rapidement dans ce domaine, on a assisté dans un
premier temps (1997-1999) à un regroupement des fonctions au sein de circuits à
géométries plus fines selon le schéma suivant (à fonctionnalité quasi constante) :
146
• intégration des interfaces externes (RS232, IEEE1284, etc.) et des fonctions
démultiplexeur et désembrouilleur dans un processeur (en général de type
RISC) fonctionnant à une fréquence d’horloge maximale de l’ordre de
50 MHz ;
• intégration du codeur vidéo avec le décodeur MPEG audio/vidéo, auquel des
capacités graphiques plus sophistiquées ont été ajoutées (8 bits par pixel ou
plus, accélérateur 2D) ;
• diminution du nombre de boîtiers (S)DRAM de 4 boîtiers 256K × 16 à un
boîtier 1M × 16 commun au décodeur MPEG et au processeur graphique ;
• intégration dans un circuit unique de décodage de canal (satellite puis câble
et enfin terrestre) du démodulateur, de la correction d’erreur et du ou des
ADC d’entrée ;
• adoption progressive pour la partie tuner satellite de la technologie dite zero IF
(fréquence intermédiaire nulle ou conversion directe) en vue à terme d’intégrer
directement cette fonction sur la carte mère.
L’intégration se poursuivant inexorablement grâce à l’arrivée de géométries
toujours plus fines a rendu possible, à l’aube de l’an 2000, l’intégration du processeur
(de type RISC 32 bits interne et externe), dont la fréquence d’horloge atteint ou
dépasse 100 MHz et de ses périphériques avec le décodeur de source et le codeur
vidéo, voire le DAC audio.
Une architecture à mémoire unifiée 32 bits (UMA, Unified Memory Architecture)
pour le processeur, le décodeur MPEG audio/vidéo et les fonctions graphiques
permet de n’utiliser qu’un seul boîtier mémoire SDRAM de 8 Mo (2M × 32) pour
les applications les plus courantes.
9782100520442-Livre.fm Page 147 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 8 – RÉCEPTION
DE LA TÉLÉVISION NUMÉRIQUE
La figure 8.7 illustre le schéma-bloc d’un tel décodeur, commercialisé à partir de
2001.
147
© Dunod. La photocopie non autorisée est un délit.
Figure 8.7 – Schéma-bloc d’un récepteur typique à accès conditionnel
(à partir de 2001)
Cette architecture est restée pratiquement inchangée pour un récepteur à définition standard de base tout en continuant à bénéficier de réductions de coût importantes du fait de la réduction continue de la taille des puces.
8.5.2 Évolutions fonctionnelles du décodeur
Parallèlement à l’intégration à fonctionnalité quasi constante dont le but essentiel
est de réduire le coût du récepteur de base, on assiste à l’adjonction de nouvelles
fonctions augmentant son attrait, tout au moins dans les versions milieu et haut de
gamme.
L’une des fonctionnalités faisant défaut depuis l’origine aux décodeurs de télévision numérique est la possibilité d’enregistrer un programme tout en en regardant un autre. Ceci est d’autant plus difficile à comprendre pour l’utilisateur que
cette possibilité a toujours existé sur les magnétoscopes analogiques, qui intègrent
9782100520442-Livre.fm Page 148 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
tous leur propre tuner. Ce manque, associé à l’augmentation de capacité et à la
diminution de prix phénoménales des disques durs depuis la fin des années 1990,
a permis d’envisager leur intégration dans les set-top box de haut et milieu de
gamme.
Afin de pouvoir enregistrer un second programme faisant éventuellement partie
d’un autre multiplex, une deuxième partie « réception » (tuner + décodage de
canal) est nécessaire ainsi qu’un démultiplexeur pour pouvoir n’enregistrer que la
partie du train transport intéressante. Cette fonctionnalité, qui consiste à regarder
un programme et à en enregistrer un second, est souvent appelée watch and record
dans la littérature anglo-saxonne.
148
Une fonctionnalité beaucoup plus innovante est permise par le disque dur (dont
l’accès aléatoire à tout point est possible et sur lequel on peut lire et écrire « en
même temps », ce qui n’est évidemment pas possible sur un magnétoscope) est ce
que l’on appelle le time shift recording (TSR) qui permet d’interrompre le visionnage d’une émission (par exemple pour répondre au téléphone) et de reprendre
l’émission là où on l’avait laissée. À partir du moment où l’on interrompt le visionnage (pause), le disque dur enregistre le programme ; au moment de la reprise, on
lit le disque dur depuis le moment de l’interruption tout en continuant d’enregistrer l’émission en temps réel. On visionne donc à partir de ce moment l’émission
avec un décalage temporel (time shift) égal à la durée de l’interruption. La figure 8.8
représente le schéma de principe d’un récepteur satellite à double tête de réception
(que l’on appelle généralement Personal Video Recorder ou PVR), permettant à la
fois le time shift recording du programme que l’on regarde et l’enregistrement d’un
autre programme situé dans un multiplex quelconque. Cela nécessite bien sûr deux
modules de réception (NIM), mais trois démultiplexeurs (demux) ainsi qu’un
dispositif de reconstitution de train transport partiel (combineur TS) si l’on enregistre l’information sous forme « transport » la plupart du temps embrouillée pour
des raisons de copyright.
Les interfaces vers l’extérieur du décodeur évoluent également, même si la sortie
analogique PAL ou SECAM pour l’enregistrement n’a pas encore été éliminée.
Contrairement à ce qu’on aurait pu penser, c’est le port USB 2.0 (et non l’interface
IEEE1394) qui a fait une percée pour la connexion de supports de stockage externes
amovibles. Cela est largement dû au fait que c’est l’interface la plus répandue pour
les disques durs externes pour ordinateurs et que les clés-mémoire USB de capacité
relativement importante sont devenues abordables. Lorsqu’ils possèdent un port USB
permettant l’enregistrement, les récepteurs HD des bouquets payants bloquent
généralement cette fonctionnalité pour certaines émissions (films récents, sports…).
Le port USB peut également être utilisé pour lire des vidéos, des photos et de la
musique ainsi que pour la mise à jour du firmware.
9782100520442-Livre.fm Page 149 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 8 – RÉCEPTION
DE LA TÉLÉVISION NUMÉRIQUE
Figure 8.8 – Schéma de principe d’un récepteur à disque dur
et double tête de réception
L’adoption par le DVB de la norme de compression H264 (ou MPEG-4 AVC) a
permis d’augmenter l’efficacité de l’ensemble de la chaîne de transmission et a
ouvert ainsi la porte au déploiement à grande échelle de la télévision à haute définition. Les premiers récepteurs-décodeurs à haute définition sont apparus en 2005
pour le satellite et en 2008 pour la TNT, sans changer fondamentalement l’architecture des récepteurs en dehors du remplacement du processeur-décodeur principal
par des modèles beaucoup plus puissants capables de décoder les formats HD
720p, 1080i et 1080p en MPEG-4 AVC en plus du format SD en MPEG-2.
© Dunod. La photocopie non autorisée est un délit.
Pour ces modèles, la sortie HDMI avec protection HDCP est devenue incontournable mais elle s’accompagne toujours d’une ou deux prises péritel pour permettre le
raccordement d’un écran et d’un enregistreur analogiques à définition standard.
La sortie YUV analogique HD n’est pas toujours présente et peut être limitée au
format 576p pour l’affichage de certains contenus.
L’interface Ethernet RJ45 est apparue en premier sur les box de fournisseurs d’accès
internet (FAI) pour leur permettre d’acheminer les émissions TV par leur réseau
ADSL. Elle est désormais présente sur certains produits du commerce, ce qui leur
permet d’accéder aux fichiers vidéo stockés sur un PC via le réseau domestique ou
à partir de sites web.
149
9782100520442-Livre.fm Page 150 Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page 151 Jeudi, 24. juin 2010 11:35 11
Chapitre 9
Aspects logiciels
et interopérabilité
151
© Dunod. La photocopie non autorisée est un délit.
L’importance des investissements nécessaires au démarrage des émissions de télévision numérique ainsi que l’augmentation vertigineuse du coût des « contenus »
font que les émissions à péage en constituent la grande majorité dans tous les pays
où elle est d’ores et déjà bien implantée (France, Italie, Espagne, Royaume-Uni,
USA…).
Même si la norme DVB, tout comme l’a fait avant elle la norme GSM dans le
domaine du radiotéléphone, a joué un rôle de puissant fédérateur en Europe, elle
n’a cependant pas pu imposer un système d’accès conditionnel ni une interface
utilisateur uniques.
Nous avons vu au chapitre 5 qu’il existait de nombreux systèmes d’accès conditionnel utilisant l’algorithme d’embrouillage DVB-CSA, différant entre eux essentiellement au niveau logiciel et par des particularités de la carte d’abonné.
Outre le système d’accès conditionnel, la partie logicielle la plus déterminante pour
l’intéroperabilité entre les différents opérateurs de bouquets de TV numérique (audelà de la simple réception des programmes TV conformes au standard DVB) est
ce que l’on appelle en bon Français le moteur d’interactivité, mais on utilise le plus
souvent le terme anglais middleware ou quelquefois celui d’API (Application
Programming Interface).
9782100520442-Livre.fm Page 152 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
En fait le terme de middleware est très vague si on le sort de son contexte, car il
ne signifie rien de plus que le fait qu’il se situe entre le matériel (hardware) et les
logiciels d’application (software).
L’API, quant à elle, ne désigne stricto sensu que l’interface entre l’application et la
couche logicielle immédiatement inférieure. Elle consiste essentiellement en un
ensemble clairement défini d’appels de fonctions du middleware.
On peut ainsi comparer fonctionnellement cette partie logicielle à un système
d’exploitation évolué pour ordinateur personnel avec interface utilisateur graphique
tel que Windows (très différent d’un système d’exploitation temps réel de bas niveau
Real Time Operating System ou RTOS tel que pSOS, vxWorks, Nucleus… pour n’en
citer que quelques-uns), sur lequel le middleware s’appuie.
Une des fonctions cruciales de la plupart des middlewares est de rendre les applications indépendantes de la plate-forme matérielle, dans la mesure où celle-ci
dispose des ressources nécessaires (puissance et fonctionnalités), ainsi que du
RTOS sur laquelle elles « tournent ».
152
Afin qu’une même plate-forme matérielle puisse supporter relativement aisément
plusieurs middlewares (qui se différencient non seulement par leur API vers les applications, mais aussi par leur interface avec les couches basses du logiciel, que nous
appellerons API middleware), les fabricants de set top box interfacent le plus souvent
le middleware à travers une couche d’adaptation (Adaptation Layer) avec leur propre
API, indépendante du middleware (que nous appellerons API plateforme).
La figure 9.1 illustre les différentes couches logicielles d’une set-top box munie d’un
middleware en comparaison à celles d’un micro-ordinateur de type PC.
Figure 9.1 – Comparaison des couches logicielles d’une set-top box et d’un PC
* Windows inclut la fonctionnalité de DOS depuis la version Windows 95
** correspond à la DLI de Canal+ Technologies pour Mediahighway
C’est le middleware qui détermine l’interface utilisateur, l’aspect et les possibilités
du guide de programmes, les applications plus ou moins interactives mises à la
disposition de l’utilisateur (émissions en paiement à la séance, jeux, services spéci-
9782100520442-Livre.fm Page 153 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 9 – ASPECTS
LOGICIELS ET INTEROPÉRABILITÉ
fiques faisant ou non appel à une voie de retour vers l’opérateur, fonctions spéciales
telles que l’enregistrement sur disque dur…).
L’ensemble des middlewares permet en général d’accéder à deux niveaux
d’interactivité :
• une interactivité locale ou hors ligne, dite de type caroussel, ce qui signifie
que l’utilisateur ne peut accéder qu’à des données émises cycliquement, de
manière similaire aux données Télétexte des émissions analogiques (c’est le
cas par exemple du guide de programmes) ;
• une interactivité en ligne, où l’utilisateur est connecté par l’intermédiaire
d’une voie de retour (modem téléphonique ou autre) à un serveur, et peut
donc accéder à des données distantes, de manière comparable au Minitel,
voire même, dans une certaine mesure, à Internet.
Ils disposent aujourd’hui tous également de fonctionnalités de téléchargement de
données et de logiciels en mémoire FLASH par voie hertzienne, ce qui permet leur
mise à jour (ajout de nouvelles fonctionnalités ou correction de bogues) ainsi que
le chargement d’applications.
Le tableau 9.1 liste quelques middlewares actuellement utilisés dans le monde de la
télévision numérique (par ordre alphabétique).
© Dunod. La photocopie non autorisée est un délit.
Tableau 9.1 – Principaux middlewares propriétaires utilisés pour la TV numérique
Ils sont classés propriétaires (P) lorsqu’ils appartiennent à une société non liée à un
opérateur ou verticaux (V) lorsque c’est un opérateur ou une société affiliée qui a
développé un middleware spécifique et notés P/V s’ils sont également proposés
sous licence à d’autres opérateurs.
Toutefois, indépendamment du middleware proprement dit, les opérateurs de télévision à péage (dont les terminaux sont souvent en location) peuvent personnaliser
leur propre version voire éventuellement la brider de manière à ce qu’elle ne puisse
exécuter les applications non homologuées (par exemple celles d’un concurrent),
même basées sur le même middleware…
153
9782100520442-Livre.fm Page 154 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
De même, les récepteurs en location sont quelquefois volontairement limités de
façon à ne pas pouvoir recevoir les émissions, même à accès libre, d’opérateurs
n’ayant pas conclu d’accord avec l’opérateur propriétaire du récepteur.
Si cette situation est acceptable dans un contexte de télévision à péage (encore
qu’elle conduise l’utilisateur à avoir autant de terminaux que d’opérateurs auxquels
il doit s’abonner s’il désire accéder à tous les services offerts par ces derniers), on
conçoit qu’elle ne soit pas souhaitable dans la perspective de la télévision numérique pour tous, c’est-à-dire avec une proportion importante d’émissions en clair, ce
qui devrait être le cas de la télévision numérique terrestre dans beaucoup de pays.
C’est pourquoi des solutions alternatives supposées couvrir les besoins de tous les
opérateurs, à accès libre ou à péage, avec différents niveaux de fonctionnalité, ont
été développées.
Ces solutions sont dites horizontales par opposition aux solutions intégrées – de la
fourniture de programmes à celle de récepteurs spécifiques – dites verticales des
opérateurs à péage.
Dans l’attente de leur disponibilité effective, on peut trouver sur le marché de détail
des récepteurs estampillés DVB n’utilisant aucun middleware, communément
qualifiés de « boîtes à zapper ».
154
Ces récepteurs sont munis d’un logiciel qui leur est propre et qui s’appuie directement
sur les pilotes et le RTOS ; ils ne disposent généralement pas de modem.
Leur logiciel, qui ne dispose généralement pas de fonctions interactives, peut
néanmoins la plupart du temps être mis à jour via satellite ou au moyen d’un PC
connecté sur un port série ou encore d’une clé USB contenant l’image du nouveau
firmware.
Ce logiciel assure essentiellement les fonctions nécessaires à la réception des
programmes TV, avec souvent un mini-EPG limité aux informations sur l’émission
en cours et la suivante (fonction dite now - next) lorsque ces informations sont
transmises conformément au standard DVB-SI.
Outre les émissions à accès libre (Free To Air ou FTA), certains récepteurs peuvent
recevoir des émissions à péage soit au moyen d’un accès conditionnel embarqué
(Viaccess est l’un des plus courants), soit au moyen d’un module DVB-CI approprié, à condition bien sûr de disposer de la carte à puce idoine disposant de droits
valides pour les émissions à recevoir.
Nous passerons tout d’abord rapidement en revue les deux principaux moteurs
d’interactivité propriétaires établis en Europe avant d’examiner les solutions
ouvertes et standardisées.
9782100520442-Livre.fm Page 155 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 9 – ASPECTS
9.1
LOGICIELS ET INTEROPÉRABILITÉ
Les principaux moteurs d’interactivité propriétaires
utilisés en Europe
9.1.1 MediaHighway
MediaHighway a été développé à partir de 1993 par Canal+ (département recherche
et développement, devenu ensuite Canal+ Technologies), initialement pour le lancement du bouquet français Canal Satellite Numérique (avril 1996).
MediaHighway est utilisé par toutes les déclinaisons nationales de Canal Satellite
qui ont été lancées ensuite (Espagne, Italie, Pologne, etc.). Il a été également
proposé à des opérateurs extérieurs au groupe Canal+ (On Digital devenu ITV
Digital au Royaume Uni en 1998 et certains opérateurs satellite et câble en Europe,
en Asie et aux USA).
La phase de certification par Canal+ Technologies, indispensable pour avoir le
droit de commercialiser des produits avec le label Mediahighway, inclut une suite
importante de tests.
Plusieurs versions de MediaHighway existent, caractérisées par un numéro de DLI
(Device Layer Interface). La DLI est en fait l’interface du middleware « vers le bas »,
avec laquelle la plateforme matérielle munie de son système d’exploitation, de ses
pilotes et d’une couche d’adaptation éventuelle doit être compatible. La DLI définit
les fonctionnalités matérielles supportées par le middleware tout en assurant une
indépendance du matériel et du RTOS.
© Dunod. La photocopie non autorisée est un délit.
MediaHighway supporte les applications de vidéo à la demande (Video-OnDemand ou VoD), achat impulsif (Impulse Pay-Per-View ou IPPV), et permet le
téléchargement d’applications ou données. Il est la plupart du temps utilisé avec le
système d’accès conditionnel « maison » Mediaguard, mais peut en principe être
adapté à tout CA embarqué et supporte également l’interface DVB-CI pour module
d’accès conditionnel détachable.
Les versions de DLI actuellement en service :
• versions 3.xx : utilisées par la plupart des opérateurs satellite du groupe
Canal+ en raison de leur date de démarrage précoce. Elles ont été enrichies
au moyen de téléchargements via satellite ;
• versions 4.xx : OnDigital (devenu ITV Digital) en a été le premier utilisateur
avec la version 4.1 qui supporte en outre l’API de MHEG-5, légalement obligatoire pour les services de télévision numérique terrestre au Royaume-Uni.
D’autres variantes de la DLI 4.xx incluent désormais la navigation Internet
et la gestion d’un disque dur pour l’enregistrement vidéo/audio.
155
9782100520442-Livre.fm Page 156 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Les versions actuelles de MediaHigway sont basées sur une « machine virtuelle
MediaHighway » qui peut exécuter des applications développées sous différents
langages standards au moyen du chargement de l’interpréteur correspondant
(Java®, HTML, MHEG-5…).
C’est ce qui a permis à MediaHighway d’être l’un des premiers middlewares
propriétaire à pouvoir exécuter les applications au nouveau standard DVB-MHP,
basées sur le langage Java® de Sun Microsystems.
Site Internet : www.canalplus-technologies.com.
9.1.2 OpenTV
OpenTV est le middleware proposé par la compagnie du même nom, aujourd’hui
indépendante et à l’origine une filiale de Thomson MultiMedia et Sun (Sun Interactive Alliance formée en 1994).
Le premier opérateur de télévision numérique à avoir utilisé OpenTV est TPS
(fin 1996).
OpenTV est maintenant utilisé par une trentaine d’opérateurs de télévision numérique dans le monde, et installé sur plus de 10 millions de set-top box en provenance de près de 30 fabricants.
156
De ce fait, OpenTV supporte d’ores et déjà de nombreux systèmes d’accès conditionnel ainsi que l’interface DVB-CI pour module d’accès conditionnel détachable.
OpenTV supporte les applications de vidéo à la demande (VoD), achat impulsif
(IPPV), et permet le téléchargement d’applications ou données.
Plusieurs versions d’OpenTV existent, en fonction de la date de démarrage du
service :
• OpenTV 1.O.x est la version encore utilisée par les pionniers dont les opérateurs câble et satellite principalement français. Elle n’est plus proposée aux
nouveaux clients depuis le début de l’an 2000.
Elle a néanmoins été enrichie au cours du temps par de nombreux
downloads ;
• OpenTV 1.2 est un dérivé spécifique à l’opérateur satellite britannique
BSkyB ;
• OpenTV EN est la deuxième génération d’OpenTV ;
• OpenTV EN2 est la troisième génération, qui hérite à la fois d’OpenTV EN et
de la version 1.2.
9782100520442-Livre.fm Page 157 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 9 – ASPECTS
LOGICIELS ET INTEROPÉRABILITÉ
OpenTV EN2 est basé sur deux librairies :
• les fonctions de base sont incluses dans une librairie baptisée « core », qui
constitue le cœur du middleware et est compatible avec de nombreux systèmes d’exploitation temps réel ;
• les fonctions optionnelles sont dans la librairie « extensions », qui permet
aux opérateurs de personnaliser et d’étendre éventuellement la fonctionnalité par téléchargement.
OpenTV EN2 exécute les applications OpenTV écrites en « O code » (comparable
au byte code d’une machine virtuelle Java) au moyen d’une machine virtuelle
(interpréteur).
C’est pourquoi cette architecture permet un portage de MHP relativement aisé au
moyen de l’adjonction d’une deuxième machine virtuelle (Java), ce qui permet au
middleware d’être compatible à la fois avec des applications OpenTV et MHP.
Les fonctionnalités d’OpenTV s’étendent également maintenant vers la gestion
d’un disque dur et la navigation sur Internet, notamment grâce à l’acquisition en
l’an 2000 de la société Spyglass.
OpenTV est entièrement détenue par le groupe Kudelski S.A. depuis mars 2010, ce
qui permet au groupe de proposer des solutions complètes incluant le middleware,
l’accès conditionnel et la protection de contenu.
Site Internet : www.opentv.com.
© Dunod. La photocopie non autorisée est un délit.
9.2
Les middlewares européens ouverts
9.2.1 MHEG-5
Le langage MHEG (Multimedia & Hypermedia Expert Group) est un langage
descriptif de « présentations multimédia », comparable au langage HTML (HyperText Markup Language) pour les pages hypertexte.
Il est basé sur un format d’échange multimédia « orienté objet » indépendant de la
plate-forme matérielle et logicielle (Operating System) sur laquelle il tourne.
C’est un langage déclaratif (par opposition à un langage procédural tel que Java).
La version MHEG-5, standardisée sous la référence ISO/IEC 13522-5 est un sousensemble de MHEG-1 particulièrement destiné aux récepteurs de TV numérique
(set-top box ou téléviseur intégré) dotés d’une puissance de calcul et d’une taille
mémoire relativement modestes.
157
9782100520442-Livre.fm Page 158 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
C’est pratiquement la seule version de MHEG qui soit réellement utilisée.
Dans le vocable MHEG, une présentation multimédia est une application MHEG ou
une scène MHEG. Une application MHEG est un regroupement de scènes MHEG.
Une scène MHEG est composée de trois groupes d’objets principaux ou ingrédients :
• les objets interactifs tels que boutons, curseurs ou autres ;
• les objets-liens (links) qui définissent les processus (actions) déclenchées
par les actions de l’utilisateur sur les objets interactifs ;
• les objets de présentation, commandés par les objets-liens ci-dessus.
Il existe un certain nombre d’autres objets qui regroupent plusieurs objets de
présentation
Quand on démarre une application MHEG, celle-ci attend en général une action de
l’utilisateur.
Si celui-ci presse un bouton, l’application génère l’événement (event) « bouton
sélectionné ».
Sur cet événement, un lien peut avoir été défini par exemple pour démarrer une
séquence vidéo (objet).
158
Les objets eux-mêmes peuvent à leur tour générer des événements qui peuvent
déclencher des liens.
Des applications relativement complexes (jeu vidéo, vente sur catalogue…)
peuvent être réalisées de cette manière. Une application est normalement composée de scènes et de quelques objets et liens communs. Une scène n’est composée
que d’objets et de liens.
D’autres versions de MHEG existent :
• MHEG 1 à 4 : (pour mémoire) les ancêtres de MHEG-5, peu utilisés ;
• MHEG 5 : la plus importante, utilisée par le service de TV numérique terrestre au Royaume-Uni ;
• MHEG 6 : extension de MHEG-5 au moyen d’une machine virtuelle permettant l’inclusion d’applications basées sur un langage procédural ;
• MHEG 7 : définit les procédures de test et de conformité des applications
MHEG-5 ;
• MHEG 8 : projet visant à la combinaison de XML et MHEG.
Le peu de ressources nécessaire à faire tourner MHEG en font un candidat intéressant
pour les récepteurs numériques terrestres de base.
9782100520442-Livre.fm Page 159 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 9 – ASPECTS
LOGICIELS ET INTEROPÉRABILITÉ
9.2.2 DVB-MHP
À partir de 1997, la normalisation du codage des signaux de télévision numérique étant acquise, le consortium DVB a décidé de s’attaquer au problème de
l’interopérabilité logicielle entre les différents services et matériels utilisant le
standard DVB pour la diffusion vers les utilisateurs.
Outre le postulat initial d’interopérabilité, les principaux objectifs qui ont prévalu
au développement de MHP (Multimedia Home Platform) ont été l’évolutivité (avec
la possibilité d’étendre la fonctionnalité par téléchargement), la compatibilité
ascendante, la modularité et la stabilité.
L’ouverture vers l’Internet a également été prise en compte dès le départ, ainsi que
l’intégration à un réseau local domestique comprenant des terminaux de natures
diverses (PC, téléphones, appareils électro-ménagers…).
Une des conditions nécessaires était que cette norme soit basée sur des standards
« ouverts » afin de pouvoir garantir un accès non discriminatoire à quiconque
désire la mettre en œuvre.
Un autre souci a été d’utiliser un format efficace en terme d’utilisation de la bande
passante tout en assurant une séparation complète des données et des applications.
Enfin, la neutralité vis-à-vis des systèmes d’accès conditionnel éventuels devait
être totale, que celui-ci soit embarqué ou réalisé au moyen de l’interface DVB-CI.
MHP définit une interface logicielle (API) générique entre les applications interactives de différents opérateurs et les terminaux sur lesquels elles doivent s’exécuter,
indépendamment des détails de leur implémentation matérielle et logicielle.
Ces terminaux peuvent être de niveaux de performances relativement différents.
© Dunod. La photocopie non autorisée est un délit.
MHP peut supporter diverses applications, illustrées par quelques exemples typiques (par ordre d’interactivité croissante) :
• guide électronique de programmes (EPG) ;
• services informatifs comparables à un « super télétexte » ;
• applications liées au programme TV en cours de diffusion (paris sur matches,
jeux…) ;
• commerce électronique (e-commerce) avec transactions bancaires sécurisées.
L’architecture de MHP (figure 9.2) comporte trois niveaux : ressources, logiciel
système et applications.
• Les ressources incluent toutes les parties essentielles de la set-top box : décodage MPEG, organes d’entrée/sortie, processeur central et système graphique.
159
9782100520442-Livre.fm Page 160 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 9.2 – Architecture de MHP (© DVB 2000)
160
• Le logiciel système permet de présenter une vue abstraite de la plateforme
aux applications. Il inclut un navigateur (ou application manager) qui assure
le contrôle de la plateforme et des applications qui tournent sur elle. Le cœur
logiciel de MHP s’appelle DVB-J (DVB-Java), basé sur la machine virtuelle
Java (Java Virtual Machine) définie par Sun Microsystems.
• Les applications MHP accèdent à la plateforme par l’intermédiaire de l’API MHP.
Un certain nombre d’interfaces logicielles destinées à l’utilisation des spécificités
de la plateforme matérielle sont implémentées au moyen d’extensions. Le rôle
de toute implémentation pratique de MHP est d’assurer la correspondance
entre ces API et les ressources matérielles et logicielles de la plateforme.
Trois profils ont été définis pour la plateforme MHP, par ordre de fonctionnalité
croissante, qui se traduisent bien sûr pour le matériel par un besoin de puissance
et une complexité en rapport : un profil diffusion enrichie (enhanced broadcast), un
profil diffusion interactive (interactive broadcast) et un profil permettant l’accès à
Internet (Internet access).
• Le profil enhanced broadcast est destiné aux services diffusés unidirectionnels.
• Le profil interactive broadcast ajoute le support des services interactifs, utilisant par exemple le réseau téléphonique pour la voie de retour.
• Le profil Internet access ajoute les fonctionnalités supplémentaires permises
par l’accès à internet sur un écran de télévision.
9782100520442-Livre.fm Page 161 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 9 – ASPECTS
LOGICIELS ET INTEROPÉRABILITÉ
D’autres profils ou éléments de profils seront ajoutés par la suite, par exemple pour
le support de fonction d’enregistrement sur disque dur.
La figure 9.3 illustre les fonctionnalités et la compatibilité ascendante entre les trois
différents profils de MHP.
La version 1.0 de MHP inclut les deux premiers profils, et est désormais standardisée
par l’ETSI sous la référence TS 101 812.
Une version 1.1 couvre le profil Internet access et ajoute la fonctionnalité HTML. Elle
est décrite dans le document ETSI TS 102 812.
DVB-MHP semble le seul standard ouvert à pouvoir fournir une interface utilisateur
unifiée avec différents niveaux de fonctionnalité et une évolutivité satisfaisante, ce
qui serait une condition très favorable à un basculement complet de l’analogique
au numérique.
C’est pourquoi MHP a acquis le support de la plupart des acteurs du monde de la
télévision en Europe, et même au delà, en vue du lancement généralisé de la télévision numérique terrestre.
MHP n’a toutefois pas été rendu obligatoire dans les terminaux, en raison du surcoût
significatif, que lui reprochent ses détracteurs, dû à la puissance nécessitée, entre
autres, par le support de la machine virtuelle Java.
© Dunod. La photocopie non autorisée est un délit.
À l’heure où nous écrivons ces lignes (2010), MHP n’a pas rencontré le succès
espéré dans la plupart des pays où la TNT a démarré, sauf au départ en Italie où la
subvention des décodeurs TNT était conditionnée à l’utilisation de MHP pour
accéder aux services interactifs.
La plupart des récepteurs TNT vendus en Europe sont actuellement de simples
« boîtes à zapper » dont l’interface utilisateur se limite à la configuration du récepteur, au choix des langues audio et des sous-titres et à l’accès aux informations sur
l’émission en cours et à la suivante (now & next) ainsi qu’à un guide de programmes sur une semaine (EPG) s’il est émis par le réseau (ce qui n’est pas le cas sur la
TNT française).
Site Internet : http://www.dvb-mhp.org/.
161
9782100520442-Livre.fm Page 162 Jeudi, 24. juin 2010 11:35 11
TÉLÉVISION NUMÉRIQUE
162
Figure 9.3 – Fonctionnalité croissante des trois profils de MHP (© DVB 2000)
LA
9782100520442-Livre.fm Page 163 Jeudi, 24. juin 2010 11:35 11
Chapitre 10
Évolution :
état de l’art et perspectives
© Dunod. La photocopie non autorisée est un délit.
163
Le numérique dans les applications vidéo grand public, qui a débuté au milieu des
années 1990 par les premières émissions satellite aux États-Unis puis en France,
fait désormais partie du paysage audiovisuel quotidien dans lequel figurent également le DVD, le disque à haute définition Blu-ray et les box d’opérateurs ADSL,
sans parler de toutes les applications vidéo sur téléphone mobile et sur PC.
La télévision numérique par câble et plus encore celles par voie terrestre (TNT) et
sur IP (ADSL) ont conquis une part de marché significative. Les fonctionnalités des
récepteurs, intégrés au téléviseur ou non, et les services proposés ont évolué de
manière très rapide depuis le début du millénaire, et ce rythme ne semble pas
devoir se ralentir de sitôt…
Malgré le recul de près de quinze années depuis le début des émissions numériques,
les prévisions d’évolution sont donc toujours hasardeuses… C’est néanmoins ce
que nous allons essayer de faire dans les sections suivantes, en nous limitant toutefois
à un horizon de trois ou quatre années.
10.1 La télévision numérique terrestre
Le système de télévision numérique terrestre européen (normalisé sous la référence ETS 300 744) utilise la modulation OFDM (également appelée COFDM) déjà
9782100520442-Livre.fm Page 164 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
utilisée pour la radio numérique (DAB), avec deux variantes (2K et 8K) qui ont été
décrites au chapitre 7.
Le Royaume-Uni a été le premier pays européen à démarrer fin 1998 un service de
télévision numérique terrestre, en majeure partie à péage, à la norme DVB-T
(opérateur On Digital). Elle est de ce fait le seul pays européen à avoir utilisé la
modulation COFDM à 2K porteuses, en raison de la non-disponibilité de circuits
démodulateurs pour le mode 8K à l’époque. Le remplacement en 2003 du bouquet
payant initial par un bouquet de chaînes gratuites baptisé Freeview a permis de
transformer l’échec initial en véritable succès populaire. La plupart des récepteurs
en service permettant la réception des deux modes de DVB-T, les multiplex de
Freeview ont été finalement reconvertis en 8K pour augmenter leur résistance aux
échos et diminuer leur sensibilité aux parasites impulsionnels. Fin 2009, le RoyaumeUni a continué d’assumer son rôle de pionnier de la télévision numérique terrestre
en étant le premier pays au monde à utiliser la norme DVB-T2 pour le lancement
du bouquet gratuit Freeview HD.
164
Au début de la décennie 2010, la télévision numérique terrestre s’est implantée
pratiquement partout en Europe sur la base du standard DVB-T/MPEG-2 pour la
télévision à définition standard, certains des pays ayant démarré le plus récemment ont toutefois choisi le standard MPEG-4 (H264) pour la définition standard
comme pour la haute définition.
En France, la TNT a démarré en mars 2005 et s’est considérablement développée
depuis en termes de couverture et de pénétration. La couverture ne pourra toutefois atteindre l’objectif fixé par le gouvernement de 95 % de la population nationale
et de 91 % au niveau départemental qu’après l’arrêt complet du réseau analogique.
En 2010, la TNT diffuse sur l’ensemble du réseau 18 programmes en clair à définition
standard et un programme à haute définition (Arte HD) répartis sur 5 multiplex
(R1, R2, R3, R4, R6) ainsi qu’une dizaine de programmes payants dont un en haute
définition (Canal+).
Un sixième multiplex (R5) diffusant 3 programmes (TF1 HD, F2 HD, M6 HD) en
haute définition (DVB-T/MPEG-4) a démarré en octobre 2008 avec une couverture
limitée aux grandes métropoles et à quelques régions jusqu’à l’arrêt des émissions
analogiques.
Il existe de plus dans certaines régions un multiplex de chaînes locales ou régionales.
Pour permettre la réception des chaînes de la TNT dans les zones non couvertes ou
mal couvertes par le réseau terrestre, deux bouquets gratuits par satellite ont vu le
jour (TNTSAT sur Astra à 19˚E et FRANSAT sur Atlantic Bird 3 à 5˚W).
9782100520442-Livre.fm Page 165 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
Les émissions de ces bouquets gratuits sont néanmoins cryptées pour des raisons
de droits (limités à la France) et leur réception nécessite l’acquisition d’un matériel
spécifique (kit récepteur + carte d’abonné).
Le processus d’arrêt de l’analogique a démarré début 2010 en France par la
région Alsace et la date d’extinction complète sur tout le territoire a été fixée à
novembre 2011.
Afin de ne pas trop pénaliser les usagers résidant dans des zones non couvertes par
le réseau terrestre, une subvention pourra leur être allouée par l’État pour compenser
le surcoût de l’installation satellite…
Le passage au « tout-numérique » est déjà une réalité dans certains pays européens
(Allemagne, Suisse, Pays-Bas…) et en bonne voie dans la plupart des autres, qui
aura arrêté ses émissions analogiques terrestres en 2012.
En 2015 la télévision analogique terrestre ne sera plus qu’un souvenir en Europe…
Le système DVB-T a été choisi par de nombreux pays non européens (Afrique,
Australie, Inde, Moyen-Orient, Vietnam et bien d’autres), mais pour les pays
n’ayant pas encore fait leur choix, il se trouve désormais en concurrence avec
d’autres systèmes, principalement le dérivé brésilien SBTVD, rebaptisé ISDB-T
international, du système japonais ISDB-T. Également basé sur la modulation
COFDM, ISDB-T apporte certaines améliorations visant à le rendre plus souple et
plus robuste que DVB-T, surtout pour la réception mobile (voir annexe 6).
© Dunod. La photocopie non autorisée est un délit.
Le système brésilien ne diffère du système ISDB-T que par le codage de source
(MPEG-4 AVC au lieu de MPEG-2). Après une longue période d’incertitude, les
principaux pays d’Amérique du Sud (dont l’Argentine et le Chili) ont suivi le Brésil
et ont choisi ce système.
Les États-Unis quant à eux avaient démarré leurs émissions numériques terrestres
au standard ATSC (voir annexe 6) en 1998 avec pour objectif initial l’arrêt des
émissions analogiques NTSC en 2008. Cet objectif très ambitieux a finalement été
atteint en juin 2009 notamment grâce à la subvention, au moyen de bons d’achat,
de converter boxes permettant de recevoir les émissions numériques avec n’importe
quel téléviseur NTSC existant.
En dehors des voisins immédiats des États-Unis (Canada, Mexique), le système
ATSC n’a été choisi que par la Corée du Sud et quelques pays d’Amérique centrale
en raison de ses performances inférieures à celles de ses concurrents basés sur la
modulation COFDM.
La Chine a développé relativement récemment (2006-2007) son propre standard
de télévision numérique terrestre appelé DTMB (Digital Terrestrial Multimedia
165
9782100520442-Livre.fm Page 166 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Broadcast) principalement pour s’affranchir des problèmes de propriété intellectuelle liés aux systèmes existants.
Le standard DTMB prévoit un mode à porteuses multiples (4K à 3 780 porteuses)
et un autre à porteuse unique (VSB). Les deux modes utilisent une correction
d’erreurs performante à base de code LDPC.
Le mode à porteuses multiples utilise une modulation dite TDS-OFDM (Time
Domain Synchronized Orthogonal Frequency Division Multiplexing) qui permet une
synchronisation rapide, une estimation précise du canal et une bonne efficacité
spectrale.
Pour le moment, seule la Chine et ses dépendances directes (Hong-Kong, Macao)
utilisent le système DTMB mais un certain nombre de pays « non alignés » l’expérimentent.
La figure 10.1 représente la répartition géographique des différents standards de
TV numérique terrestre mondiaux. Même si le système DVB est assez largement
dominant, il n’a pas pu s’imposer comme unique standard mondial.
166
Figure 10.1 – Les standards mondiaux de télévision numérique terrestre
9782100520442-Livre.fm Page 167 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
10.2 La télévision à haute définition
© Dunod. La photocopie non autorisée est un délit.
Les premières tentatives de normalisation de la télévision à haute définition en
Europe remontent à la fin des années 1980 avec le HD-MAC, dérivé du D2MAC avec
lequel il était compatible (un récepteur D2MAC pouvait recevoir et afficher un
signal HD-MAC en définition standard).
La définition verticale du HD-MAC était exactement double de la télévision standard (1 250 lignes entrelacées dont 1 150 « utiles ») à 50 Hz.
Cependant, la nature hybride de ce standard, l’échec des satellites à haute puissance
et le prix exorbitant des écrans capables d’afficher cette résolution ont fait qu’il n’a
jamais été utilisé en dehors d’émissions expérimentales, dont la plus prestigieuse
(et la dernière à grande échelle) fut la couverture des jeux olympiques d’Albertville
et de Barcelone en 1992.
Le premier système de télévision numérique à haute définition à avoir été standardisé en 1998 est le système américain ATSC, basé sur la norme de compression
MPEG-2. Il comporte deux résolutions à haute définition : 720p (1 280 × 720 à
balayage progressif, 60 images/s) et 1080i (1 920 × 1 080 à balayage entrelacé,
30 images/s). Ces deux résolutions sont devenues depuis le « standard de fait » pour
la TV numérique à haute définition, la variante européenne en différant seulement
par sa fréquence de rafraîchissement de 50 et 25 images/s respectivement.
Les progrès des écrans plats (technologies LCD et plasma) ayant permis une baisse
de prix spectaculaire des téléviseurs à haute résolution (1 280 × 720 et au-dessus)
depuis l’an 2000, on assiste à un développement rapide et à grande échelle de la
télévision à haute définition.
Quelle que soit sa technologie d’affichage, un téléviseur ou un moniteur doit
remplir certaines conditions minimales déterminées par l’EICTA pour la compatibilité avec la haute définition :
• affichage minimal de 720 lignes en format large (16/9) ;
• au moins une entrée HD analogique YPBPR ;
• au moins une entrée HD numérique DVI ou HDMI avec système de protection HDCP ;
• capacité d’accepter les formats 720p et 1080i à 50 Hz et 60 Hz sur toutes les
entrées HD.
Ces caractéristiques minimales sont nécessaires à l’obtention du logo « HD Ready »
(figure 10.2), qui n’est toutefois plus suffisant aujourd’hui pour identifier clairement les caractéristiques d’un téléviseur à haute définition ; c’est pourquoi d’autres
logos plus explicites et plus exigeants ont été développés (voir section 10.4 « Le
téléviseur numérique intégré »).
167
9782100520442-Livre.fm Page 168 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure 10.2 – Le logo « HD Ready »
Le développement de la TV HD a été accéléré par la disponibilité concomitante de
nouvelles normes de compression plus efficaces que le MPEG-2 (MPEG-4
AVC/H264, WM9/VC1), ainsi que de modulations et de correction d’erreurs qui
permettent d’augmenter significativement le débit utile d’un transpondeur satellite
(DVB-S2) ou d’un multiplex TNT (DVB-T2).
La télévision à haute définition utilisant ces nouvelles normes a démarré sous la
forme d’émissions à péage régulières du bouquet allemand Première en novembre 2005
suivis en 2006 par les autres grands opérateurs européens de bouquets satellite
(BskyB, Canal+, Sky Italia…).
168
Les émissions à haute définition en clair sur satellite sont et resteront assez limitées
du fait que les opérateurs de bouquet sont encore plus attentifs que pour les émissions à définition standard à limiter la couverture des programmes HD aux pays
pour lesquels ils ont acquis les droits de diffusion.
En France, la TNT, sur laquelle elle a été le premier pays européen à diffuser quatre
chaînes en haute définition (en DVB-T/MPEG-4) à partir d’octobre 2008, en sera
sans doute le support le plus populaire, avec toutefois un nombre de chaînes et une
couverture limités tant que les émissions analogiques subsisteront.
Le format utilisé par la TNT française est le 1080i/50 Hz mais avec une résolution
horizontale limitée à 1 440 pixels afin d’assurer la meilleure qualité possible avec
un débit d’environ 8 Mb/s par programme, ce qui permet de loger trois programmes HD par multiplex.
Le Royaume-Uni a préféré attendre la maturité de la norme DVB-T2 pour démarrer
ses émissions terrestres en HD à la fin de l’année 2009 afin de bénéficier d’une augmentation de capacité de 35 % environ, ce qui permet de loger quatre programmes HD
en MPEG-4 par multiplex au lieu de trois.
10.3 La télévision en relief (3DTV)
La télévision en relief n’est pas une nouveauté en soi, et quelques émissions expérimentales ont eu lieu un peu partout depuis le début de la télévision en couleurs,
9782100520442-Livre.fm Page 169 Jeudi, 24. juin 2010 11:35 11
© Dunod. La photocopie non autorisée est un délit.
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
mais elles sont pratiquement restées au stade de curiosité en raison de la mauvaise
qualité des images monochromes résultant du principe même qui superposait
deux images dites « anaglyptiques » prises par deux caméras décalées à travers
deux filtres colorés rouge et vert et restituées séparément pour chaque œil du spectateur au moyen de lunettes équipées d’un verre rouge et d’un autre vert.
La numérisation récente du cinéma a rendu possible d’atteindre une qualité
d’image satisfaisante en utilisant un autre principe de séparation des images droite
et gauche qui consiste à remplacer les filtres colorés par des filtres polarisateurs
opposés pour les images droite et gauche.
Afin que l’inclinaison de la tête ne soit pas critique, la polarisation circulaire est
désormais utilisée pour projeter les images, évitant ainsi d’avoir à maintenir la tête
parfaitement verticale comme ce serait le cas avec la polarisation linéaire.
Le grand succès en salle de la plupart des films en relief a naturellement conduit les
chaînes de télévision, en premier lieu les bouquets de télévision payante, à s’intéresser rapidement à cette technologie dont la mise en œuvre devenait économiquement
envisageable pour le grand public avec la disponibilité concomitante d’émissions à
haute définition et d’écrans à haute résolution de grandes dimensions.
C’est toujours ce principe dit de « première génération » basé sur la prise de vue
par deux caméras pour reproduire la vision binoculaire qui sera utilisé par les
premières émissions en 3D, les systèmes plus sophistiqués et plus réalistes (caméras multiples, hologrammes) n’étant pas réalisables économiquement avant au
moins une décennie.
Pour la phase initiale du déploiement de la TV en relief, qui ne concernera dans un
premier temps qu’une minorité de téléspectateurs car elle nécessite l’abonnement
à un bouquet payant ainsi que l’achat d’un écran « 3D compatible » et d’autant de
paires de lunettes spéciales que de spectateurs devant l’écran, il faut que la chaîne
de transmission TV HD existante puisse être utilisée, y compris le décodeur haute
définition existant.
Ceci implique que les deux images droite et gauche soient codées et transmises
comme une image HD unique, et donc que leur résolution effective soit la moitié
d’une image HD conventionnelle.
Cette image ne pourra donc pas être utilisée pour un affichage en 2D de haute
qualité sur un téléviseur HD conventionnel, ce qui nécessitera éventuellement une
duplication en 2D et exclut de fait à court terme l’utilisation de la TNT (à l’exception peut-être d’émissions expérimentales) pour des raisons de bande passante.
Les moyens privilégiés de transmission seront donc ceux où la bande passante
disponible est importante (satellite, fibre optique, câble, ADSL) et/ou pour des
vidéos à la demande.
169
9782100520442-Livre.fm Page 170 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Il n’y a pas à l’heure où nous écrivons ces lignes de standardisation officielle du format
des émissions en 3D, en particulier de la méthode de combinaison des deux images
pour en former une seule pour la transmission parmi les principales ci-dessous :
170
• juxtaposition (side by side) : la résolution horizontale de chaque image est
divisée par deux, et deux images de 960 × 1 080 sont juxtaposées pour former
une image HD de résolution 1 920 × 1 080 pour le codage et la transmission ;
• sous-échantillonnage (offset subsampling) : un pixel sur deux provient
d’une caméra différente ; là aussi c’est la résolution horizontale qui est divisée
par deux ;
• superposition (top/bottom) : la division de l’image est ici dans le sens
vertical : les deux images ont une résolution de 1 920 × 540 et sont superposées
pour former une image de 1 920 × 1 080 ;
• ligne à ligne (line by line) : une ligne sur deux correspond à l’image de
gauche et l’autre à l’image de droite ; là aussi c’est la résolution verticale qui
est divisée par deux ;
• séquence de trame (frame sequential) : une image sur deux à pleine résolution provient de chaque caméra, dans ce cas c’est la résolution temporelle
qui est réduite, ce qui aujourd’hui n’implique plus forcément l’inconvénient
du papillotement grâce aux techniques de multiplication de la fréquence de
rafraîchissement ; la fréquence de rafraîchissement minimale d’affichage
pour une observation confortable est de 100 ou 120 Hz ;
• image 2D unique + information de profondeur : l’information de profondeur est une information de différence entre les images gauche et droite qui
permet de les reconstruire dans le récepteur.
Un début de standard de fait semble toutefois émerger autour de la méthode side by
side pour les premières émissions 3D européennes du bouquet britannique Sky et
de Canal+.
Sky a été le premier à lancer une chaîne 3D (Sky 3D) en avril 2010, tout d’abord à
destination de la réception collective (pubs, etc.) puis à destination de tous ses
abonnés HD au cours de l’année 2010.
Canal+ a annoncé ses premières émissions 3D pour mi-2010.
La spécification HDMI a été adaptée de façon à pouvoir supporter et signaliser au
dispositif d’affichage les différents formats 3D possibles (version 1.4 de juin 2009).
Le DVB a démarré fin 2009 les travaux pour la définition d’un standard pour les
émissions en relief, mais il ne pourra s’appliquer aux premières implémentations
« propriétaires », il vise plutôt le moyen terme et les émissions en clair.
9782100520442-Livre.fm Page 171 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
En ce qui concerne les disques Blu-ray, le codage choisi (annoncé en mars 2010)
permet de conserver la pleine résolution 1080p pour la 3D. Le standard prévoit en
effet de coder les vidéos en relief au format MPEG-4 MVC (Multiview Video
Coding), une extension du codec H.264 AVC utilisé pour la plupart des contenus à
haute définition. Le format MVC permet la compression coordonnée de plusieurs
flux vidéo, deux dans ce cas, l’un destiné à l’œil gauche et l’autre à l’œil droit, tout
en n’augmentant que de 50 % environ la quantité de données nécessaires par
rapport au même contenu en 2D.
Un autre avantage du codage MPEG-4 MVC est de permettre la lecture en 2D à
pleine résolution des disques 3D en n’utilisant qu’une des deux pistes vidéo. Le
firmware des lecteurs Blu-ray 2D pourra en principe être mis à jour pour les rendre
compatibles 3D.
En ce qui concerne la méthode d’affichage et de visualisation des images 3D, elle
peut être théoriquement indépendante du format utilisé pour la transmission car
le « décodeur 3D » du téléviseur ou du moniteur est capable d’accepter plusieurs
formats d’entrée (indiqués par la signalisation HDMI 1.4) et de les convertir à celui
utilisé pour l’affichage.
La méthode d’affichage est par contre directement liée au type de lunettes choisies
par le fabricant pour l’observation de l’écran.
© Dunod. La photocopie non autorisée est un délit.
Si le fabricant a opté pour des lunettes passives (polarisantes) similaires à celles
des salles de cinéma 3D, la dalle d’affichage comporte un dispositif polariseur qui
polarise une ligne de pixels sur deux dans un sens opposé. La circuiterie interne du
téléviseur convertit alors le format d’entrée en un format d’affichage « ligne à
ligne ». L’afficheur est plus coûteux qu’un afficheur 2D mais les lunettes nécessaires
à la visualisation 3D sont très économiques.
Les inconvénients de ce type d’affichage 3D sont qu’il réduit la résolution verticale
même si le format d’origine ne le faisait pas, et que l’angle de vision vertical assurant
l’effet 3D est réduit.
Si le fabricant a opté pour des lunettes actives, ces lunettes sont commandées au
moyen d’une liaison sans fil (infrarouge ou radio) par le téléviseur de manière à
obturer séquentiellement la vision d’un œil une trame sur deux. La circuiterie du
téléviseur convertit dans ce cas le format d’entrée en un format d’affichage frame
sequential avec une fréquence de rafraîchissement d’au moins 100 Hz. L’afficheur
est en principe identique à celui d’un téléviseur 2D et il suffit d’un petit émetteur
infrarouge dans le téléviseur pour envoyer les signaux de synchronisation aux lunettes.
Ces lunettes sont plus coûteuses et plus lourdes que des lunettes polarisantes car
elles nécessitent une électronique et des batteries.
171
9782100520442-Livre.fm Page 172 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Il semble aujourd’hui que l’affichage à lunettes actives se développe plus que celui
à lunettes polarisantes, notamment parce qu’il ne présente pas les inconvénients du
système passif, mais il est encore trop tôt pour être vraiment affirmatif à l’heure où
nous écrivons ces lignes.
10.4 Le téléviseur numérique intégré (iDTV)
L’évolution du marché du téléviseur a été extrêmement rapide depuis 2005, et à
l’heure où nous écrivons ces lignes on ne peut pratiquement plus trouver de téléviseur à tube cathodique dans le commerce, à l’exception de quelques rares modèles
de 36 cm.
Les téléviseurs sont désormais en très grande majorité à écran plat en format 16/9
de type LCD, le plasma déclinant rapidement depuis que les écrans LCD rivalisent
en taille et en contraste avec lui, mais avec une consommation beaucoup plus
raisonnable.
Les résolutions les plus courantes sont de 1 366 × 768 pour les modèles de petite
taille et d’entrée de gamme, et de 1 920 × 1 080 pour les modèles de haut de gamme
ou/et de grande taille.
172
Le type de rétro-éclairage le plus courant est basé sur des lampes fluorescentes,
mais on assiste à son remplacement progressif par un rétro-éclairage à diodes électroluminescentes (LED) sur les modèles de haut de gamme. Outre le fait qu’il permet
de réduire considérablement l’épaisseur de l’appareil, le rétro-éclairage à base de
LED apporte une amélioration du contraste dynamique de l’image et permet ainsi
de compenser en partie le manque de contraste « natif » de l’affichage LCD. Il
apporte également une réduction sensible de la consommation de l’appareil.
Étant donné le développement rapide de la TNT et l’arrêt imminent de la télévision
analogique, tous les téléviseurs vendus en France depuis le 1er mars 2008 doivent
obligatoirement disposer d’un tuner TNT intégré et depuis le 1er novembre 2009
tous ceux dont la diagonale est égale ou supérieure à 66 cm doivent disposer d’un
tuner TNT HD (DVB-T/MPEG-4).
Ces appareils doivent bien sûr comporter au moins un connecteur HDMI avec
protection HDCP et une entrée HD analogique en composantes YPbPr. La plupart
des produits récents de grande taille disposent le plus souvent de 3 ou 4 entrées HDMI.
Afin de dissiper la confusion introduite par différents logos utilisés en complément
du logo « HD Ready » par certains fabricants pour mettre en valeur les caractéristiques d’affichage de leurs produits, deux logos ont été définis pour identifier les
téléviseurs permettant la réception de la TNT HD (figure 10.3) et distinguer leur
résolution d’affichage.
9782100520442-Livre.fm Page 173 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
Le logo de gauche s’applique aux téléviseurs avec tuner TNT HD intégré et une
résolution d’écran au moins égale à 1 280 × 720 pixels (parfois dite 720p) et pouvant
accepter une résolution jusqu’à 1080i au moins sur leurs connecteurs HDMI et
composantes. Le logo de droite s’applique aux téléviseurs avec TNT HD intégrée,
une résolution d’écran au moins égale à 1 920 × 1 080 (dite Full HD) et pouvant
accepter un signal jusqu’à 1080p sur leurs connecteurs HDMI et composantes.
© Dunod. La photocopie non autorisée est un délit.
Figure 10.3 – Les logos permettant de différencier les téléviseurs HD
avec récepteur TNT HD
Ces récepteurs permettent bien sûr de recevoir les émissions analogiques terrestres
tant qu’elles continueront, mais on peut supposer que cette fonctionnalité disparaîtra
assez rapidement après l’arrêt de ces émissions. Les entrées audio/vidéo analogiques
(péritel ou autres) permettant la connexion d’appareils à définition standard resteront
cependant encore longtemps nécessaires.
Certains appareils permettent de recevoir également le standard DVB-C, ce qui
permet de les connecter directement à un réseau câblé sans nécessiter de décodeur
externe (si elles sont en clair ou s’il existe un module DVB-CI approprié homologué
par l’opérateur de réseau).
En dehors de leurs connexions purement audio/vidéo, tous les téléviseurs vendus
en Europe doivent disposer obligatoirement d’un slot DVB-CI pour la connexion
d’un module d’accès conditionnel, et les plus récents sont équipés d’un connecteur
DVB-CI+ exigé par certains opérateurs de TNT payante et de réseaux câblés pour
accéder à leur bouquet sans avoir à louer leur terminal propriétaire.
Un port USB 2.0 maître est présent sur la plupart des appareils récents pour
permettre la mise à jour du logiciel, lire des photos, de la musique et des vidéos à
partir d’un disque ou d’une clé USB. Ce même port permet parfois également
d’enregistrer l’émission que l’on regarde.
Enfin, le dernier venu des connecteurs numériques sur les téléviseurs est le port
Ethernet qui permet la connexion directe au réseau domestique et, selon le logiciel
embarqué, de surfer sur le Web et de lire des contenus multimédias à partir d’Internet ou des ordinateurs connectés au réseau domestique. La certification DLNA
(Digital Living Network Alliance) de l’appareil permet une connexion au réseau
sans nécessiter de configuration complexe et garantit une interopérabilité des appareils.
173
9782100520442-Livre.fm Page 174 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
10.5 La télévision numérique sur IP (par exemple via ADSL
et fibre optique)
Un nouveau moyen de diffusion de la télévision numérique est devenu une réalité
commerciale au début du XXIe siècle : la diffusion par ligne téléphonique (ADSL),
avec un mode de transport particulier basé sur le protocole Internet (Internet
Protocol, IP).
L’augmentation des performances de la technologie ADSL pour la connexion à haut
débit à Internet (ADSL 2+) et le succès qu’elle a rencontré à la suite de la réduction
des coûts d’abonnement provoquée par l’ouverture à la concurrence, ont permis
d’en faire un nouveau canal de diffusion de la télévision à destination du grand
public.
C’est ce qu’on appelle en général télévision sur IP (IPTV ou TVoIP en anglais).
En France, c’est l’opérateur Free qui a lancé en 2003 le premier bouquet de télévision par ADSL à grande échelle au moyen de sa fameuse Freebox, terminal multimédia et multifonction qui permet l’accès Internet à haut débit (initialement
jusqu’à 8 Mb/s, portés à 20 Mb/s en 2004 avec l’ADSL 2+), la téléphonie sur IP
(VoIP) et l’accès à la télévision sur IP (IPTV).
174
France Telecom puis 9 Telecom (aujourd’hui SFR) ont suivi rapidement, avec une
approche un peu différente, en séparant les fonctions d’accès aux services transportés par ADSL au moyen d’une passerelle ou gateway (respectivement Livebox et
Neufbox) à laquelle se connectent l’ordinateur et une set-top box pour la télévision
par Ethernet ou WiFi, ainsi qu’un poste téléphonique ordinaire.
La Freebox 5 lancée en 2006 a suivi le même découpage en deux boîtiers.
Au niveau de l’accès d’abonné, la technologie de télévision sur IP se distingue des
moyens de diffusion traditionnels (terrestre, câble, satellite) par le fait que l’ensemble des chaînes accessibles n’est pas transmis simultanément jusqu’à l’abonné, en
raison de la bande passante insuffisante de la ligne téléphonique.
Si l’opérateur qui fournit le service ADSL (accès à Internet, téléphonie sur IP, télévision sur IP) n’est pas l’opérateur de télécommunications « historique » possédant
la ligne de l’abonné, il est procédé à ce qu’on appelle le dégroupage de la ligne, qui
peut être partiel (si l’abonné conserve un service de téléphonie classique chez
l’opérateur historique) ou total (s’il abandonne ce service).
D’un point de vue électrique, le dégroupage partiel consiste à séparer, au moyen
d’un filtre sur la ligne d’abonné à son arrivée dans le central téléphonique, les
basses fréquences (300-3 400 Hz de la téléphonie commutée classique) qui sont
dirigées vers l’autocommutateur de l’opérateur historique et les fréquences élevées
9782100520442-Livre.fm Page 175 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
(au-dessus de 10 kHz) vers le DSLAM du fournisseur de service ADSL situé dans le
central téléphonique de l’opérateur de télécommunications « historique » à qui
appartient la ligne de l’abonné.
La figure 10.4 illustre schématiquement la connexion de la ligne d’abonné côté
central et côté abonné dans le cas où un service de téléphonie classique est maintenu (fourniture de tous services par l’opérateur historique ou dégroupage partiel).
175
© Dunod. La photocopie non autorisée est un délit.
Figure 10.4 – Vue schématique d’une connexion ADSL avec VoIP et IPTV
En cas de dégroupage total, la ligne est redirigée sans filtrage vers l’opérateur alternatif qui fournit alors l’intégralité des services de télécommunication fixes à son
client (y compris quelquefois un service de téléphonie commutée). L’opérateur
alternatif est dans ce cas le seul interlocuteur du client, également en cas de problème
physique sur la ligne.
Du côté abonné, on insère un filtre passe-bas sur tous les appareils téléphoniques
« classiques » (téléphone, fax, modem) pour éviter qu’ils perturbent (et soient
perturbés par) la liaison ADSL.
Le modem ADSL (avec ou sans fonction de passerelle) dispose d’un filtre passehaut interne, ce qui permet de le relier directement à la ligne téléphonique.
9782100520442-Livre.fm Page 176 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
En ce qui concerne la télévision sur IP, on ne transmet donc à un moment donné
sur la ligne de l’abonné que le programme qu’il veut regarder, la sélection se faisant
au niveau du DSLAM.
Le fait que l’on ne transmette sur la ligne de l’usager que le programme de télévision
qu’il a demandé (grâce au caractère bidirectionnel de la liaison ADSL) permet en
principe la souscription d’abonnements aux chaînes à péage sans nécessiter de
système d’accès conditionnel ni de cryptage, puisque l’on peut s’assurer avant
d’accéder à cette demande qu’il a bien les droits d’accès nécessaires. Certains
bouquets de programmes exigent néanmoins que le terminal de TV sur IP soit
muni d’un système d’accès conditionnel classique pour permettre de s’y abonner.
La TV sur IP permet aussi la fourniture de programmes vidéo réellement à la
demande (Video On Demand, VOD), puisqu’on peut n’envoyer un programme
particulier qu’à un seul abonné au moment où il l’a demandé sans encombrer tout
le réseau avec ce programme.
176
10.5.1 Distribution de la télévision sur IP via un réseau domestique
Pour ce qui nous concerne ici, nous ne nous intéresserons qu’aux aspects d’interface logique entre le terminal de réseau (Home Network End Device ou HNED) de
télévision et le fournisseur d’accès via un réseau domestique, que nous supposerons basés sur l’interface DVB-IPI (Internet Protocol Interface) du DVB et le home
reference model définis dans le DVB Bluebook (document DVB A086, juillet 2004).
Figure 10.5 – Modèle de réseau domestique du DVB (home reference model)
9782100520442-Livre.fm Page 177 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
La figure 10.5 montre l’architecture d’un réseau domestique basé sur le home reference model du DVB. Les différents segments du réseau domestique peuvent utiliser
différentes technologies (Ethernet, WiFi, IEEE1394…) tout comme les réseaux de
distribution (câble, satellite ADSL…).
Dans les cas les plus courants, c’est une version simplifiée de ce modèle qui sera
mise en pratique, avec un seul type d’accès externe (la ligne ADSL) et une ou deux
technologies de réseau domestique (Ethernet et WiFi dans la plupart des cas).
Le terminal de réseau domestique (Home Network End Device, HNED) auquel nous
nous intéressons ici – la set-top box de télévision sur IP – devra se conformer à
l’interface logique DVB-IPI-1, le seul type qui nous intéressera ici.
La plupart des solutions de TV sur IP françaises actuelles correspondent à ce
schéma, à l’exception de la Freebox (versions 1 à 4) qui regroupe les fonctions de
passerelle et de terminal de télévision dans un seul boîtier.
10.5.2 Principaux éléments du protocole DVB-IP
Ce protocole obéit à l’organisation générale en couches de l’ISO.
La couche la plus haute correspond aux services offerts par le fournisseur de
service (programmes, informations sur les programmes, adresses IP multicast
et/ou unicast).
Le terminal de réseau domestique est un dispositif IP conforme aux exigences du
document RFC1122, et les protocoles de réseau et de transport HTTP, TCP, UDP et
IP sont supportés par le terminal.
© Dunod. La photocopie non autorisée est un délit.
Les informations nécessaires à la découverte et à la sélection des services disponibles sont assemblées selon un protocole baptisé Service Discovery and Selection
(SD&S). Elles sont transportées selon le protocole DVBSTP pour les services multicast et selon le protocole HTTP pour les services unicast.
Le protocole RTSP (Real Time Streaming Protocol) est utilisé pour le contrôle de la
livraison de services de TV et radio, qu’elles soient de type broadcast ou à la
demande.
Les protocoles SD&S, DVBSTP et RTSP sont décrits et spécifiés dans le document
DVB A086.
Le même document spécifie que la forme transport stream doit être utilisée pour
transmettre les informations audio et vidéo ainsi que les informations de service (SI).
Leur encapsulation est détaillée ci-après.
177
9782100520442-Livre.fm Page 178 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
10.5.3 Transport de la télévision numérique sur IP
Il est nécessaire que les données audiovisuelles se présentent sous forme de messages
conformes au protocole Internet (Internet Protocol, IP). Il faut donc « encapsuler »
ces données.
La télévision numérique TV sur IP sous forme de transport stream, ne comporte le
plus souvent qu’un seul programme TV en raison de la bande passante limitée de la
liaison ADSL, mais la norme DVB autorise le transport d’un multiplex de plusieurs
programmes si la bande passante le permet.
En raison de la nature critique vis-à-vis du temps des données transportées, c’est
le protocole « temps réel » (Real Time Transport Protocol, RTP) qui est utilisé.
Chaque paquet ou datagramme IP est donc composé d’un certain nombre de
paquets transport MPEG-2 de 188 octets, dont le nombre est limité par la longueur
maximale d’un datagramme IP (65 535 octets dans le cas du protocole IPv4 actuellement le plus courant).
Ce « contenu » est précédé d’un en-tête IP standard (20 octets) suivi d’un en-tête
UDP (8 octets) et d’un en-tête RTP de 12 octets (figures 10.6 à 10.9). La figure 10.7
donne le détail de la structure de l’en-tête IP.
178
Figure 10.6 – Structure globale d’un paquet IP de TV numérique (IPv4)
Figure 10.7 – Détail de l’en-tête IP
L’en-tête UDP (8 octets) sert à préciser le numéro de port (toujours pair) utilisé par
le protocole RTP ainsi que le nombre de paquets transport d’après le champ
« longueur » (figure 10.8).
Figure 10.8 – Détail de l’en-tête UDP
9782100520442-Livre.fm Page 179 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
La longueur du datagramme IP est de fait limitée à une valeur inférieure à celle
permise par le protocole IPv4 par la taille maximale de l’unité de transport du
réseau (Maximum Transport Unit, MTU). Il convient de ne pas excéder cette limite
afin d’éviter la fragmentation du paquet IP, ce qui conduirait à une augmentation
significative du nombre de paquets perdus et à une surcharge des routeurs et des
équipements terminaux contraints respectivement de fragmenter et de réassembler
les paquets IP.
Les réseaux Ethernet ont en général une MTU de 1 500 octets, ce qui conduit à un
nombre maximum de 7 paquets transport (1 316 octets).
En fonction de certaines options des en-têtes IP ou RTP, le nombre maximal de
paquets transport peut être éventuellement inférieur à 7. Afin d’éviter une fragmentation RTP que certains terminaux pourraient ne pas supporter, il est recommandé aux opérateurs de mettre à 1 le bit don’t fragment (1 des 3 flags) de l’en-tête
IP. Avec cette option, les routeurs retourneront un message d’erreur si la longueur
du paquet IP non fragmentable excède la MTU du réseau destinataire, ce qui
permettra au fournisseur d’ajuster la longueur de la charge utile à leur capacité.
La MTU minimale qu’un réseau doit supporter est de 576 octets (ce qui ne permet
que 2 paquets transport par paquet IP).
La figure 10.9 montre la structure de l’en-tête RTP (12 octets).
© Dunod. La photocopie non autorisée est un délit.
Figure 10.9 – Détail de l’en-tête RTP
Le champ V (2 bits) indique la version (RTP = 2).
Le champ P (1 bit) indique s’il y a ou non padding.
Le champ X (1 bit) indique une extension de l’en-tête (au-delà de 12 octets,
ignorée pour IPTV).
Le champ M (1 bit) est un bit de marquage.
Le champ CRSC (4 bits) indique le nombre de sources contributrices (ignoré
pour IPTV).
Le champ Payload Type (7 bits) indique la nature de la « charge utile » ; il doit
être à la valeur décimale 33 (correspondant à un transport stream MPEG-2).
Le numéro de séquence (Sequence Number) permet au récepteur de
réordonner les paquets qui ne seraient pas reçus dans l’ordre temporel et de
détecter la perte de paquets et les paquets reçus en double.
Le champ Timestamp est dérivé d’une horloge à 90 kHz qui peut être – mais
pas nécessairement – asservie à l’horloge de référence d’un des programmes
du transport stream MPEG-2. Qu’elle soit asservie ou non, elle doit respecter
les spécifications (précision notamment) prescrites pour l’horloge système
MPEG-2 par la norme ISO/IEC13818-1.
179
9782100520442-Livre.fm Page 180 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
10.5.4 Formats de codage de la télévision numérique sur IP
Les premières réalisations de télévision sur IP par ADSL utilisent (ou ont utilisé)
pratiquement toutes un codage vidéo MPEG-2 avec un débit de l’ordre de 3 Mb/s,
ce qui permet, selon les caractéristiques de la ligne téléphonique, d’offrir le service
de télévision jusqu’à une distance d’environ 2 500 à 3 000 m du DSLAM.
Jusqu’à fin 2005, il n’y avait guère d’autre option économique en raison de la nondisponibilité de codeurs « temps réel » efficaces et de décodeurs abordables pour
des formats de compression plus efficaces (H264, WMV9…).
À partir de 2006, il est devenu possible de mettre en œuvre ces nouveaux formats de
codage de façon économique, ce qui a permis de diviser par deux le débit nécessaire
au codage vidéo à qualité égale (soit environ 1,5 Mb/s pour la définition standard).
Cela permet d’offrir le service de télévision à la majorité des foyers raccordés au
téléphone fixe (lignes de moins de 4 000 m environ).
Pour les lignes de longueur relativement courte, donc principalement en ville, cette
réduction de débit permet par exemple de transmettre simultanément plusieurs
programmes à définition standard (deux ou trois) ou un programme en haute
définition.
180
10.5.5 Interface utilisateur
L’interface utilisateur la plus simple peut en principe se résumer à un navigateur
(browser) HTML permettant d’envoyer des requêtes vers le DSLAM à partir des
zones actives d’une page HTML.
La sophistication et la fonctionnalité des set-top box IP augmentant (réception
TNT, disque dur, accès conditionnel, fonctionnalité media center…), la plupart
d’entre elles font en fait appel à un véritable système d’exploitation (Linux,
Windows) permettant l’installation aisée d’un middleware et d’applications dérivées de celles du monde du PC. Chaque opérateur cherchant à se distinguer de ses
concurrents par des fonctionnalités spécifiques, il n’y a évidemment pas d’interopérabilité logicielle entre leurs modèles respectifs, qui de toute façon sont fournis
en location à l’abonné par l’opérateur.
Le développement rapide de réseaux à fibre optique jusqu’au domicile de l’usager
n’affecte pas directement l’architecture de la set-top box TV qui est généralement
reliée par Ethernet (ou par l’intermédiaire de CPL ou WiFi) à un modem optique
qui prend la place du modem ADSL. Ces décodeurs pourront bénéficier d’un débit
atteignant 100 Mb/s qui permettra de recevoir plusieurs émissions HD simultanément
sur plusieurs récepteurs.
9782100520442-Livre.fm Page 181 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
10.6 La télévision mobile personnelle (TMP)
10.6.1 Le standard terrestre DVB-H
Le standard DVB-H est une extension du standard DVB-T sur lequel il s’appuie. Il
est destiné à permettre la réception de programmes de télévision à destination de
récepteurs portables et mobiles (le H de DVB-H signifie handheld qualifiant un
appareil tenu à la main). Le plus souvent, il s’agira d’un téléphone mobile.
En effet, DVB-H est principalement destiné à éviter la limitation du nombre de
terminaux pouvant recevoir un programme TV donné qui existe en cas d’utilisation
du réseau 3G, qui est un système de type unicast (chaque récepteur reçoit un flux
qui lui est propre).
Les principales extensions de DVB-H par rapport à DVB-T, dont l’utilisation est
signalée au moyen de bits TPS spécifiques, sont les suivantes :
© Dunod. La photocopie non autorisée est un délit.
• addition d’un mode COFDM 4K mieux adapté à la réalisation de réseaux SFN
de dimensions moyennes en permettant une réduction de la consommation
du récepteur par rapport au 8K ;
• addition d’un entrelacement temporel (time interleaving) double pour le
mode 4k et quadruple pour le mode 2k qui permettent d’améliorer le
comportement au fading et la résistance au bruit impulsionnel ;
• émission d’un contenu donné en salve (time slicing) permettant de n’activer la
partie réception du terminal qu’une fraction du temps (de l’ordre de 10 %)
afin de réduire sa consommation et donc d’augmenter son autonomie ;
• possibilité d’augmentation de la robustesse au moyen d’une correction
d’erreurs supplémentaire facultative (MPE-FEC) pour améliorer la réception
avec une antenne intégrée au terminal, aux performances nécessairement
très limitées.
Pour ce faire, les programmes TV ou autres services à destination des terminaux
mobiles sont transmis sous forme de trains élémentaires (elementary streams, ES)
formant des datagrammes IP (Internet Protocol), comme pour la télévision par ADSL.
Ces datagrammes IP font l’objet d’une encapsulation dite multiprotocole (MultiProtocol Encapsulation, MPE) pour les insérer dans le flux transport (transport
stream) MPEG. Cette opération consiste à encapsuler les datagrammes IP dans des
sections DSM-CC par addition d’un en-tête et d’une terminaison CRC. Ces sections
sont ensuite segmentées en paquets transport MPEG.
Pour pouvoir réaliser le time slicing, les sections ne sont pas transmises immédiatement mais sont accumulées pour former des « enregistrements » de taille maximale
191 Ko qui correspondront à la durée d’une tranche de temps allouée à un service.
181
9782100520442-Livre.fm Page 182 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Ces enregistrements peuvent être représentés sous forme d’une table de 191 colonnes
par 1 024 lignes (maximum) sur lequel on pourra appliquer une correction d’erreur
optionnelle supplémentaire dite MPE-FEC (figure 10.10). Elle consiste en un codage
de Reed-Solomon RS (255,191) portant sur des mots de 191 octets constitués par
les lignes de cette table, qui donnera une seconde table constituée d’un mot RS de
64 octets pour chacune des lignes de la table. Le résultat sera une table de taille
maximale 255 colonnes par 1 024 lignes qui sera lue colonne par colonne pour la
transmission.
Les mots de correction étant également lus par colonnes, chaque octet d’un mot RS
sera distant du suivant du nombre de lignes du tableau, ce qui crée un entrelacement
temporel de fait qui accroît leur probabilité de réception sans erreur et augmente
l’efficacité de la correction RS.
182
Figure 10.10 – La correction d’erreur MPE-FEC RS (255,191)
Le pourcentage de temps de transmission alloué à chaque service, de l’ordre de 5 à
10 %, dépendra du nombre de services à transmettre, de leur débit individuel (de
l’ordre de 500 kb/s) et du débit total du canal.
Le standard DVB-H peut être utilisé dans la bande TV UHF avec les largeurs de
canaux usuelles du DVB-T (6, 7 ou 8 MHz) ou dans d’autres bandes de fréquences
(par exemple bande L aux alentours de 1,5 GHz avec d’autres largeurs de canaux,
par exemple 5 MHz aux États-Unis).
9782100520442-Livre.fm Page 183 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
Figure 10.11 – Schéma-bloc simplifié de la partie réception DVB-H
Un des problèmes de l’utilisation de la bande UHF pour la réception TV dans un
terminal GSM est la proximité des canaux UHF élevés (jusqu’à 862 MHz) de la
fréquence d’émission du portable en mode GSM 900 (890 à 915 MHz). Compte
tenu des possibilités de filtrage actuelles, cela interdit en pratique pour le moment
l’utilisation des canaux élevés (> 700 MHz) de la bande UHF avec un récepteur TV
intégré à un téléphone GSM en fonctionnement.
Le standard DVB-H peut en théorie utiliser toutes les combinaisons de paramètres de
modulation autorisées par le standard (QPSK à 64-QAM…) mais en pratique, compte
tenu de la robustesse nécessaire, seules les modulations QPSK et 16-QAM avec des FEC
de 1/2 ou 2/3 sont réellement utilisables pour cette application, ce qui autorise des
débits bruts (hors correction MPE-FEC) de 5 à 11 Mb/s dans un canal de 8 MHz.
© Dunod. La photocopie non autorisée est un délit.
Le codage vidéo utilisé sera principalement le H264 avec une résolution CIF ou
QCIF et des débits vidéo de l’ordre de 256 à 384 kb/s.
Diverses expérimentations ont eu lieu en Europe à partir de 2004 à la fois pour
tester les performances techniques et les exigences du système (configuration du
réseau, etc.) et pour définir les attentes des consommateurs et le modèle économique
à mettre en œuvre.
Cependant, début 2010 il n’existe en Europe que peu de services de TV à destination
des mobiles en DVB-H étant donné le coût élevé du réseau de diffusion nécessaire,
qui handicape sérieusement le modèle économique d’un tel service. En France
notamment, le démarrage d’un tel service a été retardé plusieurs fois et il n’est pas
certain que DVB-H soit utilisé un jour…
10.6.2 Le standard hybride terrestre-satellite DVB-SH
Le système DVB-H est relativement bien adapté à des zones de population dense
mais la couverture entièrement terrestre de zones rurales serait très coûteuse à
mettre en place si on voulait garantir une bonne qualité de service sur ces zones.
183
9782100520442-Livre.fm Page 184 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
184
C’est pourquoi un service hybride satellite-terrestre a été proposé par AlcatelLucent en 2006 au DVB qui a mis en place un groupe de travail pour définir un
nouveau standard, dérivé de DVB-H.
Ce système a été baptisé DVB-SH (Satellite Handheld) car c’est – officiellement –
principalement un service par satellite (pour les zones « ouvertes ») avec une
composante complémentaire terrestre (Complementary Ground Component, CGC)
pour les zones urbaines où la vue directe du satellite ne peut être garantie ainsi que
pour la réception à l’intérieur des bâtiments.
La standardisation par l’ETSI est intervenue en 2008 sous la spécification ETSI EN
302 583. Les implementation guidelines constituent le document ETSI TS 102 584.
Le système DVB-SH doit permettre la réception par un mobile (téléphone ou autre)
statique ou en mouvement jusqu’à des vitesses de plus de 300 km/h. En Europe, il
utilisera une partie de la bande S (de 2 170 à 2 200 MHz) qui présente l’avantage
d’être immédiatement adjacente à la voie descendante du téléphone mobile de troisième génération (3G ou UMTS). La largeur des canaux prescrite dans cette bande
est de 5 MHz.
Du fait de la proximité de ces deux bandes, les émetteurs DVB-SH pourraient être
colocalisés avec les stations 3G en partageant éventuellement leurs antennes d’émission, ce qui présente l’avantage supplémentaire d’une couverture très voisine pour
les services TV et téléphoniques.
Le système est néanmoins prévu pour s’adapter à d’autres bandes de fréquences
au-dessous de 3 GHz et à d’autres largeurs de canaux afin de pouvoir être utilisé
partout dans le monde. Les largeurs de canaux prévues sont 1,7 MHz (bande L),
5 MHz (bande S) et 6, 7 ou 8 MHz (UHF).
Les modes COFDM prévus sont les mêmes que ceux de DVB-H (2K, 4K, 8K) pour
les largeurs de canaux de 5, 6, 7 ou 8 MHz auquel s’ajoute un mode 1K pour des
canaux de 1,7 MHz.
En mode TDM, les modulations possibles sont QPSK, 8-PSK et 16-APSK.
La figure 10.12 représente l’architecture d’un réseau DVB-SH où, outre le satellite de
diffusion directe, on distingue plusieurs types d’émetteurs terrestres complémentaires :
• TR (a) sont des émetteurs terrestres situés principalement en zone urbaine
ou suburbaine pour couvrir les zones d’ombre du satellite causées par les
bâtiments ou autres obstacles et assurer la réception à l’intérieur des bâtiments.
• TR (b) sont de petits émetteurs « bouche-trou » (gap fillers) destinés à assurer
une couverture à l’intérieur des bâtiments, principalement en zone couverte
par satellite.
CHAPITRE 10 – ÉVOLUTION :
Figure 10.12 – Architecture schématique d’un réseau DVB-SH (d’après DVB)
© Dunod. La photocopie non autorisée est un délit.
9782100520442-Livre.fm Page 185 Jeudi, 24. juin 2010 11:35 11
ÉTAT DE L’ART ET PERSPECTIVES
185
9782100520442-Livre.fm Page 186 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• TR (c) sont des émetteurs situés à l’intérieur de véhicules de transport
public (trains, bus) pour permettre une réception de qualité sur mobile sans
nécessité de connexion à une antenne externe.
Le standard DVB-SH peut être mis en œuvre selon deux modes :
• SH-A : la modulation COFDM est utilisée pour le signal satellite et les émetteurs
terrestres, permettant ainsi que le réseau terrestre opère éventuellement en
SFN avec le satellite.
• SH-B : l’émission satellite utilise une modulation à porteuse unique (TDM,
Time Division Multiplex) et les émetteurs terrestres de complément utilisent
une modulation COFDM. Même dans ce cas le système est conçu pour
permettre de développer des récepteurs combinant la réception satellite et la
réception terrestre du même flux pour en améliorer la réception.
Comme DVB-H, DVB-SH prescrit l’utilisation du time slicing afin de réduire la
consommation d’énergie de la partie réceptrice, ce qui est d’autant plus important
que la réception en diversité avec deux (voire plusieurs) récepteurs devrait être la
règle pour la majorité des appareils DVB-SH.
La correction d’erreurs de DVB-SH, innovante et performante, améliore considérablement les performances de la transmission par rapport à DVB-H.
186
✦
Au niveau « couche physique » (transport stream)
Une correction d’erreur (FEC) à turbocodes déjà utilisés dans les systèmes de téléphonie cellulaire de troisième génération (3G) renforce considérablement la résistance
aux erreurs introduites par la transmission, d’où une amélioration importante de
la couverture à puissance d’émission et efficacité spectrale équivalentes.
Un entrelacement temporel éventuellement très long (jusqu’à plus de 10 s) permet
de supporter des « trous » importants occasionnés, particulièrement en réception
satellitaire mobile, par exemple par le passage sous un pont – voire un tunnel – ou
derrière des bâtiments ou des arbres.
Le « prix à payer » pour cet entrelacement très long est un retard supplémentaire
qui peut être quelque peu gênant lors de la réception d’émissions en direct (émissions
sportives par exemple) et pour le changement de programme (zapping).
✦
Au niveau « lien » (elementary stream)
Outre la correction d’erreurs au niveau physique, DVB-SH peut utiliser soit la
correction d’erreur MPE-FEC de DVB-H, soit une correction plus performante dite
MPE-IFEC destinée à améliorer le fonctionnement lors de pertes de signal pouvant
s’étendre sur plusieurs salves de time slicing.
9782100520442-Livre.fm Page 187 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
Avec une surcharge de parité de 30 %, MPE-IFEC permet par exemple de compenser la perte de 3 salves successives alors que MPE-FEC ne permet même pas la
récupération d’une salve complète.
Pour ce faire, les données de parité de MPE-IFEC sont calculées sur plusieurs salves
successives alors que pour MPE-FEC le calcul ne porte que sur une seule salve.
Tout comme l’entrelacement long au niveau physique, cet « étalement » des opérations de parité se traduit par une latence supplémentaire mais il existe des possibilités qui permettent de ne pas trop allonger le temps de zapping, par exemple en
n’attendant pas la réception de toutes les données de parité si les conditions de
réception sont suffisamment bonnes.
Ces améliorations se traduisent par un gain de 6 à 7 dB en C/N par rapport à DVB-H
(figure 10.13) à efficacité spectrale équivalente.
187
© Dunod. La photocopie non autorisée est un délit.
Figure 10.13 – Performances relatives de DVB-H et DVB-SH (d’après Alcatel-Lucent)
Du fait de la multiplicité des possibilités d’utilisation de DVB-SH, un circuit capable
de le démoduler sera aussi capable de démoduler la plupart des autres standards
de télévision – mobile ou fixe – basés sur la modulation COFDM, sans surcoût
significatif au niveau de la puce mais au prix d’un firmware de configuration relativement complexe.
10.6.3 Autres standards de télévision mobile personnelle
✦
Standard T-DMB (Terrestrial Digital Multimedia Broadcasting)
C’est une extension du standard de radio numérique DAB issu du projet européen
Eureka 147. Il en reprend notamment les caractéristiques de modulation (COFDM
9782100520442-Livre.fm Page 188 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
modulée en DQPSK), les bandes de fréquences (VHF et bande L) et les « blocs » de
1,7 MHz environ qui représentent un quart de la largeur d’un canal de télévision
de 7 MHz.
La bande VHF est destinée à une utilisation exclusivement terrestre alors que la
bande L et subdivisée en deux sous-bandes, l’une terrestre (1 452-1 479 MHz)
l’autre satellitaire (1 480-1 491 MHz).
T-DMB a été standardisé par l’ETSI en juin 2005 sous les numéros TS 102 427 (DAB ;
Data Broadcasting – MPEG-2 TS streaming) et TS 102 428 (DAB ; DMB video service –
User Application Specification). Il a été choisi par la Corée du Sud, où son développement
a été très rapide, ainsi que par l’Inde. La Chine qui l’avait choisi au départ a finalement
développé son propre standard CMMB (China Mobile Multimedia Broadcasting).
La France a choisi en 2007 le standard T-DMB pour lancer la radio numérique bien
que la plupart de ses voisins aient opté pour un autre dérivé purement radio du
DAB, le DAB+. Toutefois les récepteurs T-DMB pourront décoder le DAB et le DAB+,
quel que soit leur profil.
Le standard T-DMB utilise des codages audio et vidéo récents et performants
(H264 pour la vidéo, AAC+ pour l’audio) et permet de diffuser des applications
interactives (MPEG4-BIFS). Les composantes audio, vidéo et d’interactivité sont
multiplexées dans un flux MPEG-2 TS. Le T-DMB permet de diffuser 3 services de
télévision ou 9 services radio par multiplex ou une combinaison de services radio
et télévision (par exemple 2 TV et 3 radio ou 1 TV et 6 radio).
188
✦
Système américain MediaFLO (Forward Link Only)
Ce système propriétaire développé par Qualcomm est publié par l’ETSI sous la référence TS 102 589. Aux États-Unis, où il est en compétition avec le standard ATSC
M/H, MediaFLO utilise une bande de 5,55 MHz à l’intérieur d’un canal de 6 MHz
(716-722 MHz, ex-canal TV 55).
Les émissions utilisent la modulation OFDM 4K avec un intervalle de garde de 1/8
(environ 92 µs), ce qui permet de constituer un réseau SFN avec une distance
importante entre émetteurs.
Les émetteurs utilisés sont de forte puissance (jusqu’à 50 kW) et permettent de
couvrir une zone assez étendue mais il a fallu attendre l’extinction de l’analogique
en juin 2009 pour pouvoir étendre les zones où le service est disponible et améliorer la couverture. Les émissions sont cryptées.
Dans certaines grandes cités, Qualcomm a également obtenu une licence pour le
canal adjacent 56 (722-728 MHz) afin de proposer plus de services, mais dans la
majeure partie du pays ce canal est alloué à un service concurrent en clair utilisant
le standard ATSC-M/H.
9782100520442-Livre.fm Page 189 Jeudi, 24. juin 2010 11:35 11
CHAPITRE 10 – ÉVOLUTION :
ÉTAT DE L’ART ET PERSPECTIVES
Paramètre
Valeur
Largeur de bande utile/canal
5,55/6 MHz
Nombre total de porteuses (FFT)
4 096
Porteuses de garde + pilotes
96 + 500
Nombre de porteuses utiles
3 500
Intervalle de garde
1/8 (92,25 µs)
Modulations utilisées
QPSK, 16-QAM
Tableau 10.1 – Quelques caractéristiques de MediaFLO
✦
Standard américain ATSC-M/H (Mobile/Handheld)
Ce standard qui vise à une diffusion de services TV à destination de récepteurs
mobiles est une extension compatible au standard ATSC, de la même manière que
DVB-H l’est à DVB-T.
Bien que les modulations soient très différentes, la philosophie globale est la même
à savoir :
© Dunod. La photocopie non autorisée est un délit.
• transmission sous forme de datagrammes IP encapsulés au format TS,
• augmentation de la robustesse au moyen d’une correction d’erreur supplémentaire au niveau IP,
• utilisation du time slicing afin de réduire la consommation des récepteurs.
Le standard ATSC-M/H permet d’ajouter des services de TV mobile à un émetteur ATSC
conventionnel et est donc principalement diffusé en UHF dans des canaux de 6 MHz.
Les services ATSC-M/H utilisent une ou plusieurs portions fixes de 917 kb/s de la
bande passante totale d’un multiplex ATSC. Chacune de ces portions est appelée
groupe M/H.
Le standard ATSC-M/H définit une structure basée sur des trames M/H dont la
position est fixe à l’intérieur des trames du train transport VSB pour permettre la
réduction de consommation des récepteurs au moyen du time slicing.
Les données M/H font l’objet d’une correction d’erreur supplémentaire (RS + code
convolutif) pour augmenter leur robustesse, et un entrelacement temporel permet
de supporter des trous de réception. Le signal ATSC-M/H comporte également des
séquences d’entraînement permettant l’estimation du canal par le récepteur.
Le codage vidéo utilisé est H264 (base profile v1.3), format 16/9, résolution 416 × 240.
Le codage audio est HE AAC v2.0, mono ou stéréo.
Le standard ATSC-M/H est spécifié dans le document ATSC A/153, parties 1 à 9. Les
caractéristiques de transmission sont spécifiées dans la partie 2.
189
9782100520442-Livre.fm Page 190 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
✦
Standard CMMB (China Mobile Multimedia Broadcasting)
La philosophie de ce standard est voisine de celle de DVB-SH avec une diffusion
satellitaire en bande S (2 635-2 660 MHz) et des répéteurs terrestres et des gap
fillers dans la même bande et en UHF. Il peut également être utilisé dans d’autres
bandes, UHF notamment.
Les canaux sont de 8 ou 2 MHz et permettent respectivement un débit maximal
d’environ 16 ou 3 Mb/s.
Comme DVB-H et DVB-SH, le CMMB utilise le time slicing pour réduire la consommation des mobiles.
La correction d’erreurs est une concaténation de codes Reed-Solomon et LDPC
avec un entrelacement temporel de l’ordre de 1 s.
La modulation est une modulation TDS-OFDM comme pour le standard terrestre
chinois DMBT.
Le codage vidéo est le H264 et le codage audio est un codage baptisé DRA (Dynamic Resolution Adaption) développé en Chine par la société DigiRise Technology.
190
Les différentes parties du standard CMMB font l’objet de publications de la forme
GY/T220.x-20xx. Le tableau 10.2 indique les principales caractéristiques de ce
standard.
Modulation
TDS-OFDM
Correction d’erreurs
Largeur de canal
RS + LDPC
2 MHz
8 MHz
FFT (nombre de porteuses)
1K
4K
Débit maximal
env. 3 Mb/s
env. 16 Mb/s
Codage vidéo/audio
H264/DRA
Entrelacement
1 s environ
Temps de zapping
2 s maximum
Tableau 10.2 – Quelques caractéristiques du standard CMMB
10.7 Conclusion
Nous aurons atteint notre objectif si, à ce point, le lecteur a pu dégager une vue
d’ensemble assez claire des techniques nouvelles mises en œuvre dans les systèmes
de télévision numérique. Nous espérons que la lecture de cet ouvrage lui aura
permis de se faire une bonne idée de leurs possibilités et lui donnera envie d’approfondir ce sujet en perpétuelle évolution.
9782100520442-Livre.fm Page 191 Jeudi, 24. juin 2010 11:35 11
Annexe 1
Détection et correction
des erreurs dans
les transmissions numériques
191
Depuis les origines des transmissions de données numériques, on s’est rendu compte
de la nécessité de pouvoir détecter et si possible corriger les erreurs introduites par la
transmission.
© Dunod. La photocopie non autorisée est un délit.
Diverses solutions plus ou moins complexes et fonction du type de liaison sont utilisées, mais elles consistent toujours à ajouter une redondance calculée au message
original.
A1.1 Un code détecteur d’erreurs : la parité
Le plus simple des moyens utilisés, encore très répandu dans les liaisons série à
courte distance (RS232 par exemple), est le bit de parité, qui s’applique en général
à des mots de 6 à 8 bits.
Il consiste à l’émission à faire la somme de tous les bits du mot à transmettre, et à
rajouter un bit supplémentaire dit bit de parité, qui vaut 0 si la somme de tous les
bits est paire, 1 si elle est impaire (parité paire) ou le contraire (parité impaire).
À la réception, le récepteur fait la même opération et compare son résultat au bit de
parité transmis :
9782100520442-Livre.fm Page 192 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• s’il n’y a pas d’erreur (ou un nombre pair d’erreurs), ces bits sont
identiques ;
• s’il y a une erreur (ou un nombre impair d’erreurs), ils sont différents.
Ce système permet de détecter, sans pouvoir l’identifier ni le corriger, un bit en
erreur dans un mot.
La parité n’est vraiment utile que dans le cas où la probabilité de plus d’une erreur
par mot est très faible, et lorsque le système de communication est bidirectionnel :
le récepteur qui détecte une erreur peut alors demander à l’émetteur de ré-émettre
le message corrompu.
Ce principe de corrections d’erreurs est connu sous le nom de Feed-back Error
Correction.
A1.2 Codes correcteurs d’erreur en blocs
Les codes en blocs s’appliquent à des mots de longueur finie composés de k symboles (bits par exemple) auxquels ils ajoutent une redondance calculée amenant leur
longueur à n bits (n > k).
192
L’algorithme de codage revient donc à ajouter après le mot d’origine n – k bits
(appelés bits de contrôle ou de parité), en n’utilisant que 2k combinaisons parmi les
2n possibles du code résultant.
On appelle rendement du code le rapport k/n (évidemment inférieur à 1).
Les éléments du code résultant doivent être le plus « distants » possible les uns des
autres de façon à pouvoir les distinguer en cas d’erreur.
On appelle distance de Hamming entre deux éléments le nombre de bits situés à la
même position et différents entre eux.
Si d est la distance minimum de Hamming du code (nombre minimum de bits
différents entre 2 mots quelconques du code), on montre que le nombre d’erreurs
d – 1-.
correctibles est t = ---------2
Toute la science du codage consiste, à longueur n et à distance d données à trouver
le codage assurant le plus grand k, donc le meilleur rendement possible.
Ce principe de correction des erreurs, ne nécessitant pas de liaison bidirectionnelle, est appelé Forward Error Correction (FEC), par opposition au cas précédent.
Nous détaillerons deux exemples de codes simples (répétition et code de
Hamming) qui n’ont pour objectif que de comprendre la philosophie des codes
9782100520442-Livre.fm Page 193 Jeudi, 24. juin 2010 11:35 11
ANNEXE 1 – DÉTECTION
ET CORRECTION DES ERREURS DANS LES TRANSMISSIONS NUMÉRIQUES
nettement plus sophistiqués utilisés en TV numérique (Reed-Solomon, codes
convolutifs), dont le mécanisme fait appel à des concepts mathématiques ardus.
Le lecteur intéressé trouvera cependant dans la bibliographie les références
d’ouvrages spécialisés consacrés exclusivement à ce sujet…
✦
La répétition
Un des moyens les plus simples de pouvoir corriger les erreurs de transmissions est
la répétition des bits du message en ayant recours à la réception à une logique
majoritaire (« vote ») pour décider si ce bit est un « 1 » ou un « 0 ».
Par exemple avec une répétition de 3 (k = 1, n = 3), pour transmettre un bit, on
codera :
Tableau A1.1
Dans le cas ci-dessus, on a 2 mots de 3 bits tous différents, la distance minimum de
3–1
Hamming est donc d = 3, et la capacité de correction est t = ----------- = 1 bit
2
erroné par mot.
© Dunod. La photocopie non autorisée est un délit.
À la réception, dans le cas où l’on suppose qu’une erreur maximum par mot est
introduite par le canal, la logique majoritaire pourra la corriger en décidant selon
le tableau A1.2, où les messages corrompus et correctibles (1 bit erroné sur 3) sont
dans la zone grisée :
Tableau A1.2
Ce type de correction d’erreur à un rendement très médiocre puisqu’il triple la
quantité d’information à envoyer (k/n = 0,33), mais il peut corriger des taux
d’erreurs élevés (jusqu’à un bit sur trois).
193
9782100520442-Livre.fm Page 194 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
✦
Le code de Hamming (7, 4, d = 3)
C’est un code qui s’applique à des mots de 4 bits (k = 4, 24 = 16 éléments de code),
auxquels il ajoute 3 bits de redondance (donc n = 7), d’où un rendement
k/n = 4/7 = 0,57.
Il est notamment utilisé pour la transmission des parties « critiques » des magazines de télétexte. Son principe est le suivant :
• soit u le mot original de 4 bits composé des bits u1, u2, u3, u4 ;
• soit c le code résultant de 7 bits composé des bits u1, u2, u3, u4, v1, v2, v3,
obtenus au moyen de la matrice génératrice G, tableau A1.3.
Tableau A1.3
194
On voit que les bits de parité v1, v2, v3 suivent les relations (zone grisée de la
matrice) :
• v 1 = 0 + u 2 + u3 + u4 ;
• v2 = u1 + 0 + u 3 + u4 ;
• v3 = u1 + u2 + 0 + u4.
À l’arrivée, le récepteur reçoit le message y composé des bits u’1, u’2, u’3, u’4, v’1, v’2,
v’3 et fait le même calcul que le codeur à partir des bits u’1, u’2, u’3, u’4, ce qui donne
les bits w1, w2, w3 :
• w1 = 0 + u’2 + u’3 + u’4 ;
• w2 = u’1 + 0 + u’3 + u’4 ;
• w3 = u’1 + u’2 + 0 + u’4.
Il calcule alors le syndrome S = s1, s2, s3 = v’1 – w1, v’2 – w2, v’3 – w3.
On peut représenter le calcul du syndrome par la matrice de contrôle de parité H,
tableau A1.4 :
9782100520442-Livre.fm Page 195 Jeudi, 24. juin 2010 11:35 11
ANNEXE 1 – DÉTECTION
ET CORRECTION DES ERREURS DANS LES TRANSMISSIONS NUMÉRIQUES
Tableau A1.4
Si l’on suppose qu’il y a au maximum une erreur par mot reçu, on a les résultats
suivants :
• S’il n’y a pas d’erreur on a S = 0, 0, 0.
• Si le bit reçu u’4 est erroné, les 3 bits v’1, v’2, v’3 seront faux et le syndrome
sera S = 1, 1, 1.
• Si l’un des 3 bits reçus u’1, u’2, u’3 est faux, deux des trois relations calculant
w1, w2, w3 seront fausses, (puisque chaque bit intervient dans 2 des 3 équations), le syndrome S aura donc 2 bits à « 1 » et un bit à « 0 » dont la position
indiquera celle du bit en erreur parmi u’1, u’2, u’3.
• Si l’erreur affecte un bit de parité, sa position sera indiquée par la présence
d’un « 1 » dans le syndrome.
On voit donc que ce code permet de détecter et de corriger une erreur dans le code
reçu (t = 1), ce qui correspond à une distance minimum de Hamming d = 3.
✦
Le codage de Reed-Solomon
© Dunod. La photocopie non autorisée est un délit.
C’est également un codage par blocs dont les symboles ne sont plus des bits mais
des éléments à champ de bits fini (finite field elements), dont on pourra trouver la
théorie mathématique dans certains ouvrages, tels ceux cités dans la bibliographie.
L’explication du code Reed-Solomon nécessitant des développements mathématiques importants, nous nous bornerons donc à dire qu’il fait partie de la classe des
codes cycliques, et que c’est un cas particulier de code dit BCH (du nom des
auteurs : Bose, Ray-Chaudhuri, Hocquenghem).
Comme les codes étudiés précédemment, il est caractérisé par les 3 paramètres (n,
k, t) qui définissent la taille des blocs sur lesquels il agit et le nombre d’erreurs qu’il
permet de corriger.
• n est la taille du bloc après codage ;
• k est la taille du bloc d’origine ;
• t est le nombre d’octets correctibles.
195
9782100520442-Livre.fm Page 196 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Ce code est bien adapté à la correction des erreurs en rafale (burst errors) introduites par le canal, c’est pourquoi il a été choisi comme algorithme de codage dit
« externe » pour la télévision numérique DVB, avec pour éléments de base des
octets.
Dans ce cas, la taille des blocs d’origine est celle des paquets « transport »
(k = 188 octets) ; le codage Reed-Solomon spécifié augmente de 16 octets la taille
des blocs (n = 204 octets), et sa distance minimum de Hamming est d = 17 octets
d–1
ce qui permet de corriger jusqu’à t = ----------- = 8 octets erronés.
2
188
n
Il est noté RS(204, 188, t = 8) et son rendement est -- = ------- = 0,92 .
204
k
Le code RS(204, 188, t = 8) est une version « raccourcie » du code RS(255, 239,
t = 8), obtenue en ajoutant 51 octets nuls avant les paquets de 188 octets, pour
former des blocs de 239 octets appliqués à l’entrée d’un codeur RS(255, 239, t = 8).
Ce codage ajoutant 16 octets de parité aux blocs incidents, il en résulte donc en
sortie des blocs de 255 octets. Après le codage, on supprime les 51 premiers octets
nuls ajoutés avant codage, donnant ainsi de nouveaux paquets transport
« protégés » de 204 octets.
196
Le décodage fait appel à la Transformée de Fourier Rapide (FFT) du mot reçu pour
calculer les syndromes et à un algorithme Euclidien pour trouver les polynômes de
localisation et d’évaluation des erreurs. Les mots en erreur sont calculés au moyen
de la formule de Forney et corrigés, dans la limite de 8 maximum par bloc.
A1.3 Le codage convolutif (ou convolutionnel)
Nous ne ferons pas non plus la théorie de ces codes, qui est complexe et demanderait de longs développements, et nous renvoyons pour cela le lecteur intéressé à la
bibliographie.
Ce codage (appelé parfois improprement codage de Viterbi, du nom de l’auteur de
l’algorithme de décodage généralement utilisé) agit au niveau de blocs de longueur
non prédéterminée : (en pratique il s’agira le plus souvent d’un train binaire
continu de longueur quelconque).
Il est destiné à corriger des erreurs aléatoires relativement isolées, le plus souvent
en complément d’un codage par blocs.
Il transforme le train binaire entrant en n trains binaires sortants, qui sont autant
de combinaisons de sommes (modulo 2) entre le train d’entrée et des sorties ou
« prises » (taps) à chaque étage d’un registre à décalage à l’entrée duquel le train est
9782100520442-Livre.fm Page 197 Jeudi, 24. juin 2010 11:35 11
ANNEXE 1 – DÉTECTION
ET CORRECTION DES ERREURS DANS LES TRANSMISSIONS NUMÉRIQUES
également appliqué (le train progresse d’un étage à chaque nouveau bit appliqué à
l’entrée).
La figure A1.1 illustre le processus pour un cas simple, avec 2 sorties X et Y et
3 prises.
Figure A1.1 – Exemple de codage convolutif
Le codage est caractérisé par les paramètres suivants :
• Rc taux d’émission (code rate) : rapport entre nombre de bits en entrée et en
sortie (ici 1/2) ;
• K longueur de contrainte (constraint length) : nombre de « prises » utilisables
(ici 3) ;
• G1 somme génératrice pour X (ici 101 bin) ;
• G2 somme génératrice pour Y (ici 111 bin).
Les sommes génératrices G1 et G2 sont décrites en affectant, de la gauche vers la
droite, un « 1 » aux prises effectivement utilisées et un « 0 » à celles inutilisées.
On code généralement le chiffre binaire ainsi obtenu en numération octale (base 8).
© Dunod. La photocopie non autorisée est un délit.
Le codage défini ci-dessus est ainsi décrit par :
•
•
•
•
Rc = 1/2 ;
K=3;
G1 = 5oct ;
G2 = 7oct.
On définit de plus un paramètre dfree (distance limite, ici égale à 5), qui est une
mesure de la capacité de correction du code : plus ce chiffre est élevé, plus la correction
est efficace.
197
9782100520442-Livre.fm Page 198 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Le décodage de ces codes est le plus souvent effectué au moyen d’un algorithme de
Viterbi, du nom de son inventeur (1969).
Pour ne pas nous lancer dans des explications très ardues, nous dirons simplement
de cet algorithme qu’il consiste à trouver le chemin de vraisemblance maximale
(maximum likelihood) sur un treillis représentant les différents états successifs
possibles du codeur, de façon à retrouver le message original le plus probable
compte tenu des erreurs qui ont pu l’affecter.
198
9782100520442-Livre.fm Page 199 Jeudi, 24. juin 2010 11:35 11
Annexe 2
Calcul de l’efficacité spectrale
avec les paramètres DVB
(câble et satellite)
199
© Dunod. La photocopie non autorisée est un délit.
La bande passante occupée par un signal modulé en amplitude est le double de
celle du signal modulant, en raison des deux bandes latérales qu’elle génère. Dans
le cas d’un signal numérique de période symbole 1/T ayant subi un filtrage de
Nyquist de facteur de roll-off a, elle sera donc :
1
BW = ( 1 + α ) --T
On se propose donc calculer la capacité du canal et l’efficacité spectrale :
✧
Câble
Avec un facteur de roll-off a = 0,15, un canal européen de largeur BW = 8 MHz
peut accepter une fréquence symbole maximale :
8
BW
F s = --1- = ----------- = --------- ≅ 7 Mhz .
1,15
T
1+α
La valeur de 6,875 MHz est le plus souvent utilisée, nous verrons pourquoi ciaprès.
Le nombre détats de la modulation QAM dépendra de la qualité du réseau dont
dépend Eb/No, mais sera le plus souvent de 64 sur les réseaux européens de qualité.
9782100520442-Livre.fm Page 200 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• Dans le cas le plus défavorable, on devra utiliser la modulation 16-QAM
(4 bits/symbole), d’où un débit brut Db = 6,875 × 4 = 27,5 Mb/s (hors
codage de Reed-Solomon).
Soit une efficacité spectrale brute de 27,5/8 = 3,437 b/s par Hz.
Le débit utile Du est dans ce cas égal au produit du débit brut Db par le
facteur rRS, soit :
188
D u = D b ⋅ r RS = 27,5 × ------- ≅ 25,34 Mb/s.
204
• L’efficacité spectrale utile est donc 25,34/8 = 3,16 b/s par Hz.
• Dans le cas le plus favorable, on pourra utiliser la modulation 64-QAM
(6 bits/symbole) d’où un débit brut Db = 6,875 × 6 = 41,25 Mb/s (hors
codage de Reed-Solomon).
Soit une efficacité spectrale brute de 41,25/8 = 5,156 b/s par Hz.
• Le débit utile Ru est dans ce cas égal au produit du débit brut Rb par le
facteur rRS, soit :
188
D u = D b ⋅ r RS = 41,25 × ------- ≅ 38,0 Mb/s.
204
• L’efficacité spectrale utile est donc 38,0/8 = 4,75 b/s par Hz.
200
✧
Satellite
Avec un facteur de roll-off a = 0,35, un canal de largeur BW = 33 MHz supporte
une fréquence symbole maximale théorique :
33
BW
1
F s = --- = ------------ = --------- ≅ 24,4 MHz.
1,35
1+α
T
Avec une modulation QPSK (2 bits/symbole) le débit brut est donc
Db = 2Fs = 48,8 Mb/s (hors codages Reed-Solomon et convolutif).
En pratique, cette capacité peut être significativement supérieure, un rapport
BW/Fs de 1,20 entre bande passante (à – 1 dB) et fréquence symbole n’entraînant
qu’une dégradation mineure du taux d’erreurs.
Dans ces conditions, la fréquence de symbole maximale devient
33/1,20 = 27,5 MHz, soit un débit brut Db = 55 Mb/s et une efficacité spectrale
brute de : 55/33 = 1,66 b/s par Hz.
Le débit utile dépend du code rate Rc choisi pour le codage convolutif ; il est égal au
produit du débit brut Db par Rc et le facteur rRS du codage de Reed-Solomon (soit
188/204).
9782100520442-Livre.fm Page 201 Jeudi, 24. juin 2010 11:35 11
ANNEXE 2 – CALCUL
DE L’EFFICACITÉ SPECTRALE AVEC LES PARAMÈTRES
DVB (CÂBLE
ET SATELLITE)
• Dans le cas le plus défavorable (C/N minimal) on devra utiliser Rc = 1/2
pour assurer un service satisfaisant (BER < 10–10) ; on a donc dans ce cas le
débit utile suivant :
1 188
D u = D b ⋅ R c ⋅ r RS = 55 × - × ------- ≅ 25,34 Mb/s.
2 204
• L’efficacité spectrale utile est donc 25,34/33 = 0,76 b/s par Hz.
• Dans le cas le plus favorable (rapport Eb/No maximal), on pourra assurer le
même service avec Rc = 7/8 ; le calcul de débit utile donne alors :
7 188
D u = D b ⋅ R c ⋅ r RS = 55 × - × ------- ≅ 44,35 Mb/s.
8 204
• L’efficacité spectrale utile est alors 44,35/33 = 1,34 b/s par Hz.
En pratique, à l’exception de quelques émissions dites SCPC (Single Channel Per
Carrier), la plupart des émissions DVB « normales » (dites aussi MCPC, pour
Multiple Channel Per Carrier) sur ASTRA et EUTELSAT utilisent actuellement une
fréquence symbole de 27,5 MHz (canaux de 33 MHz) ou de 22 MHz (canaux de
26 MHz) avec un code rate Rc = 3/4.
3 188
Le premier cas correspond à un débit utile de 27,5 × 2 × - × ------- ≅ 38,0 Mb/s, qui
4 204
permet une redistribution « transparente » sur réseau câblé (c’est-à-dire sans
modification du contenu) dans des canaux de 8 MHz, avec une modulation 64QAM et une fréquence symbole de 6,875 MHz.
© Dunod. La photocopie non autorisée est un délit.
L’efficacité spectrale du canal satellite est dans ce cas 38,0/33 = 1,15 b/s par Hz.
201
9782100520442-Livre.fm Page 202 Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page 203 Jeudi, 24. juin 2010 11:35 11
Annexe 3
Le bus DiSEqCTM (Digital
Satellite Equipment Control )
et le système USALS
203
Proposé en 1995 par EUTELSAT et baptisé DiSEqCTM (Digital Satellite Equipment
Control), c’est un « bus » de commande utilisant le câble coaxial d’antenne comme
véhicule.
© Dunod. La photocopie non autorisée est un délit.
Il est compatible avec le système de commutation le plus répandu (14/18 V pour la
polarisation et 22 kHz pour la bande) et est d’utilisation libre.
A3.1 Les différents niveaux DiSEqC
La spécification DiSEqC prévoit plusieurs niveaux (« ToneBurst » ou mini-DiSEqC,
DiSEqC 1.0, 1.1, 1.2, 2.0 et supérieurs) qui sont destinés à permettre une mise en
œuvre progressive :
• Le niveau « ToneBurst » (ou Mini-DiSEqC) est destiné principalement à être
mis en œuvre à court terme dans des récepteurs ou des accessoires de
commande externes pour permettre la réception « double bande » de deux
satellites au maximum.
• Le « ToneBurst » utilisé seul ne donne pas droit à un label comportant le logo
spécifique DiSEqC, mais seulement à l’appellation « DiSEqC compatible ».
9782100520442-Livre.fm Page 204 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• Les premiers niveaux (DiSEqC 1.0 à 1.2) utilisent une communication unidirectionnelle entre le récepteur et les périphériques DiSEqC et permettent
une implémentation simple tant dans le récepteur (essentiellement logicielle)
que dans les périphériques connectés. DiSEqC 1.1 ajoute des commandes
supplémentaires par rapport au niveau 1.0 et assure la répétition des ordres.
DiSEqC 1.2 permet la commande d’un positionneur alimenté par le câble
coaxial.
• Les niveaux supérieurs (DiSEqC 2.0 et au dessus) sont plus ambitieux et visent
à terme à une installation pratiquement « plug and play » au moyen d’un
dialogue entre le récepteur et les périphériques esclaves, et nécessitent donc
une « voie de retour » entre ces périphériques et le récepteur.
204
Tableau A3.1
A3.2 Fonctionnement de DiSEqC
C’est un système à un seul maître, qui est le seul à pouvoir prendre l’initiative d’une
communication sur le bus (en général le récepteur satellite) et un ou plusieurs périphériques esclaves (situés en général à proximité de l’antenne) qui ne peuvent que
répondre à une commande.
Les messages DiSEqC sont obtenus en modulant en PWK (Pulse Width Keying,
figure A4.1) le signal à 22 kHz avec un rapport cyclique qui peut prendre deux
valeurs selon que le bit à transmettre est un « 0 » (rapport cyclique 2/3) ou un « 1 »
(rapport cyclique 1/3).
La période bit est constituée de 33 périodes de signal à 22 kHz (soit 1,5 ms ± 20 %
compte tenu de la tolérance sur la fréquence de 22 kHz).
Chaque message DiSEqC doit être suivi d’une période d’au moins 6 ms de « silence ».
Le niveau du signal à 22 kHz superposé à la tension d’alimentation des LNB est
nominalement de 650 mV crête-à-crête.
9782100520442-Livre.fm Page 205 Jeudi, 24. juin 2010 11:35 11
ANNEXE 3 – LE
BUS
DISEQC™ (DIGITAL SATELLITE EQUIPMENT CONTROL)
ET LE SYSTÈME
USALS
Figure A3.1 – Le bit de données DiSEqC
Afin de pouvoir recevoir les messages en retour des esclaves, le maître (pour les
niveaux 2.0 et supérieurs) doit présenter une impédance de source de 15 Ω à 22 kHz.
DiSEqC est spécifié de manière à être compatible avec les matériels existants :
• Pour que les « anciens » périphériques (14/18 V, 0/22 kHz, ToneBurst) restent
utilisables avec les nouveaux récepteurs, ceux-ci envoient tout d’abord la
tension appropriée pour la polarisation et la tonalité 22 kHz pour la bande
puis, après un court « silence », le message DiSEqC, suivi du ToneBurst, par
exemple pour déterminer le satellite à recevoir (figure A4.2).
• Pour que les nouveaux périphériques DiSEcQ puissent être commandés au
moins partiellement par un récepteur existant (non DiSEqC), ils devront
répondre également aux commandes « traditionnelles » (14/18 V, 0/22 kHz).
© Dunod. La photocopie non autorisée est un délit.
205
Figure A3.2 – Exemple d’un message DiSEqC
compatible avec le LNB « universel »
A3.2.1 Le ToneBurst
Cette addition tardive à la spécification DiSEqC est destinée à permettre la réalisation
économique des commutateurs nécessaires à la réception de deux satellites, car la
détection du signal peut se faire par une circuiterie analogique simple (sans microcontrôleur).
Le processus consiste à envoyer une salve de signal à 22 kHz d’une durée nominale
de 12,5 ms, soit continue pour la sélection du satellite A soit modulée par une suite
de neuf « 1 » au rapport cyclique de 1/3 pour la sélection du satellite B (figure A4.3).
9782100520442-Livre.fm Page 206 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure A3.3 – Définition du ToneBurst
Le périphérique peut donc distinguer facilement ces deux cas par une détection du
signal, qui après filtrage donnera une composante continue environ 3 fois plus
importante dans le cas « satellite A » que dans le cas « satellite B ».
L’utilisation exclusive du ToneBurst ne donne pas droit au label spécifique DiSEqC,
mais seulement à l’appellation « DiSEqC compatible ».
206
A3.2.2 Format des messages DiSEqC 1.0 et supérieurs
Les messages DiSEqC sont constitués d’un ou plusieurs octets (bit de poids fort en
tête) suivis chacun d’un bit de parité impaire afin de permettre la détection des
erreurs de transmission.
• Les commandes du maître sont constituées d’un minimum de 3 octets
(framing, adresse, commande), éventuellement suivis d’octets de données
auxiliaires (voir tableau A4.2).
Tableau A3.2
• Un seul octet de données est prévu pour le niveau 1.0, et trois au maximum
pour les niveaux supérieurs. Il est évident que le nombre d’octets de
données est nécessairement limité en raison de la faible vitesse du bus pour
que les commandes s’exécutent dans un temps acceptable.
• La réponse d’un esclave est à la discrétion du maître, et n’a lieu en pratique
que s’ils sont tous deux de niveau 2.0 ou supérieur. Elle est constituée d’un
octet de framing servant d’acquittement, éventuellement suivi d’un certain
nombre d’octets de données auxiliaires (voir tableau A4.3).
9782100520442-Livre.fm Page 207 Jeudi, 24. juin 2010 11:35 11
ANNEXE 3 – LE
BUS
DISEQC™ (DIGITAL SATELLITE EQUIPMENT CONTROL)
ET LE SYSTÈME
USALS
Tableau A3.3
La réponse de l’esclave doit intervenir dans les 150 ms suivant la fin de la commande
du maître.
A3.3 Les différents champs du message DiSEqC
A3.3.1 Octet de framing
Il s’agit du premier octet d’une commande de maître ou d’une réponse d’esclave.
© Dunod. La photocopie non autorisée est un délit.
• Les 4 bits de poids fort servent à la synchronisation (run-in) et à la reconnaissance (framing) d’un message DiSEqC. Ils sont actuellement fixés à
« 1110 », mais une affectation ultérieure éventuelle des deux derniers bits de
ce groupe reste possible.
• Le 5e bit est réservé (actuellement « 0 »), et pourra éventuellement être
utilisé pour des extensions ultérieures.
• Le 6e bit indique l’origine du message : « 0 » s’il vient du maître, « 1 » si c’est
la réponse d’un esclave.
• Le 7e bit est mis à « 1 » si une réponse est attendue et à « 0 » sinon. Dans le
cas d’une réponse d’esclave, sa mise à « 1 » peut être utilisée pour demander
une retransmission en cas d’erreur.
• Le 8e bit est mis à « 1 » par le maître s’il s’agit d’une retransmission. Dans le
cas d’une réponse d’esclave, il précise la raison de la non-exécution d’une
commande : « 0 » en cas d’erreur de parité, demandant une retransmission,
« 1 » si la commande demandée n’est pas supportée par l’esclave.
Les octets de framing actuellement définis sont explicités par le tableau A4.4 ; seules
les deux premières lignes concernent les appareils de niveau 1.0.
A3.3.2 Octet d’adresse
Le deuxième octet envoyé par le maître indique à quel esclave le message est
destiné ; il est subdivisé en deux groupes de 4 bits (demi-octets ou nibbles). Celui
de poids fort indique la famille à laquelle l’esclave appartient (LNB, commutateur,
positionneur, etc.) et celui de poids faible permet de diviser la famille en sousgroupes.
207
9782100520442-Livre.fm Page 208 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Tableau A3.4
Pour chacun des deux demi-octets, la valeur « 0000 » indique une commande qui
s’adresse à toutes les familles (poids fort) ou tous les sous-groupes d’une famille
(poids faible).
L’adresse hex. 00 est reconnue par tous les périphériques.
Les adresses définies actuellement sont données par le tableau A3.5 (les adresses à
partir de hex. 20 ne concernent que les niveaux 2.0 et supérieurs).
208
Tableau A3.5
9782100520442-Livre.fm Page 209 Jeudi, 24. juin 2010 11:35 11
ANNEXE 3 – LE
BUS
DISEQC™ (DIGITAL SATELLITE EQUIPMENT CONTROL)
ET LE SYSTÈME
USALS
A3.3.3 Octet de commande
Le codage des commandes sur un octet permet un maximum de 256 commandes
de base, éventuellement complétées d’un ou plusieurs octets de données.
La spécification DiSEqC (version 4.2 du 25 février1998) a déjà défini plus d’une
cinquantaine de commandes, qui sont réparties en 3 catégories de « statut » : obligatoires (O), recommandées (R) et suggérées (S).
Pour le niveau 1.0, seules quatre commandes sont prises en compte, dont une seulement est obligatoire « Write N0 »(38), la commande « reset » (00) ne l’étant que dans
le cas où le récepteur dispose d’un passage d’antenne (loop-through).
Tableau A3.6
Les commandes « Write N0 » et « Write N1 » déterminent au moyen d’un octet de
données supplémentaire l’état des sorties de commutation d’un microcontrôleur
esclave défini par Eutelsat pour intégration dans les périphériques.
© Dunod. La photocopie non autorisée est un délit.
Les commandes 20 à 2F (facultatives) qui commandent chaque sortie de ce microcontrôleur individuellement et n’offrent que peu d’intérêt car elles font double emploi
avec les commandes 38 et 39 suivies de l’octet de données approprié.
Le niveau 1.1 rend obligatoire la commande « Write N1 » (39) ainsi que la commande
« Write Frequency » (58) suivie de 3 octets représentant la fréquence du transpondeur
en codage BCD.
En mode SMATV (antenne collective satellite), ceci permet la commande à distance
d’un transposeur situé en tête de colonne de distribution.
DiSEqC 1.1 prévoit aussi la répétition des commandes (jusqu’à 2 fois après la
première) pour pouvoir commander plusieurs commutateurs disposés en cascade.
Le niveau 1.2 requiert de plus les commandes (60 à 6B) d’un positionneur normalement alimenté par le câble coaxial (dont le courant d’alimentation ne doit pas
excéder 500 mA) et celles, facultatives d’un polariseur.
209
9782100520442-Livre.fm Page 210 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
A3.3.4 Octet(s) de données
Certaines commandes doivent être complétées par un ou plusieurs octets de données.
Par exemple, les commandes 38 et 39 doivent être suivies d’un octet dont chacun
des bits du demi-octet de poids fort mis à « 1 » met à « 0 » (clear) sélectivement
l’une des 4 sorties d’un des 2 ports du microcontrôleur esclave, ceux du demi-octet
de poids faible servant ensuite de la même manière à leur mise à « 1 » (set).
Comme le demi-octet de poids faible réécrit immédiatement après le demi-octet de
poids fort, on mettra en pratique toujours celui-ci à « 1111 » (hex. F) de manière à
ce que la valeur de chacun des quatre bits du demi-octet de poids faible détermine
l’état de la sortie correspondante (tableau A3.7).
Tableau A3.7
210
Un message DiSEqC 1.0 destiné à commander un port de sortie du microcontrôleur
esclave sera donc de la forme ci-dessous, tableau A3.8, (chaque case représente un
octet suivi de sa parité).
Tableau A3.8
Pour la commande 38, trois des quatre sorties du port « assigné » du microcontrôleur esclave sont affectées à une fonction prédéfinie, la 4e étant d’utilisation libre.
Le tableau A3.9 explicite l’affectation et l’effet des bits de poids faible correspondants.
1. Par exemple : α = groupe satellites ASTRA/EUTELSAT, β = groupe satellites TELECOM 2A/2B.
2. Par exemple : A = Astra, B = Eutelsat (option α) et A = Telecom 2A, B = Telecom 2B (option β).
Tableau A3.9
9782100520442-Livre.fm Page 211 Jeudi, 24. juin 2010 11:35 11
ANNEXE 3 – LE
BUS
DISEQC™ (DIGITAL SATELLITE EQUIPMENT CONTROL)
ET LE SYSTÈME
USALS
La fonctionnalité de la commande 39, quant à elle, dépend de l’utilisation faite par
le constructeur des sorties du port « non assigné ».
A3.4 Les niveaux supérieurs de DiSEqC
Ces niveaux, à partir du niveau 2.0, impliquent une communication bidirectionnelle
entre le maître et le ou les esclaves, qui doivent toujours répondre par au moins un
octet de framing servant d’acquittement, suivi pour certaines commandes d’un ou
plusieurs octets de données.
L’une des plus intéressantes est la possibilité pour le récepteur « d’interroger » la
configuration d’antennes sur laquelle il est connecté, par exemple lors de l’installation.
À titre d’exemple, nous citerons la commande hex. 51 qui permet de connaître les
caractéristiques des LNB (fréquence de l’oscillateur local).
D’autres commandes permettent d’interroger l’état des commutateurs assignés ou
non, de lire des valeurs analogiques telles que la position d’une antenne motorisée,
etc.
À terme, si DiSEqC 1 se généralise à tous les périphériques (commutateurs, LNB,
positionneurs, etc.), la rétro-compatibilité ne sera plus nécessaire ; on pourra alors
envisager une « vraie » structure de bus (allocation normalisée des adresses,
distribution permanente du bus et de l’alimentation à tous les périphériques qui
disposeront d’une mise en veille, etc.).
A3.5 Le système d’aide au pointage d’antenne motorisée
© Dunod. La photocopie non autorisée est un délit.
USALS
Le pointage d’une antenne motorisée, même commandée par DiSEqC 1.2, nécessite
un réglage très précis de l’antenne qui n’est pas toujours très facile. Si ce réglage
n’est pas parfait, le pointage des satellites sera en général d’autant moins précis que
l’on s’éloignera du point de référence (Sud vrai).
Afin de faciliter le réglage des antennes motorisées par des non spécialistes et le
pointage précis de tous les satellites recevables à un endroit donné, le fabricant italien
d’accessoires et de rotors d’antenne STAB a développé un logiciel baptisé USALS
(Universal Satellite Automatic Location System) qui s’appuie sur le protocole DiSEqC 1.2
en le complétant.
1. Les spécifications DiSEqC sont disponibles sur le site Internet d’EUTELSAT (http://www.eutelsat.org).
211
9782100520442-Livre.fm Page 212 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Son principe est de calculer la rotation d’un moteur DiSEqC 1.2 à partir des coordonnées du lieu de réception et de la position des satellites sur la ceinture de Clarke.
Ce logiciel s’implante dans les récepteurs satellites et STAB licencie gratuitement les
fabricants qui désirent l’utiliser, mais ils doivent avant de le commercialiser et de
pouvoir utiliser le logo Stab-USALS (figure A3.4) soumettre leur récepteur à des tests
d’approbation par STAB.
Les coordonnées des principaux satellites recevables sont stockées dans une table,
et il est bien sûr possible à l’utilisateur d’en rajouter d’autres si besoin est.
En ce qui concerne l’installation de l’antenne, le moteur-positionneur est fixé sur le
mât (qui doit être absolument vertical) avec un angle qui dépend de la latitude du
lieu de réception et l’antenne est fixée avec une élévation prédéterminée sur le tube
du rotor (ces deux opérations se font au moyen de graduations gravées sur la fixation
du rotor de l’antenne).
Dans le menu d’installation « USALS » du récepteur, l’utilisateur doit entrer les
coordonnées du lieu de réception (latitude, longitude) puis demander au logiciel
de pointer vers un satellite proche du Sud vrai.
Il suffit alors de régler l’azimut de l’antenne pour obtenir la meilleure réception.
212
Si le mât est bien vertical et si les préréglages ont été effectués avec suffisamment
de précision, au moyen des graduations, l’ensemble rotor + antenne est alors réglé
pour recevoir tous les satellites « visibles » depuis le lieu de réception (dans la limite
permise par la taille de l’antenne bien sûr).
Figure A3.4 – Le logo Stab-USALS (document STAB Srl, Italie)
9782100520442-Livre.fm Page 213 Jeudi, 24. juin 2010 11:35 11
Annexe 4
Le bus d’interconnexion
audiovisuel série
à haute vitesse IEEE1394
213
L’interconnexion des nouveaux équipements audiovisuels numériques (IRD, magnétoscope, camescope, ordinateur multimédia…) rendra bientôt indispensable une
liaison à haute vitesse entre ces équipements.
© Dunod. La photocopie non autorisée est un délit.
Destiné à opérer dans un environnement « grand public », il doit être aussi économique et facile d’utilisation que possible (plug and play, avec possibilité de branchement/débranchement en fonctionnement).
Le bus série rapide récemment standardisé sous l’appellation IEEE1394-1995
répond à ces exigences. Il est basé sur le bus FireWireTM de Apple Computer® et
permet des communications jusqu’à 400 Mb/s (une extension à plus de 1 Gb/s est
en cours d’étude).
Trois vitesses standards sont définies (100, 200 et 400 Mb/s), mais la plupart des
premières réalisations ne permettront que les deux premières vitesses.
L’architecture du bus IEEE1394 permet la constitution d’un mini-réseau comportant jusqu’à 63 participants appelé nœuds (nodes).
Chaque nœud comporte trois composantes fonctionnelles principales :
• une couche interface physique (physical layer ou « Phy ») qui réalise l’interfaçage avec le câble, l’arbitrage du bus et une fonction de répéteur actif ;
9782100520442-Livre.fm Page 214 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
• une couche contrôle de liaison (link layer controller ou « Link ») qui assemble
et désassemble les paquets de données et s’occupe des procédures de handshaking et d’acquittement ;
• un contrôleur hôte (MCU) qui gère les couches plus élevées du protocole de
communication.
La figure A4.1 représente un exemple de réseau IEE1394 à trois nœuds, où l’on
distingue les trois composantes indiquées ci-avant.
214
Figure A4.1 – Structure d’un réseau IEEE1394 (exemple avec 3 nœuds)
La spécification IEEE1394 définit deux types de transferts de données qui peuvent
coexister sur le bus :
• les transferts isochrones sont réservés aux données dont le temps de transmission est critique, telles que les données de trains audio et vidéo qui
exigent le « temps réel » ; en effet, des retards variables ne peuvent pas être
tolérés pour les trames audio ou vidéo. Une bande passante bien définie est
allouée et garantie à ce type de transfert grâce à une technique de multiplexage temporel ;
• les transferts asynchrones sont réservés aux données dont le temps de
transmision n’est pas critique, par exemple pour l’échange de données ou
le stockage. Ces transferts utilisent un procédé plus classique (handshaking
et acquittement).
La proportion de la bande passante du bus réservée aux transferts isochrones est
définie pendant la phase d’initialisation durant laquelle un nœud racine (root node)
9782100520442-Livre.fm Page 215 Jeudi, 24. juin 2010 11:35 11
ANNEXE 4 – LE
BUS D’INTERCONNEXION AUDIOVISUEL SÉRIE À HAUTE VITESSE
IEEE1394
qui inclut un gestionnaire de ressources isochrones (Isochronous Resource Manager
ou IRM) est choisi. L’IRM est ensuite responsable de l’allocation des ressources
isochrones pour toute la session, sur la base de cycles élémentaires de 125 µs sur le
bus.
Ceci n’est toutefois pas suffisant pour garantir le très faible niveau de jitter exigé
pour transmettre par exemple un train transport MPEG-2 sur le bus (ce qui implique des variations de moins de 500 ns sur le temps de transport).
Afin de permettre au récepteur de compenser les variations de temps de transmission introduites par le bus, une couche audiovisuelle (AV layer) a été définie ; elle est
en cours de standardisation (spécification IEC1883). Elle ajoute un en-tête de
32 bits (ou quadlet dans la terminologie IEEE1394) aux paquets MPEG-2 de
188 octets, dont la longueur est donc portée à 192 octets : l’en-tête contient un
marqueur temporel (time stamp) qui permet la resynchronisation dans le récepteur.
De plus, si un paquet de 192 octets (= 48 quadlets) ne peut pas être transmis en un
seul cycle de 125 µs, la couche AV permet de le découper en 2, 4 ou 8 parties égales
(ou blocs) qui eux « tiennent » dans un cycle.
Sur le plan électrique, le bus est constitué de deux signaux (DATA et STROBE) qui
sont transportés en mode différentiel chacun sur une paire de conducteurs blindée.
Une troisième paire (optionnelle) permet de distribuer l’énergie électrique sur le
bus.
Chaque branche du réseau entre deux nœuds peut atteindre 4,5 m à la vitesse
maximale, et plus de 10 m à 100 Mb/s ; chaque terminaison est constituée de deux
résistances de 56 Ω connectées à une référence commune.
© Dunod. La photocopie non autorisée est un délit.
Un connecteur économique (similaire à ceux utilisés dans les consoles de jeu
Nintendo Game Boy®) ainsi qu’un câble spécifique sont également normalisés
(voir figure A4.2).
Une version du bus avec seulement deux paires (sans alimentation) est également
normalisée.
215
9782100520442-Livre.fm Page 216 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure A4.2 – Câble et connecteur IEEE1394
(version à 6 broches, avec alimentation)
216
9782100520442-Livre.fm Page 217 Jeudi, 24. juin 2010 11:35 11
Annexe 5
Liaisons DVI et HDMI
pour la connexion numérique
de dispositifs d’affichage vidéo
à haute définition
217
© Dunod. La photocopie non autorisée est un délit.
Si l’on veut tirer le meilleur parti des systèmes d’affichage à écran matriciel (LCD,
plasma, projecteurs DLP), il est indispensable que la liaison entre la source vidéo
numérique et le système d’affichage se fasse sous forme numérique afin d’éviter
toute perte de qualité dans des conversions analogiques numériques et numériques
analogiques inutiles.
Avec l’avènement de la haute définition, cette liaison numérique de point à point
doit être capable de transmettre des débits très élevés (au moins jusqu’à 2,2 Gb/s
avec les résolutions 720p ou 1080i).
De plus, les détenteurs de droits (studios d’Hollywood par exemple) exigent la mise
en place d’un système évitant la copie des œuvres en qualité numérique à haute
définition à au niveau de la liaison avec le dispositif d’affichage.
La liaison DVI (Digital Visual Interface) utilisée dans les ordinateurs récents permet
de remplir ces caractéristiques. Elle existe sous deux formes : DVI-I qui comporte
24 broches pour la partie numérique (à gauche) et 5 broches séparées permettant
la compatibilité avec le connecteur VGA (à droite) et DVI-D qui ne comporte que les
24 broches numériques (voir photos).
9782100520442-Livre.fm Page 218 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Figure A5.1 – Connecteurs DVI-I et DVI-D (femelle)
Elle n’est toutefois pas vraiment optimisée pour une application « grand public »,
pour lesquelles des exigences spécifiques sont à prendre en compte :
• utilisation de connecteurs compacts, faciles à manier et bon marché (la partie
analogique de la liaison DVI-I n’est pas nécessaire est n’existe pas dans la
liaison HDMI) ;
• transport de l’audio et de la vidéo sur le même câble ;
• échange d’informations de configuration et de commande…
218
La liaison HDMI (High Definition Multimedia Interface) répond à ces exigences. Elle
reprend les principes et les caractéristiques électriques de la partie vidéo numérique
de la liaison DVI, avec laquelle elle est compatible au moyen d’un simple adaptateur
mécanique.
C’est une liaison unidirectionnelle pour ce qui est des signaux audio et vidéo.
Dans le vocable HDMI, le générateur des signaux (sortie HDMI) est appelé « source »
et le receveur (entrée HDMI) « sink ».
Comme la liaison DVI, HDMI utilise un protocole de transmission appelé TDMS
(Transition Minimized Differential Signalling) utilisant quatre paires différentielles :
• trois canaux (TDMS 0, 1 et 2) transmettent les signaux audio et vidéo et des
données auxiliaires ;
• un quatrième canal (TDMS clock channel) transmet le signal d’horloge pixel ;
• un canal d’information de données d’affichage (VESA DDC channel) permet
l’échange d’information entre la source et le receveur, pour informer la source
des capacités d’affichage du receveur, selon la norme VESA (Enhanced Extended Display Identification Data ou E-DID).
Une ligne supplémentaire optionnelle (CEC line) bidirectionnelle permet éventuellement l’échange d’informations de commande entre les différents appareils audiovisuels interconnectés.
9782100520442-Livre.fm Page 219 Jeudi, 24. juin 2010 11:35 11
ANNEXE 5 – LIAISONS DVI
ET
HDMI
POUR LA CONNEXION NUMÉRIQUE DE DISPOSITIFS D’AFFICHAGE VIDÉO À HAUTE DÉFINITION
Les quatre canaux TDMS sont transmis aux moyens de paires différentielles blindées.
Le canal VESA DDC est transmis au moyen d’un bus I2C (Philips Semiconductors).
Figure A5.2 – Vue schématique d’une liaison entre source et receveur DVI ou HDMI
219
La vidéo est transmise comme une suite de pixels codés sur 24 bits sur les 3 canaux
TDMS (8 bits par canal pour chacune des trois composantes, qui peuvent être sous
forme RGB ou YCBCR).
© Dunod. La photocopie non autorisée est un délit.
Le codage TDMS protège au moyen d’un codage de correction d’erreur BCH ces 8 bits
par canal qu’il convertit en une séquence (paquet) de 10 bits à transitions minimisées
transmise en différentiel sur chacune des paires, au rythme de 10 bits par période
d’horloge pixel.
Les fréquences d’horloge pixel peuvent s’étendre de 25 MHz à 165 MHz selon la
résolution de l’image (couvrant largement la gamme de 480p à 1080i). Des formats
à fréquence d’horloge inférieure (par exemple, 13,5 MHz pour des images entrelacées
480i ou 576i) peuvent être transmis au moyen d’une répétition de chaque pixel,
ce qui double la fréquence d’horloge apparente.
Le codage pixel peut être de type RGB, YCBCR 4 :4 :4 ou YCBCR 4 :2 :2.
Les données audio et auxiliaires sont transmises selon le même format de paquets
de 10 bits et sont également protégées au moyen du codage BCH.
Le flux audio d’origine peut être un simple flux stéréo de type IEC60958 échantillonné à 32, 44,1 ou 48 KHz, mais il est également possible de transmettre des
9782100520442-Livre.fm Page 220 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
flux audio multicanaux et/ou à fréquence d’échantillonnage plus élevée (jusqu’à
8 canaux audio échantillonnés à 96 KHz ou un flux stéréo à 192 KHz ).
En ce qui concerne les connecteurs, ils sont de deux types :
• Le connecteur dit de type A à 19 points (de loin le plus courant) permet le
transport d’images de résolution jusqu’à 1080i (fréquence d’horloge pixel
inférieure à 165 MHz),
• Le connecteur dit de type B à 29 points permet le transport d’images de
résolution supérieure (par exemple 1080p) nécessitant une fréquence d’horloge
pixel supérieure à 165 MHz. C’est en pratique une double liaison HDMI pour
la partie TDMS, les liaisons DDC et CEC n’étant bien sûr pas dupliquées.
Ce connecteur n’est pas utilisé actuellement pour des applications grand
public.
220
Figure A5.3 – Détails des réceptacles HDMI de type A et de type B
9782100520442-Livre.fm Page 221 Jeudi, 24. juin 2010 11:35 11
ANNEXE 5 – LIAISONS DVI
ET
HDMI
POUR LA CONNEXION NUMÉRIQUE DE DISPOSITIFS D’AFFICHAGE VIDÉO À HAUTE DÉFINITION
Tableau A5.1 – Brochage du connecteur HDMI de type A
Figure A5.4 – Le logo HDMI
✦
Les différentes versions de la spécification HDMI
© Dunod. La photocopie non autorisée est un délit.
Depuis son origine, la fonctionnalité de la spécification HDMI a été étendue tout en
restant compatible avec les versions antérieures. Les principales évolutions sont les
suivantes.
HDMI 1.0 : spécification initiale.
HDMI 1.1 : ajout du support du format DVD Audio.
HDMI 1.2 :
• ajout du support du format audio « 1 bit » (format Direct Stream Digital du
SACD) ;
• amélioration du support des PC avec sortie HDMI (support des formats
d’affichage et espace couleur RVB), compatibilité avec des sources à basse
tension (par exemple issues de cartes PCI Express).
HDMI 1.2a :
• spécification des fonctions et du jeu de commandes du Consumer Electronic
Control (CEC) ;
• nouvelle spécification des tests de conformité pour la version 1.2a incluant
entre autres un supplément pour les fonctions CEC et des tests additionnels
pour les câbles et connecteurs.
221
9782100520442-Livre.fm Page 222 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
HDMI 1.3 :
• augmentation de la fréquence d’horloge maximale à 340 MHz (soit un débit
de 10,2 Gb/s) pour permettre des systèmes d’affichage à plus haute résolution, espace couleur plus profond (Deep Color) et vitesse de rafraîchissement trame plus élevée (profondeurs de couleur de 10, 12 et 16 bits au lieu
de 8 bits et support du standard IEC 61966-2-4 pour le rendu de tout
l’espace couleur visible) ;
• nouveau mini-connecteur pour les appareils portables (camescopes HD et
appareils photo notamment) ;
• synchronisation audio/vidéo automatique (Lip sync) permettant de
compenser les retards de traitement dans les appareils ;
• support des formats audio sans perte à bande passante élevée (par exemple
Dolby TrueHD et DTS-HD Master Audio™).
222
HDMI 1.4 : à l’heure où nous écrivons ces lignes, cette spécification n’est pas
encore complètement définie. Toutefois, les principales nouveautés attendues sont :
• un nouvel accroissement des résolutions maximales (jusqu’à 4 096 × 2 160) ;
• le support des espaces couleur des appareils photo numériques ;
• un nouveau « micro » connecteur encore plus petit et des connecteurs spécifiques pour automobiles ;
• enfin, et c’est sans doute le plus important, le support de la télévision en
relief (3DTV) avec la plupart des techniques proposées (Full side-by-side,
Half side-by-side, Frame alternative, Field alternative, Line alternative, Left
+ Depth…) et une résolution pouvant atteindre 1080p.
9782100520442-Livre.fm Page 223 Jeudi, 24. juin 2010 11:35 11
Annexe 6
Autres systèmes
de télévision numérique
223
Même si la plupart des pays du monde a adopté le système DVB (en particulier
ceux utilisant les normes PAL ou SECAM), les États-Unis, le Japon et d’autres pays
utilisant le NTSC ne les utilisent que partiellement ou pas du tout. D’autres systèmes sont donc également utilisés ou proposés, dont les principaux sont décrits
succinctement ci-après.
© Dunod. La photocopie non autorisée est un délit.
A6.1 Le système DSS (satellite, USA)
Le système DSS® (Digital Satellite System), lancé en 1994, est historiquement le
premier système de télévision numérique directe par satellite déployé au monde, et
le plus important aux États-Unis.
Il a démarré avec le bouquet DirecTV® et fut complémenté rapidement sur la
même position orbitale (110° Ouest) par le bouquet USBB®. Ensemble, ces deux
bouquets totalisent plus de 200 programmes de télévision que l’on peut recevoir de
tout le territoire des États-Unis au moyen d’une petite antenne (45 cm). D’autres
satellites sont également positionnés sur 101° et 119° Ouest.
À l’inverse du système DVB qui est un standard international, DSS® est un système
propriétaire de la société Hughes Electronics Corporation, dont les spécifications
détaillées ne sont pas publiques.
9782100520442-Livre.fm Page 224 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
De plus, il a été défini avant la finalisation des spécifications MPEG-2 et DVB, et
utilise un codage vidéo quelquefois appelé MPEG-1.5 (à mi-chemin entre MPEG-1
et MPEG-2), un codage audio AC-3 (également appelé Dolby® digital) et un multiplexage spécifique.
Le tableau A6.1 résume les différences principales entre les systèmes DVB-S et
DSS.
224
Tableau A6.1 – Comparaison des systèmes DVB-S et DSS
Il est à noter que le principal concurrent de DirecTV®, le bouquet DISH® de la
société Echostar utilise le système DVB dans la même bande (dite DBS) et avec les
mêmes canaux.
Le tableau A6.2 donne la fréquence de ces 32 canaux, de largeur 24 MHz. Ils utilisent la polarisation circulaire droite (D) ou gauche (G).
9782100520442-Livre.fm Page 225 Jeudi, 24. juin 2010 11:35 11
ANNEXE 6 – AUTRES
SYSTÈMES DE TÉLÉVISION NUMÉRIQUE
Tableau A6.2 – Fréquence des canaux satellite aux États-Unis
A6.2 Le système ATSC (terrestre, USA)
Le système ATSC (Advanced Television System Committee) est issu de travaux entamés au milieu des années 1980, dont l’objectif initial était de définir un système de
télévision à haute définition à diffusion terrestre pour concurrencer les systèmes
MUSE japonais et HD-MAC européen.
© Dunod. La photocopie non autorisée est un délit.
Plusieurs groupements d’industriels furent mis en compétition, dont trois proposèrent des solutions numériques. En mai 1993, ces trois groupes, à l’incitation du
comité ATSC acceptèrent de se regrouper sous le nom de « Grand Alliance » afin de
fondre leurs propositions en un système unique, dont les spécifications ont été finalisées et publiées en 1995 (Document ATSC A/53).
Ce système est basé sur la norme MPEG-2 pour le codage vidéo ([email protected]), et peut
transmettre des images à haute définition (max. 1 920 × 1 080, 16/9), à définition
améliorée (1 280 × 720, 16/9) et à définition standard (720 × 480, 4/3 ou 16/9).
Un format 640 × 480, 4/3 est également défini en vue d’une compatibilité avec
l’informatique.
En tout, ce n’est pas moins de 18 formats d’affichage différents qui doivent être
supportés…
La compression audio utilise le procédé AC-3 des laboratoires Dolby® (Document
ATSC A/52).
Le multiplexage est conforme à la spécification MPEG-2 système (ISO/IEC 13818-1),
et les paquets transport de 188 octets sont donc identiques à ceux du système DVB.
225
9782100520442-Livre.fm Page 226 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
En ce qui concerne le codage de canal et la modulation pour la diffusion terrestre,
un procédé appelé VSB-8 (Vestigial Side Band with 8 states) a été retenu.
À l’émission, après séparation de l’octet de synchronisation, les 187 octets restants
subissent une dispersion d’énergie et un codage externe RS(207, 187, T = 10). Les
paquets résultants de 207 octets subissent un entrelacement convolutif suivi d’un
codage en treillis avec un poinçonnage de 2/3.
Une opération de mapping forme alors des segments de 828 symboles de 3 bits
(8 niveaux) qui sont regroupés en trames de 312 segments. Chaque trame débute
par un segment de synchronisation formé à partir des octets de synchronisation
des paquets transport et chaque segment commence par un symbole de synchronisation.
La structure ainsi obtenue ressemble à une trame de télévision analogique, d’une
durée de 24,2 ms, composée de 313 segments (comparables à une ligne TV) de
77,3 µs.
Les trames sont regroupées par deux de manière similaire à une image analogique
entrelacée.
226
Ce signal module une porteuse unique (modulation d’amplitude à porteuse
supprimée), qui peut donc prendre 8 valeurs pendant la durée utile des segments.
Tableau A6.3 – Comparaison des systèmes DVB-T et ATS
9782100520442-Livre.fm Page 227 Jeudi, 24. juin 2010 11:35 11
ANNEXE 6 – AUTRES
SYSTÈMES DE TÉLÉVISION NUMÉRIQUE
Le signal subit un filtrage de Nyquist en cosinus surélevé (a = 0,1152) de manière
à limiter la bande latérale supérieure à 5,69 MHz et la bande inférieure à 0,31 MHz.
Une porteuse pilote à amplitude réduite est réinsérée à la place de la porteuse
supprimée.
On voit que ce processus n’a aucun rapport avec la modulation COFDM du standard DVB-T, mais il n’en a pas non plus la flexibilité (tous les paramètres codage de
canal et de modulation sont fixes), et surtout pas les performances, notamment en
présence d’échos multiples.
Ces performances médiocres, associées à la complexité et au coût du système
complet en raison des nombreux formats d’affichage spécifiés, font que son démarrage a été relativement laborieux et que la date d’arrêt de l’analogique a dû être
repoussée et a finalement eu lieu en juin 2009.
A6.3 Le système ISDB-T (terrestre, Japon)
Le Japon a proposé en 1999 un autre système de transmission numérique terrestre
en vue de sa normalisation par l’ITU. Ce système, baptisé ISDB-T (Integrated Services Digital Broadcasting for Terrestrial transmission), est, comme DVB-T, basé sur la
modulation COFDM, et il peut être vu comme une extension de celui-ci. Le format
d’entrée (train transport MPEG-2) et le codage de canal sont identiques à ceux de
DVB-T.
© Dunod. La photocopie non autorisée est un délit.
La philosophie de ce système est d’une part d’augmenter la flexibilité dans l’allocation des services par la division du canal en segments pouvant transmettre des
services différents capables de supporter des conditions de réception différentes,
d’autre part de pouvoir augmenter encore la robustesse du signal pour la réception
mobile par l’adjonction d’un entrelacement temporel.
Le canal TV de largeur 6, 7 ou 8 MHz est divisé en 14 segments, dont 13 (numérotés
de 0 à 12) sont effectivement utilisés, le 14e étant un espacement de sécurité entre
canaux adjacents.
Trois modes COFDM sont prévus, qui se distinguent par le nombre de porteuses
par segment :
• 108 porteuses/segment (correspond à un mode 2K en segment unique) ;
• 216 porteuses/segment (correspond à un mode 4K en segment unique) ;
• 432 porteuses/segment (correspond à un mode 8K en segment unique).
227
9782100520442-Livre.fm Page 228 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Les segments sont associés en groupes (trois au maximum par canal), dont le rôle
est équivalent aux modes hiérarchiques de DVB-T. La taille minimum d’un groupe
est un seul segment.
Afin d’assurer des conditions de réception différentes, chaque groupe de segments
peut utiliser des paramètres de codage interne (taux de poinçonnage) et des ordres
de modulation (dQPSK, QPSK, 16QAM, 64QAM) différents ainsi que des profondeurs d’entrelacement temporel différentes.
Le système permet ainsi la réception partielle à bande étroite (un seul segment, qui
doit impérativement être le segment central), par exemple pour la réception audio
en mobile.
Le tableau A6.4 représente les 13 segments et leur position dans le canal, avec
3 groupes, dont un en réception partielle composé du seul segment 0 centré sur le
milieu du canal.
228
Tableau A6.4 – Les 13 segments du système ISDB-T
L’amélioration significative d’ISDB-T par rapport à DVB-T est la robustesse (en cas
d’utilisation d’un entrelacement temporel relativement long, qui permet de supporter
des trous de réception ou des parasites importants). Cependant, cela se traduit par
un surcoût, dû principalement à la grande quantité de mémoire nécessitée par
l’entrelacement temporel.
Ce surcoût est devenu acceptable à partir des années 2000, ce qui a permis sa mise
en exploitation commerciale au Japon fin 2003. Une variante en a été développée au
Brésil (SBTVD, Sistema Brasileiro de Televisão Digital-Terrestre), adoptée officiellement en 2006. Elle diffère d’ISDB-T par son codage de source (MPEG-4/H264 pour
la vidéo et HE-AAC pour l’audio) et fin 2009 elle était adoptée par les principaux
pays d’Amérique du Sud (Argentine, Brésil, Chili, Équateur, Pérou, Venezuela…).
Cette variante d’ISDB-T est en compétition, sous l’appellation ISDB-T International,
avec DVB-T et DVB-T2 dans les pays qui n’ont pas encore choisi leur système de
télévision numérique terrestre.
La partie transmission d’ISDB-T est spécifiée dans les documents ARIB STDB31:2005 (Japon) et ABNT NBR 15601 (Brésil).
9782100520442-Livre.fm Page 229 Jeudi, 24. juin 2010 11:35 11
ANNEXE 6 – AUTRES
SYSTÈMES DE TÉLÉVISION NUMÉRIQUE
Le tableau A6.5 permet la comparaison des principaux paramètres de DVB-T et
d’ISDB-T.
Tableau A6.5 – Comparaison des systèmes DVB-I et ISDB-T
A6.4 Le système DTMB (terrestre, Chine)
© Dunod. La photocopie non autorisée est un délit.
Le système DTMB (Digital Terrestrial Multimedia Broadcast) a été tout d’abord appelé
DMB-T/H (Digital Multimedia Broadcast-Terrestrial/Handheld) et est le résultat de
la fusion de deux systèmes développés par deux universités différentes (ADTB-T
basé sur la modulation VSB, Université Jiaotong de Shanghai, et DMB-T basé sur la
modulation COFDM, Université Tsinghua de Pékin).
La spécification a été publiée en août 2006 sous la référence GB 20060-2006 et définitivement adoptée en août 2007.
Il n’existe pas à notre connaissance de version publique en anglais de cette spécification, c’est pourquoi nous ne pourrons en indiquer que les grandes lignes.
Le standard DTMB peut être opéré selon deux modes :
• un mode TDM à porteuse unique modulée en 8-VSB comme le standard ATSC,
• un mode OFDM (porteuses multiples, 3 780 dans ce cas) mais la modulation
utilisée est dite TDS-OFDM (Time Domain Synchronous OFDM), elle diffère
principalement de la modulation COFDM par le contenu de l’intervalle de garde.
229
9782100520442-Livre.fm Page 230 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
Dans le système DTMB, l’intervalle de garde est rempli par une séquence de
« pseudo-bruit » qui sert également de séquence d’apprentissage pour l’estimateur
de canal, ce qui permet de réduire le nombre de porteuses pilotes utilisées à cet
effet en DVB-T et donc d’améliorer l’efficacité spectrale.
La correction d’erreur est également plus efficace que dans DVB-T ou ISDB-T car elle
fait appel aux codes BCH et LDPC utilisés dans les systèmes DVB de seconde génération.
Les débits possibles de DTMB s’étendent de 4 813 à 32 486 Mb/s pour un canal de
8 MHz.
230
Paramètre
DTS-OFDM
TDM
Codage vidéo
Multiples
Multiples
Codage audio
Multiples
Multiples
Multiplexage
MPEG-2 transport
MPEG-2 transport
Paquet transport
188 octets
188 octets
Codage externe
BCH
BCH
Codage interne
LDPC
LDPC
Taux de poinçonnage
0,4/0,6/0,8
0,4/0,6/0,8
Nombre de porteuses
3 780
1
Constellations
64-QAM, 32-QAM, 16-QAM, 4-QAM, 4-QAM-NR
VSB-8
Largeur de canal
8 MHz
8 MHz
Tableau A6.6 – Comparaison des versions OFDM et TDM du système DTMB
9782100520442-Livre.fm Page 231 Jeudi, 24. juin 2010 11:35 11
Annexe 7
L’interface commune DVB-CI
et l’extension CI+
231
A7.1 L’interface commune DVB-CI
© Dunod. La photocopie non autorisée est un délit.
Afin de permettre l’accès aux émissions cryptées de télévision au standard DVB
avec un terminal non spécifique d’un opérateur, le DVB a défini une interface standardisée appelée DVB-CI (DVB Common Interface) permettant l’adjonction de
modules d’accès conditionnel amovibles au format PC-CARD (ex PCMCIA), dont
elle est une extension.
Cette interface est définie dans le document européeen EN 50221 et l’extension
ETSI TS 101699, ainsi que des complément (guides d’implémentation).
L’interface commune peut en principe être utilisée à d’autres fins, par exemple
pour augmenter la fonctionnalité de la set-top box au moyen de mémoire flash
contenant une extension logicielle, pour adjoindre un NIM pour un autre médium
de transmission, ou encore pour connecter certains autres modules du monde PC
(modems ou autres) si le logiciel de la set-top box permet leur exploitation.
L’accès conditionnel représente cependant de très loin l’utilisation principale, c’est
pourquoi nous allons décrire brièvement son principe de fonctionnement.
La figure A7.1 représente le schéma-bloc d’une set-top box munie d’un module
DVB-CI, où l’on voit que le module reçoit le train transport embrouillé à son entrée
et, s’il est bien sûr muni d’une carte d’abonné valide, le fournit en clair au décodeur
9782100520442-Livre.fm Page 232 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
de source ; le module communique avec le processeur central par un bus classique
de données, d’adresses et de contrôle.
232
Figure A7.1 – Schéma-bloc d’un récepteur numérique
muni d’une interface DVB-CI
La figure A7.2 représente une vue plus détaillée du module DVB-CI et de sa
communication avec la set-top box et la carte à puce.
Figure A7.2 – Schéma-bloc simplifié d’un module DVB-CI
9782100520442-Livre.fm Page 233 Jeudi, 24. juin 2010 11:35 11
ANNEXE 7 – L’INTERFACE
COMMUNE
DVB-CI
ET L’EXTENSION
CI+
Il se compose essentiellement d’un circuit désembrouilleur DVB-CSA (ou pour un
autre algorithme éventuellement) et d’un microcontrôleur exécutant le logiciel
d’accès conditionnel, relié à un lecteur de carte à puce intégré et au microcontrôleur « hôte » de la set-top box via l’interface DVB-CI.
Le fonctionnement du module est identique à celui d’un accès conditionnel embarqué (voir chapitre 5).
Le microcontrôleur reçoit, après sélection par un filtrage de PID, les mots de
contrôle cryptés transmis par les messages ECM du train transport et les retourne
décryptés au désembrouilleur au moyen des clés contenues dans la carte à puce,
sous réserve qu’elle contienne également des droits d’accès valides préalablement
fournis par des messages EMM.
Ceci permet au module de retourner au décodeur de source un train transport partiellement ou totalement désembrouillé selon le type d’embrouillage utilisé à l’émission.
Plusieurs slots DVB-CI peuvent être présents dans une set-top box. Dans ce cas, les
interfaces transport stream sont connectées en cascade (daisy chain).
La circuiterie interne à la set-top box d’interface avec le slot DVB-CI comporte des
commutateurs qui permettent le passage direct du transport stream lorsqu’il n’y a
pas de module inséré dans un connecteur, ou lorsque l’émission est en clair ou
embrouillée avec un système d’accès conditionnel incompatible avec le module.
© Dunod. La photocopie non autorisée est un délit.
Outre l’interface physique, la spécification DVB-CI définit également un protocole
d’échange pour la communication entre le module et le processeur hôte, de
manière à ce que, en principe, tous les modules soient compatibles avec toutes les
boîtes (ce qui n’est malgré tout malheureusement pas toujours le cas).
Le logiciel interne du module DVB-CI est essentiellement dépendant du système
d’accès conditionnel visé, alors que la réalisation matérielle du module peut en
principe être commune à la plupart des systèmes basés sur l’algorithme
d’embrouillage DVB-CSA.
Il existe aujourd’hui des modules pour la plupart des systèmes d’accès conditionnels utilisés en Europe, et la présence d’au moins un connecteur DVB-CI est obligatoire dans la set-top box pour TV numérique terrestre dans la plupart des pays où
ces émissions sont disponibles.
Cependant, l’utilisation de modules d’accès conditionnels DVB-CI n’a pas été
acceptée par la plupart des opérateurs de bouquets payants en raison d’une sécurité insuffisante à leurs yeux, principalement due au fait que le signal transport
stream qui transite sur le connecteur PCMCIA est en clair, ce qui permet une éventuelle utilisation frauduleuse.
233
9782100520442-Livre.fm Page 234 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
C’est pourquoi le DVB avait mis en place un module technique (DVB TM-CIT)
pour définir une nouvelle version plus sécurisée de DVB-CI. Ce module technique
n’ayant pas réussi à trouver un accord, il a été mis fin à sa mission en septembre 2006.
A7.2 L’interface commune sécurisée CI+
Moins d’un an après cet échec, six sociétés (Neotion, Panasonic, Philips, Samsung,
SmarDTV et Sony) ont fondé un forum afin de reprendre ce travail sur de nouvelles
bases dont il est résulté une première spécification (v1.0) en 2008 avec une interface
cryptée vers le module d’accès conditionnel (CAM).
Le forum CI+ a été ensuite dissous fin 2008 et remplacé par une organisation
composée des mêmes partenaires et basée au Royaume-Uni, CI+ LLP (Limited
Liability Partnership), pour la promotion de la spécification CI+ et la délivrance de
licences. Elle pourrait à terme jouer le rôle d’autorité de confiance pour les aspects
sécuritaires (certification).
Par l’utilisation de certificats et d’une autorité de certification, CI+ crée un canal de
communication sécurisé entre le CAM et le récepteur hôte (téléviseur ou boîtier
externe).
234
Figure A7.3 – Les blocs en blanc représentent les parties ajoutées pour CI+
9782100520442-Livre.fm Page 235 Jeudi, 24. juin 2010 11:35 11
ANNEXE 7 – L’INTERFACE
COMMUNE
DVB-CI
ET L’EXTENSION
CI+
Afin que le contenu ne circule plus en clair sur l’interface CAM, une circuiterie de
cryptage du flux désembrouillé par la partie « accès conditionnel » du CAM et des
outils de cryptographie sont ajoutés au CAM. Une circuiterie de décryptage doit
également être ajoutée dans le récepteur (figure A7.3).
Le cryptage des données se fait soit selon le protocole DES-56-ECB (Data Encryption Standard, clé à 56 bits, Electronic Code Book) pour les contenus SD ou HD soit
(optionnellement pour les contenus HD) avec le protocole AES-128-CBC (Advanced Encryption Standard, clé à 128 bits, Cipher Block Chaining).
Les appareils conformes à la spécification CI+ doivent également être conformes à
la spécification DVB-CI et peuvent donc utiliser des CAM à la norme DVB-CI.
Les appareils conformes à la spécification CI+ sont identifiés par le logo « CI Plus »
(figure A7.4).
© Dunod. La photocopie non autorisée est un délit.
Figure A7.4 – Le logo « CI Plus » est une marque commerciale de CI Plus LLP
235
9782100520442-Livre.fm Page 236 Jeudi, 24. juin 2010 11:35 11
9782100520442-Livre.fm Page 237 Jeudi, 24. juin 2010 11:35 11
Glossaire
✦
Abréviations
1080i : 1080 interlaced (format haute définition avec 1 080 lignes en balayage entrelacé et 1 920 pixels/ligne).
1080p : 1 080 progressive (format haute définition avec 1 080 lignes en balayage
progressif et 1 920 pixels/ligne).
720p : 720 progressive (format haute définition avec 720 lignes en balayage progressif
et 1 280 pixels/ligne).
AAC/AAC+ : Advanced Audio Codec (systèmes avancés de codage audio de MPEG-4).
AC3 : système de compression audio proposé aux USA par la société Dolby®.
ADSL : Asymetric Digital Subscriber Line (méthode exploitant les capacités de transmission des hautes fréquences de la ligne téléphonique pour établir une liaison à
haut débit (jusqu’à 20 Mb/s dans le sens descendant et 1 Mb/s dans le sens descendant pour l’ADSL2+).
© Dunod. La photocopie non autorisée est un délit.
AF (Adaptation Field) : champ de données complétant un paquet transport.
API (Application Programming Interface) : interface de programmation d’un middleware vers les applications compatibles ; désigne quelquefois le middleware lui-même.
APSK : Amplitude and Phase Shift Keying (modulation ou la phase et l’amplitude
peuvent prendre plusieurs états). DVB-S2 autorise les modulations 16-APSK et
32-APSK pour les applications de point à point.
ASK (Amplitude Shift Keying) : modulation d’amplitude numérique à 2 états.
ATSC (Advanced Television System Commitee) : système de TV numérique terrestre
américain supportant la TVHD.
ATSC-M/H : Advanced Television System Commitee Mobile/Handheld (extension du
système américain ATSC pour la télévision mobile personnelle).
237
9782100520442-Livre.fm Page 238 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
AU (Access Unit) : unité d’accès à une séquence codée MPEG : image ou trame sonore.
AVC : Advanced Video Coding (autre appellation du système de compression
MPEG-4.10 ou H264).
B (Bidirectional picture) : image MPEG codée à partir de la précédente et de la
suivante.
BAT (Bouquet Association Table) : table facultative de DVB-SI.
BBFRAME : BaseBand Frame (bloc de données servant d’objet de départ au
codage de canal BCH + LDPC des systèmes DVB de deuxième génération).
BCH : Bose-Chauduri, Hocquenghem (code correcteur d’erreur « externe » utilisé
dans les systèmes DVB de seconde génération en remplacement du code de ReedSolomon).
BER (Bit Error Rate) : taux d’erreurs binaires en valeur relative ; français : TEB.
BPSK (Bi Phase Shift Keying) : modulation de phase à deux états, transportant un
bit par symbole.
CA (Conditional Access) : accès conditionnel.
238
CABAC : Context Adaptative Binary Arithmetic Coding (codage entropique le plus
efficace de la norme H264), utilisé seulement dans les profils « main » et « high » et
demandant des ressources de calcul importantes.
CAM (Conditional Access Message) : message d’accès conditionnel : ECM ou EMM.
CAT (Conditional Access Table) : table MPEG-2 contenant les PID des paquets de
contrôle d’accès.
CAVLC : Context Adaptative Variable Length Coding (codage entropique « standard »
de la norme H264).
CCIR (Comité Consultatif International de Radiodiffusion) : actuellement IUT-R.
CCIR-601 : recommandation pour la numérisation des signaux vidéo
(Fech = 13,5 MHz, format 4:2:2).
CCIR-656 : recommandation pour le format de transmission des signaux CCIR-601.
CCITT (Comité Consultatif International du Télégraphe et du Téléphone) : actuellement IUT.
CIF (Common Intermediate Format) : 360 × 288 @ 30 Hz.
CMMB : China Mobile Multimedia Broadcasting (système chinois de télévision
mobile personnelle, hybride satellite-terrestre).
9782100520442-Livre.fm Page 239 Jeudi, 24. juin 2010 11:35 11
GLOSSAIRE
CNR (Carrier to Noise Ratio) : rapport porteuse à bruit ou C/N : rapport (en dB)
entre la puissance reçue de la porteuse et la puissance de bruit dans la bande
passante du canal.
COFDM (Coded Orthogonal Frequency Division Multiplex) : système de modulation numérique sur un grand nombre de porteuses, utilisé en DAB et pour les émissions DVB terrestres.
CPL : courants porteurs en ligne (système de transmission de données par courant
porteur utilisant le câblage du secteur pour réaliser ou étendre un réseau domestique).
CSA (Common Scrambling Algorithm) : algorithme d’embrouillage spécifié par DVB.
CSA (Comité Supérieur de l’Audiovisuel) : organisme indépendant responsable de
l’attribution des autorisations des stations de radiodiffusion et télévision en France
et de leur contrôle.
CVBS (Composite Video Baseband Signal) : signal vidéo composite couleur NTSC,
PAL ou SECAM.
D1 : format vidéo numérique professionnel en composantes utilisé pour l’enregistrement.
D2 : format vidéo numérique professionnel composite utilisé pour l’enregistrement.
D2MAC (Duobinary Multiplex Analog Components) : standard hybride utilisé sur
satellite et câble.
© Dunod. La photocopie non autorisée est un délit.
DAB (Digital Audio Broadcast) : nouveau standard européen de radiodiffusion
numérique.
DAVIC (Digital AudioVIsual Council) : association sans but lucratif basée à Genève,
dont les membres sont issus de toutes les parties prenantes aux techniques numériques appliquées à l’audiovisuel. L’un de ses principaux objectifs est la définition
et la spécification d’interfaces ouvertes permettant une interoperabilité maximale
entre les pays, les applications et les services.
DBS (Direct Broadcast Satellite) : satellite dans la bande 11,7 - 12,5 GHz réservée à
la télédiffusion.
DC (Direct Current) : courant continu ; terme utilisé pour qualifier le coefficient
DCT de fréquence 0.
DCT (Discrete Cosine Transform) : transformée en cosinus discrète, utilisée en
JPEG et MPEG.
DiSEqC (Digital Satellite Equipment Control) : bus et protocole de commande
d’antennes et accessoires proposé par EUTELSAT ; il utilise un signal à 22 kHz
modulé véhiculé par le câble coaxial et se décline en deux versions (1.0 et 2.0).
239
9782100520442-Livre.fm Page 240 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
DLNA (Digital Living Network Alliance) : alliance de fabricants d’électronique,
d’informatique et d’opérateurs pour établir un standard d’interopérabilité entre
appareils, réseaux et contenus audiovisuels.
DOCSIS (Data Over Cable Service Interface Specifications) : standard des modems
câble US.
DPCM (Differential Pulse Code Modulation) : codage numérique différentiel ;
français : MICD.
DRAM (Dynamic Random Access Memory) : mémoire à lecture/écriture nécessitant un rafraîchissement permanent de l’information stockée, la plus répandue
car la plus économique.
DSLAM : Digital Subscriber Line Access Multiplexer (multiplexeur de quelques
centaines de lignes ADSL qu’il relie à l’internet par un lien à haut débit ; il est situé
dans le central téléphonique).
DSM-CC : Digital Storage Media-Command and Control (jeu d’outils pour développer des canaux de commande associées à des flux MPEG). Initialement destiné à la
réalisation d’applications de contrôle de flux de type VCR, son champ d’applications
a été considérablement étendu (spécifié dans ISO/IEC 13818-6).
240
DSNG : Digital Satellite News Gathering (système de liaison point à point par satellite temporaire, généralement transportable, destiné à la couverture médiatique
d’événements).
DSP (Digital Signal Processor) : processeur dédié au traitement des signaux analogiques numérisés.
DSS (Digital Satellite System) : système de télévision directe par satellite utilisé aux USA.
DTMB : Digital Terrestrial Multimedia Broadcasting (système de télévision numérique terrestre chinois).
DTS (Decoding Time Stamp) : indicateur d’instant de décodage d’une unité d’accès
MPEG.
DTS-OFDM (Time Domain Synchronous OFDM) : variante de la modulation
OFDM utilisée dans le système DTMB où l’intervalle de garde contient une
séquence d’apprentissage pseudo-aléatoire pour l’estimation du canal.
DVB : Digital Video Broadcasting (standard international de télédiffusion numérique défini par l’organisme basé à Genève qui porte le même nom).
DVB-C : norme de transmission câble utilisant la modulation QAM (16 à 256 états).
DVB-C2 : norme de transmission numérique par câble de deuxième génération ;
utilise la modulation COFDM 4K et le même codage de canal que DVB-S2 (BCH
+ LDPC).
9782100520442-Livre.fm Page 241 Jeudi, 24. juin 2010 11:35 11
GLOSSAIRE
DVB-CI : Common Interface (interface pour module d’accès conditionnel au
format PCMCIA) ; une extension visant à en augmenter la sécurité baptisée DVBCI+ a été publiée en 2009.
DVB-H : norme de transmission terrestre à destination des mobiles utilisant la
modulation COFDM 2k, 4k ou 8k et un découpage du temps permettant de réduire
la consommation des mobiles.
DVB-S : norme de transmission satellite utilisant la modulation QPSK.
DVB-S2 : nouvelle norme de transmission satellite plus efficace que DVB-S grâce à
la possibilité d’utilisation d’une modulation d’ordre supérieur (8-PSK à 32-APSK)
et d’un codage de canal plus efficace (BCH + LDPC).
DVB-SH : Satellite Handheld (standard de télévision numérique mobile hybride
satellite-terrestre).
DVB-SI (System Information) : groupe de tables d’informations facultatives DVB.
DVB-T : norme de transmission terrestre utilisant la modulation COFDM 2k ou 8K.
DVB-T2 : norme de transmission numérique terrestre de deuxième génération ;
utilise le même codage de canal que DVB-S2 (BCH + LDPC).
DVD (Digital Video Disk) : nouveau format de disque laser à haute capacité de 4,7
à 19 Go.
DVI : Digital Visual Interface (interface numérique de connexion de moniteurs informatiques ; compatible électriquement à l’interface HDMI, avec un connecteur différent et sans support du son).
e-AC3 (également appelé Dolby Digital+) : extension du système de compression
AC3 augmentant le nombre de voies audio ; utilisé par les chaînes de la TNT française diffusées en HD.
© Dunod. La photocopie non autorisée est un délit.
Eb/N0 : rapport entre énergie moyenne par bit Eb et densité de bruit No, lié au
rapport C/N.
ECM (Entitlement Control Message) : premier type de message de contrôle d’accès DVB.
EICTA : European Information & Communications Technology Association (association européenne dont la mission est la défense des intérets des industries de
l’informatique, des télécommmunications et du matériel grand public).
EIT (Event Information Table) : table facultative de DVB-SI indiquant le début d’un
événement.
ELG (European Launching Group) : groupe à l’origine du démarrage du projet DVB.
EMM (Entitlement Management Message) : deuxième type de message de contrôle
d’accès DVB.
241
9782100520442-Livre.fm Page 242 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
EPG (Electronic Program Guide) : interface utilisateur graphique pour l’aide au
choix du programme.
ES (Elementary Stream) : train binaire élémentaire en sortie de codeur MPEG
audio ou vidéo.
FEC (Forward Error Correction) : ensemble des dispositifs de correction d’erreur
de transmission par adjonction de redondance calculée à l’émission ; synonyme :
codage de canal.
FECFRAME : Forward Error Correction Frame (bloc de données de longueur
16 200 ou 64 800 bits après codage de canal de la BBFRAME dans les systèmes DVB
de deuxième génération).
FFT (Fast Fourier Transform) : transformée de Fourier discrète, élément clé de la
modulation et de la démodulation COFDM.
FOS (Filtre à Onde de Surface) : filtre de bande fonctionnant en mode
ultrasonique ; anglais : SAW.
FRExt : Fidelity Range Extensions (extensions du jeu d’outils de codage de H264
utilisés seulement dans les profils « High »).
FSK (Frequency Shift Keying) : modulation de fréquence numérique à 2 états.
242
FSS (Fixed Service Satellite) : satellite dans les bandes 10,7 - 11,7 GHz ou 12,5 12,75 GHz réservées à l’origine aux télécommunications.
FTA (Free To Air) : expression désignant les émissions TV à accès libre.
GOP (Group Of Pictures) : groupe d’images MPEG débutant par une image de type I.
H261 : norme de compression utilisée pour le visiophone RNIS (débit de p × 64 kb/s).
H264 : standard de compression retenu par le DVB comme alternative au MPEG-2
par rapport auquel il est plus efficace. Également connu sous l’abréviation AVC
(Advanced Video Coding) ou MPEG-4 part 10.
HDCP : High Definition Content Protection (cryptage des données vidéo transmises
sur une liaison DVI ou HDMI pour éviter la copie illicite).
HDMAC (High Definition MAC) : extension Haute Définition du standard D2MAC.
HDMI : High Definition Multimedia Interface (interface numérique normalisée
permettant de relier une source de signaux audiovisuels numériques à un dispositif
d’affichage ; c’est une extension de l’interface DVI auquel il ajoute la transmission
du son numérique et la protection du contenu HDCP).
HDTV : High Definition TeleVision (TéléVision à Haute Définition ; désigne un système de télévision dont la résolution d’image est égale ou supérieure à 1 280 × 720).
9782100520442-Livre.fm Page 243 Jeudi, 24. juin 2010 11:35 11
GLOSSAIRE
HTML (Hypertext Markup Language) : langage permettant de définir des zones
actives sur un document électronique avec des liens vers d’autres parties du document ou une adresse internet.
I (In phase) : en modulation QAM, signal modulant la porteuse selon l’axe 0.
I (Intra picture) : image MPEG codée sans référence à d’autres images.
I2C (Inter Integrated Circuits) : bus série entre circuits intégrés développé par Philips.
I2S (Inter Integrated Sound) : liaison série entre circuits audio numériques développée par Philips.
iDTV (integrated Digital TV) : téléviseur hybride recevant les émissions analogiques et numériques.
IDTV (Improved Definition TV) : télévision à définition améliorée, entre TV
normale et HDTV.
IEEEE 802.11(a, b, g, n…) : standards de réseau local sans fil (wireless LAN) à
2,4 GHz et 5,8 GHz.
IEEE1284 : interface parallèle bidirectionnelle rapide (interface Centronics étendue).
IEEE1394 : interface série rapide prévue entre autres pour les magnétoscopes
numériques.
IP : Internet Protocol (protocole utilisé pour l’acheminement de données sous forme
de « datagrammes IP » au moyen d’une encapsulation assurant entre autres l’adressage de source et de destination).
IRD (Integrated Receiver Decoder) : récepteur avec décodeur MPEG intégré ; synonyme familier : set-top box.
© Dunod. La photocopie non autorisée est un délit.
ISDB-T (Integrated Services Digital Broadcasting-Terrestrial) : système japonais pour la
transmission d’émissions numériques de télévision et multimédia par voie terrestre.
ISI (Inter Symbol Interference) : interférence entre symboles successifs en transmission numérique.
ISO (International Standard Organization) : organisme de normalisation mondial
dépendant de l’ONU.
IUT (International Union for Telecommunications) : organisme international de
réglementation des télécommunications, anciennement CCITT.
JPEG (Joint Photographic Experts Group) : groupe ayant développé la compression
d’images fixes.
LDPC : Low Density Parity Code (code correcteur d’erreur « interne » dans les
systèmes DVB de seconde génération en remplacement du code convolutif).
243
9782100520442-Livre.fm Page 244 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
LNB (Low Noise Blockconverter) ou LNC (Low Noise Converter) : convertisseur à
faible bruit situé au foyer d’une antenne satellite.
MAC (Media Access Control) : désigne les parties matérielles et logicielles d’un
récepteur câble avec voie de retour destinées à gérer l’accès et le partage de la voie
montante entre les usagers.
MBAFF : MacroBlock Adaptive Frame Field (option de codage de MPEG-4.10 /
H264 permettant un meilleur traitement des images entrelacées).
MCPC (Multiple Channel Per Carrier) : plusieurs programmes par porteuse ; mode
de transmission DVB « normal » de plusieurs programmes numériques multiplexés sur une porteuse RF, occupant en général toute la bande passante d’un
transpondeur (débit de l’ordre de 20 à 45 Ms/s).
MHEG5 (Multimedia and Hypermedia Expert Group version 5) : moteur d’interactivité simple basé sur le langage descriptif MHEG.
MHP (Multimedia Home Platform) : moteur d’interactivité ouvert pour la télévision numérique proposé par le DVB.
[email protected] (Main Profile at Main Level) : format vidéo principal du standard DVB.
244
MP3 (MPEG-1 niveau 3) : format de compression environ deux fois plus efficace
que le niveau 2 du standard DVB. Le format MP3 a été popularisé par les échanges
de musique sur Internet.
MPEG : Motion Picture Experts Group (groupe ayant défini les standards de compression d’images animées MPEG-1 et MPEG-2, et plus récemment MPEG-4, dont
la variante MPEG4.10 ou H264).
MS/s (mégasymbole par seconde) : unité généralement utilisée pour spécifier le
débit d’une transmission TV numérique (on utilise parfois le MHz ou le Mbaud,
équivalents).
MSB (Most Significant Bit) : bit de poids fort d’un nombre représenté sous forme
binaire.
MUSE : système japonais de télévision à haute définition (analogique avec assistance numérique).
MUSICAM (Masking Universal Subband Integrated Coding And Multiplexing) :
procédé de codage spécifié par MPEG-1 audio, couche 2 et utilisé par les systèmes
radio DAB et télévision DVB.
MVC : Multiview Video Coding (extension du H.264 au codage de flux multiples
synchronisés utilisé par exemple pour la télévision en relief).
9782100520442-Livre.fm Page 245 Jeudi, 24. juin 2010 11:35 11
GLOSSAIRE
NICAM (Near Instantaneous Companded Audio Multiplexing) : système stéréophonique numérique pour TV analogique terrestre, avec sous-porteuse à 5,85 ou
6,55 MHz modulée en QPSK.
NIT (Network Information Table) : information réseau, table facultative de DVB-SI.
NTSC (National Television Standard Commitee) : système TV couleur utilisé aux
USA et au Japon.
NVOD (Near Video On Demand) : vidéo quasi à la demande ; possibilité pour
l’utilisateur de choisir parmi un nombre de programmes important diffusés simultanément, généralement en multidiffusion.
OFDM : voir COFDM.
OOB (Out Of Band) : voie descendante additionnelle destinée aux données dans un
système de télévision par câble avec voie de retour tel que DVB-DAVIC.
P (Predictive picture) : image MPEG codée à partir d’une image précédente de type
I ou P.
PAL (Phase Alternating Line) : système TV couleur utilisé dans la plupart des pays
européens.
PAT (Program Allocation Table) : table DVB indiquant les PID des composantes
d’un programme.
PCM (Pulse Code Modulation) : résultat de la conversion analogique/numérique
d’un signal ; français : MIC.
PCMCIA ou PC-Card (Personal Computer Memory Card Association) : désigne le
format proche d’une carte de crédit et l’interface électrique utilisé pour les modules
d’extension des PC portables et spécifié par le DVB pour les modules d’accès conditionnel détachables utilisant le Common Interface.
© Dunod. La photocopie non autorisée est un délit.
PCR (Program Clock Reference) : référence d’horloge pour un programme en
MPEG-2.
PES (Packetized Elementary Stream) : train élémentaire MPEG sous forme de
paquets.
PID (Packet Identifier) : numéro d’identification d’un PES en DVB.
PMT (Program Map Table) : table DVB indiquant les PID des PAT de tous les
programmes d’un multiplex transport.
PRBS (Pseudo Random Binary Sequence) : séquence issue d’un générateur
pseudo-aléatoire.
PSI (Program Specific Information) : tables obligatoires du standard DVB : CAT,
PAT, PMT.
245
9782100520442-Livre.fm Page 246 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
PSK : Phase Shift Keying (modulation de phase à plusieurs états et à amplitude
constante). DVB-S2 permet l’utilisation des modulations à 4 états (QPSK ou 4-PSK)
et à 8 états (8-PSK) pour les applications de diffusion.
PTS (Presentation Time Stamp) : indicateur d’instant de présentation d’une PU
MPEG.
PU (Presentation Unit) : unité de présentation MPEG : trame sonore ou image
décodée.
PVR : Personal Video Recorder (récepteur numérique équipé d’un disque dur
permet-tant l’enregistrement et le « Time Shift Recording ») ; généralement équipé
de deux tuners.
Q (Quadrature) : en modulation QAM, signal modulant la porteuse selon l’axe 90°.
QAM (Quadrature Amplitude Modulation) : modulation d’amplitude en
quadrature ; français : MAQ.
QCIF (Quarter Common Intermediate Format) : 180 × 144 @ 15 Hz, résolution du
visiophone.
QEF (Quasi Error Free) : se dit d’un canal virtuellement sans erreur, impliquant un
BER < 10–10.
246
QPSK (ou 4-PSK) : Quadrature (ou Quaternary) Phase Shift Keying (modulation
de phase à 4 états utilisée par les standards de TV numérique par satellite DSS,
DVB-S et DVB-S2).
RISC (Reduced Instruction Set Computer) : processeur à jeu d’instructions réduit.
RLC (Run Length Coding) : méthode de compression de données tirant profit des
répétitions.
RNIS (Réseau Numérique à Intégration de Services) : réseau public numérique ;
anglais : ISDN.
RNT : radio numérique de Terre (dénomination française de la radio numérique).
RS(204, 188, 8) : notation abrégée du codage de Reed-Solomon utilisé en transmission DVB.
RS232 : interface série asynchrone normalisée (relativement lente).
RST (Running Status Table) : table facultative de DVB-SI indiquant l’état des émissions en cours.
RTP : Real Time Transfer Protocol (protocole utilisé pour transporter l’audio et la
vidéo en TV sur IP).
RVB (Rouge, Vert, Bleu) : composantes de base d’une image couleur ; anglais : RGB.
9782100520442-Livre.fm Page 247 Jeudi, 24. juin 2010 11:35 11
GLOSSAIRE
SBTVD : Sistema Brasileiro de Televisão Digital-Terrestre (dérivé brésilien du
système japonais ISDB-T également appelé ISDB-T International ; utilise le MPEG4 pour le codage vidéo).
SCPC (Single Channel Per Carrier) : un seul programme par porteuse ; mode de
transmission à relativement bas débit (2 à 6 Ms/s) d’un seul programme numérique par porteuse RF, partageant en général un transpondeur de largeur conventionnelle avec un programme analogique ou d’autres programmes numériques
transmis de la même manière.
SCR (System Clock Reference) : référence d’horloge système en MPEG-1.
SDT (Service Description Table) : table facultative de DVB-SI.
SECAM (Séquentiel Couleur À Mémoire) : système TV couleur utilisé principalement en France.
SFN (Single Frequency Network) : réseau d’émetteurs de TV numérique terrestre
utilisant la même fréquence sur toute sa zone de couverture ; utilise la modulation
OFDM 8K du standard DVB-T.
SIF (Source Intermediate Format) : 360 × 288 @ 25 Hz ou 360 × 240 @ 30 Hz ; base
de MPEG-1.
ST (Stuffing Table) : table de bourrage facultative de DVB-SI.
STD (Standard Target Decoder) : décodeur de référence utilisé dans les normes
MPEG-1 et 2.
TDM : Time Division Multiplex (système de modulation à porteuse unique, par
opposition aux systèmes à porteuses multiples FDM ou OFDM).
© Dunod. La photocopie non autorisée est un délit.
T-DMB : Terrestrial Digital Multimedia Broadcasting (standard de télévision
mobile personnelle et de radio numérique dérivé du DAB ; retenu par la France
pour la radio numérique terrestre).
TDT (Time and Date Table) : table facultative de date et heure de DVB-SI.
TMP : télévision mobile personnelle (terme utilisé en France pour désigner les
services de télévision à destination des terminaux portables, généralement individuels).
TNT (Télévision Numérique de Terre) : dénomination officielle utilisée en France.
TPS (Transmission Parameter Signalling) : information sur les paramètres de transmission OFDM véhiculée par les porteuses pilotes continues du système DVB-T.
TSR (Time Shift Recording) : possibilité de regarder intégralement une émission
malgré des interruptions grâce à la capacité d’enregistrement et de reproduction
simultanés du disque dur.
247
9782100520442-Livre.fm Page 248 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
USALS : Universal Satellite Automatic Location System (logiciel développé par la
société STAB et implanté dans un récepteur satellite pour calculer la rotation d’un
moteur DiSEqC 1.2 à partir des coordonnées du lieu de réception et de la position
orbitale du satellite).
USB (Universal Serial Bus) : bus série rapide – jusqu’à 11 Mb/s pour la
version 1.1 – remplaçant peu à peu les liaisons RS232 ou IEEE1284 dans les PC et
les récepteurs TV numériques.
VBS (Video Baseband Signal) : désigne un signal vidéo monochrome.
VLC (Variable Length Coding) : méthode de compression de données codant la
longueur d’un élément en fonction de sa probabilité d’apparition.
VLIW (Very Long Instruction Word) : type de processeur à traitement parallèle.
VSB (Vestigial Side Band) : modulation utilisée pour la vidéo en TV analogique ;
français : BLA.
WiFi : Wireless Fidelity (appellation usuelle des systèmes de réseau sans fil
IEEE802.11x dans les bandes de 2,4 GHz et 5,8 GHz).
WSS (Wide Screen Signalling) : bits de signalisation du format en PAL+.
YUV : signal vidéo couleur en composantes (luminance Y et différences de couleur
U et V).
248
ZIF : voir Zero IF.
✦
Mots et expressions
aliasing : perturbation due au repliement de spectre lors de la conversion A/N d’un
signal dont la bande passante dépasse la moitié de la fréquence d’échantillonnage.
asynchrone : dans la terminologie du bus IEEE1394, désigne le mode utilisé pour
transporter des données au timing non critique (par exemple commandes ou
données audiovisuelles à enregistrer).
balayage progressif (progressive scan) : analyse en une seule « passe » de toutes
les lignes d’une image vidéo dans leur ordre numérique croissant (utilisé notamment pour les moniteurs informatiques).
baud : (ou s/s = symbole/seconde ; 1 Mbaud = 1 Ms/s) unité de débit de transmission numérique en symboles/seconde (du nom du Français Baudot, inventeur du
téléimprimeur).
bitstream : train binaire ; désigne un train série continu d’informations numériques.
bloc : en JPEG et MPEG, désigne une partie d’image de 8 × 8 pixels servant à effectuer la DCT.
9782100520442-Livre.fm Page 249 Jeudi, 24. juin 2010 11:35 11
GLOSSAIRE
Bluetooth : standard de communication à faible distance (environ 10 m) et à débit
moyen (max. 1 Mb/s), utilisant une liaison radio à 2,4 GHz et permettant d’interconnecter jusqu’à sept participants, constituant ainsi un « picoréseau » (piconet).
Les picoréseaux peuvent communiquer entre eux par l’intermédiaire de participants appartenant à deux picoréseaux.
Blu-rayTM : disque optique numérique de haute capacité pour la vidéo à haute
définition.
codage de canal (channel coding) : ajout de redondance calculée destinée à
permettre la correction d’erreurs de transmission affectée d’erreurs dues à la transmission (synonyme : FEC).
codage de source (source coding) : ensemble des opérations de codage destinées à réduire le débit d’une source d’informations, plus communément appelé
« compression ».
composantes (vidéo en) : vidéo couleur sous forme de 3 signaux séparés (par
exemple RVB ou YUV).
composite (vidéo) : vidéo couleur sous forme d’un signal codé unique (NTSC,
PAL ou SECAM).
constellation : visualisation simultanée en coordonnées I/Q des points représentant les différents états que peut prendre un signal QAM ou QPSK.
convolutif (codage) : partie « interne » du codage de canal satellite, consistant à
obtenir deux trains binaires à partir du train d’origine ; corrige principalement les
erreurs aléatoires dues au bruit.
© Dunod. La photocopie non autorisée est un délit.
couche (layer) : en MPEG-1 audio, le numéro de couche (1, 2 ou 3) définit l’algorithme employé (le taux de compression et la complexité de l’algorithme augmentent avec ce chiffre).
cryptage (encryption) : action de coder un signal avec une clé pour en contrôler
l’accès.
dispersion d’énergie (energy dispersal) : multiplication d’un signal numérique par
une séquence pseudo-aléatoire pour rendre son spectre uniforme après modulation.
échantillon de sous-bande (subband sample) : en MPEG audio, signal de sortie
d’un des 32 filtres de sous-bandes (durée : 32 échantillons PCM consécutifs, soit
1 ms à 32 kHz).
échantillonnage (sampling) : prélèvement périodique de la valeur d’un signal
analogique, en général en vue de sa conversion en numérique.
efficacité spectrale (spectral efficiency) : rapport (exprimé en bits/s par Hz)
entre le débit et la bande passante d’un signal RF modulé par un train numérique.
249
9782100520442-Livre.fm Page 250 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
égaliseur d’échos (echo equalizer) : dispositif destiné à annuler ou atténuer
l’effet des réflexions dans un système de transmission (sur câble principalement).
embrouillage (scrambling) : codage d’un signal destiné à empêcher sa réception
sans un dispositif spécifique assurant la fonction inverse.
entrelacé (interlaced) : qualifie le balayage d’une image TV en deux trames
successives (lignes impaires puis paires) permettant de diviser par 2 la bande
passante à résolution donnée.
estimation de mouvement : (movement estimation) : détermination d’un
vecteur permettant de reconstituer une zone de l’image courante à partir d’une
autre de l’image précédente.
Eurocrypt : système de contrôle d’accès utilisé principalement en D2MAC.
facteur d’échelle (scaling factor) : en MPEG audio, coefficient multiplicateur
codé sur 6 bits affecté à chaque coefficient de sous-bande pour la durée d’une
trame.
250
filtre en peigne (comb filter) : filtre utilisé en NTSC ou en PAL pour la séparation
optimale luminance/chrominance, dont la réponse en fréquence comporte des
« dents » correspondant aux raies de la chrominance et des creux à celles de la
luminance.
flash EPROM : mémoire non volatile effaçable et réinscriptible électriquement
(par blocs).
granule : en MPEG audio (couche II), désigne un ensemble de 3 échantillons de
sous-bande consécutifs (correspond à 96 échantillons PCM).
groupe d’images (group of pictures) : en MPEG, suite d’images dépendant d’une
même image Intra ; constitue l’unité d’accès élémentaire à une séquence vidéo
MPEG.
HD Ready : label accordé par l’EICTA aux téléviseurs ou moniteurs compatibles
ave la télévision haute définition.
homodyne : se dit d’un récepteur à conversion directe (voir aussi « zero IF »).
isochrone : dans la terminologie du bus IEEE1394, désigne le mode « quasisynchrone » utilisé pour transporter des données au timing critique (audio et vidéo
e temps réel par exemple).
joint stereo : mode stéréophonique MPEG audio exploitant la redondance entre les
voies gauche et droite soit par codage des signaux G + D et G – D (MS_stereo), soit
par codage commun aux 2 voies des coefficients (sauf les facteurs d’échelle) des
sous-bandes de rang élevé (intensity_stereo).
9782100520442-Livre.fm Page 251 Jeudi, 24. juin 2010 11:35 11
GLOSSAIRE
letterbox : appellation du format utilisé pour transmettre les films au format 16/9
(ou plus) sur un standard TV 4/3, en laissant deux bandes noires horizontales au
dessus et au-dessous de l’image.
macrobloc : ensemble de 16 × 16 pixels (4 blocs Y, 1 Cb et 1 Cr).
masquage (masking) : occultation de la perception d’un son par un autre plus
puissant et voisin en fréquence (masquage fréquentiel) ou dans le temps
(masquage temporel).
MediaFLO : système de télévision mobile personnelle développé par Qualcomm et
utilisé aux États-Unis. FLO (Forward Link Only) signifie « lien descendant seulement ».
Mediaguard : système d’accès conditionnel propriétaire développé par Canal+
Technologies.
Mediahighway : moteur d’interactivité propriétaire développé par Canal+ Technologies.
mini-DiSEqC : voir Toneburst.
modèle psycho-acoustique : modèle mathématique du comportement du système
auditif humain, notamment du phénomène de masquage d’un son faible par un
son plus fort de fréquence proche.
monobloc (LNB) : type particulier de LNB universel double pour la réception de
deux satellites proches (par exemple Astra1 et Hotbird distants de 6,2°) avec une
même parabole et un seul câble de descente.
© Dunod. La photocopie non autorisée est un délit.
multicrypt : une des possibilités de contrôle d’accès prévues par le système DVB,
basée sur un module de contrôle d’accès détachable connecté via le « common
interface ».
multiplexage statistique : mode de multiplexage de plusieurs programmes affectant
un débit variable à chaque programme du multiplex en fonction de son contenu, dans
la limite du débit total admis par le canal RF. Son but est d’augmenter le nombre de
programmes par canal en n’accordant un débit instantané élevé qu’aux passages les
plus mouvementés d’un programme, aux dépens des autres programmes du multiplex suposés plus « calmes » à ces instants. Bien utilisé, ce système permet jusqu’à
un doublement du nombre de programmes transmis sans dégradation sensible.
niveau (level) : caractérise la résolution spatiale d’une émission MPEG-2.
nœud : dans la terminologie du bus IEEE1394, désigne un participant connecté
au bus.
OpenTV : moteur d’interactivité propriétaire développé par la société du même
nom, appartenant à la société suisse Kudelski S.A.
251
9782100520442-Livre.fm Page 252 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
orthogonal (échantillonnage) : orthogonal sampling ; méthode d’échantillonnage
d’un signal vidéo au moyen d’une fréquence multiple entier de la fréquence ligne
de manière à obtenir des échantillons situés sur une grille rectangulaire.
orthogonalité : propriété d’un système à porteuses multiples lorsque l’écart entre
porteuses consécutives est égal à l’inverse de la période symbole du signal modulant,
de sorte que le spectre d’une porteuse s’annule pour la valeur des porteuses voisines
(modulation OFDM).
padding (ajustement) : méthode d’adaptation du débit d’un train binaire ou de la
durée d’une trame audio par addition de bits non significatifs.
papillotement (flicker) : variation périodique gênante de la luminosité d’une
image lorsque sa fréquence de rafraîchissement est insuffisante (inférieure à 50 Hz
environ).
péritel : prise de Péritélévision à 21 broches (à l’étranger : SCART plug ou EUROCONNECTOR).
perte d’implémentation (implementation loss) : différence de C/N (en dB) entre
la courbe théorique BER = f (C/N) et celle mesurée dans un récepteur réel pour le
taux d’erreur limite assurant une réception « quasi sans erreur » (BER = 10–4 avant
correction de Reed-Solomon).
252
pixel (ou pel) : abréviation de picture element (élément d’image). Désigne le plus
petit élément d’image d’un dispositif de prise de vue ou de visualisation.
En TV numérique, correspond à la représentation visuelle d’un échantillon du signal
vidéo.
pixels carrés (square pixels) : mode d’échantillonnage d’une image vidéo assurant
une résolution identique selon les deux axes (par exemple 640 × 480 pour une image
au format 4/3).
plug and play : littéralement « branchez et jouez » ; expression utilisée en informatique pour caractériser le fait qu’un périphérique est utilisable dès sa connexion
sans avoir à reconfigurer manuellement le système. Un des objectifs des versions
supérieures à 2.0 du bus DiSEqC pour la connexion des systèmes d’antennes satellite.
poinçonnage (puncture) : opération consistant à ne prendre qu’une fraction des
bits des trains binaires générés par un code convolutif pour réduire sa redondance,
donc le débit, aux dépens de la robustesse (autre appellation : perforation).
profil (profile) : caractérise la « boîte à outils » utilisée pour le codage MPEG-2.
quantification (quantization) : définition d’une grandeur au moyen d’un
nombre limité de valeurs, par exemple lors d’une conversion analogique/numérique ou d’un processus de compression.
9782100520442-Livre.fm Page 253 Jeudi, 24. juin 2010 11:35 11
GLOSSAIRE
Reed-Solomon (codage de) : partie « externe » du codage de canal, ajoutant
16 octets de parité aux paquets de 188 octets ; notation : RS(204, 188, 8) ; permet
de corriger jusqu’à 8 octets.
réversible : qualifie un codage ne perdant aucune information, permettant donc
de retrouver l’information d’origine lors du processus inverse.
roll-off (facteur de) : caractéristique du filtrage d’un signal numérique destiné à
limiter sa bande passante (celle-ci sera égale au produit de la fréquence symbole
par le facteur de roll-off + 1).
scalable profile : qualifie certains « profils » MPEG-2 permettant d’obtenir
plusieurs qualités (résolution spatiale ou rapport signal/bruit) de réception à
partir du même bitstream.
séquence : en MPEG, désigne une suite ininterrompue de groupes d’images (et de
sons) définis avec les mêmes paramètres de base.
set-top box (décodeur) : appellation anglo-saxonne familière d’un appareil périphérique de téléviseur (par exemple récepteur-décodeur MPEG ou IRD).
seuillage (tresholding) : en compression vidéo, élimination des valeurs inférieures à un seuil prédéterminé considéré comme limite de perception pour réduire la
quantité d’information.
simulcast : transmission simultanée d’une émission selon deux standards (par
exemple SECAM ou PAL et DVB), généralement pendant une période de transition
entre ces standards.
© Dunod. La photocopie non autorisée est un délit.
simulcrypt : principe consistant à doter une émission à péage de messages ECM et
EMM correspondant à plusieurs systèmes de contrôle d’accès afin d’en permettre
la réception avec différents types de décodeurs.
slice (tranche) : en MPEG, désigne une portion de l’image constituée de macroblocs horizontalement contigus (souvent une rangée complète) ; utilisée pour
l’adressage intra-trame et la resynchronisation.
suppression (intervalle de) : période inactive du signal vidéo (correspondant en
gros au retour du spot sur l’écran), englobant les paliers avant et arrière et l’impulsion de synchronisation ligne.
symbol rate (fréquence symbole) : nombre de symboles transmis par seconde.
symbole : en transmission numérique, désigne l’élément d’information modulant, dont le nombre de bits dépend du type de modulation utilisée (par exemple 2
pour QPSK, 6 pour 64-QAM).
table : ensemble d’informations de description permettant l’accès aux émissions
DVB.
253
9782100520442-Livre.fm Page 254 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
ToneBurst : version de base du système DiSEqC permettant la commutation de
deux antennes satellites. Elle consiste à envoyer une salve à 22 kHz de durée
12,5 ms, modulée ou non, au moment d’un changement de programme.
trame audio (frame) : en MPEG audio, désigne la période élémentaire de 8 à
12 ms sur laquelle s’effectue le codage psycho-acoustique (correspond à 12 fois
32 échantillons PCM).
trame vidéo (field) : désigne pour un signal vidéo entrelacé l’ensemble des lignes
impaires (trame impaire) ou paires (trame paire) balayées successivement pour
former une image.
trame DVB-T : suite de 68 symboles OFDM. Quatre trames consécutives forment
une supertrame.
transpondeur (transponder) : dispositif d’un satellite de télécommunication
diffusant vers les utilisateurs, après changement de fréquence et amplification, un
canal de la « voie montante » en provenance de la station terrestre d’émission.
universel (LNB) : se dit d’un LNB permettant de recevoir l’ensemble de la bande
Ku au moyen de deux oscillateurs locaux à 9,75 et 10,60 GHz commutés par la
présence ou l’absence d’un signal à 22 kHz superposé à la tension d’alimentation.
254
Viaccess : système d’accès conditionnel propriétaire développé par France Telecom et utilisé entre autres par TPS.
zero IF (FI nulle) : technique dite de conversion directe, où la démodulation des
signaux I et Q s’effectue directement à la fréquence à recevoir (l’oscillateur local est
à la fréquence du signal reçu). Un récepteur utilisant cette technique est dit
« homodyne » par opposition à la technique classique dite « hétérodyne ».
9782100520442-Livre.fm Page 255 Jeudi, 24. juin 2010 11:35 11
Bibliographie
✦
Livres
© Dunod. La photocopie non autorisée est un délit.
BIC J.-C., DUPONTEIL D., Imbeaux J.-C. – Éléments de communication numérique. Dunod,
1986. Éléments of digital communication. Chichester, Wiley, 1991.
BRIMAUD P. – Signal et Communications. Ellipses, 1995.
CHAMBERS W.-G. – Basics of Communication and Coding. Oxford, Clarendon Press, 1985.
COHEN et al. – Codes correcteurs d’erreur. Masson, 1992.
HILL R. – A first course in coding theory. Oxford, Clarendon Press, 1986.
MOREAU N. – Techniques de compression des signaux. Masson, 1995.
PETERSEN D. – Audio, Video and Data Telecommunications. Mc Graw-Hill, 1992.
POLI A., HUGUET L. – Codes correcteurs. Masson, 1989.
REIMERS U. et al. – Digitales Fernsehtechnik. Berlin, Springer, 1995.
RUIU D. et al. – Testing Digital Video. Amsterdam, Hewlett-Packard, 1997.
SANDBANK C.-P. – Digital Television. Chichester, Wiley, 1990.
ZIEMER A. et al. – Digitales Fernsehen. Heidelberg, R. v. Decker, 1994.
✦
Articles de presse et autres publications
ALARD M., LASSALLE R. – Principes de modulation et de codage de canal en radiodiffusion
numérique vers les mobiles. Revue technique de l’UER n° 224, août 1987.
ASTRA Marketing – La télévision numérique par le système de satellites ASTRA. SES, avril 1996.
BELLAÏCHE P., TICHIT B. – Compression numérique. Videobroadcast, mai et juillet 1994.
BENOIT H. – Le bus DiSEqC. Le Haut Parleur n° 1855, décembre 1996.
DVB project office – Going ahead with Digital Television. Mai 1995.
DVB-H fact sheet : Broadcasting to Handhelds, avril 2009 (DVB project office).
DVB-S2 fact sheet : 2nd generation satellite, avril 2009 (DVB project office).
DVB-T2 fact sheet : 2nd generation terrestrial, avril 2009 (DVB project office).
DVB-C2 fact sheet : 2nd generation Cable, avril 2009 (DVB project office).
255
9782100520442-Livre.fm Page 256 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
DVB-GSE fact sheet : Generic Stream Encapsulation, juillet 2009 (DVB project office).
DVB IPTV fact sheet : Internet Protocol TV, juillet 2009 (DVB project office).
FARIA Gérard (Teamcast, France), DVB-H: Digital TV in the hands ! (2005).
MENIRI G. – Télévision Numérique : la réduction de débit. Videobroadcast, mars 1993 à avril 1994.
MORELLO Alberto et MIGNONE Vittoria - DVB-S2 ready for take-off (EBU technical review,
octobre 2004).
SIENSTRA A., Technologies for DVB services on the Internet (IEEE Proceedings vol. 94, n° 1,
janvier 2006).
SCHÄFER Ralf et al., The emerging H.264/AVC standard, (EBU technical review, janvier 2003).
SULLIVAN Gari G. et al., The H264/AVC Advanced Video Coding Standard, Overview and introduction to the Fidelity Range Extensions (SPIE conference, août 2004).
✦
256
Documents officiels
ARIB STD-B31:2005, Transmission system for digital terrestrial television broadcasting.
Brazilian Standard ABNT NBR 15601, Digital Terrestrial Television – Transmission system.
BT 601 (ITU-R), Studio encoding parameters of digital television for standard 4:3 and wide
screen 16:9 aspect ratios (Recommandation CCIR 601).
BT 656 (ITU-R), Interfaces for digital component video signals in 525 lines and 625 lines television systems operating at the 4:2:2 level of Rec. 601 (Recommandation CCIR 656).
CSA : Doc CTE-TTNT/GT3-03, v 1.0 (Juillet 2001) Services et profil de signalisation pour la TNT.
DVB document A080 : IP Datacast Baseline Specification (specification of interface I_MT).
DVB document A086 : DVB-IPI_handbook (Transport of DVB services over IP).
DVB Document A 133, Implementation guidelines for a second generation digital terrestrial
television broadcasting system (DVB-T2).
EN 302 304 (ETSI) Transmission System for Handheld terminals (DVB-H).
EN 302 307 (ETSI) Second Generation framing structure…etc…for satellite applications
(DVB-S2).
EN 302 583 (ETSI), Framing Structure, channel coding and modulation for Satellite Services to
Handheld (SH) devices below 3 GHz.
EN 50221 (CENELEC), Common Interface Specification for Conditionaal Access and other DVB
decoder applications (DVB-CI).
ETR154 (ETSI/UER), Implementation guidelines for the use of MPEG-2 systems, audio and
video in satellite and cable broadcasting applications.
ETR162 (ETSI/UER), Allocation of SI codes for DVB systems.
ETR211 (ETSI/UER), Guidelines for implementation of DVB-SI.
ETR289 (ETSI/UER), Common scrambling (DVB-CS) sytem description.
ETS 300 421 (ETSI/UER), Framing structure channel coding and modulation for satellite services.
ETS 300 429 (ETSI/UER), Framing structure channel coding and modulation for cable services.
ETS 300 468 (ETSI/UER), Specification for Service Information (SI) in DVB systems.
ETS 300 472 (ETSI/UER), Specification for conveying ITU-R system B Teletext in DVB bitstreams.
9782100520442-Livre.fm Page 257 Jeudi, 24. juin 2010 11:35 11
© Dunod. La photocopie non autorisée est un délit.
BIBLIOGRAPHIE
ETS 300 744 (ETSI/UER), Framing structure channel coding and modulation for terrestrial
services.
ETS 300 748 (ETSI/UER), Framing structure channel coding and modulation for MVDS at 10
GHz and above (norme basée sur ETS 300 421).
ETS 300 749 (ETSI/UER), Framing structure channel coding and modulation for MMDS below
10 GHz (norme basée sur ETS 300 429).
ETS 300 800 (ETSI/UER), DVB interaction channels for cable TV distribution systems (CATV).
IEEE1394-1995 (IEEE/ISO), Standard for a high performance serial bus.
HDMI Specification version 1.4 (HDMI).
ISO 10918 (ISO/IEC), Digital compression and coding of continuous tone still images (JPEG).
ISO 11172-1, 11172-2, 11172-3 (ISO/IEC), Coding of moving pictures and associated audio for
digital storage media up to about 1.5 Mb/s (MPEG-1 system, video, audio).
ISO/IEC 13818-1 Information technology -- Generic coding of moving pictures and associated
audio information -- Part 1: Systems
ISO/IEC 13818-2 Information technology -- Generic coding of moving pictures and associated
audio information: -- Part 2: Video
ISO/IEC 13818-3 Information technology -- Generic coding of moving pictures and associated
audio information -- Part 3: Audio
ISO/IEC 13818-4 Information technology -- Generic coding of moving pictures and associated
audio information -- Part 4: Conformance testing
ISO/IEC TR 13818-5 Information technology -- Generic coding of moving pictures and associated audio information -- Part 5: Software simulation
ISO/IEC 13818-6 Information technology -- Generic coding of moving pictures and associated
audio information -- Part 6: Extensions for DSM-CC
ISO/IEC 13818-7 Information technology -- Generic coding of moving pictures and associated
audio information -- Part 7: Advanced Audio Coding (AAC)
ISO/IEC 13818-9 Information technology -- Generic coding of moving pictures and associated
audio information -- Part 9: Extension for real time interface for systems decoders
ISO/IEC 13818-10 Information technology -- Generic coding of moving pictures and associated
audio information -- Part 10: Conformance extensions for Digital Storage Media Command
and Control (DSM-CC)
EUTELSAT, DiSEqC Bus functional specification (version 4.0, 22/03/96).
EUTELSAT, DiSEqC Update and recommendations for implementation (version 1.0, 22/03/96).
TR 101 190 (ETSI) Measurement guidelines for DVB systems.
TR 101 200 (ETSI) A guideline for the use of DVB specifications.
TR 102 376 (ETSI), User guidelines for the second generation system for Broadcasting, Interactive Services, News Gathering and other broadband satellite applications (DVB-S2).
TR 102 377 (ETSI) Transmission to Handheld terminals ; DVB-H Implementation Guidelines
TR 102 401 (ETSI) Transmission to Handheld terminals ; Validation Task Force Report
TS 101 154 (ETSI) Implementation guidelines…etc… based on the MPEG-2 transport stream.
TS 101 812 (ETSI), Multimedia Home Platform (revision 1.0).
257
9782100520442-Livre.fm Page 258 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
TS 102 034 (ETSI) Transport of MPEG-2 based DVB services over IP Based Networks.
TS 102 539, Carriage of Broadband Content Guide (BCG) Information over Internet Protocol.
TS 102 585, System Specifications for Satellite services to Handheld devices (SH) below 3 GHz.
✦
258
Quelques adresses Internet
ARCEP :
ASTRA :
ATSC :
Bluetooth :
Cable Labs :
CI Plus :
CSA :
DiBEG :
Digitag :
DLNA :
DTG :
DTV :
DVB :
EBU (UER) :
EICTA :
ETSI :
EuroCable Labs :
EUTELSAT :
HDMI :
IEC (CEI) :
IEEE :
ISO :
Liberate :
MediaFLO :
OpenCable :
OpenTV :
SCTE :
TDF :
Tcom labs :
Tenor :
TNT :
TV anytime :
http://www.arcep.fr
http://www.ses-astra.com
http://www.atsc.org
http://www.bluetooth.org
http://www.cablelabs.org
http://www.ci-plus.com/index.php
http://www.csa.fr
http://www.dibeg.org/
http://www.digitag.org
http://www.dlna.org/home
http://www.dtg.org.uk
http://www.dtv.org.br
http://www.dvb.org
http://www.ebu.ch
http://www.eicta.org
http://www.etsi.fr
http://www.eurocablelabs.com
http://www.eutelsat.com
http://www.hdmi.org
http://www.iec.org
http://www.ieee.org
http://www.iso.ch
http://www.liberate.com
http://www.mediaflo.com/
http://www.opencable.com
http://www.opentv.com
http://www.scte.org
http://www.tdf.fr
http://www.tcomlabs.com
http://www.tenor.fr
http://www.tnt-gratuite.fr
http://www.tv-anytime.org
9782100520442-Livre.fm Page 259 Jeudi, 24. juin 2010 11:35 11
Index
1080p, 24
1280i, 24
3DTV, 168
4:2:0, 22
4:2:2, 20
720p, 24
A
AC3, 66
ADSL, 174
aliasing, 18
API, 151
ATSC, 225
ATSC-M/H, 189
AU, 69
B
balayage
© Dunod. La photocopie non autorisée est un délit.
entrelacé, 7
progressif, 6
BAT, 81
BBFRAME, 125
BCH, 126, 195
BER, 95, 110
bit de parité, 191
BLA, 104
bloc, 31, 35, 42, 137, 192
Blu-ray, 171
C
CA, 87
CABAC, 54
CAM, 90
CAT, 79, 83, 91
CAVLC, 54
CI+, 234
CIF, 23
CMMB, 190
CNR, 103
Codage, 98
codage
convolutif, 100, 196
de canal, 25
de Hamming, 194
de Huffman, 29, 36
de Reed-Solomon, 98, 195
de source, 25
perceptuel, 58
COFDM, 115, 145
constellation, 108, 111, 113,
119
couches, 41
CSA, 87
CVBS, 10
D
D2MAC, 13
DAVIC, 143
DCT, 30, 35
DiSEqC, 203
dispersion d’énergie, 96
DLNA, 173
DOCSIS, 142
Dolby Digital, 65–66
Dolby Digital Plus, 67
DPCM, 35
DSS, 223
DTMB, 165, 229
DTS, 70
DVB, 88, 124, 134, 136
DVB-C, 109
DVB-C2, 124, 132
DVB-CI, 231
DVB-CI+, 173
DVB-H, 181
DVB-MHP, 159
DVB-S, 109
DVB-S2, 124, 128
DVB-SH, 183
DVB-SI, 80–81
DVB-T, 115, 117, 123, 143
DVB-T2, 124, 131
E
e-AC3, 67
échantillon de sous-bande, 58
échantillonnage, 18, 20
orthogonal, 19
ECM, 91–92
efficacité spectrale, 104, 130,
199
égaliseur d’échos, 113
EIT, 80–82
embrouillage, 87
EMM, 91–92
entrelacement, 49, 98, 127
EPG, 85
ES, 69, 73
Eurocrypt, 14
F
facteur d’échelle, 59
FEC, 95, 138, 192
FECFRAME, 126–127
FEF, 132
fibre optique, 174
259
9782100520442-Livre.fm Page 260 Jeudi, 24. juin 2010 11:35 11
LA
TÉLÉVISION NUMÉRIQUE
filtre de Nyquist, 105
frames, 50, 120
G
GOP, 40, 42
granule, 62, 64
groupe d’images, 40, 42
GSE, 124
H
H264/AVC, 53
HDTV, 167
HNED, 176
I-J
iDTV, 172
IEEE1394, 213
image, 42, 49
IP, 174, 178
IPTV, 174
IRD, 135
ISDB-T, 227
ISI, 105
JPEG, 34
260
L
LCN, 85
LDPC, 126
letterbox, 15
LNC, 137
lunettes
actives, 171
passives, 171
M
macrobloc, 42
masquage
fréquentiel, 57
temporel, 57
MediaFLO, 188
MediaHighway, 155
MHEG-5, 157
MHP, 159
middleware, 151, 157
modèle psycho-acoustique,
57
[email protected], 22, 48
MPE, 181
MPE-FEC, 181
MPEG, 37, 39, 56, 63
MPEG-1, 38, 61, 69
MPEG-2, 46, 73, 76
MPEG-4.10, 53
MSB, 114
Multicrypt, 88
multiplexage, 69
MUSICAM, 62
N
NAL, 53
NIT, 80–81
niveaux, 46
NTSC, 11
O
OFDM, 115
OpenTV, 156
orthogonalité, 115
P
padding, 71
PAL, 13
PAL+, 15
PAT, 79, 82
PCR, 78
perte d’implémentation, 111
PES, 70, 73, 76, 78, 89, 135
PID, 91
PMT, 80, 83, 91
poinçonnage, 101, 123
PRBS, 96
profils, 46
PSI, 79
PTS, 70
PU, 69
PUSI, 84
PVR, 148
Q
QAM, 11, 107, 141
QCIF, 23
QEF, 95
QPSK, 108, 110, 114, 128, 138
quadrature, 107
quantification, 19, 33, 35, 56
R
rapport signal/bruit, 103,
110, 112, 130, 133
RLC, 28, 36
roll-off, 105
RST, 81
RTP, 178
S
SCR, 71
SDT, 80–81
SECAM, 12
sections, 84
séquence, 25, 41
set-top box, 135, 146
seuillage, 33, 35
SFN, 119
SIF, 22
Simulcrypt, 88
slice, 42, 48
ST, 81
STC, 71
symbol mapping, 99
symboles, 24
T
T-DMB, 187
TDMS, 218
TDS-OFDM, 166
TDT, 81
TMP, 181
TNT, 163
TNT HD, 172
ToneBurst, 203, 205
TOT, 81
TPS, 121
trame, 50, 120
tranche, 42
TSDT, 79, 83
TSR, 148
turbocodes, 186
TVHD, 24
TVoIP, 174
U-V-W
USALS, 211
VBS, 7
VCL, 53
VLC, 28, 36
VSB, 104
WSS, 16
Z
zero IF, 137
ZIF, 137
zigzag, 33, 36
Téléchargement