Cours n°18 : Traitement, transmission et stockage de l`information

publicité
Cours n°18 : Traitement, transmission et stockage de l’information
Introduction
Suivre en direct à la télévision une compétition sportive qui se déroule à l’autre bout du monde,
envoyer un mail à un ami, transporter dans la mémoire d’un baladeur MP3 des centaines d’heures de
musique..., tous ces gestes peuvent paraître aujourd’hui anodins, voire naturels. Mais la maîtrise par
l’Homme de la transmission et du stockage de l’information ne s’est pas faite en un jour et réserve
encore sans doute nombre d’innovations futures.
1) Chaîne de transmission de l’information
1.1) Principe de la transmission de l’information
L’acte de communiquer, c'est-à-dire transmettre une information, est au centre des activités
humaines. Lorsqu’un individu veut transmettre une information à un autre en lui parlant
directement, on peut schématiser la chaîne de transmission de cette information ainsi :
Source
Canal
Récepteur
La source est ici la voix de l’individu contenant l’information à transmettre, le canal de transmission
est l’air, milieu matériel qui permet la propagation du son, et le récepteur est le système auditif de
l’interlocuteur qui va pouvoir capter le message envoyé.
1.2) Codage et décodage
Le mode de communication verbale directe atteint toutefois rapidement ses limites notamment
lorsqu’il s’agit de transmettre des informations à grande distance. L’utilisation d’instruments de
musique puissants (cor, tam-tam…) ou de signaux de fumée a permis il y a bien longtemps de
s’affranchir de cette limite. L’introduction d’un codage (et donc d’un décodage côté récepteur) est
alors devenue nécessaire afin de transmettre des messages à plusieurs kilomètres alentours.
Source
Codage
Canal
Décodage
Récepteur
Par exemple, un message d’alerte est codé en une succession déterminée de coups donnés sur un
tam-tam. Ce message codé transite par l’air (le canal) avant d’arriver aux oreilles du récepteur qui
pourra alors le décoder (à condition de connaître le code !) afin d’acquérir l’information envoyée par
la source : « alerte » !
Dr A. Sicard
CapeSup Grenoble
Page 1
2) Numérisation
2.1) Signaux analogiques et numériques
2.1.1) Signaux analogiques
Les capteurs convertissent la valeur d’une grandeur physique quelconque (pression, température,
vitesse, etc.) en un signal électrique (une tension ou une intensité) analogique.
Un signal analogique est un signal continu dont la mesure à un instant donné peut théoriquement
donner un nombre réel quelconque. Ce signal est donc mesurable à tout instant et peut prendre un
nombre infini de valeurs différentes.
Par exemple, un microphone captant un son le transforme en une tension électrique évoluant au
cours du temps. La courbe représentant ce signal est continue et présente une infinité de valeurs
différentes : il s’agit bien d’un signal analogique.
2.1.2) Signaux numériques
Un signal numérique n’est pas continu et le nombre de valeurs qu’il peut prendre n’est pas infini. On
ne peut donc pas mesurer ce signal à n’importe quel instant et cette mesure ne pourra prendre
qu’un certain nombre de valeurs différentes. Voici à quoi pourrait ressembler le signal
précédemment enregistré par le micro s’il était de nature numérique (micro USB par exemple) :
Dr A. Sicard
CapeSup Grenoble
Page 2
2.2) Fichier numérique
Pour faire subir un traitement informatique au signal (enregistrement, analyse, etc.), il est nécessaire
de disposer d’un fichier numérique qui seul pourra être traité par un ordinateur.
Un fichier numérique est une succession de nombres binaires appelés bits. Un bit (pour BInary digiT)
est le plus petit élément d’information stockable par un système numérique (ordinateur, CD, etc.).
Un bit ne peut prendre que deux valeurs (0 ou 1) correspondant à deux états possibles d’un élément
de circuit électrique (tension haute ou basse). Les informations numériques sont codées en langage
binaire.
Chaque bit pouvant prendre la valeur 0 ou 1, N bits codent 2 × 2 × … × 2 = 2𝑁 entiers de 0 à 2𝑁 −
1. Ainsi,
𝑁 = 8 bits constituent un octet qui permet de coder
256 entiers
8
de 0 à 2 − 1 = 255. En conséquence, le signal numérique ne peut prendre que des valeurs bien
définies, en nombre limité.
Par exemple, le codage en langage binaire du nombre 13 sur 8 bits est 00001101 car :
13 = 0 × 27 + 0 × 26 + 0 × 25 + 0 × 24 + 1 × 23 + 1 × 22 + 0 × 21 + 1 × 20
Le nombre de bits constituant un fichier numérique est généralement compté en multiples de l’octet.
Unité
1 kilooctet
1 mégaoctet
1 gigaoctet
1 téraoctet
Symbole
1 ko
1 Mo
1 Go
1 To
Valeur
1024 octets
1024 kilooctets
1024 mégaoctets
1024 gigaoctets
2.3) Conversion analogique-numérique
2.3.1) Principe de la conversion
Les signaux naturels (sons, images,…) sont de nature analogique, et nos capteurs sensoriels (yeux,
oreilles,…) fonctionnent eux aussi de façon analogique. Pour permettre à un système informatique
de traiter un signal en provenance d’un capteur par exemple, il faut d’abord recourir à une
conversion analogique-numérique. On doit donc procéder à la numérisation de ce signal. La
numérisation des signaux est omniprésente, car les signaux numériques peuvent être manipulés de
façon plus simple et plus fiable. De plus un signal numérisé peut être transmis plus rapidement et son
stockage requiert moins de place que celui d’un signal analogique.
Pour numériser un signal analogique 𝑠(𝑡), c’est-à-dire le transformer en un fichier numérique, il faut
recourir à un convertisseur analogique-numérique ou « CAN ». Cette numérisation comporte deux
étapes : l’échantillonnage et la quantification.
2.3.2) Echantillonnage
L’échantillonnage consiste à capturer les valeurs prises par un signal analogique à intervalle de temps
régulier. Le CAN opère donc un échantillonnage du signal 𝑠(𝑡) en prélevant à intervalle de temps
régulier 𝑇𝑒 , les valeurs 𝑠(𝑛 𝑇𝑒 ) où 𝑛 est un entier.
Dr A. Sicard
CapeSup Grenoble
Page 3
La fréquence d’échantillonnage, exprimée en hertz, est le nombre de valeurs capturées par le CAN
par seconde. La fréquence d’échantillonnage s’exprime comme :
1
𝑓𝑒 =
𝑇𝑒
Elle doit être suffisamment grande pour pouvoir reconstituer convenablement les variations du
signal analogique d’origine. Ainsi, plus cette fréquence est élevée et plus le signal numérique sera
précis.
Si la fréquence d’échantillonnage est insuffisante, on perdra une grande partie des informations
fournies par le signal analogique original. On parle alors de sous-échantillonnage.
Ainsi, si on veut utiliser un signal échantillonné, il faut être sûr que celui-ci contienne toute
l'information du signal analogique d'origine. Il est souvent commode de considérer celui-ci comme
une somme de sinusoïdes (cf. analyse spectrale). Or il est intuitivement évident qu'une perte
d'information se produit si le pas d'échantillonnage est trop grand par comparaison avec les périodes
en cause, la fréquence d'échantillonnage étant trop faible par rapport aux fréquences considérées.
Théorème de Shannon
Pour qu'un signal ne soit pas perturbé par l'échantillonnage, la fréquence d'échantillonnage doit être
supérieure au double de la plus haute fréquence 𝑓𝑚𝑎𝑥 contenue dans le signal. Cette fréquence
limite s'appelle la fréquence de Nyquist.
La fréquence d’échantillonnage 𝑓𝑒 doit donc vérifier :
𝑓𝑒 ≥ 2𝑓𝑚𝑎𝑥
L’intervalle de temps minimum entre deux prises de mesure correspondant à cette condition est :
1
𝑇𝑒 ≤
2𝑓𝑚𝑎𝑥
2.3.3) Quantification
A chacune des dates d’échantillonnage, le CAN opère en outre une quantification : il produit 𝑁 bits
qui représentent la valeur du signal analogique 𝑠(𝑛 𝑇𝑒 ). Dans une gamme [𝑠𝑚𝑖𝑛 ; 𝑠𝑚𝑎𝑥 ], le CAN va
faire appel à 2𝑁 niveaux de quantification pour coder les valeurs du signal.
Dr A. Sicard
CapeSup Grenoble
Page 4
Par exemple, si 𝑁 = 3 bits, 𝑠𝑚𝑖𝑛 correspond au niveau de quantification codé par 000 et 𝑠𝑚𝑎𝑥 celui
codé par 111.
Quantifier la valeur du signal 𝑠(𝑛 𝑇𝑒 ), c’est définir un nombre binaire dont le niveau est le plus
proche possible de 𝑠(𝑛 𝑇𝑒 ).
Sur la figure suivante, le niveau le plus proche de 𝑠(𝑛 𝑇𝑒 ) correspond au nombre binaire 101 (5 en
décimal).
La quantification du signal analogique va donc introduire une perte d’information.
La plus petite variation de tension que peut repérer un CAN est appelée résolution ou pas du
convertisseur. Le pas de quantification est donné par :
Δ𝑠 =
𝑝𝑙𝑎𝑔𝑒 𝑑𝑒 𝑚𝑒𝑠𝑢𝑟𝑒 𝑠𝑚𝑎𝑥 − 𝑠𝑚𝑖𝑛
=
2𝑁 − 1
2𝑁 − 1
Plus 𝑁 sera grand et meilleure sera la qualité de la quantification. Si 𝑁 est fixé, par construction du
CAN par exemple, c’est 𝑠𝑚𝑎𝑥 − 𝑠𝑚𝑖𝑛 qui doit être le plus faible possible. Cela peut être réalisé en
choisissant, parmi celles possibles, la gamme [𝑠𝑚𝑖𝑛 ; 𝑠𝑚𝑎𝑥 ] encadrant au plus près l’évolution du
signal analogique.
De manière générale, on pourra retenir que la qualité de la conversion analogique-numérique
augmente avec la fréquence d’échantillonnage et le nombre de bits de numérisation.
3) Images numériques
3.1) Création d’un fichier image à partir d’une image
Contrairement aux images réelles, constituées d’une infinité de points pouvant avoir un nombre
infini de couleurs, les images manipulables à l’aide de l’informatique sont numériques. Un appareil
photographique numérique, tout comme un scanner assure la numérisation d’une image. Pour cela,
l’appareil découpe l’image en un quadrillage ou trame. Chaque case s’appelle pixel (de l’anglais
picture element). A chaque pixel, on affecte un nombre binaire correspondant à la couleur de la case.
Un fichier image est ensuite produit qui permet d’avoir accès au nombre binaire associé à chaque
pixel.
La résolution d’un scanner est une mesure de la précision de la numérisation et s’exprime en point
par pouce (ppp) où 1 pouce vaut 2,54cm.
Dr A. Sicard
CapeSup Grenoble
Page 5
Par exemple, la numérisation d’une feuille A4 (21,0 cm x 29,7 cm) en 300 ppp correspond à une
trame de
300
×
2,54
21,0 = 2480 pixels sur
300
×
2,54
29,7 = 3508 pixels soit un fichier numérique de
2480 × 3508 = 8,70 × 106 pixels = 8,7 𝑀𝑝𝑖𝑥𝑒𝑙𝑠.
3.2) Codages d’un fichier image
3.2.1) Codage en niveaux de gris
Dans ce mode de codage, on associe à chaque pixel une valeur qui correspond à un niveau de gris. A
chaque pixel est donc affecté un nombre binaire variant de 0 pour la couleur noir à 2𝑁 − 1 pour le
blanc, 𝑁 étant le nombre de bits pour chaque pixel.
Par exemple, si chaque pixel est codé par un octet, il en résulte 28 = 256 niveaux de gris. En
reprenant l’exemple de la numérisation de la feuille A4 du §3.1 la place occupée par le fichier image
8,70×106
serait de 8,70 × 106 × 1 𝑜 = 1024×1024 𝑀𝑜 = 8,30 𝑀𝑜.
3.2.2) Codage RVB
Le codage RVB (rouge, vert, bleu) est le codage le plus utilisé pour les images numériques en
couleurs. Le principe repose sur la synthèse additive des couleurs : on peut obtenir une couleur
quelconque par addition de trois couleurs primaires en proportions convenables. Pour coder les
couleurs d’un pixel dans le système RVB, le fichier image associe à chaque pixel 3 nombres de 𝑁 bits,
un pour chaque couleur primaire. Au total, 3𝑁 bits sont donc utilisés pour le codage de la couleur
d’un pixel. Ainsi pour un codage RVB sur 24 bits, le nombre de couleurs pouvant être codées est de
28 = 256 par couleur primaire, donc au total 28 × 28 × 28 = 16 777 216 couleurs disponibles.
Comme la différence de nuance entre deux couleurs très proches dans ce mode de représentation
est quasiment imperceptible pour l’œil humain, on considère que ce système permet une restitution
exacte des couleurs, c’est pourquoi on parle souvent de couleurs vraies.
Le codage en niveaux de gris peut être obtenu à partir du codage RVB en attribuant la même valeur
aux trois couleurs rouge, vert et bleu. Plus la valeur est faible et plus le gris sera sombre.
En reprenant à nouveau l’exemple de la numérisation de la feuille A4 du §3.1 la place occupée par le
fichier image avec un codage RVB 24 bits serait de 8,70 × 106 × 3 𝑜 =
8,70×106 ×3
1024×1024
𝑀𝑜 = 24,89 𝑀𝑜.
3.2.3) Création d’une image à partir d’un fichier image
La reproduction d’une image sur un écran est effectuée par l’allumage indépendant de chaque pixel.
En fait, chaque pixel d’un écran est divisé en trois sous-pixels rouge, vert et bleu. La résolution d’un
écran est une mesure de la précision de l’affichage et s’exprime en pixel par pouce (ppp).
L’impression sur papier d’une image numérique faisant apparaître des points, la résolution de
l’imprimante, qui mesure la précision de l’impression, est donnée en nombre de points par pouce
(ppp).
Dr A. Sicard
CapeSup Grenoble
Page 6
4) Stockage de l’information
4.1) Supports de stockage
Le stockage de l’information sous forme de données numériques peut se classer en trois catégories :
le stockage magnétique (disques durs mécaniques, bandes…), le stockage électronique (clés USB, SSD
ou Solid-State Drive…) et le stockage optique. Ce dernier eut en 1982 comme premier représentant
le CD audio. Il a ouvert la voie à de nombreux supports de stockage optique comme le CD-ROM, le
DVD, le Blu-Ray…
4.2) Stockage optique
4.1) Lecture des données
Un disque optique est une mince galette plastique. Les informations y sont codées par une
succession de creux (les alvéoles ou pits), disposés le long d’une piste. Cette piste forme une spirale
sur une plaine (ou land) recouverte de polycarbonate.
La lecture du disque s’effectue grâce à un faisceau lumineux délivré par un laser, focalisé à l’aide
d’une lentille convergente sur une piste. La lumière est réfléchie puis récupérée par un détecteur
(une photodiode), capable de convertir le signal lumineux en un signal électrique. Une succession
d’alvéoles le long d’une piste défile devant le faisceau laser grâce à la rotation du disque.
Dr A. Sicard
CapeSup Grenoble
Page 7
La profondeur des trous est choisie de telle sorte que l’onde lumineuse réfléchie par une plaine et
celle réfléchie par une alvéole sont en opposition de phase. Il y a ainsi interférence destructive entre
ces deux ondes lors du passage du faisceau lumineux d’une alvéole à la plaine (ou le contraire),
appelé front. Chaque front est transformé en une information binaire égale à 1. En dehors d’un front,
l’information binaire est égale à 0. La longueur minimale d'une plaine ou d'une alvéole correspond à
001 et la longueur maximale à 00000000001.
4.2) Capacités de stockage
Le faisceau laser focalisé sur la surface réfléchissante du disque n’est pas ponctuel : du fait de la
diffraction, c’est une tache de diamètre 𝑑 proportionnel à la longueur d’onde 𝜆 du laser dans le
vide. On a :
𝜆
𝑑 = 1,22 ×
𝑛0 sin 𝑖0
où 𝑛0 est l’indice du milieu de propagation et 𝑖0 l’angle du rayon le plus écarté de l’axe optique
entrant dans la lentille avec 𝑑 et 𝜆 en 𝑚.
Le produit 𝑛0 sin 𝑖0 est appelé « ouverture numérique de l’objectif » et généralement noté O.N.
La capacité de stockage d’un disque est égale au nombre d’informations binaires qu’il peut contenir,
en mégaoctets ou gigaoctets. Cette capacité de stockage est d’autant plus élevée que la longueur
d’onde 𝜆 du laser qui lit le disque optique est petite. Effectivement, en gardant une surface
équivalente à celle du CD audio, on peut augmenter la capacité de stockage en diminuant le
diamètre du spot : il faut alors diminuer la longueur d’onde du laser utilisé et/ou augmenter
l’ouverture numérique de l’objectif utilisé. Certaines technologies exploitent plusieurs couches dans
le même disque, augmentant ainsi la capacité de stockage.
Dr A. Sicard
CapeSup Grenoble
Page 8
4.3) Ecriture des données
On distingue :
- les disques pressés par l’industrie, où les données sont stockées sous forme d’alvéoles
creusées dans une plaine ;
- Les disques gravés par un graveur d’ordinateur par exemple, où des zones opaques créées
par un laser d’écriture dans une couche de matériau photosensible remplacent les alvéoles.
Les CD-ROM ou DVD-ROM sont pressés. Les disques optiques nommés CD-R ou DVD-R sont gravés et
enregistrables une fois, tandis que les CD-RW ou DVD-RW sont enregistrables un certain nombre de
fois : une impulsion laser change l’état physique de la couche photosensible, pour la rendre à
nouveau transparente avant d’effectuer une nouvelle gravure.
5) Transmission de l’information
5.1) Procédés physiques de transmission
Une fois codée et modulée, l’information à transmettre se trouve sous la forme d’une onde
électromagnétique. La transmission peut être guidée par un support physique (câble électrique, fibre
optique) ou être libre (transmission hertzienne, ondes lumineuses).
5.1.1) Propagation guidée
La propagation guidée utilise un guide d’onde, appelé canal de transmission, dans lequel l’onde se
propage.
Un câble électrique ou une fibre optique sont des guides d’ondes par exemple.
La bande passante du guide d’onde correspond à l’intervalle de fréquences pour lesquelles la qualité
du signal transmis par ce guide est considérée comme satisfaisante. Largeur de cette bande passante
s’exprime en hertz.
5.1.1.1) Transmission par câble à paire torsadée
Le câble à paire torsadée est constitué de deux fils de cuivre dans un isolant enlacés en torsade afin
de limiter les phénomènes parasites. Ce câble est employé en informatique, en particulier pour le
transfert à haut débit, mais aussi pour les lignes téléphoniques
5.1.1.2) Transmission par câble coaxial
Un câble coaxial est constitué d’un conducteur central, appelé « âme » et d’une tresse métallique,
appelée masse et séparés par un isolant plastique, la « gaine ». En englobant l'âme, la tresse joue le
rôle d'une cage de Faraday, atténuant grandement la réception de rayonnements extérieurs et
l’échappement de l’onde électromagnétique. Le câble coaxial est donc faiblement sensible aux
perturbations électromagnétiques extérieures. Son coût supérieur le limite aujourd’hui aux
Dr A. Sicard
CapeSup Grenoble
Page 9
transmissions à longue distance (de l’ordre du kilomètre) ou aux transmissions de signaux très
sensibles aux interférences (signaux vidéo ou audio…).
Âme en cuivre
Isolant
Tresse
Isolant externe
5.1.1.3) Transmission par fibre optique
Dans le canal de transmission qu’est la fibre optique, les informations circulent sous la forme d’ondes
lumineuses.
Une fibre optique est composée d’un milieu transparent central d’indice 𝑛1 , le « cœur » entouré
d’une « gaine » d’indice 𝑛2 . Le tout est inséré dans un revêtement plastique de protection. Les
indices de réfraction du cœur et de la gaine diffèrent avec 𝑛1 > 𝑛2. La surface limitant le cœur et la
gaine forme un dioptre sur lequel le rayon lumineux se réfléchit. Ainsi, cette différence d’indice
conduit, sous certaines conditions d’incidence, à une réflexion totale des rayons lumineux, qui vont
ainsi se propager dans la fibre.
On distingue deux types de fibres optiques suivant la propagation de la lumière dans la fibre :
- les fibres monomodes dans lesquelles la lumière se propage en ligne droite selon un seul
mode c’est-à-dire un seul trajet lumineux.
- Les fibres multimodes qui ont la caractéristique de pouvoir transporter plusieurs modes.
5.1.1.3.1) Fibre multimode
Il existe plusieurs types de fibres multimodes.
Fibre multimode à saut d’indice
Les fibres à saut d’indice comportent un cœur d’indice 𝑛1 constant et une gaine d’indice 𝑛2 . Les
rayons subissent des réflexions successives et leur trajet est supérieur à la longueur de la fibre. Ainsi,
Dr A. Sicard
CapeSup Grenoble
Page 10
des radiations émises simultanément peuvent avoir des durées de trajet différentes. Le signal de
sortie est donc dégradé par rapport au signal d’entrée.
On sait aujourd’hui limiter le phénomène de dispersion modale en utilisant des fibres plus
sophistiquées comme les fibres à gradient d’indice.
Fibre multimode à gradient d’indice
L'indice de réfraction varie continument entre le cœur et l'extérieur. L'indice de réfraction 𝑛 = 𝑐/𝑣
est de plus en plus faible au fur et à mesure que l’on s'éloigne de l'axe. La vitesse est donc plus
grande lorsqu’on s'éloigne de l'axe alors que la distance parcourue est plus élevée. Par conséquent
ces 2 paramètres font que des rayons émis au même instant arrivent à peu près au même moment
en sortie de la fibre.
Dr A. Sicard
CapeSup Grenoble
Page 11
Fibre monomode
Les fibres monomode ne transmettent le signal que sur un seul mode. Elles ne peuvent être utilisées
qu’en ligne droite. Elles sont préférées aux fibres multimodes pour des plus longues distances et/ou
des plus hauts débits. De plus le signal n’est pas étalé temporellement en sortie et elles sont moins
épaisses du fait de la finesse de leur cœur. Elles sont utilisées dans les câbles sous-marins
intercontinentaux. Les fibres multimodes ne sont utilisées que pour les réseaux locaux.
5.1.2) Propagation libre
À l’inverse des transmissions guidées, les transmissions libres ont lieu sans support confinant la
propagation. Cette propagation peut donc se faire dans l’atmosphère. Selon les fréquences 𝑓
utilisées, et les longueurs d’ondes associées 𝜆, plusieurs bandes sont définies.
La propagation libre est exploitée en particulier par la radio et la télévision hertzienne, ainsi que par
les réseaux sans fils de téléphonie (gsm) ou informatique (wifi).
La propagation libre permet à un émetteur d’envoyer à de nombreux récepteurs une information
sans utiliser de fil. Elle reste toutefois sensible aux perturbations.
Un canal de transmission pour une transmission hertzienne est défini par une bande de fréquence
(en Hz) dont la largeur se nomme bande passante du canal.
Des systèmes émettant simultanément dans des bandes de fréquences identiques peuvent se gêner
mutuellement. Pour éviter tout brouillage, les canaux de transmission doivent donc être partagés.
Ainsi, la propagation libre doit être encadrée par une autorité de régulation qui régit l’attribution et
l’utilisation de canaux.
5.2) Caractéristiques d’une transmission
5.2.1) Signal et bruit
Toute transmission implique la superposition au signal transmis de perturbations non désirées,
appelées bruit ou parasites. Le bruit gêne la bonne réception du signal. Il dépend des caractéristiques
du canal de transmission.
Dr A. Sicard
CapeSup Grenoble
Page 12
En un endroit de la chaîne de transmission, le rapport signal sur bruit est le quotient sans dimension
de la puissance du signal 𝑃𝑠 sur celle du bruit 𝑃𝑏 :
𝑃𝑠
𝑃 et 𝑃𝑏 en 𝑊
𝑟𝑠𝑏 =
| 𝑠
𝑟𝑠𝑏 sans unité
𝑃𝑏
Ce rapport peut aussi s’exprimer en décibel (dB) :
𝑃𝑠
𝑃 et 𝑃𝑏 en 𝑊
𝑟𝑠𝑏𝑑𝐵 = 10 log ( )
| 𝑠
𝑟𝑠𝑏𝑑𝐵 en dB
𝑃𝑏
5.2.2) Atténuation
La puissance du signal reçu 𝑃𝑟 est plus faible que celle du signal émis 𝑃0 : il y a affaiblissement du
signal et on dit que la transmission se fait avec une certaine atténuation. En particulier, la puissance
d’un signal le long d’un canal de transmission homogène (un câble coaxial, une fibre optique ou bien
l’atmosphère pour les ondes hertziennes) décroit de façon exponentielle avec la distance 𝑑 séparant
l’émetteur et le récepteur.
𝑃𝑟 et 𝑃0 en 𝑊
𝑑
𝑑
et 𝐿 en 𝑚
−
𝑃𝑟 = 𝑃0 𝑒 𝐿 = 𝑃0 𝑒 −𝛼𝑑
|
1
𝛼=
en 𝑚−1
𝐿
L est une distance caractéristique de l’atténuation de la transmission : pour une même distance 𝑑
séparant l’émetteur et le récepteur, plus 𝐿 est grande, moins le signal est atténué. Le coefficient
1
d’atténuation linéaire 𝛼 = 𝐿 s’exprime en 𝑚−1.
L’atténuation en décibel 𝐴𝑑𝐵 est définie par :
𝑃𝑟
𝐴𝑑𝐵 = −10 log ( ) = 𝛼𝑑𝐵 𝑑 > 0
𝑃0
|
𝐴𝑑𝐵 en 𝑑𝐵
𝛼𝑑𝐵 en 𝑑𝐵 ∙ 𝑚−1
5.2.3) Débit binaire
Les signaux numériques sont constitués d’une suite de bits, des nombres binaires.
Le débit binaire ou bitrate est la quantité d’information qui transite par unité de temps sur un canal
de transmission. Il s’exprime en bits par seconde (bps).
Par exemple, les ports USB autorisent un débit binaire de 12 𝑀𝑏𝑖𝑡 ∙ 𝑠 −1 en ce qui concerne l’USB1
soit 1,43 𝑀𝑜/𝑠, et 480 𝑀𝑏𝑖𝑡 ∙ 𝑠 −1 pour l’USB2 soit 57,22 𝑀𝑜/𝑠.
Le débit binaire d’un canal de transmission est limité en particulier par la largeur de sa bande
passante.
Dr A. Sicard
CapeSup Grenoble
Page 13
Téléchargement