5
Introduction
Comparée aux autres supports de transmission existants, la fibre présente une atténuation
quasiment constante sur une énorme plage de fréquences (plusieurs milliers de gigahertz) et
offre ainsi l’avantage de bandes passantes gigantesques, permettant d’envisager aujourd’hui la
transmission de débits numériques très importants (plusieurs terabit/seconde) exigés par la
multiplication des services et les besoins accrus de transmission d’images et de vidéos.
Très vite également, il est apparu que les systèmes optiques permettaient, par rapport aux
systèmes sur câble coaxial de capacité équivalente, un gain notable sur la distance entre
répéteurs-régénérateurs, qui passait de quelques kilomètres à quelques dizaines de kilomètres.
À partir de 1978 furent installés des systèmes travaillant à la longueur d’onde optique de 0,8
µm, acheminant un débit compris entre 50 et 100 Mbit/s, avec un espacement entre répéteurs
de 10 km, c’est-à-dire trois fois plus environ que les systèmes sur câble coaxial de capacité
équivalente [1].
La seconde génération de systèmes de transmission sur fibre optique, apparue dans les
années 1980, découle directement de la mise au point de la fibre monomodale et du laser à
semi-conducteur à 1,3 µm, longueur d’onde pour laquelle la dispersion chromatique (c’est-à-
dire la distorsion induite sur les signaux par la propagation) est minimale. Des débits
supérieurs à 1 Gbit/s, avec un espacement entre répéteurs de plusieurs dizaines de kilomètres,
sont alors atteints. Les portées de ces systèmes sont limitées par les pertes de la fibre, 0,5
dB/km dans le meilleur cas, et l’idée apparaît alors de développer des sources émettant à la
longueur d’onde de 1,55 µm pour laquelle l’atténuation est minimale. Néanmoins, ce gain est
détruit par l’effet de la dispersion chromatique, toutes les longueurs d’onde ne se propageant
pas à la même vitesse. Cette dispersion chromatique du matériau de la fibre est beaucoup plus
forte qu’à 1,3 µm et c’est d’elle que provient alors la limitation de la bande passante et donc
du débit. Des progrès simultanés tant sur les lasers émettant sur un seul mode que sur le
milieu de transmission (fibres à dispersion décalée) apporteront des solutions à ces problèmes
et les premiers systèmes travaillant à 1,55 µm apparaîtront à la fin des années 1980, avec un
débit supérieur à 2 Gbit/s.
Apparus à la fin des années 1980 et devenus très rapidement des produits industriels, les
amplificateurs à fibre vont apporter un bouleversement considérable dans le domaine des
communications par fibre optique : insérés dans la ligne de transmission, ils permettent de
compenser l’atténuation de la fibre et donc d’augmenter la portée des systèmes de
transmission, au prix de l’addition de bruit. Utilisés comme préamplificateurs, ils augmentent
la sensibilité des récepteurs optiques. Enfin, leur bande passante énorme (30 nm et même bien
plus aujourd’hui) permet d’envisager l’amplification simultanée de plusieurs porteuses
optiques juxtaposées dans le spectre, constituant ce que l’on appelle un multiplex. Ainsi naît
le concept de multiplexage en longueur d’onde (WDM Wavelength Division Multiplexing);
chaque fibre transportant un multiplex de N canaux est alors équivalente en capacité à N
fibres transportant chacune un canal, et il est aisément concevable que cette approche permet
potentiellement d’augmenter la capacité d’un réseau de manière très importante sans modifier
son infrastructure physique. Des systèmes utilisant cette technique, pour la plupart avec un
débit de 2,5 Gbit/s par canal, sont aujourd’hui en cours d’installation par tous les grands
opérateurs mondiaux dans leurs réseaux de transport pour faire face à la croissance du trafic