
Alors que nous ne disposons aujourd’hui sous cette appellation que de pâles revendeurs des opérateurs de télécom mobiles,
apparaîtront alors de vrais opérateurs virtuels (Mvno). Un avant-goût de ces Mvno du futur est donné par iPass qui offre,
pour une somme modique, l’accès à plus de 20 000 hots spots dans le monde, via des accords avec 300 opérateurs. L’avenir
verra sans doute la multiplication de ces courtiers de bande passante.
Toutes les technologies dans la même machine, mais quelle machine ? Un consensus se fait jour sur les perspectives
d’équipement, autour du PC portable, ou ultra-portable, et du smartphone, résultats des amours incestueux du téléphone
mobile et du Pda. Si le gagnant est le téléphone mobile, c’est à cause de son facteur de forme intéressant, tandis que
l’avantage « clavier azerty » ne tient pas. Le smartphone sera un poste de travail dérivé du PC avec deux contraintes à
résoudre : l’affichage et le clavier. Les derniers modèles sortis ont un disque dur 4 Giga, tandis que l’espace utilisé en
entreprise par un utilisateur moyen, lorsqu’on enlève les programmes pour ne laisser que les fichiers et les mails, est de 3
Giga.
Wimax concurrent du cellulaire ?
Portant la large bande là où le wifi ne peut aller, dans les zones semi-pavillonnaires ou rurales, avec une bande passante
théorique bien plus large, le wimax sera vraisemblablement une technologie de désenclavement très forte. La Chine, par
exemple, mise beaucoup sur elle pour développer d’importants programmes de télé-enseignement. Cette technologie de
boucle locale radio (lien central-abonné) fait aujourd’hui l’objet d’investissements très significatifs. S’il tient ses promesses,
le wimax entrera en concurrence avec la téléphonie cellulaire. Car, paradoxalement, seuls 10 à 15% des utilisateurs de celle-
ci passent d’une antenne à une autre. 85 à 90% du marché pourrait donc être traités en fausse téléphonie cellulaire, en
utilisant le wimax. Derrière ses efforts pour obtenir le maximum de licences lors de l’attribution de l’été dernier, la stratégie
du groupe Bolloré pourrait bien être de devenir le quatrième opérateur de téléphonie cellulaire.
Celle-ci évolue avec un temps de retard et des bandes passantes beaucoup moins importantes. Edge, le mode data du Gprs
offre 100 à 200 kilo. Umts monte à 380 kilo. Très sophistiqué et très coûteux, il est limité aux zones à très forte densité,
soit, dans l’hexagone, les vingt et une villes les plus importantes. Son évolution vers Hsdpa devrait y être commercialisée fin
2007, autour de 1 Méga. Lors de tests dans la région lyonnaise, les 1,8 Méga ont été atteint. On est donc loin des autres
technologies, filaires et sans fil adaptées au filaire, et de leur 10 à 15 Méga.
Cependant, la marge de progression du cellulaire apparaît aujourd’hui très importante. Des technologies évoluées à partir de
Hsdpa, ou de Edge, permettent d’atteindre des bandes passantes de 10 et 100 Méga. A quelle échéance seront-elles
disponibles ? Difficile à dire et difficile de savoir, en conséquence, qui l’emportera.
En matière de télécommunications, ce ne sont pas les canaux qui sont moteurs du changement. Si l’on augmente le débit
des lignes, c’est à cause des boites que l’on trouve au bout. Elles sont soumises à la loi de Moore. On est parti, il y a
quelques années, d’une utilisation de lignes téléphoniques à 300 bauds, soit, grosso modo, 300 bits par seconde, pour
arriver à nos 18 Méga d’aujourd’hui. Cette loi de Moore s’applique à la technologie Hsdpa, comme à la technologie Edge. La
première étant très complexe, les progrès y sont de plus en plus coûteux. Edge offre au contraire une meilleure linéarité. Les
techniques Geran, qui concernent l’évolution d’Edge montrent que l’on peut monter à 1, 2, 3, 10 Méga, dans des conditions
de prix et d’infrastructure quoi s’avèrent intéressantes. D’où cette réflexion parfois entendue : « il ne faudrait pas que cela
nous refasse le coup d’Etehrnet », autrement dit d’une technologie un peu vieillotte, mais qui subit en permanence la loi de
Moore, et au bout du compte : « le canard est toujours vivant… »
IPV6 : adressage, sécurité, services
Pendant toutes ces années, le réseau aura été exclusivement un passe-paquets Tcp-IP, cette période va s’achever. La
technologie IP est une technologie très ancienne. IPv4 a 35 ans. Il ne permet pas de dépasser le milliard d’adresses, pour
des effectifs d’internautes qui se situent déjà à ce niveau. La situation est sauvée par l’adressage dynamique, mais il faut
aller au-delà. Par ailleurs IP n’offre pas de possibilités de sécurisation ni de gestion des flux, c'est-à-dire de qualité de
service.
Au départ, internet se résumait à de la messagerie et à des forum, activités hautement asynchrones et supportant une QoS
relativement modeste. Aujourd’hui, on y fait passer des fichiers, des mails, des flux applicatifs, de la téléphonie, de l’image,
bientôt du streaming, télévision et cinéma. Il est hors de question de mélanger tous ces paquets et la QoS ne peut pas se
limiter un seul niveau, qui devrait alors être le meilleur, ce qui n’est pas totalement réalisable.
La migration vers IPv6 s’avère strictement nécessaire. Déjà initiée au niveau des backbones, elle prendra de très
nombreuses années. Cette version offrira 1400 adresses IP par m2 de terre émergées ainsi que des fonctionnalités
permettant de mettre en œuvre une certaine sécurité du réseau et de la qualité de service, c'est-à-dire de différenciation des
flux.
De nouveaux protocoles comme Mpls permettent d’étiqueter les flux pour gérer séparément fichiers, messagerie, applicatifs,
téléphonie, avec des QoS et des tarifs différenciés. Mais la gestion des priorités selon ces classes s’avérera insuffisante. Pour
dix, quinze ou vingt applications spécifiques, les entreprises demanderont dix, quinze ou vingt niveaux de priorité. De fortes
sollicitations s’exercent donc pour que la QoS soit encore plus sophistiquée.
Tandis que cette couche supérieure d’optimisation se développe, on notera aussi la multiplication des services offerts sur le
réseau. au-delà du transport de paquets, pour répondre à plusieurs besoins.