Matinée : état de l`art et tendances de la technologie

publicité
Excursion dans le(s) réseau(x)
Standardisation, convergence, mondialisation, banalisation et grand public. Pour Bernard Laur (Synthèse
Informatique), telles sont quelques-unes des tendances qui font évoluer un internet en voie d’universalisation.
Début 2007 en France, l’effectif des internautes est estimé à 33 millions dont 80% en haut débit. Un an plus tôt, ils étaient
29 millions à utiliser le réseau dont 15 millions en haut débit. Le niveau de « plein emploi », qui se situerait autour de 44
millions d’utilisateurs, devrait être atteint d’ici deux à trois ans. Des millions d’utilisateurs accéderont alors au réseau
exclusivement via des téléphones portables de la génération smartphone. Il faut rappeler à cet égard que les opérateurs
sont capables de renouveler le parc des téléphones mobiles à 100% en deux ans.
A l’origine d’internet, on avait affaire à une espèce de minitel à l’échelle planétaire. Il permettait à des individus de
communiquer, de consulter des données ainsi que de recourir à divers services. On était loin de son utilisation d’aujourd’hui
qui permet par exemple, avec les web services, de faire dialoguer des applications entre machines.
On observe une complète standardisation. Sans elle, pas de réseau planétaire possible. Protocoles particuliers, spécifiques
ou propriétaires n’ont plus leur place. Ceux qui n’ont pas encore disparu connaissent une rapide marginalisation.
Aujourd’hui, faire un choix non standard est une faute en matière stratégique
Tous les média et tous les services disponibles convergent vers le réseau, sous influence du marché grand public. Qu’il
s’agisse de réseau ou de poste de travail, banalisation rime avec marginalisation du marché professionnel.
Nous ne représentons plus qu’une petite partie des utilisateurs des technologies informatiques. Windows Vista est un
magnifique OS grand public. Les machines les plus puissantes sont des consoles de jeu. Tout ce qui sort aujourd’hui est fait
pour le grand public et non pour les professionnels. En technologie IP, on ne peut plus ignorer Skype. Et pour la grande
majorité de nos concitoyens, les querelles pour savoir que mettre sur le poste de travail, Windows ou Linux, n’ont aucun
sens. Les critères d’achat d’une machine sont qu’elle soit portable, puissante, connectée à internet, multimédia et, pour les
adolescents « qu’elle grave grave ». Les filles prennent volontiers un Mac, parce qu’il est beau. Plutôt que de la futilité, on
peut plutôt y voir une marque de la maturité du marché.
Sur le marché professionnel, dans les cinq ans qui viennent, nous serons sans doute totalement envahis par les technologies
grand public et vraisemblablement invités à les implanter, vu leurs caractères : performantes, bon marché et universelles.
Il faut se préparer à l’émergence d’offres grand public en matière d’équipement, poste de travail, bureautique, messagerie,
browser… tout l’attirail nous étant proposé dans des conditions très intéressantes voire sous appellation « gratuit ». Nous
serons alors placés devant un grave dilemme : que garder en interne, que laisser à l’extérieur. (Cf. encadré)
Les évolutions que nous connaissons ont deux moteurs : puissance et débit. Le doublement de la puissance des processeurs
tous les 18 mois (loi de Moore) continue grosso modo, même si elle se heurte à des limites physiques .Sur le segment qui va
de l’usager au backbone, la boucle locale, la bande passante est pour sa part multipliée par 6 tous les 18 à 24 mois à prix
constants. (loi de Gilder).
Tout converge vers un réseau unique qui, s’il garde le même nom, n’a plus grand-chose à voir avec l’internet d’il y a cinq ou
trente-cinq ans. Convergence voix-données sur les réseaux locaux puis sur les réseaux généraux, convergence du câblé et
du sans fil -voire remplacement du premier par le second sur certains segments, fourniture de services, irruption de l’image
et du multimédia sur les réseaux définitivement consacrée avec la Tnt, mixité croissante entre les situations travail/hors
travail, entre l’entreprise, les collectivités et le grand public…
Mutualisation, sous-traitance et QoS
La qualité de service risque de devenir un gros problème si l’on n’est pas capable de mettre en place, d’une part, des plans
qualité suffisamment drastiques et, d’autre part, de les contrôler.
On ne sous-traite bien que ce que l’on maîtrise parfaitement. Cela ressort quasiment de la sagesse populaire, sauf que
souvent… on sous-traite parce qu’on n’a pas la compétence suffisante en interne. Pis, un des motifs de la sous-traitance,
c’est qu’on n’y comprend rien. Alors on tente d’externaliser le problème.
« j’ai externalisé mon help desk, ça ne marche pas bien. » Certes. Mais lors de l’externalisation, on ne savait pas combien il
y avait d’appels en interne, on ne connaissait pas le type d’appel, on n’avait pas fixé le temps maximum de réponse et les
temps d’appels indiqués au prestataire étaient faux…
Dans certains cas, on ne peut pas faire autrement. On cherchera alors à démarrer par un premier contrat, sur une période
courte, tout en mettant ce laps de temps à profit pour formaliser et documenter les processus correspondants, thésauriser
sur les trafics et divers indicateurs, de manière à avoir une bonne idée des charges et à pouvoir fixer des engagements de
qualité de service sans oublier les pénalités qui vont avec.
Ce n’est pas tout : lorsqu’on cesse de taper sur la tête de l’opérateur, il n’a plus mal, le service baisse. Il faut donc
s’astreindre à des contrôles réguliers, effectués par des personnes compétentes, capables par exemple de déceler très vite
qu’un routeur ne fonctionne pas. On voit d’ailleurs ce contrôle de bout en bout, ou partiel, confié à des prestataires.
Les progrès observés en termes de convergence peut être illustrée par la décision récente de Renault de rendre de la
mobilité à ses cadres : certains n’auront plus de bureaux physiques attribués mais pourront en réserver selon leur besoin et
leur localisation. Ce qui suppose qu’ils retrouvent, où qu’ils soient, tout leur environnement de communication :voix, data,
phonie, etc. A 15 000 € annuels le bureau du bipède moyen, il s’agit naturellement d’une source d’économies considérables
des surfaces occupée, elle est estimée à 10% dans le cas de Renault.
Plus aucun frein ne peut être mis à cette convergence. Elle va au contraire s’accélérer. Il n’y a plus aucun média connu qui
ne soit géré sous forme numérique. Dès lors, il peut passer sur n’importe quel autre média, parmi lesquels le réseau, câblé
ou sans fil.
Si la convergence concerne les supports du transfert d’information, on la constate aussi côté technique. Tous les protocoles
de haut niveau du net sont les références en matière d’applications de développement, tandis que le réseau unifié voit le
triomphe de Tcp IP et d’Ethernet (Cf. encadré P.6).
Le triomphe de la consumérisation est devenu évident avec le wifi (Ethernet sans fil). C’est la première grande technologie à
avoir démarré dans le grand public dont elle marque la prise de pouvoir. La version b de la norme 802.11, faiblement
sécurisée et à bande passante limitée, était une version domestique. Il faudra attendre la version g pour avoir une version
entreprise, sécurisable et à bande passante plus élevée. Depuis 2006, la plupart de ceux qui achètent une borne wifi ont
droit à la version n, qui utilise la technologie Mimo (Multiple input multiple output), avec des débits multipliés par 6 et des
portées par 3. Mais quelles sont les entreprises où l’on peut en trouver ? Cisco a mis cette borne à son catalogue il y a
seulement quelques mois… mais la commercialisait déjà depuis deux ans sous sa marque grand public Linksys.
Dernier kilomètre : paris sur les technologies
Du côté de l’Adsl, il faut s’attendre à un arrêt. L’Adsl 2+ offre au maximum 20 Méga en débit descendant et 1.2 Méga en
débit montant. Le blocage est lié à l’infrastructure. Passer de l’Adsl 2+ au Vdsl demande d’équiper non plus les 12 000
centraux de raccordement mais de descendre au niveau des sous-centres de raccordement. Il y en a 122 000 sur le
territoire, sous la voirie pour être précis. Y mettre de l’électronique, ce qui n’est pas toujours possible, exige de lourds
travaux de terrassement et des investissements très conséquents.
France Telecom dit : nous allons passer à la Ftth (fiber to the home). Nous ferons des trous, nous tirerons de la fibre optique
et nous offrirons les 100 Méga. On peut également citer Free et l’accord qu’il a passé avec la ville de Paris pour tirer de la
fibre dans les égouts : un milliard d’investissement, trois ou quatre ans de travaux. Ce sont donc des chantiers qui vont
prendre du temps. Mais dans cinq ans, où en sera le sans-fil ? S’il offre assez de Méga, on sera bien…
Des Méga, d’ailleurs, pourquoi faire ? Faisons un rapide calcul. La télévision haute définition, la Tnt Mp4, prend 2,5 Méga de
bande passante par chaîne. La téléphonie, 8 kilo par ligne. Une connexion internet à 5 Méga, c’est déjà bien, mettons-en 10.
Prenez 100 Méga chez vous et répartissez-les. Combien de chaînes de télé, combien de connexions, combien de lignes
téléphoniques ? La taille de votre foyer est-elle assez conséquente pour épuiser les 100 Méga ? On ajoutera du monitoring
médical ? Mais cela ne concerne pas toutes les tranches d’âge. La nature ayant horreur du vide, on trouvera sans doute,
mais autant se poser la question avant, même si elle n’est pas très correcte politiquement. Finalement, la situation actuelle,
qui permet d’aller jusqu’au cinéma à la demande avec ses 18 à 20 Méga est satisfaisante.
Si l’on regarde du côté du co-axial, malgré son potentiel qu’illustrent par exemple des offres à 30 Méga en région parisienne,
on peut penser qu’il restera marginal en France. On n’y a jamais été très télévision câblée. Les entreprises du secteur ne
disposent pas de possibilités très importantes, voir par exemple les difficultés financières rencontrées par la plus importante
d’entre elles, Noos,. Le co-axial, c’est du cuivre, avec un potentiel équivalent à celui de la paire téléphonique. Mais avec un
câblage souvent plus récent. La qualité est donc en général supérieure à celle du réseau téléphonique, tout comme les
performances de l’infrastructure backbone. Mais malgré une bande passante intéressante, on a là une technologie qui
souffre de sa faible diffusion.
On peut en revanche penser que le courant porteur en ligne, le Cpl, peut représenter une alternative parfois intéressante.
On ne mentionnera pas l’utilisation du réseau électrique comme réseau local. Lorsqu’il s’agit de raccorder celui-ci à l’internet
par une prise téléphonique et un boîtier ad hoc, la solution ne tient pas face à une borne wifi. Mais au-delà du circuit
électrique indoor, on peut utiliser l’infrastructure de raccordement Edf pour distribuer internet.
L’expérimentation la plus intéressante en est actuellement menée sur 80 communes de la couronne parisienne par Mecelec
Telecom, en délégation de service public. Le double play (téléphonie et internet 1 à 5 Méga crête symétrique) devrait être
proposé à 20 € via la prise électrique. Une prise qui pourra naturellement alimenter une borne wifi.
Localement, l’opportunité doit être examinée : Edf a fréquemment une fibre noire qui passe par là. Beaucoup de câbles de
moyenne tension ont une âme de fibre optique, sans parler des robots capables d’entourer cette fibre autour des câbles qui
en sont dépourvus. La difficulté est ici de passer les transformateurs qui ont la propriété de transformer le signal en bouillie.
Le signal coût
A l’échelle du « personal area network » (PAN), Bluetooth reste tout à fait digne d’intérêt. C’est une technologie de proximité
très simple, à forte bande passante. Elle peut même être utilisée pour transférer de la vidéo d’un point d’accès à un point de
visualisation. Bluetooth est concurrencé par le « wireless Usb » (WUSB) ou « Ultra Wide Band » (UWB) d’Intel (norme
802.15.3) qui vise en outre à supplanter wifi, IrDA mais aussi le Dect en téléphonie.
A propos de convergence des technologies réseaux, il ne faut pas s’arrêter à IP mais avoir en aussi en tête celles des
bordures, les « technologies collatérales ». Les étiquettes électroniques Rfid ou RFtags en offrent un bon exemple.
Ces puces sont des composants de deux mm2 de surface, avec une mémoire réinscriptible et un transpondeur radio. Dans la
version passive, l’énergie est envoyée par le lecteur et le transpondeur lui renvoie le contenu de la mémoire. Il existe aussi
des composants actifs, avec batterie incorporée.
Dans de nombreux secteurs, on estime qu’il y a une forte convergence entre le Rfid, le sans fil, internet et la géolocalisation
par satellite. D’ici quelques années, on aura tout ça sur une puce et partout, dans le téléphone mobile, le PC portable, et
aussi dans des boîtiers dont on munira camions, brouettes et jusqu’aux balais des balayeur municipaux… et l’on pourra
géolocaliser, échanger localement, échanger avec le réseau, calculer, décider d’actions, etc.
On trouve déjà le Rfid en expérimentation : à la bibliothèque de La Ciotat, dans les poubelles de Dax, dans 60 000 arbres à
Paris, dans les jetons de casino, dans les palettes et les cartons de la grande distribution. Celle-ci attend de voir résolus
quelques problèmes liés à la dernière insertion (réflexion par l’aluminium des emballages, rôle de filtre joué par les
liquides…) pour en placer su tous les produits, ce qui devrait amener à la suppression des caisses et à la disparition des
caissières. Cette convergence ouvre la voie à de très nombreuses applications, c’est une question de créativité. On devrait
en tous cas voir se répandre largement ces nouveaux réseaux de proximité, avec une chute des prix à l’unité vers les 0.01€
d’ici 4 à 5 ans, contre 0,5€ à 1,5€ actuellement pour les Rfid passifs.
Derrière les technologies, mais souvent négligé, il y a le facteur économique. Une puce bluetooth vaut 0.5€, une puce wifi
4€, une puce de téléphonie cellulaire 25€. Si tous les prix baissent, le différentiel reste néanmoins conséquent. Jusqu’au jour
où il ne le sera plus, les coûts seront alors suffisamment faibles pour que la question ne se pose plus, on en mettra partout.
Vers la connexion permanente multi réseaux
Bluetooth, wifi, wimax, téléphonie cellulaire, Cpl ou coaxial forment des réseaux complémentaires. A l’encontre de tous ceux
pour qui : « il y a une technologie qui va prendre le pas sur les autres », on peut affirmer le contraire, avec une probabilité
de 0.9. Parce qu’il y a une multiplicité de cas concrets à résoudre, on peut parier sur une multiplicité de réseaux, assurant,
dans la plupart des cas, une couverture universelle.
La tendance sera donc celle des puces « avec tout dedans ». Voir par exemple la gamme Wanda de Texas Instruments :
Bluetooth+wifi en entrée de gamme, Edge, Umts et Gps ajoutés en haut de la gamme. Dans certains portables sortis pour
les fêtes de fin d’année, on trouve même Hsdpa, la future 3,5 G de téléphonie cellulaire, et la Tnt, le tout avec un écran
16/9.
De la part des opérateurs, il y aura des offres permettant d’utiliser les différents réseaux de façon masquée, avec une seule
facture, voire une facture couplée téléphonie-poste de travail, dans un package groupé PC-téléphone, avec deux cartes Sim
à mettre dans les machines et un roaming total.
Alors que nous ne disposons aujourd’hui sous cette appellation que de pâles revendeurs des opérateurs de télécom mobiles,
apparaîtront alors de vrais opérateurs virtuels (Mvno). Un avant-goût de ces Mvno du futur est donné par iPass qui offre,
pour une somme modique, l’accès à plus de 20 000 hots spots dans le monde, via des accords avec 300 opérateurs. L’avenir
verra sans doute la multiplication de ces courtiers de bande passante.
Toutes les technologies dans la même machine, mais quelle machine ? Un consensus se fait jour sur les perspectives
d’équipement, autour du PC portable, ou ultra-portable, et du smartphone, résultats des amours incestueux du téléphone
mobile et du Pda. Si le gagnant est le téléphone mobile, c’est à cause de son facteur de forme intéressant, tandis que
l’avantage « clavier azerty » ne tient pas. Le smartphone sera un poste de travail dérivé du PC avec deux contraintes à
résoudre : l’affichage et le clavier. Les derniers modèles sortis ont un disque dur 4 Giga, tandis que l’espace utilisé en
entreprise par un utilisateur moyen, lorsqu’on enlève les programmes pour ne laisser que les fichiers et les mails, est de 3
Giga.
Wimax concurrent du cellulaire ?
Portant la large bande là où le wifi ne peut aller, dans les zones semi-pavillonnaires ou rurales, avec une bande passante
théorique bien plus large, le wimax sera vraisemblablement une technologie de désenclavement très forte. La Chine, par
exemple, mise beaucoup sur elle pour développer d’importants programmes de télé-enseignement. Cette technologie de
boucle locale radio (lien central-abonné) fait aujourd’hui l’objet d’investissements très significatifs. S’il tient ses promesses,
le wimax entrera en concurrence avec la téléphonie cellulaire. Car, paradoxalement, seuls 10 à 15% des utilisateurs de celleci passent d’une antenne à une autre. 85 à 90% du marché pourrait donc être traités en fausse téléphonie cellulaire, en
utilisant le wimax. Derrière ses efforts pour obtenir le maximum de licences lors de l’attribution de l’été dernier, la stratégie
du groupe Bolloré pourrait bien être de devenir le quatrième opérateur de téléphonie cellulaire.
Celle-ci évolue avec un temps de retard et des bandes passantes beaucoup moins importantes. Edge, le mode data du Gprs
offre 100 à 200 kilo. Umts monte à 380 kilo. Très sophistiqué et très coûteux, il est limité aux zones à très forte densité,
soit, dans l’hexagone, les vingt et une villes les plus importantes. Son évolution vers Hsdpa devrait y être commercialisée fin
2007, autour de 1 Méga. Lors de tests dans la région lyonnaise, les 1,8 Méga ont été atteint. On est donc loin des autres
technologies, filaires et sans fil adaptées au filaire, et de leur 10 à 15 Méga.
Cependant, la marge de progression du cellulaire apparaît aujourd’hui très importante. Des technologies évoluées à partir de
Hsdpa, ou de Edge, permettent d’atteindre des bandes passantes de 10 et 100 Méga. A quelle échéance seront-elles
disponibles ? Difficile à dire et difficile de savoir, en conséquence, qui l’emportera.
En matière de télécommunications, ce ne sont pas les canaux qui sont moteurs du changement. Si l’on augmente le débit
des lignes, c’est à cause des boites que l’on trouve au bout. Elles sont soumises à la loi de Moore. On est parti, il y a
quelques années, d’une utilisation de lignes téléphoniques à 300 bauds, soit, grosso modo, 300 bits par seconde, pour
arriver à nos 18 Méga d’aujourd’hui. Cette loi de Moore s’applique à la technologie Hsdpa, comme à la technologie Edge. La
première étant très complexe, les progrès y sont de plus en plus coûteux. Edge offre au contraire une meilleure linéarité. Les
techniques Geran, qui concernent l’évolution d’Edge montrent que l’on peut monter à 1, 2, 3, 10 Méga, dans des conditions
de prix et d’infrastructure quoi s’avèrent intéressantes. D’où cette réflexion parfois entendue : « il ne faudrait pas que cela
nous refasse le coup d’Etehrnet », autrement dit d’une technologie un peu vieillotte, mais qui subit en permanence la loi de
Moore, et au bout du compte : « le canard est toujours vivant… »
IPV6 : adressage, sécurité, services
Pendant toutes ces années, le réseau aura été exclusivement un passe-paquets Tcp-IP, cette période va s’achever. La
technologie IP est une technologie très ancienne. IPv4 a 35 ans. Il ne permet pas de dépasser le milliard d’adresses, pour
des effectifs d’internautes qui se situent déjà à ce niveau. La situation est sauvée par l’adressage dynamique, mais il faut
aller au-delà. Par ailleurs IP n’offre pas de possibilités de sécurisation ni de gestion des flux, c'est-à-dire de qualité de
service.
Au départ, internet se résumait à de la messagerie et à des forum, activités hautement asynchrones et supportant une QoS
relativement modeste. Aujourd’hui, on y fait passer des fichiers, des mails, des flux applicatifs, de la téléphonie, de l’image,
bientôt du streaming, télévision et cinéma. Il est hors de question de mélanger tous ces paquets et la QoS ne peut pas se
limiter un seul niveau, qui devrait alors être le meilleur, ce qui n’est pas totalement réalisable.
La migration vers IPv6 s’avère strictement nécessaire. Déjà initiée au niveau des backbones, elle prendra de très
nombreuses années. Cette version offrira 1400 adresses IP par m2 de terre émergées ainsi que des fonctionnalités
permettant de mettre en œuvre une certaine sécurité du réseau et de la qualité de service, c'est-à-dire de différenciation des
flux.
De nouveaux protocoles comme Mpls permettent d’étiqueter les flux pour gérer séparément fichiers, messagerie, applicatifs,
téléphonie, avec des QoS et des tarifs différenciés. Mais la gestion des priorités selon ces classes s’avérera insuffisante. Pour
dix, quinze ou vingt applications spécifiques, les entreprises demanderont dix, quinze ou vingt niveaux de priorité. De fortes
sollicitations s’exercent donc pour que la QoS soit encore plus sophistiquée.
Tandis que cette couche supérieure d’optimisation se développe, on notera aussi la multiplication des services offerts sur le
réseau. au-delà du transport de paquets, pour répondre à plusieurs besoins.
Avec une bonne technicité, mais sans avoir à disposer de gros moyens, un individu peut aujourd’hui diffuser un virus qui
rendra nécessaire de soigner 20 millions de machines. Autre gros souci : le spam. On estime qu’ils concernent aujourd’hui
70% des 54 milliards d’e-mails acheminés chaque jour par le réseau. En extrapolant, dans le grand public, on pourrait d’ici
trois ans recevoir 300 spams pour un mail utile.
Comment lutter contre les virus, les spams et autres spyware ? La solution n’est pas simple lorsqu’on se rappelle que le
réseau a été créé par des altermondialistes de la technologie dont l’idéologie est proche de : « interdit d’interdire. »
Pourtant, on voit déjà discrètement converger un certain nombre de fonctions de services. Les unes sont relativement
neutres. Akamaï permet par exemple d’accélérer la diffusion vers les utilisateurs, avec 16500 serveurs de cache répartis
dans 80 pays, présents par exemple dans tous les grands centraux de France Telecom.
Frontbridge gère pour sa part la sécurité des mails (antivirus-spam-spyware). 80% des grandes entreprises françaises sont
leurs clients. Pour 1 à 2 € par boîte et par mois, tous les mails qui leur sont adressés leur arrivent après passage et
nettoyage chez Frontbridge, de même que ceux de tous les clients de Wanadoo qui ont pris les options ad hoc. De son côté,
Spamcop, ou d’autres, lisent en permanence le réseau. Dès qu’un mail présente une occurrence forte, ils blacklistent sa
source. -l’opération demande actuellement 4 minutes. D’où un problème pour les e-mailers, mais aussi pour tous ceux dont
la machine est infectée par un spyware qui utilise leur carnet d’adresses pour envoyer du pourriel. Pour peu qu’il se
déclenche fréquemment, il n’est pas rare que Spamcop les repère et déclare persona non grata les titulaires de la boite
émettrices, lesquels ne peuvent plus envoyer de mails.
Ce type de services va vraisemblablement se développer sans quoi on peut craindre que le net ne s’effondre, noyé dans un
terrible bruit de fond.
Allo, l’internet ? IP du téléphone au Centrex
« Un fil téléphone et un fil data, deux réseaux en entreprise, c’est un de trop. » Telle était depuis longtemps l’opinion
générale. D’autant plus que, depuis vingt ans, la téléphonie est numérisée dans les backbones des opérateurs, seul le
dernier kilomètre, entre le poste téléphonique et le point de raccordement, restait en analogique.
Là-dessus, on a imaginé la téléphonie sur Ip comme une téléphonie professionnelle, pour les entreprises. On a alors
beaucoup travaillé sur les standards : Protocoles de signalisation pour établir la ligne (Sip), protocoles de transport (Rtp,
Rtcp, Rtsp), format de codage et de compression (G.723). Et puis, les postes téléphoniques IP sont arrivés. Certes, leur look
était un peu soviétique et ils étaient un peu chers (plusieurs centaines d’euros). Cela dit, personne ne toussait trop.
Mais tout à coup, on assiste à un emballement du grand public. Il accepte, sur internet, des protocoles de téléphonie qui ne
sont pas les standards. Skype, pour prendre un exemple parmi d’autres, ne répond par exemple à aucun de ces standards.
Là-dessus se dessine, autour du média téléphone, une convergence que l’on n’avait pas vu venir. Regardons les offres
publiques aujourd’hui de France Telecom/Orange ou de Free qui s’appuient sur la téléphonie IP et permettent de basculer du
cellulaire, lorsqu’on est à l’extérieur, au wifi lorsque l’on rentre chez soi, empruntant alors une ligne téléphonique
« gratuite » ou quasi-gratuite, avec un roaming complet qui s’appuie sur la norme Uma.
Dans les entreprises, la question ne va pas manquer de se poser : pourquoi deux numéros, un mobile et un fixe tandis que,
à titre privé, j’ai un seul numéro et un seul appareil, que ça marche, pour une poignée d’euros tous les mois. Pourquoi payer
100 fois plus en échange de performances bien moindres ? Cela ne remet pas en cause la téléphonie sur IP mais amène à
bien définir les moyens que l’on va adopter pour la mettre en œuvre.
Auchan vient par exemple d’installer 35 000 postes, un projet qui a demandé trois ou quatre ans de travail. Mais à l’heure
où il arrive à maturité, on en vient à s’interroger. Pourquoi pas Skype ? Citons un autre exemple, celui d’une grande banque
qui figurait parmi les premiers à avoir mis en œuvre la téléphonie IP. Leur système est aujourd’hui presque amorti. Ils
pensent maintenant au coup d’après. Il y a fort à parier que leur réflexion les amènera sans doute à tout casser de
l’existant.
Pour 60 millions de CA Skype a été racheté 4 milliards de dollars par e-Bay, dernier à enchérir contre Cisco. Celui-ci, qui en
était resté à 3,9 milliards, savait, ce faisant que la téléphonie lui échappait et qu’elle ne reviendrait dans l’entreprise
qu’après passage dans le grand public (1)
Que pèsent quelques centaines de milliers de postes installés en entreprise contre les millions d’utilisateurs de Skype, 120
au dernier recensement ? Cette technologie est hors de nos standards ? Il sera néanmoins très difficile d’y résister, vu
notamment son bon marché. La téléphonie est devenue une application informatique comme une autre, elle emprunte le
grand réseau unique.
Nombreuses sont les entreprises dont le Pabx sera amorti en 2008 ou 2009. En cherchant une solution, elles découvrent le
Centrex IP dont on parle depuis 10 ans sans qu’il soulève jusque là un grand intérêt. Le Centrex IP c’est : en interne, je
passe tout en IP et je loue la fonction commutation à un opérateur qui la mutualise et peut baisser les prix de manière
drastique.
Peut-être est-ce le moment de ressortir des études sanglantes (et enterrées) sur le ROI de la téléphonie classique ? Elles la
font apparaître comme l’investissement le moins rentable de l’entreprise. Savoir faire un transfert est rare. Maîtriser la
conversation à trois relève de l’exploit. Manque d’intérêt, manque de formation…
Placez maintenant l’icône d’un téléphone sur l’écran de l’utilisateur. Le téléphone sonne ? L’icône s’agite. Clic gauche dessus.
Ça y est, c’est décroché. « Passe-moi Durand » demande l’interlocuteur. Avant : prise de tête. Maintenant : clic droit sur
l’icône, menu contextuel. 1ère ligne du pop up : « transfert ». En cliquant dessus, une comboliste apparaît avec son
ascenseur. L’utilisateur y cherche « Durand ». Le trouve. Il clique. Ça sonne chez Durand. Qui décroche. « Allo, Durand, je te
passe quelqu’un » clic gauche sur l’icône pour raccrocher. Le tour est joué. Le transfert téléphonique compte un nouvel
expert. Et sous « transfert », il y a « conférence à plusieurs ». Ce que l’utilisateur va expérimenter, avec Dupont, et Durand,
sitôt que ce dernier aura raccroché.
Durand a raccroché
La convergence des technologies, permet d’hériter d’une ergonomie qui tend à se généraliser. Depuis une douzaine
d’années, qu’on soude les utilisateurs avec des environnements Windows, il leur en reste quelque chose. On peut hésiter à
parler de qualité ergonomique. Disons plutôt qu’il y a normalisation ou standardisation de l’ergonomie. Mais le phénomène
est-il malvenu à l’heure où beaucoup de directions informatiques manifestent la crainte que ça ne lâche, côté utilisateurs. On
leur a installé tellement de trucs dont ils ne savent pas trop se servir... Manifestement, la peinture n’est pas sèche. La
prochaine couche ne tiendra pas. Et là, avec cette petite icône qui sonne et qui s’agite, l’utilisateur parvient d’emblée à une
utilisation bien meilleure que celle qu’il avait de son poste téléphonique avec son clavier compliqué, un poste qu’il se montre
tout prêt à abandonner.
Dans ces expérimentations, les utilisateurs éprouvent juste une difficulté. S’ils entendent bien leurs correspondants, à
travers leurs deux haut-parleurs stéréo, ils conservent un doute sur la bonne symétrie de l’opération. On les voit donc se
pencher en avant, inquiets de la localisation du micro(phone) avec lequel ils recherchent une plus grande proximité.
Quand tout converge vers le même média, à travers le grand réseau unique, surgit la demande d’interopérabilité. « j’ai
quatre boites j’en oublie toujours deux. Les fax arrivent à côté dans la panière, j’ai mes sms sur mon téléphone et pas
ailleurs… Est-ce que tu ne pourrais pas me mettre tout dans ma messagerie ? » Tant qu’on avait plusieurs technologies de
réseau, le téléphone d’un côté, le fax de l’autre, etc. c’était relativement difficile. A partir du moment où tout est en IP, cette
convergence devient, sinon simple à réaliser, tout au moins incontournable. Il faudra récupérer tous les événements et tous
les fichiers générés par ces différents média pour les traiter en un point unique. Voilà vers où nous mène la téléphonie vers
IP. Tout dans la messagerie, avec un journal disponible sur le poste de travail, le mobile et le téléviseur.
Le recours à une ergonomie commune permettra aux utilisateurs de mieux se débrouiller dans leurs environnements
réseaux. Il faut par exemple porter de l’attention aux nouveaux outils de gestion de présence qui donnent, à partir du
serveur d’annuaire, la situation de tous les collaborateurs de l’entreprise, comme d’autres ont la liste de leurs copains en
ligne avec Msn Messenger. Ces outils offrent aussi la liste des média disponibles pour entrer en communication avec eux. On
trouve là un parfait exemple de convergence et un développement logique, dès lors que l’on dispose de messageries,
instantanées et classiques, de la téléphonie sur IP et de la web conférence.
2010 : synchronie, pervasivité… productivité ?
Ethernet, Vdsl, Wifi, Wimax, de même qui sont hors des grands standards tels le faisceau hertzien ou satellite, en 2010,
toutes les technologies devraient se situer autour des 100 Méga, à l’exception du téléphone cellulaire. En attendant la 4G,
Hsdpa devrait plutôt se limiter à 10 Méga.
La tendance est à l’augmentation de la bande passante, vers des technologies qui permettront la vidéo puis le « temps
réel » : le réseau est partout, il prend un caractère pervasif, où que l’on passe, il peut récupérer une info et l’amener en
temps réel à un serveur.
En téléphonie classique, avec un modem 56k, on se connecte et on tire à soi l’information. On remonte les mails que l’on a
préparé, on descend les mails en attente, on va consulter un site. Puis on se déconnecte : la téléphonie est facturée à la
durée et la téléphonie est inutilisable pendant la connexion.
Après évolution vers l’Adsl, le câble, etc. on peut rester connecté, on est « always on ». L’abonnement n’est plus à la durée
mais au volume et téléphoner est devenu possible alors que l’on est connecté. Le fonctionnement du système s’inverse, du
« pull » au « push ».
Le pushmail de Blackberry ressort à la fois de la prouesse technique et du pire qui soit en matière d’efficacité personnelle,
avec ses nombreux addicts. Tous les opérateurs proposent aujourd’hui le pushmail, et cela sans qu’il soit nécessaire
d’installer un serveur spécifique chez le client. Le push sera de plus en plus utilisé. On connaît déjà les fils Rss auxquelles on
s’abonne sur des sites ou encore les confirmations de vols envoyées par les compagnies aériennes vers les mobiles. Demain,
il s’agira des administrations qui utiliseront le push dans le cadre des téléprocédures, ce qui devrait augmenter la perception
de la qualité de leur service
On assiste au passage de l’internet et des réseaux de l’asynchrone au synchrone à travers les messageries instantanées ou
le développement des web conférences. Celles-ci expliquent en bonne partie le changement du type de portables achetés en
entreprise (une caméra doit être maintenant intégrée dans le pavillon). On en attend une baisse importante des temps et
des frais de déplacement. La téléphonie, la télévision ou le cinéma sont eux aussi de parfaits exemples de diffusion
synchrone entre des serveurs et des postes (de travail). Reste à réussir à maîtriser ces développements d’une technologie
particulièrement invasive. Certaines entreprises ont déjà observé une baisse de l’efficacité et de la productivité de leurs
cadres.
(1) Pour Bernard Laur, le fondement d’internet ce sont les communautés virtuelles. Dès lors que qu’une communauté est
assez forte, il devient insupportable à ses membres d’en rester au virtuel. Avec Skype, e-Bay viserait à offrir aux membres
des communautés virtuelles qu’il rassemble au moins la possibilité de se parler, ce qui expliquerait dans une bonne mesure
cet achat.
Ethernet : le canard est toujours vivant
Lors de son apparition, avec sa misérable bande passante de 10 Mégabits sur 200 mètres, qui aurait parié qu’Ethernet,
serait toujours là une vingtaine d’années plus tard ? Aujourd’hui, les 100 Giga ont été atteint en laboratoire. Parti de
l’émission-réception de paquets sur un réseau local, on est passé au réseau général d’entreprise, puis, pour certains
opérateurs, au réseau métropolitain. D’autres attendent la stabilisation du 100 Giga pour l’installer sur leurs backbones,
adossés depuis une quinzaine d’années à des technologies Atm ou Frame Relay dont l’amortissement sera bientôt achevé.
Nous aurons alors de l’Ethernet de bout en bout. Rappelons-nous les 7 couches Osi. Dans la sept, « application », on trouve
tout simplement les grands protocoles d’internet (http, smtp, etc.), la six, « présentation », est vide, avec IP partout. La
cinq, « session », est vide. La quatre, « transport », c’est Tcp. La trois, « réseau », c’est IP. La deux, « liaison », c’est
Ethernet. Quant à la une, « couche physique », c’est du câble, du sans fil, etc., qui s’en soucie ? Reste un fondamental : les
protocoles, lorsqu’ils sont reconnus et banalisés, voient leurs coûts baisser.
Téléchargement