Polytechnique - La Jaune et la Rouge

publicité
LA JAUNE ET LA ROUGE
REVUE MENSUELLE DE LA SOCIÉTÉ AMICALE DES ANCIENS ÉLÈVES DE L’ÉCOLE POLYTECHNIQUE
L A P H Y S I Q U E AU X X I E S I È C L E
EUTELSAT WA.
© FRANCE TÉLÉCOM
La Jaune et la Rouge,
revue mensuelle de la Société amicale
des anciens élèves de l’École polytechnique
Directeur de la publication :
Pierre-Henri GOURGEON (65)
Rédacteur en chef :
Jean DUQUESNE (52)
Rédacteur conseil :
Alain THOMAZEAU (56)
Secrétaire de rédaction :
Michèle LACROIX
Éditeur :
SOCIÉTÉ AMICALE DES ANCIENS ÉLÈVES
DE L’ÉCOLE POLYTECHNIQUE
5, rue Descartes, 75005 Paris
Tél. : 01.56.81.11.00
Mél : [email protected]
Fax : 01.56.81.11.01
Abonnements, Annuaire, Cotisations :
01.56.81.11.15
Annonces immobilières : 01.56.81.11.11
Fax : 01.56.81.11.01
Bureau des Carrières : 01.56.81.11.14
Fax : 01.56.81.11.03
Rédaction :
5, rue Descartes, 75005 Paris
Tél. : 01.56.81.11.13
Mél : [email protected]
Fax : 01.56.81.11.02
Tarif 2005
Prix du numéro : 8 euros
Abonnements :
10 numéros par an : 33 euros
Promos 1995 à 1998 : 25 euros
Promos 1999 à 2001 : 17 euros
Publicité :
FFE, 18, AVENUE PARMENTIER
BP 169, 75523 PARIS CEDEX 11
TÉLÉPHONE : 01.53.36.20.40
Impression :
EURO CONSEIL ÉDITION
LOIRE OFFSET PLUS
Commission paritaire n° 0109 G 84221
ISSN n° 0021-5554
Tirage : 12 500 exemplaires
N° 604 – AVRIL 2005
5
5 Éditorial de Maurice BERNARD (48), ancien professeur de physique
à l’École polytechnique
7 Avant-propos, 2005, année mondiale de la physique
par Gabriel CHARDIN, DAPNIA, CEA Saclay
8 L’étrangeté du monde quantique
par Roger BALIAN (52), membre de l’Académie des sciences
14 Nanosciences et nanotechnologies
par Jean-Yves MARZIN (75), directeur du Laboratoire de photonique
et de nanostructures (LPN), Marcoussis
19 Recherches et enjeux en physique des plasmas
par Jean-Marcel RAX, professeur à l’Université Paris XI,
directeur du Laboratoire de physique et technologie des plasmas (LPTP),
École polytechnique
24 La physique des particules
par Bruno MANSOULIÉ (75), Commissariat à l’Énergie atomique, Saclay
29 Évolution du climat : le témoignage des glaces polaires
par Jean JOUZEL, directeur du Laboratoire des sciences du climat
et de l’environnement (LSCE)
34 Les tours de passe-passe des topoisomérases
par Gilles CHARVIN, Kerr NEUMAN, David BENSIMON et
Vincent CROQUETTE, Laboratoire de physique statistique,
École normale supérieure, et Terence STRICK, Institut Jacques Monod,
Université Paris VII
LIBRES PROPOS
39
39 Les polytechniciens et le développement de la physique
par Jean-Claude TOLEDANO (60), président du Département
de physique de l’X
41 Courrier des lecteurs
T É L É C O M M U N I C AT I O N S
43
43 Les télécommunications et le XXIe siècle : une révolution en marche
par Didier LOMBARD (62), président-directeur général de France Télécom
48 La mutation des réseaux
par Jean-Philippe VANOT (72), directeur exécutif Réseaux, Opérateurs et
Système d’information, France Télécom
53 Les réseaux multiservices
par Patrice COLLET (65), directeur Architectures et planification,
France Télécom, et Jean CRAVEUR, Direction Architectures et
planification, France Télécom
57 Réseaux de télécommunications et services de contenus : l’addition de
forces complémentaires aux services des clients
par Patricia LANGRAND (83), directeur exécutif, agrégation des contenus,
France Télécom
C O L L È G E D E L’X
63
63 Prochains séminaires
V I E D E L’ É C O L E
68
68 Polytechnique : un campus en pleine évolution
par Yannick d’ESCATHA (66), président du Conseil d’administration de l’École polytechnique
et le général Gabriel de NOMAZY, directeur général de l’École polytechnique
V I E D E L’ASSOCIATION
69
69 Procès-verbal de la réunion du Conseil d’administration de l’AX du 16 décembre 2004
70 Cotisation 2005
72 Le Grand Prix de l’Innovation Chéreau-Lavet, prix de l’Académie des technologies,
Prix Pierre Faurre 2005,
Rectificatif,
Réunion scientifique dans le cadre de l’année de la physique
73 Vie des promotions
Groupes X,
Carnet professionnel,
Géostratégies 2000
74 GPX
75 Carnet polytechnicien
ANNONCES
77 Bureau des carrières
79 XMP-Entrepreneur
80 Autres annonces
Comité éditorial
de La Jaune et la Rouge :
Pierre LASZLO,
Gérard PILÉ (41),
Maurice BERNARD (48),
Michel HENRY (53),
Michel GÉRARD (55),
Nicolas CURIEN (70),
Bruno BENSASSON (92).
77
ÉDITORIAL
de Maurice Bernard (48),
ancien professeur de physique à l’École polytechnique
BEAUTÉ DE LA PHYSIQUE
Dans l’histoire de la pensée scientifique, 1905 est une date mythique. En proclamant
que 2005 serait l’année mondiale de la physique, l’Unesco a souligné le caractère
exceptionnel de ce millésime, tout en attirant l’attention universelle sur un siècle de progrès.
La Jaune et la Rouge a, naturellement, souhaité se faire l’écho de cette célébration.
Qu’est-ce que la physique aujourd’hui pour un polytechnicien ? Le souvenir d’une des
épreuves du concours d’entrée ? La réminiscence de feuilles de cours avalées avec plus
ou moins d‘appétit, rue Descartes ou sur le Plateau ? Ou encore, pour certains d’entre
nous, une discipline scientifique devenue métier, passion même, tant sa beauté saute
aux yeux ? Cet intérêt éminemment divers que les lecteurs de La Jaune et la Rouge
portent à la physique constitue un défi qu’il convenait de relever, d’autant plus que
l’engouement des jeunes pour les sciences décline, en France, comme d’ailleurs dans
les autres pays développés. Notre ami Gabriel Chardin, encouragé par Roger Balian et
Édouard Brézin, a droit à nos remerciements et à nos félicitations pour avoir su réunir
et coordonner les remarquables contributions à ce numéro, toutes dues à des scientifiques
français de grand talent.
Au moment où le XIXe siècle, celui de l’industrialisation rapide de l’Europe, cède la place
au XXe, le siècle des barbaries modernes, plusieurs énigmes redoutables se posent aux
physiciens. La lumière, désormais bien apprivoisée, avait déployé sa nature ondulatoire
tandis que le champ électromagnétique qui en était la substance même obéissait à des
équations aux dérivées partielles linéaires aux solutions connues. Soudain, l’aspect
corpusculaire de la lumière, abandonné depuis longtemps et apparemment contradictoire
avec son évidente nature ondulatoire, resurgit. En même temps, et pour d’autres raisons,
le support des ondes électromagnétiques, l’éther, devient un concept mystérieux qui contredit
la conception que, depuis bien longtemps, l’homme se fait de l’espace et du temps. À la
même époque, atome, molécule, électron sont des hypothèses commodes, vraisemblables,
mais personne ne sait bien quelle réalité se cache derrière les idées.
En 1905, un jeune inconnu, Albert Einstein, frappe trois coups éclatants dont l’écho
retentit encore un siècle plus tard :
• pour comprendre l’effet photoélectrique il faut admettre que la lumière est absorbée
par quantas, ces grains de lumière dont, à son corps défendant, quelques années plus
tôt, Max Planck avait dû, pour expliquer le rayonnement du corps noir, admettre
l’existence,
• l’espace et le temps, pour deux observateurs en mouvement rectiligne uniforme l’un
par rapport à l’autre, sont relatifs puisqu’ils se transforment l’un en l’autre de manière
différente,
• l’explication du mouvement brownien donne à l’existence des molécules l’évidence
d’une observation au microscope.
LA JAUNE ET LA ROUGE – AVRIL 2005
5
Ces avancées, et quelques autres, ouvrent la voie à un siècle de développement prodigieux
de la physique sous tous ses aspects :
• les théoriciens, plus proches que jamais des mathématiciens, imaginent des concepts
nouveaux pendant que les expérimentateurs, auxquels la technique apporte des moyens
d’une puissance inouïe, s’efforcent peu à peu de les valider ou de les réfuter,
• les diverses branches de la physique contribuent au développement et parfois au
bouleversement de toutes les sciences de la nature : mécanique, chimie, biologie,
astrophysique, géologie, etc.,
• de ces progrès résultent des applications pratiques, stupéfiantes et inquiétantes à la
fois. Santé, longévité, biens matériels, civilisation de la connaissance changent la société,
mais les menaces nucléaires, terroristes, écologiques mettent en question l’avenir même
de l’espèce.
Le XIXe siècle avait vu grandir, héritée des Lumières, une foi en la Science que confortent
les premiers pas de la physique. Pourtant, lorsque Jules Verne meurt, justement en
1905, le rêve de progrès qu’il incarne ne va pas tarder à se dissiper.
Le XXe siècle n’est pas, pour la Science, le siècle d’or qu’il aurait pu être. Les succès
mêmes de cette dernière ont mis en évidence les formidables dangers que l’action
technique de l’homme fait désormais peser sur son propre avenir, avec pour conséquences
les peurs, la superstition, l’astrologie, l’occultisme, etc. La Science, largement redevable
à la physique de ses progrès incessants n’est, aujourd’hui, ni suffisamment comprise
par la société, ni réellement reconnue par l’opinion. Jamais notre société n’a autant
reposé sur la “ Techné ”, au sens que les Grecs donnaient à ce mot, alors que recule,
chez les jeunes, la curiosité pour la science et la technique. Or qui peut douter que les
progrès de l’humanité viennent de la connaissance au sens large, que le développement
durable s’appuie sur le progrès technique et que l’écologie ne peut se construire contre
la science ? L’Homme aurait-il une chance de sauver sa planète sans la connaissance ?
Le paradoxe est que, dans une fraction significative de l’opinion publique de la plupart
des pays développés, progressent des croyances rétrogrades, des comportements
irrationnels, que diminuent la curiosité technique et l’attrait des jeunes pour les carrières
scientifiques, bref que la confiance en la physique s’effrite.
La beauté de la physique serait-elle la beauté du diable ? Ou plutôt la beauté de
l’inconnaissable ? Ceux qui comme moi, dans les années 1950, ont appris la Mécanique
quantique dans l’inoubliable ouvrage d’Albert Messiah se souviennent des épigraphes
qui en ornaient les différents chapitres et peut-être, notamment, de celle qui annonçait
les éléments de mécanique quantique relativiste : “ Je suis noire et pourtant je suis
belle… ” (Cantique des cantiques).
Je suis sûr que de nombreux lecteurs seront sensibles à la beauté de la physique
d’aujourd’hui, beauté que les textes qui suivent auront contribué, je l’espère, à rendre
moins secrète et plus accessible. Un souhait pour conclure : passé l’année de la physique,
La Jaune et la Rouge ne pourrait-elle aborder le thème du regard que portent la société
et notamment les jeunes sur la science et la technique ?
■
6
AVRIL 2005 – LA JAUNE ET LA ROUGE
LA PHYSIQUE AU XXIE SIÈCLE
Avant-propos
2005, année mondiale
de la physique
Gabriel Chardin,
DAPNIA, CEA Saclay
I
NUTILE ET DÉPENSIÈRE ! C’est ainsi
que l’homme de la rue pourrait
être tenté, comme tel ministre du
général de Gaulle, de qualifier la
recherche, comparée aux danseuses
et aux courses de chevaux pour leur
efficacité dépensière. En dépit de ce
jugement abrupt et provocateur, les
gouvernements successifs de l’aprèsguerre ont fait de la recherche une
priorité et lui ont attribué jusqu’à
2.5 % du PIB national au début des
années quatre-vingt-dix. Depuis cette
époque, le financement de la recherche
a malheureusement connu dans notre
pays une décrue lente et régulière,
même si la France a su bâtir grâce à
cette période relativement faste un
système de recherche d’une excellence reconnue, au moins dans les
domaines de la physique ou des mathématiques.
En fait, la recherche apparaît comme
l’un des meilleurs investissements à
long terme, si l’on en juge par le fait
que les pays les plus avancés comme
le Japon, les États-Unis ou la Suède
consacrent environ 3% de leur richesse
nationale à leurs activités de recherche,
loin devant la France. Mais une vision
politique à trop court terme a conduit
chez nous au malaise actuel, à la révolte
des chercheurs de l’année 2004 et à
la réflexion actuelle sur le rôle et l’importance de la recherche en Europe.
Cette dernière n’affiche-t-elle pas, sans
d’ailleurs véritablement prendre les
moyens de l’atteindre, l’objectif de
consacrer 3% de son PIB à la recherche
en 2010 ?
Les défis qui nous attendent sont
pourtant gigantesques, face à un épuisement accéléré des ressources et un
nombre d’habitants qui pourrait bientôt atteindre, voire dépasser, 9 milliards. Des réajustements d’une très
grande brutalité sont à craindre, lorsque
se présentera bientôt l’épuisement de
ressources aussi précieuses que les
hydrocarbures, le gaz, les métaux précieux ou même nos sols cultivables,
toutes ressources que nous dilapidons
à un taux très supérieur à leur capacité de renouvellement. L’accroissement
de l’effort de recherche, qui seul pourra
nous donner les outils permettant
d’optimiser les ressources et de
composer avec la Nature quand elle
nous rappellera ses lois, apparaît donc
aujourd’hui plus essentiel que jamais.
Ce numéro spécial de La Jaune et
la Rouge est consacré à des travaux
d’excellence qui ressortent principalement de la recherche fondamentale.
Même si la recherche finalisée, à laquelle
un deuxième numéro spécial de La
Jaune et la Rouge sera consacré, est à
l’évidence également essentielle, c’est
en effet principalement la recherche
fondamentale qui est à l’origine des
applications majeures des décennies
futures. L’accroissement fantastique
des capacités de calcul et de stockage,
la toile de l’Internet, la production
d’électricité par l’énergie nucléaire
sont des applications fondamentales
et pratiquement imprévisibles de développements initialement ésotériques.
Les auteurs de ce numéro spécial
décrivent donc autant des domaines
dont on saisit dès aujourd’hui l’importance pour notre vie de demain, comme
la fusion contrôlée, la compréhension
du climat ou les nanotechnologies,
que d’autres, comme la gravité répulsive ou les bizarreries de la mécanique
quantique, où cette vision nous échappe
encore. Mais pourrait-on envisager de
construire un ordinateur quantique,
rêve actuel des grands laboratoires de
recherche, sans comprendre la notion
d’intrication des états quantiques ?
Ce numéro spécial nous fournit
également l’occasion de regretter qu’au
fil des années les élèves de l’X aient
délaissé de façon inquiétante les carrières de la recherche. Pourtant, une
large part des richesses actuelles de
la France est due à des programmes
menés avec intelligence et continuité
par les serviteurs de la nation que sont
– mais se considèrent-ils encore ainsi? –
les élèves des grandes écoles.
Souhaitons que les jeunes polytechniciens retrouvent le chemin de
nos laboratoires, et que la nation leur
offre la reconnaissance de la “ chose
publique ” qu’ils défendront ainsi. n
LA JAUNE ET LA ROUGE – AVRIL 20057
LA PHYSIQUE AU XXIE SIÈCLE
L’étrangeté
du monde quantique
Roger Balian (52),
membre de l’Académie des sciences
Les progrès de la science sont souvent source d’émerveillement. Le
chercheur, tout en visant à rationaliser le monde qui l’entoure, n’est
jamais aussi heureux que devant des défis qui le surprennent et le
stimulent. La découverte va de pair avec la curiosité et l’étonnement,
depuis l’eurêka d’Archimède jusqu’au récit de Marie Curie : “ Nos
précieux produits étaient disposés sur les tables et sur les planches ; de
tous côtés, on apercevait leurs silhouettes faiblement lumineuses, et
ces lueurs qui semblaient suspendues dans l’obscurité nous étaient une
cause toujours nouvelle d’émotion et de ravissement. ”
L
ES EXEMPLES ne manquent pas de
nouveaux phénomènes allant à
l’encontre d’évidences apparentes ou d’idées reçues. N’a-t-il pas
été surprenant de découvrir que la
lumière blanche, qui semble si pure,
est en réalité un mélange de lumières
colorées ? Ou encore que l’interférence de deux faisceaux lumineux
peut donner naissance à des zones
obscures ? N’est-il pas curieux que
l’eau soit le produit de la réaction de
deux gaz, l’hydrogène et l’oxygène ?
N’est-il pas fascinant de constater
qu’un gyroscope bascule perpendiculairement à la direction vers laquelle
on le sollicite ? D’apprendre que la
perfection des formes d’un cristal de
quartz reflète l’arrangement de ses
atomes à une échelle 100 millions de
fois plus petite? Et y a-t-il rien de plus
saugrenu que les divers processus de
reproduction des êtres vivants, par
8
AVRIL 2005 – LA JAUNE ET LA ROUGE
exemple la double fécondation des
plantes à fleurs, où un mécanisme de
régulation complexe récemment élucidé permet d’engendrer avec une
parfaite simultanéité un germe et son
annexe nourricière ? L’observation de
telles merveilles alimentait les cabinets de curiosités et les leçons publiques
à l’époque, hélas révolue, où l’on considérait la science comme une part intégrante de la culture chez l’honnête
homme.
Surprise puis accoutumance,
un perpétuel
recommencement
Si au moment de leur découverte
les phénomènes naturels apparaissent
comme remarquables, l’habitude ou
l’inclusion dans l’enseignement contribuent à les démystifier. Le magnétisme n’a pour nous rien de mystérieux, mais au XVIIIe siècle il semblait
si étrange qu’il confinait à l’ésotérisme.
La structure atomique de la matière
apparaît aux lycéens d’aujourd’hui
comme une banalité ; pourtant il y a
cent cinquante ans, l’atomisme était
vu comme une élucubration désuète :
les succès de la thermodynamique et
de l’électromagnétisme avaient
convaincu savants et philosophes de
la continuité de la matière. Dans le
dernier quart du XIXe siècle, Boltzmann
dut lutter à contre-courant pour
défendre son interprétation du concept
d’entropie en termes d’encore hypothétiques molécules. À la même époque,
Marcelin Berthelot interdisait à ses
disciples de représenter les molécules
organiques par des formules développées, car celles-ci suggéraient l’existence d’atomes s’assemblant en molécules. (C’est sous son influence durable
que les manuels de chimie des classes
préparatoires parlaient encore en 1950
“d’hypothèse” atomique!) Le courant
de pensée dominant a basculé il y a
une centaine d’années lorsque des
expériences ont mis en évidence les
constituants de la matière, électrons,
atomes, noyaux, tout en montrant
qu’il n’était pas question de retourner à l’atomisme naïf d’autrefois.
Quelques décennies ont suffi pour
populariser la nouvelle vision des
choses et faire oublier ce qu’elle avait
d’étonnant.
Toutes les fois que les idées se
stabilisent de la sorte, un préjugé
récurrent, celui de l’achèvement de
la physique, est mis en avant ; mais
il est régulièrement battu en brèche
par des découvertes surprenantes.
Ainsi J.-B. Biot constate-t-il avec satisfaction en 1823, dans la préface de
la troisième édition de son renommé
Précis élémentaire de physique, que
rien d’inattendu n’a été trouvé depuis
la première édition de 1817 ; il en
conclut que “ la progression rapide
avec laquelle la physique se complète
tous les jours peut faire regarder
l’époque de sa stabilité entière comme
peu éloignée. ” Cependant, paraissent
en 1824 les Réflexions sur la puissance
motrice du feu, où Carnot crée la thermodynamique en énonçant le
“deuxième” principe (il fallut attendre
la décennie 1840-1850 pour que soit
reconnu le “ premier ” principe, la
conservation de l’énergie); et en 1827,
Ampère publie son Mémoire sur la
théorie des phénomènes électrodynamiques ! De même, au début du
XXe siècle, Poincaré estimait l’édifice
de la physique achevé, à l’exception
d’une question, le rayonnement du
corps noir. Or, l’an 1905, dont nous
célébrons mondialement cette année
le centenaire, fut marqué non seulement par la résolution de ce problème,
mais par la naissance de toute une
nouvelle physique. Aujourd’hui encore,
certains clament qu’il n’y a plus rien
de vraiment nouveau à découvrir en
physique. Et pourtant, comme le met
en évidence l’ouvrage collectif Demain,
la physique, élaboré sous l’égide de
l’Académie des sciences (Odile Jacob,
2004), de nombreux problèmes majeurs
se posent, qui nous réservent bien
des surprises.
La physique du XXe siècle :
ses objets d’étude
Ce qu’il y a de plus spectaculaire
dans la physique du XXe siècle c’est
sans doute l’immense extension de
ses sujets d’étude. Même si des progrès considérables ont continué à être
accomplis sur des objets à notre échelle,
les avancées de l’expérimentation nous
ont permis de sonder le monde microscopique, à l’échelle atomique d’abord,
puis, avec le développement des grands
accélérateurs, à l’échelle nucléaire et
subnucléaire. Petite remarque : parmi
les particules nouvelles ainsi découvertes, certaines ont été baptisées
“ étranges ”. Mais comme d’habitude
ce caractère s’est estompé au bout de
quelques années; “l’étrangeté”, nombre
qui caractérise ces particules, a rompu
avec son étymologie pour acquérir la
même banalité que la charge.
aberrantes encore mal expliquées. La
microélectronique, qui elle aussi fait
partie de notre quotidien, devrait nous
fasciner par les progrès scientifiques
qui, pour une taille donnée, ont permis d’améliorer les performances d’un
facteur 2 tous les dix-huit mois depuis
près de quarante ans ! La physique
s’est également étendue vers d’autres
disciplines consacrées à des objets
complexes : physicochimie, géophysique, biophysique.
Physique et mathématiques
À l’autre extrémité de l’échelle des
longueurs, l’astrophysique nous donne
accès aux galaxies lointaines, et, compte
tenu du temps que leur lumière a mis
à nous parvenir, nous permet d’étudier les origines de l’Univers. Là encore,
comme dans l’exploration du système
solaire, que de phénomènes exotiques!
Depuis des siècles, on a constaté
que la physique avait besoin de mathématiques, non seulement pour faire
des prévisions quantitatives mais aussi
pour rendre clairs et précis ses énoncés. Déjà au milieu du XVIIIe siècle
l’abbé Nollet, “ maître de physique et
d’histoire naturelle des enfants de
France et professeur royal de physique
expérimentale au collège de Navarre”,
donnait aux nombreux lecteurs de ses
Leçons de physique expérimentale le
conseil raisonné suivant, après avoir
préconisé la lecture d’ouvrages de physique dans leur langue originale : “Mais
une langue qu’il est indispensable d’apprendre, c’est celle de l’algèbre et de
la géométrie; ces deux sciences se sont
heureusement introduites dans la physique ; partout où elles peuvent s’appliquer, elles y portent l’exactitude et
la précision qui leur sont propres, elles
répandent la lumière dans l’esprit,
elles le font raisonner juste ; avec leur
secours il chemine plus vite, plus sûrement, et peut aller plus loin ; il faut
de nécessité se mettre en état de suivre
les auteurs qui marchent à la lueur de
ces flambeaux. ”
Une autre caractéristique de la
physique du XX e siècle est sa progression dans l’étude d’objets complexes. Une nouvelle discipline, la
physique statistique, nous permet
désormais d’étudier à partir de leur
structure microscopique toutes sortes
de matériaux, de plus en plus complexes, gaz, solides cristallins, et plus
récemment verres, amorphes, poudres,
polymères, colloïdes, etc., ou même
l’eau qui malgré son apparente banalité présente des propriétés tout à fait
Depuis, la physique n’a cessé de
s’imprégner de mathématiques de
toutes sortes. Bon nombre de ses énoncés ne peuvent plus s’exprimer en
mots mais nécessitent un langage
mathématique souvent fort élaboré.
Les discussions passionnées entre
chercheurs laissent perplexe le témoin
qui n’est pas spécialiste, et il est malheureusement devenu difficile au physicien de communiquer au grand
public ses émerveillements devant ce
qu’il découvre du monde.
LA JAUNE ET LA ROUGE – AVRIL 2005
9
Parmi les énigmes de la science,
cette “ déraisonnable efficacité des
mathématiques en physique ” (selon
l’expression de Wigner) suscite des
controverses philosophiques. Les
mathématiques sont-elles le ressort
caché de la nature ? Ou bien s’agit-il
d’une création de notre cerveau dans
un effort de refléter le monde extérieur ? L’apparence de parfaite adéquation des mathématiques à la physique résulterait-elle d’une évolution
en parallèle de type darwinien, alliant
dépérissement des branches inutilisées et symbiose fécondatrice entre
branches actives, les progrès de chacune des disciplines stimulant la
connaissance de telle ou telle branche
de l’autre ? Ne peut-on s’émerveiller
d’ailleurs de la “ déraisonnable efficacité de la physique à susciter de
nouvelles mathématiques ” ?
Un nouveau venu,
l’observateur
Ce débat philosophique rejoint
celui qui porte sur les rôles relatifs,
dans la science, des objets et de l’homme
qui les étudie. Jusqu’à la fin du
XIXe siècle, on avait tendance à considérer que la nature possède ses propres
lois, en dehors de nous, et que la
science consiste à les dénicher. Nos
conceptions ont changé depuis. Les
assertions scientifiques sont vues non
plus comme des propriétés intrinsèques des objets mais comme des
images de ces objets dans notre esprit,
plus ou moins floues et infidèles. La
science progresse grâce à l’affinement
de ces images qui accroît nos capacités de prévision et d’action.
Une telle irruption de l’observateur au cœur même des théories physiques a commencé avec le développement de la mécanique statistique,
qui vise à expliquer les propriétés
macroscopiques des matériaux à partir du comportement, plus simple, de
leurs constituants élémentaires. Mais
ceux-ci sont si nombreux qu’il est
impensable de les caractériser en détail.
La description microscopique suppose donc l’emploi de probabilités,
qui nous aident à faire des prévisions
en dépit de cette incertitude. Une
10
AVRIL 2005 – LA JAUNE ET LA ROUGE
grandeur physique A n’est plus considérée comme prenant une valeur a
bien définie mais comme une variable
aléatoire pouvant prendre toute une
série de valeurs a, chacune avec une
certaine probabilité. L’espérance ⟨A⟩
de A est la moyenne de ces valeurs et
sa variance ∆A2 = ⟨A⟩2 - ⟨A⟩2 caractérise notre incertitude sur A. Dans cette
perspective, les probabilités sont un
outil mathématique qui permet d’élaborer des prévisions raisonnables et
de rendre quantitatif notre degré de
connaissance.
L’observateur intervient aussi dans
les deux grandes théories nées il y a
un siècle, la relativité et la physique
quantique. La relativité restreinte
repose sur l’idée que deux observateurs en translation uniforme l’un par
rapport à l’autre doivent décrire les
phénomènes physiques, qu’ils soient
électromagnétiques, mécaniques ou
autres, à l’aide des mêmes lois. En
relativité générale, cette équivalence
s’étend à des observateurs utilisant
des repères d’espace-temps quelconques, qui peuvent faire intervenir
des courbures ou des accélérations; cela
a permis d’interpréter la gravitation
en tant que propriété géométrique de
l’espace-temps.
Quant à la mécanique quantique,
qui sur le plan des principes sinon de
la pratique permet d’unifier tout notre
champ de connaissances, elle présente une caractéristique troublante.
Non seulement elle fait intervenir des
probabilités, mais celles-ci sont conceptuellement inévitables, comme on le
verra plus loin. Du fait que la notion
même de probabilités se réfère aux
observateurs qui les utilisent pour
représenter le mieux possible les objets,
expliquer leurs propriétés et prévoir
leurs comportements, la physique
quantique doit être considérée comme
une description non pas des objets
en soi, mais des objets tels que nous
les percevons. Paradoxalement, malgré cet aspect partiellement subjectif, et malgré les incertitudes liées à
l’emploi de probabilités, la théorie
quantique est remarquablement puissante et unificatrice. Dès lors que nos
moyens de calcul le permettent, elle
fournit sur les systèmes les plus divers
des résultats dont l’accord avec l’expérience peut atteindre une précision
considérable.
Quelques bizarreries
quantiques
La mécanique quantique englobe
toutes les propriétés dont la physique
classique rendait compte auparavant,
mais elle couvre de plus une énorme
variété de phénomènes nouveaux,
comme les recherches l’ont montré
tout au long du siècle dernier. Sans
elle, on ne comprendrait pas l’existence des atomes, des molécules, de
l’état solide, du magnétisme, des réactions chimiques ou nucléaires ; on
n’aurait pu développer l’électronique,
les lasers ou l’imagerie par résonance
magnétique. Le phénomène qui a le
plus frappé au départ, et qui est à
l’origine de l’adjectif “ quantique ”,
c’est l’apparition inattendue du discret, alors que l’intuition laissait prévoir du continu. D’ailleurs, la révolution quantique est née de l’idée que
les valeurs prises par l’énergie lumineuse étaient pour une fréquence donnée des multiples entiers d’un “ quantum ”, pouvant s’interpréter comme
un grain de lumière. Le spectre d’énergie des atomes, molécules ou noyaux
est lui aussi discret ; leur moment
angulaire ne peut prendre que des
valeurs discrètes. De plus, des propriétés arithmétiques se manifestent
souvent dans les spectres ; elles sont
expliquées par la théorie quantique.
C’est le caractère discret des objets
microscopiques, atomes, noyaux ou
particules, qui permet d’en établir la
classification.
Le fait que la mécanique quantique soit aussi désignée sous le nom
de mécanique “ ondulatoire ” fait allusion à une propriété étrange des objets
microscopiques, leur double nature :
ils se manifestent en effet à la fois
comme particules et comme ondes.
Cela a été reconnu depuis longtemps
pour la lumière et pour les électrons.
Mais on aurait considéré il y a quelques
décennies comme chimérique l’idée de
faire interférer, autrement que sur le
papier, un neutron, un atome ou
même une assez grosse molécule qui
suivrait simultanément deux chemins.
C’est pourtant désormais chose faite !
Un atome excité, un noyau
radioactif ou une particule instable
se transforment au bout d’un temps
aléatoire en d’autres objets. Le processus est caractérisé par un temps
de vie moyen, bien défini dans le
repère où la particule est au repos.
Mais si elle se déplace par rapport à
nous à une vitesse approchant celle
de la lumière, nous pouvons grâce à
un effet de relativité restreinte l’observer sur une durée considérablement plus longue.
L’effet tunnel permet à une particule quantique de traverser une barrière de potentiel. À l’intérieur de cette
barrière, son énergie cinétique serait
négative, mais cela n’empêche pas la
particule d’y pénétrer et de passer
d’un côté à l’autre avec une certaine
probabilité. Ce phénomène surprenant est utilisé en microélectronique.
Les phénomènes spécifiquement
quantiques ne se manifestent pas seulement pour des objets microscopiques mais aussi à notre échelle. Un
exemple est celui de la supraconductivité. À suffisamment basse température, certains métaux ou composés perdent toute résistance électrique
de sorte qu’un courant peut circuler
quasi indéfiniment dans une boucle.
On construit aussi à leur aide des circuits où une tension continue engendre
un courant alternatif. La supraconductivité est un phénomène si exotique qu’il a fallu attendre une cinquantaine d’années avant de l’expliquer.
Grandeurs compatibles
et incompatibles
Malgré leur variété, tous ces phénomènes insolites ont une origine
commune, qui n’est pas la part la
moins troublante de la mécanique
quantique puisqu’elle bouleverse la
notion même de grandeur physique.
L’objet mathématique A qui représente une grandeur physique, comme
la position ou l’énergie d’une particule, et que l’on désigne sous le nom
d’observable, présente d’abord un caractère aléatoire. Comme en mécanique
statistique, notre connaissance à un
instant donné de l’observable A est
caractérisée par la donnée de son espérance ⟨A⟩, de sa variance ∆A2 et des
moments d’ordre supérieur ⟨An⟩. En
raison de cette nature probabiliste, la
mécanique quantique n’est pas une
théorie d’objets en eux-mêmes mais
un moyen de faire des prévisions sur
un système – ou plutôt sur un ensemble
statistique de systèmes tous préparés
dans les mêmes conditions.
Tout ceci n’est pas nouveau. Mais
lorsqu’il s’agit de considérer le produit de deux grandeurs physiques,
nous devons radicalement changer
de cadre de pensée. En mécanique
classique, on forme par exemple le
produit d’une force par une vitesse
pour évaluer une puissance; ces deux
grandeurs sont simplement représentées par des nombres et la puissance s’obtient par une multiplication ordinaire. En mécanique quantique,
les observables ne se comportent pas
comme de simples nombres et leur
produit est une opération plus subtile.
En effet, on a été amené à postuler
qu’en mécanique quantique le produit de deux observables A et B est
non-commutatif, c’est-à-dire que les
produits AB et BA peuvent différer.
Une analogie peut aider à appréhender
cette structure mathématique noncommutative des observables.
Considérons trois objets et désignons
par A la permutation qui échange les
deux premiers, par B celle qui échange
les deux derniers. Effectuer successivement l’une ou l’autre de ces opérations définit leur produit, qui est une
nouvelle permutation des trois objets.
Le produit AB diffère de BA, car il ne
revient pas au même d’échanger les
deux premiers objets après les deux
derniers ou avant. Les observables
quantiques se comportent comme de
telles opérations et leur multiplication obéit à des règles où l’ordre des
facteurs est essentiel.
Toutes les particularités de la mécanique quantique tiennent au fait que
les grandeurs physiques y sont représentées par des observables qui peu-
vent ne pas commuter entre elles.
L’exemple le plus simple est celui
d’une particule susceptible de se déplacer sur un axe. Si A = X désigne sa
position et B = P sa quantité de mouvement, on a XP - PX = ih/2πI, où h/2π
= 10-34 J; h est la constante de Planck,
imperceptible à notre échelle; la cohérence de la théorie exige l’emploi de
nombres complexes comme le montre
la présence du coefficient i (i2 = - 1),
même si tout résultat physique est
réel, et I désigne l’observable unité
(telle que AI = IA = A pour tout A).
Une telle non-commutation existe
entre les trois composantes du moment
angulaire d’une particule. Le champ
électromagnétique et le nombre de
photons sont également représentés
par des observables qui ne commutent
pas ; il en est de même pour le champ
électrique et le champ magnétique au
même point.
Pour une seule observable A, la
situation est la même qu’en mécanique statistique ou en théorie ordinaire des probabilités. Comme nous
l’avons indiqué plus haut, dans un
état donné du système, l’observable
A est connue à travers ses moments ⟨A⟩n
(n = 1, 2, …), en particulier son espérance ⟨A⟩ et sa variance ∆A2 = ⟨A2⟩ ⟨A⟩2. De manière équivalente, si l’on
mesure dans cet état la grandeur A,
on peut obtenir diverses valeurs a,
chacune avec une certaine probabilité, et ces probabilités sont les pondérations associées aux moyennes
⟨An⟩ (n = 1, 2, …). Rien n’empêche
la probabilité d’être concentrée sur
une seule valeur a, auquel cas la prévision sur A se fait avec certitude.
Si l’on s’intéresse à une paire d’observables A et B qui commutent, cette
description probabiliste de type classique existe encore. Les observables A
et B peuvent prendre un ensemble de
valeurs a et b, avec une probabilité
pour chaque configuration. Ces observables sont compatibles : on peut les
mesurer simultanément, et obtenir
ainsi un résultat a pour A et b pour B.
L’étrangeté survient lorsque A et
B ne commutent pas, comme va le
montrer un petit calcul. Posons AB -
LA JAUNE ET LA ROUGE – AVRIL 2005
11
BA = 2iC, et définissons A’ ≡ A - ⟨A⟩
et B’ ≡ B - ⟨B⟩ où ⟨A⟩ et ⟨B⟩ sont les
espérances de A et B dans l’état considéré du système. Les variances ∆A2
et ∆B2 sont données respectivement
par ⟨A’2⟩ et ⟨B’2⟩. Quel que soit λ, la
quantité ⟨(λA’+ iB’) (λA’ - iB’)⟩ est non
négative, ce qui s’écrit λ2∆A2 + 2λ⟨C⟩
+ ∆B2 ≥ 0. On a donc, dans n’importe
quel état, ∆A2 ∆B2 ≥ ⟨C⟩2. Cette inégalité se réduit pour une particule sur un
axe au “ principe d’incertitude ” de
Heisenberg ∆X ∆P ≥ h/4π. Par suite,
si dans une certaine circonstance la
position X prend une valeur bien définie x, la particule se comporte comme
un point matériel ; alors la quantité
de mouvement P est totalement indéterminée. Inversement, si celle-ci prend
la valeur p, la particule se comporte
comme une onde plane de longueur
d’onde h/p ; alors sa position X est
totalement indéterminée. Les deux
grandeurs physiques X et P sont incompatibles. Dans les cas intermédiaires,
les deux aspects, particulaire et ondulatoire, peuvent coexister, mais au prix
d’un certain flou caractérisé par l’inégalité de Heisenberg.
Plus généralement, toutes les fois
que deux observables A et B ne commutent pas, elles représentent des
grandeurs physiques incompatibles. Il
est interdit d’envisager que ces grandeurs puissent prendre toutes deux
une valeur bien définie (sauf dans des
cas exceptionnels où ⟨C⟩ = 0). Une
description des phénomènes en termes
des deux variables à la fois est impossible. Ainsi, un faisceau lumineux ne
peut s’interpréter à la fois comme
onde et comme ensemble de photons
que si l’amplitude de l’onde aussi bien
que le nombre de photons sont définis seulement en moyenne, avec chacun une inévitable fluctuation statistique. Il est impossible de mesurer
simultanément deux grandeurs A et
B incompatibles, et même d’imaginer
qu’elles puissent être spécifiées
ensemble. Si l’on mesure seulement A
sur un ensemble statistique de systèmes et que l’on sélectionne ceux
pour lesquels on a trouvé un certain
résultat a, le système doit en règle
générale être fortement perturbé ; en
effet, après mesure, le nouvel état des
12
AVRIL 2005 – LA JAUNE ET LA ROUGE
systèmes ainsi sélectionnés satisfait à
∆A = 0 et par suite à ∆B = ∞ ou ⟨C⟩
= 0, égalités qui n’avaient aucune raison d’être valables avant mesure.
Un épineux paradoxe
Cette incompatibilité entre observables ne commutant pas implique
que la théorie quantique ne peut se
réduire à une théorie standard de probabilités. Si A et B étaient régies par
une loi de probabilités ordinaires, on
pourrait concevoir une description
sous-jacente où elles prendraient des
valeurs bien définies ; c’est interdit en
théorie quantique. Les propriétés les
plus extravagantes de cette nouvelle
physique viennent de là. Par exemple,
la positivité des probabilités implique
que les corrélations entre variables
aléatoires classiques doivent satisfaire
à certaines inégalités, mises en évidence par Bell ; or, celles-ci sont violées par la mécanique quantique, ce
qui est confirmé expérimentalement.
Nous allons donner un autre exemple,
connu depuis une quinzaine d’années, le paradoxe GHZ (Greenberger,
Horne, Zeilinger). Ce paradoxe a
donné lieu à des vérifications expérimentales. Nous ne préciserons ici
ni les systèmes effectivement manipulés ni les grandeurs physiques observées ; quelques indications sont fournies dans l’encadré. Nous nous
contenterons d’une présentation formelle, mais il nous faut hélas pour
cela un minimum de mathématiques.
Le lecteur parvenu jusqu’ici est donc
convié à un dernier coup de collier.
Il devrait en être récompensé car le
paradoxe a des prolongements conceptuels surprenants.
Considérons un système auquel
sont attachées plusieurs observables
ayant les propriétés algébriques suivantes. Trois premières observables,
A 1, A 2, A 3, commutent entre elles
(A1 A2 ≡ A2 A1, etc.), et ont pour carré
l’unité (A i2 ≡ I). Si on les mesure, et il
est possible de le faire simultanément
pour toutes les trois, on trouve donc
des valeurs ai toujours égales soit à
+ 1, soit à - 1. Trois autres observables, B1, B2, B3, ont les mêmes propriétés, et elles satisfont de plus à
l’identité B1 B2 B3 ≡ I, de sorte que B3
et B1 B2 sont deux écritures de la même
grandeur physique : les valeurs b1,
b2, b3 prises par B1, B2, B3 sont égales
chacune à + 1 ou - 1 et satisfont à
b3 = b1 b2. Les observables A1 et B1
commutent (A1 B1 ≡ B1 A1), de même
que A2 et B2, de même que A3 et B3.
Mais, pour i ≠ j, les grandeurs physiques
représentées par les observables Ai et
Bj sont incompatibles : Ai et Bj ne commutent pas ; il se trouve que, au lieu
de valoir Ai Bj, le produit Bj Ai vaut Bj
Ai ≡ - Ai Bj. Enfin, on introduit les
trois produits Di ≡ Ai Bi. Les propriétés algébriques des Ai et des Bi impliquent que Di Dj ≡ Dj Di et que Di2 ≡ I,
de sorte qu’ici encore les observables
Di peuvent simultanément prendre
des valeurs di égales à + 1 ou à - 1.
La compatibilité des observables
D1, D2, D3 permet ainsi de préparer
le système dans l’état où chacune
prend la valeur bien définie d1 = + 1,
d2 = + 1, d3 = + 1. Il suffit pour cela,
sur un ensemble de systèmes semblables, de mesurer simultanément
D1, D2, D3 et de ne retenir que le sousensemble des échantillons pour lesquels
on a observé que d1 = d2 = d3 = + 1.
On effectue alors sur cet état la mesure
simultanée de A1 et B1, mesure possible puisque A1 et B1 commutent.
Étant donné que l’état a été préparé en
sorte que l’observable D 1 ≡ A 1 B 1
prenne la valeur d1 = + 1, on trouvera
sur certains échantillons a1 = b1 = + 1,
sur d’autres a1 = b1 = - 1 ; mais la corrélation a1 = b1 est totale. De même,
on peut affirmer que a2 = b2 dans l’état
considéré, ainsi que a3 = b3 = b1 b2. Au
vu des égalités a1 = b1, a2 = b2, a3
= b1 b2, on est tenté de croire que,
dans cet état, le système est tel que
les grandeurs physiques (compatibles)
A1, A2, A3 prennent des valeurs a1,
a2, a3 telles que a3 = + a1a2. Or, un
petit calcul algébrique nous fournit
l’identité entre observables D1 D2 D3
≡ A1 B1 A2 B2 A3 B3 ≡ - A1 A2 B1 B2 A3
B3 ≡ - A1 A2 B1 B2 B3 A3 ≡ - A1 A2 A3,
et par suite A1 A2 A3 ≡ - D1 D2 D3.
Étant donné que l’état a été préparé en
sorte que d1 = d2 = d3 = + 1, la physique quantique prédit donc que la
mesure simultanée de A1, A2, A3 doit
fournir des valeurs a1, a2, a3 totale-
ment corrélées par a3 = - a1 a3, à l’opposé de la prévision simpliste a 3
= + a1a2 faite ci-dessus. Et l’expérience
confirme ce résultat contraire à notre
logique quotidienne! Qu’y a-t-il donc
de faux dans le raisonnement qui
conduisait à a3 = + a1 a3 ? Chacune
des quatre assertions a1 = b1, a2 = b2,
a3 = b1 b2, a3 = – a1 a2 découle de la
propriété caractéristique d1 = d2 = d3
= + 1 de l’état considéré. Chacune est
correcte et peut être vérifiée expérimentalement. Cependant, si l’on veut
tester par exemple la première, il faut
mesurer A1 et B1 ; si l’on veut tester
la deuxième, il faut mesurer A2 et B2.
Or, même s’il est certain que la première expérience fournira a1 = b1 et
la deuxième a2 = b2, le fait que A1 ne
commute pas avec B2 nous interdit
d’imaginer que a1 et b2 prennent simultanément des valeurs bien déterminées. Pour vérifier expérimentalement
les deux corrélations a1 = b1 et a2 = b2
à la fois, il faut utiliser deux appareils
de mesure différents, portant sur des
échantillons différents quoique préparés
exactement de la même façon. Dans
ces conditions, la physique quantique
nous force à admettre que la paire
d’assertions a1 = b1 et a2 = b2 n’a pas
de sens, même si chacune des prévisions a1 = b1 et a2 = b2 est vraie pour
des expériences séparées. On n’a pas
le droit de tirer de l’emploi simultané
des égalités séparément correctes a1
= b1, a2 = b2, a3 = b3 = b1 b2 la conclusion que a3 = + a1 a2.
Ainsi, une assertion telle que a1 = b1
doit être interprétée comme une prévision exacte sur l’éventuelle mesure
de A1 et B1, mais non comme une propriété intrinsèque d’un système préparé dans l’état considéré. Elle ne vaut
que dans un certain contexte, celui
où l’on s’interroge sur A1 et B1, mais
pas sur A2 et B2. Le raisonnement
logique naïf ne s’applique pas à des propriétés que la théorie prohibe de tester simultanément. En définitive, la
physique quantique pose non seulement des limites à notre connaissance
à travers le principe d’incertitude,
mais nous interdit même de nous
poser simultanément certaines questions. Les valeurs des grandeurs physiques qu’elle nous fournit se réfèrent
non à l’objet étudié en soi, mais à des
prévisions que l’on peut faire sur cet objet
dans tel ou tel contexte.
Il est évidemment choquant que
la mécanique quantique, notre théorie physique la plus puissante et la
plus fondamentale, ne caractérise les
objets que dans le cadre de leur observation et que ses conséquences puissent défier le sens commun. L’autre
théorie nouvelle du XXe siècle, la relativité, a certes révolutionné notre
vision du monde en changeant nos
conceptions sur l’espace et le temps,
sur la masse et l’énergie, mais la mécanique quantique, beaucoup plus radicalement, nous oblige à changer nos
modes de pensée. Il nous faudra peutêtre encore des décennies pour trouver naturelle la nouvelle logique quantique à laquelle nous devons nous
soumettre. Mais celle-ci commence
déjà à avoir des applications en cryptographie, et le concept récent d’information quantique conduit à des
spéculations intéressantes sur la téleportation et sur des procédés calculatoires nouveaux.
■
Réalisation physique du paradoxe GHZ
Le modèle le plus simple d’objet quantique est le système à deux niveaux + et -.
Il est adapté par exemple à la description d’un atome dans des circonstances où
n’interviennent que les deux niveaux d’énergie les plus bas, les niveaux supérieurs
n’étant jamais excités ; l’atome est alors dans un état construit à partir des deux
niveaux + et -.
La même structure à deux niveaux caractérise la polarisation d’un photon, ou encore
le moment angulaire intrinsèque, ou spin, de l’électron.
Pour un tel système, les observables ont la même structure algébrique que les opérations
linéaires portant sur une paire de nombres complexes v et w associés respectivement
aux niveaux + et -.
Un premier exemple est l’opération A qui change le signe du second sans modifier le
premier, remplaçant (v, w) par (v, - w) ; une application répétée de A laisse (v, w)
inchangé, de sorte que A2 ≡ I est l’observable unité. Un second exemple est l’opération
C qui permute v et w, remplaçant (v, w) par (w, v) ; l’observable C 2 ≡ I est encore
l’identité. L’opération AC consiste à échanger v et w, puis à changer le signe du second
élément ; elle remplace (v, w) par (w, v) puis par (w, - v).
L’opération CA remplace (v, w) par (v, - w) puis (- w, v). Les observables A et C satisfont
donc à la relation AC = - CA : elles ne commutent pas.
Dans le cas du spin d’un électron, A et C représentent, respectivement, au facteur h/4π
près, les composantes z et x du moment angulaire, qui sont donc des grandeurs
incompatibles.
Dans le cas d’un atome, en désignant par ε + et ε– les énergies des deux niveaux les
plus bas, l’observable représentant l’énergie de l’atome est [ε+ (I + A) + ε–(I - A)] /2 ;
l’observable C est associée au couplage de l’atome avec un champ extérieur susceptible
de provoquer des transitions entre les niveaux + et -.
Le paradoxe GHZ concerne un système constitué de trois sous-systèmes à deux niveaux
du type ci-dessus, notés 1, 2, 3. Parmi les grandeurs physiques associées à ce système
figurent les observables A1 et C1 associées au sous-système 1, et de même A2, C2, A3, C3.
Des observables associées à deux sous-systèmes différents, simultanément mesurables,
commutent.
Les propriétés indiquées dans le texte pour A1, A2, A3, commutation et Ai 2 = I, en
résultent.
Les observables B1, B2, B3 du texte, définies par B1 ≡ C2 C3, B2 ≡ C3 C1, B3 ≡ C1 C2,
représentent des corrélations entre paires de sous-systèmes.
De Ci 2 ≡ I, on tire Bi 2 ≡ I et aussi B3 ≡ B1 B2 ; la commutation des Ci entraîne celle des
Bi. Enfin, on vérifie que A1 B1 ≡ B1 A1, que A1 B2 ≡ – B2 A1, et de même pour les autres
sous-systèmes. Toutes les propriétés indiquées dans le texte sont donc satisfaites. Les
observables Di , par exemple D1 ≡ A1 B1 ≡ A1 C2 C3, représentent des corrélations entre
les trois sous-systèmes, ce qui rend les expériences particulièrement délicates.
■
LA JAUNE ET LA ROUGE – AVRIL 2005
13
LA PHYSIQUE AU XXIE SIÈCLE
Nanosciences
et nanotechnologies
Jean-Yves Marzin (75),
directeur du Laboratoire de photonique et de nanostructures (LPN),
Marcoussis
L
ES NANOSTRUCTURES, objets dont
les dimensions caractéristiques
dans une ou plusieurs directions de l’espace sont de l’ordre de
quelques nanomètres, ne sont pas
uniquement artificielles ou le fruit de
techniques nouvelles : la nature nous
en donne de nombreux exemples,
comme la structure des ailes de
papillons, et l’homme en utilise depuis
l’antiquité, des fards égyptiens aux
nanocristaux colorant certains verres.
Les vingt dernières années ont
toutefois vu des avancées extraordinaires dans les domaines de leur élaboration, de leur observation et de
l’étude de leurs propriétés. Puits ou
boîtes quantiques de semi-conducteurs
et nanotubes de carbone sont une
bonne illustration de ce que sont ces
objets : leurs propriétés ne se résument ni à celle des matériaux massifs,
ni à celle des atomes qui les constituent, et leurs spécificités n’apparaissent que pour des dimensions
intermédiaires de quelques nanomètres. Cette échelle est évidemment
liée aux grandeurs caractéristiques
importantes qui sont de cet ordre de
grandeur : longueur d’onde thermique de De Broglie pour un électron de conduction dans un métal
ou un semi-conducteur, longueur
d’onde de la lumière visible dans un
diélectrique, etc. Elle l’est également
lorsqu’on cherche à disposer de sonde
pour des mécanismes à cette échelle,
par exemple suivre le trajet intracel-
14 AVRIL 2005 – LA JAUNE ET LA ROUGE
lulaire de molécules biologiques,
détecter des sites de perméabilité
membranaire, etc.
De ces avancées, qui ont ou auront
des impacts forts dans tous les domaines
des sciences et techniques, est né un
nouveau champ interdisciplinaire, celui
des nanosciences et nanotechnologies.
La plupart des pays industrialisés, des
USA au Japon, mais aussi l’Union européenne ont placé ce domaine émergent au rang de priorité tant ses potentialités sont de nature à déboucher sur
de nouvelles découvertes scientifiques
comme à induire des techniques et
produits révolutionnant leurs économies mais aussi, in fine, notre mode
de vie. Si la discipline à l’honneur dans
cette année mondiale de la physique
en a été le principal moteur, les domaines
de la chimie et de la biologie en sont
également à la fois des acteurs et des
bénéficiaires.
Désormais entrées dans notre quotidien, du transistor qui amplifie le
signal hyperfréquence de nos téléphones portables au laser qui permet
de lire et d’écrire disques compacts
et DVD, aux têtes de lecture des disques
durs de nos ordinateurs, les nanosciences ont aussi débouché sur leur lot
de découvertes fondamentales : effet
Hall quantique entier et fractionnaire,
magnétorésistance géante… Les perspectives ouvertes sont multiples et les
enjeux potentiellement colossaux, les
questions ouvertes nombreuses.
Comme souvent, ces avancées ont
été tirées par des inventions techniques mais aussi par des évolutions
liées aux applications à impact économique fort comme la microélectronique ou les télécommunications.
Les paragraphes qui suivent tentent
d’illustrer les différents grands domaines
investis progressivement par les nanosciences et nanotechnologies.
Les outils pour travailler
à l’échelle du nanomètre
Une première évolution forte a été
amenée par la mise au point, à partir
des années 1970, de techniques d’élaboration de couches minces avec un
contrôle nanométrique des épaisseurs
déposées : hétérostructures de semiconducteurs ou métalliques sont nées
de la mise au point, entre autres, de
l’épitaxie par jets moléculaires ou à
partir d’organométalliques. Les physiciens et les ingénieurs ont pu, ainsi,
concevoir des empilements de matériaux où sont contrôlés ou exploités
les effets quantiques se manifestant à
cette échelle, et construire, à la demande,
des hétérostructures aux propriétés
dessinées à la demande (mais qui ont
quelquefois réservé des surprises…
comme l’effet Hall quantique).
La deuxième révolution, fruit de
l’obstination de quelques chercheurs,
sous le regard il faut bien le dire incrédule de leurs pairs, a été la mise au
point des microscopies “ à pointe ”,
au premier rang desquelles la microscopie tunnel, qui permet d’établir sur
une surface la cartographie de la densité électronique, avec une résolution
subnanométrique. Ses différentes déclinaisons : microscopie à force atomique, à force magnétique ou électrostatique, microscopie à champ
proche optique sont devenues autant
d’outils pour scruter et manipuler la
matière à l’échelle nanométrique. Ces
outils, disponibles dans de nombreux
laboratoires, ont souvent aussi permis d’apporter un éclairage nouveau,
à l’échelle microscopique, sur des
observations anciennes à l’échelle
macroscopique.
D’autres évolutions importantes
concernent les outils plus traditionnels.
En microscopie électronique, on est
en passe d’atteindre (grâce à des techniques de correction des aberrations)
la résolution atomique avec une détermination possible de la nature chimique des atomes sondés. Les techniques de lithographie qui permettent
de dessiner un motif sur une surface
et de l’y transférer (par gravure, par
exemple) ont vu la mise au point de
nanomasqueurs (à faisceau d’électrons ou d’ions) très performants atteignant des résolutions de l’ordre de la
dizaine de nanomètres. Ces derniers
instruments permettent de réaliser les
“ masques ” répliqués en masse pour
produire microprocesseurs et mémoires
vives de nos ordinateurs : dans un
marché colossal où une petite augmentation de la densité des circuits
Surface de matériau organique (TTFTCNQ) à 63K
observée en microscopie tunnel. On y observe
clairement les chaînes unidimensionnelles
(verticales sur l’image) qui confèrent à ce matériau
des propriétés de transport unidimensionnelles.
Structure de type transistor à nanotube de carbone : le courant passant dans le nanotube entre les
deux contacts de gauche et de droite est modulé par la grille centrale déposée sur le nanotube.
produits se traduit par des milliards
d’euros de chiffre d’affaires supplémentaire, les progrès techniques ont
été naturellement fortement stimulés
et rapides. Une des conséquences
importantes de l’existence de ces nouveaux outils, plus scientifique celle-là,
est que nous pouvons désormais avoir
accès aux propriétés d’objets nanométriques individuels, contournant
les effets de moyenne d’ensemble
dominant souvent celles de collections d’objets présentant une grande
variabilité de morphologie, de composition, d’environnement…
d’épitaxie, les deuxièmes par des techniques de chimie douce) sont à même
d’élaborer des boîtes quantiques, illustration (presque) parfaite des premiers
exercices de cours de mécanique quantique : la localisation des électrons
dans ces structures se traduit par des
effets de confinement permettant
d’influer par leur taille sur leurs propriétés électroniques.
Nanostructures
et nanosystèmes
Dans les domaines traditionnels de
l’électronique ou du stockage de l’information, les tailles des éléments
constitutifs sont d’ores et déjà largement submicroniques : les effets quantiques y feront tôt ou tard leur apparition et de nouveaux concepts seront
nécessaires pour les “ domestiquer ”
ou s’y substituer. Parmi les nouveaux
composants sur les rangs, ceux de
l’électronique à un électron, ou ceux
de l’électronique moléculaire pourraient, à terme, supplanter le CMOS de
notre électronique digitale actuelle.
Les structures à puits quantiques,
et plus généralement les hétérostructures de semi-conducteurs, et leurs
applications dans les domaines des
composants micro et optoélectroniques, les multicouches de matériaux magnétiques essentielles pour
le stockage de l’information ont été
les premiers objets permis par les évolutions citées précédemment.
Désormais, les physiciens et les chimistes (les premiers par les techniques
Dans des domaines plus prospectifs, les nanostructures sont au cœur
des recherches sur les phénomènes
d’intrication quantique, première pierre
d’un futur ordinateur quantique. La
manipulation d’atomes ou de molécules par les techniques de microscopie à pointe permet également de
créer des structures artificielles à cette
échelle. Dans le domaine des nanosystèmes, plusieurs projets d’automates nanométriques sont explorés.
Un autre point important est que
microscopie à pointe et techniques
de lithographie permettent de coupler ces objets au monde macroscopique (avec toutes les problématiques
sous-jacentes : décohérence…).
LA JAUNE ET LA ROUGE – AVRIL 2005
15
Nanomatériaux
Un troisième élément fondateur a
été la découverte des nanostructures
carbonées, comme les nanotubes de
carbone, aux propriétés à la fois mécaniques et de transport exceptionnelles.
Dans le domaine des matériaux, les
nouvelles structures, constituées
d’assemblage de grains ou de fibres
nanométriques élargissent considérablement la boîte à outils des concepteurs de matériaux qui permettront
de repousser les compromis actuels
(poids-rigidité) et de générer de nouveaux matériaux fonctionnels (par
exemple des matériaux autonettoyants
ou superhydrophobes). Des propriétés
nouvelles apparaissent également si
l’on sait forcer l’assemblage de structures nanométriques. Par exemple, le
cuivre nanocristallin est à la fois plus
résistant et plus déformable que son
équivalent microcristallin… Ce champ
de recherche fait ainsi largement appel
à des stratégies d’auto-assemblage, où
l’on cherche les conditions pour que
Dame Nature aide à la formation de
matériaux macroscopiques utilisables
à partir de nanostructures contrôlées.
C’est sans doute là que les applications seront les plus rapides.
Bâti d’épitaxie par jets moléculaires : les semi-conducteurs y sont élaborés par évaporation sous
ultravide de leurs constituants.
Nanophotonique
Dans le domaine de l’optique, la
nanostructuration agit sur deux registres :
la modification des propriétés électroniques se traduit par celle des propriétés optiques, mais une structuration à l’échelle de la longueur d’onde
agit aussi directement sur les modes
propres du champ électromagnétique.
S’appuyant sur le premier de ces effets,
les structures à puits quantiques ou à
boîtes quantiques ont permis de mettre
au point des émetteurs lasers dans
l’infrarouge ou dans le proche infrarouge pour les télécommunications
optiques, ou dans le bleu, pour le
stockage de l’information.
Dans ce domaine des télécommunications, cette ingénierie des lasers,
des modulateurs ou des composants
passifs (guides, combineur…) a permis de concevoir l’architecture des
systèmes de demain (ou d’après-demain)
16 AVRIL 2005 – LA JAUNE ET LA ROUGE
Faisceau de nanotubes de carbone, observé en microscopie électronique haute résolution.
d’ores et déjà d’imaginer de nouvelles
approches. À l’échelle micronique, la
microfluidique, qui a pour objet le
contrôle de volume de liquide de
quelques nanolitres, permet déjà de
transporter des liquides dans des
microcanaux, de les aiguiller, de les
mélanger, de les chauffer ou de les
refroidir… Ces techniques ont permis de concevoir de véritables laboratoires sur puce. Dans ce contexte, des
nanostructures artificielles peuvent y
être intégrées pour servir de gels artificiels aux pores contrôlés, ou de tamis
moléculaires, deux systèmes qui permettront peut-être la séparation plus
facile de molécules biologiques, voire
le séquençage d’ADN. Elles permettent déjà ou permettront également
de nouvelles imageries basées sur des
capteurs ultrasensibles. Dans un autre
registre, l’émission optique de boîtes
quantiques greffées sur des biomolécules peut être suivie, révélant ainsi leur
cheminement.
La vectorisation de médicaments
pourra également peut-être un jour
bénéficier des possibilités de l’encapsulation dans des nanostructures carbonées de leurs principes actifs.
Guide défini dans une structure à bande interdite à deux dimensions. L’évolution de la taille des trous
le long du guide permet de coupler plus efficacement le mode du guide étroit (en haut sur la
micrographie) à celui d’une fibre optique.
qui feront largement appel, pour
obtenir des débits de centaines de
gigabits par seconde, au multiplexage
dense en longueur d’onde de canaux
de transmissions à très haut débit. La
mise au point de lasers ou de diodes
électroluminescentes dans le bleu
ouvre la porte, quant à elle, aux disques
optiques haute capacité et au remplacement des tubes néon et autres
lampes à incandescence par des émetteurs solides à haut rendement.
rition de bandes d’énergie permises
ou interdites). Ces structures permettent de modifier ou de rediriger
l’émission spontanée, de construire à
l’état solide des états mixtes photonsparticule matérielle, de générer des
superprismes (à dispersion mille fois
plus grande que les prismes réfractifs
traditionnels), d’exalter les propriétés non-linéaires, de construire des
circuits intégrés photoniques complexes et compacts.
L’ingénierie des modes optiques
a donné naissance de son côté aux
microcavités semi-conductrices ou
aux structures à bande interdite photonique (structures périodiques d’indice
ayant pour les photons un effet semblable à celui du réseau périodique
d’atomes dans les solides, avec appa-
Nano-objets pour la biologie
Dans le domaine de la biologie et
de la santé, les enjeux du diagnostic,
du traitement, et de la compréhension des mécanismes fondamentaux
sont conditionnés par les nanosciences
et nanotechnologies qui permettent
Enfin, de nombreux systèmes biomimétiques peuvent être conçus et
étudiés pour mieux comprendre, sur
ces systèmes modèles, les principaux
mécanismes à l’œuvre dans des situations réelles autrement complexes.
Modélisation
La modélisation des propriétés
physiques de nano-objets fait largement
appel aux techniques de calculs mises
au point pour la physique du solide
ou la chimie (calculs abinitio ou de
dynamique moléculaire pour comprendre les mécanismes de croissance
ou d’auto-assemblage). Avec l’augmentation des capacités des ordinateurs, des calculs abinitio de la structure électronique d’objets comportant
quelques dizaines de milliers d’atomes
sont à notre portée. Le raccord entre
ces modélisations à l’échelle nanométrique et la modélisation du monde
macroscopique, la mise au point de
modélisation multi-échelles sont un
autre enjeu important de ce domaine.
LA JAUNE ET LA ROUGE – AVRIL 2005
17
Nanos et société
Manipuler la matière à l’échelle du
nanomètre et particulièrement des
biomolécules, rendre possible une
ultraminiaturisation de systèmes complexes, produire des composites à
partir de matière finement divisée,
tout cela n’est pas sans poser des problèmes d’éthique, d’environnement
ou d’acceptabilité sociale. Comme
toute nouvelle technologie, les nanotechnologies suscitent ainsi un questionnement légitime. La littérature de
science-fiction comme les prises de
position de personnalités renforcent
les inquiétudes que les nanosciences
et nanotechnologies cristallisent.
Comme le décrit si bien Louis
Laurent, elles se déclinent en trois
craintes principales : la perte de contrôle,
la mauvaise utilisation des découvertes et la transgression d’interdits.
Le risque lié à la perte de contrôle est
en jeu lorsqu’on évoque “ la gelée
grise ” ou le risque environnemental
de la matière finement divisée. Si le premier (non-contrôle de nanorobots
pouvant s’autorépliquer et produisant des nano-objets, pouvant consommer toutes les ressources terrestres)
est purement de l’ordre de la sciencefiction à une époque où nous ne savons
pas contrôler le sens de rotation de
nanomoteurs moléculaires, le deuxième
doit être pris au sérieux. Les études de
toxicologie et de dégradabilité doivent être entamées avant toute production en masse et déploiement de
nanomatériaux.
La mauvaise utilisation des découvertes, possible pour toute innovation, est ici particulièrement prégnante
car les nanotechnologies permettront
de développer des systèmes de plus en
plus performants mais aussi de les
miniaturiser (et donc aussi de les
cacher). On peut en donner maints
exemples : les laboratoires sur puce,
qui faciliteront la détection de prédisposition génétique à telle ou telle
maladie, pourraient aussi être mis à profit par un employeur indélicat, ou un
banquier, ou un assureur (à partir
d’un cheveu perdu…) pour accéder
aux mêmes informations. D’autres
18 AVRIL 2005 – LA JAUNE ET LA ROUGE
Suivi de molécules biologiques auxquelles ont été greffées des boîtes quantiques luminescentes à
l’intérieur d’un neurone (in vitro).
exemples sont ceux des systèmes
implantés (certains permettant la télésurveillance de paramètres biologiques,
d’autres peut-être en liaison directe
avec notre système nerveux) ou de la
“ poussière intelligente ” (bardée de
capteurs, communiquant en réseau…).
Ces aspects sont du domaine de
l’éthique, pour contrôler qui pourra
disposer des produits rendus possibles par ces technologies.
La dernière source d’inquiétude,
liée à la transgression d’interdits, est
principalement induite par nos facultés nouvelles à agir sur le vivant, à
produire clones et chimères : là aussi,
le seul encadrement possible est éthique.
S’y ajoute le risque réel de voir
leur utilisation massive amplifier le
déséquilibre Nord-Sud entre pays
riches et en voie de développement.
Au-delà de toutes ces inquiétudes,
les usages que souhaite faire la société
des révolutions que permettront nanosciences et nanotechnologies sont un
champ sans doute intéressant pour
les sciences sociales.
Conclusion
Ce domaine des nanosciences et
nanotechnologies est, on l’a vu dans
tous ces exemples, à la convergence
de domaines disciplinaires divers, des
mathématiques appliquées à la biologie, en passant par la physique et la
chimie. Elles sont porteuses de multiples promesses d’application, seront
à la source de nouvelles découvertes
et sont aussi génératrices d’interrogations salutaires. Comme tous les
domaines interdisciplinaires, elles se
nourriront de disciplines fortes et
solides.
Si je peux m’adresser pour conclure
aux élèves de cette école, j’ai envie de
vous rappeler qu’elle vous permet d’acquérir des bases solides dans la plupart des disciplines scientifiques d’intérêt dans le domaine des nanosciences
et nanotechnologies : je suis persuadé
que cette formation est un atout inestimable pour ceux d’entre vous qui
exerceront leur activité professionnelle dans ce champ scientifique et
technique fascinant et sur bien des
aspects encore balbutiants.
n
LA PHYSIQUE AU XXIE SIÈCLE
Recherches et enjeux
en physique des plasmas
Jean-Marcel Rax,
professeur à l’Université Paris XI,
directeur du Laboratoire de physique et technologie des plasmas (LPTP),
École polytechnique
La physique des plasmas
La matière constituant notre environnement proche se présente essentiellement sous forme solide, liquide
ou gazeuse. Au-delà de ces trois états,
à haute et à basse températures, deux
nouveaux types d’états, (1) les “ gaz
quantiques ” et (2) les “ gaz ionisés ”, se
distinguent par l’apparition d’une
grande diversité de phénomènes physiques nouveaux : (1) à très basse température, les états supraconducteur,
superfluide ainsi que les condensâts
de Bose-Einstein présentent une richesse
de comportements associée aux corrélations, à l’échange et à la cohérence
quantiques ; (2) à très haute température, la dissociation puis l’ionisation conduisent à la création de populations d’ions et d’électrons libres et
ces charges libres induisent un comportement collectif, non-linéaire, chaotique et turbulent.
On appelle “plasma” ou “gaz ionisé”
cet état exotique de la matière contenant une fraction significative de
charges libres; l’ensemble des concepts,
méthodes et résultats propres à l’étude
de cet état de la matière constitue la
“ physique des plasmas ”.
La physique des plasmas intègre
les connaissances de nombreux autres
domaines de la physique, tels que la
physique statistique, la dynamique
hamiltonienne, l’électrodynamique
relativiste, les physiques atomique,
moléculaire et nucléaire ; réciproquement, de nombreux concepts et
méthodes, issus de recherches fondamentales en physique des plasmas,
ont été intégrés par d’autres disciplines, plus particulièrement en physique non-linéaire, chaos et turbulence et théories des instabilités.
Les plasmas dans l’univers
Les océans, les continents et l’atmosphère ne sont pas des plasmas ; ils se
présentent sous formes fluides et
solides neutres. La croûte, le manteau
et le noyau terrestre sont constitués principalement de fer, d’oxygène, de silicium et de magnésium sous forme
solide et liquide. L’atmosphère terrestre est composée essentiellement
d’azote et d’oxygène, sous forme
gazeuse neutre et, en quantités minimes,
de gaz rares. Enfin, pour ce qui
concerne les océans, ils sont formés
d’eau, contenant, en proportions
minimes, des sels minéraux, principalement des halogénures alcalins et
alcalinoterreux. Cette analyse rapide
de notre environnement proche pourrait laisser croire que la phase plasma
est totalement absente à l’état naturel ; au contraire, les plasmas constituent l’essentiel de l’environnement
terrestre au-delà de la haute atmosphère. En effet, à l’échelle cosmique,
plus de quatre-vingt dix-neuf pour
cent de la matière visible se présente sous forme ionisée, en phase
plasma. La physique de l’environnement terrestre proche relève donc de
la mécanique et de la thermique des
fluides classiques ; par contre, à partir d’une altitude de l’ordre d’une centaine de kilomètres, le rayonnement
ultraviolet du Soleil entretient une
structure ionisée dont l’étude relève
de la physique des plasmas : l’ionosphère. À une telle altitude la densité
de particules chargées atteint des
valeurs supérieures à plusieurs dizaines
de milliers d’électrons et d’ions par
centimètre cube ; ces charges libres
constituent la population à l’origine des
propriétés électromagnétiques et physicochimiques originales de ces couches
de la très haute atmosphère. Au-delà
de l’ionosphère, c’est-à-dire à partir
d’une altitude de l’ordre du millier de
kilomètres, s’étend la magnétosphère :
un plasma magnétisé structuré par le
champ magnétique dipolaire terrestre
et alimenté en espèces chargées par
le vent solaire.
Au-delà de la magnétosphère s’étend
l’espace interplanétaire, rempli aussi
par un plasma, le vent solaire, issu
des couches externes du Soleil ; le
Soleil est aussi une sphère de gaz
LA JAUNE ET LA ROUGE – AVRIL 200519
ionisée structurée en différentes couches.
Au-delà du système solaire, les étoiles,
quels que soient leurs types, sont
essentiellement des sphères de plasma
et les espaces interstellaire et intergalactique sont aussi emplis de particules chargées en interaction électromagnétique. En conclusion, bien que
notre environnement proche soit formé
de matière neutre sous forme liquide,
solide et gazeuse, à grande échelle,
les plasmas constituent l’essentiel de
l’environnement terrestre et la physique des plasmas s’impose comme
l’outil de référence pour étudier cet
environnement au-delà des couches
basses de l’atmosphère. En particulier, les structures et les processus tels
que : les aurores boréales, le vent
solaire, les queues de comètes, les
bras galactiques, les magnétosphères,
la couronne solaire, les éruptions
solaires, les atmosphères et intérieurs
stellaires, l’émission électromagnétique des nébuleuses gazeuses et des
pulsars relèvent de la physique des
plasmas.
Les plasmas dans l’industrie
Au-delà de son intérêt en tant
qu’outil de référence pour l’étude des
problèmes d’astrophysique et de physique spatiale, la physique des plasmas
se situe aussi en amont d’un vaste
champ d’applications technologiques.
Citons par exemple les domaines de
haute technologie que sont la microélectronique et l’exploration spatiale :
plus de la moitié des opérations de
fabrication des processeurs et
mémoires sont actuellement effectuées dans des réacteurs plasmas
et les propulseurs plasmas sont
considérés comme l’option la plus
pertinente pour une mission habitée vers Mars.
Au cours de ces dernières années
la pénétration des procédés plasmas
dans les processus industriels a augmenté de façon extrêmement rapide ;
bien qu’elles ne soient pas encore
identifiées en tant que secteur industriel spécifique, les technologies plasmas
sont devenues indispensables aussi
bien dans des domaines innovants
comme les nouveaux matériaux, les
20AVRIL 2005 – LA JAUNE ET LA ROUGE
nanotechnologies et la propulsion
spatiale, que dans des domaines plus
classiques tels que la sidérurgie, l’éclairage ou la chimie.
Enfin, la physique des plasmas est
l’outil essentiel pour comprendre les
différents systèmes expérimentaux mis
en œuvre dans le cadre des programmes
de recherche sur la fusion thermonucléaire ; la fusion nucléaire du deutérium et du tritium en phase plasma
constituant la seule option, à long
terme, pour pallier l’épuisement des ressources en énergie fossile.
La figure 1 présente quelques
valeurs typiques de densités (n) et
températures électroniques (T) de
ces plasmas thermonucléaires et industriels. Le domaine d’application de
la physique des plasmas ne se restreint donc pas à l’étude des structures et processus astrophysiques ;
depuis plusieurs dizaines d’années
la physique des plasmas est devenue
indispensable dans de nombreuses
industries; elle constitue une branche
extrêmement active et innovante de
la physique appliquée. Les activités
industrielles peuvent être classifiées
suivant différents schémas ; du point
de vue de la physique appliquée, il
est intéressant de considérer trois
grands types d’activités et de distinguer respectivement : (1) le traitement de l’information, (2) le traitement de l’énergie, (3) le traitement
des matériaux.
Les technologies des plasmas sont
au cœur des techniques de pointe
mises en œuvre dans ces trois secteurs ; quelques exemples permettent
de mesurer l’impact et le potentiel des
procédés plasmas dans ces trois
domaines.
Les technologies modernes de traitement de l’information utilisent en
effet des composants électroniques
miniaturisés tels que les micropro-
FIGURE 1
cesseurs et les mémoires. Ces composants ne peuvent être fabriqués que
dans des réacteurs à plasma car la gravure de millions de motifs, possédant
des détails de dimensions inférieurs
au millième de millimètre, est impossible avec les procédées mécaniques
ou chimiques usuels, mais devient
possible avec les flux d’ions énergétiques
issus de la zone périphérique des
décharges plasmas radiofréquence.
Ainsi, les réacteurs plasmas radiofréquence, conçus pour maîtriser et optimiser ces flux d’ions, permettent les
opérations de gravure et de dépôt sur
les substrats de silicium et sont les
outils essentiels des chaînes de fabrication des industries microélectroniques.
s’auto-entretenir en régime de combustion exothermique qu’à partir
d’une température de l’ordre d’une
centaine de millions de degrés ; à de
telles températures la matière est totalement ionisée et la problématique
de la production d’énergie par fusion
nucléaire se réduit donc aux problèmes complexes du chauffage et
du confinement des plasmas.
L’activité des sociétés industrielles
modernes nécessite entre un et quelques
gigawatts de puissance électrique par
million d’habitants ; aussi, la consommation mondiale annuelle en énergie
atteint désormais un niveau de l’ordre
de 10 20 joules. Compte tenu des
contraintes écologiques et de l’épuisement des ressources fossiles conventionnelles, pour maintenir un tel niveau
de production, la fusion de noyaux
légers de deutérium et tritium, suivant la réaction : un deutérium plus
un tritium donnent une particule alpha
plus un neutron, dans des réacteurs
à fusion thermonucléaire contrôlée,
est la seule option, à long terme, validant physiquement les schémas de
développement envisagés pour les
sociétés postindustrielles.
La production d’oxyde d’azote,
d’acétylène et de carbure de calcium,
par synthèse en phase plasma, dès
le début du vingtième siècle, marque
le début des premières applications
industrielles des plasmas dans le
domaine de la synthèse et du traitement des matériaux. Les propriétés
de hautes températures des plasmas
d’arc de puissance sont utilisées en sidérurgie pour améliorer ou remplacer
les procédés conventionnels des hauts
fourneaux. Ces mêmes décharges
plasmas en régime d’arc, mais à plus
faible puissance, constituent les éléments actifs des systèmes de découpe
et de soudure dans les ateliers de
mécanique en amont des industries
nucléaire, aéronautique et spatiale.
Les plasmas permettent aussi la production de films de diamant ou de
couches minces de silicium ; enfin la
phase plasma offre une voie unique
pour la synthèse de matériaux ultradurs n’existant pas à l’état naturel
tels que le nitrure de carbone. Les
réacteurs à plasma, parfois appelés
générateurs à plasma ou sources plasmas, sont des dispositifs permettant
la production de plasma afin d’utiliser (1) la population électronique
pour amorcer et entretenir une réactivité chimique en volume, généralement dans des conditions de nonéquilibre thermodynamique et (2) le
flux d’ions en périphérie du plasma,
dans la zone dite de gaines, afin de
traiter des matériaux.
En effet, un système thermonucléaire (1) ne produit pas de dioxyde
de carbone, (2) génère des déchets
radioactifs de faible activité et (3)
ne présente aucun risque d’emballement ; le deutérium se trouve
en quantité inépuisable dans l’eau et
le tritium peut être produit dans la
couverture du réacteur en utilisant
les réactions du flux neutronique,
issu de la réaction de combustion
thermonucléaire, avec une couverture en lithium. Le lithium se trouve
aussi en quantité abondante dans la
croûte terrestre. Compte tenu des
pertes radiatives et diffusives, les réactions thermonucléaires ne peuvent
La solution de ces problèmes, jusqu’à présent non résolus, implique la
compréhension et la maîtrise des instabilités et de la turbulence dans les
plasmas thermonucléaires, qui constituent les objectifs majeurs des programmes de recherches en physique
des plasmas thermonucléaires.
Les réacteurs
pour la microélectronique
Les réacteurs radiofréquence, malgré l’apparente simplicité de leur structure, sont des objets au comportement
complexe qui présentent une grande
diversité de régimes de fonctionnement et sont sujets à de nombreuses
instabilités. La figure 2 présente la vue
extérieure du réacteur capacitif du
Laboratoire de physique et technologie des plasmas de l’École polytechnique ; un champ électromagnétique
radiofréquence (13,56 MHz) entretient le plasma (P). Le système complet est composé de quatre éléments :
le système de pompage et de contrôle
des gaz neutres (C), le générateur RF
et le système d’adaptation d’impédance (A), l’ensemble des diagnostics
de la phase plasma et de la phase neutre
et enfin la structure de couplage et la
chambre à plasma (R).
À basse pression, au voisinage de
quelques millitorrs, dans ces structures radiofréquences, les collisions
sont insuffisantes pour expliquer
l’absorption du champ électromagnétique par les électrons; un deuxième
mécanisme de transfert d’énergie du
champ vers la population électronique
entre en jeu : le chauffage stochastique. Du point de vue du physicien,
ce mécanisme est essentiellement un
régime de couplage champ-particule
en régime chaotique ; on voit donc
que les réacteurs plasmas RF, comme
de nombreux systèmes de haute
technologie, sont le lieu privilégié
de rencontre entre la physique appliquée et la physique fondamentale.
Le chauffage stochastique, les instabilités, les transitions entre régimes
dans les réacteurs radiofréquences
sont autant de sujets de recherches
qui nécessitent la mise en œuvre de
l’ensemble des méthodes et outils théoriques et expérimentaux de la physique des plasmas.
La physicochimie des plasmas et
plus particulièrement la compréhension et la maîtrise des cinétiques des
espèces actives participant au processus de dépôt et de gravure constituent un deuxième sujet de recherches
LA JAUNE ET LA ROUGE – AVRIL 200521
© LPTP
FIGURE 2
extrêmement actif, compte tenu de
l’impact direct de ces études sur les
procédés et opérations de fabrication
des composants microélectroniques.
Les réacteurs radiofréquences pour
la gravure, le dépôt et l’implantation
ionique génèrent des plasmas dont la
fonction ultime relève du traitement
des matériaux; le traitement de l’énergie est aussi un vaste champ d’applications des technologies plasmas, que
nous précisons dans la suite.
Les réacteurs
thermonucléaires
Que ce soit pour la production
d’énergie dans les systèmes thermonucléaires Tokamaks, ou pour la propulsion des systèmes spatiaux avancés, le potentiel des technologies
plasmas permet d’envisager des modes
de fonctionnement et des performances
inaccessibles aux technologies actuelles;
les plasmas offrent ainsi la possibilité
de développer de nouvelles technologies
innovantes, basées sur des principes
physiques originaux.
Les Tokamaks sont des configurations magnétiques utilisées pour
confiner et chauffer des plasmas en
régime thermonucléaire ; en effet, la
température d’amorçage et d’entre-
22AVRIL 2005 – LA JAUNE ET LA ROUGE
tien d’une combustion thermonucléaire étant de l’ordre d’une centaine
de millions de kelvins, il n’existe
aucun matériau pouvant supporter
de telles températures. Il est donc
nécessaire d’utiliser le principe du
confinement magnétique : le mouvement d’une particule chargée interagissant avec un champ magnétique
statique est la combinaison d’une
rotation autour des lignes de champ
et d’une translation le long des lignes
de champ; ce comportement des systèmes de charges est à la base du principe du confinement magnétique : si
les lignes de champ sont fermées ou
restent dans un volume fini, comme
c’est le cas dans la configuration
Tokamak, alors les particules restent
confinées dans ce volume fini.
La réalité est plus complexe pour
les configurations de type Tokamak
car, en repliant des lignes de champ
magnétique, se créent nécessairement des inhomogénéités qui engendrent des dérives perpendiculaires
aux lignes de champ ; il faut donc
compenser ces dérives afin d’assurer
un confinement orbital. Pour cela,
un champ, dit poloïdal, généré par un
courant traversant l’anneau de plasma
(quelques millions d’ampères dans
un réacteur) est superposé au champ
toroïdal créé par le système de bobines
distribuées autour du tore de plasma.
Le résultat est donc une structure de
champs complexes où les lignes de
champ sont des hélices s’appuyant
sur des tores emboîtés. La configuration Tokamak offre ainsi un exemple
de champs complexes où les différentes dérives sont compensées et le
confinement orbital assuré. Afin d’assurer la stabilité du tore de plasma
des bobinages verticaux sont aussi
nécessaires.
Le confinement orbital est une
condition nécessaire, mais ne constitue pas une condition suffisante pour
assurer un bon confinement global
du plasma ; en effet, le plasma génère
des champs électrique et magnétique
qui ont tendance à détruire le confinement. Ainsi, le tore de plasma d’une
configuration Tokamak doit être
contrôlé en permanence, car il est
l’objet de nombreuses instabilités et
d’une intense activité turbulente résultant de couplages non-linéaires entre
les champs et les particules.
La figure 3 présente une vue du
Tokamak du Laboratoire de physique
et technologie des plasmas. Les bobines
générant les champs toroïdal (B) et
vertical sont visibles, ainsi que la
chambre à plasma (T) et un ensemble
de systèmes de contrôle (C), de chauffage (M) et de diagnostic qui complètent ce dispositif expérimental. Dans
le domaine de la physique des
Tokamaks, il est d’usage de distinguer les grandes machines dont les
performances s’approchent des performances d’un réacteur et dont les
équipes regroupent plusieurs centaines de physiciens et ingénieurs, des
petites machines telles que celle de la
figure 3.
Les performances des grands
Tokamaks les placent loin devant tous
les autres types de machines et de
procédés qui ont été proposés jusqu’à
présent pour amorcer et entretenir
une combustion thermonucléaire. Ce
succès fait des Tokamaks un sujet de
recherche particulièrement actif, et
de grands Tokamaks, dédiés aux études
de physique des plasmas thermonu-
© LPTP
FIGURE 3
cléaires, ont ainsi été construits depuis
plus de vingt ans : Tore Supra en
France (TS, CEA Cadarache), JET en
Angleterre (Euratom), TFTR puis
MSTX aux États-Unis (DoE Princeton),
JT60 au Japon et bien d’autres.
compréhension et le contrôle de la
turbulence, (3) la génération et le
contrôle du courant en régime continu,
(4) la maîtrise de la dynamique des
populations suprathermiques en régime
thermonucléaire.
Le projet mondial ITER doit permettre l’accès à la combustion thermonucléaire dans une configuration
magnétique de type Tokamak dans
les prochaines décennies. Les performances obtenues ces dernières
années en termes de confinement,
chauffage et contrôle des plasmas
thermonucléaires dans ces grands
Tokamaks traduisent des avancées
remarquables et l’extrapolation des
lois d’échelles, issues des bases
de données accumulées ces vingt
dernières années, permet d’envisager avec confiance l’accès à l’ignition et l’entretien d’une combustion thermonucléaire dans le
réacteur ITER.
Elles conditionnent la mise au
point d’un réacteur techniquement
fiable et économiquement viable. En
effet, dans un réacteur Tokamak en
régime de combustion continue :
1) l’injection-extraction de puissance
à la périphérie du plasma doit s’effectuer en respectant de sévères
contraintes technologiques de tenue
des matériaux aux flux intenses de
rayonnements et particules,
2) la turbulence et le transport doivent être diagnostiqués et contrôlés
en temps réel et maintenus à un
niveau compatible avec l’entretien de
la combustion thermonucléaire,
3) quelques dizaines de millions
d’ampères doivent être entretenus en
régime continu afin d’assurer le
confinement orbital et l’accès à des
profils de courants optimaux,
4) la population de particules alpha
d’origine thermonucléaire et les ions
suprathermiques doivent être confinés, diagnostiqués et contrôlés afin
d’assurer une combustion et un pilotage efficaces.
Cependant, le programme Tokamak
se heurte actuellement à quatre grands
problèmes qui constituent de solides
verrous physiques et technologiques.
Ces quatre questions clés, scientifiques et techniques concernent : (1)
la compréhension et le contrôle de
l’interaction plasma-paroi, (2) la
La conception d’un réacteur thermonucléaire qui soit à la fois techniquement fiable et économiquement
viable passe donc par l’étude approfondie des processus d’interaction
plasma-paroi et des mécanismes de
turbulence, ainsi que par l’identification de nouveaux procédés de diagnostic et de contrôle de la turbulence, du courant et des populations
suprathermiques à l’origine de la réactivité thermonucléaire. C’est l’achèvement de ce vaste programme de
physique, fondamentale et appliquée,
qui constitue l’objectif du projet ITER,
basé sur les développements complémentaires de ses précurseurs.
n
LA JAUNE ET LA ROUGE – AVRIL 200523
LA PHYSIQUE AU XXIE SIÈCLE
La physique des particules
Bruno Mansoulié (75),
Commissariat à l’Énergie atomique, Saclay
La physique de l’élémentaire
Si l’appellation “Physique des particules ” est traditionnelle pour désigner l’étude des constituants de la
matière, je lui préfère de beaucoup
celle de “ Physique de l’élémentaire ”.
À la question : “ De quoi la matière
est-elle faite et quelle est son origine?”,
une longue tradition occidentale tente
en effet de répondre par une hiérarchie de structures, convaincue que la
variété de la nature est obtenue par
l’assemblage de corpuscules élémentaires d’un petit nombre de types.
L’idée est simple et forte, et encore
de nos jours, la découverte d’une nouvelle “ particule ” est un événement
aussi bien pour le public que pour
les chercheurs. Pourtant, la physique
moderne a élargi considérablement
les concepts de constituants et d’interactions : la mécanique quantique nous
indique en effet qu’une particule est
aussi une onde, cependant que dans
la relativité générale, matière et espacetemps eux-mêmes apparaissent comme
des champs. Dans les théories récentes
des supercordes, les particules perdent même leur caractère ponctuel et
sont décrites comme des cordes ou
membranes en interaction dans un
espace à dix (ou peut-être onze…)
dimensions.
L’image familière du monde des
particules est donc initialement celle
des poupées russes : dans la matière,
24AVRIL 2005 – LA JAUNE ET LA ROUGE
des atomes, dans un atome un noyau
(et des électrons), dans un noyau, des
protons et des neutrons, dans un proton des quarks… Selon cette image,
tout progrès de la discipline serait lié
à la découverte d’un nouveau composant, plus petit. En fait, ce que les
physiciens recherchent avant tout, ce
sont des structures élégantes, et la
description de la matière par un modèle
simple et cohérent.
rigueur et précision les constituants de
la matière et leurs interactions. Toute
nouvelle mesure, qu’elle provienne
d’un accélérateur de particules ou
d’une observation par satellite, est
immédiatement confrontée au Modèle
standard. Aujourd’hui, des mesures
très précises, effectuées sur des objets
et dans des gammes d’énergies très
variés, confirment toutes le Modèle
standard.
Il est vrai que, parfois, l’explication de ces structures, la simplification
du modèle viennent de l’introduction
d’une nouvelle échelle de composants.
Le premier exemple fut d’expliquer
la variété des éléments chimiques et
la composition du tableau de
Mendeleïev par la structure des atomes,
et leur description en protons, neutrons
et électrons. Le second permit d’expliquer la nature des nombreuses particules découvertes dans les années
1960 auprès des accélérateurs, comme
des assemblages variés d’un petit
nombre de composants : les quarks.
Malgré ses succès, le Modèle standard ne manque pas d’imperfections :
un grand nombre de paramètres libres,
certaines structures totalement inexpliquées, et surtout une insuffisance
ontologique. On sait bien décrire les
particules et leur comportement, on
sait mal ce qui fait qu’une particule
est une particule. Pourquoi, à tel
endroit, à tel instant, une concentration d’énergie nous apparaît-elle comme
une particule dotée d’une masse, d’une
charge, ou d’un tout petit nombre
d’autres caractéristiques ?
Pour autant, cette image simple
est trop limitée. L’ambition est en effet
bien plus vaste : le modèle recherché
doit en effet rendre compte de toutes
les propriétés de la matière, naturelle
ou artificielle, à toutes les échelles de
taille ou d’énergie, et à toutes les
époques, du big bang à nos jours. Le
cœur de cette compréhension est le
Modèle standard, qui décrit avec
Ces insuffisances de principe donnaient lieu depuis longtemps à d’intenses spéculations sur de nouveaux
modèles théoriques, associés à de
nombreuses recherches de signes expérimentaux. Mais la surprise des dernières années est venue des mesures
cosmologiques : 95 % de la densité
d’énergie de l’univers est de nature
inconnue, différente de la matière
“ordinaire” que décrit le Modèle stan-
dard ! Un tiers environ est sans doute
d’une nature “ proche ”, et pourrait
être décrite par certaines extensions
du Modèle déjà envisagées. Mais le
reste, soit plus des deux tiers du
contenu énergétique de l’univers,
échappe encore aujourd’hui à toute
description microscopique.
Entre ces questions, anciennes et
nouvelles, on distingue aujourd’hui
un réseau de liens qui touchent aux
aspects les plus fondamentaux de
notre perception du monde : gravitation, symétries, nature de l’espacetemps…
L’élaboration
du Modèle standard
La notion d’un Modèle standard,
décrivant toutes les particules et les
interactions de façon cohérente, n’apparaît qu’à la fin des années 1970. Mais
les fondements du modèle remontent
directement à la période magique de
l’aube du vingtième siècle qui, en
moins de dix ans, voit l’apparition des
théories de la mécanique quantique
et de la relativité, et les découvertes
de l’électron, du noyau atomique et
de la radioactivité. À ce moment, la
théorie quantique décrit l’étonnant
comportement microscopique des particules, et la relativité (restreinte) admet
le temps comme 4e dimension, contraignant la forme des interactions (interdisant par exemple l’interaction instantanée à distance, comme celle de
Newton), et montrant l’équivalence
entre masse et énergie.
Il reste à marier ces deux concepts :
c’est Dirac, en 1928, qui écrit la première théorie quantique relativiste de
l’électron. Ce pas est essentiel pour
comprendre la puissance de description des modèles actuels. Grâce aux
effets quantiques et aux relations
d’incertitudes, il est possible d’échapper
à la conservation de l’énergie pour
une quantité ∆E, à condition que ce
soit pour un temps ∆t d’autant plus
court que ∆E est grand : le produit
∆E x ∆t doit rester inférieur à h/4π,
où h est la constante de Planck. La
petitesse de h assure que le monde à
l’échelle humaine est “classique”, avec
Figure 1a
Figure 1b
Un électron avec une correction quantique :
émission et réabsorption d’un photon virtuel.
Une correction quantique plus complexe.
La boucle peut contenir n’importe quelle particule
existante.
une énergie conservée et un comportement raisonnable. À l’échelle des
particules, cette fenêtre quantique
ouvre des horizons immenses : avec
la relativité, la masse au repos d’une
particule, m, est équivalente à une
énergie mc2. Il devient donc possible
d’envisager que, pendant un temps
∆t, on ait une fluctuation d’énergie
∆E, qui s’exprime sous la forme d’une
particule de masse m = ∆E/c2. On
parle alors de particule virtuelle. Quelle
particule ? N’importe laquelle, à choisir dans toutes les particules “ existantes ”, connues ou inconnues !
La figure 1 montre, dans la description en diagrammes introduite
bien plus tard par Feynman (vers
1960), la représentation d’un électron “ habillé ” par des corrections
quantiques relativistes. La première
prédiction de la théorie de Dirac est
l’existence d’une antiparticule pour
l’électron, le positon ; il sera découvert en 1933 par Anderson. Le vide luimême prend un statut de premier
plan : le vide classique est… vide. Le
vide quantique relativiste contient virtuellement toute la physique existante
à toutes les échelles d’énergie ou de distance! La théorie quantique relativiste
des électrons et des photons, l’électrodynamique quantique, s’élabore
depuis les années 1930 jusqu’aux
années 1970. La symbolisation des
calculs en diagrammes, par Feynman,
en rend la pratique aisée et accessible
à (presque) tous.
Il y a cependant un écueil de taille :
la multiplication des possibilités virtuelles conduit le plus souvent à des
résultats de calculs… infinis ! Dans
l’exemple de la figure 1a, la sommation (l’intégration) sur toutes les énergies possibles du photon virtuel donnerait ainsi une masse infinie à l’électron
de départ.
Le problème n’est pas vraiment
nouveau : il était déjà présent en électrodynamique classique, lorsqu’on se
posait la question par exemple de la
cohérence de l’électron : si on décrit
un électron comme une boule uniformément chargée, pourquoi les parties de cette boule ne se repoussentelles pas? De façon assez surprenante,
la théorie quantique, bien qu’elle autorise des effets virtuels infinis et complexes, apporte la solution, car elle
permet de hiérarchiser l’importance des
corrections virtuelles, et d’en préciser les effets. Ces calculs sont au début
un artifice mathématique quelque peu
hésitant, mais se trouvent confirmés
de façon éclatante par les mesures de
déplacement des niveaux atomiques
dus à la polarisation du vide (effet
Lamb). Dans les années 1950-1970,
cette approche devient un processus
étayé et central dans le modèle : la
“ renormalisation ”. Aujourd’hui la
mesure la plus précise dans ce domaine
(le moment magnétique anormal du
muon) montre un accord avec la théorie avec une précision impressionnante de 11 décimales.
Forte de ses succès, l’électrodynamique quantique est de ce fait devenue le modèle à suivre pour toute
théorie : quantique, relativiste et “renormalisable ”.
Au cours du XXe siècle sont mises
en évidence, puis étudiées, deux autres
interactions entre particules : les interactions faibles, responsables d’une
forme de radioactivité (et primordiales
dans le processus de combustion du
Soleil !), et les interactions fortes, qui
assurent la cohésion des noyaux (s’ils
n’étaient soumis qu’à la seule interaction électromagnétique, les protons
de même charge tendraient à se séparer, et les neutrons ne joueraient aucun
rôle). En 1965, on en est là : l’inter-
LA JAUNE ET LA ROUGE – AVRIL 200525
action électromagnétique a sa théorie puissante, cohérente et prédictive.
L’interaction faible a été étudiée en
détail par de nombreuses mesures de
précision, soit dans les désintégrations radioactives, ou auprès d’accélérateurs, et elle est décrite par un
modèle assez élégant, prédictif, mais
dont on sait la validité limitée aux
basses énergies. L’interaction forte,
quant à elle, connaît une foule de
résultats expérimentaux, les réactions
obtenues en envoyant un faisceau
d’accélérateur sur une cible produisant
quantités de “ nouvelles particules ”
de masses et de propriétés diverses ;
les modèles qui tentent de décrire
cette variété sont phénoménologiques,
peu prédictifs, parfois même un peu
étonnants sur le plan logique (l’un
d’entre eux s’appelle le boot-strap, faisant référence à l’idée qu’on pourrait
s’élever en se tirant par les lacets de
ses propres bottes !).
Le progrès décisif est alors de rechercher l’ingrédient qui permet le fonctionnement de la théorie électromagnétique, et de l’appliquer aux deux
autres, malgré les apparentes différences. Cet ingrédient, c’est la “ symétrie de jauge ”. Depuis le début, le rôle
des symétries est essentiel dans notre
compréhension théorique. Par exemple,
il est clair que les lois de la physique
doivent être invariantes par un changement de repère dans l’espace ou le
temps : cette invariance conduit à la relativité restreinte. De nombreuses autres
symétries sont utilisées pour contraindre
les lois physiques : invariance par rotation, invariance (ou pas !) par renversement du sens du temps, par échange
de constituants, etc.
L’invariance de jauge est une invariance par rapport à l’identité des particules : si un électron accompagné
d’un photon se manifeste dans mon
détecteur exactement comme un électron seul, pourquoi ne l’appelleraisje pas un électron ? On voit le lien
avec la renormalisabilité : les photons
virtuels qui accompagnaient mon électron risquaient de devenir trop nombreux et rendre mes calculs infinis.
Mais si c’est “ tout cela ” un électron,
plus de problème !
26AVRIL 2005 – LA JAUNE ET LA ROUGE
Appliquer l’invariance de jauge à
la théorie faible, et l’unifier avec l’interaction électromagnétique, ne peut
pas se faire si facilement : la portée
de l’interaction électromagnétique est
infinie (c’est le potentiel de Coulomb,
en 1/r), celle de l’interaction faible est
courte (très inférieure à la taille d’un
proton). Dans la théorie, ceci s’exprime par le fait que la particule médiatrice de l’interaction électromagnétique (le photon) possède une masse
nulle, alors que celles médiatrices des
interactions faibles (les W+, W- et Z0)
ont une masse très élevée.
En 1967, Weinberg et Salam, utilisant un résultat de Higgs, réalisent
pourtant cette unification. Le modèle
part d’une théorie commune où toutes
les masses des particules sont nulles.
On introduit alors une particule très
spéciale, le “ boson de Higgs ”, dont
la simple présence donne une masse
à toutes les particules du modèle…
sauf au photon.
La fameuse symétrie “ de jauge ”
est donc brisée, mais d’une façon assez
“douce” pour que ses propriétés soient
conservées. En 1974, t’Hooft montre
en effet que ce type de théorie est
renormalisable.
À peu près en même temps, les
expériences tendent à montrer que
les protons et neutrons seraient constitués d’objets plus petits. Rapidement,
on explique toutes les particules produites par interaction forte à l’aide
d’un petit nombre de constituants,
les quarks. Mais là aussi, le pas décisif est de comprendre que les quarks
et leur interaction forte peuvent être
décrits par une théorie “ de jauge ”, la
chromodynamique quantique (QCD).
Vers la fin des années soixante-dix,
le Modèle standard est enfin constitué, et sa conception ne changera pas
jusqu’à nos jours, malgré des mises à
l’épreuve expérimentales et théoriques
aussi variées que précises. Seule la
gravitation échappe à cette description, car si nous en avons une excellente description classique (la relativité générale d’Einstein), nous n’en
connaissons pas de théorie quantique.
Les progrès expérimentaux
et le Modèle standard
aujourd’hui
Pendant la première moitié du
siècle, les phénomènes corpusculaires sont d’abord observés à partir de sources naturelles, radioactivité
et rayons cosmiques, et des minuscules accélérateurs d’électrons que
sont les tubes cathodiques. À partir
de la Deuxième Guerre mondiale se
développent les véritables accélérateurs de particules, de dimensions et
d’énergie toujours croissantes. En
effet, la mécanique quantique nous
indique que l’impulsion transférée
par une particule sonde est inversement proportionnelle à la précision
spatiale qu’elle permet d’atteindre.
XXe
Des laboratoires sont créés pour
abriter spécifiquement ces grands instruments, comme le CERN, fondé en
1954 près de Genève par l’ensemble
des pays européens, DESY à Hambourg,
Fermilab et SLAC aux USA, etc. À
titre d’exemple, le premier “ gros ”
accélérateur construit au Cern en 1960
avait un diamètre de 72 m. Plusieurs
générations de machines plus tard, le
LEP a fonctionné de 1989 à 2000 dans
un tunnel de 9 km de diamètre situé
à 100 m sous la campagne genevoise.
Ce tunnel s’apprête maintenant à recevoir le futur fleuron du Cern, le LHC,
dont le démarrage est prévu en 2007.
Les expériences ont aussi énormément augmenté en taille, en complexité, et en durée : une expérience
auprès du LHC sera un complexe de
40 m de long, 30 m de diamètre, comprenant des millions de canaux électroniques, mis au point par une collaboration de plus d’un millier de
physiciens et d’ingénieurs provenant
de tous les pays développés de la planète. Les expériences (il y en aura 4)
seront probablement exploitées durant
plus de quinze ans.
En parallèle, d’autres méthodes de
recherche ont été poursuivies, comme
l’observation des rayons cosmiques, en
plein renouveau actuellement, ou certaines observations astronomiques.
et troisième familles sont des répliques
de la première, contenant des particules observées dans des réactions de
plus haute énergie, naturelles (rayons
cosmiques) ou artificielles (accélérateurs), dont les propriétés sont identiques à leurs sœurs de la première
colonne, si ce n’est leur masse plus
élevée.
Figure 2
L’empreinte au sol du tunnel du LEP au Cern
(on aperçoit au second plan le lac Léman et,
en arrière-plan, le Mont-Blanc). Le tunnel
lui-même est situé 100 m sous terre.
Durant les trente dernières années,
le Modèle standard a acquis une étonnante solidité par un va-et-vient incessant entre prédictions théoriques et
résultats expérimentaux, impossibles
à détailler ici, mais que le lecteur peut
apprécier de façon concise (et très
réductrice !) par ce chiffre : 12 prix
Nobel pour la discipline depuis 1976!
Le tableau 1 rassemble les particules élémentaires de matière connues.
Il comporte trois colonnes, couramment appelées “familles” : la première
famille comprend les particules qu’on
trouve autour de nous : deux quarks
(u et d), qui constituent les protons
et les neutrons dans le noyau des
atomes, un électron, et un neutrino
dit “ électronique ”, pour exprimer sa
parenté avec l’électron. Les deuxième
Toute particule possède son antiparticule, de même masse, mais avec
toutes les “ charges ” opposées ; par
exemple le positon, antiparticule de
l’électron, de charge électrique + e.
Les différentes “lignes” du tableau
décrivent simplement quelles particules sont soumises à quelle(s) interaction(s) fondamentales : les neutrinos ne connaissent que l’interaction
faible, l’électron (et ses partenaires µ,
τ) est soumis aux interactions faible
et électromagnétique, cependant que
les quarks ressentent les trois interactions faible, électromagnétique et
forte. Comme on l’a vu, les interactions électromagnétiques et faibles
sont considérées aujourd’hui comme
deux aspects d’une même interaction
électrofaible.
Toutes les particules de ce tableau
ont maintenant été observées expérimentalement. Mais la cohérence du
modèle est telle que plusieurs d’entre
elles avaient été prédites à partir de
la théorie et de mesures indirectes,
bien avant leur observation directe.
Tableau 1
Les particules élémentaires de matière du Modèle standard et leurs interactions.
Pour compléter le paysage, il faut
ajouter deux remarques :
• la présence de trois “ familles ” est
absolument inexpliquée. Mais on sait
qu’elle est à l’origine d’un phénomène très important d’asymétrie
entre matière et antimatière ;
• les neutrinos ont une masse très
faible, si faible qu’on la supposait
nulle. Des mesures récentes, hors
accélérateur, ont démontré que ces
masses sont certes faibles, mais différentes de zéro. Cela ouvre de nouvelles possibilités d’étude et de mise
en cause du modèle, ainsi qu’un nouvel éclairage sur l’asymétrie matière
antimatière.
Comme je l’ai dit plus haut, le
fameux “ boson de Higgs ” n’entre pas
dans la liste des particules de matière,
ni dans la liste des messagers des interactions fondamentales. C’est aussi à ce
jour la seule particule du Modèle standard non observée, malgré les efforts
des expérimentateurs. Le lecteur attentif de La Jaune et la Rouge se souvient
peut-être de la polémique suscitée
par l’arrêt de l’accélérateur LEP du
Cern, en 2000, alors qu’une des quatre
grandes expériences annonçait avoir
vu les premières indications de l’existence d’un Higgs (figure 3). Depuis,
la probabilité que ce “ signal ” soit en
fait dû à du “ bruit de fond ” a été
réévaluée à une valeur de 8 %, bien
trop élevée pour prétendre une découverte (on exige en général une probabilité inférieure à 1 pour 10 000
pour prendre en considération une
revendication de découverte).
La recherche du Higgs reste donc
le tout premier but des physiciens, et
c’est essentiellement ce qui a justifié
la construction du LHC. En effet ces
calculs, et les simulations effectuées pour
la conception des expériences au LHC,
laissent penser que ces dernières pourront découvrir cette clé de voûte du
modèle quelle que soit sa masse. Le
LHC, installé au Cern dans le tunnel
de 27 km, produira des collisions
entre deux faisceaux de protons de
chacun 7000 GeV d’énergie, soit 7 fois
plus que l’accélérateur actuel du même
type (Fermilab, USA), et avec des
intensités de faisceau 100 fois supé-
LA JAUNE ET LA ROUGE – AVRIL 200527
rieures. La conception de l’accélérateur et des expériences a nécessité des
développements technologiques très
importants : aimants supraconducteurs, détecteurs ultrarapides, électroniques rapides, puissantes et bon
marché, traitement de quantités colossales de données. Tout le programme
est actuellement en pleine construction, pour une mise en service prévue en 2007.
Figure 3
Au-delà du Modèle standard
Malgré son incroyable puissance
prédictive pour le monde des particules,
le Modèle standard est loin d’être satisfaisant. En premier lieu, parce qu’il
contient encore beaucoup de paramètres inexpliqués. Les trois familles
de chacune 4 particules, associées à
27 paramètres libres (dont toutes les
masses des particules de matière),
font quelque peu ressembler le Modèle
standard à la table de Mendeleïev
avant la découverte de la structure
atomique. Par ailleurs, certains aspects
techniques manquent de cohérence,
en particulier en ce qui concerne la
nature spéciale du Higgs.
Enfin et surtout, nous commençons à aborder le domaine qui relie
les particules élémentaires à l’univers
dans son ensemble. Les mystères sont
alors nombreux car nous n’avons pas
encore aujourd’hui de théorie quantique de la gravitation. Les mesures
cosmologiques nous indiquent qu’environ 70 % de la densité d’énergie de
l’univers (son contenu, au sens le plus
général du terme) sont sous une forme
inconnue et incomprise, qui s’apparente à une constante cosmologique,
énergie répulsive du vide qu’avait
introduite Einstein pour tenter de
rendre l’univers statique. Les tentatives d’explication de cette forme à
partir de la physique du Modèle standard se heurtent à une incompatibilité numérique de plus de 100 ordres
de grandeur, une indication très claire
qu’un élément essentiel nous manque.
Pour le reste, 26 % seraient constitués
d’une matière de type encore inconnu,
mais que l’on peut modéliser et comprendre dans des extensions assez
naturelles du Modèle standard.
28AVRIL 2005 – LA JAUNE ET LA ROUGE
Un des événements enregistrés par une expérience à LEP, et reconstruit par informatique.
Les faisceaux d’électrons et de positons sont perpendiculaires à la figure et se croisent au centre
du détecteur. Les traces colorées représentent les particules issues de la collision e+ - e-.
De fait la confrontation microscopique/univers entier est rude : le
Modèle standard dont nous sommes
si fiers ne s’applique qu’à 4 % du
contenu de l’univers !
ce-temps (en plus des 4 habituelles),
accessibles dès l’énergie du LHC. On
verrait ainsi des particules produites
dans les collisions, disparaître dans
une 5e ou 6e dimension !
Pour dépasser le Modèle standard,
et résoudre tout ou partie de ces problèmes, plusieurs théories sont envisagées, basées sur des changements
de principes physiques hardis, voire
radicaux. La théorie la plus populaire
chez les chercheurs, la supersymétrie, postule l’existence d’un monde de
particules entièrement nouveau, reflet
de nos particules connues. La plus
légère d’entre elles pourrait constituer les 26% de matière “non conventionnelle ”.
Conclusion
Des expériences hors accélérateurs
sont actuellement en cours pour rechercher directement cette “matière noire”,
et pourraient dès les prochaines années
tester l’hypothèse de la supersymétrie. Les accélérateurs de haute énergie actuels et futurs recherchent tout
aussi activement des signes de cette nouvelle physique.
Une autre possibilité, apparue
récemment, évoque l’existence de
dimensions supplémentaires de l’espa-
La recherche de “ l’élémentaire ”
est un sujet en pleine forme. L’approche
du démarrage de LHC, les rapprochements avec la cosmologie, les nouvelles perspectives dans le domaine
des neutrinos nous promettent une
décennie riche de découvertes expérimentales et d’avancées intellectuelles.
Si le but de cette recherche est avant
tout l’accroissement des connaissances, les développements technologiques qui l’accompagnent (dont
le plus retentissant est l’invention du
Web au Cern) sont aussi un apport
immédiat à la société.
n
LA PHYSIQUE AU XXIE SIÈCLE
Évolution du climat :
le témoignage des glaces
polaires
Jean Jouzel,
directeur du Laboratoire des sciences du climat et de l’environnement
(LSCE)
Le Groupe intergouvernemental d’experts sur le changement
climatique (GIEC, IPCC en anglais), créé en 1988 sous l’égide
des Nations Unies, a publié en 2001 son troisième rapport,
la publication du prochain étant prévue pour la fin de l’année 2007.
Ces rapports du GIEC traitent à la fois des aspects scientifiques du
changement climatique lié à l’augmentation de l’effet de serre,
lui-même lié aux activités humaines, des conséquences de ce
changement, et des mesures d’adaptation et d’atténuation à envisager.
Ils jouent un rôle clé dans les propositions élaborées dans le cadre
des réunions annuelles des pays signataires de la Convention cadre
des Nations Unies sur le changement climatique dont, en 1997,
la troisième a conduit à la signature du protocole de Kyoto qui ne
constitue qu’une toute première étape vers la nécessaire maîtrise
des émissions des gaz à effet de serre. Malgré le refus des États-Unis
d’y adhérer, le protocole qui stipule que les pays développés doivent,
sur la période 2008-2012, réduire leurs émissions de 5,2 % par rapport
à leur niveau de 1990, va, grâce à la ratification récente de la Russie,
entrer en vigueur en ce début d’année 2007.
L
est un système extrêmement complexe régi par de
multiples interactions entre différents réservoirs (atmosphère et sa
composition, océan, hydrosphère,
cryosphère, biosphère…) et dans
lequel intervient un très large spectre
d’échelles de temps (de la journée au
million d’années) et d’espace (échelle
locale, régionale ou globale). Cette
complexité explique que l’état de nos
connaissances évolue lentement, tout
au moins aux yeux du grand public,
car nombreuses sont les avancées et
les découvertes qui ont jalonné notre
E CLIMAT
domaine de recherches au cours des
quinze dernières années. Ce sont elles
qui nourrissent les rapports successifs du GIEC.
Mon propos ici n’est pas d’en faire
une synthèse mais d’illustrer, à travers l’exemple des résultats déduits
de l’analyse des glaces polaires, comment un regard sur les variations passées de notre climat est riche d’informations pertinentes vis-à-vis de son
évolution future. L’étude du climat
du passé, domaine dans lequel les
équipes françaises sont très actives,
s’appuie en fait sur un ensemble d’archives continentales, océaniques et glaciaires dont il est facile de mettre en
évidence la complémentarité que ce
soit au niveau des échelles de temps
ou des paramètres climatiques auxquelles elles donnent accès. Dans ce
contexte, l’intérêt des glaces polaires
est qu’elles témoignent à la fois des
variations du climat et de celles de la
composition de l’atmosphère, en particulier au niveau des principaux gaz
à effet de serre dont les activités
humaines sont en train de modifier
les concentrations, le gaz carbonique,
CO2, le méthane, CH4, et le protoxyde
d’azote, N2O. Dans cet article, je rappellerai de façon succincte en quoi
les glaces polaires nous permettent
d’enrichir notre connaissance de l’évolution de notre climat et de notre envi-
LA JAUNE ET LA ROUGE – AVRIL 200529
ronnement et, par là même, contribuent au débat sur le réchauffement
climatique. Je consacrerai une seconde
partie aux résultats récents obtenus
sur les forages d’EPICA Dome C en
Antarctique et de North GRIP au
Groenland.
Climat et gaz à effet de serre
Rappelons tout d’abord que, depuis
deux siècles, les activités humaines
modifient de façon sensible la composition de l’atmosphère en CO2, essentiellement à cause de l’utilisation de
combustibles fossiles, en CH4, à travers l’intensification de l’agriculture et
de l’élevage, et en N2O, avec là aussi
une contribution notable liée aux pratiques agricoles. Bien qu’il s’agisse là de
constituants mineurs de l’atmosphère,
de tels changements sont susceptibles
de modifier le climat car ils conduisent à une modification de l’effet de
serre atmosphérique. Alors que l’atmosphère est transparente au rayonnement qui arrive du soleil dans le
visible, les gaz à effet de serre, où la
vapeur d’eau et le gaz carbonique jouent
les rôles principaux, ont la propriété
d’absorber le rayonnement infrarouge
réémis par le sol.
L’évolution de la composition de
l’atmosphère n’est suivie que depuis
quelques décennies et c’est une première contribution des glaces polaires
que de permettre, grâce à l’analyse
des bulles d’air piégées lorsque la neige
sous son propre poids se transforme
en glace, une remontée dans le temps
et de donner accès aux concentrations atmosphériques de ces trois composés avant le début de l’ère industrielle. Le verdict est sans appel : ces
mesures montrent, qu’en deux siècles,
celles-ci ont augmenté de plus de 30%
pour le CO2, d’environ 15 % pour
N2O et plus que doublé (+ 150%)
dans le cas du méthane.
D’autres composés contribuent à
l’effet de serre tels l’ozone, les chlorofluorocarbones dont l’emploi s’est
développé au cours des deux dernières décennies, et leurs produits de
remplacement. L’effet de serre est en
soi très bénéfique : il amène la tem-
30AVRIL 2005 – LA JAUNE ET LA ROUGE
pérature moyenne de la surface de la
terre à + 15 °C valeur beaucoup plus
clémente que celle, estimée à - 18 °C,
qui prévaudrait si ces gaz n’étaient
pas présents dans l’atmosphère. Mais
c’est son augmentation, largement
imputable aux activités humaines, qui
inquiète. Ces gaz à effet de serre ont,
depuis deux cents ans, augmenté
l’énergie moyenne utilisable pour
chauffer les basses couches de l’atmosphère de 2,45 Wm-2 (celle-ci est
voisine de 240 Wm -2). Cette augmentation est liée pour près de 60 %
au gaz carbonique et pour environ
20 % au méthane. Les autres composés interviennent pour environ 20 %
et on s’attend à ce que ce pourcentage diminue sensiblement grâce à
l’application du protocole de Montréal
qui réglemente la production des chlorofluorocarbones. À noter que ces
chlorofluorocarbones interviennent
dans la destruction de l’ozone stratosphérique et, à ce titre, diminuent
légèrement l’effet de serre auquel celuici contribue. La concentration d’ozone
troposphérique liée aux activités
humaines s’est quant à elle accrue
dans l’hémisphère Nord entraînant
un forçage radiatif positif évalué à
environ 0,4 Wm-2. Encore mal caractérisé, celui-ci n’est pas pris en compte
dans le bilan ci-dessus. D’autres composés (hydrocarbures autres que le
méthane, perfluorocarbone, hexafluorure de soufre…) ont une contribution marginale.
L’outil des glaces polaires
À l’échelle des derniers siècles et
millénaires, les glaces polaires, à travers leur composition isotopique (isotopes de l’hydrogène et de l’oxygène),
contribuent à mieux situer le réchauffement observé au cours du XXe siècle
dans sa perspective historique, approche
dont on comprend qu’elle est critique
lorsqu’il s’agit de détecter l’empreinte
des activités humaines sur le climat
dont le dernier rapport du GIEC
indique qu’elle est de plus en plus
probable, au moins pour ce qui
concerne le réchauffement très marqué des cinquante dernières années.
À ces échelles de temps, il est également essentiel d’évaluer les compo-
santes du forçage climatique autres
que l’effet de serre, qu’elles soient
d’origine naturelle (aérosols volcaniques, activité solaire) ou anthropique (aérosols produits par l’activité
humaine). Les glaces polaires contiennent sur chacun de ces aspects des
informations extrêmement utiles.
Ainsi, elles enregistrent, de façon fidèle,
le calendrier et l’intensité des éruptions volcaniques, cependant que la
concentration des isotopes cosmogéniques y témoigne des variations de
l’activité solaire.
Mais les résultats qui ont fait probablement le plus pour la renommée
des calottes polaires, qui font référence et sont très largement cités dans
notre communauté scientifique mais
aussi dans les manuels de l’enseignement secondaire, diagramme à l’appui, concernent les grands changements climatiques qui ont marqué les
dernières centaines de milliers d’années.
Obtenues à partir de la carotte de
Vostok forée en plein cœur de
l’Antarctique dans le cadre d’une collaboration à laquelle ont participé
équipes françaises, russes et américaines, ces données indiquent que les
variations atmosphériques du CO2 et
du CH4 sont fortement corrélées aux
oscillations caractérisant la succession
des périodes glaciaires et interglaciaires. Ainsi, voisines de 200 ppm
(parties par million) au dernier maximum glaciaire, il y a 20 000 ans, les
concentrations en gaz carbonique
étaient plus élevées de 40% en période
chaude (280 ppm contre près de 380
actuellement) tandis que celles du
méthane étaient deux fois plus élevées en période froide qu’en période
chaude. Certes, le rythme d’apparition des périodes glaciaires, longues de
80 à 100000 ans et suivies de périodes
chaudes telles que celle que nous
vivons actuellement, plus courtes et
n’excédant généralement pas 10000 ans,
est gouverné par la position de la terre
sur son orbite (théorie astronomique).
Mais cette corrélation forte entre les
variations passées de l’effet de serre
et de la température indique que gaz
carbonique et méthane ont également
été des acteurs de ces grands changements climatiques. Ces variations de
l’effet de serre, dans ce cas d’origine naturelle, ont contribué à peu près pour
moitié à l’amplitude des variations climatiques et ce sur toute la durée de l’enregistrement qui remonte à - 420 000
ans, soit quatre cycles climatiques
complets. En outre, ces résultats offrent
la possibilité d’évaluer la façon dont le
climat réagit lorsque l’effet de serre se
modifie. Ils permettent d’estimer ce
que, dans notre jargon, nous appelons la sensibilité du climat, le réchauffement qui résulterait d’un doublement de la teneur en gaz carbonique
une fois le nouvel équilibre climatique
atteint. L’estimation de 3 à 4 °C suggérée par les données de Vostok est
dans la gamme de celle retenue par
les rapports du GIEC, comprise, elle,
entre 1,5 et 4,5 °C. Il faut noter que
cette estimation du GIEC est basée
uniquement sur des résultats de modèles
climatiques qui, d’un modèle à l’autre,
fournissent des estimations de la sensibilité climatique qui peuvent donc
varier d’un facteur 3. Cela illustre l’intérêt d’une approche indépendante
basée sur des données du passé. En
outre, la période du dernier maximum
glaciaire permet de tester les capacités des modèles climatiques utilisés
pour prédire le climat du futur, à
rendre compte de conditions climatiques très différentes de celles que
nous connaissons actuellement.
Surprises climatiques
Les enregistrements déduits de
l’analyse des glaces polaires ont largement été à l’origine de la notion de
“ surprise climatique ”, qui doit beaucoup à la découverte de l’existence
de variations climatiques rapides au
cours de la dernière période glaciaire
et de la transition qui a conduit il y a
un peu plus de 10 000 ans au climat
actuel. Elle est indissociablement liée
à l’étude des glaces du Groenland.
Évoquée à partir de l’analyse de la
glace du forage Dye 3 (1982), l’existence de ces variations rapides était
pleinement confirmée, dix ans plus
tard, à partir des deux forages de plus
de 3 km réalisés au centre du
Groenland, l’un européen, GRIP, l’autre
américain, GISP2, dont les enregistrements couvrent environ 100000 ans.
Le réchauffement associé est de l’ordre
de 10 °C, moitié de celui correspondant au passage du climat glaciaire
vers le climat actuel, voire plus. Il
s’opère en quelques dizaines d’années
et les changements du taux de précipitation et de la circulation atmosphérique qui l’accompagne sont également importants et encore plus
brusques. Le retour vers les conditions froides est d’abord lent puis relativement rapide. Ces séquences en
“ dent de scie ” d’une durée de 500 à
2 000 ans se répètent une vingtaine
de fois au cours de la dernière période
glaciaire. Leur structure et les variations de températures associées apparaissent extrêmement similaires à celles
associées à des événements rapides
mis en évidence dans des sédiments
marins de l’Atlantique Nord et à chacune d’entre elles correspond généralement une augmentation significative des teneurs en méthane. Celles-ci
témoignent très probablement de
variations du cycle hydrologique continental aux basses latitudes (la production du méthane est liée à l’étendue des zones inondées) et suggèrent
que ces événements rapides ont
influencé le climat de l’hémisphère
Nord dans son ensemble. Leur influence
s’étend à l’hémisphère Sud, où elles se
manifestent par des changements
moins rapides et moins marqués. De
plus, l’analyse des sédiments marins
montre qu’il y a un lien entre ces évènements et la décharge massive d’icebergs provenant des grandes calottes
qui existaient alors dans l’hémisphère
Nord. Cette arrivée d’énormes quantités d’eau douce aurait alors contribué
à modifier la circulation océanique et
par là même le climat, fournissant
ainsi une explication raisonnable à
l’existence d’instabilités climatiques
en période glaciaire.
L’existence de ces variations, très
probablement liées à des changements
de circulation océanique, a conduit
les experts du GIEC à attirer l’attention sur la difficulté de prévoir, de
par leur nature même, des fluctuations inattendues, rapides et de grande
ampleur. Dans notre esprit, cette possibilité de surprise invite à réfléchir
à la fragilité de notre climat et ajoute
à la nécessité de maintenir l’augmentation de l’effet de serre à un niveau
tel que le climat du futur soit le plus
proche possible de celui que nous
connaissons actuellement. De telles
surprises seraient synonymes de véritable bouleversement climatique, même
si une modification notable des courants marins comme le Gulf Stream,
qui surviendrait alors en période plus
chaude qu’actuellement, ne ramènerait pas bien sûr nos régions vers des
conditions glaciaires (l’arrêt du
Gulf Stream ne changerait pratiquement pas la température moyenne de
la planète, mais affecterait sa répartition).
Une profondeur de vision
de près de 800 000 ans
Avec GRIP et GISP2, et avec l’extension de Vostok à quatre cycles climatiques (résultats publiés en 1998),
la dernière décennie a donc été très riche
pour la communauté scientifique
impliquée dans l’étude des glaces
polaires. Mais l’année 2004 a, elle, été
exceptionnelle en ce qu’elle a permis
de repousser les limites sur lesquelles
cette communauté butait depuis un certain nombre d’années aussi bien au
Groenland qu’en Antarctique. Dans
le premier cas, les enregistrements
fiables n’allaient guère au-delà de
100 000 ans en raison des perturbations qui, dues à la proximité du socle
rocheux, affectent les 300 derniers
mètres des forages GRIP et GISP2. En
Antarctique, la moisson des résultats
extraits des carottages de Vostok est
limitée aux 420000 dernières années,
là aussi en raison du mélange des
couches de glace les plus profondes.
Deux nouveaux forages, North GRIP
au Groenland et EPICA Dome C en
Antarctique, ont permis de faire sauter ces verrous, d’obtenir au Groenland
de la glace de la dernière période
chaude, l’Eémien, il y a 120 000 ans,
et de doubler, ou presque, la période
désormais couverte par les carottes
de glace en Antarctique (800000 ans).
Les équipes françaises de Grenoble
(LGGE), Saclay (LSCE) et Orsay
(CSNSM) sont fortement impliquées
dans ces deux programmes conduits
respectivement dans le cadre du projet européen EPICA (European Project
LA JAUNE ET LA ROUGE – AVRIL 200531
for Ice Coring in Antarctica) qui, au
Dome C, bénéficie d’un important
soutien logistique de l’Institut polaire
Paul-Émile Victor (IPEV), et du projet international NGRIP (the North
GReenland Ice core Project) mis sur
pied et coordonné par l’équipe danoise
du Département de géophysique de
l’université de Copenhague. Les premiers résultats marquants obtenus
sur ces deux carottages, qui l’un et
l’autre ont dépassé 3 km, ont été présentés en 2004 dans deux articles collectifs publiés dans la revue Nature.
Du point de vue climatique, le
nouveau forage EPICA confirme l’homogénéité des variations de température
en Antarctique, avec des changements
tout à fait similaires à Vostok, au Dome
C et au Dome F sur les parties communes de ces enregistrements (figure 1).
Au-delà de 430 000 ans, le forage du
Dome C est marqué par un changement de rythme avec des périodes
moins chaudes mais plus longues que
lors des quatre derniers cycles climatiques. L’interprétation du profil
de teneur en deutérium confirme que
les températures à la surface de la
calotte étaient environ 10 °C plus
froides qu’actuellement lors du dernier maximum glaciaire tandis que
les températures les plus élevées (supérieures d’environ 5 °C à celles de
l’Holocène) correspondent aux périodes
interglaciaires les plus chaudes, autour
de 125 000 et de 335 000 ans. La
comparaison avec l’enregistrement de
variation du niveau de la mer, déduit
de l’analyse isotopique des sédiments
marins, conforte par ailleurs le caractère global des changements climatiques enregistrés en Antarctique, tout
au moins d’un point de vue qualitatif
et lorsque l’on considère les grands
changements entre périodes glaciaires
et interglaciaires (et abstraction faite
des déphasages interhémisphériques
qui peuvent atteindre quelques milliers d’années).
Autres périodes chaudes
La période entre - 435000 et - 410000
ans a d’ores et déjà été étudiée avec
un certain détail. En dehors du fait
qu’elle marque la transition entre deux
32AVRIL 2005 – LA JAUNE ET LA ROUGE
FIGURE 1
Trois forages profonds de l’Antarctique de l’Est (Vostok, Dome F et EPICA Dome C) couvrent des
périodes supérieures à 300 000 ans. À ces échelles de temps, les variations climatiques sont remarquablement homogènes en Antarctique de l’Est. La mise en évidence d’une corrélation entre la température en Antarctique et les teneurs en gaz carbonique de l’atmosphère (courbe b), qui vaut également pour le méthane, est un des résultats marquants, fruit de la collaboration entre les équipes
de Grenoble et de Saclay. Le forage EPICA Dome C témoigne d’un changement de rythme du climat
il y a un peu plus de 400 000 ans. Ce changement de rythme, qui reste à expliquer, est également
enregistré dans les sédiments marins (courbe e).
régimes climatiques distincts, cette
période présente un double intérêt.
D’une part, de nombreux indicateurs
suggèrent que l’interglaciaire correspondant appelé stade 11.3 était une
période particulièrement chaude avec
un niveau de la mer peut-être nettement plus élevé qu’aujourd’hui (certaines évaluations font état d’une
hausse pouvant atteindre 20 m par
rapport au niveau actuel). D’autre
part, cet interglaciaire, très long dans
les enregistrements marins, correspond à des conditions d’insolation
relativement proches de celles que
nous connaissons actuellement. De
plus les mesures disponibles sur la
carotte de Vostok et du Dome C suggèrent que les teneurs en CO2 sont
restées équivalentes à celles de
l’Holocène (la période dans laquelle
nos civilisations se sont développées
depuis un peu plus de 10 000 ans).
Les températures en Antarctique apparaissent, elles aussi, très similaires à celles
de l’Holocène pendant les 10000 premières années du stade 11.3. Il en est
de même pour les teneurs en méthane
dont l’augmentation débute cependant 4 à 5 milliers d’années avant celle
du gaz carbonique, contrairement à la
dernière déglaciation et, plus généralement, aux quatre dernières, au
cours desquelles gaz carbonique et
méthane varient pratiquement en
phase. La durée exceptionnellement
longue du stade 11.3 est confirmée
par le forage EPICA Dome C ; elle est
estimée à 28 000 ans ce qui laisse
entrevoir que, sans intervention des
activités humaines, des conditions climatiques proches de celles que nous
connaissons actuellement pourraient
prévaloir pendant près de 20000 ans,
d’autant que les conditions de forçage
climatique (insolation et gaz à effet
de serre) semblent identiques pour
ces deux périodes.
Même s’ils sont perturbés avant
100 000 ans, les profils isotopiques
analysés le long des forages GRIP et
North GRIP suggéraient que la période
de l’Eémien était, comme indiqué par
de nombreux enregistrements (océaniques, continentaux ou glaciaires),
plus chaude que l’Holocène. Il n’en
reste pas moins que la démonstration
désormais apportée de cette différence
de température entre le dernier interglaciaire et l’Holocène, estimée à 5 °C
au Groenland, est un des résultats
importants du forage North GRIP
(figure 2). Mais c’est en fait l’accès
désormais possible à tout un ensemble
de données à très haute résolution
lors de l’entrée en glaciation qui en
constitue le résultat majeur (la période
entre - 123 000 et - 110 000 ans est
représentée par 130 m de glace). Cette
séquence a déjà révélé des similitudes
notables avec un enregistrement océanique obtenu sur un forage réalisé sur
la marge ibérique à hauteur du Portugal.
Plus surprenant est le fait qu’à North
GRIP l’entrée en glaciation est interrompue, vers 115 000 ans, par un
réchauffement rapide et bien marqué
car il est alors difficile de faire appel
au même mécanisme de débâcle d’icebergs ou d’arrivée d’eau douce pour
en expliquer l’existence, les grandes
calottes de l’hémisphère Nord (calottes
Laurentide et Fenno-scandienne)
n’étant alors qu’au tout début de leur
formation. Une estimation de l’amplitude du réchauffement associé à
chacun des événements rapides est
en cours. La méthode s’appuie sur
l’existence d’anomalies dans les rapports isotopiques de l’azote et de l’argon qui résultent des processus de
fractionnements, thermique et gravitationnel, qui prennent place dans le
névé entre la surface de la calotte et
la profondeur à laquelle les bulles
d’air sont définitivement piégées dans
la glace. Cette méthode montre que les
réchauffements associés aux événements rapides peuvent atteindre des
valeurs très élevées jusqu’à 16 °C.
Au-delà du million d’années
La réalisation de programmes de
forages profonds tels ceux conduits
au Dome C et North GRIP a demandé
près d’une dizaine d’années entre le lancement du projet et l’obtention des
premières séries de résultats qui en
marquent le succès. Consciente de
ces contraintes, la communauté inter-
FIGURE 2
La figure (c), adaptée de North GRIP members, 2004, illustre la comparaison entre les forages de GRIP,
en bleu, et de North GRIP en rouge. Au-delà de 100 000 ans, environ, les couches de glace de GRIP
sont mélangées et ce forage ne peut pas être utilisé pour reconstruire les variations du climat. À l’inverse la partie profonde de North GRIP n’a pas été perturbée et permet de décrire l’entrée en glaciation il y a 120 000 ans. La courbe (a) montre la partie profonde de North GRIP. Celle-ci permet
de décrire l’entrée en glaciation de façon détaillée et de mettre en évidence des similarités avec les
variations climatiques enregistrées dans des sédiments marins de l’Atlantique Nord (courbe b).
nationale concernée a d’ores et déjà
commencé à établir des plans pour
les années à venir avec comme objectifs prioritaires de remonter si possible au-delà du million d’années en
Antarctique de l’Est et d’extraire une
carotte qui couvre l’ensemble du dernier interglaciaire et atteigne l’avantdernière période glaciaire au Groenland.
L’année polaire internationale, qui
débutera en 2007, devrait en marquer le point de départ avec, d’une
part, une reconnaissance de régions
encore peu explorées de l’Antarctique
de l’Est qui permette de sélectionner
celles susceptibles de recéler la glace
très vieille, et, de l’autre, le début de
réalisation d’un nouveau forage au
Groenland en un site très prometteur
déjà sélectionné au nord de North
GRIP. Mais, il reste d’ici là énormément à faire pour extraire l’ensemble
des informations que recèlent ces deux
carottages profonds du Dome C et de
North GRIP dont nous avons décrit
les premiers résultats et à les interpréter en termes de mécanismes climatiques. Comment explique-t-on le
changement de rythme observé il y a
un peu plus de 400 000 ans en
Antarctique avec, et c’est là une des
découvertes les plus marquantes du
forage EPICA, des périodes chaudes
moins chaudes mais aussi nettement
plus longues avant 430 000 ans ? Quel
est le rôle précis des gaz à effet de serre
et que peut-on en déduire pour des
paramètres tels que la sensibilité du
climat ? Quels sont les mécanismes
mis en jeu lors d’une entrée en glaciation ?
n
LA JAUNE ET LA ROUGE – AVRIL 200533
LA PHYSIQUE AU XXIE SIÈCLE
Les tours de passe-passe
des topoisomérases
Gilles Charvin, Kerr Neuman,
David Bensimon et Vincent Croquette,
Laboratoire de physique statistique, École normale supérieure*,
Terence Strick,
Institut Jacques Monod, Université Paris VII**
Nous avons tous assisté à ces tours de “ magie ” où deux cordes formant
deux anneaux joints se séparent subitement entre les mains expertes
qui les manipulent. Depuis longtemps, les biologistes ont observé que
des enzymes, les topoisomérases, réalisent ce numéro d’illusionniste
sur les molécules d’ADN de nos chromosomes. L’enjeu est de taille.
Lorsqu’au sein de nos cellules la double hélice “ mère ” est recopiée,
les deux molécules “ filles ” qui en résultent s’entortillent l’une autour
de l’autre dans un formidable paquet de nœuds. Sans ces topoisomérases,
la séparation de ces deux molécules “ filles ” est impossible et la cellule
meurt au lieu de se diviser normalement. Pour enlever ces nœuds,
les topoisomérases coupent une molécule d’ADN en deux tout en
maintenant les deux extrémités, puis font passer une autre molécule
d’ADN à travers cette brèche. Finalement, elles recollent parfaitement
la molécule coupée. En utilisant une bille magnétique micrométrique
attachée à deux molécules d’ADN, il est maintenant possible d’observer
ce tour de passe-passe moléculaire en temps réel.
C’est ce que nous proposons de décrire ici.
Le contexte biologique
Il y a cinquante ans, Crick et Watson
décrivaient la structure de la double
hélice et faisaient remarquer que l’existence des deux brins complémentaires
permettait de proposer un mécanisme
de réplication de la molécule dans
lequel il suffisait de séparer les deux
brins et de recopier chacun en formant son complémentaire pour obtenir enfin deux molécules d’ADN filles
rigoureusement identiques à la molécule parente. Cette intuition devint
une réalité dans les années 1970-1980
lorsque les enzymes chargées du reco-
34AVRIL 2005 – LA JAUNE ET LA ROUGE
piage, les polymérases, ainsi que celles
chargées de séparer les brins complémentaires, les hélicases, furent identifiées puis isolées.
La structure de la double hélice
implique que les deux brins d’ADN
complémentaires s’entortillent l’un
autour de l’autre. Par ailleurs, les molécules d’ADN sont très longues (~10 cm
pour un chromosome) et l’on compte
un tour d’hélice tous les 3,4 nanomètres. En conséquence, le nombre de
tours impliqué est gigantesque. Or,
le bon fonctionnement du mécanisme
de duplication de l’ADN implique que
tous les tours, jusqu’au dernier, soient
débobinés afin de pouvoir séparer les
deux molécules filles. Afin d’accommoder cette contrainte majeure et très
délicate, on imaginait simplement
que les molécules tournaient au niveau
de leurs extrémités. De plus, la
complexité de ce problème s’est encore
accrue dans le cas des bactéries : dans
ces organismes, l’ADN adopte la forme
d’un anneau fermé par des liaisons
chimiques covalentes. En conséquence,
les deux brins de la double hélice
sont topologiquement inséparables.
Dix ans après la découverte de Crick
et Watson, ce problème a même poussé
certains à dire que la double hélice
n’était probablement pas la bonne
structure !
C’est James Wang qui dans les
années soixante-dix apporta la solution à l’énigme [1]. Il découvrit une
nouvelle classe d’enzyme, les topoisomérases, qui sont capables de changer la topologie de la molécule d’ADN
en effectuant une coupure temporaire
dans la molécule pour y faire passer
soit un brin, soit les deux brins de la
double hélice. Ce faisant, ces enzymes
permettent de relâcher les contraintes
de torsion sur une molécule ou de
désenchevêtrer deux molécules entortillées.
Figure 1
Comment ces enzymes déterminentelles de quel côté de la brèche il faut
transférer une molécule afin de défaire
un nœud et non pas, au contraire, en
créer de nouveaux ? Les réponses à
ces questions nous manquent encore
à l’heure actuelle. Certains de nos
résultats suggèrent que ces enzymes
reconnaissent l’angle formé par les
molécules lors de leur croisement. En
particulier, un type de topoisomérase
que l’on trouve chez les bactéries se
comporte très différemment selon
l’angle de croisement des molécules
Cependant, les vérifications expérimentales de ces hypothèses sont particulièrement délicates à réaliser dans
des expériences faites en tube à essai.
En effet, dans ce contexte, comme les
molécules d’ADN sont soumises au
mouvement brownien, l’angle qu’elles
adoptent lors de leur croisement est
largement aléatoire.
petite molécule (de la biotine par
exemple) qui possède une affinité très
importante pour une molécule plus
grosse qui en épouse la forme (de la
streptavidine dans le cas de la biotine). La molécule d’ADN est préparée
en attachant chimiquement la biotine
à une extrémité. Les billes magnétiques sont recouvertes de streptavidine. En plaçant les molécules d’ADN
ainsi préparées en présence des billes
en solution, celles-ci se couplent spontanément aux billes de façon quasi
irréversible. L’accrochage de la seconde
extrémité de la molécule se fait par
un deuxième jeu clef-serrure (digoxigénine-antidigoxigénine). Comme
l’accrochage des billes aux molécules
d’ADN se fait par diffusion, rien n’empêche deux ou plusieurs molécules
d’ADN de relier la bille à la surface
Figure 2
Schéma simplifié décrivant le mécanisme
moléculaire d’action des topoisomérases de
type II. L’enzyme correspond à l’objet symétrique
noir avec une partie mobile jaune ou noire.
Dans la configuration initiale (1), l’enzyme
s’ouvre pour accommoder une première molécule
d’ADN (segment G bleu) puis une seconde
(segment T rouge). Une fois les deux molécules
en place, l’enzyme accroche deux molécules
d’ATP et coupe le segment G (gate : porte en
anglais) qui laisse alors passer le segment T
(transporté) au travers de cette brèche. La
topoisomérase recolle alors la molécule bleue
avant de relâcher les deux molécules.
Le bilan global de cette réaction enzymatique
est ainsi d’inverser le sens du croisement des
molécules bleu et rouge.
(Ce schéma proposé par J. Wang n’est pas
complètement garanti, et est par ailleurs un peu
simplifié par rapport au modèle ayant cours.)
La découverte des topoisomérases
a permis de résoudre le problème des
nœuds dans les molécules d’ADN.
Cependant, leur fonctionnement a
soulevé d’autres questions : comment
des enzymes mesurant quelques nanomètres peuvent-elles relâcher jusqu’au
dernier tour d’entortillement des molécules qui s’étendent sur des distances
jusqu’à un million de fois plus grandes?
Néanmoins, depuis quelques
années, des expériences peuvent être
réalisées à l’échelle d’une seule molécule. Ces expériences permettent de
contrôler les paramètres physiques
d’une molécule et d’imposer, comme
nous le décrivons ci-dessous, l’angle
de croisement entre deux molécules.
La micromanipulation
par pinces magnétiques
Ce sont les groupes de S. Chu et
C. Bustamante qui ont réalisé les premières expériences de micromanipulation de molécules uniques [2].
Celles-ci se font à l’aide d’un microscope optique et dans le milieu naturel
de la molécule d’ADN, c’est-à-dire de
l’eau avec un peu de sel. Dans ces
conditions, l’observation directe de
la molécule est impossible. Par contre,
en utilisant un “ scotch moléculaire ”
il est assez facile d’attacher une bille
de quelques microns à une extrémité
de la molécule et de visualiser ainsi
ses mouvements. Mieux, on peut attacher de façon analogue la seconde
extrémité de la molécule à la paroi
du récipient. En exerçant une force
sur la bille, on peut ainsi étirer la
molécule d’ADN. Le “ scotch moléculaire ” est un couple de molécules
de type “ clef-serrure ” : la clef est une
Principe de l’expérience de micromanipulation.
L’observation se fait à l’aide d’un microscope
optique placé sous l’échantillon.
Bien que les molécules d’ADN soient invisibles,
les billes permettent de matérialiser leurs
extrémités. L’échantillon est constitué par un
tube de verre de section parallélépipédique
dans lequel nous avons introduit des molécules
d’ADN qui s’accrochent à la paroi du tube de
verre et à des microbilles magnétiques. Des
aimants (dont les dimensions ne sont pas
respectées sur ce schéma) sont placés audessus de l’échantillon, ils exercent une force
de traction verticale d’autant plus grande que
les aimants sont proches. En faisant tourner les
aimants autour de l’axe vertical, nous faisons
tourner les billes sur elles-mêmes. Dans
l’échantillon, toutes les billes ne sont pas
forcément attachées par deux molécules mais
celles qui le sont présentent un changement
d’extension décelable lorsque les deux molécules
sont amenées à se croiser (voir figure 3).
Il est ainsi facile de choisir les billes attachées
par deux molécules.
LA JAUNE ET LA ROUGE – AVRIL 200535
du récipient. En pratique, nous ajustons la concentration relative des molécules aux billes pour que la plupart de
celles-ci soient reliées par une seule
molécule d’ADN. (Les billes qui ne
sont attachées à aucune molécule sont
éliminées par rinçage.) Cependant,
statistiquement un petit nombre de
billes se trouvent être attachées par
deux molécules d’ADN, cette configuration va nous permettre de croiser
à volonté deux molécules.
Au cours de leur mouvement brownien, les molécules d’eau bousculent
l’ADN dans tous les sens et tendent
à lui faire adopter la forme d’une pelote
fluctuante. Il faut donc appliquer une
force pour étirer la molécule ; ceci se
fait en agissant sur la bille micrométrique qui localise une extrémité de
la molécule. Il existe plusieurs moyens
pour appliquer cette force. D’abord,
les pinces optiques, qui utilisent un faisceau laser convergeant qui attire la
bille près de son point de focalisation. Ensuite, les pinces magnétiques,
basées sur l’utilisation d’aimants qui
attirent la bille contenant un matériau magnétique. Cette seconde
méthode permet également de faire
tourner la bille simplement en faisant
tourner les aimants.
Dans le cas des pinces magnétiques, pour une position donnée des
aimants par rapport à la bille, la force
appliquée est constante dans le domaine
que peut explorer la bille. Pour déterminer cette force, il suffit de mesurer
l’ampleur du mouvement brownien
de la bille. Pour les faibles forces ces
mouvements sont importants ; plus
on rapproche les aimants, plus la force
de traction augmente et plus l’ampleur du mouvement brownien diminue. La bille attachée à la molécule
d’ADN sous l’action des aimants se
comporte comme un pendule inversé,
la force magnétique la tirant vers le
haut. En appliquant le théorème de
l’équipartition, on montre que F
= l.kBT/<x2> [3] (où l est l’extension
de la molécule, < x2 > est l’amplitude
quadratique moyenne du mouvement
brownien, kB la constante de Boltzmann
et T la température absolue). La force
typique qu’il faut appliquer pour éti-
36AVRIL 2005 – LA JAUNE ET LA ROUGE
rer une molécule d’ADN est de l’ordre
de 1 pN (10 -12 N), mille fois plus
faible que la force de rupture de l’ADN
(~1 000 pN).
Pour mesurer le mouvement brownien, nous avons écrit un programme
de traitement d’images vidéo qui suit
la position horizontale de la bille en
temps réel, avec une précision de
quelques nanomètres. En analysant
les motifs de diffraction de l’image de
la bille obtenue en éclairage parallèle,
il est également possible d’obtenir la
position verticale de la bille avec une
précision comparable. Cette mesure
nous permet ainsi de déterminer la
distance séparant la bille de la paroi
du récipient.
Le vrillage d’une balançoire
Il est assez facile de sélectionner
les billes ancrées à la paroi par deux
molécules : ces molécules sont typiquement séparées par une distance
comparable au rayon de la bille. En faisant tourner celle-ci d’un demi-tour
dans un sens ou dans l’autre, les deux
molécules sont amenées à se croiser.
Si la longueur des molécules est comparable au diamètre de la bille, il se produit alors un raccourcissement notable
de la distance séparant la bille à la
paroi, comme on peut l’observer en faisant vriller une balançoire autour de
son axe. Cette variation rapide d’extension sur un tour n’est visible que
sur des billes accrochées par deux
Figure 3 - Tours de passe-passe moléculaire
Principe d’action de la topoisomérase sur le croisement de deux molécules d’ADN.
En faisant effectuer un tour à la bille avec les aimants, nous pouvons passer d’une situation où
les molécules ne présentent pas de croisement (droite) à celle où elles se croisent (gauche).
La topoisomérase reconnaît alors le croisement, et en opérant l’action décrite dans la figure 1, l’enzyme
dénoue le croisement et ramène les deux molécules dans la situation sans croisement (droite).
Dès lors, la contrainte étant relâchée, l’enzyme ne peut plus agir.
Le changement de hauteur entre les deux configurations permet de déterminer le moment où
l’action de l’enzyme s’effectue.
Par ailleurs, dans l’hypothèse où les points d’attache des molécules sont séparés par des distances
équivalentes, le changement relatif de hauteur entre les deux configurations est égal à (1 – cosθ/2)
où θ est l’angle de croisement des deux molécules.
Si nous ajoutons maintenant des topoisomérases dans la solution avec un peu d’ATP (la source
d’énergie nécessaire à la plupart des opérations enzymatiques), il ne se passe rien si les deux
molécules sont parallèles.
Par contre, si nous créons un point de croisement en imprimant un tour à la bille, l’extension de
la molécule diminue pour les raisons décrites ci-dessus.
Alors, une topoisomérase va s’accrocher au croisement et le supprimer, permettant à l’extension
de reprendre sa valeur maximale de départ.
On peut alors imprimer un nouveau tour à la bille générant un nouveau croisement que l’enzyme
va s’empresser de dénouer, etc.
Chaque événement correspond à un seul cycle enzymatique d’autant plus facile à détecter que
le changement d’extension correspond à une fraction de micron comme on peut le voir sur la
figure 4.
Figure 4
Signal expérimental permettant de voir l’action de la topoisomérase : le graphique représente la
distance entre la bille et la paroi de verre. Lorsque celle-ci atteint la valeur de 3.45 microns, les
deux molécules sont parallèles. Quand les molécules se croisent la distance se réduit à 2.75 microns.
En présence de topoisomérases dans la solution on n’observe aucun changement de longueur
lorsque les molécules sont parallèles. Par contre chaque fois que l’on fait faire un tour aux aimants,
dans un premier temps, la bille se rapproche de la paroi. Au moment où l’enzyme dénoue le
croisement, on observe une remontée brutale de l’extension.
Sur cet enregistrement, nous avons répété l’opération trois fois, à chaque fois l’enzyme a agi,
cependant elle l’a fait après un temps très variable.
Le temps mis par l’enzyme pour libérer le croisement après sa formation correspond au temps de
diffusion de l’enzyme pour trouver le point de croisement et au temps de fixation sur ce croisement.
Il dépend évidemment de la concentration d’enzyme ; mais d’un cycle au suivant ce temps est
une variable aléatoire présentant une distribution statistique de Poisson avec un temps caractéristique τ.
Pour une concentration enzymatique de l’ordre du nano-molaire, τ est typiquement de quelques
secondes. Si nous tournons la bille de plusieurs tours rapidement, après un temps d’attente, une
enzyme déjà sur place enchaîne une série de cycles avec une cadence de 2 ou 3 à la seconde [5].
Figure 5
Les topoisomérases reconnaissent l’angle de croisement des molécules
Symétrie angulaire impliquée dans le croisement de deux molécules d’ADN. La situation correspondant
à l’angle - θ (au centre) est différente de la situation θ (à gauche), en effet ces deux configurations
découlent de la symétrie miroir (c’est une situation chirale), par contre la situation correspondant
à l’angle - θ (au centre) est équivalente à π - θ (à droite).
Notons que pour θ = 90 les différentes configurations sont identiques.
molécules. Ces billes nous fournissent un moyen simple de croiser deux
molécules avec un angle donné que
nous évaluons en mesurant le raccourcissement provoqué par un demitour comparé à la longueur des molécules d’ADN dans leur configuration
parallèle. Évidemment, pour une longueur donnée de la molécule d’ADN,
cet angle dépend de la distance séparant les deux molécules que nous ne
contrôlons pas. Cependant en allant
à la pêche aux billes, on peut réaliser
un échantillonnage de différents angles
de croisement s’étalant de 50° à plus
de 100° [4].
Comme illustré en figure 5, le point
de croisement de deux molécules chirales d’ADN formant un angle θ n’est
pas le symétrique de la configuration
correspondant à l’angle -θ. Par contre,
les situations - θ et π - θ sont, elles,
symétriques [6]. Dans notre expérience, en tournant la bille d’un demitour dans le sens des aiguilles d’une
montre nous obtenons un angle de
croisement θ, en tournant dans l’autre
sens, nous obtenons -θ. En employant
la rotation des aimants pour générer
le substrat topologique (c’est-à-dire
l’angle) voulu, il est aisé de mesurer
le temps mis par la topoisomérase IV
pour dénouer le croisement correspondant à θ et -θ. La valeur de l’angle
θ est déterminée à partir du changement de hauteur de la bille et de la
longueur des molécules.
Pour les petits angles de croisement (correspondant à des billes dont
la hauteur change peu en passant de
la configuration molécules parallèles
à molécules croisées), nous observons
que le temps d’action moyen de la
topoisomérase IV est vingt fois plus long
pour la configuration à 50° que celle
correspondant à - 50°. Pour les billes
qui présentent une variation de hauteur importante, l’angle de croisement
approche 90° et peut même dépasser cette valeur. Or comme nous l’avons
expliqué la situation de croisement à
90° est identique à celle de croisement à - 90°. Ainsi nos expériences
montrent que pour un angle de θ
= + 76° ou - 76° les temps moyens
d’action ne diffèrent que de 10 %.
LA JAUNE ET LA ROUGE – AVRIL 200537
Puisque les molécules d’ADN sont
animées de fluctuations browniennes
importantes, leur angle de croisement
présente en fait une distribution et la
valeur de l’angle de croisement dont
nous avons parlé est en fait la valeur
moyenne. La largeur de cette distribution dépend de la force de traction
appliquée aux molécules. Si la force
est très grande, les molécules sont
quasiment rectilignes et la distribution des angles est étroite ; aux faibles
forces c’est l’inverse. Dans notre expérience, nous observons bien que la
sélectivité angulaire est renforcée avec
la force appliquée sur la bille.
La topoisomérase IV est très habile
lors de son tour de passe-passe moléculaire, jamais nous ne l’avons surprise à lâcher les brins coupés avant
de les recoller (la bille se retrouverait
alors accrochée par une seule molécule). Un tel accident serait dramatique au sein de nos chromosomes :
il conduirait à une cassure double
brin qui peut certes être réparée par
des mécanismes cellulaires adaptés
mais avec un taux d’échec très gênant.
Conclusion
Nous avons développé des techniques de micromanipulation de molécules uniques. Ces techniques nous
ont permis de mettre en évidence les
mécanismes précis qu’utilisent certaines enzymes pour déplier et réduire
les tensions dans les molécules d’ADN.
Ainsi il nous reste encore à comprendre comment ces machines de
taille nanométrique dénouent fidèlement des molécules mille fois plus
grandes qu’elles.
n
* 24, rue Lhomond, 75231 Paris cedex 05.
** 2, place Jussieu, 75251 Paris cedex 05.
Références
[1] Wang J.-C. Interaction between DNA and
an Escherichia coli protein omega. J Mol Biol.
1971 Feb 14 ; 55 (3) : 523-33.
[2] Smith S. B., Finzi L., Bustamante C. Direct
mechanical measurements of the elasticity
of single DNA molecules by using magnetic
beads. Science. 1992 Nov 13 ; 258 (5085) :
1122-6.
[3] The elasticity of a single supercoiled DNA
molecule T. Strick, J.-F. Allemand, D. Bensimon,
A. Bensimon, V. Croquette, Science (1996)
271-5257 p. 1835.
[4] Charvin G., Bensimon D., Croquette V. Singlemolecule study of DNA unlinking by eukaryotic
and prokaryotic type-II topoisomerases. Proc
Natl Acad Sci USA. 2003, Aug 19 ; 100 (17) :
9820-5.
[5] Stone M. D., Bryant Z., Crisona N. J., Smith
S.B., Vologodskii A., Bustamante C., Cozzarelli
N. R. Chirality sensing by Escherichia coli
topoisomerase IV and the mechanism of type
II topoisomerases. Proc Natl Acad Sci USA. 2003,
Jul 22 ; 100 (15) : 8654-9.
[6] Timsit Y., Duplantier B., Jannink G., Sikorav
J.-L. Symmetry and chirality in topoisomerase
II-DNA crossover recognition. J Mol Biol. 1998,
Dec 18 ; 284 (5) : 1289-99.
Remerciements
Il s’agit d’un sujet de recherche
très actif actuellement et plusieurs
groupes de recherche ont obtenu des
résultats remarquables sur les moteurs
moléculaires, les polymérases, les hélicases, etc. Ces résultats viennent naturellement compléter ceux obtenus en
tube à essai. Ils démontrent, s’il était
nécessaire, que ces enzymes sont de
magnifiques machines capables de
travailler avec une remarquable précision dans un environnement agité
par le mouvement brownien. Les
topoisomérases sont pour le moins
des enzymes extraordinaires du fait
qu’en bien des points elles surpassent
ce que nous savons faire à l’échelle
macroscopique.
38AVRIL 2005 – LA JAUNE ET LA ROUGE
Les expériences décrites ici n’auraient pas été
possible sans l’aide de J.-F. ALLEMAND, O. SALEH,
H. YOKOTA, T. LIONNET, M. DUGUET et le support
financier de l’ENS, du CNRS, des universités
Paris VI et VII, de la CEE et de l’ARC.
LIBRES
PROPOS
Les polytechniciens et le
développement de la physique
Jean-Claude Toledano (60),
président du Département de physique de l’X
E
n cette année 2005, “ année mondiale de la physique ”, il est utile
de rappeler la place des polytechniciens dans le développement des
différentes branches de cette discipline.
Un tel rappel paraît superflu en ce
qui concerne les plus célèbres d’entre
eux. Ainsi, la paternité de Carnot (1812)
dans les fondements de la thermodynamique est-elle universellement reconnue.
Le célèbre chimiste Gay-Lussac (1797)
a eu une contribution importante à ce
même domaine avec la démonstration
expérimentale du fait que l’énergie interne
d’un gaz dilué ne dépend que de sa température.
Très connue également, la découverte
en 1896 de la radioactivité par Henri
Becquerel (1872), découverte qui marque
la naissance de la physique nucléaire
puisque ce phénomène révèle la désintégration de l’uranium. Elle marque également le début de la physique des particules avec les composantes alpha, bêta,
et gamma de la radioactivité que Becquerel
lui-même identifiera partiellement.
Enfin, la réputation de Poisson (1798)
et de Poincaré (1871) s’étend à de nombreux domaines scientifiques en raison
de leurs contributions majeures aux mathématiques et à la physique mathématique.
La place essentielle des polytechniciens dans le développement de l’optique
au dix-neuvième siècle est moins souvent citée, de même que leur contribution
aux fondements de la cristallographie ou
leurs travaux précurseurs sur les cristaux
liquides. À partir des années 1950, on
retrouve des contributions de première
importance des X à la physique des solides,
à la physique des particules et à la physique théorique.
Les X ont eu un rôle déterminant pour
asseoir la théorie ondulatoire de l’optique.
Cela est à mettre d’abord au crédit de
Fresnel (1804) qui, après une série d’expériences sur la diffraction de la lumière,
puis sur sa propagation dans des cristaux
biréfringents, décrit la lumière comme
une onde possédant une périodicité spatiale et temporelle, vibrant transversalement et dont la propagation découle,
conformément à des idées de Huygens
ignorées depuis cent cinquante ans, de
l’émission et de l’interférence d’ondelettes.
Cette clarification est préparée ou complétée par d’autres polytechniciens. Ainsi,
dès 1808 Malus (1794) montre que la
polarisation lumineuse est une propriété
de la lumière même qu’il est possible
d’obtenir par réflexion sur une substance
quelconque. Arago (1803) établit avec
Fresnel la transversalité de la vibration lumineuse en montrant que deux faisceaux
polarisés perpendiculairement n’interfèrent pas. Il découvre aussi que certaines
substances ont le pouvoir de produire
une rotation du plan de polarisation. Biot
(1794), qui est également connu pour
ses travaux sur les forces magnétiques
induites par les courants, affine l’analyse
du pouvoir rotatoire et en déduit une
méthode d’analyse des solutions dotées de
ce pouvoir. Les résultats de Babinet (1810)
sur la diffraction, ceux de Sénarmont
(1826) relatifs aux propriétés optiques
de minéraux ou encore les “compensateurs
optiques ”, imaginés par ces deux scientifiques pour produire une polarisation
elliptique sont toujours utilisés par les
physiciens actuels.
Cornu (1860) aborde le domaine nouveau de la spectroscopie optique des
atomes dont on sait que les résultats
conduiront à l’élaboration de la théorie
quantique. Il détermine, beaucoup plus
complètement que ses prédécesseurs, la
“ série de Balmer ” de l’atome d’hydrogène, et clarifie le phénomène d’inversion des spectres (dû au fait que les atomes
sont susceptibles d’absorber les longueurs
d’onde qu’ils émettent). Il est le premier
à observer la décomposition d’une raie
spectrale en un nombre pair de composantes sous l’effet d’un champ magnétique. Cet effet “Zeeman anormal” sera interprété cinquante ans plus tard comme
provenant de l’existence du spin de l’électron. Enfin, il faut encore citer Fabry
(1885) et Pérot (1882) dont les noms
sont réunis dans l’invention d’un interféromètre à miroirs parallèles qui par sa
stabilité et son pouvoir de résolution a
permis nombre de découvertes en spectroscopie et en astrophysique. Ce sont
les propriétés de cet interféromètre qui,
alliées à l’existence d’une amplification
de la lumière par les atomes du milieu
actif d’un laser, déterminent la finesse
spectrale et la directivité spatiale remarquables de cet émetteur de lumière, inventé
en 1960, aux usages actuels multiples.
La cristallographie, science de la configuration géométrique des atomes dans
les cristaux, doit un certain nombre de
ses fondements aux polytechniciens.
LA JAUNE ET LA ROUGE – AVRIL 2005
39
Bravais (1828), poursuivant des travaux
français de la fin du dix-huitième siècle,
établit le répertoire complet des symétries de translation et d’orientation des
cristaux et montre qu’un cristal est un
empilement de plans “moléculaires” équidistants, résultat qui sera utile au vingtième siècle pour interpréter la diffraction des rayons X. Il amorce aussi l’étude
systématique des cristaux de minéraux.
L’implication des X dans l’exploitation
des mines fera qu’il sera suivi, en cela,
par d’autres polytechniciens. On y retrouvera des travaux de Sénarmont, et on y
trouvera ceux d’Antoine Becquerel (1806)
sur la piézoélectricité des minéraux, ceux
de Mallard (1851) et surtout de Georges
Friedel (1887) qui systématise définitivement la description des macles, assemblages complexes de cristaux. On peut
considérer que cet intérêt pour la configuration atomique des cristaux se prolonge après 1945 dans les contributions
de Jacques Friedel (1942) et de Kléman
(1954) à la physique des dislocations,
autres types de défauts des cristaux, responsables de la malléabilité et de la ductilité des métaux. Georges Friedel est
encore l’auteur d’un travail précurseur
qui aura un brillant avenir dans la physique et la technologie. Il décrit les états
“ nématique ” et “ smectique ” des cristaux liquides, états de la matière ayant
des configurations atomiques intermédiaires entre celles d’un solide et d’un
liquide. Le foisonnement de découvertes
de phases “ molles ” depuis trente ans,
leur classification, et l’utilisation de certaines d’entre elles pour la fabrication
d’écrans “ plats ” ont leur racine dans ce
travail. Plusieurs X, dont Michel (1943),
Durand (1954) et Kléman, ont contribué à ces travaux récents.
La géométrie des assemblages d’atomes
n’est pas le seul ingrédient nécessaire
pour comprendre les propriétés des corps
solides. Il faut surtout recourir aux théories quantique et statistique. De ce point
de vue, la loi de Dulong (1801) et Petit
(1807) sur l’universalité de la valeur de
la chaleur spécifique des métaux a une
place particulière. Elle a eu un intérêt à
la fois pour les inventeurs de la thermodynamique statistique de la fin du dixneuvième siècle, parce qu’ils ont pu l’interpréter dans le cadre de la “ statistique
classique ”, et pour les initiateurs de la
40
AVRIL 2005 – LA JAUNE ET LA ROUGE
théorie quantique des corps solides, car
les écarts à cette loi observés à basse température ont conduit Einstein puis Debye
à la théorie quantique des vibrations des
atomes dans les cristaux. Un autre volet
de la théorie quantique des solides, développé après 1950, est celui des caractéristiques des électrons dans les métaux
qui sous-tendent aussi bien les propriétés mécaniques et électriques des métaux
et des alliages que leurs propriétés magnétiques. Ces propriétés sont tributaires
d’effets compliqués liés aux interactions
entre les électrons et à la présence d’impuretés chargées électriquement. Dans
les progrès de ce domaine, où un phénomène physique important porte son
nom, Jacques Friedel a joué un rôle central. La résonance magnétique nucléaire,
qui analyse les états de spin des électrons,
est un moyen puissant d’étude des solides.
Solomon (1949) y a établi l’une des équations de base du domaine et a initié l’étude
des états de spin des solides semi-conducteurs, solides dont on connaît l’importance considérable qu’ils ont prise dans
les recherches des physiciens puis dans
l’activité industrielle. Ces substances permettent, en particulier, la fabrication des
lasers qui sont à la base des télécommunications optiques ou des lecteurs de CD
et de DVD. Bernard (1948) et Duraffourg
(1952) ont, les premiers, formulé les
conditions théoriques d’obtention de
l’émission de ce type de lasers.
Le rôle majeur du Centre européen
de Recherches nucléaires dans le développement de la physique des particules
est bien connu. Des X, regroupés autour
de Leprince-Ringuet (1920), ont eu une
place importante dans la création et l’animation de cet organisme, notamment
Grégory (1938), Peyrou (1936) et
Lagarrigue (1945). On doit à ce dernier
la grande chambre à bulles Gargamelle
qui a permis, en particulier, la mise en
évidence, au CERN, des “courants neutres”,
première preuve expérimentale de la validité de la théorie unifiée “ électro-faible ”
qui a valu un prix Nobel à ses auteurs.
Auparavant, l’étude des rayons cosmiques
avait conduit Leprince-Ringuet et Lhéritier
(1936) à l’observation de la première particule “ étrange ”, le méson-K.
Fondateur du centre de physique
théorique de l’X, Michel a donné en
1949 la première analyse générale de la
désintégration du lepton µ, dont il a
montré qu’elle était caractérisée par un
seul paramètre, qui est aujourd’hui associé à son nom. Après la découverte de
la violation de la parité, il a complété
cette analyse avec Bouchiat (1953). Dans
la même période, un centre de physique
qui acquerra un grand renom se fonde
au Commissariat à l’Énergie atomique
autour de Messiah (1940), de Horowitz
(1941), de Bloch (1942) et de Trocheris
(1942). Il générera des contributions
majeures aux voies nouvelles des théories quantique et statistique, et à leur
application à la physique nucléaire et à
la physique des réacteurs nucléaires, à
la physique des particules, et à celle de
la matière condensée. En font partie,
notamment, Froissart (1953), de
Dominicis (1948), Itzykson (1957) ou
Brézin (1958) qui contribue de façon
importante à la mise au point de l’outil
théorique permettant d’expliquer le problème ancien et difficile de l’existence
des changements de phases de la matière.
Un autre résultat théorique spectaculaire est la prédiction par Balian (1952)
de l’existence de la “phase B superfluide”
dans l’isotope de masse atomique 3 de
l’hélium, phase dont l’observation expérimentale ultérieure donnera lieu à l’attribution d’un prix Nobel.
Dans les promotions de polytechniciens
des années 1960-1980 nombre d’X s’engagent dans la recherche en physique soit
par le biais de la “ botte recherche ” soit
dans le cadre de leur carrière dans les
Grands Corps. Ils contribueront sur les plans
expérimental ou théorique, souvent avec
des résultats de grande valeur, au développement de tous les domaines de la
physique. Ainsi, le département de physique de l’X, qui a toujours renouvelé ses
enseignants en recrutant les meilleurs
physiciens des jeunes générations, compte
actuellement près de 30% d’anciens élèves
de l’École polytechnique.
La mise en avant par “ l’année mondiale de la physique ” de cette discipline
importante à la fois pour le progrès de la
connaissance et pour ses applications
industrielles nombreuses aura certainement pour effet de susciter de nouvelles
vocations de physiciens parmi les jeunes
polytechniciens.
■
LIBRES PROPOS
Courrier des lecteurs
À propos de l’article “ L’image du plateau ” par Georges
Waternaux (41), n° 600, décembre 2004, page 32.
Jacques MANTOUX (41)
On peut remercier l’équipe de La Jaune et la Rouge d’avoir
choisi la rubrique “ Libres propos ” pour accueillir les réflexions
de Georges Waternaux sur le Créateur et sa nature : nature de
Cause Première, selon Waternaux.
Ce n’est sûrement pas contrevenir à l’esprit de cette rubrique
que de proposer une vue différente sur ce sujet. Bien que l’édifice de la métaphysique soit immense, et ses travaux innombrables, une réflexion de plus, dans son jardin, n’est sans doute
pas à écarter, même si certains risquent d’y voir une pierre.
Comme d’autres avant lui, Waternaux pose la notion de
Cause Première en tête de son exposé.
“ Je pense Cause Première, donc je suis… ”
Le reste en découle :
– “ Le Créateur soutient la création ” (ici, la langue est complice :
qui donc irait s’étonner que la création ait eu un Créateur ?),
– “ Dieu est Cause Première ” – la formulation, retournée, serait
même plus explicite : “ La Cause Première est Dieu ” (et personne d’autre),
– “ En fait, il n’est nulle part. Il est en dehors de l’espace et du temps.”
– “ Sa relation avec cette Création est à la fois transcendante et
immanente. ”
Il est à remarquer que le point de vue ci-dessus relève d’une
culture clairement chrétienne : la Bible est nommée du reste
deux fois, et citée une troisième (Apocalypse).
Est-ce là l’alpha et l’oméga de la vision de toute l’humanité ?
Ce serait oblitérer la pensée de peut-être les deux tiers de l’humanité : le milliard des Indiens, celui des Chinois, sans compter les disciples de Çakyamuni, ceux de Zoroastre (les très actifs
Parsis de l’Inde), les adeptes du Shinto, bien d’autres encore (je
passe les musulmans, qui sont encore enfants de la Bible, à leur
façon).
Sans oublier les agnostiques et les athées : pour ceux-ci, à
coup sûr rien de révélé, rien qui se puisse dire hors des contenus de l’espace et du temps.
Je pense qu’il y a là un élément difficilement contournable
de prise de recul, vis-à-vis des “ Libres propos ” de Georges
Waternaux.
Ceux-ci sont de l’expression d’une croyance ; à ce titre, tout
respect leur est dû.
Mais de là à oblitérer d’autres croyances, il y aura toujours
un pas.
n
À propos de l’article “ L’École polytechnique et ses élèves
prisonniers de guerre (1940-1945) ” par Robert Garabiol (38),
n° 601, janvier 2005, page 34.
Paul GADILHE (38)
J’ai séjourné de la mi-1942 au 17 avril 1945 à l’Oflag XVIIA à
Edelbach en Autriche. Nous étions une vingtaine de camarades
de la promotion 1938. Nous avons entendu parler des tentatives
de libération et avons reçu les cours envoyés par l’École.
Mais je peux ajouter deux commentaires sur ces sujets.
Nous avons eu connaissance d’un projet de libération avec
le titre plus ou moins fictif d’ingénieurs des Ponts et Chaussées,
et à ce titre je reçus des cours de l’École d’application de cette
spécialité. Un beau jour nous fûmes informés que si l’opération réussissait nous serions affectés à l’Organisation TODT
(qui assurait tous les travaux de génie civil de la Wehrmacht).
Avec toute la courtoisie qu’imposait la situation à cette époque
nous fîmes savoir à notre informateur qu’il convenait de mettre
fin à cette recherche, et nous n’entendîmes plus parler de ce
projet.
Par contre je n’avais pas connaissance du projet de nous
regrouper dans un ou deux camps avec de potentiels professeurs, mais la même idée nous est venue et nous avons eu la chance
d’avoir dans notre camp un agrégé de mathématiques, dont j’ai
malheureusement oublié le nom, qui a aussitôt accepté de réaliser ce projet. Cette décision ayant été prise pendant l’été 1944,
la rentrée des classes fut fixée en septembre ou octobre. Pendant
un mois tout se passa exactement comme si nous étions rue
Descartes !
Hélas nous avions oublié une variable importante de notre
problème. Notre alimentation, à peu près convenable, était
assurée pour une moitié par l’armée allemande et pour l’autre
moitié par des colis que nous adressaient nos familles et quelques
bonnes œuvres. Or le débarquement du 6 juin et la rapide avancée des armées de libération avaient coupé le réseau de chemins de fer qui assurait la moitié de notre magnan. Les premiers jours nous fîmes contre mauvaise fortune bon cœur, mais
à la fin du mois il parut évident que nos petits cerveaux ne disposaient plus de l’énergie nécessaire pour suivre nos cours, et
ce d’autant plus que notre professeur bienfaiteur était atteint
de la même paralysie.
Cette expérience eut une suite positive. Le 17 avril 1945
nos gardiens ayant entendu le canon russe à l’est de notre camp
décidèrent de partir avec nous vers l’Ouest. L’aventure se termina le 7 mai à Orléans, et nous apprîmes peu après le programme des examens de fin de deuxième année préparé par
l’École à notre intention.
Je suppose que plusieurs camarades se fixèrent le même
programme que moi : après un tour de France rapide pour
retrouver toute ma famille, trouver un point de repos tranquille
réservé à ma reconstitution physique (en un mois je récupérais
10 kilos sur les 20 que j’avais perdus au cours de l’année précédente), et enfin affecter les deux derniers mois à une chiade
intensive telle que je l’avais pratiquée pour préparer les examgés de la fin de la première année.
P.-S. Garabiol indique que le nombre de prisonniers à la fin de
la guerre s’élevait à 55. J’avais retenu un chiffre nettement supérieur (85 ?). Serait-il possible de vérifier ce point par exemple
en retrouvant les listes d’expédition des cours aux prisonniers,
ou mieux en consultant les documents d’organisation des examens de sortie et ceux de classement dans les différents Corps
de l’État.
n
LA JAUNE ET LA ROUGE – AVRIL 200541
TÉLÉCOMMUNICATIONS
Les télécommunications
et le XXIe siècle :
une révolution en marche
Didier Lombard (62),
président-directeur général de France Télécom
Les technologies de l’information et de la communication ont pénétré
tous les domaines de notre vie professionnelle et privée : nos métiers,
nos loisirs, la maison, l’éducation, nos relations avec les services
publics, nos activités culturelles…
Nos enfants passent leurs soirées sur leur messagerie instantanée ;
nous sommes connectés à nos bureaux vingt-quatre heures sur vingtquatre grâce à nos mobiles et autres PDA communicants 1 ; 17 % des
billets de train français sont réservés aujourd’hui par voie électronique
et ce taux pourrait atteindre 40 % en 2008 ; le commerce électronique
prend chaque jour une part croissante dans les échanges commerciaux.
O
à des mutations
technologiques incessantes
et de plus en plus rapides.
Les services et les usages se multiplient. D’un monoservice, le téléphone, on est passé à une foison
d’usages à partir d’un même réseau.
Qui aurait pu penser, il y a encore très
peu de temps, que la télévision passerait par le réseau téléphonique ?
Les mobiles et l’Internet sont maintenant les outils de communication
au quotidien pour un nombre sans
cesse croissant de nos concitoyens.
Fin 2003 sont apparues les offres
“ triple play ” combinant l’accès à
Internet haut-débit, la téléphonie et
les accès à des contenus audiovisuels, et les premières offres de téléphonie sur IP 2. L’évolution des techN ASSISTE
niques des réseaux pousse à la convergence des usages qui rencontre les
attentes des clients. Le mouvement
n’est pas près de s’arrêter, les plus
grands changements sont à l’évidence
devant nous. Nous sommes à l’aube
d’une révolution.
En Europe, et singulièrement en
France, le secteur des télécommunications n’obéit pas pleinement aux
règles communes de l’économie industrielle. Contrairement à la plupart des
autres marchés ou industries gouvernées par l’offre et la demande, le secteur repose sur un jeu singulier impliquant non pas deux mais trois acteurs :
les professionnels des télécommunications, les clients et les pouvoirs
publics, État et régulateurs.
Ainsi, acteur clé des grandes mutations, la réglementation a joué un rôle
essentiel et continue de façonner le
paysage des télécommunications en
fonction des choix politiques du
moment : ouvrir à la concurrence
pour développer le marché, offrir
davantage de services, faire baisser
les prix, gérer des ressources rares,
garantir un service universel, soutenir
la politique industrielle, financer une
politique publique…
LA JAUNE ET LA ROUGE – AVRIL 2005
43
Pour dresser le panorama des télécommunications de ce début de
XXIe siècle et comprendre la révolution en marche, il nous faut nous
arrêter un instant sur ses quatre principaux ingrédients : la régulation – ses
forces et ses faiblesses –, les évolutions économiques depuis les années
quatre-vingt-dix, l’incidence des évolutions technologiques sur la stratégie des acteurs, et les évolutions
des modes d’utilisation des moyens
de communication. Leur combinaison dessine le paysage de demain.
Leur complexité et leur enchevêtrement augurent des perspectives certes
bouillonnantes mais parfois difficiles
qui s’annoncent.
Les évolutions réglementaires
La justification donnée à la réglementation résulte de principes économiques simples : pour développer
le marché et offrir des services au
meilleur prix pour le citoyen, il faut
permettre à de nouveaux acteurs
d’entrer sur le marché sachant que
préexiste un opérateur historique. La
réglementation consiste à poser des
règles asymétriques en soumettant
l’opérateur historique à des contraintes
fortes : gestion du service universel,
accès de son réseau aux autres opérateurs, contrôle a priori de sa politique tarifaire, séparation des activités… Les règles sont censées s’assouplir
dès que la concurrence devient effective. À ce moment, le terme de régulation semble plus adapté aux objectifs que s’assigne la réglementation.
Il s’agit de s’assurer que le marché
fonctionne bien, d’en corriger les
imperfections. La régulation sectorielle est appelée à s’effacer au profit
du droit concurrentiel à mesure que
les conditions concurrentielles deviennent satisfaisantes.
Chaque étape du passage des monopoles de fait ou légaux vers la concurrence a reçu son nom de baptême. Le
mouvement est parti des États-Unis.
On l’a nommé “ déréglementation ”
pour qualifier le passage du monopole de fait à la concurrence et la
modification des règles existantes.
Dans les années quatre-vingt, AT&T,
44
AVRIL 2005 – LA JAUNE ET LA ROUGE
opérateur totalement intégré issu de
Bell System, jouissait d’un monopole
de fait sur les communications et la
fabrication des équipements ; AT & T
était accusé d’abus de position dominante. C’est une décision de justice,
du juge Greene favorable à un programme général de libéralisation et
en opposition à l’organe fédéral de
réglementation, la FCC, qui en 1984
a conduit au démantèlement d’AT&T
en 23 sociétés (une société gérant les
communications longue distance et
22 RBOC (Regional Bell Operator
Company) restreintes à l’exploitation
des réseaux locaux, très réglementées
et bénéficiant d’un monopole local).
En contrepartie AT & T était autorisé
à intervenir dans le secteur de l’informatique.
En 1996, le “Telecommunications
Act ” instaure un nouvel état réglementaire. Les RBOC sont autorisées
à intervenir sur la longue distance si
leur marché local est effectivement
ouvert à la concurrence. L’appréciation
de cette concurrence est basée sur
une liste de quatorze conditions à
satisfaire ! AT & T, vingt ans après son
démantèlement, est entré dans le secteur des mobiles puis du câble, s’est
ensuite débarrassé de ses nouvelles
activités pour se retrouver sur le seul
segment de la longue distance en voie
de disparition. AT & T, tout comme
MCI opérateur de longue distance,
sont en train d’être absorbés par d’autres
acteurs des télécommunications américains, eux-mêmes issus de la consolidation des RBOC.
Avec la crise du secteur en 2000,
les pouvoirs publics américains ont
été amenés à constater l’impact négatif
des effets réglementaires sur l’investissement et l’emploi. Les mécanismes
mis en place avaient favorisé des entrées
inefficaces, tout en mettant en grande
difficulté l’opérateur historique. Malgré
des avantages consentis aux nouveaux
entrants, certains n’ont pas réussi à
être viables. De plus, demander à certains acteurs de prendre seuls des
risques d’investissement et d’en partager ensuite les bénéfices éventuels,
provoque inéluctablement des situations de blocage. Les investissements
américains sur la fibre optique ont pu
démarrer quand le régulateur a donné
aux leaders du marché une visibilité
sur leurs revenus futurs.
En Europe, c’est le Royaume-Uni
qui a été le premier pays à s’emparer
du même dogme réglementaire, en
instaurant en 1984 un duopole. La
Commission européenne a élaboré
d’égale manière un mécanisme d’ouverture à la concurrence favorisant le
partage du marché entre les acteurs et
adapté à la situation locale, qui s’est
avéré analogue aux doctrines américaine et britannique. Le cadre réglementaire européen, et français, a
construit des contraintes spécifiques
pour les opérateurs historiques, appliquées avec plus ou moins de dureté
par les autorités de régulation nationale. Le cas le plus notoire a été celui
de British Telecom qui a licencié massivement et a dû renoncer à être un
acteur majeur dans les mobiles.
La réglementation joue un rôle
fondamental dans l’économie des télécommunications. Aujourd’hui, à la
lumière des enseignements récents,
notamment américain et britannique,
elle sait faire preuve de plus de pragmatisme, en prenant en compte l’intérêt du consommateur et en privilégiant la bonne santé du secteur. Ses
objectifs doivent permettre de stimuler les opérateurs y compris les
leaders en favorisant leurs investissements, leur recherche et leur innovation pour qu’in fine le consommateur en tire davantage profit. La France,
qui a déjà montré lors de l’attribution
des licences UMTS qu’elle pouvait
adopter des mesures plus raisonnables
que d’autres pays européens, est largement engagée sur une voie bénéfique pour le secteur des télécommunications, ses acteurs et ses clients.
Les grandes évolutions
économiques du secteur depuis
les années quatre-vingt-dix,
la crise 2000-2002
L’ouverture à la concurrence et les
anticipations irraisonnées dans le
potentiel d’Internet ont conduit jus-
Les États sont pris dans l’euphorie
ambiante. Dans leur rôle de collecteurs d’impôts, ils y voient une manne
substantielle. L’attribution des licences
de téléphonie mobile de la 3e génération
(UMTS) est pour eux l’opportunité
d’organiser des ponctions. Alors qu’il
a fallu douze ans pour organiser au
niveau européen le développement
des 45 réseaux GSM, la Commission
européenne poussée par les industriels décide qu’au moins 50 réseaux
UMTS doivent être ouverts à partir
du 1 er janvier 2002. Chaque État
membre est responsable de la détermination du mécanisme d’attribution
du spectre et de la définition des conditions d’octroi des licences applicables
sur leur territoire. Le Royaume-Uni
vend les fréquences aux enchères puis
l’Allemagne. La France finit par adopter la procédure de sélection comparative, moins onéreuse pour les opérateurs. Au total 112 milliards d’euros
en Europe sont prélevés ainsi sur les
bénéfices futurs.
C’est la première taxe de l’histoire
qui s’appuie sur un produit futur, non
encore connu. Les opérateurs devront
de plus faire face à des coûts au moins
comparables pour le déploiement de
© PIERRE-FRANÇOIS GROSJEAN - FRANCE TÉLÉCOM
qu’en 2000 à une inflation exubérante
des valeurs technologiques. La foi
dans le rôle moteur que pouvaient
jouer les nouvelles technologies de
l’information et de la communication
dans l’économie, soutenue par les
potentialités techniques du Web, a
fait naître une myriade d’acteurs de
l’Internet. C’est le temps de la Net
économie au service de la nouvelle
économie dont la vertu est d’assurer
la croissance sans reprise de l’inflation grâce à la dérégulation des services,
la baisse des coûts dans l’industrie et
les investissements dans les NTIC.
L’argent devient facile, les valeurs
mobilières grimpent à des niveaux
jamais atteints. Les investissements
suivent ; tous les regards se tournent
vers les rentes dont serait porteur ce
nouveau cycle économique. On n’achète
plus une activité mais des abonnés
potentiels. Les valeurs boursières sont
gagées par ces rentes et galopent vers
des sommets vertigineux.
Pylône avec antenne GSM, au Chazelet.
nouveaux réseaux et pour la commercialisation de nouveaux services
de 3e génération. Le secteur est donc
confronté à des dépenses initiales très
élevées.
Les opérateurs s’endettent, des
fusions et rachats d’entreprises s’opèrent, la plupart par échanges de monnaie de papier. Gare à ceux qui sont
obligés de sortir du cash! La confiance
s’érode, l’argent se raréfie, la rentabilité immédiate est maintenant réclamée. Et tous les facteurs qui ont joué
à la hausse se mettent à jouer à la
baisse dans des proportions aussi
fortes. L’éclatement de la bulle spéculative provoque un désastre économique. Les bénéfices attendus de la
3e génération n’arrivent pas aussi vite
qu’ils étaient attendus, les opérateurs
rationalisent leurs investissements ;
les commandes industrielles diminuent. Les entreprises, qui cèdent des
actifs après les avoir chèrement acquis,
le font à des valeurs dérisoires.
L’ampleur de la crise a été très forte
sur le secteur aujourd’hui encore en
convalescence. 250 000 emplois ont
LA JAUNE ET LA ROUGE – AVRIL 2005
45
été perdus en Europe après l’éclatement
de la bulle technologique. Les constructeurs ont particulièrement été touchés ; les opérateurs, certes endettés,
disposent de revenus plus récurrents
et sont en passe de revenir à des situations financières saines, aussi vite que
la réglementation le leur permet.
À côté de ces phénomènes essentiellement conjoncturels se déroule
une mutation structurelle : l’offre et la
demande dans le secteur des télécommunications sont en profonde
restructuration.
Les évolutions technologiques
suscitent de nouvelles
stratégies
Le développement de la capacité
des réseaux conduit à la croissance
très significative des usages et à de
substantielles baisses de prix. On entre
dans l’ère des communications abondantes, rendue possible par la capacité quasi illimitée des réseaux d’interconnexion (backbone) : le nombre
de réseaux de fibres optiques est partout important, et les systèmes de transmission offrent des capacités de plus
en plus grandes. Tous les différents
types d’accès voient également leurs
possibilités s’accroître avec l’UMTS,
l’ADSL puis le VDSL, Wi-Fi, Wi-Max…
Les performances de tous les terminaux fixes et mobiles continuent de
s’accroître. Ils vont pouvoir à la fois
stocker de grandes quantités d’information (données, plans, images animées, sons, programmes) et traiter localement des applications lourdes avec
des systèmes d’exploitation résidents.
Tous les individus et entreprises
seront connectés aux réseaux. Les
accès au haut-débit se généralisent,
la pénétration des mobiles continue
d’augmenter. Tous les accès seront
progressivement multimédias après
le déploiement des réseaux mobiles
UMTS, de l’équipement en xDSL du
réseau filaire ou de la numérisation
des réseaux câblés. Chaque réseau
pourra transporter de la voix, des données, de l’image. Et, alors que les
46
AVRIL 2005 – LA JAUNE ET LA ROUGE
communications téléphoniques étaient
très majoritairement véhiculées de
bout en bout par un seul réseau, les
nouveaux modes de communications
feront appel à des chaînes complexes
de réseaux ou éléments de réseaux
divers, qui coopéreront ensemble pour
délivrer le service au client.
La très forte pénétration des équipements numériques chez les particuliers et dans les entreprises va
conduire à la mise en réseau des processus d’accès à l’information, de production et de commerce : de nombreuses activités de la vie quotidienne
seront conduites sur les réseaux, ou
assistées par des services fournis par
les réseaux. Les entreprises s’interconnecteront avec leurs clients et leurs
partenaires. Le monde de la production et des échanges en sera progressivement transformé.
Ces tendances modifient le jeu des
acteurs. La convergence informatiquetélécommunications-audiovisuel présente à la fois dans les réseaux et les
services accentue la diversité et la multiplication des acteurs, issus des trois
mondes, et suscite de nouvelles stratégies d’entreprises, de spécialisation,
de diversification, d’intégration : qui
offre des accès, qui offre les services
d’intermédiation, qui offre les services ? Faut-il intervenir sur une, ou
plusieurs des trois strates, pour proposer au client une offre groupée, par
exemple une offre d’accès et une offre
de services ? À l’intérieur de chaque
strate faut-il se spécialiser par exemple
sur tout ou partie des accès, ce qui
permet de répliquer sur des secteurs
voisins les compétences-clés de l’entreprise ? De multiples tentatives d’intégration, horizontale ou verticale, de
multiples formes de partenariats sont
tentées, pour permettre l’assemblage
d’offres complexes, ou pour exploiter
les actifs propres des différentes entreprises : réseaux d’accès, marques, droit
des contenus, savoir-faire métiers…
D’autres stratégies se centrent sur
la gamme des services permettant ou
facilitant la mise en réseau des processus d’entreprises : hébergement de
sites, distributions d’informations,
hébergement d’applications, offre de progiciels en réseau. Le business model peut
aller de la prestation du type intégration de réseaux ou de systèmes, traditionnellement pratiqué par les SSII,
jusqu’à la fourniture de services clés
en main incluant les prestations d’hébergement et le transport, par exemple.
Le secteur est déjà le siège de
grandes tensions qui résultent de l’effacement des frontières entre les trois
couches (accès, mise en réseau, services) que permet la technologie, et des
déplacements que cherchent à mettre
en œuvre les acteurs pour améliorer
leur croissance ou leur rentabilité. En
arrière-plan se déroule la bataille des
normes logicielles qui conditionnent
l’interopérabilité des systèmes par le
déploiement de systèmes d’information ouverts.
Mettre les outils
de communication
au service du client
La diversification des pratiques de
communication liée aux nouveaux
modes de vie génère des échanges quasi
permanents et plus riches (photos,
images, vidéo, messagerie…). La population se connecte également pour
assurer sa sécurité (assistance santé,
anti-intrusion, services de proximité,
assistance à domicile). La communication s’étend de la mise en relation de
personnes à la connexion à des sites,
à des connexions machine à machine ;
elle englobe la voix, les données de
téléaction, données de contenu, échanges
d’images. Le multiéquipement domestique (plusieurs micro-ordinateurs,
téléviseurs, téléphones filaires ou
mobiles) se généralise ; l’installation
domestique devient complexe. L’accès
vers les réseaux externes doit être organisé pour offrir le maximum de gain,
de temps et de confort.
Jusqu’ici, le fixe, le mobile, l’Internet
avaient chacun leurs réseaux, leurs
plateformes, leurs forces de vente,
leurs factures. Ces métiers ne se parlaient pas beaucoup entre eux et c’était
aux clients de s’arranger pour combiner
ces offres au mieux de leurs besoins.
Avec la généralisation du protocole Internet, avec les services mobiles
toujours plus nombreux et utiles,
l’intelligence omniprésente dans le
réseau et la démocratisation d’Internet,
les clients vont pouvoir être joints
partout, sur le terminal de leur choix,
à travers la meilleure infrastructure
possible, en toute transparence pour
eux. Simplification d’usage, qualité
de service, gain de temps et confort
d’utilisation sont les demandes fondamentales des clients. La complexité
liée à la technique, à la multiplicité
des fonctionnalités et à la diversité
des services n’a pas à être gérée par
le client.
Les clients seront en quelque sorte
le cœur de leur propre réseau de
télécommunications. Cet univers de
communication intégré est indépen-
dant du réseau qu’ils empruntent. Les
clients attendent des services unifiés
et totalement intégrés qui soient simples
à utiliser malgré leur complexité
intrinsèque, comme le carnet unique
d’adresses ou la messagerie unique
quel que soit le terminal pour y accéder,
ou bien encore des solutions de paiement simples et sécurisées. En quelque
sorte, les technologies se mettent au
service du client, au lieu que le client
soit contraint de se former aux nouveaux outils.
Toutes ces évolutions s’appuient
sur une très forte capacité de recherche
et d’innovation et sur les synergies de
tous les acteurs : opérateurs, constructeurs, fournisseurs de services, SSII,
fournisseurs de contenus, d’accès…
Ceux qui miseront sur la R & D, qui
apporteront toute la simplicité attendue par le client, qui sauront gérer
toute la complexité du réseau et inventeront de nouveaux usages, seront les
grands gagnants de la révolution en
marche.
Le développement de ces nouveaux services permettra de passer
d’un univers fragmenté à un univers
centré sur le client. Cela nécessite de
décloisonner les réseaux pour simplifier et harmoniser l’usage des services destinés à la maison, aux besoins
de communication personnels et à
ceux des entreprises. En même temps
devra être assurée une vraie coopération des réseaux fixe, mobile, Internet
au bénéfice des utilisateurs. Les attentes
des clients, notamment en matière
d’interfonctionnement des services et
d’offres de services convergents obligent les fournisseurs de contenus ou
de services à décliner leurs offres pour
de multiples canaux.
Cette révolution va transformer la
vie de nos concitoyens et le paysage
industriel français. Cette lutte industrielle et commerciale n’est pas qu’un
affrontement entre grands et petits
professionnels du secteur du téléphone en France, c’est aussi le combat
entre acteurs majeurs mondiaux des
télécoms, de l’informatique, de l’audiovisuel, de l’électronique grand public.
Le marché français des technologies
de l’information et de la communication par son taux de croissance
annuel estimé à près de 8% 3 jusqu’en
2007, et sa capacité à donner les
moyens à tous les secteurs d’activité
d’améliorer leur compétitivité, tire
fortement l’économie vers le haut. Il
est crucial que l’Europe et la France
mettent tout en œuvre pour garder
leur place dans l’économie mondiale
et profitent des formidables mutations en cours dans ce secteur pour y
acquérir une place de choix.
■
Vers un nouveau modèle
économique de l’opérateur,
basé sur l’innovation
Le métier de l’opérateur est en train
de se transformer, d’un métier de fournisseur d’infrastructure, où l’on investit
massivement sur un produit unique
qu’on amortit sur quinze ans, en un
métier de services où la croissance
vient d’un renouvellement continu
d’innovations et de la multiplication
de services toujours nouveaux. Chaque
innovation donnera un avantage compétitif temporaire à son initiateur, lui
permettant d’accroître son chiffre
d’affaires et sa marge, jusqu’à ce qu’il
soit rattrapé par ses compétiteurs.
L’opérateur sera alors amené à lancer
une nouvelle innovation qui dopera
à nouveau revenu et profit. L’opérateur
gagnant sera celui qui saura innover
sans relâche, en réussissant plus souvent que les autres.
1. PDA : Personal Digital Assistant, ordinateur de
poche.
2. IP : Internet Protocol, protocole de base utilisé sur Internet pour la transmission des données. Il définit la façon d’organiser les paquets
d’information pour pouvoir les transmettre sur le
Web.
3. Chiffre de l’observatoire des TIC, ce marché
recouvre les équipements et services de télécommunications, informatique, électronique
grand public et contenus (TV, radio, cinéma, presse,
jeux et logiciels de loisir, musique).
LA JAUNE ET LA ROUGE – AVRIL 2005
47
TÉLÉCOMMUNICATIONS
La mutation des réseaux
Jean-Philippe Vanot (72),
directeur exécutif Réseaux, Opérateurs et Système d’information,
France Télécom
Une mutation d’une ampleur et
d’une rapidité sans précédent
Les grands réseaux de télécommunications ont de tout temps été le
siège d’évolutions majeures dont une
partie importante tient à leur aptitude
à capter l’innovation technologique,
qu’elles proviennent des techniques de
codage, des techniques de transmission de l’information ou de l’informatique.
L’histoire montre que cette prise
en compte de l’innovation s’est rarement déroulée sans controverse et
que bien souvent l’arrivée des nouvelles technologies a donné lieu à des
affrontements passionnés. On se souvient encore de l’irruption du numérique au cœur des réseaux avec l’arrivée de la commande par programme
enregistré, puis de la commutation
temporelle avec la numérisation des
signaux de parole qui a supplanté la
commutation crossbar, de la transmission SDH puis de la transmission
optique, de la signalisation par paquet
CCITT n° 7 qui remplaça la signalisation analogique par codes multifréquences…, etc.
L’ampleur et la vitesse des bouleversements technologiques d’aujourd’hui autorisent à parler de véritable mutation (au sens génétique
48AVRIL 2005 – LA JAUNE ET LA ROUGE
du terme) des réseaux, même si certains pourraient à juste titre faire
remarquer que ce qui se produit n’est
que l’achèvement du processus de
généralisation du numérique sur toute
la chaîne, du client jusqu’aux applications et aux contenus et l’arrivée
de l’abondance en termes de débit, au
moins pour ce qui concerne les parties fixes du réseau.
La ligne d’abonné, dernier goulot
d’étranglement (le transport et la signalisation au cœur des réseaux ont commencé leur mutation avant), est aujourd’hui l’objet d’une véritable révolution
en ce qui concerne les débits, y compris sur la partie cuivre. La barrière
des débits étant franchie, le réseau
étend ses fonctions jusque chez le
client donnant sens à la conception
d’un opérateur de services intégrés
fixes, mobiles et Internet.
D’autres transformations aussi profondes sont à l’œuvre au cœur des
réseaux puisque le remplacement programmé du réseau téléphonique commuté par une infrastructure réseau
multimédia et haut-débit est à portée de vue. Tout bouge, des réseaux
de collecte à technologie Giga Éthernet et ATM jusqu’aux réseaux dorsaux IP, des plates-formes de services
jusqu’aux protocoles de commande
convergents fixe et mobile…
Toutes ces transformations affectent fortement les “ Business Model ”
des réseaux de télécommunications.
Le transport de la voix en paquets IP,
par exemple, qui provoque une chute
de valeur sans précédent du transport
brut de la voix sur les réseaux fixes.
La demande fondamentale des
clients est d’avoir un accès global,
homogène et simple à leurs moyens
de communication. France Télécom
s’organise en conséquence, en opérateur intégré capable de fournir de
façon homogène les services fixes,
mobiles et Internet. Réseau haut-débit
et système d’information évoluent de
concert afin de rendre tangible cette
nouvelle vision de l’opérateur.
Un goulot d’étranglement
qui disparaît : le haut-débit
sur la ligne d’abonné
La ligne d’abonné
Goulot d’étranglement traditionnel
en termes de débit et de richesse des
informations de commande réseau
que l’on pouvait y véhiculer, la ligne
d’abonné, qu’elle soit fixe ou mobile,
vit une véritable révolution.
Dans un premier temps, avec les
améliorations des techniques de transmission de données (avec un modem
situé dans le PC du client et un autre
situé dans le réseau que l’on atteint en
établissant une communication circuit), il a été possible par des techniques analogiques d’obtenir des débits
de l’ordre de quelques dizaines de
kbit/s. Ensuite, le RNIS (Réseau numérique à intégration de services) avait
réalisé la première numérisation de la
ligne d’abonné à des débits de 2 fois
64 kbit/s symétriques (canaux de transport d’informations appelés canaux B)
voire 30 fois 64 kbit/s pour les entreprises. À ces canaux B s’ajoutait le canal
D utilisé pour la signalisation entre le
client et le réseau ou entre clients à un
débit de 16 kbit/s ou de 64 kbit/s.
Ces débits à l’accès se sont révélés
rapidement insuffisants et les techniques de multiplexage de circuits
qui étaient utilisées ont rapidement
fait apparaître leur manque de souplesse : toute offre de débit devait être
construite avec des débits multiples de
64 kbit/s et les besoins de transmission sporadique de données étaient
assez mal satisfaits par la commutation de circuits qui alloue des débits
permanents aux sessions de communication. C’est en ayant pour cible les
services de vidéo à la demande, qu’au
début des années quatre-vingt-dix
aux États-Unis, quelques opérateurs
se sont lancés dans l’industrialisation
de la technique mise au point (dans
les années 1988) par Bellcore de transmission haut-débit sur la ligne de
cuivre. Il s’agissait pour Bellcore d’offrir aux opérateurs de télécommunications une technologie asymétrique
(c’est-à-dire la transmission descendante
vers le client est à un débit beaucoup
plus important que le sens remontant) capable de rivaliser avec celle
des câblo-opérateurs. C’est ainsi que
l’ADSL (Asymetric Digital Subscriber
Line) est née.
Finalement l’usage de l’ADSL ne
sera pas déclenché par les services de
vidéo mais par les services d’accès à
Internet à la fin des années 1990.
L’ADSL est une technique de transmission qui consiste à réutiliser les
câbles de cuivre qui relient les centraux téléphoniques jusqu’au domicile
des clients. Chacun d’entre eux est
relié au central téléphonique par une
paire de cuivre ; celles-ci sont assemblées dans plusieurs équipements de
distribution sous forme de câbles de
plus grosse capacité. C’est ce que l’on
appelle la boucle locale. Traditionnellement, les signaux de voix téléphonique analogique n’utilisent que la
bande 300-3 400 Hz. Le principe de
l’ADSL est d’utiliser la bande de fréquences laissée libre par les signaux
de voix analogique pour fournir un
service à haut-débit qui permet, pour
les techniques ADSL1, d’avoir un débit
qui peut atteindre jusqu’à 8 Mbit/s IP
dans le sens descendant et 640 kbit/s
dans le sens remontant. À titre de référence, un débit de 8 Mbit/s correspond à la transmission de 120 conversations téléphoniques simultanées.
La technique utilisée par l’ADSL
consiste à découper la bande des fréquences transmissibles (de 30 kHz à
1 mégahertz) sur la paire de cuivre
en sous-bandes dans lesquelles on
essaie de transmettre le plus d’informations possibles, sachant que plus
la fréquence est élevée, plus l’affaiblissement du signal est important.
Plus la ligne de cuivre est longue et
moins la partie haute de la bande de
fréquences peut être utilisée efficacement et donc moins les débits fournis par ADSL sont élevés. Par ailleurs,
les perturbateurs qu’on trouve sur les
lignes (résultant des phénomènes de
diaphonie : les signaux émis sur une
paire dans un câble créant du bruit
sur les autres paires) limitent la transmission d’information. La modulation mise en place dans le cas de l’ADSL
est auto-adaptative, c’est-à-dire qu’elle
s’adapte aux caractéristiques de la
ligne, notamment à sa longueur et
aux perturbateurs dont elle est le siège.
Comme l’indique la figure 1, la
longueur des lignes qui ont été
construites en France, et qui sont en
permanente évolution, place notre
pays en très bonne position en potentiel de couverture à haut-débit sur
ligne de cuivre. Ce potentiel correspond au pourcentage de lignes d’abonnés capables d’atteindre un débit
donné. Par exemple, plus de 95% des
lignes en France sont susceptibles de
transporter un débit supérieur à
512 kbit/s (du central vers l’installation du client) en technologie ADSL1
et plus de 98 % en employant la nouvelle technologie dite Reach Extended
ADSL (RE ADSL).
On assiste, sur la ligne de cuivre,
à une montée en débit impensable il
y a encore quelques années. Les techniques, mises au point dans les années
90, ont fait l’objet de progrès continus
avec l’ADSL2 + et le VDSL qui offrent
des débits supérieurs à l’ADSL.
On constate également le développement de techniques de transmission symétrique sur cuivre avec
le SDSL. Toutes ces techniques sont
désignées globalement par le nom de
“ xDSL ”.
LA JAUNE ET LA ROUGE – AVRIL 200549
ADSL
Débit max sur le canal descendant 6,5 à 10 Mbit/s
Débit max sur le canal remontant 1 Mbit/s
Portée : 2 km à 6,5 Mbit/s
ADSL2+
Débit max sur le canal descendant 16 à 20 Mbit/s
Débit sur le canal remontant 1 Mbit/s max
Portée : 1,3 km à 13 Mbit/s et près de 2 km à 8 Mbit/s
SDSL
Débit de 2 à 8 Mbit/s symétriques sur mono et multipaire cuivre
VDSL
Débit jusqu’à 30 Mbit/s sur le canal descendant
Figure 1
Comparaison des lignes d’abonnés dans différents pays
Les accès sans fil
au réseau fixe
De nouvelles techniques radio
autorisant le haut-débit apparaissent
et sont déployées. Elles viennent compléter le panorama des technologies
possibles pour la portion terminale
du réseau fixe. Elles viendront s’ajouter aux techniques xDSL, pour offrir
une couverture à haut débit pour 100%
des lignes avant la fin de 2006.
Les techniques Wi-Fi (Local Area
Network radio) permettent d’atteindre
des débits de l’ordre de la dizaine de
Mbit/s sur des distances inférieures à
100 m. Elles sont d’ores et déjà utilisées pour des raccordements hautdébit dans des zones très peu denses.
Beaucoup d’espoirs reposent sur
la technologie WIMAX. Elle permettrait de partager un débit de plusieurs
dizaines de Mbit/s entre plusieurs utilisateurs sur des distances de quelques
kilomètres. La portée et le débit de
cette technologie doivent permettre
d’offrir des services à haut-débit dans
les zones très peu denses plus économiquement que le Wi-Fi.
Les accès mobiles
Les montées en débit, que permettent les technologies au-delà
d’ADSL1, s’accompagnent d’un élargissement de la bande de fréquences
utilisée. Les performances maximales
de ces technologies ne peuvent être
atteintes que par une partie des lignes.
Pour généraliser des offres à très haut
débit (20 Mbit/s par exemple) de façon
significative, il faut envisager de raccourcir la longueur des lignes. Pour
ce faire, il convient de rapprocher les
équipements DSL des clients et de les
relier aux centraux au moyen de fibres
optiques.
Les investissements nécessaires
sont à comparer avec ceux qu’induirait un raccordement des clients au
moyen de techniques toutes optiques
(FTTP) : Fiber To The Premises. Cellesci présentent l’avantage d’offrir aux
clients des débits plus importants que
le cuivre, même dans le cas où l’on
recourt à des techniques de partage
50AVRIL 2005 – LA JAUNE ET LA ROUGE
des fibres, du type réseaux passifs
optiques (PON Passive Optical
Network) et de permettre des débits
remontants plus élevés.
La croissance des débits de raccordement des clients, rendue possible par le déploiement des techniques xDSL, permet de faire très
fortement évoluer les offres de service. D’abord dédié à l’accès à Internet,
l’accès à haut-débit devient multiservices. Les débits disponibles permettent très souvent de faire coexister sur
le même accès cuivre une offre d’accès
à Internet, une offre de voix portée
par le canal xDSL en complément ou
en substitution du service téléphonique analogique et une offre de télévision du type diffusé ou à la demande.
Ces possibilités nouvelles bouleversent les modèles économiques traditionnels des opérateurs fondés sur les
services de voix et font apparaître des
perspectives nouvelles.
La seconde génération d’accès
mobile (GSM Global System Mobile),
normalisé en Europe, est un remarquable succès mondial.
Il a introduit le numérique dans
les communications radio-mobiles. Il
a généralisé les techniques de “ Hand
Over” entre cellules jointives qui autorisent le maintien des communications établies lorsque l’on se déplace
de cellule en cellule.
Il a permis également, avec le succès que l’on sait, le développement
des techniques de “ Roaming ” (ou itinérance) grâce auxquelles un mobile
peut être utilisé depuis le réseau d’un
opérateur étranger. On peut noter
également le succès commercial fantastique remporté par la transmission
de données entre clients plus connue
sous le nom de “SMS” (“Short Message
Service ”).
Afin d’améliorer les performances
du GSM en matière de transmission de
données, une nouvelle technique a été
étudiée qui permet des échanges à des
débits de 30 à 40 kbit/s. Cette nouvelle
technique appelée GPRS s’appuie sur
les infrastructures radio des réseaux
GSM et nécessite le déploiement d’un
cœur de réseau “ paquets ” qui permet
d’aiguiller les données émises par les
mobiles vers des réseaux IP tout en
conservant la mobilité du terminal.
Les nouveaux services multimédias mobiles (visiophonie, images,
TV mobile) nécessitent des débits plus
importants. Cela a conduit à étudier,
dès le milieu des années 1980, et à
normaliser à partir de 1999 une nouvelle norme radio appelée UMTS
(Universal Mobile Telecommunication
System) ou norme radio mobile de
3e génération.
Cette dernière autorise des débits
dix fois plus élevés que le GSM/GPRS.
L’UMTS permet des débits de 64 kbit/s
en mode circuit, avec garantie de débit
utilisable pour la visiophonie. Un
débit de 384 kbit/s en mode paquet
est disponible pour des services comme
le “ streaming ”.
IP et Giga Éthernet :
des technologies mutagènes
qui bousculent les réseaux
Deux technologies transforment
profondément le paysage des réseaux.
Il s’agit des technologies IP et Giga
Éthernet.
L’une des principales mutations
du cœur des réseaux est le basculement
accéléré des techniques de commutation de circuits vers la commutation de paquets plus économique et
plus flexible, notamment lorsqu’il
s’agit de fournir des services de données. Toutefois, les réseaux téléphoniques commutés resteront certainement encore présents pendant des
années au niveau mondial.
L’autre mutation qui s’est produite
est interne aux technologies de transport de paquets elles-mêmes, avec le
déferlement des protocoles sans
connexion. Leur particularité est que
chacun des paquets d’un même flux
de données est transporté indépendamment des autres muni d’une adresse
d’acheminement. C’est le cas du protocole IP (Internet Protocol) qui a pris
le pas sur les techniques de transport
de paquets orientés connexion comme
celles des réseaux X.25 pour lesquelles
les différents paquets d’une même
communication sont liés entre eux
par un identifiant de circuit virtuel.
La querelle qui a opposé les partisans
de l’ATM orientée connexion et ceux
de l’IP prend fin avec l’adoption du
protocole IP adopté de façon généralisée comme technique fédérative,
depuis les applications jusqu’au transport et au routage au sein des nouveaux réseaux dorsaux.
Les réseaux IP sont constitués
d’équipements appelés routeurs, chargés d’acheminer les paquets d’information munis d’étiquette de routage
vers leur destination finale. Tous les
paquets d’une même communication
sont traités indépendamment des
autres. Ils ne suivent, en principe, pas
le même chemin et le réseau ne peut
garantir le respect de l’ordre de transmission. C’est aux deux extrémités
de mettre en œuvre les protocoles
permettant de réordonner les paquets
et de demander la retransmission de
ceux qui auraient pu être perdus. La
simplicité et la flexibilité du protocole IP ont donc favorisé son adoption
dans bon nombre d’applications et
de réseaux. Il est devenu, de fait, le
protocole structurant des nouveaux
réseaux aptes à transporter à très
grande échelle les flux de données.
Plus généralement, moyennant quelques
précautions, (concernant la perte de
paquets, le temps de transfert, la disponibilité, le temps de convergence
après panne…), il permet le transport de la voix et l’ensemble des flux
médias y compris les flux conversationnels.
Contrairement aux réseaux traditionnels, les réseaux IP transportent
les flux de commande et de signalisation
comme des flux de données ordinaires. La construction de nouvelles
offres de services s’en trouve très fortement simplifiée, car tout élément
raccordé au réseau peut être acteur
de la commande du réseau. Évidemment, cette possibilité est aussi source
de risques pour le réseau et pour ses
utilisateurs. Des mesures de sécurité
spécifiques doivent donc être mises
en œuvre. Certaines applications nécessitant d’isoler des flux de données ou
de garantir leur délai de transfert, on
a été conduit à construire au-dessus
du protocole IP des mécanismes additionnels permettant de contrôler le
routage des flux de paquets.
L’identification des flux, leur séparation, voire l’affectation de ressources
spécifiques ont nécessité la mise au
point de techniques comme le “ tunnelling ” (conduit logique qui permet
de forcer le passage des paquets dans
certains nœuds) ou le protocole MPLS
(Multi Protocol Label Switching). Ces
techniques apportent les avantages
du mode connecté au “ monde sans
connexion ”…
Un point délicat des réseaux IP est
l’absence de gestion native de la qualité de service. Les phénomènes de
perte de paquets dus à des surcharges
momentanées des liens qui interconnectent deux routeurs, ou bien à des
reconfigurations des tables de routage consécutives à des pannes de
liens de transmission ou de routeurs,
ont des effets différents sur la qualité
de service vue du client selon la nature
des paquets transportés : paquets de
données ou paquets contenant des
signaux de téléphonie ou télévisuels
en temps réel. Dans le premier cas,
les protocoles appliqués de bout en
bout par l’émetteur et le récepteur
permettent de mettre en œuvre des
mécanismes de reprise ou de retransmission qui permettent d’assurer la
transmission des données après un
certain retard. Dans les autres cas, le
caractère isochrone des signaux à
transporter ne permet pas d’utiliser
les mêmes moyens pour se protéger
contre les pertes de paquets. C’est,
donc, au réseau d’assurer lui-même
la qualité de service requise. Des mécanismes spécifiques ont donc été développés pour introduire des priorités
de traitement de certains paquets lors
LA JAUNE ET LA ROUGE – AVRIL 200551
de surcharges du réseau, ce sont les
classes de service. Le marquage prioritaire des paquets de voix permet,
par exemple, d’éviter une longue
attente ou une perte de données devant
une ligne de transmission momentanément surchargée. De même, d’importants progrès ont été faits sur les
durées de reconfiguration des tables
de routage en cas de panne d’un élément du réseau.
Jusqu’à une date très récente, l’architecture des routeurs du marché ne
permettait pas d’obtenir le niveau de
fiabilité requis pour le service sans
une forte redondance du réseau. C’est
pourquoi le réseau IP de France
Télécom est complètement dupliqué
tant au niveau des routeurs, qu’au
niveau des liens de transmission. En
régime nominal, il peut transporter
jusqu’au double du débit pour lequel
il est dimensionné. Un effet secondaire de cette redondance est que les
situations de surcharge sont très rares
et les mécanismes de classe de service peu utiles à l’heure actuelle.
Un autre aspect très important
concernant les réseaux IP est celui de
leur sécurité face à des attaques.
Comme on l’a vu plus haut, l’ouverture des réseaux IP les rend vulnérables aux attaques d’utilisateurs malveillants. La sécurité est donc une
préoccupation constante des opérateurs exploitant des réseaux de ce
type. Ce souci pousse les opérateurs
à développer des mécanismes de protection du trafic des clients comme
le filtrage en périphérie, des mécanismes dits “ d’antispoofing ” (contre
l’usurpation d’adresses), de protection des flux client ou des flux de
commande par la technique de Réseau
privé virtuel (VPN). En outre, des
protections renforcées contre le déni
de service 1 ainsi que des mécanismes
de contrôle d’accès aux équipements
IP, jusqu’à rendre certains équipements non adressables par Internet,
sont également mis en place.
Aujourd’hui, la version du protocole IP est la version dite “ IPv4 ”.
Craignant une pénurie d’adresses à
court terme, une version plus évo-
52AVRIL 2005 – LA JAUNE ET LA ROUGE
luée a été spécifiée appelée IPv6. Cette
crainte est aujourd’hui beaucoup
moins pressante qu’il y a quelques
années grâce par exemple à la mise
en œuvre de mécanismes de séparation entre plan d’adressage privé et plan
d’adressage public, et au mécanisme
dit de “ Traduction d’adresse ”.
Néanmoins, le développement d’objets communicants à travers le monde,
et les flexibilités qu’offrent les nouvelles fonctions de la version IPv6
(au niveau adressage et mobilité) permettent d’augurer une transition du
monde IP vers IPv6 à plus ou moins
courte échéance. France Télécom se
prépare à cette transition en mettant
en œuvre IPv6 dans une partie de
son réseau IP.
Les réseaux IP s’appuient sur une
infrastructure de transmission numérique à très haut-débit construite sur
des câbles à fibres optiques. La période
de très forte croissance des réseaux
IP a coïncidé avec le déploiement de
systèmes de multiplexage en longueur
d’ondes (DWDM) qui permettent, à
ce jour, de multiplier par plus de 40
la capacité de transmission d’une fibre.
La même fibre véhicule plusieurs longueurs d’onde, offrant un débit de
2,5 ou 10 gigabit/s. Aujourd’hui la
croissance du réseau de transmission
reste conduite par la croissance de la
demande en trafic IP. Mais le “ tout
optique” dans les cœurs de réseaux qui
devrait aboutir à une couche de transmission optique reconfigurable sur
commande des routeurs IP n’est pas
envisageable avant plusieurs années.
La rupture technologique se produira
lors de l’introduction du brassage tout
optique, avec l’utilisation de multiplexeurs à insertion/extraction optiques
et reconfigurables.
Les réseaux de collecte
D’une façon schématique les réseaux
raccordent les utilisateurs, collectent
leur trafic, l’acheminent et le livrent.
Les réseaux en charge de la collecte du
trafic étaient au démarrage des réseaux
d’accès haut-débit à l’Internet, basés
sur la technologie ATM (Asynchronous
Transfer Mode). Ils relient les nœuds
de raccordement des lignes ADSL
haut-débit, appelés DSLAMs, aux
nœuds d’entrée des réseaux dorsaux
IP, appelés BAS (Broadband Access
Server).
Un nouveau protocole, le Giga
Éthernet, offre une meilleure équation économique notamment lorsque
les débits de collecte croissent. Cette
technologie, en provenance du monde
informatique et des réseaux d’entreprises est utilisable pour les réseaux
de collecte et dans la desserte des
entreprises. Elle consiste schématiquement à transporter des trames
Éthernet sur une longueur d’onde.
Bénéficiant d’une base installée considérable, elle trouve des applications
dans le transport des signaux à très
haut-débit comme les bouquets de
télévision. Les réseaux de collecte
ATM continueront néanmoins à être
utilisés car plus à même de transporter
les flux d’information synchrones.
Point d’entrée du réseau de collecte haut-débit, le DSLAM devient
progressivement un nœud d’accès
universel en intégrant les fonctions
que les commutateurs d’abonnés
jouaient au sein du réseau téléphonique commuté. Cet équipement
chargé de regrouper les différents flux
de service (Internet, VoIP, vidéo…)
émis par plusieurs clients va aussi
évoluer pour passer d’une architecture fondée sur du brassage ATM vers
une architecture fondée sur la commutation Éthernet. Il constitue le premier nœud d’un futur réseau de
communication multimédia.
n
1. Manœuvre malveillante consistant à empêcher un utilisateur ou un nœud de remplir son rôle
en le submergeant par exemple de trafic inefficace.
TÉLÉCOMMUNICATIONS
Les réseaux multiservices
Patrice Collet (65),
directeur Architectures et planification, France Télécom,
et Jean Craveur,
Direction Architectures et planification, France Télécom
De nouvelles offres multiservices
intégrées se construisent à partir
d’équipements chez le client et
dans les réseaux : une nouvelle
génération de plates-formes de
services apparaît
Le réseau s’étend
chez le client et lui donne
accès au multiservice
Traditionnellement le réseau s’arrêtait à la porte des clients et se matérialisait par la célèbre prise conjoncteur. Aujourd’hui, le réseau se prolonge
à l’intérieur du domicile du client au
travers de passerelles domestiques
dont la Livebox de France Télécom
est un exemple.
Cette passerelle, véritable réseau
local, joue le rôle d’articulation entre
l’installation domestique et les moyens
de télécommunication mis en œuvre
par l’opérateur. Elle combine les fonctions de modem et de routeur. Elle
permet, dans certains cas, au moyen
de technologies telles que Wi-Fi,
Bluetooth ou CPL (courant porteur
en ligne) de s’affranchir du câblage. Elle
peut également servir d’adaptateur
pour utiliser en VOIP 1 des postes téléphoniques classiques. Un autre rôle possible est de faire communiquer entre
eux des dispositifs installés dans la
maison. En effet, avec la montée en
débit et la diversification des services,
le réseau interne au domicile du client
se complexifie.
timédias et les clients : l’exemple du
marché français de l’accès haut-débit
le confirme complètement.
Les plates-formes de services
La passerelle domestique peut fournir des fonctions spécifiques à un service de communication. Par exemple
dans le cadre d’un service de voix sur
IP, la passerelle domestique dialogue
avec les plates-formes de commande
de la VOIP placées dans le réseau. À
ce titre, elle devient, pour une partie
de ses fonctions, partie intégrante du
réseau ; elle contribue aussi à la gestion de la qualité du service offert au
client. En effet, c’est elle qui, avec le
réseau, assure que les débits alloués
aux différents services sur l’accès d’un
client respectent un certain nombre de
règles comme celle qui consiste à donner priorité aux données de voix, sensibles aux variations de temps de transport, par rapport aux données d’accès
à Internet.
Ces passerelles constitueront à
l’avenir le support d’un certain nombre
d’offres de services, permettant aux
opérateurs de différencier leurs services au-delà de la seule couche de
transport. Gérer la passerelle résidentielle est donc un enjeu très important pour les opérateurs de réseau
qui jouent alors un rôle de médiateur
entre les fournisseurs de services mul-
Afin de fournir rapidement des
services évolutifs aux clients, il est
devenu nécessaire de concentrer la
logique de service sur des platesformes dédiées. Cette approche permet de constituer des blocs de service réutilisables dans l’ensemble du
groupe.
Ce concept est l’aboutissement
des travaux engagés, il y a quelques
années, avec ce que l’on appelait alors
le réseau intelligent qui, déjà, concentrait la logique du service et les données associées. Cela permettait de
donner accès rapidement à de nouveaux services comme le numéro vert,
les services de réseau privé virtuel,
le paiement des communications par
carte… La centralisation de la logique
de service permettait de gagner sur
le temps de déploiement, car il n’était
plus nécessaire de mettre à jour des
centaines de commutateurs pour offrir
les services.
Aujourd’hui le mouvement s’est
amplifié avec la pénétration de la
connectivité IP : l’absence de distinction entre les flux de commande
LA JAUNE ET LA ROUGE – AVRIL 2005
53
et les flux de transport rend beaucoup
plus général le concept de plate-forme
de services par rapport à ce qu’il était
dans le cadre du réseau intelligent.
Situées à l’intersection des réseaux et
du monde informatique, les platesformes de service permettent d’offrir
rapidement des services avancés indépendamment de l’accès (fixe, mobile,
Internet). Cette démarche optimise
les coûts et le “ time to market ”.
Les derniers développements des
technologies du type OSA Parlay (Open
System Architecture du Consortium
Parlay) offrent la possibilité d’ouvrir
les plates-formes de service à des développeurs tiers permettant d’envisager
des modèles économiques similaires
à celui du Minitel.
Que ce soit dans les passerelles
résidentielles, les terminaux ou les
plates-formes de services, on voit bien
qu’il est capital, pour un opérateur
de réseau, de maîtriser les éléments
de la mise en relation (identité, présence, localisation, annuaire, profil
client) afin de jouer le rôle d’agrégateur et de médiateur entre clients et
fournisseurs de services.
Les technologies du NGN
apportent la révolution
dans les réseaux support
des services
conversationnels :
les derniers moments
des réseaux téléphoniques
à commutation de circuits
Les techniques, que l’on peut qualifier de NGN (Next Generation
Network) imaginées par BellCore à
la fin des années quatre-vingt-dix,
consistent à séparer très clairement
les couches de commande et de transport dans les réseaux de services
conversationnels et à faire porter l’ensemble des flux de services par un
réseau dorsal unique, un réseau IP
par exemple. Couplées à une mise en
paquets de tous les flux conversationnels on aboutit ainsi à une nouvelle architecture de réseau qu’on peut
qualifier de réseau conversationnel
multimédia.
54 AVRIL 2005 – LA JAUNE ET LA ROUGE
La mise en place d’infrastructure
de réseau multimédia conçue
selon des schémas complètement
nouveaux
Les premiers travaux sur les architectures multimédias se sont largement développés dans le contexte des
réseaux mobiles. Les instances de normalisation ont développé les spécifications d’une architecture de commande de réseau multimédia reprenant
les principes du NGN et capable de
commander des flux de données tels
qu’ils sont transportés dans les réseaux
GPRS et UMTS. Les protocoles de
commande sont fondés sur le protocole SIP (Session Initiation Protocol)
défini par l’IETF (Internet Engineering
Task Force) et adapté aux besoins de
réseaux d’opérateurs mobiles. Ce système de commande est connu sous
le nom d’IMS. Parallèlement, les premiers déploiements de services conversationnels sur IP en Europe (voix et
visiophonie sur IP) ont été conduits
en utilisant des architectures fondées
sur le protocole H.323 car les seuls
équipements disponibles sur le marché étaient fondés sur celui-ci. Il est
apparu, assez vite, que l’architecture
de commande IMS pouvait être utilisée dans le contexte des réseaux fixes
pour établir des sessions de voix et
de visiophonie. Cette approche offre
une perspective de convergence entre
les mondes des réseaux fixes et mobiles.
Les bases de la normalisation de l’IMS
ont été reprises par l’ETSI (European
Telecommunications Standards
Institute) pour définir un système de
commande adapté aux réseaux fixes
multimédias.
Les avantages d’une telle orientation sont nombreux : mise en commun des développements techniques
entre les deux types de réseau, introduction de fonctions de nomadisme
dans les réseaux fixes (possibilité de
retrouver ses services à partir d’un
accès au réseau fixe qui n’est pas celui
que j’utilise en temps normal), et à
plus long terme possibilité de commander divers types de réseaux d’accès fixe ou mobile avec un même système de commande. L’ensemble de
l’industrie travaille maintenant dans
cette direction. Les premières spécifications de l’ETSI pour les réseaux
fixes devraient apparaître à la mi2005, permettant d’envisager la disponibilité de produits industriels
conformes au cours de l’année 2006.
Les protocoles SIP et H.323 que
l’on vient d’évoquer constituent une
nouvelle génération de protocoles de
signalisation. Ils permettent de mettre
en place et de libérer le lien logique ou
physique qui permettra le transfert
d’informations entre un point d’entrée et un point de sortie de réseau.
Ils transportent des informations relatives aux droits et conditions de l’établissement de la communication. Dans
le contexte du réseau téléphonique
actuel, la signalisation est transportée
dans un réseau de données par paquets
spécifiques hautement sécurisé et indépendant du réseau de transport de la
voix et des réseaux de données commerciaux qu’on appelle le réseau sémaphore : il relie tous les nœuds susceptibles d’intervenir dans l’établissement
des communications téléphoniques.
Cette méthode de signalisation connue
sous le nom de signalisation n° 7 a
permis la mise en place du RNIS, du
réseau intelligent et surtout des mécanismes de localisation et d’itinérance
dans les réseaux mobiles de 2e génération de type GSM. Aujourd’hui, cette
signalisation évolue. Son transport par
les réseaux IP est rendu possible car
la nécessité d’avoir un réseau de technologie paquet séparé de la technologie circuit a disparu.
L’évolution des réseaux de voix
Si le trafic de voix véhiculé par les
réseaux a tendance à augmenter (+7,2%
d’octobre 2003 à septembre 2004)
cela dissimule une situation contrastée entre le réseau téléphonique commuté fixe (RTC) dont le trafic a baissé
(- 0,3 % sur la période) et les réseaux
mobiles (+ 19 % sur la période) 2.
Outre le transfert de trafic des
réseaux fixes RTC vers les réseaux
mobiles, un autre phénomène est
apparu, celui de la maturité et du
déploiement des offres de VOIP. France
Télécom par exemple déploie une
infrastructure de VOIP tant pour le
marché résidentiel que pour le marché professionnel et entreprises. Le
déploiement rapide de l’ADSL accélère la migration vers la VOIP dans le
domaine résidentiel. Il accélère également la baisse du trafic d’accès
Internet à bas débit via le RTC dont
le trafic a diminué de 22 % d’octobre 2003 à septembre 2004. Le réseau
de voix traditionnel (le RTC) se
contracte pour s’adapter aux volumes
de trafic qu’il a à transporter, d’où la
réduction du nombre de commutateurs de transit voire de commutateurs d’abonnés.
C’est dans ce contexte que nombre
d’opérateurs historiques se posent la
question du remplacement progressif
de leur réseau RTC, fondé en grande
partie sur des technologies datant de
la fin des années soixante-dix. Environ,
la moitié des commutateurs temporels
de 2e génération en France sont âgés
de vingt ans ou plus. Plus de 10 millions d’équipements d’abonnés localisés sur des milliers d’Unités de raccordement d’abonnés (URA) ont été
installés au début des années quatrevingt. Compte tenu des volumes d’équipements en cause et des travaux de
réaménagement que leur remplacement nécessitera, il faudra plusieurs
années pour remplacer un tel parc.
C’est pourquoi, même si ces équipements donnent aujourd’hui un service de très bonne qualité, il convient
de se préoccuper de leur remplacement. Comme on l’a vu plus haut, le
trafic de voix va dans les années qui
viennent migrer au moins partiellement vers de la VOIP ou vers des services mobiles. À quelle vitesse et en
quelle proportion ? Il est évidemment
impossible de le dire. La solution de
remplacement choisie devra tenir
compte de la migration progressive
du trafic vers la VOIP et vers les
mobiles. Elle devra être robuste, redimensionnable et économique.
la VOIP le support de l’offre de voix.
Par ailleurs, les fournisseurs de DSLAM
développent sur ceux-ci des cartes et
des fonctions permettant le raccordement de lignes téléphoniques classiques et la transformation du signal
téléphonique en VOIP. Ce faisant, un
même cœur de réseau pourrait traiter à terme toute la voix sous la forme
de VOIP, qu’elle provienne de clients
ayant souscrit des offres de VOIP ou
bien de clients de lignes téléphoniques
classiques. Le cœur de réseau devient
ainsi indépendant du niveau de migration des services de voix vers la VOIP.
De même, pour le réseau d’accès le
DSLAM reste le même quel que soit le
choix du client, service traditionnel
ou service de VOIP : ce qui change
c’est seulement la carte de raccordement du client : l’effet de l’incertitude
se trouve ainsi très fortement limité.
sophistiqués et également de préparer la convergence technique et fonctionnelle des réseaux mobiles et fixes.
Avec une orientation de ce type
on simplifie également le réseau d’accès. Le DSLAM remplit des fonctions
qui sont assurées par deux familles
de machines les DSLAM et les URA,
ce qui devrait être de nature à réduire
les coûts d’exploitation.
Les réseaux sont aujourd’hui devenus plus ouverts que par le passé. Si
cette ouverture autorise une meilleure
interaction avec les installations clients,
et donc plus de possibilités au niveau
des services, elle permet également
de pénétrer au cœur des réseaux plus
facilement que du temps des réseaux
téléphoniques. Cela pose des problèmes nouveaux dont l’un, et non
des moindres, a trait à la sécurité,
qu’elle concerne les accès, le réseau
ou les logiciels des plates-formes de
services y compris la passerelle résidentielle. Les préoccupations de sécu-
Le système de commande des nouveaux services multimédias qu’on a
décrit plus haut est un bon candidat
pour traiter également les offres de
voix. Son utilisation doit permettre de
faciliter la transition des offres de voix
traditionnelles vers des services plus
Compte tenu de l’ampleur des travaux que représentera la migration
des services de voix vers la nouvelle
architecture que nous venons d’esquisser, France Télécom se prépare
afin de pouvoir commencer les premiers travaux à l’horizon 2006-2007.
Ils concrétiseront le début d’une nouvelle période celle de la disparition
de la commutation de circuits qui a vu
le jour avec le début du téléphone
automatique à la fin du XIXe siècle.
Conclusion
Nouvelles ouvertures,
nouvelles contraintes pour
les opérateurs de réseaux
L’architecture réseau pour les services multimédias
Une première orientation est claire,
le trafic de VOIP va croître avec le
développement de la couverture ADSL :
les DSLAM qui sont les équipements
permettant de raccorder les clients en
ADSL vont devenir pour les clients de
LA JAUNE ET LA ROUGE – AVRIL 2005
55
rité résident bien entendu aussi dans
tout ce qui tourne autour des identités (création, transport, utilisation)
générant des besoins accrus de certification, de prévention d’usurpation.
Elles touchent enfin à la sécurité de fonctionnement des équipements du réseau
eux-mêmes où il s’agit de se prémunir contre les attaques, les dénis de
service…
Si l’on ajoute :
1) que les réseaux sont désormais en
perpétuelle modification pour être à
même d’offrir au plus tôt les nouveaux services aux clients dans un
contexte de concurrence accrue où
la prime à la nouveauté et à la qualité
est de mise,
2) que les contraintes réglementaires
imposent :
– aux opérateurs dominants, et à eux
seuls, des mécanismes supplémentaires d’interconnexion avec les opérateurs concurrents,
– des mécanismes nouveaux de portabilité des numéros fixes et mobiles
(on change d’opérateur mais on
conserve son numéro) ce qui a nécessité de revoir la logique d’établissement d’appel par la mise en place de
la consultation systématique de bases
de données en temps réel de localisation pour acheminer les appels correctement,
– des mécanismes de dégroupage
partiel (seule une partie de la bande
est louée par l’opérateur concurrent)
et total (la totalité de la largeur de
bande est louée par l’opérateur
concurrent),
on comprend aisément que les causes
potentielles de déstabilisation des
réseaux ne manquent pas.
Ce qui est donc en jeu pour les
opérateurs de réseau confrontés à ces
mutations et obligations nouvelles,
c’est bien de garder la maîtrise des
évolutions et de continuer d’assurer
une qualité de service irréprochable
tout en optimisant le “ time to market ”
et en faisant bénéficier le client, au
plus vite, des dernières innovations.
Cela passe par la complète maîtrise
de la chaîne de conception, intégration et déploiement des réseaux. Il
s’agit donc de garder sous contrôle :
56 AVRIL 2005
2005 –– LA
LA JAUNE
JAUNE ET LA ROUGE
La vision du réseau du futur
1) la définition des architectures et
la spécification des fonctions et des
interactions,
2) le suivi des développements
industriels et leur validation en
termes de bon fonctionnement
intrinsèque et de non-perturbation
de leur environnement,
3) la réduction des risques avant
déploiement à grande échelle par des
opérations de vérification sur centres
“ captifs ” représentatifs le plus possible du réseau réel.
Même si c’est dans la nature même
des grands réseaux de télécommunications d’avoir à interconnecter les
équipements d’aujourd’hui avec ceux
d’hier, à l’intérieur de leur espace géographique ou avec d’autres réseaux
du monde entier, jamais la complexité
n’aura été aussi grande, jamais n’auront été si rapides les bouleversements
qui les affectent. Faire interfonctionner tous ces équipements est un vrai
métier.
Une véritable course de vitesse
sans fin est donc engagée, entre d’une
part la volonté de simplifier l’architecture des réseaux de demain, et
d’autre part l’augmentation naturelle
de l’entropie par suite d’accroissement de la diversification technique,
de la multiplication des services et de
leurs interactions, et de la complexification des cadres réglementaires.
Maîtriser les transitions qui sont l’apanage des grands réseaux de télécommunications, et savoir répondre à la
demande croissante de qualité et de
sécurité pour les services, est un exercice très compliqué ; rares seront les
opérateurs qui sauront le faire de façon
pérenne.
Un nouveau défi apparaît alors,
celui de disposer à tout moment,
aujourd’hui comme demain, des
compétences adéquates (en qualification et en effectif) dans tous les secteurs de la chaîne évoquée plus haut.
Le facteur humain et organisationnel
est bien au cœur des problématiques
à résoudre par les opérateurs qui voudront garder la maîtrise des mutations à l’œuvre au sein des réseaux
de télécommunications.
n
1. Voice over Internet protocol.
2. Source ART observatoire des marchés.
TÉLÉCOMMUNICATIONS
Réseaux de télécommunications
et services de contenus :
l’addition de forces complémentaires
aux services des clients
Patricia Langrand (83),
directeur exécutif, agrégation des contenus, France Télécom
Les progrès des techniques de compression et de transmission font
que des réseaux téléphoniques à haut débit, fixes et mobiles, ont d’ores
et déjà la capacité de distribuer des images et des sons numériques
de bonne qualité. Il sera même possible, tout prochainement, d’amener
de la télévision et de la vidéo à la demande à haute-définition sur
les lignes de cuivre des clients.
Bell, était le photophone, qui consistait à transmettre le son en recourant
à la lumière, et non à voir à distance.
Une telle découverte aurait permis la
constitution d’un système téléphonique optique sans construire de réseau
téléphonique…
D
Le mot télévision semble avoir été
employé pour la première fois à Paris
en 1900. Et il faudra attendre les
années 1930 pour que les laboratoires
de la Bell Company jouent un rôle
important dans le développement de
la télévision. La Bell Téléphone sera
d’ailleurs la première compagnie à
organiser à cette époque une émission en direct entre New York et
Washington (1927)…
E PLUS EN PLUS,
notre métier
va intégrer une nouvelle composante : la distribution de
contenus premium (chaînes de TV,
films, musique, jeux, sports…) sur
l’ensemble des réseaux, pour le plus
grand plaisir des clients, et dans l’intérêt de nos partenaires/fournisseurs
de contenus. Il ne s’agit pas d’une
“ convergence contenus-contenants ”,
mais d’une addition de forces : celles
de nos technologies (plates-formes
de services, réseaux et terminaux) et
de la puissance de notre relation client,
avec celles de nos partenaires en matière
de programmes et de services. La distribution de contenus sera pour les
opérateurs de télécommunications un
vecteur de croissance, de fidélisation,
de différenciation et d’acquisition de
nouveaux abonnés, à condition de
savoir se positionner rapidement, efficacement, et de façon pertinente, sur
une chaîne de valeur en évolution.
Je parlerai surtout d’image, parce
que les dépenses pour les médias des
foyers sont principalement tirées par
l’image (TV, Vidéo, Cinéma) 1, parce
que la télévision est “ le plus grand
public des services grand public” (trois
heures vingt-quatre passées devant la
télévision en moyenne pour les plus
de quatre ans) et parce que les évolutions technologiques de nos réseaux
sont tirées par l’image qui est la plus
demanderesse en débits et en qualité
de service.
Téléphone et contenus :
deux histoires mêlées
Téléphone et télévision ont des
origines communes, entremêlées. C’est
en 1848 qu’est énoncé le principe de
transmission d’images. Mais l’idée
même de la télévision (la “ vision à
distance ”) a été suscitée par la découverte du téléphone par Graham Bell
en 1876. S’il était possible de transmettre les sons grâce à l’électricité il
devait en effet être possible de transmettre également des images.
On attribua à Bell l’invention dès
1878 du télectroscope, appareil pour
transmettre à distance les images. En
réalité, l’appareil, alors proposé par
Les fonctions attendues à la fin du
siècle de cette “ vision à distance ”
constituent les prémisses de la diffusion et de l’interactivité, il s’agit de
permettre :
• à un marchand d’exposer ses biens
à distance dans le monde entier ;
• de diffuser rapidement dans le
monde entier le signalement des criminels en fuite ;
• de voir à tout instant les personnes
aimées, et en combinaison avec le
téléphone, transmettre des conversations en voyant son interlocuteur ;
• aux artistes de conserver leurs
œuvres tout en les exposant à l’étranger, et diffuser des spectacles ;
e
XIX
LA JAUNE ET LA ROUGE – AVRIL 200557
• de consulter à distance la page souhaitée d’un livre, ou de transmettre
des documents manuscrits.
Certains s’interrogent sur la légitimité des opérateurs de télécommunications à intervenir dans la distribution
de contenus mais ces réseaux ont dès
leur origine cherché à permettre ces
services ! Une des premières applications développées pour le téléphone
fut le théâtrophone, proposé dès 1881,
qui permettait de distribuer musique
et concerts et qui constitua, jusqu’à
l’arrivée de la radio, la première forme
de distribution électronique de culture et de divertissement. Ce n’est en
revanche vraiment qu’aujourd’hui, au
XXIe siècle, que tous les usages envisagés
à la fin du XIXe siècle sont rendus possibles, sur le vieux fil téléphonique, et
cela, en même temps. Vient s’ajouter, par ailleurs, une nouvelle dimension : la mobilité.
Le succès de la TV par ADSL
La télévision par la prise de téléphone poursuit, modestement, le travail des pionniers du téléphone. La
transmission de programmes de télévision sur la ligne téléphonique est
permise grâce aux progrès conjoints
apportés par le codage numérique
(MPEG) et par la transmission numérique (DSL).
Fin 2003 est née MaLigne tv, service de télévision premium par la ligne
téléphonique. Ce service, qui compte
aujourd’hui plus de 120 000 clients,
est permis par les nouvelles capacités haut-débit de nos réseaux fixes.
Il est particulièrement “ visible ” car il
traite de télévision et l’amène simplement. Une bonne vieille prise de
téléphone suffit pour y accéder, à
condition néanmoins d’être dans une
zone couverte et d’avoir sur sa ligne
le débit nécessaire (c’est le cas aujourd’hui pour plus de 5 millions de foyers
en France, et 10 millions fin 2005).
par le plus dur : les contenus premium payants de type sports ou cinéma
que proposent TPS ou Canal + ne peuvent souffrir la moindre imperfection
d’image, ou la moindre interruption
de service, alors qu’un réseau de télécommunications est beaucoup plus
complexe qu’une diffusion par satellite.
La TV par la ligne téléphonique
s’est imposée dès son démarrage, grâce
à la force combinée de l’opérateur et
de ses partenaires, comme un modèle
crédible incontestable dans un marché fortement concurrentiel mais non
saturé (en France, les 2/3 des foyers
reçoivent, encore aujourd’hui, moins
de 6 chaînes).
Son succès est dû à :
• une très grande simplicité d’accès,
une prise téléphonique suffit, et la
plupart des foyers en ont une ;
• une très grande richesse d’offres
combinant chaînes de TV en grand
nombre et de qualité grâce à TPS et
Canal + ;
• l’attractivité des offres dites “ multi
– play ” permettant sur la même ligne
la télévision, l’Internet à haut-débit,
et la voix sur IP.
En outre, la TV sur ADSL bénéficie de toute l’interactivité du réseau
téléphonique, qui permet en particulier de proposer de la vidéo à la
demande (VOD), véritable “ service
de location de DVD sans quitter son
canapé ”. Un service de VOD a été
lancé dès le démarrage du service à
Lyon en décembre 2003.
Ainsi l’ADSL permet de distribuer
de très nombreuses chaînes, de qualité excellente (demain, en haute définition), avec des contenus proposés
de manière interactive, et en toute
simplicité pour le client. Je résumerais
cela par richesse et diversité, qualité
et interactivité, simplicité et sécurité.
Une première étape
En lançant ce service en partenariat avec l’opérateur de bouquet de
chaînes par satellite TPS en
décembre 2003, puis avec Canal + à
la mi 2004, nous avons commencé
58AVRIL 2005 – LA JAUNE ET LA ROUGE
Grâce aux effets combinés des
déploiements des écrans plats de toutes
tailles, fixes, nomades ou mobiles d’une
part, et du haut-débit sur tous les
réseaux de télécommunications d’autre
part, nous allons assister schématiquement à deux types d’évolutions
de la consommation télévisuelle :
• une consommation familiale à
domicile de plus en plus grand
spectacle, la famille se réunissant
autour du grand écran, de plus en
plus plat et de plus en plus grand du
salon, avec une image de plus en plus
haute-définition (HD) et du son “ hifi ” multicanaux, pour partager de
grands événements, matchs de football, concerts, opéras, ou des films
(Home Cinema) y compris à la
demande, ou de grandioses documentaires ;
• une consommation individuelle à
travers les autres écrans de la maison (2e ou 3e téléviseur, PC, visiophone...) et les mobiles, de plus en
plus personnalisée et interactive,
permettant de :
– rester en contact avec les “ événements ”, même en dehors de chez soi
(mobile), ou regarder quelque chose
de différent de ce que regardent les
autres membres de la famille (PC ou
2e TV, voire mobile) ;
– obtenir des informations additionnelles sur les programmes sans “ polluer ” l’écran à grand spectacle et
gêner les autres ;
– interagir avec lesdits programmes à
travers votes/quiz, SMS qui s’affichent à l’écran ;
– “ tchatcher ” avec “ sa tribu ” autour
des programmes que l’on aime.
Le mobile et surtout le PC pourront être également des outils de
recherche, de commande, de paiement des programmes à voir ou écouter sur l’ensemble des terminaux de la
maison.
“ L’image appelant l’image ”, il sera
nécessaire de pouvoir la proposer et
donc la transporter partout. Le métier
des opérateurs de télécommunications du XXIe siècle consistera à véhiculer, au-delà de ce qu’ils véhiculent
déjà, de plus en plus de contenus
audiovisuels. La distribution de contenus audiovisuels et l’innovation dans
cette distribution sont au cœur de la
stratégie de développement des offres
multiservices de France Télécom.
Pour réussir, il est nécessaire de
créer et bâtir une nouvelle alliance de
confiance entre le secteur des contenus et celui des opérateurs multiservices, avec pour socle, l’exigence justifiée des clients. C’est pourquoi,
l’intervention de l’opérateur de télécommunications dans les services de
contenus audiovisuels se fonde sur
un triptyque simple et applicable à
l’apparition de toutes nouvelles technologies susceptibles d’améliorer la
consommation de programmes : clients,
partenaires, réseaux.
Une intervention basée
sur un triptyque
client/réseau/partenaire,
parce que les clients
l’attendent, les partenaires
de contenus le demandent,
les réseaux le permettent
Des réseaux qui permettent
et permettront de plus en plus
la distribution de contenus
L’histoire de la télévision s’accélère. Il aura fallu vingt ans après la
création de la Radio Télévision française en 1945 pour la transmission
des premières images de Mondovision
(1962), l’introduction par Philips des
premiers magnétoscopes grand public,
l’apparition de la couleur (1967) et
l’arrivée de la publicité à la télévision.
Il aura fallu trente ans pour créer la
3e chaîne (1972) et que chaque pays
européen se voie attribuer 5 canaux
de télévision par satellite (1977); et quarante ans pour que naisse le câble
(1982, 100 000 abonnés en 1988),
qu’apparaissent Canal Plus (1984)
puis deux chaînes privées, la 5 et la 6
(1985). Il aura fallu cinquante ans
pour voir arriver la télévision numérique (par satellite aux États-Unis avec
DirecTV en 1994) et en France les
bouquets numériques de télévision
par satellite (1996).
Alors qu’en moins de deux ans
sont arrivées la télévision numérique
sur la ligne téléphonique, la télévision numérique hertzienne terrestre,
la télévision sur le mobile, la vidéo à
la demande (VOD), sans compter les
possibilités d’Internet et du PC en
matière de télévision et VOD.
Les réseaux de télécommunications
sont aujourd’hui au cœur de la distribution télévisuelle puisqu’ils sont à
même de viser à la fois les usages collectifs à grand spectacle de la télévision diffusée ou à la demande (VOD),
et les usages individuels sur des écrans
personnels ; les capacités interactives
de ces réseaux ouvrent un champ d’applications “ infini ” à explorer et inventer avec les éditeurs de contenus.
Il y a quinze ans les réseaux fixes
transportaient 75 kbit/s. Aujourd’hui
leur capacité est, avec l’ADSL, 100 fois
plus élevée, et l’ADSL2 + vient encore
la doubler. Nous disposons avec l’ADSL
d’un réseau de qualité permettant de
proposer une offre audiovisuelle attractive à un très large public : les deux
tiers de la population française (20 %
environ aux États-Unis) peuvent être
raccordés à plus de 6 Mbits/s, un débit
suffisant pour véhiculer en même
temps l’Internet haut-débit et des programmes audiovisuels de définition
standard en MPEG2.
Le marché français de l’Internet à
haut débit sur technologies DSL est
l’un des plus dynamiques au monde
(6 millions d’abonnés fin 2004, contre
3 millions fin 2003), la couverture,
de 90% à fin 2004, dépassera 95% fin
2005.
Le réseau fixe est loin d’être mort
contrairement à ce que certains annonçaient, pariant sur le tout mobile…
Nous utilisons aujourd’hui les technologies de transmission ADSL 2 et
de codage MPEG2 3 (seules technologies disponibles lorsque la TV sur
ADSL a été lancée à fin 2003). L’arrivée
du MPEG4 et de l’ADSL2 + pourrait
permettre techniquement via un quasidoublement de l’efficacité en compression et de la capacité de transmission sur la ligne dans les zones de
couverture TV 4, d’accroître encore
l’attractivité et la différenciation de
l’offre : accroissement sensible de la
couverture d’environ 10 points ; augmentation du nombre de chaînes disponibles ; réception de plusieurs flux
permettant de répondre au multiéquipement en téléviseurs, distribution de l’image 5 et du son en hautedéfinition.
Au delà, la technique VDSL offre
des débits plus élevés que l’ADSL2
+ (jusqu’à 30 Mbit/s). Mais la montée
en débit butera un jour sur la limite
de la capacité en débit du réseau de
cuivre. L’ADSL2 + ne suffira pas pour
monter en débit au-delà de 15 à
20 Mbit/s avec un taux d’éligibilité
significatif. La fibre optique jusqu’aux
locaux client du type FTTH (Fiber To
The Home), FTTB (Fiber To The
Building) permet des débits beaucoup
plus élevés (100 Mbit/s), avec une
plus grande symétrie.
Les services qui permettraient de
rentabiliser de tels investissements
pour le grand public restent cependant à inventer…
En matière de mobiles, la 2e génération (GSM) 6 a introduit le numérique dans les communications radio
mobile et a permis l’explosion de la téléphonie mobile; 43 millions de Français
équipés en moins de dix ans. Une
nouvelle technique (GPRS ou “2,5 G”)
a été développée qui permet des
échanges de données à des débits de
30 à 40 kbps (une dizaine de kbit/s
pour le GSM). Une première forme
de télévision mobile est d’ores et déjà
accessible à tous les Français, sur le
réseau GSM/GPRS d’Orange qui couvre
99 % de la population.
Les nouveaux services multimédias
mobiles (visiophonie, VOD, TV
mobile…) gourmands en débit ont
nécessité de définir une nouvelle norme
radio appelée UMTS (Universal Mobile
Telecommunication System), dite de
3e génération, qui autorise des débits
10 fois plus élevés que le GSM/GPRS ;
le temps d’accès à la vidéo est plus
rapide et la visualisation de la vidéo
sur mobile plus fluide. L’UMTS est en
cours de déploiement en Europe et en
France en particulier.
Tout prochainement, l’introduction des technologies “ HSDPA ” et
“ HSUPA ” devrait apporter à l’UMTS
LA JAUNE ET LA ROUGE – AVRIL 200559
des débits encore plus conséquents
tant en descendant (de l’ordre de
1 Mbps en descendant pour le HSDPA)
qu’en remontant pour les applications
interactives ou la distribution d’abonné
à abonné (HSUPA).
Les technologies GPRS et UMTS
ne permettent pas en revanche de
diffusion point à multipoint (multicast). Elles ne permettent que de la
diffusion point à point (mode unicast – le contenu est transmis autant
de fois qu’il y a de téléspectateurs
mobiles), et sont donc peu adaptées,
à de la diffusion de télévision live.
Elles sont en revanche bien adaptées
à la consultation de programmes de
TV à la demande (buts de football,
news, programmes courts adaptés et
reformatés).
Le DVB-H 7 (Digital Video Broadcasting-Handheld), norme technique
émergente qui complète la norme
DVB-T (pour Terrestre) retenue en
Europe pour la TNT 8 et utilise les
mêmes technologies que cette dernière en l’adaptant à la diffusion mobile,
devrait permettre une vraie télévision
live. Le DVB-H présente l’intérêt, par
rapport au DVB-T destiné aux postes
de télévision fixe, d’augmenter la
robustesse de réception. Et le DVBH est une norme de diffusion point à
multipoint. Les coûts de diffusion
sont indépendants du nombre d’auditeurs, contrairement aux modes de
diffusion point à point dont les coûts
sont proportionnels au nombre de
personnes connectées et à la durée
de consultation.
Un test va prochainement être
mené en partenariat avec les chaînes
de TV pour ce type de technologie,
complémentaire des technologies de
3e génération.
En proposant un univers intégré “ Fixe + Mobile ” pour le développement de nouveaux services
intégrés permettant à nos clients de
visualiser (ou écouter) les contenus
de leur choix, quel que soit l’endroit
où ils se trouvent, avec le terminal
dont ils disposent et le meilleur de la
technologie existante.
60AVRIL 2005 – LA JAUNE ET LA ROUGE
Une attente de nos clients
Nous mesurons en permanence
les comportements et attentes de nos
clients, sur les services qu’ils consomment déjà. Lorsque le service de télévision sur ligne téléphonique a été
lancé, toutes les études montraient
que la demande existait pour une offre
de chaînes de télévision sur la ligne téléphonique chez les abonnés haut-débit,
séduits par la possibilité de recevoir
sur la même ligne de plus en plus de
services, par la simplicité d’accès de
la ligne téléphonique, et voyant bien
ce que signifiait l’accès à un bouquet
de chaînes premium.
Ce service n’a pas séduit uniquement les utilisateurs d’Internet, mais
a également attiré de nombreux téléspectateurs qui n’avaient jamais eu la
télévision payante et qui ont décidé de
franchir le pas en découvrant les multiples avantages du réseau téléphonique et de ses lignes de cuivre. Plus
généralement, pour répondre aux
attentes évaluées de nos clients, il
nous faudra travailler dans plusieurs
dimensions.
Le grand spectacle
Le DVD a habitué les consommateurs à un certain niveau de qualité
de l’image et du son. Quand ils regardent un film dans leur salon nos clients
veulent se sentir au cinéma, quand
ils regardent un match, ils veulent
être un supporter autour du stade,
quand ils “ participent ” à un concert,
ils veulent vibrer avec la salle…
Après dix années marquées uniquement par l’élargissement de l’offre
de contenus (multiplication des chaînes
thématiques), c’est désormais l’innovation technologique qui devrait soutenir le marché de la TV. La HD est déjà
une réalité pour des millions de téléspectateurs dans le monde : au Japon
sur le câble, le satellite et la TNT, aux
États-Unis et en Australie sur le câble
et le satellite.
Le mouvement des écrans vers la
haute-définition s’effectue de façon
quasi mécanique : de plus en plus de
gens achètent des écrans plats, et
puisque leur encombrement est faible,
ils achètent un modèle plus grand.
En 2004, il s’est vendu dans le monde
8,8 millions d’écrans LCD, dont 38 %
en Europe.
Pour installer une chaîne complète
de TV haute-définition, tous les maillons
– terminaux/écrans de réception, production, diffusion – doivent être prêts.
La plupart des programmes de sport,
de documentaires ou de séries destinés à l’export sont déjà tournés en
haute-définition. La Coupe du Monde
de football de 2006 en Allemagne,
première manifestation sportive intégralement produite au format 16/9e
et en haute définition, pourrait donner le coup d’envoi de la télévision
haute-définition en Europe, et la ligne
téléphonique a les moyens d’être l’un
des premiers vecteurs de diffusion de
la haute-définition en France.
Le choix
Qui n’a pas un jour rêvé de ne plus
être soumis aux grilles de programmation, de pouvoir voir à tout instant, au moment souhaité, le film ou
l’émission que l’on a oublié d’enregistrer, de pouvoir “ louer ” instantanément un DVD depuis son canapé…
Seul un réseau point à point comme
l’ADSL peut fournir facilement de tels
services. Aujourd’hui, sur les réseaux
téléphoniques, les technologies sont
là, encore un peu coûteuses mais abordables, qui permettent de passer du
rêve à la réalité.
Le DVD a modifié notre manière
de regarder les contenus en proposant un accès rapide à des séquences
particulières (chapitrage), à des bonus,
des informations additionnelles… Les
tentatives de personnalisation des
modes d’accès aux contenus TV à travers les équipements de Personal Video
Recorder (PVR), permettant de voir
quand on veut, en revenant en arrière,
en faisant une pause, en revoyant une
scène (à la manière du DVD), ont
conquis les téléspectateurs. En parallèle l’Internet nous a fait réellement
entrer dans la consommation personnalisée interactive.
Le PVR est aujourd’hui un marché de niche mais il présente déjà une
vraie souplesse dans la visualisation des
programmes. Sa vraie révolution est
la possibilité de visualiser un contenu
tout en continuant à enregistrer ce
même contenu (time shifting). Il autorise aussi l’enregistrement simple de
plusieurs dizaines d’heures (par exemple
pour programmer une fois pour toutes
tous les épisodes de sa série préférée).
Mais le formidable enjeu de l’appropriation des programmes ne peut se
résumer au seul PVR. Il faut que celleci s’accompagne de l’accès à une offre
élargie de programmes totalement à
la demande, ce que permet la VOD.
La VOD devrait être bénéfique à
l’ensemble des acteurs de la chaîne, en
venant s’additionner aux autres vecteurs de distribution. La télévision au
sens large est en effet, encore aujourd’hui, un marché d’offre. Plus les téléspectateurs ont d’images et surtout
d’images de qualité à leur disposition
plus ils en veulent sur tous les supports
dont ils disposent. La consommation
augmente, et le potentiel en France
est encore important.
Une offre attrayante de VOD comprendra à la fois du catalogue (stock)
et des contenus récents (flux) cinématographiques en particulier, des films
mais également des séries, des documentaires, des programmes pour enfants,
des contenus culturels, des vidéoclips…
Seule l’existence d’offres de VOD payantes
légales permettra de plus de lutter efficacement contre le piratage.
Il a été souhaité de proposer un
service de VOD dès le démarrage du
service fin 2003. Aujourd’hui sont
offertes 1 000 heures de programmation (films récents, films de catalogue,
séries, documentaires, programmes
pour enfants, quelques programmes
de télévision délinéarisés, tel le journal de 20 heures).
Concernant les mobiles, Orange
propose déjà un certain nombre de programmes à la demande adaptés par
exemple le journal télévisé de LCI reformaté en version d’une minute trente
pour le mobile, les buts de football en
quasi-temps réel, ou des bandes-annonces
de films. 600 000 téléchargements ont
été réalisés par les 50 000 premiers
abonnés 3G. En Corée, l’Opérateur
SKT a vu son offre de vidéo mobile
séduire en moins d’un an la moitié de
ses 15 millions d’abonnés 3G.
Si je suis passionnée de rugby, je
dois pouvoir être alertée des actions
importantes en cours de match et
visualiser sur mon mobile l’essai qui
vient d’être marqué. Mon environnement de consommation de contenus doit m’accompagner dans tous
mes déplacements.
L’interactivité
Rares sont les services interactifs qui
ont rencontré un public et ont généré
des revenus additionnels. Cela étant,
les réseaux sont interactifs par essence
et les clients ont par définition une
voie de retour par le téléphone fixe
ou mobile. Nous disposons donc d’un
champ nouveau à explorer :
• recherche des contenus et dans les
contenus (chapitrage par exemple) ;
•échanges entre téléspectateurs
autour des contenus ;
•interaction/participation aux contenus eux-mêmes (ex : La Star Academy
à domicile à travers la visiophonie…) ;
•partage de contenus entre téléspectateurs (superdistribution) ;
•la circulation des programmes sur
le réseau domestique afin d’adresser
les différents types d’écrans et d’équipements de stockage ;
•élargissement des moyens de recherche/commande et visualisation des programmes eux-mêmes ou des informations additionnelles à d’autres écrans que
celui du téléviseur (mobile, PC…).
Plus l’offre de contenus se diversifie, plus il est essentiel de pouvoir la
connaître et opérer ses choix de manière
simple. Et il faut pour cela jouer la
complémentarité des médias : consulter un catalogue de films sur mon PC
et une fois le programme sélectionné,
le regarder sur le téléviseur ; programmer à distance l’enregistrement
sur son PVR; composer la compilation
de mes morceaux de musique favoris
sur mon PC et les écouter à n’importe
quel moment sur mon mobile ; être
alertée sur mon mobile des nouveautés
de mes artistes préférés, les commander et les écouter ensuite sur ma
chaîne hi-fi…
Nous travaillons activement au
développement d’offres transverses
multisupports. Un des premiers
exemples en sera probablement la
musique. Les mobiles sont une chance
pour l’industrie de la musique et il
est opportun de construire avec elle
des offres attrayantes et différenciantes.
Le mobile est déjà utilisé avec succès comme voie de retour, pour une
consommation plutôt jeune et impulsive dans le cadre de votes associés à
des émissions de télévision. Le meilleur
exemple en est la téléréalité avec 2 millions de SMS envoyés en une soirée
“ Star Academy ”. Ce succès est très
lié au modèle de partage de revenus
mis en place entre les chaînes de télévision et les opérateurs de télécommunications, modèle qui est réellement attrayant pour tous les acteurs.
Des partenaires demandeurs
Les services intégrés
Ainsi, pour le lancement de MaLigne
tv, nos partenaires et nous-mêmes
avons souhaité nous concentrer chacun sur ce que nous savions le mieux
faire. France Télécom assure la vente
des bouquets TPS et Canal +, la chaîne
technique complète de diffusion, la
Nos clients veulent pouvoir commander et voir ou entendre ce qu’ils
veulent, quand ils le veulent, où ils
le veulent, comme ils le veulent, et
en toute simplicité.
Les opérateurs de télécommunications qui se lancent dans la commercialisation d’offres de contenus
pour leurs clients rencontrent souvent des problèmes pour constituer
une offre attrayante. Il s’agit de ne pas
chercher à tout faire mais d’additionner ses forces à celles de partenaires motivés pour satisfaire les
demandes de clients de plus en plus
exigeants.
LA JAUNE ET LA ROUGE – AVRIL 200561
sécurisation et la gestion des droits, la
définition et la gestion des décodeurs
et des packs adaptateurs ADSL. TPS
et Canal + assurent la sélection et la
conception des bouquets de chaînes,
la promotion et la distribution de leurs
bouquets et la gestion des abonnements à leurs bouquets.
La VOD est un cas de figure un
peu différent. Le marché est totalement nouveau, distinct et complémentaire du marché de la distribution de chaînes de télévision ; il est
encore plus gourmand en bande passante; la capacité de l’opérateur à optimiser l’usage de ses réseaux et serveurs est fondamentale. C’est pourquoi
nous maîtrisons la chaîne technique
complète ainsi que la constitution et
la commercialisation de l’offre de vidéo
à la demande selon un modèle de type
kiosque qui assure une répartition
des revenus entre les partenaires et
l’opérateur. Nous faisons appel à un
ensemble de partenaires pour la fourniture de contenus (films, séries, documentaires, programmation pour les
enfants…).
Pour les opérateurs de télécommunications, il est important de sécuriser l’accès aux contenus ; de maîtriser la conception de services de
contenus adaptés aux réseaux/terminaux et aux comportements des clients;
de maîtriser l’offre de contenus qu’ils
proposent eux-mêmes à leurs clients,
sa “ programmation ou animation ” et
sa présentation (magasin ou portail) ;
de maîtriser la sécurité qu’ils proposent à leurs partenaires et qu’ils assurent pour eux.
Une exigence des auteurs
et de nos partenaires :
la sécurité
Les opérateurs de télécommunications n’attireront des contenus de
valeur attractifs et différenciants, leur
permettant d’accroître le revenu généré
par leurs clients existants, de fidéliser leurs clients et d’en attirer de nouveaux, que s’ils sont capables de
convaincre les ayants droit qu’ils peuvent leur “ confier ” leurs droits avec
le maximum de sécurité.
62AVRIL 2005 – LA JAUNE ET LA ROUGE
Au sein de France Télécom, nous
avons développé depuis longtemps
des compétences propres et reconnues dans le domaine de l’accès conditionnel et du “ Digital Rights Management ” (DRM), commercialisées à
travers la filiale Viaccess. Ces solutions sont proposées à l’extérieur (opérateurs satellites, câble, hertziens terrestres, fournisseurs de contenus sur
Internet…) et utilisées pour nos propres
services sur nos propres réseaux.
La numérisation des contenus sous
forme de fichiers permet de copier
l’œuvre à l’infini sans détérioration
de celle-ci et la dématérialisation de
l’œuvre. Cela rend possible l’émergence de nouveaux services et entraîne
une évolution des modes de consommation vers plus de souplesse et de
diversité. Mais, dans un contexte changeant, ayants droit et consommateurs
souhaitent voir leurs droits respectés. De nouveaux équilibres doivent
donc être trouvés. Et les opérateurs
doivent être des partenaires de confiance
tant vis-à-vis des sociétés représentants les ayants droit que des utilisateurs finaux.
Pour ce faire il importe de comprendre les enjeux induits par la numérisation des contenus, connaître les
modèles de répartition en vigueur
dans les industries du contenu ainsi
que l’environnement légal associé, et
développer des solutions de protection permettant de répondre d’une
part aux attentes des ayants droit en
leur ouvrant de nouveaux débouchés
tout en leur assurant une juste rémunération et d’autre part des consommateurs finaux en leur proposant de
nouveaux services attractifs simples,
fluides et adaptés à leurs nouvelles
pratiques de consommation.
Conclusion
La consommation de contenus en
ligne est d’ores et déjà un vecteur
important du développement du hautdébit sur tous les réseaux.
Mais seule la capacité à innover
et à proposer un univers intégré
fixe/mobile permettant le dévelop-
pement de nouveaux usages permettra de faire croître significativement
la consommation des médias, dans
l’intérêt de tous les acteurs.
La pénétration croissante des équipements domestiques multimédias
raccordés aux réseaux haut-débit fixes
et mobiles, la marche vers le tout
numérique avec ce que le numérique
apporte de diversité, de richesse et
de souplesse, l’arrivée de la hautedéfinition en télévision, la richesse
intrinsèque des réseaux en matière
d’interactivité sont de nature à faire
évoluer positivement le marché et la
donne.
L’objectif ultime d’un opérateur
de télécommunications est de procurer en tout lieu à ses clients les
contenus qu’ils désirent, avec le maximum de facilité et de qualité, et d’offrir à ses partenaires la garantie de
toucher les publics les plus larges en
toute sécurité.
n
1. Avec des dépenses d’une dizaine de milliards
d’euros par an aujourd’hui contre moins du tiers
il y a quinze ans.
2. Qui autorise 6,5 Mbit/s à près de 10 Mbit/s sur
le canal descendant et 1 Mbit/s max sur le remontant (exemple de portée : 2 km à 6,5 Mbit/s).
3. Nécessite environ 4 Mbit/s pour un match de
football par exemple.
4. Autorise 13 Mbit/s à près de 18 Mbit/s sur le
canal descendant et 1 Mbit/s max sur le remontant (exemple de portée : 1,3 km à 13 Mbit/s et
près de 2 km à 8 Mbit/s).
5. Une petite dizaine de Mbps pour un programme
HD en MPEG4 contre grossièrement le double en
MPEG2, la moitié en MPEG2 pour un programme
de qualité standard, le quart en MPEG4.
6. Système GSM Global System Mobile normalisé en Europe.
7. D’autres technologies de diffusion (par satellite avec éventuellement une retransmission terrestre) sont actuellement en cours de déploiement en Corée (S-DMB).
8. Télévision numérique hertzienne terrestre, successeur de la classique TV hertzienne analogique
sur nos “ antennes râteau ”.
VIE
DE
L'ÉCOLE
VIE
DE
L’ÉCOLE
Polytechnique :
un campus en pleine évolution
Actualité de l’École, présentée par son président
et son directeur général.
A
LORS QU ’ ELLE ENTRE
dans la
seconde phase du contrat
pluriannuel signé avec l’État,
l’École a, cette année, pérennisé les
actions engagées depuis 2001 lui
permettant ainsi de mettre en œuvre
un grand nombre de projets dont
certains trouveront leur aboutissement
au-delà de l’horizon 2006. Mais 2004
marque également les prémisses de
changements accélérés sur le campus
de l’École.
Ces changements vont, tout d’abord,
induire une évolution notable du
nombre de “ ses habitants ” :
• 2 000 personnes de THALES, IOTA,
DIGITEO (Numatec-PCRI), ONERA
et l’ENSTA vont nous rejoindre progressivement d’ici 2009 ;
• 40 hectares situés à l’ouest du campus et appartenant actuellement au
ministère de la Défense devraient
devenir constructibles dès l’officialisation du futur Plan local d’urbanisme (PLU) ;
• enfin notre site, toujours grâce au
futur PLU, devrait obtenir la capacité
de doubler les surfaces constructibles.
68
AVRIL 2005 – LA JAUNE ET LA ROUGE
Ces changements vont aussi conduire
à une évolution des mentalités :
• celle de nos élèves polytechniciens
qui seront mis au contact direct
d’étudiants de statuts différents, français ou étrangers : dans les masters, à
SUP OPTIQUE, ou à l’ENSTA ;
• celle des chercheurs mis au contact
quotidien de chercheurs d’autres
laboratoires implantés sur le site
(IOTA, ONERA, DIGITEO, ENSTA)
et du secteur privé, en particulier de
THALES ;
• celle des enseignants mis au contact
régulier d’enseignants d’autres écoles
du site, certains travaillant en parallèle dans une entreprise comme le
font de nombreux vacataires de
l’ENSTA et de SUP OPTIQUE.
Enfin, l’École va s’impliquer dans
un partenariat renforcé au sein de
PARISTECH, ce qui aura pour conséquence :
• de créer des liens forts et de nombreuses interactions entre les onze
écoles de PARISTECH,
• de promouvoir des regroupements
géographiques, en particulier sur
notre site.
Ces réformes et ces projets sont
tous en pleine concordance avec notre
stratégie qui peut être ainsi synthétisée, conformément à notre contrat
pluriannuel : tout en conservant les
valeurs fondamentales de notre École
et en les renforçant, notre stratégie
consiste à faire de notre campus le
noyau dur d’un centre mondial d’excellence, consolidé par des alliances
fortes avec les grandes écoles de
PARISTECH, et par la constitution
d’un grand pôle de compétitivité rassemblant les industriels, les centres
de recherche et les établissements
d’enseignements supérieurs du plateau de Saclay et de ses environs.
Voilà notre objectif, il est ambitieux, mais il est à notre portée, en
particulier grâce à l’extraordinaire
potentiel intellectuel et humain qui
existe au sein de notre École.
Yannick d’ESCATHA (66),
président du Conseil
d’administration
de l’École polytechnique ;
général Gabriel de NOMAZY,
directeur général
de l’École polytechnique
Téléchargement