LA JAUNE ET LA ROUGE REVUE MENSUELLE DE LA SOCIÉTÉ AMICALE DES ANCIENS ÉLÈVES DE L’ÉCOLE POLYTECHNIQUE L A P H Y S I Q U E AU X X I E S I È C L E EUTELSAT WA. © FRANCE TÉLÉCOM La Jaune et la Rouge, revue mensuelle de la Société amicale des anciens élèves de l’École polytechnique Directeur de la publication : Pierre-Henri GOURGEON (65) Rédacteur en chef : Jean DUQUESNE (52) Rédacteur conseil : Alain THOMAZEAU (56) Secrétaire de rédaction : Michèle LACROIX Éditeur : SOCIÉTÉ AMICALE DES ANCIENS ÉLÈVES DE L’ÉCOLE POLYTECHNIQUE 5, rue Descartes, 75005 Paris Tél. : 01.56.81.11.00 Mél : [email protected] Fax : 01.56.81.11.01 Abonnements, Annuaire, Cotisations : 01.56.81.11.15 Annonces immobilières : 01.56.81.11.11 Fax : 01.56.81.11.01 Bureau des Carrières : 01.56.81.11.14 Fax : 01.56.81.11.03 Rédaction : 5, rue Descartes, 75005 Paris Tél. : 01.56.81.11.13 Mél : [email protected] Fax : 01.56.81.11.02 Tarif 2005 Prix du numéro : 8 euros Abonnements : 10 numéros par an : 33 euros Promos 1995 à 1998 : 25 euros Promos 1999 à 2001 : 17 euros Publicité : FFE, 18, AVENUE PARMENTIER BP 169, 75523 PARIS CEDEX 11 TÉLÉPHONE : 01.53.36.20.40 Impression : EURO CONSEIL ÉDITION LOIRE OFFSET PLUS Commission paritaire n° 0109 G 84221 ISSN n° 0021-5554 Tirage : 12 500 exemplaires N° 604 – AVRIL 2005 5 5 Éditorial de Maurice BERNARD (48), ancien professeur de physique à l’École polytechnique 7 Avant-propos, 2005, année mondiale de la physique par Gabriel CHARDIN, DAPNIA, CEA Saclay 8 L’étrangeté du monde quantique par Roger BALIAN (52), membre de l’Académie des sciences 14 Nanosciences et nanotechnologies par Jean-Yves MARZIN (75), directeur du Laboratoire de photonique et de nanostructures (LPN), Marcoussis 19 Recherches et enjeux en physique des plasmas par Jean-Marcel RAX, professeur à l’Université Paris XI, directeur du Laboratoire de physique et technologie des plasmas (LPTP), École polytechnique 24 La physique des particules par Bruno MANSOULIÉ (75), Commissariat à l’Énergie atomique, Saclay 29 Évolution du climat : le témoignage des glaces polaires par Jean JOUZEL, directeur du Laboratoire des sciences du climat et de l’environnement (LSCE) 34 Les tours de passe-passe des topoisomérases par Gilles CHARVIN, Kerr NEUMAN, David BENSIMON et Vincent CROQUETTE, Laboratoire de physique statistique, École normale supérieure, et Terence STRICK, Institut Jacques Monod, Université Paris VII LIBRES PROPOS 39 39 Les polytechniciens et le développement de la physique par Jean-Claude TOLEDANO (60), président du Département de physique de l’X 41 Courrier des lecteurs T É L É C O M M U N I C AT I O N S 43 43 Les télécommunications et le XXIe siècle : une révolution en marche par Didier LOMBARD (62), président-directeur général de France Télécom 48 La mutation des réseaux par Jean-Philippe VANOT (72), directeur exécutif Réseaux, Opérateurs et Système d’information, France Télécom 53 Les réseaux multiservices par Patrice COLLET (65), directeur Architectures et planification, France Télécom, et Jean CRAVEUR, Direction Architectures et planification, France Télécom 57 Réseaux de télécommunications et services de contenus : l’addition de forces complémentaires aux services des clients par Patricia LANGRAND (83), directeur exécutif, agrégation des contenus, France Télécom C O L L È G E D E L’X 63 63 Prochains séminaires V I E D E L’ É C O L E 68 68 Polytechnique : un campus en pleine évolution par Yannick d’ESCATHA (66), président du Conseil d’administration de l’École polytechnique et le général Gabriel de NOMAZY, directeur général de l’École polytechnique V I E D E L’ASSOCIATION 69 69 Procès-verbal de la réunion du Conseil d’administration de l’AX du 16 décembre 2004 70 Cotisation 2005 72 Le Grand Prix de l’Innovation Chéreau-Lavet, prix de l’Académie des technologies, Prix Pierre Faurre 2005, Rectificatif, Réunion scientifique dans le cadre de l’année de la physique 73 Vie des promotions Groupes X, Carnet professionnel, Géostratégies 2000 74 GPX 75 Carnet polytechnicien ANNONCES 77 Bureau des carrières 79 XMP-Entrepreneur 80 Autres annonces Comité éditorial de La Jaune et la Rouge : Pierre LASZLO, Gérard PILÉ (41), Maurice BERNARD (48), Michel HENRY (53), Michel GÉRARD (55), Nicolas CURIEN (70), Bruno BENSASSON (92). 77 ÉDITORIAL de Maurice Bernard (48), ancien professeur de physique à l’École polytechnique BEAUTÉ DE LA PHYSIQUE Dans l’histoire de la pensée scientifique, 1905 est une date mythique. En proclamant que 2005 serait l’année mondiale de la physique, l’Unesco a souligné le caractère exceptionnel de ce millésime, tout en attirant l’attention universelle sur un siècle de progrès. La Jaune et la Rouge a, naturellement, souhaité se faire l’écho de cette célébration. Qu’est-ce que la physique aujourd’hui pour un polytechnicien ? Le souvenir d’une des épreuves du concours d’entrée ? La réminiscence de feuilles de cours avalées avec plus ou moins d‘appétit, rue Descartes ou sur le Plateau ? Ou encore, pour certains d’entre nous, une discipline scientifique devenue métier, passion même, tant sa beauté saute aux yeux ? Cet intérêt éminemment divers que les lecteurs de La Jaune et la Rouge portent à la physique constitue un défi qu’il convenait de relever, d’autant plus que l’engouement des jeunes pour les sciences décline, en France, comme d’ailleurs dans les autres pays développés. Notre ami Gabriel Chardin, encouragé par Roger Balian et Édouard Brézin, a droit à nos remerciements et à nos félicitations pour avoir su réunir et coordonner les remarquables contributions à ce numéro, toutes dues à des scientifiques français de grand talent. Au moment où le XIXe siècle, celui de l’industrialisation rapide de l’Europe, cède la place au XXe, le siècle des barbaries modernes, plusieurs énigmes redoutables se posent aux physiciens. La lumière, désormais bien apprivoisée, avait déployé sa nature ondulatoire tandis que le champ électromagnétique qui en était la substance même obéissait à des équations aux dérivées partielles linéaires aux solutions connues. Soudain, l’aspect corpusculaire de la lumière, abandonné depuis longtemps et apparemment contradictoire avec son évidente nature ondulatoire, resurgit. En même temps, et pour d’autres raisons, le support des ondes électromagnétiques, l’éther, devient un concept mystérieux qui contredit la conception que, depuis bien longtemps, l’homme se fait de l’espace et du temps. À la même époque, atome, molécule, électron sont des hypothèses commodes, vraisemblables, mais personne ne sait bien quelle réalité se cache derrière les idées. En 1905, un jeune inconnu, Albert Einstein, frappe trois coups éclatants dont l’écho retentit encore un siècle plus tard : • pour comprendre l’effet photoélectrique il faut admettre que la lumière est absorbée par quantas, ces grains de lumière dont, à son corps défendant, quelques années plus tôt, Max Planck avait dû, pour expliquer le rayonnement du corps noir, admettre l’existence, • l’espace et le temps, pour deux observateurs en mouvement rectiligne uniforme l’un par rapport à l’autre, sont relatifs puisqu’ils se transforment l’un en l’autre de manière différente, • l’explication du mouvement brownien donne à l’existence des molécules l’évidence d’une observation au microscope. LA JAUNE ET LA ROUGE – AVRIL 2005 5 Ces avancées, et quelques autres, ouvrent la voie à un siècle de développement prodigieux de la physique sous tous ses aspects : • les théoriciens, plus proches que jamais des mathématiciens, imaginent des concepts nouveaux pendant que les expérimentateurs, auxquels la technique apporte des moyens d’une puissance inouïe, s’efforcent peu à peu de les valider ou de les réfuter, • les diverses branches de la physique contribuent au développement et parfois au bouleversement de toutes les sciences de la nature : mécanique, chimie, biologie, astrophysique, géologie, etc., • de ces progrès résultent des applications pratiques, stupéfiantes et inquiétantes à la fois. Santé, longévité, biens matériels, civilisation de la connaissance changent la société, mais les menaces nucléaires, terroristes, écologiques mettent en question l’avenir même de l’espèce. Le XIXe siècle avait vu grandir, héritée des Lumières, une foi en la Science que confortent les premiers pas de la physique. Pourtant, lorsque Jules Verne meurt, justement en 1905, le rêve de progrès qu’il incarne ne va pas tarder à se dissiper. Le XXe siècle n’est pas, pour la Science, le siècle d’or qu’il aurait pu être. Les succès mêmes de cette dernière ont mis en évidence les formidables dangers que l’action technique de l’homme fait désormais peser sur son propre avenir, avec pour conséquences les peurs, la superstition, l’astrologie, l’occultisme, etc. La Science, largement redevable à la physique de ses progrès incessants n’est, aujourd’hui, ni suffisamment comprise par la société, ni réellement reconnue par l’opinion. Jamais notre société n’a autant reposé sur la “ Techné ”, au sens que les Grecs donnaient à ce mot, alors que recule, chez les jeunes, la curiosité pour la science et la technique. Or qui peut douter que les progrès de l’humanité viennent de la connaissance au sens large, que le développement durable s’appuie sur le progrès technique et que l’écologie ne peut se construire contre la science ? L’Homme aurait-il une chance de sauver sa planète sans la connaissance ? Le paradoxe est que, dans une fraction significative de l’opinion publique de la plupart des pays développés, progressent des croyances rétrogrades, des comportements irrationnels, que diminuent la curiosité technique et l’attrait des jeunes pour les carrières scientifiques, bref que la confiance en la physique s’effrite. La beauté de la physique serait-elle la beauté du diable ? Ou plutôt la beauté de l’inconnaissable ? Ceux qui comme moi, dans les années 1950, ont appris la Mécanique quantique dans l’inoubliable ouvrage d’Albert Messiah se souviennent des épigraphes qui en ornaient les différents chapitres et peut-être, notamment, de celle qui annonçait les éléments de mécanique quantique relativiste : “ Je suis noire et pourtant je suis belle… ” (Cantique des cantiques). Je suis sûr que de nombreux lecteurs seront sensibles à la beauté de la physique d’aujourd’hui, beauté que les textes qui suivent auront contribué, je l’espère, à rendre moins secrète et plus accessible. Un souhait pour conclure : passé l’année de la physique, La Jaune et la Rouge ne pourrait-elle aborder le thème du regard que portent la société et notamment les jeunes sur la science et la technique ? ■ 6 AVRIL 2005 – LA JAUNE ET LA ROUGE LA PHYSIQUE AU XXIE SIÈCLE Avant-propos 2005, année mondiale de la physique Gabriel Chardin, DAPNIA, CEA Saclay I NUTILE ET DÉPENSIÈRE ! C’est ainsi que l’homme de la rue pourrait être tenté, comme tel ministre du général de Gaulle, de qualifier la recherche, comparée aux danseuses et aux courses de chevaux pour leur efficacité dépensière. En dépit de ce jugement abrupt et provocateur, les gouvernements successifs de l’aprèsguerre ont fait de la recherche une priorité et lui ont attribué jusqu’à 2.5 % du PIB national au début des années quatre-vingt-dix. Depuis cette époque, le financement de la recherche a malheureusement connu dans notre pays une décrue lente et régulière, même si la France a su bâtir grâce à cette période relativement faste un système de recherche d’une excellence reconnue, au moins dans les domaines de la physique ou des mathématiques. En fait, la recherche apparaît comme l’un des meilleurs investissements à long terme, si l’on en juge par le fait que les pays les plus avancés comme le Japon, les États-Unis ou la Suède consacrent environ 3% de leur richesse nationale à leurs activités de recherche, loin devant la France. Mais une vision politique à trop court terme a conduit chez nous au malaise actuel, à la révolte des chercheurs de l’année 2004 et à la réflexion actuelle sur le rôle et l’importance de la recherche en Europe. Cette dernière n’affiche-t-elle pas, sans d’ailleurs véritablement prendre les moyens de l’atteindre, l’objectif de consacrer 3% de son PIB à la recherche en 2010 ? Les défis qui nous attendent sont pourtant gigantesques, face à un épuisement accéléré des ressources et un nombre d’habitants qui pourrait bientôt atteindre, voire dépasser, 9 milliards. Des réajustements d’une très grande brutalité sont à craindre, lorsque se présentera bientôt l’épuisement de ressources aussi précieuses que les hydrocarbures, le gaz, les métaux précieux ou même nos sols cultivables, toutes ressources que nous dilapidons à un taux très supérieur à leur capacité de renouvellement. L’accroissement de l’effort de recherche, qui seul pourra nous donner les outils permettant d’optimiser les ressources et de composer avec la Nature quand elle nous rappellera ses lois, apparaît donc aujourd’hui plus essentiel que jamais. Ce numéro spécial de La Jaune et la Rouge est consacré à des travaux d’excellence qui ressortent principalement de la recherche fondamentale. Même si la recherche finalisée, à laquelle un deuxième numéro spécial de La Jaune et la Rouge sera consacré, est à l’évidence également essentielle, c’est en effet principalement la recherche fondamentale qui est à l’origine des applications majeures des décennies futures. L’accroissement fantastique des capacités de calcul et de stockage, la toile de l’Internet, la production d’électricité par l’énergie nucléaire sont des applications fondamentales et pratiquement imprévisibles de développements initialement ésotériques. Les auteurs de ce numéro spécial décrivent donc autant des domaines dont on saisit dès aujourd’hui l’importance pour notre vie de demain, comme la fusion contrôlée, la compréhension du climat ou les nanotechnologies, que d’autres, comme la gravité répulsive ou les bizarreries de la mécanique quantique, où cette vision nous échappe encore. Mais pourrait-on envisager de construire un ordinateur quantique, rêve actuel des grands laboratoires de recherche, sans comprendre la notion d’intrication des états quantiques ? Ce numéro spécial nous fournit également l’occasion de regretter qu’au fil des années les élèves de l’X aient délaissé de façon inquiétante les carrières de la recherche. Pourtant, une large part des richesses actuelles de la France est due à des programmes menés avec intelligence et continuité par les serviteurs de la nation que sont – mais se considèrent-ils encore ainsi? – les élèves des grandes écoles. Souhaitons que les jeunes polytechniciens retrouvent le chemin de nos laboratoires, et que la nation leur offre la reconnaissance de la “ chose publique ” qu’ils défendront ainsi. n LA JAUNE ET LA ROUGE – AVRIL 20057 LA PHYSIQUE AU XXIE SIÈCLE L’étrangeté du monde quantique Roger Balian (52), membre de l’Académie des sciences Les progrès de la science sont souvent source d’émerveillement. Le chercheur, tout en visant à rationaliser le monde qui l’entoure, n’est jamais aussi heureux que devant des défis qui le surprennent et le stimulent. La découverte va de pair avec la curiosité et l’étonnement, depuis l’eurêka d’Archimède jusqu’au récit de Marie Curie : “ Nos précieux produits étaient disposés sur les tables et sur les planches ; de tous côtés, on apercevait leurs silhouettes faiblement lumineuses, et ces lueurs qui semblaient suspendues dans l’obscurité nous étaient une cause toujours nouvelle d’émotion et de ravissement. ” L ES EXEMPLES ne manquent pas de nouveaux phénomènes allant à l’encontre d’évidences apparentes ou d’idées reçues. N’a-t-il pas été surprenant de découvrir que la lumière blanche, qui semble si pure, est en réalité un mélange de lumières colorées ? Ou encore que l’interférence de deux faisceaux lumineux peut donner naissance à des zones obscures ? N’est-il pas curieux que l’eau soit le produit de la réaction de deux gaz, l’hydrogène et l’oxygène ? N’est-il pas fascinant de constater qu’un gyroscope bascule perpendiculairement à la direction vers laquelle on le sollicite ? D’apprendre que la perfection des formes d’un cristal de quartz reflète l’arrangement de ses atomes à une échelle 100 millions de fois plus petite? Et y a-t-il rien de plus saugrenu que les divers processus de reproduction des êtres vivants, par 8 AVRIL 2005 – LA JAUNE ET LA ROUGE exemple la double fécondation des plantes à fleurs, où un mécanisme de régulation complexe récemment élucidé permet d’engendrer avec une parfaite simultanéité un germe et son annexe nourricière ? L’observation de telles merveilles alimentait les cabinets de curiosités et les leçons publiques à l’époque, hélas révolue, où l’on considérait la science comme une part intégrante de la culture chez l’honnête homme. Surprise puis accoutumance, un perpétuel recommencement Si au moment de leur découverte les phénomènes naturels apparaissent comme remarquables, l’habitude ou l’inclusion dans l’enseignement contribuent à les démystifier. Le magnétisme n’a pour nous rien de mystérieux, mais au XVIIIe siècle il semblait si étrange qu’il confinait à l’ésotérisme. La structure atomique de la matière apparaît aux lycéens d’aujourd’hui comme une banalité ; pourtant il y a cent cinquante ans, l’atomisme était vu comme une élucubration désuète : les succès de la thermodynamique et de l’électromagnétisme avaient convaincu savants et philosophes de la continuité de la matière. Dans le dernier quart du XIXe siècle, Boltzmann dut lutter à contre-courant pour défendre son interprétation du concept d’entropie en termes d’encore hypothétiques molécules. À la même époque, Marcelin Berthelot interdisait à ses disciples de représenter les molécules organiques par des formules développées, car celles-ci suggéraient l’existence d’atomes s’assemblant en molécules. (C’est sous son influence durable que les manuels de chimie des classes préparatoires parlaient encore en 1950 “d’hypothèse” atomique!) Le courant de pensée dominant a basculé il y a une centaine d’années lorsque des expériences ont mis en évidence les constituants de la matière, électrons, atomes, noyaux, tout en montrant qu’il n’était pas question de retourner à l’atomisme naïf d’autrefois. Quelques décennies ont suffi pour populariser la nouvelle vision des choses et faire oublier ce qu’elle avait d’étonnant. Toutes les fois que les idées se stabilisent de la sorte, un préjugé récurrent, celui de l’achèvement de la physique, est mis en avant ; mais il est régulièrement battu en brèche par des découvertes surprenantes. Ainsi J.-B. Biot constate-t-il avec satisfaction en 1823, dans la préface de la troisième édition de son renommé Précis élémentaire de physique, que rien d’inattendu n’a été trouvé depuis la première édition de 1817 ; il en conclut que “ la progression rapide avec laquelle la physique se complète tous les jours peut faire regarder l’époque de sa stabilité entière comme peu éloignée. ” Cependant, paraissent en 1824 les Réflexions sur la puissance motrice du feu, où Carnot crée la thermodynamique en énonçant le “deuxième” principe (il fallut attendre la décennie 1840-1850 pour que soit reconnu le “ premier ” principe, la conservation de l’énergie); et en 1827, Ampère publie son Mémoire sur la théorie des phénomènes électrodynamiques ! De même, au début du XXe siècle, Poincaré estimait l’édifice de la physique achevé, à l’exception d’une question, le rayonnement du corps noir. Or, l’an 1905, dont nous célébrons mondialement cette année le centenaire, fut marqué non seulement par la résolution de ce problème, mais par la naissance de toute une nouvelle physique. Aujourd’hui encore, certains clament qu’il n’y a plus rien de vraiment nouveau à découvrir en physique. Et pourtant, comme le met en évidence l’ouvrage collectif Demain, la physique, élaboré sous l’égide de l’Académie des sciences (Odile Jacob, 2004), de nombreux problèmes majeurs se posent, qui nous réservent bien des surprises. La physique du XXe siècle : ses objets d’étude Ce qu’il y a de plus spectaculaire dans la physique du XXe siècle c’est sans doute l’immense extension de ses sujets d’étude. Même si des progrès considérables ont continué à être accomplis sur des objets à notre échelle, les avancées de l’expérimentation nous ont permis de sonder le monde microscopique, à l’échelle atomique d’abord, puis, avec le développement des grands accélérateurs, à l’échelle nucléaire et subnucléaire. Petite remarque : parmi les particules nouvelles ainsi découvertes, certaines ont été baptisées “ étranges ”. Mais comme d’habitude ce caractère s’est estompé au bout de quelques années; “l’étrangeté”, nombre qui caractérise ces particules, a rompu avec son étymologie pour acquérir la même banalité que la charge. aberrantes encore mal expliquées. La microélectronique, qui elle aussi fait partie de notre quotidien, devrait nous fasciner par les progrès scientifiques qui, pour une taille donnée, ont permis d’améliorer les performances d’un facteur 2 tous les dix-huit mois depuis près de quarante ans ! La physique s’est également étendue vers d’autres disciplines consacrées à des objets complexes : physicochimie, géophysique, biophysique. Physique et mathématiques À l’autre extrémité de l’échelle des longueurs, l’astrophysique nous donne accès aux galaxies lointaines, et, compte tenu du temps que leur lumière a mis à nous parvenir, nous permet d’étudier les origines de l’Univers. Là encore, comme dans l’exploration du système solaire, que de phénomènes exotiques! Depuis des siècles, on a constaté que la physique avait besoin de mathématiques, non seulement pour faire des prévisions quantitatives mais aussi pour rendre clairs et précis ses énoncés. Déjà au milieu du XVIIIe siècle l’abbé Nollet, “ maître de physique et d’histoire naturelle des enfants de France et professeur royal de physique expérimentale au collège de Navarre”, donnait aux nombreux lecteurs de ses Leçons de physique expérimentale le conseil raisonné suivant, après avoir préconisé la lecture d’ouvrages de physique dans leur langue originale : “Mais une langue qu’il est indispensable d’apprendre, c’est celle de l’algèbre et de la géométrie; ces deux sciences se sont heureusement introduites dans la physique ; partout où elles peuvent s’appliquer, elles y portent l’exactitude et la précision qui leur sont propres, elles répandent la lumière dans l’esprit, elles le font raisonner juste ; avec leur secours il chemine plus vite, plus sûrement, et peut aller plus loin ; il faut de nécessité se mettre en état de suivre les auteurs qui marchent à la lueur de ces flambeaux. ” Une autre caractéristique de la physique du XX e siècle est sa progression dans l’étude d’objets complexes. Une nouvelle discipline, la physique statistique, nous permet désormais d’étudier à partir de leur structure microscopique toutes sortes de matériaux, de plus en plus complexes, gaz, solides cristallins, et plus récemment verres, amorphes, poudres, polymères, colloïdes, etc., ou même l’eau qui malgré son apparente banalité présente des propriétés tout à fait Depuis, la physique n’a cessé de s’imprégner de mathématiques de toutes sortes. Bon nombre de ses énoncés ne peuvent plus s’exprimer en mots mais nécessitent un langage mathématique souvent fort élaboré. Les discussions passionnées entre chercheurs laissent perplexe le témoin qui n’est pas spécialiste, et il est malheureusement devenu difficile au physicien de communiquer au grand public ses émerveillements devant ce qu’il découvre du monde. LA JAUNE ET LA ROUGE – AVRIL 2005 9 Parmi les énigmes de la science, cette “ déraisonnable efficacité des mathématiques en physique ” (selon l’expression de Wigner) suscite des controverses philosophiques. Les mathématiques sont-elles le ressort caché de la nature ? Ou bien s’agit-il d’une création de notre cerveau dans un effort de refléter le monde extérieur ? L’apparence de parfaite adéquation des mathématiques à la physique résulterait-elle d’une évolution en parallèle de type darwinien, alliant dépérissement des branches inutilisées et symbiose fécondatrice entre branches actives, les progrès de chacune des disciplines stimulant la connaissance de telle ou telle branche de l’autre ? Ne peut-on s’émerveiller d’ailleurs de la “ déraisonnable efficacité de la physique à susciter de nouvelles mathématiques ” ? Un nouveau venu, l’observateur Ce débat philosophique rejoint celui qui porte sur les rôles relatifs, dans la science, des objets et de l’homme qui les étudie. Jusqu’à la fin du XIXe siècle, on avait tendance à considérer que la nature possède ses propres lois, en dehors de nous, et que la science consiste à les dénicher. Nos conceptions ont changé depuis. Les assertions scientifiques sont vues non plus comme des propriétés intrinsèques des objets mais comme des images de ces objets dans notre esprit, plus ou moins floues et infidèles. La science progresse grâce à l’affinement de ces images qui accroît nos capacités de prévision et d’action. Une telle irruption de l’observateur au cœur même des théories physiques a commencé avec le développement de la mécanique statistique, qui vise à expliquer les propriétés macroscopiques des matériaux à partir du comportement, plus simple, de leurs constituants élémentaires. Mais ceux-ci sont si nombreux qu’il est impensable de les caractériser en détail. La description microscopique suppose donc l’emploi de probabilités, qui nous aident à faire des prévisions en dépit de cette incertitude. Une 10 AVRIL 2005 – LA JAUNE ET LA ROUGE grandeur physique A n’est plus considérée comme prenant une valeur a bien définie mais comme une variable aléatoire pouvant prendre toute une série de valeurs a, chacune avec une certaine probabilité. L’espérance 〈A〉 de A est la moyenne de ces valeurs et sa variance ∆A2 = 〈A〉2 - 〈A〉2 caractérise notre incertitude sur A. Dans cette perspective, les probabilités sont un outil mathématique qui permet d’élaborer des prévisions raisonnables et de rendre quantitatif notre degré de connaissance. L’observateur intervient aussi dans les deux grandes théories nées il y a un siècle, la relativité et la physique quantique. La relativité restreinte repose sur l’idée que deux observateurs en translation uniforme l’un par rapport à l’autre doivent décrire les phénomènes physiques, qu’ils soient électromagnétiques, mécaniques ou autres, à l’aide des mêmes lois. En relativité générale, cette équivalence s’étend à des observateurs utilisant des repères d’espace-temps quelconques, qui peuvent faire intervenir des courbures ou des accélérations; cela a permis d’interpréter la gravitation en tant que propriété géométrique de l’espace-temps. Quant à la mécanique quantique, qui sur le plan des principes sinon de la pratique permet d’unifier tout notre champ de connaissances, elle présente une caractéristique troublante. Non seulement elle fait intervenir des probabilités, mais celles-ci sont conceptuellement inévitables, comme on le verra plus loin. Du fait que la notion même de probabilités se réfère aux observateurs qui les utilisent pour représenter le mieux possible les objets, expliquer leurs propriétés et prévoir leurs comportements, la physique quantique doit être considérée comme une description non pas des objets en soi, mais des objets tels que nous les percevons. Paradoxalement, malgré cet aspect partiellement subjectif, et malgré les incertitudes liées à l’emploi de probabilités, la théorie quantique est remarquablement puissante et unificatrice. Dès lors que nos moyens de calcul le permettent, elle fournit sur les systèmes les plus divers des résultats dont l’accord avec l’expérience peut atteindre une précision considérable. Quelques bizarreries quantiques La mécanique quantique englobe toutes les propriétés dont la physique classique rendait compte auparavant, mais elle couvre de plus une énorme variété de phénomènes nouveaux, comme les recherches l’ont montré tout au long du siècle dernier. Sans elle, on ne comprendrait pas l’existence des atomes, des molécules, de l’état solide, du magnétisme, des réactions chimiques ou nucléaires ; on n’aurait pu développer l’électronique, les lasers ou l’imagerie par résonance magnétique. Le phénomène qui a le plus frappé au départ, et qui est à l’origine de l’adjectif “ quantique ”, c’est l’apparition inattendue du discret, alors que l’intuition laissait prévoir du continu. D’ailleurs, la révolution quantique est née de l’idée que les valeurs prises par l’énergie lumineuse étaient pour une fréquence donnée des multiples entiers d’un “ quantum ”, pouvant s’interpréter comme un grain de lumière. Le spectre d’énergie des atomes, molécules ou noyaux est lui aussi discret ; leur moment angulaire ne peut prendre que des valeurs discrètes. De plus, des propriétés arithmétiques se manifestent souvent dans les spectres ; elles sont expliquées par la théorie quantique. C’est le caractère discret des objets microscopiques, atomes, noyaux ou particules, qui permet d’en établir la classification. Le fait que la mécanique quantique soit aussi désignée sous le nom de mécanique “ ondulatoire ” fait allusion à une propriété étrange des objets microscopiques, leur double nature : ils se manifestent en effet à la fois comme particules et comme ondes. Cela a été reconnu depuis longtemps pour la lumière et pour les électrons. Mais on aurait considéré il y a quelques décennies comme chimérique l’idée de faire interférer, autrement que sur le papier, un neutron, un atome ou même une assez grosse molécule qui suivrait simultanément deux chemins. C’est pourtant désormais chose faite ! Un atome excité, un noyau radioactif ou une particule instable se transforment au bout d’un temps aléatoire en d’autres objets. Le processus est caractérisé par un temps de vie moyen, bien défini dans le repère où la particule est au repos. Mais si elle se déplace par rapport à nous à une vitesse approchant celle de la lumière, nous pouvons grâce à un effet de relativité restreinte l’observer sur une durée considérablement plus longue. L’effet tunnel permet à une particule quantique de traverser une barrière de potentiel. À l’intérieur de cette barrière, son énergie cinétique serait négative, mais cela n’empêche pas la particule d’y pénétrer et de passer d’un côté à l’autre avec une certaine probabilité. Ce phénomène surprenant est utilisé en microélectronique. Les phénomènes spécifiquement quantiques ne se manifestent pas seulement pour des objets microscopiques mais aussi à notre échelle. Un exemple est celui de la supraconductivité. À suffisamment basse température, certains métaux ou composés perdent toute résistance électrique de sorte qu’un courant peut circuler quasi indéfiniment dans une boucle. On construit aussi à leur aide des circuits où une tension continue engendre un courant alternatif. La supraconductivité est un phénomène si exotique qu’il a fallu attendre une cinquantaine d’années avant de l’expliquer. Grandeurs compatibles et incompatibles Malgré leur variété, tous ces phénomènes insolites ont une origine commune, qui n’est pas la part la moins troublante de la mécanique quantique puisqu’elle bouleverse la notion même de grandeur physique. L’objet mathématique A qui représente une grandeur physique, comme la position ou l’énergie d’une particule, et que l’on désigne sous le nom d’observable, présente d’abord un caractère aléatoire. Comme en mécanique statistique, notre connaissance à un instant donné de l’observable A est caractérisée par la donnée de son espérance 〈A〉, de sa variance ∆A2 et des moments d’ordre supérieur 〈An〉. En raison de cette nature probabiliste, la mécanique quantique n’est pas une théorie d’objets en eux-mêmes mais un moyen de faire des prévisions sur un système – ou plutôt sur un ensemble statistique de systèmes tous préparés dans les mêmes conditions. Tout ceci n’est pas nouveau. Mais lorsqu’il s’agit de considérer le produit de deux grandeurs physiques, nous devons radicalement changer de cadre de pensée. En mécanique classique, on forme par exemple le produit d’une force par une vitesse pour évaluer une puissance; ces deux grandeurs sont simplement représentées par des nombres et la puissance s’obtient par une multiplication ordinaire. En mécanique quantique, les observables ne se comportent pas comme de simples nombres et leur produit est une opération plus subtile. En effet, on a été amené à postuler qu’en mécanique quantique le produit de deux observables A et B est non-commutatif, c’est-à-dire que les produits AB et BA peuvent différer. Une analogie peut aider à appréhender cette structure mathématique noncommutative des observables. Considérons trois objets et désignons par A la permutation qui échange les deux premiers, par B celle qui échange les deux derniers. Effectuer successivement l’une ou l’autre de ces opérations définit leur produit, qui est une nouvelle permutation des trois objets. Le produit AB diffère de BA, car il ne revient pas au même d’échanger les deux premiers objets après les deux derniers ou avant. Les observables quantiques se comportent comme de telles opérations et leur multiplication obéit à des règles où l’ordre des facteurs est essentiel. Toutes les particularités de la mécanique quantique tiennent au fait que les grandeurs physiques y sont représentées par des observables qui peu- vent ne pas commuter entre elles. L’exemple le plus simple est celui d’une particule susceptible de se déplacer sur un axe. Si A = X désigne sa position et B = P sa quantité de mouvement, on a XP - PX = ih/2πI, où h/2π = 10-34 J; h est la constante de Planck, imperceptible à notre échelle; la cohérence de la théorie exige l’emploi de nombres complexes comme le montre la présence du coefficient i (i2 = - 1), même si tout résultat physique est réel, et I désigne l’observable unité (telle que AI = IA = A pour tout A). Une telle non-commutation existe entre les trois composantes du moment angulaire d’une particule. Le champ électromagnétique et le nombre de photons sont également représentés par des observables qui ne commutent pas ; il en est de même pour le champ électrique et le champ magnétique au même point. Pour une seule observable A, la situation est la même qu’en mécanique statistique ou en théorie ordinaire des probabilités. Comme nous l’avons indiqué plus haut, dans un état donné du système, l’observable A est connue à travers ses moments 〈A〉n (n = 1, 2, …), en particulier son espérance 〈A〉 et sa variance ∆A2 = 〈A2〉 〈A〉2. De manière équivalente, si l’on mesure dans cet état la grandeur A, on peut obtenir diverses valeurs a, chacune avec une certaine probabilité, et ces probabilités sont les pondérations associées aux moyennes 〈An〉 (n = 1, 2, …). Rien n’empêche la probabilité d’être concentrée sur une seule valeur a, auquel cas la prévision sur A se fait avec certitude. Si l’on s’intéresse à une paire d’observables A et B qui commutent, cette description probabiliste de type classique existe encore. Les observables A et B peuvent prendre un ensemble de valeurs a et b, avec une probabilité pour chaque configuration. Ces observables sont compatibles : on peut les mesurer simultanément, et obtenir ainsi un résultat a pour A et b pour B. L’étrangeté survient lorsque A et B ne commutent pas, comme va le montrer un petit calcul. Posons AB - LA JAUNE ET LA ROUGE – AVRIL 2005 11 BA = 2iC, et définissons A’ ≡ A - 〈A〉 et B’ ≡ B - 〈B〉 où 〈A〉 et 〈B〉 sont les espérances de A et B dans l’état considéré du système. Les variances ∆A2 et ∆B2 sont données respectivement par 〈A’2〉 et 〈B’2〉. Quel que soit λ, la quantité 〈(λA’+ iB’) (λA’ - iB’)〉 est non négative, ce qui s’écrit λ2∆A2 + 2λ〈C〉 + ∆B2 ≥ 0. On a donc, dans n’importe quel état, ∆A2 ∆B2 ≥ 〈C〉2. Cette inégalité se réduit pour une particule sur un axe au “ principe d’incertitude ” de Heisenberg ∆X ∆P ≥ h/4π. Par suite, si dans une certaine circonstance la position X prend une valeur bien définie x, la particule se comporte comme un point matériel ; alors la quantité de mouvement P est totalement indéterminée. Inversement, si celle-ci prend la valeur p, la particule se comporte comme une onde plane de longueur d’onde h/p ; alors sa position X est totalement indéterminée. Les deux grandeurs physiques X et P sont incompatibles. Dans les cas intermédiaires, les deux aspects, particulaire et ondulatoire, peuvent coexister, mais au prix d’un certain flou caractérisé par l’inégalité de Heisenberg. Plus généralement, toutes les fois que deux observables A et B ne commutent pas, elles représentent des grandeurs physiques incompatibles. Il est interdit d’envisager que ces grandeurs puissent prendre toutes deux une valeur bien définie (sauf dans des cas exceptionnels où 〈C〉 = 0). Une description des phénomènes en termes des deux variables à la fois est impossible. Ainsi, un faisceau lumineux ne peut s’interpréter à la fois comme onde et comme ensemble de photons que si l’amplitude de l’onde aussi bien que le nombre de photons sont définis seulement en moyenne, avec chacun une inévitable fluctuation statistique. Il est impossible de mesurer simultanément deux grandeurs A et B incompatibles, et même d’imaginer qu’elles puissent être spécifiées ensemble. Si l’on mesure seulement A sur un ensemble statistique de systèmes et que l’on sélectionne ceux pour lesquels on a trouvé un certain résultat a, le système doit en règle générale être fortement perturbé ; en effet, après mesure, le nouvel état des 12 AVRIL 2005 – LA JAUNE ET LA ROUGE systèmes ainsi sélectionnés satisfait à ∆A = 0 et par suite à ∆B = ∞ ou 〈C〉 = 0, égalités qui n’avaient aucune raison d’être valables avant mesure. Un épineux paradoxe Cette incompatibilité entre observables ne commutant pas implique que la théorie quantique ne peut se réduire à une théorie standard de probabilités. Si A et B étaient régies par une loi de probabilités ordinaires, on pourrait concevoir une description sous-jacente où elles prendraient des valeurs bien définies ; c’est interdit en théorie quantique. Les propriétés les plus extravagantes de cette nouvelle physique viennent de là. Par exemple, la positivité des probabilités implique que les corrélations entre variables aléatoires classiques doivent satisfaire à certaines inégalités, mises en évidence par Bell ; or, celles-ci sont violées par la mécanique quantique, ce qui est confirmé expérimentalement. Nous allons donner un autre exemple, connu depuis une quinzaine d’années, le paradoxe GHZ (Greenberger, Horne, Zeilinger). Ce paradoxe a donné lieu à des vérifications expérimentales. Nous ne préciserons ici ni les systèmes effectivement manipulés ni les grandeurs physiques observées ; quelques indications sont fournies dans l’encadré. Nous nous contenterons d’une présentation formelle, mais il nous faut hélas pour cela un minimum de mathématiques. Le lecteur parvenu jusqu’ici est donc convié à un dernier coup de collier. Il devrait en être récompensé car le paradoxe a des prolongements conceptuels surprenants. Considérons un système auquel sont attachées plusieurs observables ayant les propriétés algébriques suivantes. Trois premières observables, A 1, A 2, A 3, commutent entre elles (A1 A2 ≡ A2 A1, etc.), et ont pour carré l’unité (A i2 ≡ I). Si on les mesure, et il est possible de le faire simultanément pour toutes les trois, on trouve donc des valeurs ai toujours égales soit à + 1, soit à - 1. Trois autres observables, B1, B2, B3, ont les mêmes propriétés, et elles satisfont de plus à l’identité B1 B2 B3 ≡ I, de sorte que B3 et B1 B2 sont deux écritures de la même grandeur physique : les valeurs b1, b2, b3 prises par B1, B2, B3 sont égales chacune à + 1 ou - 1 et satisfont à b3 = b1 b2. Les observables A1 et B1 commutent (A1 B1 ≡ B1 A1), de même que A2 et B2, de même que A3 et B3. Mais, pour i ≠ j, les grandeurs physiques représentées par les observables Ai et Bj sont incompatibles : Ai et Bj ne commutent pas ; il se trouve que, au lieu de valoir Ai Bj, le produit Bj Ai vaut Bj Ai ≡ - Ai Bj. Enfin, on introduit les trois produits Di ≡ Ai Bi. Les propriétés algébriques des Ai et des Bi impliquent que Di Dj ≡ Dj Di et que Di2 ≡ I, de sorte qu’ici encore les observables Di peuvent simultanément prendre des valeurs di égales à + 1 ou à - 1. La compatibilité des observables D1, D2, D3 permet ainsi de préparer le système dans l’état où chacune prend la valeur bien définie d1 = + 1, d2 = + 1, d3 = + 1. Il suffit pour cela, sur un ensemble de systèmes semblables, de mesurer simultanément D1, D2, D3 et de ne retenir que le sousensemble des échantillons pour lesquels on a observé que d1 = d2 = d3 = + 1. On effectue alors sur cet état la mesure simultanée de A1 et B1, mesure possible puisque A1 et B1 commutent. Étant donné que l’état a été préparé en sorte que l’observable D 1 ≡ A 1 B 1 prenne la valeur d1 = + 1, on trouvera sur certains échantillons a1 = b1 = + 1, sur d’autres a1 = b1 = - 1 ; mais la corrélation a1 = b1 est totale. De même, on peut affirmer que a2 = b2 dans l’état considéré, ainsi que a3 = b3 = b1 b2. Au vu des égalités a1 = b1, a2 = b2, a3 = b1 b2, on est tenté de croire que, dans cet état, le système est tel que les grandeurs physiques (compatibles) A1, A2, A3 prennent des valeurs a1, a2, a3 telles que a3 = + a1a2. Or, un petit calcul algébrique nous fournit l’identité entre observables D1 D2 D3 ≡ A1 B1 A2 B2 A3 B3 ≡ - A1 A2 B1 B2 A3 B3 ≡ - A1 A2 B1 B2 B3 A3 ≡ - A1 A2 A3, et par suite A1 A2 A3 ≡ - D1 D2 D3. Étant donné que l’état a été préparé en sorte que d1 = d2 = d3 = + 1, la physique quantique prédit donc que la mesure simultanée de A1, A2, A3 doit fournir des valeurs a1, a2, a3 totale- ment corrélées par a3 = - a1 a3, à l’opposé de la prévision simpliste a 3 = + a1a2 faite ci-dessus. Et l’expérience confirme ce résultat contraire à notre logique quotidienne! Qu’y a-t-il donc de faux dans le raisonnement qui conduisait à a3 = + a1 a3 ? Chacune des quatre assertions a1 = b1, a2 = b2, a3 = b1 b2, a3 = – a1 a2 découle de la propriété caractéristique d1 = d2 = d3 = + 1 de l’état considéré. Chacune est correcte et peut être vérifiée expérimentalement. Cependant, si l’on veut tester par exemple la première, il faut mesurer A1 et B1 ; si l’on veut tester la deuxième, il faut mesurer A2 et B2. Or, même s’il est certain que la première expérience fournira a1 = b1 et la deuxième a2 = b2, le fait que A1 ne commute pas avec B2 nous interdit d’imaginer que a1 et b2 prennent simultanément des valeurs bien déterminées. Pour vérifier expérimentalement les deux corrélations a1 = b1 et a2 = b2 à la fois, il faut utiliser deux appareils de mesure différents, portant sur des échantillons différents quoique préparés exactement de la même façon. Dans ces conditions, la physique quantique nous force à admettre que la paire d’assertions a1 = b1 et a2 = b2 n’a pas de sens, même si chacune des prévisions a1 = b1 et a2 = b2 est vraie pour des expériences séparées. On n’a pas le droit de tirer de l’emploi simultané des égalités séparément correctes a1 = b1, a2 = b2, a3 = b3 = b1 b2 la conclusion que a3 = + a1 a2. Ainsi, une assertion telle que a1 = b1 doit être interprétée comme une prévision exacte sur l’éventuelle mesure de A1 et B1, mais non comme une propriété intrinsèque d’un système préparé dans l’état considéré. Elle ne vaut que dans un certain contexte, celui où l’on s’interroge sur A1 et B1, mais pas sur A2 et B2. Le raisonnement logique naïf ne s’applique pas à des propriétés que la théorie prohibe de tester simultanément. En définitive, la physique quantique pose non seulement des limites à notre connaissance à travers le principe d’incertitude, mais nous interdit même de nous poser simultanément certaines questions. Les valeurs des grandeurs physiques qu’elle nous fournit se réfèrent non à l’objet étudié en soi, mais à des prévisions que l’on peut faire sur cet objet dans tel ou tel contexte. Il est évidemment choquant que la mécanique quantique, notre théorie physique la plus puissante et la plus fondamentale, ne caractérise les objets que dans le cadre de leur observation et que ses conséquences puissent défier le sens commun. L’autre théorie nouvelle du XXe siècle, la relativité, a certes révolutionné notre vision du monde en changeant nos conceptions sur l’espace et le temps, sur la masse et l’énergie, mais la mécanique quantique, beaucoup plus radicalement, nous oblige à changer nos modes de pensée. Il nous faudra peutêtre encore des décennies pour trouver naturelle la nouvelle logique quantique à laquelle nous devons nous soumettre. Mais celle-ci commence déjà à avoir des applications en cryptographie, et le concept récent d’information quantique conduit à des spéculations intéressantes sur la téleportation et sur des procédés calculatoires nouveaux. ■ Réalisation physique du paradoxe GHZ Le modèle le plus simple d’objet quantique est le système à deux niveaux + et -. Il est adapté par exemple à la description d’un atome dans des circonstances où n’interviennent que les deux niveaux d’énergie les plus bas, les niveaux supérieurs n’étant jamais excités ; l’atome est alors dans un état construit à partir des deux niveaux + et -. La même structure à deux niveaux caractérise la polarisation d’un photon, ou encore le moment angulaire intrinsèque, ou spin, de l’électron. Pour un tel système, les observables ont la même structure algébrique que les opérations linéaires portant sur une paire de nombres complexes v et w associés respectivement aux niveaux + et -. Un premier exemple est l’opération A qui change le signe du second sans modifier le premier, remplaçant (v, w) par (v, - w) ; une application répétée de A laisse (v, w) inchangé, de sorte que A2 ≡ I est l’observable unité. Un second exemple est l’opération C qui permute v et w, remplaçant (v, w) par (w, v) ; l’observable C 2 ≡ I est encore l’identité. L’opération AC consiste à échanger v et w, puis à changer le signe du second élément ; elle remplace (v, w) par (w, v) puis par (w, - v). L’opération CA remplace (v, w) par (v, - w) puis (- w, v). Les observables A et C satisfont donc à la relation AC = - CA : elles ne commutent pas. Dans le cas du spin d’un électron, A et C représentent, respectivement, au facteur h/4π près, les composantes z et x du moment angulaire, qui sont donc des grandeurs incompatibles. Dans le cas d’un atome, en désignant par ε + et ε– les énergies des deux niveaux les plus bas, l’observable représentant l’énergie de l’atome est [ε+ (I + A) + ε–(I - A)] /2 ; l’observable C est associée au couplage de l’atome avec un champ extérieur susceptible de provoquer des transitions entre les niveaux + et -. Le paradoxe GHZ concerne un système constitué de trois sous-systèmes à deux niveaux du type ci-dessus, notés 1, 2, 3. Parmi les grandeurs physiques associées à ce système figurent les observables A1 et C1 associées au sous-système 1, et de même A2, C2, A3, C3. Des observables associées à deux sous-systèmes différents, simultanément mesurables, commutent. Les propriétés indiquées dans le texte pour A1, A2, A3, commutation et Ai 2 = I, en résultent. Les observables B1, B2, B3 du texte, définies par B1 ≡ C2 C3, B2 ≡ C3 C1, B3 ≡ C1 C2, représentent des corrélations entre paires de sous-systèmes. De Ci 2 ≡ I, on tire Bi 2 ≡ I et aussi B3 ≡ B1 B2 ; la commutation des Ci entraîne celle des Bi. Enfin, on vérifie que A1 B1 ≡ B1 A1, que A1 B2 ≡ – B2 A1, et de même pour les autres sous-systèmes. Toutes les propriétés indiquées dans le texte sont donc satisfaites. Les observables Di , par exemple D1 ≡ A1 B1 ≡ A1 C2 C3, représentent des corrélations entre les trois sous-systèmes, ce qui rend les expériences particulièrement délicates. ■ LA JAUNE ET LA ROUGE – AVRIL 2005 13 LA PHYSIQUE AU XXIE SIÈCLE Nanosciences et nanotechnologies Jean-Yves Marzin (75), directeur du Laboratoire de photonique et de nanostructures (LPN), Marcoussis L ES NANOSTRUCTURES, objets dont les dimensions caractéristiques dans une ou plusieurs directions de l’espace sont de l’ordre de quelques nanomètres, ne sont pas uniquement artificielles ou le fruit de techniques nouvelles : la nature nous en donne de nombreux exemples, comme la structure des ailes de papillons, et l’homme en utilise depuis l’antiquité, des fards égyptiens aux nanocristaux colorant certains verres. Les vingt dernières années ont toutefois vu des avancées extraordinaires dans les domaines de leur élaboration, de leur observation et de l’étude de leurs propriétés. Puits ou boîtes quantiques de semi-conducteurs et nanotubes de carbone sont une bonne illustration de ce que sont ces objets : leurs propriétés ne se résument ni à celle des matériaux massifs, ni à celle des atomes qui les constituent, et leurs spécificités n’apparaissent que pour des dimensions intermédiaires de quelques nanomètres. Cette échelle est évidemment liée aux grandeurs caractéristiques importantes qui sont de cet ordre de grandeur : longueur d’onde thermique de De Broglie pour un électron de conduction dans un métal ou un semi-conducteur, longueur d’onde de la lumière visible dans un diélectrique, etc. Elle l’est également lorsqu’on cherche à disposer de sonde pour des mécanismes à cette échelle, par exemple suivre le trajet intracel- 14 AVRIL 2005 – LA JAUNE ET LA ROUGE lulaire de molécules biologiques, détecter des sites de perméabilité membranaire, etc. De ces avancées, qui ont ou auront des impacts forts dans tous les domaines des sciences et techniques, est né un nouveau champ interdisciplinaire, celui des nanosciences et nanotechnologies. La plupart des pays industrialisés, des USA au Japon, mais aussi l’Union européenne ont placé ce domaine émergent au rang de priorité tant ses potentialités sont de nature à déboucher sur de nouvelles découvertes scientifiques comme à induire des techniques et produits révolutionnant leurs économies mais aussi, in fine, notre mode de vie. Si la discipline à l’honneur dans cette année mondiale de la physique en a été le principal moteur, les domaines de la chimie et de la biologie en sont également à la fois des acteurs et des bénéficiaires. Désormais entrées dans notre quotidien, du transistor qui amplifie le signal hyperfréquence de nos téléphones portables au laser qui permet de lire et d’écrire disques compacts et DVD, aux têtes de lecture des disques durs de nos ordinateurs, les nanosciences ont aussi débouché sur leur lot de découvertes fondamentales : effet Hall quantique entier et fractionnaire, magnétorésistance géante… Les perspectives ouvertes sont multiples et les enjeux potentiellement colossaux, les questions ouvertes nombreuses. Comme souvent, ces avancées ont été tirées par des inventions techniques mais aussi par des évolutions liées aux applications à impact économique fort comme la microélectronique ou les télécommunications. Les paragraphes qui suivent tentent d’illustrer les différents grands domaines investis progressivement par les nanosciences et nanotechnologies. Les outils pour travailler à l’échelle du nanomètre Une première évolution forte a été amenée par la mise au point, à partir des années 1970, de techniques d’élaboration de couches minces avec un contrôle nanométrique des épaisseurs déposées : hétérostructures de semiconducteurs ou métalliques sont nées de la mise au point, entre autres, de l’épitaxie par jets moléculaires ou à partir d’organométalliques. Les physiciens et les ingénieurs ont pu, ainsi, concevoir des empilements de matériaux où sont contrôlés ou exploités les effets quantiques se manifestant à cette échelle, et construire, à la demande, des hétérostructures aux propriétés dessinées à la demande (mais qui ont quelquefois réservé des surprises… comme l’effet Hall quantique). La deuxième révolution, fruit de l’obstination de quelques chercheurs, sous le regard il faut bien le dire incrédule de leurs pairs, a été la mise au point des microscopies “ à pointe ”, au premier rang desquelles la microscopie tunnel, qui permet d’établir sur une surface la cartographie de la densité électronique, avec une résolution subnanométrique. Ses différentes déclinaisons : microscopie à force atomique, à force magnétique ou électrostatique, microscopie à champ proche optique sont devenues autant d’outils pour scruter et manipuler la matière à l’échelle nanométrique. Ces outils, disponibles dans de nombreux laboratoires, ont souvent aussi permis d’apporter un éclairage nouveau, à l’échelle microscopique, sur des observations anciennes à l’échelle macroscopique. D’autres évolutions importantes concernent les outils plus traditionnels. En microscopie électronique, on est en passe d’atteindre (grâce à des techniques de correction des aberrations) la résolution atomique avec une détermination possible de la nature chimique des atomes sondés. Les techniques de lithographie qui permettent de dessiner un motif sur une surface et de l’y transférer (par gravure, par exemple) ont vu la mise au point de nanomasqueurs (à faisceau d’électrons ou d’ions) très performants atteignant des résolutions de l’ordre de la dizaine de nanomètres. Ces derniers instruments permettent de réaliser les “ masques ” répliqués en masse pour produire microprocesseurs et mémoires vives de nos ordinateurs : dans un marché colossal où une petite augmentation de la densité des circuits Surface de matériau organique (TTFTCNQ) à 63K observée en microscopie tunnel. On y observe clairement les chaînes unidimensionnelles (verticales sur l’image) qui confèrent à ce matériau des propriétés de transport unidimensionnelles. Structure de type transistor à nanotube de carbone : le courant passant dans le nanotube entre les deux contacts de gauche et de droite est modulé par la grille centrale déposée sur le nanotube. produits se traduit par des milliards d’euros de chiffre d’affaires supplémentaire, les progrès techniques ont été naturellement fortement stimulés et rapides. Une des conséquences importantes de l’existence de ces nouveaux outils, plus scientifique celle-là, est que nous pouvons désormais avoir accès aux propriétés d’objets nanométriques individuels, contournant les effets de moyenne d’ensemble dominant souvent celles de collections d’objets présentant une grande variabilité de morphologie, de composition, d’environnement… d’épitaxie, les deuxièmes par des techniques de chimie douce) sont à même d’élaborer des boîtes quantiques, illustration (presque) parfaite des premiers exercices de cours de mécanique quantique : la localisation des électrons dans ces structures se traduit par des effets de confinement permettant d’influer par leur taille sur leurs propriétés électroniques. Nanostructures et nanosystèmes Dans les domaines traditionnels de l’électronique ou du stockage de l’information, les tailles des éléments constitutifs sont d’ores et déjà largement submicroniques : les effets quantiques y feront tôt ou tard leur apparition et de nouveaux concepts seront nécessaires pour les “ domestiquer ” ou s’y substituer. Parmi les nouveaux composants sur les rangs, ceux de l’électronique à un électron, ou ceux de l’électronique moléculaire pourraient, à terme, supplanter le CMOS de notre électronique digitale actuelle. Les structures à puits quantiques, et plus généralement les hétérostructures de semi-conducteurs, et leurs applications dans les domaines des composants micro et optoélectroniques, les multicouches de matériaux magnétiques essentielles pour le stockage de l’information ont été les premiers objets permis par les évolutions citées précédemment. Désormais, les physiciens et les chimistes (les premiers par les techniques Dans des domaines plus prospectifs, les nanostructures sont au cœur des recherches sur les phénomènes d’intrication quantique, première pierre d’un futur ordinateur quantique. La manipulation d’atomes ou de molécules par les techniques de microscopie à pointe permet également de créer des structures artificielles à cette échelle. Dans le domaine des nanosystèmes, plusieurs projets d’automates nanométriques sont explorés. Un autre point important est que microscopie à pointe et techniques de lithographie permettent de coupler ces objets au monde macroscopique (avec toutes les problématiques sous-jacentes : décohérence…). LA JAUNE ET LA ROUGE – AVRIL 2005 15 Nanomatériaux Un troisième élément fondateur a été la découverte des nanostructures carbonées, comme les nanotubes de carbone, aux propriétés à la fois mécaniques et de transport exceptionnelles. Dans le domaine des matériaux, les nouvelles structures, constituées d’assemblage de grains ou de fibres nanométriques élargissent considérablement la boîte à outils des concepteurs de matériaux qui permettront de repousser les compromis actuels (poids-rigidité) et de générer de nouveaux matériaux fonctionnels (par exemple des matériaux autonettoyants ou superhydrophobes). Des propriétés nouvelles apparaissent également si l’on sait forcer l’assemblage de structures nanométriques. Par exemple, le cuivre nanocristallin est à la fois plus résistant et plus déformable que son équivalent microcristallin… Ce champ de recherche fait ainsi largement appel à des stratégies d’auto-assemblage, où l’on cherche les conditions pour que Dame Nature aide à la formation de matériaux macroscopiques utilisables à partir de nanostructures contrôlées. C’est sans doute là que les applications seront les plus rapides. Bâti d’épitaxie par jets moléculaires : les semi-conducteurs y sont élaborés par évaporation sous ultravide de leurs constituants. Nanophotonique Dans le domaine de l’optique, la nanostructuration agit sur deux registres : la modification des propriétés électroniques se traduit par celle des propriétés optiques, mais une structuration à l’échelle de la longueur d’onde agit aussi directement sur les modes propres du champ électromagnétique. S’appuyant sur le premier de ces effets, les structures à puits quantiques ou à boîtes quantiques ont permis de mettre au point des émetteurs lasers dans l’infrarouge ou dans le proche infrarouge pour les télécommunications optiques, ou dans le bleu, pour le stockage de l’information. Dans ce domaine des télécommunications, cette ingénierie des lasers, des modulateurs ou des composants passifs (guides, combineur…) a permis de concevoir l’architecture des systèmes de demain (ou d’après-demain) 16 AVRIL 2005 – LA JAUNE ET LA ROUGE Faisceau de nanotubes de carbone, observé en microscopie électronique haute résolution. d’ores et déjà d’imaginer de nouvelles approches. À l’échelle micronique, la microfluidique, qui a pour objet le contrôle de volume de liquide de quelques nanolitres, permet déjà de transporter des liquides dans des microcanaux, de les aiguiller, de les mélanger, de les chauffer ou de les refroidir… Ces techniques ont permis de concevoir de véritables laboratoires sur puce. Dans ce contexte, des nanostructures artificielles peuvent y être intégrées pour servir de gels artificiels aux pores contrôlés, ou de tamis moléculaires, deux systèmes qui permettront peut-être la séparation plus facile de molécules biologiques, voire le séquençage d’ADN. Elles permettent déjà ou permettront également de nouvelles imageries basées sur des capteurs ultrasensibles. Dans un autre registre, l’émission optique de boîtes quantiques greffées sur des biomolécules peut être suivie, révélant ainsi leur cheminement. La vectorisation de médicaments pourra également peut-être un jour bénéficier des possibilités de l’encapsulation dans des nanostructures carbonées de leurs principes actifs. Guide défini dans une structure à bande interdite à deux dimensions. L’évolution de la taille des trous le long du guide permet de coupler plus efficacement le mode du guide étroit (en haut sur la micrographie) à celui d’une fibre optique. qui feront largement appel, pour obtenir des débits de centaines de gigabits par seconde, au multiplexage dense en longueur d’onde de canaux de transmissions à très haut débit. La mise au point de lasers ou de diodes électroluminescentes dans le bleu ouvre la porte, quant à elle, aux disques optiques haute capacité et au remplacement des tubes néon et autres lampes à incandescence par des émetteurs solides à haut rendement. rition de bandes d’énergie permises ou interdites). Ces structures permettent de modifier ou de rediriger l’émission spontanée, de construire à l’état solide des états mixtes photonsparticule matérielle, de générer des superprismes (à dispersion mille fois plus grande que les prismes réfractifs traditionnels), d’exalter les propriétés non-linéaires, de construire des circuits intégrés photoniques complexes et compacts. L’ingénierie des modes optiques a donné naissance de son côté aux microcavités semi-conductrices ou aux structures à bande interdite photonique (structures périodiques d’indice ayant pour les photons un effet semblable à celui du réseau périodique d’atomes dans les solides, avec appa- Nano-objets pour la biologie Dans le domaine de la biologie et de la santé, les enjeux du diagnostic, du traitement, et de la compréhension des mécanismes fondamentaux sont conditionnés par les nanosciences et nanotechnologies qui permettent Enfin, de nombreux systèmes biomimétiques peuvent être conçus et étudiés pour mieux comprendre, sur ces systèmes modèles, les principaux mécanismes à l’œuvre dans des situations réelles autrement complexes. Modélisation La modélisation des propriétés physiques de nano-objets fait largement appel aux techniques de calculs mises au point pour la physique du solide ou la chimie (calculs abinitio ou de dynamique moléculaire pour comprendre les mécanismes de croissance ou d’auto-assemblage). Avec l’augmentation des capacités des ordinateurs, des calculs abinitio de la structure électronique d’objets comportant quelques dizaines de milliers d’atomes sont à notre portée. Le raccord entre ces modélisations à l’échelle nanométrique et la modélisation du monde macroscopique, la mise au point de modélisation multi-échelles sont un autre enjeu important de ce domaine. LA JAUNE ET LA ROUGE – AVRIL 2005 17 Nanos et société Manipuler la matière à l’échelle du nanomètre et particulièrement des biomolécules, rendre possible une ultraminiaturisation de systèmes complexes, produire des composites à partir de matière finement divisée, tout cela n’est pas sans poser des problèmes d’éthique, d’environnement ou d’acceptabilité sociale. Comme toute nouvelle technologie, les nanotechnologies suscitent ainsi un questionnement légitime. La littérature de science-fiction comme les prises de position de personnalités renforcent les inquiétudes que les nanosciences et nanotechnologies cristallisent. Comme le décrit si bien Louis Laurent, elles se déclinent en trois craintes principales : la perte de contrôle, la mauvaise utilisation des découvertes et la transgression d’interdits. Le risque lié à la perte de contrôle est en jeu lorsqu’on évoque “ la gelée grise ” ou le risque environnemental de la matière finement divisée. Si le premier (non-contrôle de nanorobots pouvant s’autorépliquer et produisant des nano-objets, pouvant consommer toutes les ressources terrestres) est purement de l’ordre de la sciencefiction à une époque où nous ne savons pas contrôler le sens de rotation de nanomoteurs moléculaires, le deuxième doit être pris au sérieux. Les études de toxicologie et de dégradabilité doivent être entamées avant toute production en masse et déploiement de nanomatériaux. La mauvaise utilisation des découvertes, possible pour toute innovation, est ici particulièrement prégnante car les nanotechnologies permettront de développer des systèmes de plus en plus performants mais aussi de les miniaturiser (et donc aussi de les cacher). On peut en donner maints exemples : les laboratoires sur puce, qui faciliteront la détection de prédisposition génétique à telle ou telle maladie, pourraient aussi être mis à profit par un employeur indélicat, ou un banquier, ou un assureur (à partir d’un cheveu perdu…) pour accéder aux mêmes informations. D’autres 18 AVRIL 2005 – LA JAUNE ET LA ROUGE Suivi de molécules biologiques auxquelles ont été greffées des boîtes quantiques luminescentes à l’intérieur d’un neurone (in vitro). exemples sont ceux des systèmes implantés (certains permettant la télésurveillance de paramètres biologiques, d’autres peut-être en liaison directe avec notre système nerveux) ou de la “ poussière intelligente ” (bardée de capteurs, communiquant en réseau…). Ces aspects sont du domaine de l’éthique, pour contrôler qui pourra disposer des produits rendus possibles par ces technologies. La dernière source d’inquiétude, liée à la transgression d’interdits, est principalement induite par nos facultés nouvelles à agir sur le vivant, à produire clones et chimères : là aussi, le seul encadrement possible est éthique. S’y ajoute le risque réel de voir leur utilisation massive amplifier le déséquilibre Nord-Sud entre pays riches et en voie de développement. Au-delà de toutes ces inquiétudes, les usages que souhaite faire la société des révolutions que permettront nanosciences et nanotechnologies sont un champ sans doute intéressant pour les sciences sociales. Conclusion Ce domaine des nanosciences et nanotechnologies est, on l’a vu dans tous ces exemples, à la convergence de domaines disciplinaires divers, des mathématiques appliquées à la biologie, en passant par la physique et la chimie. Elles sont porteuses de multiples promesses d’application, seront à la source de nouvelles découvertes et sont aussi génératrices d’interrogations salutaires. Comme tous les domaines interdisciplinaires, elles se nourriront de disciplines fortes et solides. Si je peux m’adresser pour conclure aux élèves de cette école, j’ai envie de vous rappeler qu’elle vous permet d’acquérir des bases solides dans la plupart des disciplines scientifiques d’intérêt dans le domaine des nanosciences et nanotechnologies : je suis persuadé que cette formation est un atout inestimable pour ceux d’entre vous qui exerceront leur activité professionnelle dans ce champ scientifique et technique fascinant et sur bien des aspects encore balbutiants. n LA PHYSIQUE AU XXIE SIÈCLE Recherches et enjeux en physique des plasmas Jean-Marcel Rax, professeur à l’Université Paris XI, directeur du Laboratoire de physique et technologie des plasmas (LPTP), École polytechnique La physique des plasmas La matière constituant notre environnement proche se présente essentiellement sous forme solide, liquide ou gazeuse. Au-delà de ces trois états, à haute et à basse températures, deux nouveaux types d’états, (1) les “ gaz quantiques ” et (2) les “ gaz ionisés ”, se distinguent par l’apparition d’une grande diversité de phénomènes physiques nouveaux : (1) à très basse température, les états supraconducteur, superfluide ainsi que les condensâts de Bose-Einstein présentent une richesse de comportements associée aux corrélations, à l’échange et à la cohérence quantiques ; (2) à très haute température, la dissociation puis l’ionisation conduisent à la création de populations d’ions et d’électrons libres et ces charges libres induisent un comportement collectif, non-linéaire, chaotique et turbulent. On appelle “plasma” ou “gaz ionisé” cet état exotique de la matière contenant une fraction significative de charges libres; l’ensemble des concepts, méthodes et résultats propres à l’étude de cet état de la matière constitue la “ physique des plasmas ”. La physique des plasmas intègre les connaissances de nombreux autres domaines de la physique, tels que la physique statistique, la dynamique hamiltonienne, l’électrodynamique relativiste, les physiques atomique, moléculaire et nucléaire ; réciproquement, de nombreux concepts et méthodes, issus de recherches fondamentales en physique des plasmas, ont été intégrés par d’autres disciplines, plus particulièrement en physique non-linéaire, chaos et turbulence et théories des instabilités. Les plasmas dans l’univers Les océans, les continents et l’atmosphère ne sont pas des plasmas ; ils se présentent sous formes fluides et solides neutres. La croûte, le manteau et le noyau terrestre sont constitués principalement de fer, d’oxygène, de silicium et de magnésium sous forme solide et liquide. L’atmosphère terrestre est composée essentiellement d’azote et d’oxygène, sous forme gazeuse neutre et, en quantités minimes, de gaz rares. Enfin, pour ce qui concerne les océans, ils sont formés d’eau, contenant, en proportions minimes, des sels minéraux, principalement des halogénures alcalins et alcalinoterreux. Cette analyse rapide de notre environnement proche pourrait laisser croire que la phase plasma est totalement absente à l’état naturel ; au contraire, les plasmas constituent l’essentiel de l’environnement terrestre au-delà de la haute atmosphère. En effet, à l’échelle cosmique, plus de quatre-vingt dix-neuf pour cent de la matière visible se présente sous forme ionisée, en phase plasma. La physique de l’environnement terrestre proche relève donc de la mécanique et de la thermique des fluides classiques ; par contre, à partir d’une altitude de l’ordre d’une centaine de kilomètres, le rayonnement ultraviolet du Soleil entretient une structure ionisée dont l’étude relève de la physique des plasmas : l’ionosphère. À une telle altitude la densité de particules chargées atteint des valeurs supérieures à plusieurs dizaines de milliers d’électrons et d’ions par centimètre cube ; ces charges libres constituent la population à l’origine des propriétés électromagnétiques et physicochimiques originales de ces couches de la très haute atmosphère. Au-delà de l’ionosphère, c’est-à-dire à partir d’une altitude de l’ordre du millier de kilomètres, s’étend la magnétosphère : un plasma magnétisé structuré par le champ magnétique dipolaire terrestre et alimenté en espèces chargées par le vent solaire. Au-delà de la magnétosphère s’étend l’espace interplanétaire, rempli aussi par un plasma, le vent solaire, issu des couches externes du Soleil ; le Soleil est aussi une sphère de gaz LA JAUNE ET LA ROUGE – AVRIL 200519 ionisée structurée en différentes couches. Au-delà du système solaire, les étoiles, quels que soient leurs types, sont essentiellement des sphères de plasma et les espaces interstellaire et intergalactique sont aussi emplis de particules chargées en interaction électromagnétique. En conclusion, bien que notre environnement proche soit formé de matière neutre sous forme liquide, solide et gazeuse, à grande échelle, les plasmas constituent l’essentiel de l’environnement terrestre et la physique des plasmas s’impose comme l’outil de référence pour étudier cet environnement au-delà des couches basses de l’atmosphère. En particulier, les structures et les processus tels que : les aurores boréales, le vent solaire, les queues de comètes, les bras galactiques, les magnétosphères, la couronne solaire, les éruptions solaires, les atmosphères et intérieurs stellaires, l’émission électromagnétique des nébuleuses gazeuses et des pulsars relèvent de la physique des plasmas. Les plasmas dans l’industrie Au-delà de son intérêt en tant qu’outil de référence pour l’étude des problèmes d’astrophysique et de physique spatiale, la physique des plasmas se situe aussi en amont d’un vaste champ d’applications technologiques. Citons par exemple les domaines de haute technologie que sont la microélectronique et l’exploration spatiale : plus de la moitié des opérations de fabrication des processeurs et mémoires sont actuellement effectuées dans des réacteurs plasmas et les propulseurs plasmas sont considérés comme l’option la plus pertinente pour une mission habitée vers Mars. Au cours de ces dernières années la pénétration des procédés plasmas dans les processus industriels a augmenté de façon extrêmement rapide ; bien qu’elles ne soient pas encore identifiées en tant que secteur industriel spécifique, les technologies plasmas sont devenues indispensables aussi bien dans des domaines innovants comme les nouveaux matériaux, les 20AVRIL 2005 – LA JAUNE ET LA ROUGE nanotechnologies et la propulsion spatiale, que dans des domaines plus classiques tels que la sidérurgie, l’éclairage ou la chimie. Enfin, la physique des plasmas est l’outil essentiel pour comprendre les différents systèmes expérimentaux mis en œuvre dans le cadre des programmes de recherche sur la fusion thermonucléaire ; la fusion nucléaire du deutérium et du tritium en phase plasma constituant la seule option, à long terme, pour pallier l’épuisement des ressources en énergie fossile. La figure 1 présente quelques valeurs typiques de densités (n) et températures électroniques (T) de ces plasmas thermonucléaires et industriels. Le domaine d’application de la physique des plasmas ne se restreint donc pas à l’étude des structures et processus astrophysiques ; depuis plusieurs dizaines d’années la physique des plasmas est devenue indispensable dans de nombreuses industries; elle constitue une branche extrêmement active et innovante de la physique appliquée. Les activités industrielles peuvent être classifiées suivant différents schémas ; du point de vue de la physique appliquée, il est intéressant de considérer trois grands types d’activités et de distinguer respectivement : (1) le traitement de l’information, (2) le traitement de l’énergie, (3) le traitement des matériaux. Les technologies des plasmas sont au cœur des techniques de pointe mises en œuvre dans ces trois secteurs ; quelques exemples permettent de mesurer l’impact et le potentiel des procédés plasmas dans ces trois domaines. Les technologies modernes de traitement de l’information utilisent en effet des composants électroniques miniaturisés tels que les micropro- FIGURE 1 cesseurs et les mémoires. Ces composants ne peuvent être fabriqués que dans des réacteurs à plasma car la gravure de millions de motifs, possédant des détails de dimensions inférieurs au millième de millimètre, est impossible avec les procédées mécaniques ou chimiques usuels, mais devient possible avec les flux d’ions énergétiques issus de la zone périphérique des décharges plasmas radiofréquence. Ainsi, les réacteurs plasmas radiofréquence, conçus pour maîtriser et optimiser ces flux d’ions, permettent les opérations de gravure et de dépôt sur les substrats de silicium et sont les outils essentiels des chaînes de fabrication des industries microélectroniques. s’auto-entretenir en régime de combustion exothermique qu’à partir d’une température de l’ordre d’une centaine de millions de degrés ; à de telles températures la matière est totalement ionisée et la problématique de la production d’énergie par fusion nucléaire se réduit donc aux problèmes complexes du chauffage et du confinement des plasmas. L’activité des sociétés industrielles modernes nécessite entre un et quelques gigawatts de puissance électrique par million d’habitants ; aussi, la consommation mondiale annuelle en énergie atteint désormais un niveau de l’ordre de 10 20 joules. Compte tenu des contraintes écologiques et de l’épuisement des ressources fossiles conventionnelles, pour maintenir un tel niveau de production, la fusion de noyaux légers de deutérium et tritium, suivant la réaction : un deutérium plus un tritium donnent une particule alpha plus un neutron, dans des réacteurs à fusion thermonucléaire contrôlée, est la seule option, à long terme, validant physiquement les schémas de développement envisagés pour les sociétés postindustrielles. La production d’oxyde d’azote, d’acétylène et de carbure de calcium, par synthèse en phase plasma, dès le début du vingtième siècle, marque le début des premières applications industrielles des plasmas dans le domaine de la synthèse et du traitement des matériaux. Les propriétés de hautes températures des plasmas d’arc de puissance sont utilisées en sidérurgie pour améliorer ou remplacer les procédés conventionnels des hauts fourneaux. Ces mêmes décharges plasmas en régime d’arc, mais à plus faible puissance, constituent les éléments actifs des systèmes de découpe et de soudure dans les ateliers de mécanique en amont des industries nucléaire, aéronautique et spatiale. Les plasmas permettent aussi la production de films de diamant ou de couches minces de silicium ; enfin la phase plasma offre une voie unique pour la synthèse de matériaux ultradurs n’existant pas à l’état naturel tels que le nitrure de carbone. Les réacteurs à plasma, parfois appelés générateurs à plasma ou sources plasmas, sont des dispositifs permettant la production de plasma afin d’utiliser (1) la population électronique pour amorcer et entretenir une réactivité chimique en volume, généralement dans des conditions de nonéquilibre thermodynamique et (2) le flux d’ions en périphérie du plasma, dans la zone dite de gaines, afin de traiter des matériaux. En effet, un système thermonucléaire (1) ne produit pas de dioxyde de carbone, (2) génère des déchets radioactifs de faible activité et (3) ne présente aucun risque d’emballement ; le deutérium se trouve en quantité inépuisable dans l’eau et le tritium peut être produit dans la couverture du réacteur en utilisant les réactions du flux neutronique, issu de la réaction de combustion thermonucléaire, avec une couverture en lithium. Le lithium se trouve aussi en quantité abondante dans la croûte terrestre. Compte tenu des pertes radiatives et diffusives, les réactions thermonucléaires ne peuvent La solution de ces problèmes, jusqu’à présent non résolus, implique la compréhension et la maîtrise des instabilités et de la turbulence dans les plasmas thermonucléaires, qui constituent les objectifs majeurs des programmes de recherches en physique des plasmas thermonucléaires. Les réacteurs pour la microélectronique Les réacteurs radiofréquence, malgré l’apparente simplicité de leur structure, sont des objets au comportement complexe qui présentent une grande diversité de régimes de fonctionnement et sont sujets à de nombreuses instabilités. La figure 2 présente la vue extérieure du réacteur capacitif du Laboratoire de physique et technologie des plasmas de l’École polytechnique ; un champ électromagnétique radiofréquence (13,56 MHz) entretient le plasma (P). Le système complet est composé de quatre éléments : le système de pompage et de contrôle des gaz neutres (C), le générateur RF et le système d’adaptation d’impédance (A), l’ensemble des diagnostics de la phase plasma et de la phase neutre et enfin la structure de couplage et la chambre à plasma (R). À basse pression, au voisinage de quelques millitorrs, dans ces structures radiofréquences, les collisions sont insuffisantes pour expliquer l’absorption du champ électromagnétique par les électrons; un deuxième mécanisme de transfert d’énergie du champ vers la population électronique entre en jeu : le chauffage stochastique. Du point de vue du physicien, ce mécanisme est essentiellement un régime de couplage champ-particule en régime chaotique ; on voit donc que les réacteurs plasmas RF, comme de nombreux systèmes de haute technologie, sont le lieu privilégié de rencontre entre la physique appliquée et la physique fondamentale. Le chauffage stochastique, les instabilités, les transitions entre régimes dans les réacteurs radiofréquences sont autant de sujets de recherches qui nécessitent la mise en œuvre de l’ensemble des méthodes et outils théoriques et expérimentaux de la physique des plasmas. La physicochimie des plasmas et plus particulièrement la compréhension et la maîtrise des cinétiques des espèces actives participant au processus de dépôt et de gravure constituent un deuxième sujet de recherches LA JAUNE ET LA ROUGE – AVRIL 200521 © LPTP FIGURE 2 extrêmement actif, compte tenu de l’impact direct de ces études sur les procédés et opérations de fabrication des composants microélectroniques. Les réacteurs radiofréquences pour la gravure, le dépôt et l’implantation ionique génèrent des plasmas dont la fonction ultime relève du traitement des matériaux; le traitement de l’énergie est aussi un vaste champ d’applications des technologies plasmas, que nous précisons dans la suite. Les réacteurs thermonucléaires Que ce soit pour la production d’énergie dans les systèmes thermonucléaires Tokamaks, ou pour la propulsion des systèmes spatiaux avancés, le potentiel des technologies plasmas permet d’envisager des modes de fonctionnement et des performances inaccessibles aux technologies actuelles; les plasmas offrent ainsi la possibilité de développer de nouvelles technologies innovantes, basées sur des principes physiques originaux. Les Tokamaks sont des configurations magnétiques utilisées pour confiner et chauffer des plasmas en régime thermonucléaire ; en effet, la température d’amorçage et d’entre- 22AVRIL 2005 – LA JAUNE ET LA ROUGE tien d’une combustion thermonucléaire étant de l’ordre d’une centaine de millions de kelvins, il n’existe aucun matériau pouvant supporter de telles températures. Il est donc nécessaire d’utiliser le principe du confinement magnétique : le mouvement d’une particule chargée interagissant avec un champ magnétique statique est la combinaison d’une rotation autour des lignes de champ et d’une translation le long des lignes de champ; ce comportement des systèmes de charges est à la base du principe du confinement magnétique : si les lignes de champ sont fermées ou restent dans un volume fini, comme c’est le cas dans la configuration Tokamak, alors les particules restent confinées dans ce volume fini. La réalité est plus complexe pour les configurations de type Tokamak car, en repliant des lignes de champ magnétique, se créent nécessairement des inhomogénéités qui engendrent des dérives perpendiculaires aux lignes de champ ; il faut donc compenser ces dérives afin d’assurer un confinement orbital. Pour cela, un champ, dit poloïdal, généré par un courant traversant l’anneau de plasma (quelques millions d’ampères dans un réacteur) est superposé au champ toroïdal créé par le système de bobines distribuées autour du tore de plasma. Le résultat est donc une structure de champs complexes où les lignes de champ sont des hélices s’appuyant sur des tores emboîtés. La configuration Tokamak offre ainsi un exemple de champs complexes où les différentes dérives sont compensées et le confinement orbital assuré. Afin d’assurer la stabilité du tore de plasma des bobinages verticaux sont aussi nécessaires. Le confinement orbital est une condition nécessaire, mais ne constitue pas une condition suffisante pour assurer un bon confinement global du plasma ; en effet, le plasma génère des champs électrique et magnétique qui ont tendance à détruire le confinement. Ainsi, le tore de plasma d’une configuration Tokamak doit être contrôlé en permanence, car il est l’objet de nombreuses instabilités et d’une intense activité turbulente résultant de couplages non-linéaires entre les champs et les particules. La figure 3 présente une vue du Tokamak du Laboratoire de physique et technologie des plasmas. Les bobines générant les champs toroïdal (B) et vertical sont visibles, ainsi que la chambre à plasma (T) et un ensemble de systèmes de contrôle (C), de chauffage (M) et de diagnostic qui complètent ce dispositif expérimental. Dans le domaine de la physique des Tokamaks, il est d’usage de distinguer les grandes machines dont les performances s’approchent des performances d’un réacteur et dont les équipes regroupent plusieurs centaines de physiciens et ingénieurs, des petites machines telles que celle de la figure 3. Les performances des grands Tokamaks les placent loin devant tous les autres types de machines et de procédés qui ont été proposés jusqu’à présent pour amorcer et entretenir une combustion thermonucléaire. Ce succès fait des Tokamaks un sujet de recherche particulièrement actif, et de grands Tokamaks, dédiés aux études de physique des plasmas thermonu- © LPTP FIGURE 3 cléaires, ont ainsi été construits depuis plus de vingt ans : Tore Supra en France (TS, CEA Cadarache), JET en Angleterre (Euratom), TFTR puis MSTX aux États-Unis (DoE Princeton), JT60 au Japon et bien d’autres. compréhension et le contrôle de la turbulence, (3) la génération et le contrôle du courant en régime continu, (4) la maîtrise de la dynamique des populations suprathermiques en régime thermonucléaire. Le projet mondial ITER doit permettre l’accès à la combustion thermonucléaire dans une configuration magnétique de type Tokamak dans les prochaines décennies. Les performances obtenues ces dernières années en termes de confinement, chauffage et contrôle des plasmas thermonucléaires dans ces grands Tokamaks traduisent des avancées remarquables et l’extrapolation des lois d’échelles, issues des bases de données accumulées ces vingt dernières années, permet d’envisager avec confiance l’accès à l’ignition et l’entretien d’une combustion thermonucléaire dans le réacteur ITER. Elles conditionnent la mise au point d’un réacteur techniquement fiable et économiquement viable. En effet, dans un réacteur Tokamak en régime de combustion continue : 1) l’injection-extraction de puissance à la périphérie du plasma doit s’effectuer en respectant de sévères contraintes technologiques de tenue des matériaux aux flux intenses de rayonnements et particules, 2) la turbulence et le transport doivent être diagnostiqués et contrôlés en temps réel et maintenus à un niveau compatible avec l’entretien de la combustion thermonucléaire, 3) quelques dizaines de millions d’ampères doivent être entretenus en régime continu afin d’assurer le confinement orbital et l’accès à des profils de courants optimaux, 4) la population de particules alpha d’origine thermonucléaire et les ions suprathermiques doivent être confinés, diagnostiqués et contrôlés afin d’assurer une combustion et un pilotage efficaces. Cependant, le programme Tokamak se heurte actuellement à quatre grands problèmes qui constituent de solides verrous physiques et technologiques. Ces quatre questions clés, scientifiques et techniques concernent : (1) la compréhension et le contrôle de l’interaction plasma-paroi, (2) la La conception d’un réacteur thermonucléaire qui soit à la fois techniquement fiable et économiquement viable passe donc par l’étude approfondie des processus d’interaction plasma-paroi et des mécanismes de turbulence, ainsi que par l’identification de nouveaux procédés de diagnostic et de contrôle de la turbulence, du courant et des populations suprathermiques à l’origine de la réactivité thermonucléaire. C’est l’achèvement de ce vaste programme de physique, fondamentale et appliquée, qui constitue l’objectif du projet ITER, basé sur les développements complémentaires de ses précurseurs. n LA JAUNE ET LA ROUGE – AVRIL 200523 LA PHYSIQUE AU XXIE SIÈCLE La physique des particules Bruno Mansoulié (75), Commissariat à l’Énergie atomique, Saclay La physique de l’élémentaire Si l’appellation “Physique des particules ” est traditionnelle pour désigner l’étude des constituants de la matière, je lui préfère de beaucoup celle de “ Physique de l’élémentaire ”. À la question : “ De quoi la matière est-elle faite et quelle est son origine?”, une longue tradition occidentale tente en effet de répondre par une hiérarchie de structures, convaincue que la variété de la nature est obtenue par l’assemblage de corpuscules élémentaires d’un petit nombre de types. L’idée est simple et forte, et encore de nos jours, la découverte d’une nouvelle “ particule ” est un événement aussi bien pour le public que pour les chercheurs. Pourtant, la physique moderne a élargi considérablement les concepts de constituants et d’interactions : la mécanique quantique nous indique en effet qu’une particule est aussi une onde, cependant que dans la relativité générale, matière et espacetemps eux-mêmes apparaissent comme des champs. Dans les théories récentes des supercordes, les particules perdent même leur caractère ponctuel et sont décrites comme des cordes ou membranes en interaction dans un espace à dix (ou peut-être onze…) dimensions. L’image familière du monde des particules est donc initialement celle des poupées russes : dans la matière, 24AVRIL 2005 – LA JAUNE ET LA ROUGE des atomes, dans un atome un noyau (et des électrons), dans un noyau, des protons et des neutrons, dans un proton des quarks… Selon cette image, tout progrès de la discipline serait lié à la découverte d’un nouveau composant, plus petit. En fait, ce que les physiciens recherchent avant tout, ce sont des structures élégantes, et la description de la matière par un modèle simple et cohérent. rigueur et précision les constituants de la matière et leurs interactions. Toute nouvelle mesure, qu’elle provienne d’un accélérateur de particules ou d’une observation par satellite, est immédiatement confrontée au Modèle standard. Aujourd’hui, des mesures très précises, effectuées sur des objets et dans des gammes d’énergies très variés, confirment toutes le Modèle standard. Il est vrai que, parfois, l’explication de ces structures, la simplification du modèle viennent de l’introduction d’une nouvelle échelle de composants. Le premier exemple fut d’expliquer la variété des éléments chimiques et la composition du tableau de Mendeleïev par la structure des atomes, et leur description en protons, neutrons et électrons. Le second permit d’expliquer la nature des nombreuses particules découvertes dans les années 1960 auprès des accélérateurs, comme des assemblages variés d’un petit nombre de composants : les quarks. Malgré ses succès, le Modèle standard ne manque pas d’imperfections : un grand nombre de paramètres libres, certaines structures totalement inexpliquées, et surtout une insuffisance ontologique. On sait bien décrire les particules et leur comportement, on sait mal ce qui fait qu’une particule est une particule. Pourquoi, à tel endroit, à tel instant, une concentration d’énergie nous apparaît-elle comme une particule dotée d’une masse, d’une charge, ou d’un tout petit nombre d’autres caractéristiques ? Pour autant, cette image simple est trop limitée. L’ambition est en effet bien plus vaste : le modèle recherché doit en effet rendre compte de toutes les propriétés de la matière, naturelle ou artificielle, à toutes les échelles de taille ou d’énergie, et à toutes les époques, du big bang à nos jours. Le cœur de cette compréhension est le Modèle standard, qui décrit avec Ces insuffisances de principe donnaient lieu depuis longtemps à d’intenses spéculations sur de nouveaux modèles théoriques, associés à de nombreuses recherches de signes expérimentaux. Mais la surprise des dernières années est venue des mesures cosmologiques : 95 % de la densité d’énergie de l’univers est de nature inconnue, différente de la matière “ordinaire” que décrit le Modèle stan- dard ! Un tiers environ est sans doute d’une nature “ proche ”, et pourrait être décrite par certaines extensions du Modèle déjà envisagées. Mais le reste, soit plus des deux tiers du contenu énergétique de l’univers, échappe encore aujourd’hui à toute description microscopique. Entre ces questions, anciennes et nouvelles, on distingue aujourd’hui un réseau de liens qui touchent aux aspects les plus fondamentaux de notre perception du monde : gravitation, symétries, nature de l’espacetemps… L’élaboration du Modèle standard La notion d’un Modèle standard, décrivant toutes les particules et les interactions de façon cohérente, n’apparaît qu’à la fin des années 1970. Mais les fondements du modèle remontent directement à la période magique de l’aube du vingtième siècle qui, en moins de dix ans, voit l’apparition des théories de la mécanique quantique et de la relativité, et les découvertes de l’électron, du noyau atomique et de la radioactivité. À ce moment, la théorie quantique décrit l’étonnant comportement microscopique des particules, et la relativité (restreinte) admet le temps comme 4e dimension, contraignant la forme des interactions (interdisant par exemple l’interaction instantanée à distance, comme celle de Newton), et montrant l’équivalence entre masse et énergie. Il reste à marier ces deux concepts : c’est Dirac, en 1928, qui écrit la première théorie quantique relativiste de l’électron. Ce pas est essentiel pour comprendre la puissance de description des modèles actuels. Grâce aux effets quantiques et aux relations d’incertitudes, il est possible d’échapper à la conservation de l’énergie pour une quantité ∆E, à condition que ce soit pour un temps ∆t d’autant plus court que ∆E est grand : le produit ∆E x ∆t doit rester inférieur à h/4π, où h est la constante de Planck. La petitesse de h assure que le monde à l’échelle humaine est “classique”, avec Figure 1a Figure 1b Un électron avec une correction quantique : émission et réabsorption d’un photon virtuel. Une correction quantique plus complexe. La boucle peut contenir n’importe quelle particule existante. une énergie conservée et un comportement raisonnable. À l’échelle des particules, cette fenêtre quantique ouvre des horizons immenses : avec la relativité, la masse au repos d’une particule, m, est équivalente à une énergie mc2. Il devient donc possible d’envisager que, pendant un temps ∆t, on ait une fluctuation d’énergie ∆E, qui s’exprime sous la forme d’une particule de masse m = ∆E/c2. On parle alors de particule virtuelle. Quelle particule ? N’importe laquelle, à choisir dans toutes les particules “ existantes ”, connues ou inconnues ! La figure 1 montre, dans la description en diagrammes introduite bien plus tard par Feynman (vers 1960), la représentation d’un électron “ habillé ” par des corrections quantiques relativistes. La première prédiction de la théorie de Dirac est l’existence d’une antiparticule pour l’électron, le positon ; il sera découvert en 1933 par Anderson. Le vide luimême prend un statut de premier plan : le vide classique est… vide. Le vide quantique relativiste contient virtuellement toute la physique existante à toutes les échelles d’énergie ou de distance! La théorie quantique relativiste des électrons et des photons, l’électrodynamique quantique, s’élabore depuis les années 1930 jusqu’aux années 1970. La symbolisation des calculs en diagrammes, par Feynman, en rend la pratique aisée et accessible à (presque) tous. Il y a cependant un écueil de taille : la multiplication des possibilités virtuelles conduit le plus souvent à des résultats de calculs… infinis ! Dans l’exemple de la figure 1a, la sommation (l’intégration) sur toutes les énergies possibles du photon virtuel donnerait ainsi une masse infinie à l’électron de départ. Le problème n’est pas vraiment nouveau : il était déjà présent en électrodynamique classique, lorsqu’on se posait la question par exemple de la cohérence de l’électron : si on décrit un électron comme une boule uniformément chargée, pourquoi les parties de cette boule ne se repoussentelles pas? De façon assez surprenante, la théorie quantique, bien qu’elle autorise des effets virtuels infinis et complexes, apporte la solution, car elle permet de hiérarchiser l’importance des corrections virtuelles, et d’en préciser les effets. Ces calculs sont au début un artifice mathématique quelque peu hésitant, mais se trouvent confirmés de façon éclatante par les mesures de déplacement des niveaux atomiques dus à la polarisation du vide (effet Lamb). Dans les années 1950-1970, cette approche devient un processus étayé et central dans le modèle : la “ renormalisation ”. Aujourd’hui la mesure la plus précise dans ce domaine (le moment magnétique anormal du muon) montre un accord avec la théorie avec une précision impressionnante de 11 décimales. Forte de ses succès, l’électrodynamique quantique est de ce fait devenue le modèle à suivre pour toute théorie : quantique, relativiste et “renormalisable ”. Au cours du XXe siècle sont mises en évidence, puis étudiées, deux autres interactions entre particules : les interactions faibles, responsables d’une forme de radioactivité (et primordiales dans le processus de combustion du Soleil !), et les interactions fortes, qui assurent la cohésion des noyaux (s’ils n’étaient soumis qu’à la seule interaction électromagnétique, les protons de même charge tendraient à se séparer, et les neutrons ne joueraient aucun rôle). En 1965, on en est là : l’inter- LA JAUNE ET LA ROUGE – AVRIL 200525 action électromagnétique a sa théorie puissante, cohérente et prédictive. L’interaction faible a été étudiée en détail par de nombreuses mesures de précision, soit dans les désintégrations radioactives, ou auprès d’accélérateurs, et elle est décrite par un modèle assez élégant, prédictif, mais dont on sait la validité limitée aux basses énergies. L’interaction forte, quant à elle, connaît une foule de résultats expérimentaux, les réactions obtenues en envoyant un faisceau d’accélérateur sur une cible produisant quantités de “ nouvelles particules ” de masses et de propriétés diverses ; les modèles qui tentent de décrire cette variété sont phénoménologiques, peu prédictifs, parfois même un peu étonnants sur le plan logique (l’un d’entre eux s’appelle le boot-strap, faisant référence à l’idée qu’on pourrait s’élever en se tirant par les lacets de ses propres bottes !). Le progrès décisif est alors de rechercher l’ingrédient qui permet le fonctionnement de la théorie électromagnétique, et de l’appliquer aux deux autres, malgré les apparentes différences. Cet ingrédient, c’est la “ symétrie de jauge ”. Depuis le début, le rôle des symétries est essentiel dans notre compréhension théorique. Par exemple, il est clair que les lois de la physique doivent être invariantes par un changement de repère dans l’espace ou le temps : cette invariance conduit à la relativité restreinte. De nombreuses autres symétries sont utilisées pour contraindre les lois physiques : invariance par rotation, invariance (ou pas !) par renversement du sens du temps, par échange de constituants, etc. L’invariance de jauge est une invariance par rapport à l’identité des particules : si un électron accompagné d’un photon se manifeste dans mon détecteur exactement comme un électron seul, pourquoi ne l’appelleraisje pas un électron ? On voit le lien avec la renormalisabilité : les photons virtuels qui accompagnaient mon électron risquaient de devenir trop nombreux et rendre mes calculs infinis. Mais si c’est “ tout cela ” un électron, plus de problème ! 26AVRIL 2005 – LA JAUNE ET LA ROUGE Appliquer l’invariance de jauge à la théorie faible, et l’unifier avec l’interaction électromagnétique, ne peut pas se faire si facilement : la portée de l’interaction électromagnétique est infinie (c’est le potentiel de Coulomb, en 1/r), celle de l’interaction faible est courte (très inférieure à la taille d’un proton). Dans la théorie, ceci s’exprime par le fait que la particule médiatrice de l’interaction électromagnétique (le photon) possède une masse nulle, alors que celles médiatrices des interactions faibles (les W+, W- et Z0) ont une masse très élevée. En 1967, Weinberg et Salam, utilisant un résultat de Higgs, réalisent pourtant cette unification. Le modèle part d’une théorie commune où toutes les masses des particules sont nulles. On introduit alors une particule très spéciale, le “ boson de Higgs ”, dont la simple présence donne une masse à toutes les particules du modèle… sauf au photon. La fameuse symétrie “ de jauge ” est donc brisée, mais d’une façon assez “douce” pour que ses propriétés soient conservées. En 1974, t’Hooft montre en effet que ce type de théorie est renormalisable. À peu près en même temps, les expériences tendent à montrer que les protons et neutrons seraient constitués d’objets plus petits. Rapidement, on explique toutes les particules produites par interaction forte à l’aide d’un petit nombre de constituants, les quarks. Mais là aussi, le pas décisif est de comprendre que les quarks et leur interaction forte peuvent être décrits par une théorie “ de jauge ”, la chromodynamique quantique (QCD). Vers la fin des années soixante-dix, le Modèle standard est enfin constitué, et sa conception ne changera pas jusqu’à nos jours, malgré des mises à l’épreuve expérimentales et théoriques aussi variées que précises. Seule la gravitation échappe à cette description, car si nous en avons une excellente description classique (la relativité générale d’Einstein), nous n’en connaissons pas de théorie quantique. Les progrès expérimentaux et le Modèle standard aujourd’hui Pendant la première moitié du siècle, les phénomènes corpusculaires sont d’abord observés à partir de sources naturelles, radioactivité et rayons cosmiques, et des minuscules accélérateurs d’électrons que sont les tubes cathodiques. À partir de la Deuxième Guerre mondiale se développent les véritables accélérateurs de particules, de dimensions et d’énergie toujours croissantes. En effet, la mécanique quantique nous indique que l’impulsion transférée par une particule sonde est inversement proportionnelle à la précision spatiale qu’elle permet d’atteindre. XXe Des laboratoires sont créés pour abriter spécifiquement ces grands instruments, comme le CERN, fondé en 1954 près de Genève par l’ensemble des pays européens, DESY à Hambourg, Fermilab et SLAC aux USA, etc. À titre d’exemple, le premier “ gros ” accélérateur construit au Cern en 1960 avait un diamètre de 72 m. Plusieurs générations de machines plus tard, le LEP a fonctionné de 1989 à 2000 dans un tunnel de 9 km de diamètre situé à 100 m sous la campagne genevoise. Ce tunnel s’apprête maintenant à recevoir le futur fleuron du Cern, le LHC, dont le démarrage est prévu en 2007. Les expériences ont aussi énormément augmenté en taille, en complexité, et en durée : une expérience auprès du LHC sera un complexe de 40 m de long, 30 m de diamètre, comprenant des millions de canaux électroniques, mis au point par une collaboration de plus d’un millier de physiciens et d’ingénieurs provenant de tous les pays développés de la planète. Les expériences (il y en aura 4) seront probablement exploitées durant plus de quinze ans. En parallèle, d’autres méthodes de recherche ont été poursuivies, comme l’observation des rayons cosmiques, en plein renouveau actuellement, ou certaines observations astronomiques. et troisième familles sont des répliques de la première, contenant des particules observées dans des réactions de plus haute énergie, naturelles (rayons cosmiques) ou artificielles (accélérateurs), dont les propriétés sont identiques à leurs sœurs de la première colonne, si ce n’est leur masse plus élevée. Figure 2 L’empreinte au sol du tunnel du LEP au Cern (on aperçoit au second plan le lac Léman et, en arrière-plan, le Mont-Blanc). Le tunnel lui-même est situé 100 m sous terre. Durant les trente dernières années, le Modèle standard a acquis une étonnante solidité par un va-et-vient incessant entre prédictions théoriques et résultats expérimentaux, impossibles à détailler ici, mais que le lecteur peut apprécier de façon concise (et très réductrice !) par ce chiffre : 12 prix Nobel pour la discipline depuis 1976! Le tableau 1 rassemble les particules élémentaires de matière connues. Il comporte trois colonnes, couramment appelées “familles” : la première famille comprend les particules qu’on trouve autour de nous : deux quarks (u et d), qui constituent les protons et les neutrons dans le noyau des atomes, un électron, et un neutrino dit “ électronique ”, pour exprimer sa parenté avec l’électron. Les deuxième Toute particule possède son antiparticule, de même masse, mais avec toutes les “ charges ” opposées ; par exemple le positon, antiparticule de l’électron, de charge électrique + e. Les différentes “lignes” du tableau décrivent simplement quelles particules sont soumises à quelle(s) interaction(s) fondamentales : les neutrinos ne connaissent que l’interaction faible, l’électron (et ses partenaires µ, τ) est soumis aux interactions faible et électromagnétique, cependant que les quarks ressentent les trois interactions faible, électromagnétique et forte. Comme on l’a vu, les interactions électromagnétiques et faibles sont considérées aujourd’hui comme deux aspects d’une même interaction électrofaible. Toutes les particules de ce tableau ont maintenant été observées expérimentalement. Mais la cohérence du modèle est telle que plusieurs d’entre elles avaient été prédites à partir de la théorie et de mesures indirectes, bien avant leur observation directe. Tableau 1 Les particules élémentaires de matière du Modèle standard et leurs interactions. Pour compléter le paysage, il faut ajouter deux remarques : • la présence de trois “ familles ” est absolument inexpliquée. Mais on sait qu’elle est à l’origine d’un phénomène très important d’asymétrie entre matière et antimatière ; • les neutrinos ont une masse très faible, si faible qu’on la supposait nulle. Des mesures récentes, hors accélérateur, ont démontré que ces masses sont certes faibles, mais différentes de zéro. Cela ouvre de nouvelles possibilités d’étude et de mise en cause du modèle, ainsi qu’un nouvel éclairage sur l’asymétrie matière antimatière. Comme je l’ai dit plus haut, le fameux “ boson de Higgs ” n’entre pas dans la liste des particules de matière, ni dans la liste des messagers des interactions fondamentales. C’est aussi à ce jour la seule particule du Modèle standard non observée, malgré les efforts des expérimentateurs. Le lecteur attentif de La Jaune et la Rouge se souvient peut-être de la polémique suscitée par l’arrêt de l’accélérateur LEP du Cern, en 2000, alors qu’une des quatre grandes expériences annonçait avoir vu les premières indications de l’existence d’un Higgs (figure 3). Depuis, la probabilité que ce “ signal ” soit en fait dû à du “ bruit de fond ” a été réévaluée à une valeur de 8 %, bien trop élevée pour prétendre une découverte (on exige en général une probabilité inférieure à 1 pour 10 000 pour prendre en considération une revendication de découverte). La recherche du Higgs reste donc le tout premier but des physiciens, et c’est essentiellement ce qui a justifié la construction du LHC. En effet ces calculs, et les simulations effectuées pour la conception des expériences au LHC, laissent penser que ces dernières pourront découvrir cette clé de voûte du modèle quelle que soit sa masse. Le LHC, installé au Cern dans le tunnel de 27 km, produira des collisions entre deux faisceaux de protons de chacun 7000 GeV d’énergie, soit 7 fois plus que l’accélérateur actuel du même type (Fermilab, USA), et avec des intensités de faisceau 100 fois supé- LA JAUNE ET LA ROUGE – AVRIL 200527 rieures. La conception de l’accélérateur et des expériences a nécessité des développements technologiques très importants : aimants supraconducteurs, détecteurs ultrarapides, électroniques rapides, puissantes et bon marché, traitement de quantités colossales de données. Tout le programme est actuellement en pleine construction, pour une mise en service prévue en 2007. Figure 3 Au-delà du Modèle standard Malgré son incroyable puissance prédictive pour le monde des particules, le Modèle standard est loin d’être satisfaisant. En premier lieu, parce qu’il contient encore beaucoup de paramètres inexpliqués. Les trois familles de chacune 4 particules, associées à 27 paramètres libres (dont toutes les masses des particules de matière), font quelque peu ressembler le Modèle standard à la table de Mendeleïev avant la découverte de la structure atomique. Par ailleurs, certains aspects techniques manquent de cohérence, en particulier en ce qui concerne la nature spéciale du Higgs. Enfin et surtout, nous commençons à aborder le domaine qui relie les particules élémentaires à l’univers dans son ensemble. Les mystères sont alors nombreux car nous n’avons pas encore aujourd’hui de théorie quantique de la gravitation. Les mesures cosmologiques nous indiquent qu’environ 70 % de la densité d’énergie de l’univers (son contenu, au sens le plus général du terme) sont sous une forme inconnue et incomprise, qui s’apparente à une constante cosmologique, énergie répulsive du vide qu’avait introduite Einstein pour tenter de rendre l’univers statique. Les tentatives d’explication de cette forme à partir de la physique du Modèle standard se heurtent à une incompatibilité numérique de plus de 100 ordres de grandeur, une indication très claire qu’un élément essentiel nous manque. Pour le reste, 26 % seraient constitués d’une matière de type encore inconnu, mais que l’on peut modéliser et comprendre dans des extensions assez naturelles du Modèle standard. 28AVRIL 2005 – LA JAUNE ET LA ROUGE Un des événements enregistrés par une expérience à LEP, et reconstruit par informatique. Les faisceaux d’électrons et de positons sont perpendiculaires à la figure et se croisent au centre du détecteur. Les traces colorées représentent les particules issues de la collision e+ - e-. De fait la confrontation microscopique/univers entier est rude : le Modèle standard dont nous sommes si fiers ne s’applique qu’à 4 % du contenu de l’univers ! ce-temps (en plus des 4 habituelles), accessibles dès l’énergie du LHC. On verrait ainsi des particules produites dans les collisions, disparaître dans une 5e ou 6e dimension ! Pour dépasser le Modèle standard, et résoudre tout ou partie de ces problèmes, plusieurs théories sont envisagées, basées sur des changements de principes physiques hardis, voire radicaux. La théorie la plus populaire chez les chercheurs, la supersymétrie, postule l’existence d’un monde de particules entièrement nouveau, reflet de nos particules connues. La plus légère d’entre elles pourrait constituer les 26% de matière “non conventionnelle ”. Conclusion Des expériences hors accélérateurs sont actuellement en cours pour rechercher directement cette “matière noire”, et pourraient dès les prochaines années tester l’hypothèse de la supersymétrie. Les accélérateurs de haute énergie actuels et futurs recherchent tout aussi activement des signes de cette nouvelle physique. Une autre possibilité, apparue récemment, évoque l’existence de dimensions supplémentaires de l’espa- La recherche de “ l’élémentaire ” est un sujet en pleine forme. L’approche du démarrage de LHC, les rapprochements avec la cosmologie, les nouvelles perspectives dans le domaine des neutrinos nous promettent une décennie riche de découvertes expérimentales et d’avancées intellectuelles. Si le but de cette recherche est avant tout l’accroissement des connaissances, les développements technologiques qui l’accompagnent (dont le plus retentissant est l’invention du Web au Cern) sont aussi un apport immédiat à la société. n LA PHYSIQUE AU XXIE SIÈCLE Évolution du climat : le témoignage des glaces polaires Jean Jouzel, directeur du Laboratoire des sciences du climat et de l’environnement (LSCE) Le Groupe intergouvernemental d’experts sur le changement climatique (GIEC, IPCC en anglais), créé en 1988 sous l’égide des Nations Unies, a publié en 2001 son troisième rapport, la publication du prochain étant prévue pour la fin de l’année 2007. Ces rapports du GIEC traitent à la fois des aspects scientifiques du changement climatique lié à l’augmentation de l’effet de serre, lui-même lié aux activités humaines, des conséquences de ce changement, et des mesures d’adaptation et d’atténuation à envisager. Ils jouent un rôle clé dans les propositions élaborées dans le cadre des réunions annuelles des pays signataires de la Convention cadre des Nations Unies sur le changement climatique dont, en 1997, la troisième a conduit à la signature du protocole de Kyoto qui ne constitue qu’une toute première étape vers la nécessaire maîtrise des émissions des gaz à effet de serre. Malgré le refus des États-Unis d’y adhérer, le protocole qui stipule que les pays développés doivent, sur la période 2008-2012, réduire leurs émissions de 5,2 % par rapport à leur niveau de 1990, va, grâce à la ratification récente de la Russie, entrer en vigueur en ce début d’année 2007. L est un système extrêmement complexe régi par de multiples interactions entre différents réservoirs (atmosphère et sa composition, océan, hydrosphère, cryosphère, biosphère…) et dans lequel intervient un très large spectre d’échelles de temps (de la journée au million d’années) et d’espace (échelle locale, régionale ou globale). Cette complexité explique que l’état de nos connaissances évolue lentement, tout au moins aux yeux du grand public, car nombreuses sont les avancées et les découvertes qui ont jalonné notre E CLIMAT domaine de recherches au cours des quinze dernières années. Ce sont elles qui nourrissent les rapports successifs du GIEC. Mon propos ici n’est pas d’en faire une synthèse mais d’illustrer, à travers l’exemple des résultats déduits de l’analyse des glaces polaires, comment un regard sur les variations passées de notre climat est riche d’informations pertinentes vis-à-vis de son évolution future. L’étude du climat du passé, domaine dans lequel les équipes françaises sont très actives, s’appuie en fait sur un ensemble d’archives continentales, océaniques et glaciaires dont il est facile de mettre en évidence la complémentarité que ce soit au niveau des échelles de temps ou des paramètres climatiques auxquelles elles donnent accès. Dans ce contexte, l’intérêt des glaces polaires est qu’elles témoignent à la fois des variations du climat et de celles de la composition de l’atmosphère, en particulier au niveau des principaux gaz à effet de serre dont les activités humaines sont en train de modifier les concentrations, le gaz carbonique, CO2, le méthane, CH4, et le protoxyde d’azote, N2O. Dans cet article, je rappellerai de façon succincte en quoi les glaces polaires nous permettent d’enrichir notre connaissance de l’évolution de notre climat et de notre envi- LA JAUNE ET LA ROUGE – AVRIL 200529 ronnement et, par là même, contribuent au débat sur le réchauffement climatique. Je consacrerai une seconde partie aux résultats récents obtenus sur les forages d’EPICA Dome C en Antarctique et de North GRIP au Groenland. Climat et gaz à effet de serre Rappelons tout d’abord que, depuis deux siècles, les activités humaines modifient de façon sensible la composition de l’atmosphère en CO2, essentiellement à cause de l’utilisation de combustibles fossiles, en CH4, à travers l’intensification de l’agriculture et de l’élevage, et en N2O, avec là aussi une contribution notable liée aux pratiques agricoles. Bien qu’il s’agisse là de constituants mineurs de l’atmosphère, de tels changements sont susceptibles de modifier le climat car ils conduisent à une modification de l’effet de serre atmosphérique. Alors que l’atmosphère est transparente au rayonnement qui arrive du soleil dans le visible, les gaz à effet de serre, où la vapeur d’eau et le gaz carbonique jouent les rôles principaux, ont la propriété d’absorber le rayonnement infrarouge réémis par le sol. L’évolution de la composition de l’atmosphère n’est suivie que depuis quelques décennies et c’est une première contribution des glaces polaires que de permettre, grâce à l’analyse des bulles d’air piégées lorsque la neige sous son propre poids se transforme en glace, une remontée dans le temps et de donner accès aux concentrations atmosphériques de ces trois composés avant le début de l’ère industrielle. Le verdict est sans appel : ces mesures montrent, qu’en deux siècles, celles-ci ont augmenté de plus de 30% pour le CO2, d’environ 15 % pour N2O et plus que doublé (+ 150%) dans le cas du méthane. D’autres composés contribuent à l’effet de serre tels l’ozone, les chlorofluorocarbones dont l’emploi s’est développé au cours des deux dernières décennies, et leurs produits de remplacement. L’effet de serre est en soi très bénéfique : il amène la tem- 30AVRIL 2005 – LA JAUNE ET LA ROUGE pérature moyenne de la surface de la terre à + 15 °C valeur beaucoup plus clémente que celle, estimée à - 18 °C, qui prévaudrait si ces gaz n’étaient pas présents dans l’atmosphère. Mais c’est son augmentation, largement imputable aux activités humaines, qui inquiète. Ces gaz à effet de serre ont, depuis deux cents ans, augmenté l’énergie moyenne utilisable pour chauffer les basses couches de l’atmosphère de 2,45 Wm-2 (celle-ci est voisine de 240 Wm -2). Cette augmentation est liée pour près de 60 % au gaz carbonique et pour environ 20 % au méthane. Les autres composés interviennent pour environ 20 % et on s’attend à ce que ce pourcentage diminue sensiblement grâce à l’application du protocole de Montréal qui réglemente la production des chlorofluorocarbones. À noter que ces chlorofluorocarbones interviennent dans la destruction de l’ozone stratosphérique et, à ce titre, diminuent légèrement l’effet de serre auquel celuici contribue. La concentration d’ozone troposphérique liée aux activités humaines s’est quant à elle accrue dans l’hémisphère Nord entraînant un forçage radiatif positif évalué à environ 0,4 Wm-2. Encore mal caractérisé, celui-ci n’est pas pris en compte dans le bilan ci-dessus. D’autres composés (hydrocarbures autres que le méthane, perfluorocarbone, hexafluorure de soufre…) ont une contribution marginale. L’outil des glaces polaires À l’échelle des derniers siècles et millénaires, les glaces polaires, à travers leur composition isotopique (isotopes de l’hydrogène et de l’oxygène), contribuent à mieux situer le réchauffement observé au cours du XXe siècle dans sa perspective historique, approche dont on comprend qu’elle est critique lorsqu’il s’agit de détecter l’empreinte des activités humaines sur le climat dont le dernier rapport du GIEC indique qu’elle est de plus en plus probable, au moins pour ce qui concerne le réchauffement très marqué des cinquante dernières années. À ces échelles de temps, il est également essentiel d’évaluer les compo- santes du forçage climatique autres que l’effet de serre, qu’elles soient d’origine naturelle (aérosols volcaniques, activité solaire) ou anthropique (aérosols produits par l’activité humaine). Les glaces polaires contiennent sur chacun de ces aspects des informations extrêmement utiles. Ainsi, elles enregistrent, de façon fidèle, le calendrier et l’intensité des éruptions volcaniques, cependant que la concentration des isotopes cosmogéniques y témoigne des variations de l’activité solaire. Mais les résultats qui ont fait probablement le plus pour la renommée des calottes polaires, qui font référence et sont très largement cités dans notre communauté scientifique mais aussi dans les manuels de l’enseignement secondaire, diagramme à l’appui, concernent les grands changements climatiques qui ont marqué les dernières centaines de milliers d’années. Obtenues à partir de la carotte de Vostok forée en plein cœur de l’Antarctique dans le cadre d’une collaboration à laquelle ont participé équipes françaises, russes et américaines, ces données indiquent que les variations atmosphériques du CO2 et du CH4 sont fortement corrélées aux oscillations caractérisant la succession des périodes glaciaires et interglaciaires. Ainsi, voisines de 200 ppm (parties par million) au dernier maximum glaciaire, il y a 20 000 ans, les concentrations en gaz carbonique étaient plus élevées de 40% en période chaude (280 ppm contre près de 380 actuellement) tandis que celles du méthane étaient deux fois plus élevées en période froide qu’en période chaude. Certes, le rythme d’apparition des périodes glaciaires, longues de 80 à 100000 ans et suivies de périodes chaudes telles que celle que nous vivons actuellement, plus courtes et n’excédant généralement pas 10000 ans, est gouverné par la position de la terre sur son orbite (théorie astronomique). Mais cette corrélation forte entre les variations passées de l’effet de serre et de la température indique que gaz carbonique et méthane ont également été des acteurs de ces grands changements climatiques. Ces variations de l’effet de serre, dans ce cas d’origine naturelle, ont contribué à peu près pour moitié à l’amplitude des variations climatiques et ce sur toute la durée de l’enregistrement qui remonte à - 420 000 ans, soit quatre cycles climatiques complets. En outre, ces résultats offrent la possibilité d’évaluer la façon dont le climat réagit lorsque l’effet de serre se modifie. Ils permettent d’estimer ce que, dans notre jargon, nous appelons la sensibilité du climat, le réchauffement qui résulterait d’un doublement de la teneur en gaz carbonique une fois le nouvel équilibre climatique atteint. L’estimation de 3 à 4 °C suggérée par les données de Vostok est dans la gamme de celle retenue par les rapports du GIEC, comprise, elle, entre 1,5 et 4,5 °C. Il faut noter que cette estimation du GIEC est basée uniquement sur des résultats de modèles climatiques qui, d’un modèle à l’autre, fournissent des estimations de la sensibilité climatique qui peuvent donc varier d’un facteur 3. Cela illustre l’intérêt d’une approche indépendante basée sur des données du passé. En outre, la période du dernier maximum glaciaire permet de tester les capacités des modèles climatiques utilisés pour prédire le climat du futur, à rendre compte de conditions climatiques très différentes de celles que nous connaissons actuellement. Surprises climatiques Les enregistrements déduits de l’analyse des glaces polaires ont largement été à l’origine de la notion de “ surprise climatique ”, qui doit beaucoup à la découverte de l’existence de variations climatiques rapides au cours de la dernière période glaciaire et de la transition qui a conduit il y a un peu plus de 10 000 ans au climat actuel. Elle est indissociablement liée à l’étude des glaces du Groenland. Évoquée à partir de l’analyse de la glace du forage Dye 3 (1982), l’existence de ces variations rapides était pleinement confirmée, dix ans plus tard, à partir des deux forages de plus de 3 km réalisés au centre du Groenland, l’un européen, GRIP, l’autre américain, GISP2, dont les enregistrements couvrent environ 100000 ans. Le réchauffement associé est de l’ordre de 10 °C, moitié de celui correspondant au passage du climat glaciaire vers le climat actuel, voire plus. Il s’opère en quelques dizaines d’années et les changements du taux de précipitation et de la circulation atmosphérique qui l’accompagne sont également importants et encore plus brusques. Le retour vers les conditions froides est d’abord lent puis relativement rapide. Ces séquences en “ dent de scie ” d’une durée de 500 à 2 000 ans se répètent une vingtaine de fois au cours de la dernière période glaciaire. Leur structure et les variations de températures associées apparaissent extrêmement similaires à celles associées à des événements rapides mis en évidence dans des sédiments marins de l’Atlantique Nord et à chacune d’entre elles correspond généralement une augmentation significative des teneurs en méthane. Celles-ci témoignent très probablement de variations du cycle hydrologique continental aux basses latitudes (la production du méthane est liée à l’étendue des zones inondées) et suggèrent que ces événements rapides ont influencé le climat de l’hémisphère Nord dans son ensemble. Leur influence s’étend à l’hémisphère Sud, où elles se manifestent par des changements moins rapides et moins marqués. De plus, l’analyse des sédiments marins montre qu’il y a un lien entre ces évènements et la décharge massive d’icebergs provenant des grandes calottes qui existaient alors dans l’hémisphère Nord. Cette arrivée d’énormes quantités d’eau douce aurait alors contribué à modifier la circulation océanique et par là même le climat, fournissant ainsi une explication raisonnable à l’existence d’instabilités climatiques en période glaciaire. L’existence de ces variations, très probablement liées à des changements de circulation océanique, a conduit les experts du GIEC à attirer l’attention sur la difficulté de prévoir, de par leur nature même, des fluctuations inattendues, rapides et de grande ampleur. Dans notre esprit, cette possibilité de surprise invite à réfléchir à la fragilité de notre climat et ajoute à la nécessité de maintenir l’augmentation de l’effet de serre à un niveau tel que le climat du futur soit le plus proche possible de celui que nous connaissons actuellement. De telles surprises seraient synonymes de véritable bouleversement climatique, même si une modification notable des courants marins comme le Gulf Stream, qui surviendrait alors en période plus chaude qu’actuellement, ne ramènerait pas bien sûr nos régions vers des conditions glaciaires (l’arrêt du Gulf Stream ne changerait pratiquement pas la température moyenne de la planète, mais affecterait sa répartition). Une profondeur de vision de près de 800 000 ans Avec GRIP et GISP2, et avec l’extension de Vostok à quatre cycles climatiques (résultats publiés en 1998), la dernière décennie a donc été très riche pour la communauté scientifique impliquée dans l’étude des glaces polaires. Mais l’année 2004 a, elle, été exceptionnelle en ce qu’elle a permis de repousser les limites sur lesquelles cette communauté butait depuis un certain nombre d’années aussi bien au Groenland qu’en Antarctique. Dans le premier cas, les enregistrements fiables n’allaient guère au-delà de 100 000 ans en raison des perturbations qui, dues à la proximité du socle rocheux, affectent les 300 derniers mètres des forages GRIP et GISP2. En Antarctique, la moisson des résultats extraits des carottages de Vostok est limitée aux 420000 dernières années, là aussi en raison du mélange des couches de glace les plus profondes. Deux nouveaux forages, North GRIP au Groenland et EPICA Dome C en Antarctique, ont permis de faire sauter ces verrous, d’obtenir au Groenland de la glace de la dernière période chaude, l’Eémien, il y a 120 000 ans, et de doubler, ou presque, la période désormais couverte par les carottes de glace en Antarctique (800000 ans). Les équipes françaises de Grenoble (LGGE), Saclay (LSCE) et Orsay (CSNSM) sont fortement impliquées dans ces deux programmes conduits respectivement dans le cadre du projet européen EPICA (European Project LA JAUNE ET LA ROUGE – AVRIL 200531 for Ice Coring in Antarctica) qui, au Dome C, bénéficie d’un important soutien logistique de l’Institut polaire Paul-Émile Victor (IPEV), et du projet international NGRIP (the North GReenland Ice core Project) mis sur pied et coordonné par l’équipe danoise du Département de géophysique de l’université de Copenhague. Les premiers résultats marquants obtenus sur ces deux carottages, qui l’un et l’autre ont dépassé 3 km, ont été présentés en 2004 dans deux articles collectifs publiés dans la revue Nature. Du point de vue climatique, le nouveau forage EPICA confirme l’homogénéité des variations de température en Antarctique, avec des changements tout à fait similaires à Vostok, au Dome C et au Dome F sur les parties communes de ces enregistrements (figure 1). Au-delà de 430 000 ans, le forage du Dome C est marqué par un changement de rythme avec des périodes moins chaudes mais plus longues que lors des quatre derniers cycles climatiques. L’interprétation du profil de teneur en deutérium confirme que les températures à la surface de la calotte étaient environ 10 °C plus froides qu’actuellement lors du dernier maximum glaciaire tandis que les températures les plus élevées (supérieures d’environ 5 °C à celles de l’Holocène) correspondent aux périodes interglaciaires les plus chaudes, autour de 125 000 et de 335 000 ans. La comparaison avec l’enregistrement de variation du niveau de la mer, déduit de l’analyse isotopique des sédiments marins, conforte par ailleurs le caractère global des changements climatiques enregistrés en Antarctique, tout au moins d’un point de vue qualitatif et lorsque l’on considère les grands changements entre périodes glaciaires et interglaciaires (et abstraction faite des déphasages interhémisphériques qui peuvent atteindre quelques milliers d’années). Autres périodes chaudes La période entre - 435000 et - 410000 ans a d’ores et déjà été étudiée avec un certain détail. En dehors du fait qu’elle marque la transition entre deux 32AVRIL 2005 – LA JAUNE ET LA ROUGE FIGURE 1 Trois forages profonds de l’Antarctique de l’Est (Vostok, Dome F et EPICA Dome C) couvrent des périodes supérieures à 300 000 ans. À ces échelles de temps, les variations climatiques sont remarquablement homogènes en Antarctique de l’Est. La mise en évidence d’une corrélation entre la température en Antarctique et les teneurs en gaz carbonique de l’atmosphère (courbe b), qui vaut également pour le méthane, est un des résultats marquants, fruit de la collaboration entre les équipes de Grenoble et de Saclay. Le forage EPICA Dome C témoigne d’un changement de rythme du climat il y a un peu plus de 400 000 ans. Ce changement de rythme, qui reste à expliquer, est également enregistré dans les sédiments marins (courbe e). régimes climatiques distincts, cette période présente un double intérêt. D’une part, de nombreux indicateurs suggèrent que l’interglaciaire correspondant appelé stade 11.3 était une période particulièrement chaude avec un niveau de la mer peut-être nettement plus élevé qu’aujourd’hui (certaines évaluations font état d’une hausse pouvant atteindre 20 m par rapport au niveau actuel). D’autre part, cet interglaciaire, très long dans les enregistrements marins, correspond à des conditions d’insolation relativement proches de celles que nous connaissons actuellement. De plus les mesures disponibles sur la carotte de Vostok et du Dome C suggèrent que les teneurs en CO2 sont restées équivalentes à celles de l’Holocène (la période dans laquelle nos civilisations se sont développées depuis un peu plus de 10 000 ans). Les températures en Antarctique apparaissent, elles aussi, très similaires à celles de l’Holocène pendant les 10000 premières années du stade 11.3. Il en est de même pour les teneurs en méthane dont l’augmentation débute cependant 4 à 5 milliers d’années avant celle du gaz carbonique, contrairement à la dernière déglaciation et, plus généralement, aux quatre dernières, au cours desquelles gaz carbonique et méthane varient pratiquement en phase. La durée exceptionnellement longue du stade 11.3 est confirmée par le forage EPICA Dome C ; elle est estimée à 28 000 ans ce qui laisse entrevoir que, sans intervention des activités humaines, des conditions climatiques proches de celles que nous connaissons actuellement pourraient prévaloir pendant près de 20000 ans, d’autant que les conditions de forçage climatique (insolation et gaz à effet de serre) semblent identiques pour ces deux périodes. Même s’ils sont perturbés avant 100 000 ans, les profils isotopiques analysés le long des forages GRIP et North GRIP suggéraient que la période de l’Eémien était, comme indiqué par de nombreux enregistrements (océaniques, continentaux ou glaciaires), plus chaude que l’Holocène. Il n’en reste pas moins que la démonstration désormais apportée de cette différence de température entre le dernier interglaciaire et l’Holocène, estimée à 5 °C au Groenland, est un des résultats importants du forage North GRIP (figure 2). Mais c’est en fait l’accès désormais possible à tout un ensemble de données à très haute résolution lors de l’entrée en glaciation qui en constitue le résultat majeur (la période entre - 123 000 et - 110 000 ans est représentée par 130 m de glace). Cette séquence a déjà révélé des similitudes notables avec un enregistrement océanique obtenu sur un forage réalisé sur la marge ibérique à hauteur du Portugal. Plus surprenant est le fait qu’à North GRIP l’entrée en glaciation est interrompue, vers 115 000 ans, par un réchauffement rapide et bien marqué car il est alors difficile de faire appel au même mécanisme de débâcle d’icebergs ou d’arrivée d’eau douce pour en expliquer l’existence, les grandes calottes de l’hémisphère Nord (calottes Laurentide et Fenno-scandienne) n’étant alors qu’au tout début de leur formation. Une estimation de l’amplitude du réchauffement associé à chacun des événements rapides est en cours. La méthode s’appuie sur l’existence d’anomalies dans les rapports isotopiques de l’azote et de l’argon qui résultent des processus de fractionnements, thermique et gravitationnel, qui prennent place dans le névé entre la surface de la calotte et la profondeur à laquelle les bulles d’air sont définitivement piégées dans la glace. Cette méthode montre que les réchauffements associés aux événements rapides peuvent atteindre des valeurs très élevées jusqu’à 16 °C. Au-delà du million d’années La réalisation de programmes de forages profonds tels ceux conduits au Dome C et North GRIP a demandé près d’une dizaine d’années entre le lancement du projet et l’obtention des premières séries de résultats qui en marquent le succès. Consciente de ces contraintes, la communauté inter- FIGURE 2 La figure (c), adaptée de North GRIP members, 2004, illustre la comparaison entre les forages de GRIP, en bleu, et de North GRIP en rouge. Au-delà de 100 000 ans, environ, les couches de glace de GRIP sont mélangées et ce forage ne peut pas être utilisé pour reconstruire les variations du climat. À l’inverse la partie profonde de North GRIP n’a pas été perturbée et permet de décrire l’entrée en glaciation il y a 120 000 ans. La courbe (a) montre la partie profonde de North GRIP. Celle-ci permet de décrire l’entrée en glaciation de façon détaillée et de mettre en évidence des similarités avec les variations climatiques enregistrées dans des sédiments marins de l’Atlantique Nord (courbe b). nationale concernée a d’ores et déjà commencé à établir des plans pour les années à venir avec comme objectifs prioritaires de remonter si possible au-delà du million d’années en Antarctique de l’Est et d’extraire une carotte qui couvre l’ensemble du dernier interglaciaire et atteigne l’avantdernière période glaciaire au Groenland. L’année polaire internationale, qui débutera en 2007, devrait en marquer le point de départ avec, d’une part, une reconnaissance de régions encore peu explorées de l’Antarctique de l’Est qui permette de sélectionner celles susceptibles de recéler la glace très vieille, et, de l’autre, le début de réalisation d’un nouveau forage au Groenland en un site très prometteur déjà sélectionné au nord de North GRIP. Mais, il reste d’ici là énormément à faire pour extraire l’ensemble des informations que recèlent ces deux carottages profonds du Dome C et de North GRIP dont nous avons décrit les premiers résultats et à les interpréter en termes de mécanismes climatiques. Comment explique-t-on le changement de rythme observé il y a un peu plus de 400 000 ans en Antarctique avec, et c’est là une des découvertes les plus marquantes du forage EPICA, des périodes chaudes moins chaudes mais aussi nettement plus longues avant 430 000 ans ? Quel est le rôle précis des gaz à effet de serre et que peut-on en déduire pour des paramètres tels que la sensibilité du climat ? Quels sont les mécanismes mis en jeu lors d’une entrée en glaciation ? n LA JAUNE ET LA ROUGE – AVRIL 200533 LA PHYSIQUE AU XXIE SIÈCLE Les tours de passe-passe des topoisomérases Gilles Charvin, Kerr Neuman, David Bensimon et Vincent Croquette, Laboratoire de physique statistique, École normale supérieure*, Terence Strick, Institut Jacques Monod, Université Paris VII** Nous avons tous assisté à ces tours de “ magie ” où deux cordes formant deux anneaux joints se séparent subitement entre les mains expertes qui les manipulent. Depuis longtemps, les biologistes ont observé que des enzymes, les topoisomérases, réalisent ce numéro d’illusionniste sur les molécules d’ADN de nos chromosomes. L’enjeu est de taille. Lorsqu’au sein de nos cellules la double hélice “ mère ” est recopiée, les deux molécules “ filles ” qui en résultent s’entortillent l’une autour de l’autre dans un formidable paquet de nœuds. Sans ces topoisomérases, la séparation de ces deux molécules “ filles ” est impossible et la cellule meurt au lieu de se diviser normalement. Pour enlever ces nœuds, les topoisomérases coupent une molécule d’ADN en deux tout en maintenant les deux extrémités, puis font passer une autre molécule d’ADN à travers cette brèche. Finalement, elles recollent parfaitement la molécule coupée. En utilisant une bille magnétique micrométrique attachée à deux molécules d’ADN, il est maintenant possible d’observer ce tour de passe-passe moléculaire en temps réel. C’est ce que nous proposons de décrire ici. Le contexte biologique Il y a cinquante ans, Crick et Watson décrivaient la structure de la double hélice et faisaient remarquer que l’existence des deux brins complémentaires permettait de proposer un mécanisme de réplication de la molécule dans lequel il suffisait de séparer les deux brins et de recopier chacun en formant son complémentaire pour obtenir enfin deux molécules d’ADN filles rigoureusement identiques à la molécule parente. Cette intuition devint une réalité dans les années 1970-1980 lorsque les enzymes chargées du reco- 34AVRIL 2005 – LA JAUNE ET LA ROUGE piage, les polymérases, ainsi que celles chargées de séparer les brins complémentaires, les hélicases, furent identifiées puis isolées. La structure de la double hélice implique que les deux brins d’ADN complémentaires s’entortillent l’un autour de l’autre. Par ailleurs, les molécules d’ADN sont très longues (~10 cm pour un chromosome) et l’on compte un tour d’hélice tous les 3,4 nanomètres. En conséquence, le nombre de tours impliqué est gigantesque. Or, le bon fonctionnement du mécanisme de duplication de l’ADN implique que tous les tours, jusqu’au dernier, soient débobinés afin de pouvoir séparer les deux molécules filles. Afin d’accommoder cette contrainte majeure et très délicate, on imaginait simplement que les molécules tournaient au niveau de leurs extrémités. De plus, la complexité de ce problème s’est encore accrue dans le cas des bactéries : dans ces organismes, l’ADN adopte la forme d’un anneau fermé par des liaisons chimiques covalentes. En conséquence, les deux brins de la double hélice sont topologiquement inséparables. Dix ans après la découverte de Crick et Watson, ce problème a même poussé certains à dire que la double hélice n’était probablement pas la bonne structure ! C’est James Wang qui dans les années soixante-dix apporta la solution à l’énigme [1]. Il découvrit une nouvelle classe d’enzyme, les topoisomérases, qui sont capables de changer la topologie de la molécule d’ADN en effectuant une coupure temporaire dans la molécule pour y faire passer soit un brin, soit les deux brins de la double hélice. Ce faisant, ces enzymes permettent de relâcher les contraintes de torsion sur une molécule ou de désenchevêtrer deux molécules entortillées. Figure 1 Comment ces enzymes déterminentelles de quel côté de la brèche il faut transférer une molécule afin de défaire un nœud et non pas, au contraire, en créer de nouveaux ? Les réponses à ces questions nous manquent encore à l’heure actuelle. Certains de nos résultats suggèrent que ces enzymes reconnaissent l’angle formé par les molécules lors de leur croisement. En particulier, un type de topoisomérase que l’on trouve chez les bactéries se comporte très différemment selon l’angle de croisement des molécules Cependant, les vérifications expérimentales de ces hypothèses sont particulièrement délicates à réaliser dans des expériences faites en tube à essai. En effet, dans ce contexte, comme les molécules d’ADN sont soumises au mouvement brownien, l’angle qu’elles adoptent lors de leur croisement est largement aléatoire. petite molécule (de la biotine par exemple) qui possède une affinité très importante pour une molécule plus grosse qui en épouse la forme (de la streptavidine dans le cas de la biotine). La molécule d’ADN est préparée en attachant chimiquement la biotine à une extrémité. Les billes magnétiques sont recouvertes de streptavidine. En plaçant les molécules d’ADN ainsi préparées en présence des billes en solution, celles-ci se couplent spontanément aux billes de façon quasi irréversible. L’accrochage de la seconde extrémité de la molécule se fait par un deuxième jeu clef-serrure (digoxigénine-antidigoxigénine). Comme l’accrochage des billes aux molécules d’ADN se fait par diffusion, rien n’empêche deux ou plusieurs molécules d’ADN de relier la bille à la surface Figure 2 Schéma simplifié décrivant le mécanisme moléculaire d’action des topoisomérases de type II. L’enzyme correspond à l’objet symétrique noir avec une partie mobile jaune ou noire. Dans la configuration initiale (1), l’enzyme s’ouvre pour accommoder une première molécule d’ADN (segment G bleu) puis une seconde (segment T rouge). Une fois les deux molécules en place, l’enzyme accroche deux molécules d’ATP et coupe le segment G (gate : porte en anglais) qui laisse alors passer le segment T (transporté) au travers de cette brèche. La topoisomérase recolle alors la molécule bleue avant de relâcher les deux molécules. Le bilan global de cette réaction enzymatique est ainsi d’inverser le sens du croisement des molécules bleu et rouge. (Ce schéma proposé par J. Wang n’est pas complètement garanti, et est par ailleurs un peu simplifié par rapport au modèle ayant cours.) La découverte des topoisomérases a permis de résoudre le problème des nœuds dans les molécules d’ADN. Cependant, leur fonctionnement a soulevé d’autres questions : comment des enzymes mesurant quelques nanomètres peuvent-elles relâcher jusqu’au dernier tour d’entortillement des molécules qui s’étendent sur des distances jusqu’à un million de fois plus grandes? Néanmoins, depuis quelques années, des expériences peuvent être réalisées à l’échelle d’une seule molécule. Ces expériences permettent de contrôler les paramètres physiques d’une molécule et d’imposer, comme nous le décrivons ci-dessous, l’angle de croisement entre deux molécules. La micromanipulation par pinces magnétiques Ce sont les groupes de S. Chu et C. Bustamante qui ont réalisé les premières expériences de micromanipulation de molécules uniques [2]. Celles-ci se font à l’aide d’un microscope optique et dans le milieu naturel de la molécule d’ADN, c’est-à-dire de l’eau avec un peu de sel. Dans ces conditions, l’observation directe de la molécule est impossible. Par contre, en utilisant un “ scotch moléculaire ” il est assez facile d’attacher une bille de quelques microns à une extrémité de la molécule et de visualiser ainsi ses mouvements. Mieux, on peut attacher de façon analogue la seconde extrémité de la molécule à la paroi du récipient. En exerçant une force sur la bille, on peut ainsi étirer la molécule d’ADN. Le “ scotch moléculaire ” est un couple de molécules de type “ clef-serrure ” : la clef est une Principe de l’expérience de micromanipulation. L’observation se fait à l’aide d’un microscope optique placé sous l’échantillon. Bien que les molécules d’ADN soient invisibles, les billes permettent de matérialiser leurs extrémités. L’échantillon est constitué par un tube de verre de section parallélépipédique dans lequel nous avons introduit des molécules d’ADN qui s’accrochent à la paroi du tube de verre et à des microbilles magnétiques. Des aimants (dont les dimensions ne sont pas respectées sur ce schéma) sont placés audessus de l’échantillon, ils exercent une force de traction verticale d’autant plus grande que les aimants sont proches. En faisant tourner les aimants autour de l’axe vertical, nous faisons tourner les billes sur elles-mêmes. Dans l’échantillon, toutes les billes ne sont pas forcément attachées par deux molécules mais celles qui le sont présentent un changement d’extension décelable lorsque les deux molécules sont amenées à se croiser (voir figure 3). Il est ainsi facile de choisir les billes attachées par deux molécules. LA JAUNE ET LA ROUGE – AVRIL 200535 du récipient. En pratique, nous ajustons la concentration relative des molécules aux billes pour que la plupart de celles-ci soient reliées par une seule molécule d’ADN. (Les billes qui ne sont attachées à aucune molécule sont éliminées par rinçage.) Cependant, statistiquement un petit nombre de billes se trouvent être attachées par deux molécules d’ADN, cette configuration va nous permettre de croiser à volonté deux molécules. Au cours de leur mouvement brownien, les molécules d’eau bousculent l’ADN dans tous les sens et tendent à lui faire adopter la forme d’une pelote fluctuante. Il faut donc appliquer une force pour étirer la molécule ; ceci se fait en agissant sur la bille micrométrique qui localise une extrémité de la molécule. Il existe plusieurs moyens pour appliquer cette force. D’abord, les pinces optiques, qui utilisent un faisceau laser convergeant qui attire la bille près de son point de focalisation. Ensuite, les pinces magnétiques, basées sur l’utilisation d’aimants qui attirent la bille contenant un matériau magnétique. Cette seconde méthode permet également de faire tourner la bille simplement en faisant tourner les aimants. Dans le cas des pinces magnétiques, pour une position donnée des aimants par rapport à la bille, la force appliquée est constante dans le domaine que peut explorer la bille. Pour déterminer cette force, il suffit de mesurer l’ampleur du mouvement brownien de la bille. Pour les faibles forces ces mouvements sont importants ; plus on rapproche les aimants, plus la force de traction augmente et plus l’ampleur du mouvement brownien diminue. La bille attachée à la molécule d’ADN sous l’action des aimants se comporte comme un pendule inversé, la force magnétique la tirant vers le haut. En appliquant le théorème de l’équipartition, on montre que F = l.kBT/<x2> [3] (où l est l’extension de la molécule, < x2 > est l’amplitude quadratique moyenne du mouvement brownien, kB la constante de Boltzmann et T la température absolue). La force typique qu’il faut appliquer pour éti- 36AVRIL 2005 – LA JAUNE ET LA ROUGE rer une molécule d’ADN est de l’ordre de 1 pN (10 -12 N), mille fois plus faible que la force de rupture de l’ADN (~1 000 pN). Pour mesurer le mouvement brownien, nous avons écrit un programme de traitement d’images vidéo qui suit la position horizontale de la bille en temps réel, avec une précision de quelques nanomètres. En analysant les motifs de diffraction de l’image de la bille obtenue en éclairage parallèle, il est également possible d’obtenir la position verticale de la bille avec une précision comparable. Cette mesure nous permet ainsi de déterminer la distance séparant la bille de la paroi du récipient. Le vrillage d’une balançoire Il est assez facile de sélectionner les billes ancrées à la paroi par deux molécules : ces molécules sont typiquement séparées par une distance comparable au rayon de la bille. En faisant tourner celle-ci d’un demi-tour dans un sens ou dans l’autre, les deux molécules sont amenées à se croiser. Si la longueur des molécules est comparable au diamètre de la bille, il se produit alors un raccourcissement notable de la distance séparant la bille à la paroi, comme on peut l’observer en faisant vriller une balançoire autour de son axe. Cette variation rapide d’extension sur un tour n’est visible que sur des billes accrochées par deux Figure 3 - Tours de passe-passe moléculaire Principe d’action de la topoisomérase sur le croisement de deux molécules d’ADN. En faisant effectuer un tour à la bille avec les aimants, nous pouvons passer d’une situation où les molécules ne présentent pas de croisement (droite) à celle où elles se croisent (gauche). La topoisomérase reconnaît alors le croisement, et en opérant l’action décrite dans la figure 1, l’enzyme dénoue le croisement et ramène les deux molécules dans la situation sans croisement (droite). Dès lors, la contrainte étant relâchée, l’enzyme ne peut plus agir. Le changement de hauteur entre les deux configurations permet de déterminer le moment où l’action de l’enzyme s’effectue. Par ailleurs, dans l’hypothèse où les points d’attache des molécules sont séparés par des distances équivalentes, le changement relatif de hauteur entre les deux configurations est égal à (1 – cosθ/2) où θ est l’angle de croisement des deux molécules. Si nous ajoutons maintenant des topoisomérases dans la solution avec un peu d’ATP (la source d’énergie nécessaire à la plupart des opérations enzymatiques), il ne se passe rien si les deux molécules sont parallèles. Par contre, si nous créons un point de croisement en imprimant un tour à la bille, l’extension de la molécule diminue pour les raisons décrites ci-dessus. Alors, une topoisomérase va s’accrocher au croisement et le supprimer, permettant à l’extension de reprendre sa valeur maximale de départ. On peut alors imprimer un nouveau tour à la bille générant un nouveau croisement que l’enzyme va s’empresser de dénouer, etc. Chaque événement correspond à un seul cycle enzymatique d’autant plus facile à détecter que le changement d’extension correspond à une fraction de micron comme on peut le voir sur la figure 4. Figure 4 Signal expérimental permettant de voir l’action de la topoisomérase : le graphique représente la distance entre la bille et la paroi de verre. Lorsque celle-ci atteint la valeur de 3.45 microns, les deux molécules sont parallèles. Quand les molécules se croisent la distance se réduit à 2.75 microns. En présence de topoisomérases dans la solution on n’observe aucun changement de longueur lorsque les molécules sont parallèles. Par contre chaque fois que l’on fait faire un tour aux aimants, dans un premier temps, la bille se rapproche de la paroi. Au moment où l’enzyme dénoue le croisement, on observe une remontée brutale de l’extension. Sur cet enregistrement, nous avons répété l’opération trois fois, à chaque fois l’enzyme a agi, cependant elle l’a fait après un temps très variable. Le temps mis par l’enzyme pour libérer le croisement après sa formation correspond au temps de diffusion de l’enzyme pour trouver le point de croisement et au temps de fixation sur ce croisement. Il dépend évidemment de la concentration d’enzyme ; mais d’un cycle au suivant ce temps est une variable aléatoire présentant une distribution statistique de Poisson avec un temps caractéristique τ. Pour une concentration enzymatique de l’ordre du nano-molaire, τ est typiquement de quelques secondes. Si nous tournons la bille de plusieurs tours rapidement, après un temps d’attente, une enzyme déjà sur place enchaîne une série de cycles avec une cadence de 2 ou 3 à la seconde [5]. Figure 5 Les topoisomérases reconnaissent l’angle de croisement des molécules Symétrie angulaire impliquée dans le croisement de deux molécules d’ADN. La situation correspondant à l’angle - θ (au centre) est différente de la situation θ (à gauche), en effet ces deux configurations découlent de la symétrie miroir (c’est une situation chirale), par contre la situation correspondant à l’angle - θ (au centre) est équivalente à π - θ (à droite). Notons que pour θ = 90 les différentes configurations sont identiques. molécules. Ces billes nous fournissent un moyen simple de croiser deux molécules avec un angle donné que nous évaluons en mesurant le raccourcissement provoqué par un demitour comparé à la longueur des molécules d’ADN dans leur configuration parallèle. Évidemment, pour une longueur donnée de la molécule d’ADN, cet angle dépend de la distance séparant les deux molécules que nous ne contrôlons pas. Cependant en allant à la pêche aux billes, on peut réaliser un échantillonnage de différents angles de croisement s’étalant de 50° à plus de 100° [4]. Comme illustré en figure 5, le point de croisement de deux molécules chirales d’ADN formant un angle θ n’est pas le symétrique de la configuration correspondant à l’angle -θ. Par contre, les situations - θ et π - θ sont, elles, symétriques [6]. Dans notre expérience, en tournant la bille d’un demitour dans le sens des aiguilles d’une montre nous obtenons un angle de croisement θ, en tournant dans l’autre sens, nous obtenons -θ. En employant la rotation des aimants pour générer le substrat topologique (c’est-à-dire l’angle) voulu, il est aisé de mesurer le temps mis par la topoisomérase IV pour dénouer le croisement correspondant à θ et -θ. La valeur de l’angle θ est déterminée à partir du changement de hauteur de la bille et de la longueur des molécules. Pour les petits angles de croisement (correspondant à des billes dont la hauteur change peu en passant de la configuration molécules parallèles à molécules croisées), nous observons que le temps d’action moyen de la topoisomérase IV est vingt fois plus long pour la configuration à 50° que celle correspondant à - 50°. Pour les billes qui présentent une variation de hauteur importante, l’angle de croisement approche 90° et peut même dépasser cette valeur. Or comme nous l’avons expliqué la situation de croisement à 90° est identique à celle de croisement à - 90°. Ainsi nos expériences montrent que pour un angle de θ = + 76° ou - 76° les temps moyens d’action ne diffèrent que de 10 %. LA JAUNE ET LA ROUGE – AVRIL 200537 Puisque les molécules d’ADN sont animées de fluctuations browniennes importantes, leur angle de croisement présente en fait une distribution et la valeur de l’angle de croisement dont nous avons parlé est en fait la valeur moyenne. La largeur de cette distribution dépend de la force de traction appliquée aux molécules. Si la force est très grande, les molécules sont quasiment rectilignes et la distribution des angles est étroite ; aux faibles forces c’est l’inverse. Dans notre expérience, nous observons bien que la sélectivité angulaire est renforcée avec la force appliquée sur la bille. La topoisomérase IV est très habile lors de son tour de passe-passe moléculaire, jamais nous ne l’avons surprise à lâcher les brins coupés avant de les recoller (la bille se retrouverait alors accrochée par une seule molécule). Un tel accident serait dramatique au sein de nos chromosomes : il conduirait à une cassure double brin qui peut certes être réparée par des mécanismes cellulaires adaptés mais avec un taux d’échec très gênant. Conclusion Nous avons développé des techniques de micromanipulation de molécules uniques. Ces techniques nous ont permis de mettre en évidence les mécanismes précis qu’utilisent certaines enzymes pour déplier et réduire les tensions dans les molécules d’ADN. Ainsi il nous reste encore à comprendre comment ces machines de taille nanométrique dénouent fidèlement des molécules mille fois plus grandes qu’elles. n * 24, rue Lhomond, 75231 Paris cedex 05. ** 2, place Jussieu, 75251 Paris cedex 05. Références [1] Wang J.-C. Interaction between DNA and an Escherichia coli protein omega. J Mol Biol. 1971 Feb 14 ; 55 (3) : 523-33. [2] Smith S. B., Finzi L., Bustamante C. Direct mechanical measurements of the elasticity of single DNA molecules by using magnetic beads. Science. 1992 Nov 13 ; 258 (5085) : 1122-6. [3] The elasticity of a single supercoiled DNA molecule T. Strick, J.-F. Allemand, D. Bensimon, A. Bensimon, V. Croquette, Science (1996) 271-5257 p. 1835. [4] Charvin G., Bensimon D., Croquette V. Singlemolecule study of DNA unlinking by eukaryotic and prokaryotic type-II topoisomerases. Proc Natl Acad Sci USA. 2003, Aug 19 ; 100 (17) : 9820-5. [5] Stone M. D., Bryant Z., Crisona N. J., Smith S.B., Vologodskii A., Bustamante C., Cozzarelli N. R. Chirality sensing by Escherichia coli topoisomerase IV and the mechanism of type II topoisomerases. Proc Natl Acad Sci USA. 2003, Jul 22 ; 100 (15) : 8654-9. [6] Timsit Y., Duplantier B., Jannink G., Sikorav J.-L. Symmetry and chirality in topoisomerase II-DNA crossover recognition. J Mol Biol. 1998, Dec 18 ; 284 (5) : 1289-99. Remerciements Il s’agit d’un sujet de recherche très actif actuellement et plusieurs groupes de recherche ont obtenu des résultats remarquables sur les moteurs moléculaires, les polymérases, les hélicases, etc. Ces résultats viennent naturellement compléter ceux obtenus en tube à essai. Ils démontrent, s’il était nécessaire, que ces enzymes sont de magnifiques machines capables de travailler avec une remarquable précision dans un environnement agité par le mouvement brownien. Les topoisomérases sont pour le moins des enzymes extraordinaires du fait qu’en bien des points elles surpassent ce que nous savons faire à l’échelle macroscopique. 38AVRIL 2005 – LA JAUNE ET LA ROUGE Les expériences décrites ici n’auraient pas été possible sans l’aide de J.-F. ALLEMAND, O. SALEH, H. YOKOTA, T. LIONNET, M. DUGUET et le support financier de l’ENS, du CNRS, des universités Paris VI et VII, de la CEE et de l’ARC. LIBRES PROPOS Les polytechniciens et le développement de la physique Jean-Claude Toledano (60), président du Département de physique de l’X E n cette année 2005, “ année mondiale de la physique ”, il est utile de rappeler la place des polytechniciens dans le développement des différentes branches de cette discipline. Un tel rappel paraît superflu en ce qui concerne les plus célèbres d’entre eux. Ainsi, la paternité de Carnot (1812) dans les fondements de la thermodynamique est-elle universellement reconnue. Le célèbre chimiste Gay-Lussac (1797) a eu une contribution importante à ce même domaine avec la démonstration expérimentale du fait que l’énergie interne d’un gaz dilué ne dépend que de sa température. Très connue également, la découverte en 1896 de la radioactivité par Henri Becquerel (1872), découverte qui marque la naissance de la physique nucléaire puisque ce phénomène révèle la désintégration de l’uranium. Elle marque également le début de la physique des particules avec les composantes alpha, bêta, et gamma de la radioactivité que Becquerel lui-même identifiera partiellement. Enfin, la réputation de Poisson (1798) et de Poincaré (1871) s’étend à de nombreux domaines scientifiques en raison de leurs contributions majeures aux mathématiques et à la physique mathématique. La place essentielle des polytechniciens dans le développement de l’optique au dix-neuvième siècle est moins souvent citée, de même que leur contribution aux fondements de la cristallographie ou leurs travaux précurseurs sur les cristaux liquides. À partir des années 1950, on retrouve des contributions de première importance des X à la physique des solides, à la physique des particules et à la physique théorique. Les X ont eu un rôle déterminant pour asseoir la théorie ondulatoire de l’optique. Cela est à mettre d’abord au crédit de Fresnel (1804) qui, après une série d’expériences sur la diffraction de la lumière, puis sur sa propagation dans des cristaux biréfringents, décrit la lumière comme une onde possédant une périodicité spatiale et temporelle, vibrant transversalement et dont la propagation découle, conformément à des idées de Huygens ignorées depuis cent cinquante ans, de l’émission et de l’interférence d’ondelettes. Cette clarification est préparée ou complétée par d’autres polytechniciens. Ainsi, dès 1808 Malus (1794) montre que la polarisation lumineuse est une propriété de la lumière même qu’il est possible d’obtenir par réflexion sur une substance quelconque. Arago (1803) établit avec Fresnel la transversalité de la vibration lumineuse en montrant que deux faisceaux polarisés perpendiculairement n’interfèrent pas. Il découvre aussi que certaines substances ont le pouvoir de produire une rotation du plan de polarisation. Biot (1794), qui est également connu pour ses travaux sur les forces magnétiques induites par les courants, affine l’analyse du pouvoir rotatoire et en déduit une méthode d’analyse des solutions dotées de ce pouvoir. Les résultats de Babinet (1810) sur la diffraction, ceux de Sénarmont (1826) relatifs aux propriétés optiques de minéraux ou encore les “compensateurs optiques ”, imaginés par ces deux scientifiques pour produire une polarisation elliptique sont toujours utilisés par les physiciens actuels. Cornu (1860) aborde le domaine nouveau de la spectroscopie optique des atomes dont on sait que les résultats conduiront à l’élaboration de la théorie quantique. Il détermine, beaucoup plus complètement que ses prédécesseurs, la “ série de Balmer ” de l’atome d’hydrogène, et clarifie le phénomène d’inversion des spectres (dû au fait que les atomes sont susceptibles d’absorber les longueurs d’onde qu’ils émettent). Il est le premier à observer la décomposition d’une raie spectrale en un nombre pair de composantes sous l’effet d’un champ magnétique. Cet effet “Zeeman anormal” sera interprété cinquante ans plus tard comme provenant de l’existence du spin de l’électron. Enfin, il faut encore citer Fabry (1885) et Pérot (1882) dont les noms sont réunis dans l’invention d’un interféromètre à miroirs parallèles qui par sa stabilité et son pouvoir de résolution a permis nombre de découvertes en spectroscopie et en astrophysique. Ce sont les propriétés de cet interféromètre qui, alliées à l’existence d’une amplification de la lumière par les atomes du milieu actif d’un laser, déterminent la finesse spectrale et la directivité spatiale remarquables de cet émetteur de lumière, inventé en 1960, aux usages actuels multiples. La cristallographie, science de la configuration géométrique des atomes dans les cristaux, doit un certain nombre de ses fondements aux polytechniciens. LA JAUNE ET LA ROUGE – AVRIL 2005 39 Bravais (1828), poursuivant des travaux français de la fin du dix-huitième siècle, établit le répertoire complet des symétries de translation et d’orientation des cristaux et montre qu’un cristal est un empilement de plans “moléculaires” équidistants, résultat qui sera utile au vingtième siècle pour interpréter la diffraction des rayons X. Il amorce aussi l’étude systématique des cristaux de minéraux. L’implication des X dans l’exploitation des mines fera qu’il sera suivi, en cela, par d’autres polytechniciens. On y retrouvera des travaux de Sénarmont, et on y trouvera ceux d’Antoine Becquerel (1806) sur la piézoélectricité des minéraux, ceux de Mallard (1851) et surtout de Georges Friedel (1887) qui systématise définitivement la description des macles, assemblages complexes de cristaux. On peut considérer que cet intérêt pour la configuration atomique des cristaux se prolonge après 1945 dans les contributions de Jacques Friedel (1942) et de Kléman (1954) à la physique des dislocations, autres types de défauts des cristaux, responsables de la malléabilité et de la ductilité des métaux. Georges Friedel est encore l’auteur d’un travail précurseur qui aura un brillant avenir dans la physique et la technologie. Il décrit les états “ nématique ” et “ smectique ” des cristaux liquides, états de la matière ayant des configurations atomiques intermédiaires entre celles d’un solide et d’un liquide. Le foisonnement de découvertes de phases “ molles ” depuis trente ans, leur classification, et l’utilisation de certaines d’entre elles pour la fabrication d’écrans “ plats ” ont leur racine dans ce travail. Plusieurs X, dont Michel (1943), Durand (1954) et Kléman, ont contribué à ces travaux récents. La géométrie des assemblages d’atomes n’est pas le seul ingrédient nécessaire pour comprendre les propriétés des corps solides. Il faut surtout recourir aux théories quantique et statistique. De ce point de vue, la loi de Dulong (1801) et Petit (1807) sur l’universalité de la valeur de la chaleur spécifique des métaux a une place particulière. Elle a eu un intérêt à la fois pour les inventeurs de la thermodynamique statistique de la fin du dixneuvième siècle, parce qu’ils ont pu l’interpréter dans le cadre de la “ statistique classique ”, et pour les initiateurs de la 40 AVRIL 2005 – LA JAUNE ET LA ROUGE théorie quantique des corps solides, car les écarts à cette loi observés à basse température ont conduit Einstein puis Debye à la théorie quantique des vibrations des atomes dans les cristaux. Un autre volet de la théorie quantique des solides, développé après 1950, est celui des caractéristiques des électrons dans les métaux qui sous-tendent aussi bien les propriétés mécaniques et électriques des métaux et des alliages que leurs propriétés magnétiques. Ces propriétés sont tributaires d’effets compliqués liés aux interactions entre les électrons et à la présence d’impuretés chargées électriquement. Dans les progrès de ce domaine, où un phénomène physique important porte son nom, Jacques Friedel a joué un rôle central. La résonance magnétique nucléaire, qui analyse les états de spin des électrons, est un moyen puissant d’étude des solides. Solomon (1949) y a établi l’une des équations de base du domaine et a initié l’étude des états de spin des solides semi-conducteurs, solides dont on connaît l’importance considérable qu’ils ont prise dans les recherches des physiciens puis dans l’activité industrielle. Ces substances permettent, en particulier, la fabrication des lasers qui sont à la base des télécommunications optiques ou des lecteurs de CD et de DVD. Bernard (1948) et Duraffourg (1952) ont, les premiers, formulé les conditions théoriques d’obtention de l’émission de ce type de lasers. Le rôle majeur du Centre européen de Recherches nucléaires dans le développement de la physique des particules est bien connu. Des X, regroupés autour de Leprince-Ringuet (1920), ont eu une place importante dans la création et l’animation de cet organisme, notamment Grégory (1938), Peyrou (1936) et Lagarrigue (1945). On doit à ce dernier la grande chambre à bulles Gargamelle qui a permis, en particulier, la mise en évidence, au CERN, des “courants neutres”, première preuve expérimentale de la validité de la théorie unifiée “ électro-faible ” qui a valu un prix Nobel à ses auteurs. Auparavant, l’étude des rayons cosmiques avait conduit Leprince-Ringuet et Lhéritier (1936) à l’observation de la première particule “ étrange ”, le méson-K. Fondateur du centre de physique théorique de l’X, Michel a donné en 1949 la première analyse générale de la désintégration du lepton µ, dont il a montré qu’elle était caractérisée par un seul paramètre, qui est aujourd’hui associé à son nom. Après la découverte de la violation de la parité, il a complété cette analyse avec Bouchiat (1953). Dans la même période, un centre de physique qui acquerra un grand renom se fonde au Commissariat à l’Énergie atomique autour de Messiah (1940), de Horowitz (1941), de Bloch (1942) et de Trocheris (1942). Il générera des contributions majeures aux voies nouvelles des théories quantique et statistique, et à leur application à la physique nucléaire et à la physique des réacteurs nucléaires, à la physique des particules, et à celle de la matière condensée. En font partie, notamment, Froissart (1953), de Dominicis (1948), Itzykson (1957) ou Brézin (1958) qui contribue de façon importante à la mise au point de l’outil théorique permettant d’expliquer le problème ancien et difficile de l’existence des changements de phases de la matière. Un autre résultat théorique spectaculaire est la prédiction par Balian (1952) de l’existence de la “phase B superfluide” dans l’isotope de masse atomique 3 de l’hélium, phase dont l’observation expérimentale ultérieure donnera lieu à l’attribution d’un prix Nobel. Dans les promotions de polytechniciens des années 1960-1980 nombre d’X s’engagent dans la recherche en physique soit par le biais de la “ botte recherche ” soit dans le cadre de leur carrière dans les Grands Corps. Ils contribueront sur les plans expérimental ou théorique, souvent avec des résultats de grande valeur, au développement de tous les domaines de la physique. Ainsi, le département de physique de l’X, qui a toujours renouvelé ses enseignants en recrutant les meilleurs physiciens des jeunes générations, compte actuellement près de 30% d’anciens élèves de l’École polytechnique. La mise en avant par “ l’année mondiale de la physique ” de cette discipline importante à la fois pour le progrès de la connaissance et pour ses applications industrielles nombreuses aura certainement pour effet de susciter de nouvelles vocations de physiciens parmi les jeunes polytechniciens. ■ LIBRES PROPOS Courrier des lecteurs À propos de l’article “ L’image du plateau ” par Georges Waternaux (41), n° 600, décembre 2004, page 32. Jacques MANTOUX (41) On peut remercier l’équipe de La Jaune et la Rouge d’avoir choisi la rubrique “ Libres propos ” pour accueillir les réflexions de Georges Waternaux sur le Créateur et sa nature : nature de Cause Première, selon Waternaux. Ce n’est sûrement pas contrevenir à l’esprit de cette rubrique que de proposer une vue différente sur ce sujet. Bien que l’édifice de la métaphysique soit immense, et ses travaux innombrables, une réflexion de plus, dans son jardin, n’est sans doute pas à écarter, même si certains risquent d’y voir une pierre. Comme d’autres avant lui, Waternaux pose la notion de Cause Première en tête de son exposé. “ Je pense Cause Première, donc je suis… ” Le reste en découle : – “ Le Créateur soutient la création ” (ici, la langue est complice : qui donc irait s’étonner que la création ait eu un Créateur ?), – “ Dieu est Cause Première ” – la formulation, retournée, serait même plus explicite : “ La Cause Première est Dieu ” (et personne d’autre), – “ En fait, il n’est nulle part. Il est en dehors de l’espace et du temps.” – “ Sa relation avec cette Création est à la fois transcendante et immanente. ” Il est à remarquer que le point de vue ci-dessus relève d’une culture clairement chrétienne : la Bible est nommée du reste deux fois, et citée une troisième (Apocalypse). Est-ce là l’alpha et l’oméga de la vision de toute l’humanité ? Ce serait oblitérer la pensée de peut-être les deux tiers de l’humanité : le milliard des Indiens, celui des Chinois, sans compter les disciples de Çakyamuni, ceux de Zoroastre (les très actifs Parsis de l’Inde), les adeptes du Shinto, bien d’autres encore (je passe les musulmans, qui sont encore enfants de la Bible, à leur façon). Sans oublier les agnostiques et les athées : pour ceux-ci, à coup sûr rien de révélé, rien qui se puisse dire hors des contenus de l’espace et du temps. Je pense qu’il y a là un élément difficilement contournable de prise de recul, vis-à-vis des “ Libres propos ” de Georges Waternaux. Ceux-ci sont de l’expression d’une croyance ; à ce titre, tout respect leur est dû. Mais de là à oblitérer d’autres croyances, il y aura toujours un pas. n À propos de l’article “ L’École polytechnique et ses élèves prisonniers de guerre (1940-1945) ” par Robert Garabiol (38), n° 601, janvier 2005, page 34. Paul GADILHE (38) J’ai séjourné de la mi-1942 au 17 avril 1945 à l’Oflag XVIIA à Edelbach en Autriche. Nous étions une vingtaine de camarades de la promotion 1938. Nous avons entendu parler des tentatives de libération et avons reçu les cours envoyés par l’École. Mais je peux ajouter deux commentaires sur ces sujets. Nous avons eu connaissance d’un projet de libération avec le titre plus ou moins fictif d’ingénieurs des Ponts et Chaussées, et à ce titre je reçus des cours de l’École d’application de cette spécialité. Un beau jour nous fûmes informés que si l’opération réussissait nous serions affectés à l’Organisation TODT (qui assurait tous les travaux de génie civil de la Wehrmacht). Avec toute la courtoisie qu’imposait la situation à cette époque nous fîmes savoir à notre informateur qu’il convenait de mettre fin à cette recherche, et nous n’entendîmes plus parler de ce projet. Par contre je n’avais pas connaissance du projet de nous regrouper dans un ou deux camps avec de potentiels professeurs, mais la même idée nous est venue et nous avons eu la chance d’avoir dans notre camp un agrégé de mathématiques, dont j’ai malheureusement oublié le nom, qui a aussitôt accepté de réaliser ce projet. Cette décision ayant été prise pendant l’été 1944, la rentrée des classes fut fixée en septembre ou octobre. Pendant un mois tout se passa exactement comme si nous étions rue Descartes ! Hélas nous avions oublié une variable importante de notre problème. Notre alimentation, à peu près convenable, était assurée pour une moitié par l’armée allemande et pour l’autre moitié par des colis que nous adressaient nos familles et quelques bonnes œuvres. Or le débarquement du 6 juin et la rapide avancée des armées de libération avaient coupé le réseau de chemins de fer qui assurait la moitié de notre magnan. Les premiers jours nous fîmes contre mauvaise fortune bon cœur, mais à la fin du mois il parut évident que nos petits cerveaux ne disposaient plus de l’énergie nécessaire pour suivre nos cours, et ce d’autant plus que notre professeur bienfaiteur était atteint de la même paralysie. Cette expérience eut une suite positive. Le 17 avril 1945 nos gardiens ayant entendu le canon russe à l’est de notre camp décidèrent de partir avec nous vers l’Ouest. L’aventure se termina le 7 mai à Orléans, et nous apprîmes peu après le programme des examens de fin de deuxième année préparé par l’École à notre intention. Je suppose que plusieurs camarades se fixèrent le même programme que moi : après un tour de France rapide pour retrouver toute ma famille, trouver un point de repos tranquille réservé à ma reconstitution physique (en un mois je récupérais 10 kilos sur les 20 que j’avais perdus au cours de l’année précédente), et enfin affecter les deux derniers mois à une chiade intensive telle que je l’avais pratiquée pour préparer les examgés de la fin de la première année. P.-S. Garabiol indique que le nombre de prisonniers à la fin de la guerre s’élevait à 55. J’avais retenu un chiffre nettement supérieur (85 ?). Serait-il possible de vérifier ce point par exemple en retrouvant les listes d’expédition des cours aux prisonniers, ou mieux en consultant les documents d’organisation des examens de sortie et ceux de classement dans les différents Corps de l’État. n LA JAUNE ET LA ROUGE – AVRIL 200541 TÉLÉCOMMUNICATIONS Les télécommunications et le XXIe siècle : une révolution en marche Didier Lombard (62), président-directeur général de France Télécom Les technologies de l’information et de la communication ont pénétré tous les domaines de notre vie professionnelle et privée : nos métiers, nos loisirs, la maison, l’éducation, nos relations avec les services publics, nos activités culturelles… Nos enfants passent leurs soirées sur leur messagerie instantanée ; nous sommes connectés à nos bureaux vingt-quatre heures sur vingtquatre grâce à nos mobiles et autres PDA communicants 1 ; 17 % des billets de train français sont réservés aujourd’hui par voie électronique et ce taux pourrait atteindre 40 % en 2008 ; le commerce électronique prend chaque jour une part croissante dans les échanges commerciaux. O à des mutations technologiques incessantes et de plus en plus rapides. Les services et les usages se multiplient. D’un monoservice, le téléphone, on est passé à une foison d’usages à partir d’un même réseau. Qui aurait pu penser, il y a encore très peu de temps, que la télévision passerait par le réseau téléphonique ? Les mobiles et l’Internet sont maintenant les outils de communication au quotidien pour un nombre sans cesse croissant de nos concitoyens. Fin 2003 sont apparues les offres “ triple play ” combinant l’accès à Internet haut-débit, la téléphonie et les accès à des contenus audiovisuels, et les premières offres de téléphonie sur IP 2. L’évolution des techN ASSISTE niques des réseaux pousse à la convergence des usages qui rencontre les attentes des clients. Le mouvement n’est pas près de s’arrêter, les plus grands changements sont à l’évidence devant nous. Nous sommes à l’aube d’une révolution. En Europe, et singulièrement en France, le secteur des télécommunications n’obéit pas pleinement aux règles communes de l’économie industrielle. Contrairement à la plupart des autres marchés ou industries gouvernées par l’offre et la demande, le secteur repose sur un jeu singulier impliquant non pas deux mais trois acteurs : les professionnels des télécommunications, les clients et les pouvoirs publics, État et régulateurs. Ainsi, acteur clé des grandes mutations, la réglementation a joué un rôle essentiel et continue de façonner le paysage des télécommunications en fonction des choix politiques du moment : ouvrir à la concurrence pour développer le marché, offrir davantage de services, faire baisser les prix, gérer des ressources rares, garantir un service universel, soutenir la politique industrielle, financer une politique publique… LA JAUNE ET LA ROUGE – AVRIL 2005 43 Pour dresser le panorama des télécommunications de ce début de XXIe siècle et comprendre la révolution en marche, il nous faut nous arrêter un instant sur ses quatre principaux ingrédients : la régulation – ses forces et ses faiblesses –, les évolutions économiques depuis les années quatre-vingt-dix, l’incidence des évolutions technologiques sur la stratégie des acteurs, et les évolutions des modes d’utilisation des moyens de communication. Leur combinaison dessine le paysage de demain. Leur complexité et leur enchevêtrement augurent des perspectives certes bouillonnantes mais parfois difficiles qui s’annoncent. Les évolutions réglementaires La justification donnée à la réglementation résulte de principes économiques simples : pour développer le marché et offrir des services au meilleur prix pour le citoyen, il faut permettre à de nouveaux acteurs d’entrer sur le marché sachant que préexiste un opérateur historique. La réglementation consiste à poser des règles asymétriques en soumettant l’opérateur historique à des contraintes fortes : gestion du service universel, accès de son réseau aux autres opérateurs, contrôle a priori de sa politique tarifaire, séparation des activités… Les règles sont censées s’assouplir dès que la concurrence devient effective. À ce moment, le terme de régulation semble plus adapté aux objectifs que s’assigne la réglementation. Il s’agit de s’assurer que le marché fonctionne bien, d’en corriger les imperfections. La régulation sectorielle est appelée à s’effacer au profit du droit concurrentiel à mesure que les conditions concurrentielles deviennent satisfaisantes. Chaque étape du passage des monopoles de fait ou légaux vers la concurrence a reçu son nom de baptême. Le mouvement est parti des États-Unis. On l’a nommé “ déréglementation ” pour qualifier le passage du monopole de fait à la concurrence et la modification des règles existantes. Dans les années quatre-vingt, AT&T, 44 AVRIL 2005 – LA JAUNE ET LA ROUGE opérateur totalement intégré issu de Bell System, jouissait d’un monopole de fait sur les communications et la fabrication des équipements ; AT & T était accusé d’abus de position dominante. C’est une décision de justice, du juge Greene favorable à un programme général de libéralisation et en opposition à l’organe fédéral de réglementation, la FCC, qui en 1984 a conduit au démantèlement d’AT&T en 23 sociétés (une société gérant les communications longue distance et 22 RBOC (Regional Bell Operator Company) restreintes à l’exploitation des réseaux locaux, très réglementées et bénéficiant d’un monopole local). En contrepartie AT & T était autorisé à intervenir dans le secteur de l’informatique. En 1996, le “Telecommunications Act ” instaure un nouvel état réglementaire. Les RBOC sont autorisées à intervenir sur la longue distance si leur marché local est effectivement ouvert à la concurrence. L’appréciation de cette concurrence est basée sur une liste de quatorze conditions à satisfaire ! AT & T, vingt ans après son démantèlement, est entré dans le secteur des mobiles puis du câble, s’est ensuite débarrassé de ses nouvelles activités pour se retrouver sur le seul segment de la longue distance en voie de disparition. AT & T, tout comme MCI opérateur de longue distance, sont en train d’être absorbés par d’autres acteurs des télécommunications américains, eux-mêmes issus de la consolidation des RBOC. Avec la crise du secteur en 2000, les pouvoirs publics américains ont été amenés à constater l’impact négatif des effets réglementaires sur l’investissement et l’emploi. Les mécanismes mis en place avaient favorisé des entrées inefficaces, tout en mettant en grande difficulté l’opérateur historique. Malgré des avantages consentis aux nouveaux entrants, certains n’ont pas réussi à être viables. De plus, demander à certains acteurs de prendre seuls des risques d’investissement et d’en partager ensuite les bénéfices éventuels, provoque inéluctablement des situations de blocage. Les investissements américains sur la fibre optique ont pu démarrer quand le régulateur a donné aux leaders du marché une visibilité sur leurs revenus futurs. En Europe, c’est le Royaume-Uni qui a été le premier pays à s’emparer du même dogme réglementaire, en instaurant en 1984 un duopole. La Commission européenne a élaboré d’égale manière un mécanisme d’ouverture à la concurrence favorisant le partage du marché entre les acteurs et adapté à la situation locale, qui s’est avéré analogue aux doctrines américaine et britannique. Le cadre réglementaire européen, et français, a construit des contraintes spécifiques pour les opérateurs historiques, appliquées avec plus ou moins de dureté par les autorités de régulation nationale. Le cas le plus notoire a été celui de British Telecom qui a licencié massivement et a dû renoncer à être un acteur majeur dans les mobiles. La réglementation joue un rôle fondamental dans l’économie des télécommunications. Aujourd’hui, à la lumière des enseignements récents, notamment américain et britannique, elle sait faire preuve de plus de pragmatisme, en prenant en compte l’intérêt du consommateur et en privilégiant la bonne santé du secteur. Ses objectifs doivent permettre de stimuler les opérateurs y compris les leaders en favorisant leurs investissements, leur recherche et leur innovation pour qu’in fine le consommateur en tire davantage profit. La France, qui a déjà montré lors de l’attribution des licences UMTS qu’elle pouvait adopter des mesures plus raisonnables que d’autres pays européens, est largement engagée sur une voie bénéfique pour le secteur des télécommunications, ses acteurs et ses clients. Les grandes évolutions économiques du secteur depuis les années quatre-vingt-dix, la crise 2000-2002 L’ouverture à la concurrence et les anticipations irraisonnées dans le potentiel d’Internet ont conduit jus- Les États sont pris dans l’euphorie ambiante. Dans leur rôle de collecteurs d’impôts, ils y voient une manne substantielle. L’attribution des licences de téléphonie mobile de la 3e génération (UMTS) est pour eux l’opportunité d’organiser des ponctions. Alors qu’il a fallu douze ans pour organiser au niveau européen le développement des 45 réseaux GSM, la Commission européenne poussée par les industriels décide qu’au moins 50 réseaux UMTS doivent être ouverts à partir du 1 er janvier 2002. Chaque État membre est responsable de la détermination du mécanisme d’attribution du spectre et de la définition des conditions d’octroi des licences applicables sur leur territoire. Le Royaume-Uni vend les fréquences aux enchères puis l’Allemagne. La France finit par adopter la procédure de sélection comparative, moins onéreuse pour les opérateurs. Au total 112 milliards d’euros en Europe sont prélevés ainsi sur les bénéfices futurs. C’est la première taxe de l’histoire qui s’appuie sur un produit futur, non encore connu. Les opérateurs devront de plus faire face à des coûts au moins comparables pour le déploiement de © PIERRE-FRANÇOIS GROSJEAN - FRANCE TÉLÉCOM qu’en 2000 à une inflation exubérante des valeurs technologiques. La foi dans le rôle moteur que pouvaient jouer les nouvelles technologies de l’information et de la communication dans l’économie, soutenue par les potentialités techniques du Web, a fait naître une myriade d’acteurs de l’Internet. C’est le temps de la Net économie au service de la nouvelle économie dont la vertu est d’assurer la croissance sans reprise de l’inflation grâce à la dérégulation des services, la baisse des coûts dans l’industrie et les investissements dans les NTIC. L’argent devient facile, les valeurs mobilières grimpent à des niveaux jamais atteints. Les investissements suivent ; tous les regards se tournent vers les rentes dont serait porteur ce nouveau cycle économique. On n’achète plus une activité mais des abonnés potentiels. Les valeurs boursières sont gagées par ces rentes et galopent vers des sommets vertigineux. Pylône avec antenne GSM, au Chazelet. nouveaux réseaux et pour la commercialisation de nouveaux services de 3e génération. Le secteur est donc confronté à des dépenses initiales très élevées. Les opérateurs s’endettent, des fusions et rachats d’entreprises s’opèrent, la plupart par échanges de monnaie de papier. Gare à ceux qui sont obligés de sortir du cash! La confiance s’érode, l’argent se raréfie, la rentabilité immédiate est maintenant réclamée. Et tous les facteurs qui ont joué à la hausse se mettent à jouer à la baisse dans des proportions aussi fortes. L’éclatement de la bulle spéculative provoque un désastre économique. Les bénéfices attendus de la 3e génération n’arrivent pas aussi vite qu’ils étaient attendus, les opérateurs rationalisent leurs investissements ; les commandes industrielles diminuent. Les entreprises, qui cèdent des actifs après les avoir chèrement acquis, le font à des valeurs dérisoires. L’ampleur de la crise a été très forte sur le secteur aujourd’hui encore en convalescence. 250 000 emplois ont LA JAUNE ET LA ROUGE – AVRIL 2005 45 été perdus en Europe après l’éclatement de la bulle technologique. Les constructeurs ont particulièrement été touchés ; les opérateurs, certes endettés, disposent de revenus plus récurrents et sont en passe de revenir à des situations financières saines, aussi vite que la réglementation le leur permet. À côté de ces phénomènes essentiellement conjoncturels se déroule une mutation structurelle : l’offre et la demande dans le secteur des télécommunications sont en profonde restructuration. Les évolutions technologiques suscitent de nouvelles stratégies Le développement de la capacité des réseaux conduit à la croissance très significative des usages et à de substantielles baisses de prix. On entre dans l’ère des communications abondantes, rendue possible par la capacité quasi illimitée des réseaux d’interconnexion (backbone) : le nombre de réseaux de fibres optiques est partout important, et les systèmes de transmission offrent des capacités de plus en plus grandes. Tous les différents types d’accès voient également leurs possibilités s’accroître avec l’UMTS, l’ADSL puis le VDSL, Wi-Fi, Wi-Max… Les performances de tous les terminaux fixes et mobiles continuent de s’accroître. Ils vont pouvoir à la fois stocker de grandes quantités d’information (données, plans, images animées, sons, programmes) et traiter localement des applications lourdes avec des systèmes d’exploitation résidents. Tous les individus et entreprises seront connectés aux réseaux. Les accès au haut-débit se généralisent, la pénétration des mobiles continue d’augmenter. Tous les accès seront progressivement multimédias après le déploiement des réseaux mobiles UMTS, de l’équipement en xDSL du réseau filaire ou de la numérisation des réseaux câblés. Chaque réseau pourra transporter de la voix, des données, de l’image. Et, alors que les 46 AVRIL 2005 – LA JAUNE ET LA ROUGE communications téléphoniques étaient très majoritairement véhiculées de bout en bout par un seul réseau, les nouveaux modes de communications feront appel à des chaînes complexes de réseaux ou éléments de réseaux divers, qui coopéreront ensemble pour délivrer le service au client. La très forte pénétration des équipements numériques chez les particuliers et dans les entreprises va conduire à la mise en réseau des processus d’accès à l’information, de production et de commerce : de nombreuses activités de la vie quotidienne seront conduites sur les réseaux, ou assistées par des services fournis par les réseaux. Les entreprises s’interconnecteront avec leurs clients et leurs partenaires. Le monde de la production et des échanges en sera progressivement transformé. Ces tendances modifient le jeu des acteurs. La convergence informatiquetélécommunications-audiovisuel présente à la fois dans les réseaux et les services accentue la diversité et la multiplication des acteurs, issus des trois mondes, et suscite de nouvelles stratégies d’entreprises, de spécialisation, de diversification, d’intégration : qui offre des accès, qui offre les services d’intermédiation, qui offre les services ? Faut-il intervenir sur une, ou plusieurs des trois strates, pour proposer au client une offre groupée, par exemple une offre d’accès et une offre de services ? À l’intérieur de chaque strate faut-il se spécialiser par exemple sur tout ou partie des accès, ce qui permet de répliquer sur des secteurs voisins les compétences-clés de l’entreprise ? De multiples tentatives d’intégration, horizontale ou verticale, de multiples formes de partenariats sont tentées, pour permettre l’assemblage d’offres complexes, ou pour exploiter les actifs propres des différentes entreprises : réseaux d’accès, marques, droit des contenus, savoir-faire métiers… D’autres stratégies se centrent sur la gamme des services permettant ou facilitant la mise en réseau des processus d’entreprises : hébergement de sites, distributions d’informations, hébergement d’applications, offre de progiciels en réseau. Le business model peut aller de la prestation du type intégration de réseaux ou de systèmes, traditionnellement pratiqué par les SSII, jusqu’à la fourniture de services clés en main incluant les prestations d’hébergement et le transport, par exemple. Le secteur est déjà le siège de grandes tensions qui résultent de l’effacement des frontières entre les trois couches (accès, mise en réseau, services) que permet la technologie, et des déplacements que cherchent à mettre en œuvre les acteurs pour améliorer leur croissance ou leur rentabilité. En arrière-plan se déroule la bataille des normes logicielles qui conditionnent l’interopérabilité des systèmes par le déploiement de systèmes d’information ouverts. Mettre les outils de communication au service du client La diversification des pratiques de communication liée aux nouveaux modes de vie génère des échanges quasi permanents et plus riches (photos, images, vidéo, messagerie…). La population se connecte également pour assurer sa sécurité (assistance santé, anti-intrusion, services de proximité, assistance à domicile). La communication s’étend de la mise en relation de personnes à la connexion à des sites, à des connexions machine à machine ; elle englobe la voix, les données de téléaction, données de contenu, échanges d’images. Le multiéquipement domestique (plusieurs micro-ordinateurs, téléviseurs, téléphones filaires ou mobiles) se généralise ; l’installation domestique devient complexe. L’accès vers les réseaux externes doit être organisé pour offrir le maximum de gain, de temps et de confort. Jusqu’ici, le fixe, le mobile, l’Internet avaient chacun leurs réseaux, leurs plateformes, leurs forces de vente, leurs factures. Ces métiers ne se parlaient pas beaucoup entre eux et c’était aux clients de s’arranger pour combiner ces offres au mieux de leurs besoins. Avec la généralisation du protocole Internet, avec les services mobiles toujours plus nombreux et utiles, l’intelligence omniprésente dans le réseau et la démocratisation d’Internet, les clients vont pouvoir être joints partout, sur le terminal de leur choix, à travers la meilleure infrastructure possible, en toute transparence pour eux. Simplification d’usage, qualité de service, gain de temps et confort d’utilisation sont les demandes fondamentales des clients. La complexité liée à la technique, à la multiplicité des fonctionnalités et à la diversité des services n’a pas à être gérée par le client. Les clients seront en quelque sorte le cœur de leur propre réseau de télécommunications. Cet univers de communication intégré est indépen- dant du réseau qu’ils empruntent. Les clients attendent des services unifiés et totalement intégrés qui soient simples à utiliser malgré leur complexité intrinsèque, comme le carnet unique d’adresses ou la messagerie unique quel que soit le terminal pour y accéder, ou bien encore des solutions de paiement simples et sécurisées. En quelque sorte, les technologies se mettent au service du client, au lieu que le client soit contraint de se former aux nouveaux outils. Toutes ces évolutions s’appuient sur une très forte capacité de recherche et d’innovation et sur les synergies de tous les acteurs : opérateurs, constructeurs, fournisseurs de services, SSII, fournisseurs de contenus, d’accès… Ceux qui miseront sur la R & D, qui apporteront toute la simplicité attendue par le client, qui sauront gérer toute la complexité du réseau et inventeront de nouveaux usages, seront les grands gagnants de la révolution en marche. Le développement de ces nouveaux services permettra de passer d’un univers fragmenté à un univers centré sur le client. Cela nécessite de décloisonner les réseaux pour simplifier et harmoniser l’usage des services destinés à la maison, aux besoins de communication personnels et à ceux des entreprises. En même temps devra être assurée une vraie coopération des réseaux fixe, mobile, Internet au bénéfice des utilisateurs. Les attentes des clients, notamment en matière d’interfonctionnement des services et d’offres de services convergents obligent les fournisseurs de contenus ou de services à décliner leurs offres pour de multiples canaux. Cette révolution va transformer la vie de nos concitoyens et le paysage industriel français. Cette lutte industrielle et commerciale n’est pas qu’un affrontement entre grands et petits professionnels du secteur du téléphone en France, c’est aussi le combat entre acteurs majeurs mondiaux des télécoms, de l’informatique, de l’audiovisuel, de l’électronique grand public. Le marché français des technologies de l’information et de la communication par son taux de croissance annuel estimé à près de 8% 3 jusqu’en 2007, et sa capacité à donner les moyens à tous les secteurs d’activité d’améliorer leur compétitivité, tire fortement l’économie vers le haut. Il est crucial que l’Europe et la France mettent tout en œuvre pour garder leur place dans l’économie mondiale et profitent des formidables mutations en cours dans ce secteur pour y acquérir une place de choix. ■ Vers un nouveau modèle économique de l’opérateur, basé sur l’innovation Le métier de l’opérateur est en train de se transformer, d’un métier de fournisseur d’infrastructure, où l’on investit massivement sur un produit unique qu’on amortit sur quinze ans, en un métier de services où la croissance vient d’un renouvellement continu d’innovations et de la multiplication de services toujours nouveaux. Chaque innovation donnera un avantage compétitif temporaire à son initiateur, lui permettant d’accroître son chiffre d’affaires et sa marge, jusqu’à ce qu’il soit rattrapé par ses compétiteurs. L’opérateur sera alors amené à lancer une nouvelle innovation qui dopera à nouveau revenu et profit. L’opérateur gagnant sera celui qui saura innover sans relâche, en réussissant plus souvent que les autres. 1. PDA : Personal Digital Assistant, ordinateur de poche. 2. IP : Internet Protocol, protocole de base utilisé sur Internet pour la transmission des données. Il définit la façon d’organiser les paquets d’information pour pouvoir les transmettre sur le Web. 3. Chiffre de l’observatoire des TIC, ce marché recouvre les équipements et services de télécommunications, informatique, électronique grand public et contenus (TV, radio, cinéma, presse, jeux et logiciels de loisir, musique). LA JAUNE ET LA ROUGE – AVRIL 2005 47 TÉLÉCOMMUNICATIONS La mutation des réseaux Jean-Philippe Vanot (72), directeur exécutif Réseaux, Opérateurs et Système d’information, France Télécom Une mutation d’une ampleur et d’une rapidité sans précédent Les grands réseaux de télécommunications ont de tout temps été le siège d’évolutions majeures dont une partie importante tient à leur aptitude à capter l’innovation technologique, qu’elles proviennent des techniques de codage, des techniques de transmission de l’information ou de l’informatique. L’histoire montre que cette prise en compte de l’innovation s’est rarement déroulée sans controverse et que bien souvent l’arrivée des nouvelles technologies a donné lieu à des affrontements passionnés. On se souvient encore de l’irruption du numérique au cœur des réseaux avec l’arrivée de la commande par programme enregistré, puis de la commutation temporelle avec la numérisation des signaux de parole qui a supplanté la commutation crossbar, de la transmission SDH puis de la transmission optique, de la signalisation par paquet CCITT n° 7 qui remplaça la signalisation analogique par codes multifréquences…, etc. L’ampleur et la vitesse des bouleversements technologiques d’aujourd’hui autorisent à parler de véritable mutation (au sens génétique 48AVRIL 2005 – LA JAUNE ET LA ROUGE du terme) des réseaux, même si certains pourraient à juste titre faire remarquer que ce qui se produit n’est que l’achèvement du processus de généralisation du numérique sur toute la chaîne, du client jusqu’aux applications et aux contenus et l’arrivée de l’abondance en termes de débit, au moins pour ce qui concerne les parties fixes du réseau. La ligne d’abonné, dernier goulot d’étranglement (le transport et la signalisation au cœur des réseaux ont commencé leur mutation avant), est aujourd’hui l’objet d’une véritable révolution en ce qui concerne les débits, y compris sur la partie cuivre. La barrière des débits étant franchie, le réseau étend ses fonctions jusque chez le client donnant sens à la conception d’un opérateur de services intégrés fixes, mobiles et Internet. D’autres transformations aussi profondes sont à l’œuvre au cœur des réseaux puisque le remplacement programmé du réseau téléphonique commuté par une infrastructure réseau multimédia et haut-débit est à portée de vue. Tout bouge, des réseaux de collecte à technologie Giga Éthernet et ATM jusqu’aux réseaux dorsaux IP, des plates-formes de services jusqu’aux protocoles de commande convergents fixe et mobile… Toutes ces transformations affectent fortement les “ Business Model ” des réseaux de télécommunications. Le transport de la voix en paquets IP, par exemple, qui provoque une chute de valeur sans précédent du transport brut de la voix sur les réseaux fixes. La demande fondamentale des clients est d’avoir un accès global, homogène et simple à leurs moyens de communication. France Télécom s’organise en conséquence, en opérateur intégré capable de fournir de façon homogène les services fixes, mobiles et Internet. Réseau haut-débit et système d’information évoluent de concert afin de rendre tangible cette nouvelle vision de l’opérateur. Un goulot d’étranglement qui disparaît : le haut-débit sur la ligne d’abonné La ligne d’abonné Goulot d’étranglement traditionnel en termes de débit et de richesse des informations de commande réseau que l’on pouvait y véhiculer, la ligne d’abonné, qu’elle soit fixe ou mobile, vit une véritable révolution. Dans un premier temps, avec les améliorations des techniques de transmission de données (avec un modem situé dans le PC du client et un autre situé dans le réseau que l’on atteint en établissant une communication circuit), il a été possible par des techniques analogiques d’obtenir des débits de l’ordre de quelques dizaines de kbit/s. Ensuite, le RNIS (Réseau numérique à intégration de services) avait réalisé la première numérisation de la ligne d’abonné à des débits de 2 fois 64 kbit/s symétriques (canaux de transport d’informations appelés canaux B) voire 30 fois 64 kbit/s pour les entreprises. À ces canaux B s’ajoutait le canal D utilisé pour la signalisation entre le client et le réseau ou entre clients à un débit de 16 kbit/s ou de 64 kbit/s. Ces débits à l’accès se sont révélés rapidement insuffisants et les techniques de multiplexage de circuits qui étaient utilisées ont rapidement fait apparaître leur manque de souplesse : toute offre de débit devait être construite avec des débits multiples de 64 kbit/s et les besoins de transmission sporadique de données étaient assez mal satisfaits par la commutation de circuits qui alloue des débits permanents aux sessions de communication. C’est en ayant pour cible les services de vidéo à la demande, qu’au début des années quatre-vingt-dix aux États-Unis, quelques opérateurs se sont lancés dans l’industrialisation de la technique mise au point (dans les années 1988) par Bellcore de transmission haut-débit sur la ligne de cuivre. Il s’agissait pour Bellcore d’offrir aux opérateurs de télécommunications une technologie asymétrique (c’est-à-dire la transmission descendante vers le client est à un débit beaucoup plus important que le sens remontant) capable de rivaliser avec celle des câblo-opérateurs. C’est ainsi que l’ADSL (Asymetric Digital Subscriber Line) est née. Finalement l’usage de l’ADSL ne sera pas déclenché par les services de vidéo mais par les services d’accès à Internet à la fin des années 1990. L’ADSL est une technique de transmission qui consiste à réutiliser les câbles de cuivre qui relient les centraux téléphoniques jusqu’au domicile des clients. Chacun d’entre eux est relié au central téléphonique par une paire de cuivre ; celles-ci sont assemblées dans plusieurs équipements de distribution sous forme de câbles de plus grosse capacité. C’est ce que l’on appelle la boucle locale. Traditionnellement, les signaux de voix téléphonique analogique n’utilisent que la bande 300-3 400 Hz. Le principe de l’ADSL est d’utiliser la bande de fréquences laissée libre par les signaux de voix analogique pour fournir un service à haut-débit qui permet, pour les techniques ADSL1, d’avoir un débit qui peut atteindre jusqu’à 8 Mbit/s IP dans le sens descendant et 640 kbit/s dans le sens remontant. À titre de référence, un débit de 8 Mbit/s correspond à la transmission de 120 conversations téléphoniques simultanées. La technique utilisée par l’ADSL consiste à découper la bande des fréquences transmissibles (de 30 kHz à 1 mégahertz) sur la paire de cuivre en sous-bandes dans lesquelles on essaie de transmettre le plus d’informations possibles, sachant que plus la fréquence est élevée, plus l’affaiblissement du signal est important. Plus la ligne de cuivre est longue et moins la partie haute de la bande de fréquences peut être utilisée efficacement et donc moins les débits fournis par ADSL sont élevés. Par ailleurs, les perturbateurs qu’on trouve sur les lignes (résultant des phénomènes de diaphonie : les signaux émis sur une paire dans un câble créant du bruit sur les autres paires) limitent la transmission d’information. La modulation mise en place dans le cas de l’ADSL est auto-adaptative, c’est-à-dire qu’elle s’adapte aux caractéristiques de la ligne, notamment à sa longueur et aux perturbateurs dont elle est le siège. Comme l’indique la figure 1, la longueur des lignes qui ont été construites en France, et qui sont en permanente évolution, place notre pays en très bonne position en potentiel de couverture à haut-débit sur ligne de cuivre. Ce potentiel correspond au pourcentage de lignes d’abonnés capables d’atteindre un débit donné. Par exemple, plus de 95% des lignes en France sont susceptibles de transporter un débit supérieur à 512 kbit/s (du central vers l’installation du client) en technologie ADSL1 et plus de 98 % en employant la nouvelle technologie dite Reach Extended ADSL (RE ADSL). On assiste, sur la ligne de cuivre, à une montée en débit impensable il y a encore quelques années. Les techniques, mises au point dans les années 90, ont fait l’objet de progrès continus avec l’ADSL2 + et le VDSL qui offrent des débits supérieurs à l’ADSL. On constate également le développement de techniques de transmission symétrique sur cuivre avec le SDSL. Toutes ces techniques sont désignées globalement par le nom de “ xDSL ”. LA JAUNE ET LA ROUGE – AVRIL 200549 ADSL Débit max sur le canal descendant 6,5 à 10 Mbit/s Débit max sur le canal remontant 1 Mbit/s Portée : 2 km à 6,5 Mbit/s ADSL2+ Débit max sur le canal descendant 16 à 20 Mbit/s Débit sur le canal remontant 1 Mbit/s max Portée : 1,3 km à 13 Mbit/s et près de 2 km à 8 Mbit/s SDSL Débit de 2 à 8 Mbit/s symétriques sur mono et multipaire cuivre VDSL Débit jusqu’à 30 Mbit/s sur le canal descendant Figure 1 Comparaison des lignes d’abonnés dans différents pays Les accès sans fil au réseau fixe De nouvelles techniques radio autorisant le haut-débit apparaissent et sont déployées. Elles viennent compléter le panorama des technologies possibles pour la portion terminale du réseau fixe. Elles viendront s’ajouter aux techniques xDSL, pour offrir une couverture à haut débit pour 100% des lignes avant la fin de 2006. Les techniques Wi-Fi (Local Area Network radio) permettent d’atteindre des débits de l’ordre de la dizaine de Mbit/s sur des distances inférieures à 100 m. Elles sont d’ores et déjà utilisées pour des raccordements hautdébit dans des zones très peu denses. Beaucoup d’espoirs reposent sur la technologie WIMAX. Elle permettrait de partager un débit de plusieurs dizaines de Mbit/s entre plusieurs utilisateurs sur des distances de quelques kilomètres. La portée et le débit de cette technologie doivent permettre d’offrir des services à haut-débit dans les zones très peu denses plus économiquement que le Wi-Fi. Les accès mobiles Les montées en débit, que permettent les technologies au-delà d’ADSL1, s’accompagnent d’un élargissement de la bande de fréquences utilisée. Les performances maximales de ces technologies ne peuvent être atteintes que par une partie des lignes. Pour généraliser des offres à très haut débit (20 Mbit/s par exemple) de façon significative, il faut envisager de raccourcir la longueur des lignes. Pour ce faire, il convient de rapprocher les équipements DSL des clients et de les relier aux centraux au moyen de fibres optiques. Les investissements nécessaires sont à comparer avec ceux qu’induirait un raccordement des clients au moyen de techniques toutes optiques (FTTP) : Fiber To The Premises. Cellesci présentent l’avantage d’offrir aux clients des débits plus importants que le cuivre, même dans le cas où l’on recourt à des techniques de partage 50AVRIL 2005 – LA JAUNE ET LA ROUGE des fibres, du type réseaux passifs optiques (PON Passive Optical Network) et de permettre des débits remontants plus élevés. La croissance des débits de raccordement des clients, rendue possible par le déploiement des techniques xDSL, permet de faire très fortement évoluer les offres de service. D’abord dédié à l’accès à Internet, l’accès à haut-débit devient multiservices. Les débits disponibles permettent très souvent de faire coexister sur le même accès cuivre une offre d’accès à Internet, une offre de voix portée par le canal xDSL en complément ou en substitution du service téléphonique analogique et une offre de télévision du type diffusé ou à la demande. Ces possibilités nouvelles bouleversent les modèles économiques traditionnels des opérateurs fondés sur les services de voix et font apparaître des perspectives nouvelles. La seconde génération d’accès mobile (GSM Global System Mobile), normalisé en Europe, est un remarquable succès mondial. Il a introduit le numérique dans les communications radio-mobiles. Il a généralisé les techniques de “ Hand Over” entre cellules jointives qui autorisent le maintien des communications établies lorsque l’on se déplace de cellule en cellule. Il a permis également, avec le succès que l’on sait, le développement des techniques de “ Roaming ” (ou itinérance) grâce auxquelles un mobile peut être utilisé depuis le réseau d’un opérateur étranger. On peut noter également le succès commercial fantastique remporté par la transmission de données entre clients plus connue sous le nom de “SMS” (“Short Message Service ”). Afin d’améliorer les performances du GSM en matière de transmission de données, une nouvelle technique a été étudiée qui permet des échanges à des débits de 30 à 40 kbit/s. Cette nouvelle technique appelée GPRS s’appuie sur les infrastructures radio des réseaux GSM et nécessite le déploiement d’un cœur de réseau “ paquets ” qui permet d’aiguiller les données émises par les mobiles vers des réseaux IP tout en conservant la mobilité du terminal. Les nouveaux services multimédias mobiles (visiophonie, images, TV mobile) nécessitent des débits plus importants. Cela a conduit à étudier, dès le milieu des années 1980, et à normaliser à partir de 1999 une nouvelle norme radio appelée UMTS (Universal Mobile Telecommunication System) ou norme radio mobile de 3e génération. Cette dernière autorise des débits dix fois plus élevés que le GSM/GPRS. L’UMTS permet des débits de 64 kbit/s en mode circuit, avec garantie de débit utilisable pour la visiophonie. Un débit de 384 kbit/s en mode paquet est disponible pour des services comme le “ streaming ”. IP et Giga Éthernet : des technologies mutagènes qui bousculent les réseaux Deux technologies transforment profondément le paysage des réseaux. Il s’agit des technologies IP et Giga Éthernet. L’une des principales mutations du cœur des réseaux est le basculement accéléré des techniques de commutation de circuits vers la commutation de paquets plus économique et plus flexible, notamment lorsqu’il s’agit de fournir des services de données. Toutefois, les réseaux téléphoniques commutés resteront certainement encore présents pendant des années au niveau mondial. L’autre mutation qui s’est produite est interne aux technologies de transport de paquets elles-mêmes, avec le déferlement des protocoles sans connexion. Leur particularité est que chacun des paquets d’un même flux de données est transporté indépendamment des autres muni d’une adresse d’acheminement. C’est le cas du protocole IP (Internet Protocol) qui a pris le pas sur les techniques de transport de paquets orientés connexion comme celles des réseaux X.25 pour lesquelles les différents paquets d’une même communication sont liés entre eux par un identifiant de circuit virtuel. La querelle qui a opposé les partisans de l’ATM orientée connexion et ceux de l’IP prend fin avec l’adoption du protocole IP adopté de façon généralisée comme technique fédérative, depuis les applications jusqu’au transport et au routage au sein des nouveaux réseaux dorsaux. Les réseaux IP sont constitués d’équipements appelés routeurs, chargés d’acheminer les paquets d’information munis d’étiquette de routage vers leur destination finale. Tous les paquets d’une même communication sont traités indépendamment des autres. Ils ne suivent, en principe, pas le même chemin et le réseau ne peut garantir le respect de l’ordre de transmission. C’est aux deux extrémités de mettre en œuvre les protocoles permettant de réordonner les paquets et de demander la retransmission de ceux qui auraient pu être perdus. La simplicité et la flexibilité du protocole IP ont donc favorisé son adoption dans bon nombre d’applications et de réseaux. Il est devenu, de fait, le protocole structurant des nouveaux réseaux aptes à transporter à très grande échelle les flux de données. Plus généralement, moyennant quelques précautions, (concernant la perte de paquets, le temps de transfert, la disponibilité, le temps de convergence après panne…), il permet le transport de la voix et l’ensemble des flux médias y compris les flux conversationnels. Contrairement aux réseaux traditionnels, les réseaux IP transportent les flux de commande et de signalisation comme des flux de données ordinaires. La construction de nouvelles offres de services s’en trouve très fortement simplifiée, car tout élément raccordé au réseau peut être acteur de la commande du réseau. Évidemment, cette possibilité est aussi source de risques pour le réseau et pour ses utilisateurs. Des mesures de sécurité spécifiques doivent donc être mises en œuvre. Certaines applications nécessitant d’isoler des flux de données ou de garantir leur délai de transfert, on a été conduit à construire au-dessus du protocole IP des mécanismes additionnels permettant de contrôler le routage des flux de paquets. L’identification des flux, leur séparation, voire l’affectation de ressources spécifiques ont nécessité la mise au point de techniques comme le “ tunnelling ” (conduit logique qui permet de forcer le passage des paquets dans certains nœuds) ou le protocole MPLS (Multi Protocol Label Switching). Ces techniques apportent les avantages du mode connecté au “ monde sans connexion ”… Un point délicat des réseaux IP est l’absence de gestion native de la qualité de service. Les phénomènes de perte de paquets dus à des surcharges momentanées des liens qui interconnectent deux routeurs, ou bien à des reconfigurations des tables de routage consécutives à des pannes de liens de transmission ou de routeurs, ont des effets différents sur la qualité de service vue du client selon la nature des paquets transportés : paquets de données ou paquets contenant des signaux de téléphonie ou télévisuels en temps réel. Dans le premier cas, les protocoles appliqués de bout en bout par l’émetteur et le récepteur permettent de mettre en œuvre des mécanismes de reprise ou de retransmission qui permettent d’assurer la transmission des données après un certain retard. Dans les autres cas, le caractère isochrone des signaux à transporter ne permet pas d’utiliser les mêmes moyens pour se protéger contre les pertes de paquets. C’est, donc, au réseau d’assurer lui-même la qualité de service requise. Des mécanismes spécifiques ont donc été développés pour introduire des priorités de traitement de certains paquets lors LA JAUNE ET LA ROUGE – AVRIL 200551 de surcharges du réseau, ce sont les classes de service. Le marquage prioritaire des paquets de voix permet, par exemple, d’éviter une longue attente ou une perte de données devant une ligne de transmission momentanément surchargée. De même, d’importants progrès ont été faits sur les durées de reconfiguration des tables de routage en cas de panne d’un élément du réseau. Jusqu’à une date très récente, l’architecture des routeurs du marché ne permettait pas d’obtenir le niveau de fiabilité requis pour le service sans une forte redondance du réseau. C’est pourquoi le réseau IP de France Télécom est complètement dupliqué tant au niveau des routeurs, qu’au niveau des liens de transmission. En régime nominal, il peut transporter jusqu’au double du débit pour lequel il est dimensionné. Un effet secondaire de cette redondance est que les situations de surcharge sont très rares et les mécanismes de classe de service peu utiles à l’heure actuelle. Un autre aspect très important concernant les réseaux IP est celui de leur sécurité face à des attaques. Comme on l’a vu plus haut, l’ouverture des réseaux IP les rend vulnérables aux attaques d’utilisateurs malveillants. La sécurité est donc une préoccupation constante des opérateurs exploitant des réseaux de ce type. Ce souci pousse les opérateurs à développer des mécanismes de protection du trafic des clients comme le filtrage en périphérie, des mécanismes dits “ d’antispoofing ” (contre l’usurpation d’adresses), de protection des flux client ou des flux de commande par la technique de Réseau privé virtuel (VPN). En outre, des protections renforcées contre le déni de service 1 ainsi que des mécanismes de contrôle d’accès aux équipements IP, jusqu’à rendre certains équipements non adressables par Internet, sont également mis en place. Aujourd’hui, la version du protocole IP est la version dite “ IPv4 ”. Craignant une pénurie d’adresses à court terme, une version plus évo- 52AVRIL 2005 – LA JAUNE ET LA ROUGE luée a été spécifiée appelée IPv6. Cette crainte est aujourd’hui beaucoup moins pressante qu’il y a quelques années grâce par exemple à la mise en œuvre de mécanismes de séparation entre plan d’adressage privé et plan d’adressage public, et au mécanisme dit de “ Traduction d’adresse ”. Néanmoins, le développement d’objets communicants à travers le monde, et les flexibilités qu’offrent les nouvelles fonctions de la version IPv6 (au niveau adressage et mobilité) permettent d’augurer une transition du monde IP vers IPv6 à plus ou moins courte échéance. France Télécom se prépare à cette transition en mettant en œuvre IPv6 dans une partie de son réseau IP. Les réseaux IP s’appuient sur une infrastructure de transmission numérique à très haut-débit construite sur des câbles à fibres optiques. La période de très forte croissance des réseaux IP a coïncidé avec le déploiement de systèmes de multiplexage en longueur d’ondes (DWDM) qui permettent, à ce jour, de multiplier par plus de 40 la capacité de transmission d’une fibre. La même fibre véhicule plusieurs longueurs d’onde, offrant un débit de 2,5 ou 10 gigabit/s. Aujourd’hui la croissance du réseau de transmission reste conduite par la croissance de la demande en trafic IP. Mais le “ tout optique” dans les cœurs de réseaux qui devrait aboutir à une couche de transmission optique reconfigurable sur commande des routeurs IP n’est pas envisageable avant plusieurs années. La rupture technologique se produira lors de l’introduction du brassage tout optique, avec l’utilisation de multiplexeurs à insertion/extraction optiques et reconfigurables. Les réseaux de collecte D’une façon schématique les réseaux raccordent les utilisateurs, collectent leur trafic, l’acheminent et le livrent. Les réseaux en charge de la collecte du trafic étaient au démarrage des réseaux d’accès haut-débit à l’Internet, basés sur la technologie ATM (Asynchronous Transfer Mode). Ils relient les nœuds de raccordement des lignes ADSL haut-débit, appelés DSLAMs, aux nœuds d’entrée des réseaux dorsaux IP, appelés BAS (Broadband Access Server). Un nouveau protocole, le Giga Éthernet, offre une meilleure équation économique notamment lorsque les débits de collecte croissent. Cette technologie, en provenance du monde informatique et des réseaux d’entreprises est utilisable pour les réseaux de collecte et dans la desserte des entreprises. Elle consiste schématiquement à transporter des trames Éthernet sur une longueur d’onde. Bénéficiant d’une base installée considérable, elle trouve des applications dans le transport des signaux à très haut-débit comme les bouquets de télévision. Les réseaux de collecte ATM continueront néanmoins à être utilisés car plus à même de transporter les flux d’information synchrones. Point d’entrée du réseau de collecte haut-débit, le DSLAM devient progressivement un nœud d’accès universel en intégrant les fonctions que les commutateurs d’abonnés jouaient au sein du réseau téléphonique commuté. Cet équipement chargé de regrouper les différents flux de service (Internet, VoIP, vidéo…) émis par plusieurs clients va aussi évoluer pour passer d’une architecture fondée sur du brassage ATM vers une architecture fondée sur la commutation Éthernet. Il constitue le premier nœud d’un futur réseau de communication multimédia. n 1. Manœuvre malveillante consistant à empêcher un utilisateur ou un nœud de remplir son rôle en le submergeant par exemple de trafic inefficace. TÉLÉCOMMUNICATIONS Les réseaux multiservices Patrice Collet (65), directeur Architectures et planification, France Télécom, et Jean Craveur, Direction Architectures et planification, France Télécom De nouvelles offres multiservices intégrées se construisent à partir d’équipements chez le client et dans les réseaux : une nouvelle génération de plates-formes de services apparaît Le réseau s’étend chez le client et lui donne accès au multiservice Traditionnellement le réseau s’arrêtait à la porte des clients et se matérialisait par la célèbre prise conjoncteur. Aujourd’hui, le réseau se prolonge à l’intérieur du domicile du client au travers de passerelles domestiques dont la Livebox de France Télécom est un exemple. Cette passerelle, véritable réseau local, joue le rôle d’articulation entre l’installation domestique et les moyens de télécommunication mis en œuvre par l’opérateur. Elle combine les fonctions de modem et de routeur. Elle permet, dans certains cas, au moyen de technologies telles que Wi-Fi, Bluetooth ou CPL (courant porteur en ligne) de s’affranchir du câblage. Elle peut également servir d’adaptateur pour utiliser en VOIP 1 des postes téléphoniques classiques. Un autre rôle possible est de faire communiquer entre eux des dispositifs installés dans la maison. En effet, avec la montée en débit et la diversification des services, le réseau interne au domicile du client se complexifie. timédias et les clients : l’exemple du marché français de l’accès haut-débit le confirme complètement. Les plates-formes de services La passerelle domestique peut fournir des fonctions spécifiques à un service de communication. Par exemple dans le cadre d’un service de voix sur IP, la passerelle domestique dialogue avec les plates-formes de commande de la VOIP placées dans le réseau. À ce titre, elle devient, pour une partie de ses fonctions, partie intégrante du réseau ; elle contribue aussi à la gestion de la qualité du service offert au client. En effet, c’est elle qui, avec le réseau, assure que les débits alloués aux différents services sur l’accès d’un client respectent un certain nombre de règles comme celle qui consiste à donner priorité aux données de voix, sensibles aux variations de temps de transport, par rapport aux données d’accès à Internet. Ces passerelles constitueront à l’avenir le support d’un certain nombre d’offres de services, permettant aux opérateurs de différencier leurs services au-delà de la seule couche de transport. Gérer la passerelle résidentielle est donc un enjeu très important pour les opérateurs de réseau qui jouent alors un rôle de médiateur entre les fournisseurs de services mul- Afin de fournir rapidement des services évolutifs aux clients, il est devenu nécessaire de concentrer la logique de service sur des platesformes dédiées. Cette approche permet de constituer des blocs de service réutilisables dans l’ensemble du groupe. Ce concept est l’aboutissement des travaux engagés, il y a quelques années, avec ce que l’on appelait alors le réseau intelligent qui, déjà, concentrait la logique du service et les données associées. Cela permettait de donner accès rapidement à de nouveaux services comme le numéro vert, les services de réseau privé virtuel, le paiement des communications par carte… La centralisation de la logique de service permettait de gagner sur le temps de déploiement, car il n’était plus nécessaire de mettre à jour des centaines de commutateurs pour offrir les services. Aujourd’hui le mouvement s’est amplifié avec la pénétration de la connectivité IP : l’absence de distinction entre les flux de commande LA JAUNE ET LA ROUGE – AVRIL 2005 53 et les flux de transport rend beaucoup plus général le concept de plate-forme de services par rapport à ce qu’il était dans le cadre du réseau intelligent. Situées à l’intersection des réseaux et du monde informatique, les platesformes de service permettent d’offrir rapidement des services avancés indépendamment de l’accès (fixe, mobile, Internet). Cette démarche optimise les coûts et le “ time to market ”. Les derniers développements des technologies du type OSA Parlay (Open System Architecture du Consortium Parlay) offrent la possibilité d’ouvrir les plates-formes de service à des développeurs tiers permettant d’envisager des modèles économiques similaires à celui du Minitel. Que ce soit dans les passerelles résidentielles, les terminaux ou les plates-formes de services, on voit bien qu’il est capital, pour un opérateur de réseau, de maîtriser les éléments de la mise en relation (identité, présence, localisation, annuaire, profil client) afin de jouer le rôle d’agrégateur et de médiateur entre clients et fournisseurs de services. Les technologies du NGN apportent la révolution dans les réseaux support des services conversationnels : les derniers moments des réseaux téléphoniques à commutation de circuits Les techniques, que l’on peut qualifier de NGN (Next Generation Network) imaginées par BellCore à la fin des années quatre-vingt-dix, consistent à séparer très clairement les couches de commande et de transport dans les réseaux de services conversationnels et à faire porter l’ensemble des flux de services par un réseau dorsal unique, un réseau IP par exemple. Couplées à une mise en paquets de tous les flux conversationnels on aboutit ainsi à une nouvelle architecture de réseau qu’on peut qualifier de réseau conversationnel multimédia. 54 AVRIL 2005 – LA JAUNE ET LA ROUGE La mise en place d’infrastructure de réseau multimédia conçue selon des schémas complètement nouveaux Les premiers travaux sur les architectures multimédias se sont largement développés dans le contexte des réseaux mobiles. Les instances de normalisation ont développé les spécifications d’une architecture de commande de réseau multimédia reprenant les principes du NGN et capable de commander des flux de données tels qu’ils sont transportés dans les réseaux GPRS et UMTS. Les protocoles de commande sont fondés sur le protocole SIP (Session Initiation Protocol) défini par l’IETF (Internet Engineering Task Force) et adapté aux besoins de réseaux d’opérateurs mobiles. Ce système de commande est connu sous le nom d’IMS. Parallèlement, les premiers déploiements de services conversationnels sur IP en Europe (voix et visiophonie sur IP) ont été conduits en utilisant des architectures fondées sur le protocole H.323 car les seuls équipements disponibles sur le marché étaient fondés sur celui-ci. Il est apparu, assez vite, que l’architecture de commande IMS pouvait être utilisée dans le contexte des réseaux fixes pour établir des sessions de voix et de visiophonie. Cette approche offre une perspective de convergence entre les mondes des réseaux fixes et mobiles. Les bases de la normalisation de l’IMS ont été reprises par l’ETSI (European Telecommunications Standards Institute) pour définir un système de commande adapté aux réseaux fixes multimédias. Les avantages d’une telle orientation sont nombreux : mise en commun des développements techniques entre les deux types de réseau, introduction de fonctions de nomadisme dans les réseaux fixes (possibilité de retrouver ses services à partir d’un accès au réseau fixe qui n’est pas celui que j’utilise en temps normal), et à plus long terme possibilité de commander divers types de réseaux d’accès fixe ou mobile avec un même système de commande. L’ensemble de l’industrie travaille maintenant dans cette direction. Les premières spécifications de l’ETSI pour les réseaux fixes devraient apparaître à la mi2005, permettant d’envisager la disponibilité de produits industriels conformes au cours de l’année 2006. Les protocoles SIP et H.323 que l’on vient d’évoquer constituent une nouvelle génération de protocoles de signalisation. Ils permettent de mettre en place et de libérer le lien logique ou physique qui permettra le transfert d’informations entre un point d’entrée et un point de sortie de réseau. Ils transportent des informations relatives aux droits et conditions de l’établissement de la communication. Dans le contexte du réseau téléphonique actuel, la signalisation est transportée dans un réseau de données par paquets spécifiques hautement sécurisé et indépendant du réseau de transport de la voix et des réseaux de données commerciaux qu’on appelle le réseau sémaphore : il relie tous les nœuds susceptibles d’intervenir dans l’établissement des communications téléphoniques. Cette méthode de signalisation connue sous le nom de signalisation n° 7 a permis la mise en place du RNIS, du réseau intelligent et surtout des mécanismes de localisation et d’itinérance dans les réseaux mobiles de 2e génération de type GSM. Aujourd’hui, cette signalisation évolue. Son transport par les réseaux IP est rendu possible car la nécessité d’avoir un réseau de technologie paquet séparé de la technologie circuit a disparu. L’évolution des réseaux de voix Si le trafic de voix véhiculé par les réseaux a tendance à augmenter (+7,2% d’octobre 2003 à septembre 2004) cela dissimule une situation contrastée entre le réseau téléphonique commuté fixe (RTC) dont le trafic a baissé (- 0,3 % sur la période) et les réseaux mobiles (+ 19 % sur la période) 2. Outre le transfert de trafic des réseaux fixes RTC vers les réseaux mobiles, un autre phénomène est apparu, celui de la maturité et du déploiement des offres de VOIP. France Télécom par exemple déploie une infrastructure de VOIP tant pour le marché résidentiel que pour le marché professionnel et entreprises. Le déploiement rapide de l’ADSL accélère la migration vers la VOIP dans le domaine résidentiel. Il accélère également la baisse du trafic d’accès Internet à bas débit via le RTC dont le trafic a diminué de 22 % d’octobre 2003 à septembre 2004. Le réseau de voix traditionnel (le RTC) se contracte pour s’adapter aux volumes de trafic qu’il a à transporter, d’où la réduction du nombre de commutateurs de transit voire de commutateurs d’abonnés. C’est dans ce contexte que nombre d’opérateurs historiques se posent la question du remplacement progressif de leur réseau RTC, fondé en grande partie sur des technologies datant de la fin des années soixante-dix. Environ, la moitié des commutateurs temporels de 2e génération en France sont âgés de vingt ans ou plus. Plus de 10 millions d’équipements d’abonnés localisés sur des milliers d’Unités de raccordement d’abonnés (URA) ont été installés au début des années quatrevingt. Compte tenu des volumes d’équipements en cause et des travaux de réaménagement que leur remplacement nécessitera, il faudra plusieurs années pour remplacer un tel parc. C’est pourquoi, même si ces équipements donnent aujourd’hui un service de très bonne qualité, il convient de se préoccuper de leur remplacement. Comme on l’a vu plus haut, le trafic de voix va dans les années qui viennent migrer au moins partiellement vers de la VOIP ou vers des services mobiles. À quelle vitesse et en quelle proportion ? Il est évidemment impossible de le dire. La solution de remplacement choisie devra tenir compte de la migration progressive du trafic vers la VOIP et vers les mobiles. Elle devra être robuste, redimensionnable et économique. la VOIP le support de l’offre de voix. Par ailleurs, les fournisseurs de DSLAM développent sur ceux-ci des cartes et des fonctions permettant le raccordement de lignes téléphoniques classiques et la transformation du signal téléphonique en VOIP. Ce faisant, un même cœur de réseau pourrait traiter à terme toute la voix sous la forme de VOIP, qu’elle provienne de clients ayant souscrit des offres de VOIP ou bien de clients de lignes téléphoniques classiques. Le cœur de réseau devient ainsi indépendant du niveau de migration des services de voix vers la VOIP. De même, pour le réseau d’accès le DSLAM reste le même quel que soit le choix du client, service traditionnel ou service de VOIP : ce qui change c’est seulement la carte de raccordement du client : l’effet de l’incertitude se trouve ainsi très fortement limité. sophistiqués et également de préparer la convergence technique et fonctionnelle des réseaux mobiles et fixes. Avec une orientation de ce type on simplifie également le réseau d’accès. Le DSLAM remplit des fonctions qui sont assurées par deux familles de machines les DSLAM et les URA, ce qui devrait être de nature à réduire les coûts d’exploitation. Les réseaux sont aujourd’hui devenus plus ouverts que par le passé. Si cette ouverture autorise une meilleure interaction avec les installations clients, et donc plus de possibilités au niveau des services, elle permet également de pénétrer au cœur des réseaux plus facilement que du temps des réseaux téléphoniques. Cela pose des problèmes nouveaux dont l’un, et non des moindres, a trait à la sécurité, qu’elle concerne les accès, le réseau ou les logiciels des plates-formes de services y compris la passerelle résidentielle. Les préoccupations de sécu- Le système de commande des nouveaux services multimédias qu’on a décrit plus haut est un bon candidat pour traiter également les offres de voix. Son utilisation doit permettre de faciliter la transition des offres de voix traditionnelles vers des services plus Compte tenu de l’ampleur des travaux que représentera la migration des services de voix vers la nouvelle architecture que nous venons d’esquisser, France Télécom se prépare afin de pouvoir commencer les premiers travaux à l’horizon 2006-2007. Ils concrétiseront le début d’une nouvelle période celle de la disparition de la commutation de circuits qui a vu le jour avec le début du téléphone automatique à la fin du XIXe siècle. Conclusion Nouvelles ouvertures, nouvelles contraintes pour les opérateurs de réseaux L’architecture réseau pour les services multimédias Une première orientation est claire, le trafic de VOIP va croître avec le développement de la couverture ADSL : les DSLAM qui sont les équipements permettant de raccorder les clients en ADSL vont devenir pour les clients de LA JAUNE ET LA ROUGE – AVRIL 2005 55 rité résident bien entendu aussi dans tout ce qui tourne autour des identités (création, transport, utilisation) générant des besoins accrus de certification, de prévention d’usurpation. Elles touchent enfin à la sécurité de fonctionnement des équipements du réseau eux-mêmes où il s’agit de se prémunir contre les attaques, les dénis de service… Si l’on ajoute : 1) que les réseaux sont désormais en perpétuelle modification pour être à même d’offrir au plus tôt les nouveaux services aux clients dans un contexte de concurrence accrue où la prime à la nouveauté et à la qualité est de mise, 2) que les contraintes réglementaires imposent : – aux opérateurs dominants, et à eux seuls, des mécanismes supplémentaires d’interconnexion avec les opérateurs concurrents, – des mécanismes nouveaux de portabilité des numéros fixes et mobiles (on change d’opérateur mais on conserve son numéro) ce qui a nécessité de revoir la logique d’établissement d’appel par la mise en place de la consultation systématique de bases de données en temps réel de localisation pour acheminer les appels correctement, – des mécanismes de dégroupage partiel (seule une partie de la bande est louée par l’opérateur concurrent) et total (la totalité de la largeur de bande est louée par l’opérateur concurrent), on comprend aisément que les causes potentielles de déstabilisation des réseaux ne manquent pas. Ce qui est donc en jeu pour les opérateurs de réseau confrontés à ces mutations et obligations nouvelles, c’est bien de garder la maîtrise des évolutions et de continuer d’assurer une qualité de service irréprochable tout en optimisant le “ time to market ” et en faisant bénéficier le client, au plus vite, des dernières innovations. Cela passe par la complète maîtrise de la chaîne de conception, intégration et déploiement des réseaux. Il s’agit donc de garder sous contrôle : 56 AVRIL 2005 2005 –– LA LA JAUNE JAUNE ET LA ROUGE La vision du réseau du futur 1) la définition des architectures et la spécification des fonctions et des interactions, 2) le suivi des développements industriels et leur validation en termes de bon fonctionnement intrinsèque et de non-perturbation de leur environnement, 3) la réduction des risques avant déploiement à grande échelle par des opérations de vérification sur centres “ captifs ” représentatifs le plus possible du réseau réel. Même si c’est dans la nature même des grands réseaux de télécommunications d’avoir à interconnecter les équipements d’aujourd’hui avec ceux d’hier, à l’intérieur de leur espace géographique ou avec d’autres réseaux du monde entier, jamais la complexité n’aura été aussi grande, jamais n’auront été si rapides les bouleversements qui les affectent. Faire interfonctionner tous ces équipements est un vrai métier. Une véritable course de vitesse sans fin est donc engagée, entre d’une part la volonté de simplifier l’architecture des réseaux de demain, et d’autre part l’augmentation naturelle de l’entropie par suite d’accroissement de la diversification technique, de la multiplication des services et de leurs interactions, et de la complexification des cadres réglementaires. Maîtriser les transitions qui sont l’apanage des grands réseaux de télécommunications, et savoir répondre à la demande croissante de qualité et de sécurité pour les services, est un exercice très compliqué ; rares seront les opérateurs qui sauront le faire de façon pérenne. Un nouveau défi apparaît alors, celui de disposer à tout moment, aujourd’hui comme demain, des compétences adéquates (en qualification et en effectif) dans tous les secteurs de la chaîne évoquée plus haut. Le facteur humain et organisationnel est bien au cœur des problématiques à résoudre par les opérateurs qui voudront garder la maîtrise des mutations à l’œuvre au sein des réseaux de télécommunications. n 1. Voice over Internet protocol. 2. Source ART observatoire des marchés. TÉLÉCOMMUNICATIONS Réseaux de télécommunications et services de contenus : l’addition de forces complémentaires aux services des clients Patricia Langrand (83), directeur exécutif, agrégation des contenus, France Télécom Les progrès des techniques de compression et de transmission font que des réseaux téléphoniques à haut débit, fixes et mobiles, ont d’ores et déjà la capacité de distribuer des images et des sons numériques de bonne qualité. Il sera même possible, tout prochainement, d’amener de la télévision et de la vidéo à la demande à haute-définition sur les lignes de cuivre des clients. Bell, était le photophone, qui consistait à transmettre le son en recourant à la lumière, et non à voir à distance. Une telle découverte aurait permis la constitution d’un système téléphonique optique sans construire de réseau téléphonique… D Le mot télévision semble avoir été employé pour la première fois à Paris en 1900. Et il faudra attendre les années 1930 pour que les laboratoires de la Bell Company jouent un rôle important dans le développement de la télévision. La Bell Téléphone sera d’ailleurs la première compagnie à organiser à cette époque une émission en direct entre New York et Washington (1927)… E PLUS EN PLUS, notre métier va intégrer une nouvelle composante : la distribution de contenus premium (chaînes de TV, films, musique, jeux, sports…) sur l’ensemble des réseaux, pour le plus grand plaisir des clients, et dans l’intérêt de nos partenaires/fournisseurs de contenus. Il ne s’agit pas d’une “ convergence contenus-contenants ”, mais d’une addition de forces : celles de nos technologies (plates-formes de services, réseaux et terminaux) et de la puissance de notre relation client, avec celles de nos partenaires en matière de programmes et de services. La distribution de contenus sera pour les opérateurs de télécommunications un vecteur de croissance, de fidélisation, de différenciation et d’acquisition de nouveaux abonnés, à condition de savoir se positionner rapidement, efficacement, et de façon pertinente, sur une chaîne de valeur en évolution. Je parlerai surtout d’image, parce que les dépenses pour les médias des foyers sont principalement tirées par l’image (TV, Vidéo, Cinéma) 1, parce que la télévision est “ le plus grand public des services grand public” (trois heures vingt-quatre passées devant la télévision en moyenne pour les plus de quatre ans) et parce que les évolutions technologiques de nos réseaux sont tirées par l’image qui est la plus demanderesse en débits et en qualité de service. Téléphone et contenus : deux histoires mêlées Téléphone et télévision ont des origines communes, entremêlées. C’est en 1848 qu’est énoncé le principe de transmission d’images. Mais l’idée même de la télévision (la “ vision à distance ”) a été suscitée par la découverte du téléphone par Graham Bell en 1876. S’il était possible de transmettre les sons grâce à l’électricité il devait en effet être possible de transmettre également des images. On attribua à Bell l’invention dès 1878 du télectroscope, appareil pour transmettre à distance les images. En réalité, l’appareil, alors proposé par Les fonctions attendues à la fin du siècle de cette “ vision à distance ” constituent les prémisses de la diffusion et de l’interactivité, il s’agit de permettre : • à un marchand d’exposer ses biens à distance dans le monde entier ; • de diffuser rapidement dans le monde entier le signalement des criminels en fuite ; • de voir à tout instant les personnes aimées, et en combinaison avec le téléphone, transmettre des conversations en voyant son interlocuteur ; • aux artistes de conserver leurs œuvres tout en les exposant à l’étranger, et diffuser des spectacles ; e XIX LA JAUNE ET LA ROUGE – AVRIL 200557 • de consulter à distance la page souhaitée d’un livre, ou de transmettre des documents manuscrits. Certains s’interrogent sur la légitimité des opérateurs de télécommunications à intervenir dans la distribution de contenus mais ces réseaux ont dès leur origine cherché à permettre ces services ! Une des premières applications développées pour le téléphone fut le théâtrophone, proposé dès 1881, qui permettait de distribuer musique et concerts et qui constitua, jusqu’à l’arrivée de la radio, la première forme de distribution électronique de culture et de divertissement. Ce n’est en revanche vraiment qu’aujourd’hui, au XXIe siècle, que tous les usages envisagés à la fin du XIXe siècle sont rendus possibles, sur le vieux fil téléphonique, et cela, en même temps. Vient s’ajouter, par ailleurs, une nouvelle dimension : la mobilité. Le succès de la TV par ADSL La télévision par la prise de téléphone poursuit, modestement, le travail des pionniers du téléphone. La transmission de programmes de télévision sur la ligne téléphonique est permise grâce aux progrès conjoints apportés par le codage numérique (MPEG) et par la transmission numérique (DSL). Fin 2003 est née MaLigne tv, service de télévision premium par la ligne téléphonique. Ce service, qui compte aujourd’hui plus de 120 000 clients, est permis par les nouvelles capacités haut-débit de nos réseaux fixes. Il est particulièrement “ visible ” car il traite de télévision et l’amène simplement. Une bonne vieille prise de téléphone suffit pour y accéder, à condition néanmoins d’être dans une zone couverte et d’avoir sur sa ligne le débit nécessaire (c’est le cas aujourd’hui pour plus de 5 millions de foyers en France, et 10 millions fin 2005). par le plus dur : les contenus premium payants de type sports ou cinéma que proposent TPS ou Canal + ne peuvent souffrir la moindre imperfection d’image, ou la moindre interruption de service, alors qu’un réseau de télécommunications est beaucoup plus complexe qu’une diffusion par satellite. La TV par la ligne téléphonique s’est imposée dès son démarrage, grâce à la force combinée de l’opérateur et de ses partenaires, comme un modèle crédible incontestable dans un marché fortement concurrentiel mais non saturé (en France, les 2/3 des foyers reçoivent, encore aujourd’hui, moins de 6 chaînes). Son succès est dû à : • une très grande simplicité d’accès, une prise téléphonique suffit, et la plupart des foyers en ont une ; • une très grande richesse d’offres combinant chaînes de TV en grand nombre et de qualité grâce à TPS et Canal + ; • l’attractivité des offres dites “ multi – play ” permettant sur la même ligne la télévision, l’Internet à haut-débit, et la voix sur IP. En outre, la TV sur ADSL bénéficie de toute l’interactivité du réseau téléphonique, qui permet en particulier de proposer de la vidéo à la demande (VOD), véritable “ service de location de DVD sans quitter son canapé ”. Un service de VOD a été lancé dès le démarrage du service à Lyon en décembre 2003. Ainsi l’ADSL permet de distribuer de très nombreuses chaînes, de qualité excellente (demain, en haute définition), avec des contenus proposés de manière interactive, et en toute simplicité pour le client. Je résumerais cela par richesse et diversité, qualité et interactivité, simplicité et sécurité. Une première étape En lançant ce service en partenariat avec l’opérateur de bouquet de chaînes par satellite TPS en décembre 2003, puis avec Canal + à la mi 2004, nous avons commencé 58AVRIL 2005 – LA JAUNE ET LA ROUGE Grâce aux effets combinés des déploiements des écrans plats de toutes tailles, fixes, nomades ou mobiles d’une part, et du haut-débit sur tous les réseaux de télécommunications d’autre part, nous allons assister schématiquement à deux types d’évolutions de la consommation télévisuelle : • une consommation familiale à domicile de plus en plus grand spectacle, la famille se réunissant autour du grand écran, de plus en plus plat et de plus en plus grand du salon, avec une image de plus en plus haute-définition (HD) et du son “ hifi ” multicanaux, pour partager de grands événements, matchs de football, concerts, opéras, ou des films (Home Cinema) y compris à la demande, ou de grandioses documentaires ; • une consommation individuelle à travers les autres écrans de la maison (2e ou 3e téléviseur, PC, visiophone...) et les mobiles, de plus en plus personnalisée et interactive, permettant de : – rester en contact avec les “ événements ”, même en dehors de chez soi (mobile), ou regarder quelque chose de différent de ce que regardent les autres membres de la famille (PC ou 2e TV, voire mobile) ; – obtenir des informations additionnelles sur les programmes sans “ polluer ” l’écran à grand spectacle et gêner les autres ; – interagir avec lesdits programmes à travers votes/quiz, SMS qui s’affichent à l’écran ; – “ tchatcher ” avec “ sa tribu ” autour des programmes que l’on aime. Le mobile et surtout le PC pourront être également des outils de recherche, de commande, de paiement des programmes à voir ou écouter sur l’ensemble des terminaux de la maison. “ L’image appelant l’image ”, il sera nécessaire de pouvoir la proposer et donc la transporter partout. Le métier des opérateurs de télécommunications du XXIe siècle consistera à véhiculer, au-delà de ce qu’ils véhiculent déjà, de plus en plus de contenus audiovisuels. La distribution de contenus audiovisuels et l’innovation dans cette distribution sont au cœur de la stratégie de développement des offres multiservices de France Télécom. Pour réussir, il est nécessaire de créer et bâtir une nouvelle alliance de confiance entre le secteur des contenus et celui des opérateurs multiservices, avec pour socle, l’exigence justifiée des clients. C’est pourquoi, l’intervention de l’opérateur de télécommunications dans les services de contenus audiovisuels se fonde sur un triptyque simple et applicable à l’apparition de toutes nouvelles technologies susceptibles d’améliorer la consommation de programmes : clients, partenaires, réseaux. Une intervention basée sur un triptyque client/réseau/partenaire, parce que les clients l’attendent, les partenaires de contenus le demandent, les réseaux le permettent Des réseaux qui permettent et permettront de plus en plus la distribution de contenus L’histoire de la télévision s’accélère. Il aura fallu vingt ans après la création de la Radio Télévision française en 1945 pour la transmission des premières images de Mondovision (1962), l’introduction par Philips des premiers magnétoscopes grand public, l’apparition de la couleur (1967) et l’arrivée de la publicité à la télévision. Il aura fallu trente ans pour créer la 3e chaîne (1972) et que chaque pays européen se voie attribuer 5 canaux de télévision par satellite (1977); et quarante ans pour que naisse le câble (1982, 100 000 abonnés en 1988), qu’apparaissent Canal Plus (1984) puis deux chaînes privées, la 5 et la 6 (1985). Il aura fallu cinquante ans pour voir arriver la télévision numérique (par satellite aux États-Unis avec DirecTV en 1994) et en France les bouquets numériques de télévision par satellite (1996). Alors qu’en moins de deux ans sont arrivées la télévision numérique sur la ligne téléphonique, la télévision numérique hertzienne terrestre, la télévision sur le mobile, la vidéo à la demande (VOD), sans compter les possibilités d’Internet et du PC en matière de télévision et VOD. Les réseaux de télécommunications sont aujourd’hui au cœur de la distribution télévisuelle puisqu’ils sont à même de viser à la fois les usages collectifs à grand spectacle de la télévision diffusée ou à la demande (VOD), et les usages individuels sur des écrans personnels ; les capacités interactives de ces réseaux ouvrent un champ d’applications “ infini ” à explorer et inventer avec les éditeurs de contenus. Il y a quinze ans les réseaux fixes transportaient 75 kbit/s. Aujourd’hui leur capacité est, avec l’ADSL, 100 fois plus élevée, et l’ADSL2 + vient encore la doubler. Nous disposons avec l’ADSL d’un réseau de qualité permettant de proposer une offre audiovisuelle attractive à un très large public : les deux tiers de la population française (20 % environ aux États-Unis) peuvent être raccordés à plus de 6 Mbits/s, un débit suffisant pour véhiculer en même temps l’Internet haut-débit et des programmes audiovisuels de définition standard en MPEG2. Le marché français de l’Internet à haut débit sur technologies DSL est l’un des plus dynamiques au monde (6 millions d’abonnés fin 2004, contre 3 millions fin 2003), la couverture, de 90% à fin 2004, dépassera 95% fin 2005. Le réseau fixe est loin d’être mort contrairement à ce que certains annonçaient, pariant sur le tout mobile… Nous utilisons aujourd’hui les technologies de transmission ADSL 2 et de codage MPEG2 3 (seules technologies disponibles lorsque la TV sur ADSL a été lancée à fin 2003). L’arrivée du MPEG4 et de l’ADSL2 + pourrait permettre techniquement via un quasidoublement de l’efficacité en compression et de la capacité de transmission sur la ligne dans les zones de couverture TV 4, d’accroître encore l’attractivité et la différenciation de l’offre : accroissement sensible de la couverture d’environ 10 points ; augmentation du nombre de chaînes disponibles ; réception de plusieurs flux permettant de répondre au multiéquipement en téléviseurs, distribution de l’image 5 et du son en hautedéfinition. Au delà, la technique VDSL offre des débits plus élevés que l’ADSL2 + (jusqu’à 30 Mbit/s). Mais la montée en débit butera un jour sur la limite de la capacité en débit du réseau de cuivre. L’ADSL2 + ne suffira pas pour monter en débit au-delà de 15 à 20 Mbit/s avec un taux d’éligibilité significatif. La fibre optique jusqu’aux locaux client du type FTTH (Fiber To The Home), FTTB (Fiber To The Building) permet des débits beaucoup plus élevés (100 Mbit/s), avec une plus grande symétrie. Les services qui permettraient de rentabiliser de tels investissements pour le grand public restent cependant à inventer… En matière de mobiles, la 2e génération (GSM) 6 a introduit le numérique dans les communications radio mobile et a permis l’explosion de la téléphonie mobile; 43 millions de Français équipés en moins de dix ans. Une nouvelle technique (GPRS ou “2,5 G”) a été développée qui permet des échanges de données à des débits de 30 à 40 kbps (une dizaine de kbit/s pour le GSM). Une première forme de télévision mobile est d’ores et déjà accessible à tous les Français, sur le réseau GSM/GPRS d’Orange qui couvre 99 % de la population. Les nouveaux services multimédias mobiles (visiophonie, VOD, TV mobile…) gourmands en débit ont nécessité de définir une nouvelle norme radio appelée UMTS (Universal Mobile Telecommunication System), dite de 3e génération, qui autorise des débits 10 fois plus élevés que le GSM/GPRS ; le temps d’accès à la vidéo est plus rapide et la visualisation de la vidéo sur mobile plus fluide. L’UMTS est en cours de déploiement en Europe et en France en particulier. Tout prochainement, l’introduction des technologies “ HSDPA ” et “ HSUPA ” devrait apporter à l’UMTS LA JAUNE ET LA ROUGE – AVRIL 200559 des débits encore plus conséquents tant en descendant (de l’ordre de 1 Mbps en descendant pour le HSDPA) qu’en remontant pour les applications interactives ou la distribution d’abonné à abonné (HSUPA). Les technologies GPRS et UMTS ne permettent pas en revanche de diffusion point à multipoint (multicast). Elles ne permettent que de la diffusion point à point (mode unicast – le contenu est transmis autant de fois qu’il y a de téléspectateurs mobiles), et sont donc peu adaptées, à de la diffusion de télévision live. Elles sont en revanche bien adaptées à la consultation de programmes de TV à la demande (buts de football, news, programmes courts adaptés et reformatés). Le DVB-H 7 (Digital Video Broadcasting-Handheld), norme technique émergente qui complète la norme DVB-T (pour Terrestre) retenue en Europe pour la TNT 8 et utilise les mêmes technologies que cette dernière en l’adaptant à la diffusion mobile, devrait permettre une vraie télévision live. Le DVB-H présente l’intérêt, par rapport au DVB-T destiné aux postes de télévision fixe, d’augmenter la robustesse de réception. Et le DVBH est une norme de diffusion point à multipoint. Les coûts de diffusion sont indépendants du nombre d’auditeurs, contrairement aux modes de diffusion point à point dont les coûts sont proportionnels au nombre de personnes connectées et à la durée de consultation. Un test va prochainement être mené en partenariat avec les chaînes de TV pour ce type de technologie, complémentaire des technologies de 3e génération. En proposant un univers intégré “ Fixe + Mobile ” pour le développement de nouveaux services intégrés permettant à nos clients de visualiser (ou écouter) les contenus de leur choix, quel que soit l’endroit où ils se trouvent, avec le terminal dont ils disposent et le meilleur de la technologie existante. 60AVRIL 2005 – LA JAUNE ET LA ROUGE Une attente de nos clients Nous mesurons en permanence les comportements et attentes de nos clients, sur les services qu’ils consomment déjà. Lorsque le service de télévision sur ligne téléphonique a été lancé, toutes les études montraient que la demande existait pour une offre de chaînes de télévision sur la ligne téléphonique chez les abonnés haut-débit, séduits par la possibilité de recevoir sur la même ligne de plus en plus de services, par la simplicité d’accès de la ligne téléphonique, et voyant bien ce que signifiait l’accès à un bouquet de chaînes premium. Ce service n’a pas séduit uniquement les utilisateurs d’Internet, mais a également attiré de nombreux téléspectateurs qui n’avaient jamais eu la télévision payante et qui ont décidé de franchir le pas en découvrant les multiples avantages du réseau téléphonique et de ses lignes de cuivre. Plus généralement, pour répondre aux attentes évaluées de nos clients, il nous faudra travailler dans plusieurs dimensions. Le grand spectacle Le DVD a habitué les consommateurs à un certain niveau de qualité de l’image et du son. Quand ils regardent un film dans leur salon nos clients veulent se sentir au cinéma, quand ils regardent un match, ils veulent être un supporter autour du stade, quand ils “ participent ” à un concert, ils veulent vibrer avec la salle… Après dix années marquées uniquement par l’élargissement de l’offre de contenus (multiplication des chaînes thématiques), c’est désormais l’innovation technologique qui devrait soutenir le marché de la TV. La HD est déjà une réalité pour des millions de téléspectateurs dans le monde : au Japon sur le câble, le satellite et la TNT, aux États-Unis et en Australie sur le câble et le satellite. Le mouvement des écrans vers la haute-définition s’effectue de façon quasi mécanique : de plus en plus de gens achètent des écrans plats, et puisque leur encombrement est faible, ils achètent un modèle plus grand. En 2004, il s’est vendu dans le monde 8,8 millions d’écrans LCD, dont 38 % en Europe. Pour installer une chaîne complète de TV haute-définition, tous les maillons – terminaux/écrans de réception, production, diffusion – doivent être prêts. La plupart des programmes de sport, de documentaires ou de séries destinés à l’export sont déjà tournés en haute-définition. La Coupe du Monde de football de 2006 en Allemagne, première manifestation sportive intégralement produite au format 16/9e et en haute définition, pourrait donner le coup d’envoi de la télévision haute-définition en Europe, et la ligne téléphonique a les moyens d’être l’un des premiers vecteurs de diffusion de la haute-définition en France. Le choix Qui n’a pas un jour rêvé de ne plus être soumis aux grilles de programmation, de pouvoir voir à tout instant, au moment souhaité, le film ou l’émission que l’on a oublié d’enregistrer, de pouvoir “ louer ” instantanément un DVD depuis son canapé… Seul un réseau point à point comme l’ADSL peut fournir facilement de tels services. Aujourd’hui, sur les réseaux téléphoniques, les technologies sont là, encore un peu coûteuses mais abordables, qui permettent de passer du rêve à la réalité. Le DVD a modifié notre manière de regarder les contenus en proposant un accès rapide à des séquences particulières (chapitrage), à des bonus, des informations additionnelles… Les tentatives de personnalisation des modes d’accès aux contenus TV à travers les équipements de Personal Video Recorder (PVR), permettant de voir quand on veut, en revenant en arrière, en faisant une pause, en revoyant une scène (à la manière du DVD), ont conquis les téléspectateurs. En parallèle l’Internet nous a fait réellement entrer dans la consommation personnalisée interactive. Le PVR est aujourd’hui un marché de niche mais il présente déjà une vraie souplesse dans la visualisation des programmes. Sa vraie révolution est la possibilité de visualiser un contenu tout en continuant à enregistrer ce même contenu (time shifting). Il autorise aussi l’enregistrement simple de plusieurs dizaines d’heures (par exemple pour programmer une fois pour toutes tous les épisodes de sa série préférée). Mais le formidable enjeu de l’appropriation des programmes ne peut se résumer au seul PVR. Il faut que celleci s’accompagne de l’accès à une offre élargie de programmes totalement à la demande, ce que permet la VOD. La VOD devrait être bénéfique à l’ensemble des acteurs de la chaîne, en venant s’additionner aux autres vecteurs de distribution. La télévision au sens large est en effet, encore aujourd’hui, un marché d’offre. Plus les téléspectateurs ont d’images et surtout d’images de qualité à leur disposition plus ils en veulent sur tous les supports dont ils disposent. La consommation augmente, et le potentiel en France est encore important. Une offre attrayante de VOD comprendra à la fois du catalogue (stock) et des contenus récents (flux) cinématographiques en particulier, des films mais également des séries, des documentaires, des programmes pour enfants, des contenus culturels, des vidéoclips… Seule l’existence d’offres de VOD payantes légales permettra de plus de lutter efficacement contre le piratage. Il a été souhaité de proposer un service de VOD dès le démarrage du service fin 2003. Aujourd’hui sont offertes 1 000 heures de programmation (films récents, films de catalogue, séries, documentaires, programmes pour enfants, quelques programmes de télévision délinéarisés, tel le journal de 20 heures). Concernant les mobiles, Orange propose déjà un certain nombre de programmes à la demande adaptés par exemple le journal télévisé de LCI reformaté en version d’une minute trente pour le mobile, les buts de football en quasi-temps réel, ou des bandes-annonces de films. 600 000 téléchargements ont été réalisés par les 50 000 premiers abonnés 3G. En Corée, l’Opérateur SKT a vu son offre de vidéo mobile séduire en moins d’un an la moitié de ses 15 millions d’abonnés 3G. Si je suis passionnée de rugby, je dois pouvoir être alertée des actions importantes en cours de match et visualiser sur mon mobile l’essai qui vient d’être marqué. Mon environnement de consommation de contenus doit m’accompagner dans tous mes déplacements. L’interactivité Rares sont les services interactifs qui ont rencontré un public et ont généré des revenus additionnels. Cela étant, les réseaux sont interactifs par essence et les clients ont par définition une voie de retour par le téléphone fixe ou mobile. Nous disposons donc d’un champ nouveau à explorer : • recherche des contenus et dans les contenus (chapitrage par exemple) ; •échanges entre téléspectateurs autour des contenus ; •interaction/participation aux contenus eux-mêmes (ex : La Star Academy à domicile à travers la visiophonie…) ; •partage de contenus entre téléspectateurs (superdistribution) ; •la circulation des programmes sur le réseau domestique afin d’adresser les différents types d’écrans et d’équipements de stockage ; •élargissement des moyens de recherche/commande et visualisation des programmes eux-mêmes ou des informations additionnelles à d’autres écrans que celui du téléviseur (mobile, PC…). Plus l’offre de contenus se diversifie, plus il est essentiel de pouvoir la connaître et opérer ses choix de manière simple. Et il faut pour cela jouer la complémentarité des médias : consulter un catalogue de films sur mon PC et une fois le programme sélectionné, le regarder sur le téléviseur ; programmer à distance l’enregistrement sur son PVR; composer la compilation de mes morceaux de musique favoris sur mon PC et les écouter à n’importe quel moment sur mon mobile ; être alertée sur mon mobile des nouveautés de mes artistes préférés, les commander et les écouter ensuite sur ma chaîne hi-fi… Nous travaillons activement au développement d’offres transverses multisupports. Un des premiers exemples en sera probablement la musique. Les mobiles sont une chance pour l’industrie de la musique et il est opportun de construire avec elle des offres attrayantes et différenciantes. Le mobile est déjà utilisé avec succès comme voie de retour, pour une consommation plutôt jeune et impulsive dans le cadre de votes associés à des émissions de télévision. Le meilleur exemple en est la téléréalité avec 2 millions de SMS envoyés en une soirée “ Star Academy ”. Ce succès est très lié au modèle de partage de revenus mis en place entre les chaînes de télévision et les opérateurs de télécommunications, modèle qui est réellement attrayant pour tous les acteurs. Des partenaires demandeurs Les services intégrés Ainsi, pour le lancement de MaLigne tv, nos partenaires et nous-mêmes avons souhaité nous concentrer chacun sur ce que nous savions le mieux faire. France Télécom assure la vente des bouquets TPS et Canal +, la chaîne technique complète de diffusion, la Nos clients veulent pouvoir commander et voir ou entendre ce qu’ils veulent, quand ils le veulent, où ils le veulent, comme ils le veulent, et en toute simplicité. Les opérateurs de télécommunications qui se lancent dans la commercialisation d’offres de contenus pour leurs clients rencontrent souvent des problèmes pour constituer une offre attrayante. Il s’agit de ne pas chercher à tout faire mais d’additionner ses forces à celles de partenaires motivés pour satisfaire les demandes de clients de plus en plus exigeants. LA JAUNE ET LA ROUGE – AVRIL 200561 sécurisation et la gestion des droits, la définition et la gestion des décodeurs et des packs adaptateurs ADSL. TPS et Canal + assurent la sélection et la conception des bouquets de chaînes, la promotion et la distribution de leurs bouquets et la gestion des abonnements à leurs bouquets. La VOD est un cas de figure un peu différent. Le marché est totalement nouveau, distinct et complémentaire du marché de la distribution de chaînes de télévision ; il est encore plus gourmand en bande passante; la capacité de l’opérateur à optimiser l’usage de ses réseaux et serveurs est fondamentale. C’est pourquoi nous maîtrisons la chaîne technique complète ainsi que la constitution et la commercialisation de l’offre de vidéo à la demande selon un modèle de type kiosque qui assure une répartition des revenus entre les partenaires et l’opérateur. Nous faisons appel à un ensemble de partenaires pour la fourniture de contenus (films, séries, documentaires, programmation pour les enfants…). Pour les opérateurs de télécommunications, il est important de sécuriser l’accès aux contenus ; de maîtriser la conception de services de contenus adaptés aux réseaux/terminaux et aux comportements des clients; de maîtriser l’offre de contenus qu’ils proposent eux-mêmes à leurs clients, sa “ programmation ou animation ” et sa présentation (magasin ou portail) ; de maîtriser la sécurité qu’ils proposent à leurs partenaires et qu’ils assurent pour eux. Une exigence des auteurs et de nos partenaires : la sécurité Les opérateurs de télécommunications n’attireront des contenus de valeur attractifs et différenciants, leur permettant d’accroître le revenu généré par leurs clients existants, de fidéliser leurs clients et d’en attirer de nouveaux, que s’ils sont capables de convaincre les ayants droit qu’ils peuvent leur “ confier ” leurs droits avec le maximum de sécurité. 62AVRIL 2005 – LA JAUNE ET LA ROUGE Au sein de France Télécom, nous avons développé depuis longtemps des compétences propres et reconnues dans le domaine de l’accès conditionnel et du “ Digital Rights Management ” (DRM), commercialisées à travers la filiale Viaccess. Ces solutions sont proposées à l’extérieur (opérateurs satellites, câble, hertziens terrestres, fournisseurs de contenus sur Internet…) et utilisées pour nos propres services sur nos propres réseaux. La numérisation des contenus sous forme de fichiers permet de copier l’œuvre à l’infini sans détérioration de celle-ci et la dématérialisation de l’œuvre. Cela rend possible l’émergence de nouveaux services et entraîne une évolution des modes de consommation vers plus de souplesse et de diversité. Mais, dans un contexte changeant, ayants droit et consommateurs souhaitent voir leurs droits respectés. De nouveaux équilibres doivent donc être trouvés. Et les opérateurs doivent être des partenaires de confiance tant vis-à-vis des sociétés représentants les ayants droit que des utilisateurs finaux. Pour ce faire il importe de comprendre les enjeux induits par la numérisation des contenus, connaître les modèles de répartition en vigueur dans les industries du contenu ainsi que l’environnement légal associé, et développer des solutions de protection permettant de répondre d’une part aux attentes des ayants droit en leur ouvrant de nouveaux débouchés tout en leur assurant une juste rémunération et d’autre part des consommateurs finaux en leur proposant de nouveaux services attractifs simples, fluides et adaptés à leurs nouvelles pratiques de consommation. Conclusion La consommation de contenus en ligne est d’ores et déjà un vecteur important du développement du hautdébit sur tous les réseaux. Mais seule la capacité à innover et à proposer un univers intégré fixe/mobile permettant le dévelop- pement de nouveaux usages permettra de faire croître significativement la consommation des médias, dans l’intérêt de tous les acteurs. La pénétration croissante des équipements domestiques multimédias raccordés aux réseaux haut-débit fixes et mobiles, la marche vers le tout numérique avec ce que le numérique apporte de diversité, de richesse et de souplesse, l’arrivée de la hautedéfinition en télévision, la richesse intrinsèque des réseaux en matière d’interactivité sont de nature à faire évoluer positivement le marché et la donne. L’objectif ultime d’un opérateur de télécommunications est de procurer en tout lieu à ses clients les contenus qu’ils désirent, avec le maximum de facilité et de qualité, et d’offrir à ses partenaires la garantie de toucher les publics les plus larges en toute sécurité. n 1. Avec des dépenses d’une dizaine de milliards d’euros par an aujourd’hui contre moins du tiers il y a quinze ans. 2. Qui autorise 6,5 Mbit/s à près de 10 Mbit/s sur le canal descendant et 1 Mbit/s max sur le remontant (exemple de portée : 2 km à 6,5 Mbit/s). 3. Nécessite environ 4 Mbit/s pour un match de football par exemple. 4. Autorise 13 Mbit/s à près de 18 Mbit/s sur le canal descendant et 1 Mbit/s max sur le remontant (exemple de portée : 1,3 km à 13 Mbit/s et près de 2 km à 8 Mbit/s). 5. Une petite dizaine de Mbps pour un programme HD en MPEG4 contre grossièrement le double en MPEG2, la moitié en MPEG2 pour un programme de qualité standard, le quart en MPEG4. 6. Système GSM Global System Mobile normalisé en Europe. 7. D’autres technologies de diffusion (par satellite avec éventuellement une retransmission terrestre) sont actuellement en cours de déploiement en Corée (S-DMB). 8. Télévision numérique hertzienne terrestre, successeur de la classique TV hertzienne analogique sur nos “ antennes râteau ”. VIE DE L'ÉCOLE VIE DE L’ÉCOLE Polytechnique : un campus en pleine évolution Actualité de l’École, présentée par son président et son directeur général. A LORS QU ’ ELLE ENTRE dans la seconde phase du contrat pluriannuel signé avec l’État, l’École a, cette année, pérennisé les actions engagées depuis 2001 lui permettant ainsi de mettre en œuvre un grand nombre de projets dont certains trouveront leur aboutissement au-delà de l’horizon 2006. Mais 2004 marque également les prémisses de changements accélérés sur le campus de l’École. Ces changements vont, tout d’abord, induire une évolution notable du nombre de “ ses habitants ” : • 2 000 personnes de THALES, IOTA, DIGITEO (Numatec-PCRI), ONERA et l’ENSTA vont nous rejoindre progressivement d’ici 2009 ; • 40 hectares situés à l’ouest du campus et appartenant actuellement au ministère de la Défense devraient devenir constructibles dès l’officialisation du futur Plan local d’urbanisme (PLU) ; • enfin notre site, toujours grâce au futur PLU, devrait obtenir la capacité de doubler les surfaces constructibles. 68 AVRIL 2005 – LA JAUNE ET LA ROUGE Ces changements vont aussi conduire à une évolution des mentalités : • celle de nos élèves polytechniciens qui seront mis au contact direct d’étudiants de statuts différents, français ou étrangers : dans les masters, à SUP OPTIQUE, ou à l’ENSTA ; • celle des chercheurs mis au contact quotidien de chercheurs d’autres laboratoires implantés sur le site (IOTA, ONERA, DIGITEO, ENSTA) et du secteur privé, en particulier de THALES ; • celle des enseignants mis au contact régulier d’enseignants d’autres écoles du site, certains travaillant en parallèle dans une entreprise comme le font de nombreux vacataires de l’ENSTA et de SUP OPTIQUE. Enfin, l’École va s’impliquer dans un partenariat renforcé au sein de PARISTECH, ce qui aura pour conséquence : • de créer des liens forts et de nombreuses interactions entre les onze écoles de PARISTECH, • de promouvoir des regroupements géographiques, en particulier sur notre site. Ces réformes et ces projets sont tous en pleine concordance avec notre stratégie qui peut être ainsi synthétisée, conformément à notre contrat pluriannuel : tout en conservant les valeurs fondamentales de notre École et en les renforçant, notre stratégie consiste à faire de notre campus le noyau dur d’un centre mondial d’excellence, consolidé par des alliances fortes avec les grandes écoles de PARISTECH, et par la constitution d’un grand pôle de compétitivité rassemblant les industriels, les centres de recherche et les établissements d’enseignements supérieurs du plateau de Saclay et de ses environs. Voilà notre objectif, il est ambitieux, mais il est à notre portée, en particulier grâce à l’extraordinaire potentiel intellectuel et humain qui existe au sein de notre École. Yannick d’ESCATHA (66), président du Conseil d’administration de l’École polytechnique ; général Gabriel de NOMAZY, directeur général de l’École polytechnique