© Éditions First, un département d’Édi8, Paris, 2022. « Cette œuvre est protégée par le droit d’auteur et strictement réservée à l’usage privé du client. Toute reproduction ou diffusion au profit de tiers, à titre gratuit ou onéreux, de tout ou partie de cette œuvre, est strictement interdite et constitue une contrefaçon prévue par les articles L 335-2 et suivants du Code de la Propriété Intellectuelle. L’éditeur se réserve le droit de poursuivre toute atteinte à ses droits de propriété intellectuelle devant les juridictions civiles ou pénales. » ISBN : 978-2-412-07844-0 ISBN numérique : 978-2-412-08106-8 Correction et index : Sophie Guibout Mise en page : Istria Illustrations (entrées de chapitre) : Svekloid/Shutterstock Éditions First, un département d’Édi8 92, avenue de France 75013 Paris – France Tél : 01 44 16 09 00 Fax : 01 44 16 09 01 Email : [email protected] Site internet : www.lisez.com Ce document numérique a été réalisé par Nord Compo. « Savez-vous quelle est la première hypothèse de toute science, l’idée nécessaire de tout savant ? C’est que le monde est mal connu. Oui. Or, on pense souvent le contraire ; il y a des instants où tout paraît clair – où tout est plein, tout sans problèmes. Dans ces instants, il n’y a plus de science – ou, si vous voulez, la science est accomplie. Mais à d’autres heures, rien n’est évident, il n’y a que des lacunes, actes de foi, incertitudes ; on ne voit que des lambeaux, et d’irréductibles objets, de toutes parts. » Dialogue, ou nouveau fragment relatif à Monsieur Teste, Paul Valéry S Titre Copyright Avant-propos Chapitre 1 - Casser les atomes La chasse aux atomes Vers l'infini et en deçà Des atomes creux De l'orbite à l'orbitale De l'énergie cachée Dénoyauter les atomes L'alchimie des étoiles Résumé du concept : l'atome Chapitre 2 - Puiser l'énergie du Soleil La vérité se dérobe Un jeu d'ombres chinoises En voir de toutes les couleurs Annus mirabilis La naissance du photon Le Soleil comme batterie Les deux visages de la lumière Complémentaire, mon cher Watson Résumé du concept : la dualité onde-particule Chapitre 3 - Entendre l'univers Des atomes bien accordés Sauts de puce quantiques Scanner les étoiles Les photons de Panurge Laser à tout faire À l'écoute de l'Univers Résumé du concept : l'émission de la lumière Chapitre 4 - Scruter l'infiniment petit L'influence du regard Électrons farceurs Les ondes de matière Prédire l'imprévisible Taisez-vous et calculez ! Des univers parallèles Le passe-muraille quantique Tourner un film nanométrique Résumé du concept : la fonction d'onde Chapitre 5 - Communiquer en secret Jouer aux espions Un chiffrage clé en main La quantique, poison et remède À la fois pile et face Démasquer les espions Une clé inviolable Résumé du concept : la superposition Chapitre 6 - Téléporter l'information Coïncidence ou corrélation ? Des gants télépathiques Notre avenir est-il écrit ? Le génie de Bell De la friture sur la ligne Des talkies-walkies quantiques Un réseau en chantier Pas du gâteau Résumé du concept : l'intrication Chapitre 7 - Calculer plus vite que son ombre Le casse-tête du plan de table Coder l'information Des problèmes insolubles Le qubit à la rescousse Boîtes noires quantiques Vaincre la décohérence La guerre des qubits Révolution ou chimère ? Résumé du concept : le calcul quantique Chapitre 8 - Connaître l'heure exacte Compter à l'oreille Les fourmillements du vide Rien n'est immobile À la recherche du zéro absolu Midi moins le quartz Comprimer pour mieux voir Remettre les pendules à l'heure Résumé du concept : le principe d'incertitude Chapitre 9 - Détecter des tumeurs Un bouclier naturel Des atomes déboussolés To spin or not to spin La vie secrète des aimants Être en phase Le chant du spin Résumé du concept : le spin Chapitre 10 - Faire léviter des trains Des fourmis interchangeables Fermions et bosons Chacun son orbitale L'union fait la force Fendre la foule Les miracles des supraconducteurs Les trains du futur Résumé du concept : fermions et bosons Conclusion Glossaire Remerciements Références générales Références scientifiques Index AVANT-PROPOS Traverser l’Atlantique en brûlant quelques grammes d’uranium, percevoir les grondements de trous noirs situés à l’autre bout de l’Univers, organiser une course de voitures sur une route plus fine qu’un cheveu ou faire léviter un train en refroidissant ses roues à –170 °C… Ces exploits – plus ou moins utiles, mais tous étonnants – ont un point commun : ils sont le fruit de la physique quantique, théorie absconse qui s’est transformée en mine d’or technologique en l’espace d’un siècle. Sans quantique, pas de téléphone ni de GPS, pas d’ordinateur ni d’Internet, ni même de lecteur DVD. Pas non plus de centrales nucléaires, d’IRM, de panneaux solaires ou d’ampoules LED. On peut le dire avec certitude : la mine d’or est loin d’être tarie. La course à l’informatique quantique est devenue l’un des enjeux technologiques majeurs du XXIe siècle, comme celle à l’intelligence artificielle. D’autres technologies moins médiatiques, mais tout aussi prometteuses, émergent depuis une vingtaine d’années dans ce qu’il est dorénavant convenu d’appeler la « seconde révolution quantique » – la première ayant été celle, théorique, menée au début du siècle dernier. Pourtant, la méconnaissance du grand public à l’égard de la physique quantique donne l’impression d’une théorie obscure, déconnectée de la réalité, voire mystique. Cette perception suffit à alimenter toute une panoplie de dérives plus loufoques les unes que les autres : pis-aller scénaristique dans les films hollywoodiens, technique d’hypnose permettant de se « connecter » à ses protons, méthode révolutionnaire pour trouver l’âme sœur… Le but de ce livre est d’exposer clairement les concepts fondateurs de la physique quantique pour donner une meilleure compréhension de ce qu’elle est réellement. Nous n’avons pas pour objectif de retracer toute son histoire – non pas qu’elle soit ennuyeuse : c’est une épopée palpitante, dont les jeunes protagonistes rivalisent d’audace et de génie. Seulement, nous voulons aller plus directement aux faits et montrer qu’une théorie avec des concepts aussi déroutants, et si souvent fantasmés, peut avoir des manifestations étonnamment concrètes. Dans chaque chapitre, nous avons choisi de partir d’une innovation technologique qu’a permis la physique quantique pour introduire une notion théorique, alternant entre points techniques, anecdotes farfelues, débats épistémologiques et applications dans la vie quotidienne. Le but de cet ouvrage est aussi de convaincre le lecteur que les fondements de la théorie peuvent être appréhendés en profondeur sans la moindre équation. Davantage qu’un bagage solide en mathématiques, ce voyage au cœur des atomes exigera de vous un goût pour l’inconnu, le surprenant, l’absurde. Bonne lecture, ou plutôt bon voyage… Casser les atomes ? Cette phrase semble se contredire : a-tome provient du grec tomos, couper, précédé d’un a privatif. L’atome est donc ce que l’on ne peut couper. Pourquoi, alors, les avoir nommés ainsi ? Simplement parce que l’atome a été imaginé bien avant que l’on puisse le casser, ou même le déceler : c’est le savant grec Démocrite qui suggère le premier que la matière serait formée de petites briques indivisibles, comme un jeu de Lego. e À l’aube du XX siècle, la preuve de cette granularité de la matière marqua le premier pas vers la physique quantique. En retour, c’est cette dernière qui nous a appris à casser l’atome pour alimenter les centrales nucléaires, tout comme elle nous a appris à voir l’invisible, traverser l’infranchissable et mesurer l’imperceptible – nous le verrons au cours de ce livre. N’allons pas trop vite en besogne, et commençons par une immersion en douceur dans le monde fascinant des atomes. La chasse aux atomes Au Mexique, il est courant lors d’un anniversaire de casser une piñata, sorte de ballon en papier mâché que l’on accroche en hauteur. Les enfants, munis de bâtons, frappent férocement la structure jusqu’à ce qu’elle libère les bonbons qu’elle renferme. Lorsqu’il est heurté, le pauvre ballon est bousculé dans toutes les directions, au hasard des coups qu’il reçoit ; son mouvement est complètement aléatoire. Il se passe la même chose lorsque l’on dépose des petites poussières à la surface de l’eau : elles se mettent en mouvement, propulsées non pas par des coups de bâtons mais par des particules qui viennent les heurter. Sont représentés les mouvements aléatoires de trois poussières mesurant un micromètre de diamètre. Source : reproduction d'un dessin de Jean Perrin dans Mouvement brownien et réalité moléculaire (1909) C’est en observant le mouvement de ces poussières que le physicien français Jean Perrin démontre, en 1909, que les liquides sont constitués de petites particules glissant les unes sur les autres : les molécules. Il met par la même occasion un terme à un débat ancestral sur la nature de la matière : cette dernière n’est pas lisse, mais composée de molécules, ellesmêmes formées d’atomes liés les uns aux autres. Si deux millénaires se sont écoulés entre les intuitions visionnaires de Démocrite et la première mise en évidence des atomes, c’est notamment à cause de leur taille. Ils sont bien trop petits pour être observés à l’œil nu, ou même au microscope : ce n’est qu’indirectement que Jean Perrin a pu les « voir », par les effets qu’ils produisent sur des poussières… Vers l’infini et en deçà Pour découvrir le monde quantique, il est important de se faire une idée de la taille des objets qu’il implique. On lit souvent que la physique quantique décrit « l’infiniment petit ». Il s’agit d’un abus de langage, puisque la matière n’est justement pas lisse : elle est formée d’atomes, qui possèdent une certaine taille, certes petite, mais pas nulle. Ailleurs, on lit qu’il s’agit de la physique du monde microscopique. Là encore, c’est imprécis : le monde microscopique est celui du micromètre (un millième de millimètre), qui est visible au microscope. C’est une échelle courante en biologie : nos cheveux mesurent quelques dizaines de micromètres d’épaisseur, comme la plupart de nos cellules. Le monde quantique est encore plus petit : il débute à l’échelle des atomes, celle du nanomètre, mille fois plus petit que le micromètre, et s’étend jusqu’à l’échelle des protons, celle du femtomètre, encore un million de fois plus petit… Prenons un exemple concret pour se représenter ces tailles. Une molécule d’eau, notée H2O car formée de deux atomes d’hydrogène H et d’un atome d’oxygène O, mesure environ un nanomètre. Combien de molécules faut-il pour remplir un verre d’eau ? Environ un million de trillions, soit 1 000 000 000 000 000 000 000 000. Ce nombre est trop grand pour nous évoquer quoi que ce soit, mais on peut se le représenter de la manière suivante : c’est environ le nombre de verres d’eau que contient l’océan Pacifique ! Le verre d’eau est donc à mi-chemin entre les objets les plus petits et les objets les plus grands de notre planète. BOIRE DANS LE VERRE DE DÉMOCRITE Conséquence frappante de la taille des atomes : chaque verre d’eau que nous buvons aujourd’hui contient quelques millions de molécules d’eau ayant été bues par Démocrite il y a deux millénaires ! Vous n’en croyez mot ? Faisons le calcul : ayant vécu jusqu’à l’âge vénérable de 103 ans, Démocrite a dû boire près d'un million de verres d’eau au cours de sa vie. Cela ne représente qu’un trillionième de la quantité d’eau sur Terre. Néanmoins, depuis deux millénaires, les molécules d’eau bues par Démocrite ont été uniformément disséminées aux quatre coins de la planète au gré des cycles climatiques. Ainsi, on peut estimer qu’elles se retrouvent aujourd’hui dans chaque verre que l’on boit, à hauteur d’une molécule par trillion. Et comme ledit verre contient un million de trillions de molécules, cela revient statistiquement à un million de molécules bues par le père des atomes ! Des atomes creux Dans les cours de physique du secondaire, on donne généralement une image très simple de l’atome : un petit amas de protons et de neutrons, le noyau, entouré d’électrons. Pourtant, une chose est sûre aujourd’hui : l’atome est loin de ressembler à cela. Déconstruire cette image a été l’un des chevaux de bataille de la mécanique quantique. Mais avant de montrer à quoi l’atome ressemble vraiment, prenons le temps de décortiquer cette représentation trompeuse. Ce qu’il y a de vrai dans cette image, c’est que l’atome n’est pas une particule élémentaire, dans la mesure où il est formé d’autres particules plus petites. C’est le physicien anglais Joseph John Thomson qui l’affirme à la fin du XIXe siècle, en parvenant à arracher aux atomes des petites particules : les électrons. Thomson imagine alors l’atome comme une sorte de soupe peu dense, appelée plum-pudding 1, dans laquelle les électrons flottent. En 1909, Ernest Rutherford, élève de Thomson, démontre qu’en réalité les électrons vivent autour d’un noyau extrêmement compact, lors d’une expérience où il mitraille une fine feuille d’or avec des particules radioactives. Il s’étonne de voir les projectiles rebondir au contact des atomes d’or : le modèle de plum-pudding de Thomson suggère que les projectiles devraient traverser sans être déviés, comme des balles de pistolet. Pour Rutherford, seule la présence d’un noyau très petit et dur au centre de l’atome peut expliquer ce phénomène. Petit à quel point ? Tenez-vous bien : si le noyau mesurait la taille d’une bille, les électrons se trouveraient en orbite à plusieurs kilomètres de lui ! Le reste de l’atome, c’est-à-dire plus de 99,99 % de son volume, n’est que du vide. Prenez la tour Eiffel : si l’on pouvait ôter tout le vide de ses atomes, elle pourrait tenir dans un dé à coudre ! Mais si la matière qui la constitue est à ce point creuse, comment peut-elle tenir debout ? Patience, c’est la physique quantique qui nous apportera la réponse… Achevons ce portrait « classique » de l’atome en précisant que les électrons portent une charge électrique négative. Si les atomes sont électriquement neutres, c’est parce que cette charge est compensée par la charge électrique positive des protons situés dans le noyau. Or, en électricité, les opposés s’attirent : le noyau a tendance à attirer les électrons, tout comme le Soleil attire la Terre par gravité. Il est donc tentant d’imaginer que les électrons « gravitent » autour du noyau, de la même manière que les planètes tournent autour du Soleil : c’est exactement l’image que propose Rutherford en 1911. Quoi de plus séduisant que l’idée de réconcilier le microcosme de l’atome avec le macrocosme du Système solaire ? CULTURE Dans la superproduction Marvel Ant-Man (2015) et ses suites, le personnage principal peut se rapetisser grâce à une combinaison spéciale. S’il se réduit en général à la taille d’un insecte ou d’une poussière, il se voit dans un cas de force majeure contraint de descendre dans la « dimension subatomique ». On le voit alors devenir successivement plus petit qu’une cellule, qu’une molécule, puis qu’un atome. Si la vision de ce monde nanométrique est romancée, les effets spéciaux ont le mérite d’essayer de représenter l’aspect vide de la matière. De l’orbite à l’orbitale Le modèle planétaire de Rutherford révéla rapidement ses limites. Il fut d’abord critiqué pour son incompatibilité avec la théorie de l’électromagnétisme, selon laquelle une particule chargée en mouvement émet de la lumière. Par ce phénomène, l’électron devrait perdre de l’énergie petit à petit, jusqu’à s’écraser sur le noyau. Si les atomes étaient ainsi faits, il paraît peu probable que nous soyons là pour en discuter aujourd’hui. Ensuite, des expériences montrèrent que l’énergie des électrons ne peut pas prendre toutes les valeurs possibles, mais seulement quelques valeurs bien précises – un peu comme si votre voiture pouvait rouler à 30 ou 50 km/h, mais pas à 40 ni à 60. Ce phénomène, que nous détaillerons plus loin, poussa le physicien danois Niels Bohr à proposer un nouveau modèle planétaire pour l’atome, dans lequel seules certaines orbites sont autorisées autour du Soleil (noyau), et les planètes (électrons) sautent mystérieusement d’une orbite à l’autre. Plus tard encore, de nouvelles découvertes poussèrent les physiciens à rejeter l’idée même d’un électron bien localisé. Il ne faut alors plus imaginer des planètes qui se déplacent le long d’une orbite, mais des sortes de ballons de baudruche flottant autour du noyau. Ces ballons portent le nom d’orbitales, clin d’œil au modèle planétaire de l’atome dont ils entraînent l’abandon. Lorsque l’on cherche à localiser l’électron, ce dernier se matérialise en un point aléatoire à l’intérieur de son orbitale. L’orbitale délimite ainsi les endroits où l’électron peut se trouver : il faut l’imaginer comme un nuage de présence, qui se contracte en un point précis lorsque l’on mesure la position de l’électron. Cette nature fantomatique n’est en fait pas le propre de l’électron : elle est inhérente à tous les objets quantiques, comme nous le verrons plus tard. Trêve de mise en bouche : montrons à quoi ressemblent ces ballons dans lesquels se cachent les électrons. Sur la figure ci-dessus, nous avons représenté six orbitales séparément ; il faut en réalité les imaginer blotties les unes contre les autres autour du noyau, comme une grappe de ballons d’hélium qui flottent au-dessus d’un stand de fête foraine. L’atome d’hydrogène, qui ne possède qu’un électron, ressemble à une sphère toute simple, comme en haut à gauche dans la figure. Les atomes les plus volumineux, comme l’uranium, possèdent une centaine d’électrons, autant vous dire qu’ils ne sont pas faciles à dessiner ! Néanmoins, grâce à la théorie quantique, la forme de ces orbitales peut être calculée très précisément. De l’énergie cachée Puisque l’atome n’est pas une particule élémentaire, il est non seulement possible, mais en fait très facile de le casser : il suffit par exemple de lui arracher des électrons. Vous pouvez le faire vous-même grâce à une expérience très simple : gonflez un ballon de baudruche et frottez-le contre vos cheveux. Le ballon leur arrachera des électrons, et donc des charges négatives. Chaque cheveu se retrouvera avec une petite charge positive, et sera repoussé par ses voisins : l’ensemble se dressera sur votre tête pour occuper plus d’espace. À l’inverse, le ballon sera chargé négativement, si bien qu’il pourra se coller aux murs en attirant les charges positives de leur surface. Si cette expérience est divertissante, il est peu utile de casser les atomes de cette manière. Lorsque nous parlions, dans l’introduction, de casser les atomes, nous pensions plutôt à ce qui se passe dans les centrales nucléaires. Pour extraire de l’énergie des atomes, c’est le noyau lui-même, ce minuscule assemblage de protons et de neutrons, qu’il faut réussir à briser – d’où le nom d’énergie nucléaire (de nucleus, noyau en latin). Cette idée parut dans un premier temps inaccessible, même aux plus grands experts de physique atomique. Rutherford, que nous avons cité parmi les pères de l’atome, aurait qualifié les physiciens cherchant à extraire l’énergie nucléaire de charlatans en 1933. Il était bien loin d’imaginer que la décennie suivante, cette forme d’énergie aboutirait à la déflagration d’Hiroshima. Pourquoi le fait de casser un noyau libère-t-il de l’énergie ? C’est ici qu’intervient la formule la plus célèbre – et peut-être la moins bien comprise – de l’histoire des sciences : E = mc2. Celle-ci naît en 1905, durant l’annus mirabilis d’Albert Einstein, année où le physicien allemand refonde à lui seul la physique tout entière – nous y reviendrons. Que se cache-t-il derrière cette célèbre formule ? Ce que nous appelons la masse m d’un objet est en fait proportionnelle à la quantité d’énergie que l’objet contient, notée E. Par exemple, lorsqu’une pile électrique est déchargée, elle est légèrement moins lourde, puisqu’elle a perdu de l’énergie. La constante de proportionnalité, c2, est la vitesse de la lumière au carré, un nombre extrêmement grand. Ainsi, une simple pomme, pesant 200 grammes, renferme en elle une énergie comparable à la consommation énergétique quotidienne de la France ! Pourquoi cette pomme ne nous apporte-t-elle qu’une poignée de calories lorsque nous la mangeons ? Tout simplement parce que notre intestin est bien loin de pouvoir extraire toute cette énergie. Même les centrales nucléaires convertissent moins d’un pour cent de la masse de l’uranium en énergie. Où cette énergie se cache-t-elle, et pourquoi est-elle si difficile à libérer ? Dénoyauter les atomes On imagine souvent que pour déterminer la masse d’un corps, il suffit d’additionner la masse de tous ses constituants. C’est bien le cas à notre échelle : la masse d’un sachet de bonbons est égale à la somme des masses des bonbons pris indépendamment (en ignorant le poids du sachet). Pourtant, dans le monde des atomes, les choses ne sont pas aussi simples. Munissez-vous d’une balance ultra-précise et pesez le noyau d’un atome d’uranium-238, sorte de sachet de bonbons formé de 92 protons et de 146 neutrons. Divisez ensuite ce noyau en deux noyaux plus petits, et pesez chacun des deux : vous aurez la surprise de trouver une masse totale plus faible ! Comment expliquer cette différence de masse ? Dans notre monde, la masse est une propriété intrinsèque d’un objet : un bonbon pèsera toujours la même masse, quel que soit l’état du monde qui l’entoure. Dans le monde quantique, les particules ne peuvent être considérées comme des entités isolées ; leurs propriétés, notamment leur masse, dépendent de leurs interactions. Ainsi, un proton ne pèse pas la même masse lorsqu’il est tout seul et lorsqu’il est au sein d’un noyau atomique, en interaction avec tous les autres protons et neutrons. De même, un noyau d’uranium ne pèse pas la même masse lorsqu’il est entier et lorsqu’il est divisé en deux. La fission nucléaire consiste donc à bombarder des atomes d’uranium à l’aide de neutrons, dans le but de fendre leurs noyaux en deux noyaux plus petits, comme illustré dans la figure précédente. La différence de masse est alors libérée sous forme d’énergie, suivant la formule E = mc2. L’énergie dégagée est colossale : lors du bombardement d’Hiroshima, la fission de moins d’un kilogramme d’uranium a suffi à relâcher autant d’énergie que quinze mille tonnes de TNT, l’explosif le plus couramment utilisé pendant la Seconde Guerre mondiale. CASSER LES PROTONS Nous avons vu que les atomes sont constitués d’électrons, de protons et de neutrons. Ces particules, elles, sont-elles élémentaires ? La réponse est affirmative pour ce qui concerne les électrons, mais négative pour ce qui concerne les protons et les neutrons. Ces derniers peuvent donc être cassés, au même titre que les atomes, pour révéler leurs constituants : les quarks. Pour cela, une centrale nucléaire ne suffit pas : il faut un accélérateur de particules, une énorme machine qui propulse les protons et neutrons à des vitesses proches de celle de la lumière, puis les contraint à une collision frontale. L’accélérateur de particules le plus célèbre est le Large Hadron Collider (LHC) du CERN 2, en Suisse. Son but n’est pas de produire de l’énergie, mais plutôt de détecter des résidus intéressants lors des collisions. On y rencontre des quarks, mais aussi tout un florilège de particules exotiques comme le boson de Higgs, longtemps une pièce manquante de la physique des particules, enfin observé en 2012. L’alchimie des étoiles La fission nucléaire est d’une efficacité redoutable, sans commune mesure avec les autres méthodes que nous connaissons pour produire de l’énergie. Fendre un kilogramme d’uranium libère plusieurs millions de fois plus d’énergie que brûler un kilogramme de charbon, et possède le grand avantage de ne pas rejeter de gaz carbonique CO2 dans l’atmosphère : la fumée blanche que l’on voit s’échapper des centrales nucléaires n’est que de la vapeur d’eau. Néanmoins, on le sait, les centrales nucléaires ne sont pas sans risques. La fission nucléaire est fondée sur un équilibre délicat : lorsque les noyaux se brisent sous l’impact d’un neutron, ils libèrent un nouveau neutron, qui peut à son tour briser d’autres atomes et ainsi de suite, initiant une réaction en chaîne (voir figure ici). Celle-ci permet à la fission d’être autoentretenue, mais doit impérativement être contrôlée pour éviter des drames comme celui de Tchernobyl en 1986, lorsqu’une surchauffe entraîna la destruction complète du réacteur. De plus, la fission met en jeu des atomes dont les noyaux sont suffisamment gros et instables pour qu’il soit facile de les casser. Ces noyaux sont radioactifs : ils peuvent se désintégrer spontanément en émettant des rayonnements gamma extrêmement énergétiques et nocifs. Après la fission, ils engendrent deux nouveaux noyaux certes plus petits, mais toujours radioactifs : ce sont les fameux déchets nucléaires qui suscitent tant d’inquiétudes, pouvant rester radioactifs pendant des millions d’années. Pour pallier ces deux défauts, une alternative s’offre à nous : la fusion nucléaire. Elle exploite le procédé inverse : partir de deux petits noyaux instables (le deutérium et le tritium, variants de l’hydrogène), et les fondre ensemble pour former un nouveau noyau plus stable (l’hélium), comme illustré dans la figure ci-dessous. C’est exactement ce qui se produit au cœur des étoiles : ces usines à matière produisent une kyrielle d’atomes dans une fournaise de plusieurs millions de degrés en fusionnant des noyaux de plus en plus gros. Véritable Graal de la recherche nucléaire, la fusion fait miroiter la promesse d’une source d’énergie propre et abondante. La maîtriser est l’objectif du projet ITER, l’une des plus grandes collaborations scientifiques internationales de l’histoire, basée à Cadarache dans le sudest de la France. La collaboration prévoit une première démonstration de la fusion vers la fin des années 2030, et espère pouvoir mettre au point un réacteur commercial à l’horizon 2050. Toutefois, en dépit des moyens déployés et des avancées récentes, les coûts restent énormes pour reproduire les conditions de température d’une étoile sur Terre, et laissent planer le doute sur la rentabilité énergétique du dispositif… En attendant de pouvoir fabriquer une étoile nous-mêmes, la solution serait-elle de puiser directement l’énergie du Soleil ? La réponse au chapitre suivant. Résumé du concept : l’atome L’atome est la brique de base de la matière. Son existence, dont on avait eu l’intuition dès l’Antiquité, ne fut démontrée qu’au XXe siècle. Il est constitué d’un très petit noyau entouré d’électrons, ce qui nous a menés à imaginer l’ensemble comme un Système solaire miniature. La physique quantique nous a appris que la réalité est bien plus complexe : les électrons vivent en fait dans des sortes de ballons de baudruche appelés orbitales. Quant au noyau, on peut le briser en deux noyaux plus petits en le bombardant de neutrons. En se fissurant, le noyau relâche une grande quantité d’énergie selon la formule E = mc2 : c’est le principe de la fission nucléaire. La fusion nucléaire, encore loin de portée, exploite le procédé inverse. 1. En référence au gâteau aux fruits secs typiquement anglais, traditionnellement dégusté à Noël. 2. Le CERN est l’Organisation européenne pour la recherche nucléaire. Les plantes se développent grâce à une merveilleuse petite fabrique à énergie : la photosynthèse, qui leur permet de produire de l’énergie à partir de la lumière du Soleil. Depuis quelques décennies, nous exploitons un procédé similaire pour produire de l’électricité grâce aux panneaux photovoltaïques. Le mécanisme à l’œuvre dans les deux cas n’est rien de moins que celui qui bouleversa la physique à l’aube du photoélectrique. e XX siècle : l’effet Cet étrange phénomène nous a permis de comprendre qu’à l’instar de la matière, la lumière est faite de grains. C’est le sésame vers un monde insoupçonné, aux propriétés ambivalentes ; pour y voir plus clair, un bref retour dans le temps s’impose. La vérité se dérobe Observez attentivement l’image ci-dessous. Qu’y voyez-vous ? Cinq cubes dont les coins sont creusés ? Ou au contraire, cinq coins de murs contre lesquels sont posés des cubes ? Le point central de chacun des cinq hexagones peut être perçu vers l’avant ou vers l’arrière, et c’est cette ambivalence qui fait la subtilité de l’œuvre de l’artiste franco-hongrois Victor Vasarely, spécialiste du trompe-l’œil. Hexa 5 de Victor Vasarely (1988) En physique, il arrive aussi que des questions admettent plusieurs réponses. Au XIXe siècle, alors que la discipline vit un âge d’or depuis l’époque de Newton, une controverse virulente s’anime autour du débat suivant : qu’est-ce que la lumière ? D’un côté, ceux qui imaginent la lumière comme une onde, au même titre que les sons ou les vagues sur l’océan : c’est la théorie ondulatoire, développée notamment par le néerlandais Christian Huygens. De l’autre, ceux qui voient la lumière comme une gerbe de petites particules. Parmi les défenseurs de cette théorie dite corpusculaire, on compte Newton, premier homme à avoir décomposé la lumière blanche en arc-en-ciel à l’aide d’un prisme. En l’absence de preuves empiriques soutenant l’une ou l’autre des théories, la seconde a dominé les débats pendant deux siècles, en grande partie grâce à la popularité de Newton. Un jeu d’ombres chinoises Ce n’est qu’en 1801 que les théories sont confrontées à l’expérience, lorsqu’un jeune anglais, Thomas Young – retenez bien ce nom –, se met en tête de jouer aux ombres chinoises. Son dispositif est d’une simplicité déconcertante : imaginez une feuille percée de deux fentes, que l’on éclaire à l’aide d’une source lumineuse (voir figure suivante). Qu’observe-t-on sur un écran placé derrière les fentes ? Si la lumière est formée de particules, on s’attend tout simplement à observer l’ombre portée des deux fentes. Pourtant, Young observe quelque chose de radicalement différent : une élégante série de franges lumineuses, tantôt brillantes, tantôt sombres ! Ceci ne peut s’expliquer qu’en faisant appel à deux phénomènes propres aux ondes, déjà bien connus à l’époque. D’abord, au sortir des fentes, les deux faisceaux de lumière s’étalent perpendiculairement à celles-ci, si bien qu’ils se superposent sur l’écran. Ce phénomène porte le nom de diffraction – vous pouvez l’observer très facilement en plissant les paupières. Les quelques rayons de lumière qui se faufilent dans votre œil s’étirent selon des lignes verticales, et ce d’autant plus que l’espace entre les paupières se rétrécit. Ensuite, les franges lumineuses se forment par un phénomène d’interférence, au niveau de la zone de rencontre des rayons diffractés par les deux fentes. Ce phénomène est plus intuitif : lorsque deux vagues se superposent, elles peuvent soit se renforcer, si leurs crêtes et leurs creux coïncident, soit s’annuler, si les crêtes de l’une coïncident avec les creux de l’autre. C’est ce qui produit une alternance de zones brillantes et de zones sombres. La théorie ondulatoire sort triomphante de cette expérience… Mais sa concurrente est loin d’avoir dit son dernier mot. En voir de toutes les couleurs En 1839, le physicien français Antoine Becquerel découvre un phénomène inattendu en éclairant un morceau de métal : l’apparition d’un courant électrique, c’est-à-dire un mouvement d’électrons au sein du métal. Cela signifie que la lumière a le pouvoir d’arracher des électrons aux atomes : c’est l’effet photoélectrique. Quelques années plus tard, on découvre que cet effet a une étrange particularité : il ne se produit pas pour toutes les couleurs. Il se produit en présence d’une lumière bleue, mais pas pour une lumière rouge, et ce, quelle que soit la puissance de la source lumineuse… Précisons ce qu’est une couleur : la lumière, on l’a dit, se comporte comme une onde – n’en déplaise à Newton. Pensez à une série de vagues sur l’océan : chaque point à la surface de l’eau oscille verticalement. Toute onde est caractérisée par sa fréquence, c’est-à-dire par le nombre de fois qu’elle oscille par seconde. C’est cette fréquence qui détermine la couleur de la lumière : le rouge correspond à une onde qui bat quatre cent mille milliards de fois par seconde, tandis que le bleu bat presque deux fois plus vite. De manière équivalente, on peut déterminer la couleur d’une lumière en mesurant sa longueur d’onde, c’est-à-dire la distance entre deux crêtes successives (plus la fréquence est élevée, plus la longueur d’onde est faible). Le bleu a une longueur d’onde de 500 nanomètres, tandis que le rouge a une longueur d’onde de 800 nanomètres. Comment expliquer le fait que la lumière rouge ne provoque pas de courant électrique ? Comment la fréquence d’une onde peut-elle déterminer sa capacité à générer un courant ? Cette observation surprenante resta un mystère pendant plus de soixante ans ; il manquait décidément quelque chose à la physique pour expliquer ces observations. Annus mirabilis Nous voilà en 1905. Albert Einstein est encore un jeune homme. Loin d’être « nul à l’école » comme on l’entend parfois, il n’en reste pas moins un personnage peu académique, qui préfère rêvasser qu’écouter des cours magistraux. Résultat : il n’obtient pas de bourse de thèse, et se voit contraint de travailler dans un office des brevets à Berne pour subvenir à ses besoins. Cela ne l’empêche pas de se frotter aux grands problèmes de la physique dans son temps libre, et avec un certain culot. Cette année-là, Einstein rédige quatre articles qui sont autant de tremblements de terre dans le monde de la physique. L’un d’eux met en équation le mouvement brownien, cette bougeotte désordonnée que Jean Perrin utilisa pour prouver l’existence des atomes quatre ans plus tard (voir chapitre 1). Un autre énonce la célèbre formule E = mc2 que nous avons également découverte dans le chapitre précédent. Mais surtout, les deux derniers répondent aux deux plus grands paradoxes de son temps, portant sur la nature de la lumière. Il n’est pas exagéré de dire que ces articles ont posé les fondements des deux grands piliers de la physique moderne. Le premier paradoxe porte sur la vitesse de la lumière : pourquoi les rayons émis par les phares d’un train en marche se déplacent-ils aussi vite que ceux émis par un train à l’arrêt ? La réponse oblige à accepter un décalage entre les horloges des deux trains : c’est la naissance de la relativité, qui décrit l’élasticité de l’espace-temps. Le second paradoxe, c’est celui de l’effet photoélectrique que nous venons de découvrir. Pour le résoudre, Einstein, du haut de ses 26 ans, se permet de tordre le cou à la théorie ondulatoire, que l’expérience de Young avait rendue quasi irréfutable. La naissance du photon Einstein revient à l’idée de Newton, selon laquelle la lumière serait formée de grains trop petits pour être visibles à l’œil nu. Elle serait un peu comme l’écran d’un smartphone : lisse vue de loin, pixélisée de très près. Chaque « pixel » de lumière, appelé photon, transporte une énergie E proportionnelle à sa fréquence , ce qui se traduit par la formule E = h. La constante de proportionnalité, notée h, est la constante de Planck, peutêtre la plus emblématique de la physique quantique. Sa valeur est très faible, traduisant le fait que les photons possèdent individuellement une très petite quantité d’énergie. Ce n’est qu’en nombre faramineux qu’ils peuvent former un rayon lumineux visible : une simple lampe de poche émet des milliards de milliards de photons chaque seconde ! Conséquence de cette loi : un photon bleu transporte plus d’énergie qu’un photon rouge, puisque sa fréquence est deux fois plus élevée. On le voit en observant une bougie de près : la zone la plus chaude – et donc la plus énergétique –, à la base de la flamme, est teintée de bleu. À des fréquences (et donc des énergies) plus élevées que le bleu, on trouve les rayons ultraviolets du Soleil, qui sont dangereux à long terme pour notre peau, ou encore les rayons X, employés à faible dose dans l’imagerie médicale, car plus puissants encore que les ultraviolets. Les championnes de la haute énergie sont les ondes gamma, caractéristiques de la radioactivité, dont les photons sont assez puissants pour découper la chair (on utilise le gamma knife 1 en chirurgie pour remplacer le bistouri !). Vous l’aurez compris, plus la fréquence d’un photon est élevée, plus il transporte d’énergie. Il existe donc deux manières d’augmenter la puissance d’une source lumineuse : augmenter son intensité, c’est-à-dire le nombre de photons qu’elle transporte, ou changer sa couleur, c’est-à-dire l’énergie que transporte chaque photon. Seulement, ces deux méthodes ne sont pas équivalentes en ce qui concerne l’effet photoélectrique, et c’est ce qui explique le phénomène de « tout ou rien » observé. Les photons rouges n’ont pas assez d’énergie pour arracher un électron au métal : on aura beau augmenter leur nombre, aucun courant ne sera libéré. Autant tuer un âne à coups de figues, comme le disent les Provençaux… En revanche, les photons bleus sont capables d’arracher un électron, et le courant qui en résulte augmente avec l’intensité lumineuse. Ainsi, c’est en remettant la théorie corpusculaire sur le devant de la scène qu’Einstein parvient à expliquer l’effet photoélectrique. Parmi tous ses éclairs de génie, c’est celui-ci qui lui valut son unique prix Nobel en 1921 – on aurait pu lui en décerner plusieurs autres, au risque de faire des jaloux. UN BILLARD LUMINEUX Si la théorie du photon, qui entre en contradiction avec les expériences de Young, suscita de nombreuses critiques, les derniers réfractaires durent baisser les armes en 1923, suite aux expériences de l’américain Arthur Compton. Ce dernier bombarda des électrons avec des rayons X et récolta en retour des rayons de fréquence plus faible. Seule explication possible : les photons rebondissent sur les électrons, comme des boules de billard, et perdent de l’énergie lors de la collision. Seulement, ce n’est pas leur vitesse qui diminue (ils ne peuvent se déplacer qu’à la vitesse de la lumière), mais leur fréquence. Ses résultats expérimentaux confirmèrent parfaitement les prédictions de la formule E = h. Le Soleil comme batterie La lumière du Soleil reçue par la Terre en une heure permettrait, si elle était récupérée en totalité, de pourvoir aux besoins énergétiques de la planète pendant environ un an. Pour tirer profit de cette ressource inestimable, les scientifiques prirent rapidement conscience du potentiel de l’effet photoélectrique : la première cellule photovoltaïque fut fabriquée dès 1883. Bien entendu, nous sommes loin de pouvoir tapisser la planète de panneaux noirs : la production de ces derniers est coûteuse et polluante. Mais un autre défi technologique se pose : les cellules photovoltaïques les plus récentes ne parviennent à récupérer que 10 % tout au plus de l’énergie qu’elles reçoivent. Pourquoi un rendement si faible, et comment l’améliorer ? CULTURE Une méthode pour récupérer l’énergie lumineuse du Soleil, particulièrement prisée des auteurs de science-fiction, est la sphère de Dyson, qui apparaît dans le cycle de romans Omale (2001) ou encore la série Star Trek (1992). Il s’agit d’une coquille géante englobant l’étoile pour en collecter l’intégralité des rayons lumineux. Cette mégastructure fascine, car elle pourrait permettre le développement de civilisations extraterrestres très avancées, capables notamment d’exploiter cette énergie pour voyager à travers le cosmos, mais invisibles depuis la Terre (car cachées dans leur sphère). Ceci expliquerait peut-être pourquoi nous n’avons toujours pas eu de signe d’une autre espèce douée d’intelligence ! Repensons à l’effet photoélectrique et à son caractère « tout ou rien ». La lumière du Soleil est composée d’un mélange de photons de toutes les couleurs de l’arc-en-ciel, ainsi que d’une bonne part d’ultraviolets. Parmi tous ces photons, seuls ceux dont la fréquence dépasse un certain seuil parviendront à déclencher un effet photoélectrique : tous les autres seront perdus. Il paraît donc tentant de baisser le seuil pour récupérer plus de photons, mais dans ce cas, on récupère moins d’énergie à chaque photon collecté. Ainsi, le choix de la fréquence seuil, qui dépend des matériaux utilisés, est un dilemme similaire à celui d’un vendeur de tapis : si ses tapis sont trop chers, peu de monde les achète, mais s’ils sont trop bon marché, ils rapportent peu. UNE INVENTION LUMINEUSE Les ampoules LED fonctionnent aussi grâce à l’effet photoélectrique. Elles l’exploitent en fait en sens inverse : à la place d’un photon qui provoque la libération d’un électron, c’est l’électron qui se recombine avec un atome pour libérer des photons, et donc de la lumière. Fabriquées dès les années 1960, il fallut attendre les années 1990 pour réussir à produire des LED émettant de la lumière bleue, pouvant servir à l’éclairage. Cette invention est loin d’être anecdotique : la consommation énergétique des LED bleues est plus de cinq fois moindre que celle des ampoules à incandescence, si bien qu’elles ont rapidement envahi notre quotidien, de l’éclairage public aux écrans d’ordinateur. Elles ont également l’avantage d’être une dizaine de fois plus durables, et de ne pas produire de chaleur. Dans la mesure où un cinquième de l’électricité mondiale sert à l’éclairage, cette technologie, dont les inventeurs ont été couronnés du prix Nobel en 2014, revêt une grande importance en termes d’économies d’énergie. Les deux visages de la lumière Impossible de clore ce chapitre sans vous donner l’issue de ce houleux débat onde-particule. En effet, si le concept de photon introduit par Einstein résout la question de l’effet photoélectrique, il n’explique pas comment la lumière peut produire des interférences comme celles observées par Young ! Comment expliquer que la lumière puisse se comporter tantôt comme une particule et tantôt comme une onde ? Pour tenter de répondre à cette question, l’expérience de Young fut revisitée au e XX siècle, en envoyant non plus un faisceau de lumière à travers les fentes, mais des photons isolés, un par un. Les premiers photons envoyés forment des impacts nets sur l’écran, à des endroits a priori aléatoires. Mais photon après photon, une forme se dessine : certaines zones sont couvertes d’impacts, tandis que d’autres restent vierges (voir figure). Miracle : on voit réapparaître les franges verticales qu’observait Young, trahissant la présence d’interférences ! Comment expliquer un tel résultat ? Rappelons que les photons sont envoyés un par un et ne peuvent donc pas s’influencer l’un l’autre. Or, les interférences ne peuvent s’expliquer que par l’interaction entre une onde provenant de la fente de gauche et une autre provenant de la fente de droite. Vraisemblablement, un photon ne peut passer que par une fente à la fois, pas les deux… Seulement, comme nous allons le voir tout au long de notre voyage dans le monde des atomes, la physique quantique se soucie peu de ce que nous considérons comme vraisemblable. Au contraire, elle semble prendre un malin plaisir à renverser notre intuition. Cette expérience suggère que chaque photon doit, d’une manière ou d’une autre, traverser les deux fentes simultanément, à la manière d’une onde, puis se recombiner à la surface de l’écran pour former un unique impact. Le photon doit donc interférer avec lui-même. En un siècle, nous voilà passés d’une conception ondulatoire de la lumière à une conception corpusculaire, pour enfin conclure que la lumière est formée de grains pouvant se comporter individuellement comme des ondes. Complémentaire, mon cher Watson Pour vérifier que le photon passe bien par les deux fentes, il est tentant de placer un détecteur devant chaque fente. Seulement, pour être détecté, le photon doit nécessairement entrer en collision avec le détecteur, ce qui le détruit et l’empêche de parvenir jusqu’à l’écran. Pour Niels Bohr, il est physiquement impossible de réussir à satisfaire notre curiosité. On ne peut pas simultanément observer le caractère ondulatoire (les interférences) et corpusculaire de la lumière (la trajectoire du photon). Il propose alors le concept de complémentarité ondeparticule. Tout se passe comme dans le paradoxe visuel des cubes de Vasarely : on peut se convaincre que le point central est vers l’avant, puis vers l’arrière, mais il est très difficile de percevoir les deux perspectives en même temps. Cette complémentarité est-elle une loi inviolable de la nature, ou pourraiton l’enfreindre en trouvant un moyen de détecter le photon sans l’affecter, de manière à observer malgré tout des interférences, comme un détective qui photographie discrètement un suspect ? Le défi est de taille, tant le photon est fragile. Depuis une vingtaine d’années, il est possible de détecter la présence de photons dans un système sans les détruire, au prix d’appareils expérimentaux très complexes, mais les localiser sans les détruire est pour le moment hors de portée. Malgré de nombreuses tentatives à la fois expérimentales et théoriques pour le remettre en cause (Einstein lui-même s’y cassa les dents 2), ce troublant principe de complémentarité survit encore aujourd’hui. Résumé du concept : la dualité onde-particule En 1801, Thomas Young mène une expérience célèbre qui montre que la lumière est une onde. Mais cette intuition est remise en cause en 1839 par la découverte de l’effet photoélectrique, selon lequel la lumière peut produire un courant électrique. En 1905, Einstein explique ce phénomène par le fait que la lumière est constituée de petites particules, appelées photons, capables d’arracher des électrons aux atomes. Comment réconcilier ces deux natures contradictoires ? La réponse est en fait duelle : la lumière est effectivement composée de photons, mais ces derniers peuvent se comporter individuellement comme des ondes. 1. Ou scalpel gamma. 2. Serge Haroche décrit en détail dans La Lumière révélée (2020) l’une des nombreuses expériences de pensée d’Einstein censées mettre en défaut le principe de complémentarité. Le 14 septembre 2015, un événement exceptionnel ébranle la communauté scientifique : la première détection d’ondes gravitationnelles. C’est une confirmation majeure de la théorie de la relativité, prédite cent ans plus tôt par Einstein. Issues d’une collision de trous noirs à l’autre bout de l’Univers, ces ondes ont mis plus d’un milliard d’années à atteindre la Terre ! Pour percevoir des échos aussi lointains, les physiciens ont dû construire l’un des appareils les plus sensibles au monde : un détecteur de plusieurs kilomètres d’envergure. Son fonctionnement repose sur l’un des plus grands succès de la physique quantique : le laser. Outre ce genre d’exploit scientifique, le laser est devenu indispensable dans d’innombrables objets du quotidien, tels que les lecteurs CD ou la fibre optique. Pour comprendre son fonctionnement, nous allons continuer à décortiquer la nature troublante de la lumière, que les physiciens ont appris à e dompter tout au long du XX siècle. Des atomes bien accordés Si vous avez déjà eu le désagrément d’entendre les sons émis par un violoniste novice, vous savez que cet instrument a tendance à sonner « faux ». Il est plus facile de débuter à la guitare : il suffit de bien l’accorder, de mémoriser quelques combinaisons de doigtés, et des accords mélodieux en sortent comme par magie. Pourtant, ces deux instruments fonctionnent selon un principe similaire : les doigts viennent raccourcir la partie des cordes qui vibre en les pinçant contre le manche, afin de produire des sons plus ou moins aigus. La différence fondamentale vient des frettes, ces barres métalliques disposées le long du manche de la guitare. Grâce à elles, les cordes d’une guitare fonctionnent par paliers : seules certaines notes sont autorisées (celles qui ont le bon goût d’être justes). Le violon, lui, autorise toutes les notes intermédiaires, ce qui offre plus de liberté, mais complique nettement la tâche du musicien, qui doit faire preuve d’une grande précision pour jouer juste. Cette discontinuité des notes de la guitare ressemble beaucoup à celle qui caractérise le monde quantique. Les atomes ne peuvent se trouver que dans un certain nombre d’états, appelés niveaux d’énergie. Ces niveaux sont analogues aux frettes de la guitare, sauf que leur disposition n’est pas forcément régulière. Chaque espèce d’atome peut être imaginée comme un type de guitare, caractérisé par des notes (c’est-à-dire des énergies) différentes. Ces notes sont exactement les mêmes pour tous les atomes d’une même espèce et en constituent en quelque sorte l’empreinte digitale. L’atome est assez paresseux, et préfère généralement rester dans le niveau d’énergie le plus bas, comme une corde de guitare jouée à vide. Mais si on lui donne suffisamment d’élan, il peut grimper d’une ou plusieurs frettes pour atteindre des notes plus aiguës : on dit alors qu’il est excité. Il aura ensuite tendance à se désexciter rapidement pour retourner vers des notes plus graves. Sauts de puce quantiques À quoi correspondent ces niveaux d’énergie, et que se passe-t-il concrètement lorsqu’un atome monte ou descend d’une note ? Souvenez-vous qu’un atome contient des électrons qui entourent un noyau. Ces électrons se répartissent dans des orbitales, ces drôles de ballons de baudruche que nous avons dessinés dans le premier chapitre. Plus le ballon dans lequel se trouve l’électron est gros, plus son énergie est élevée. Ainsi, le niveau d’énergie de l’atome est déterminé par la plus grande orbitale occupée. Pour monter ou descendre d’un niveau d’énergie, l’électron peut bondir d’un ballon à l’autre, de manière aléatoire : on parle de saut quantique. Cette discontinuité des niveaux d’énergie de l’atome n’est pas sans rappeler celle de la lumière, qui est formée de paquets d’énergie : les photons. C’est loin d’être un hasard : les photons sont justement émis lorsqu’un atome se « désexcite », c’est-à-dire descend d’un ou de plusieurs niveaux d’énergie. On parle d’émission spontanée : le photon émis emporte avec lui l’énergie perdue par l’atome. Ce phénomène a une nature purement aléatoire : il est impossible de prédire quand l’atome se désexcitera, ni dans quelle direction le photon sera émis. Inversement, lorsqu’un atome rencontre un photon possédant exactement la bonne énergie pour lui permettre de grimper à un niveau supérieur, il peut l’absorber pour passer dans un état excité (voir figure ici). PÉDALER PLUS VITE QUE LA LUMIÈRE Dans le vide, la lumière se déplace à environ 300 000 kilomètres par seconde. Dans d’autres matériaux comme le verre ou l’eau, elle est ralentie par les atomes, elle s’y « cogne » – c’est-à-dire se fait absorber puis réémettre. Dans le verre, par exemple, elle voyage à « seulement » 200 000 kilomètres par seconde, ce qui reste tout de même un peu rapide pour nos yeux. En 1999, la chercheuse danoise Lene Hau annonce que son équipe de l’Université de Harvard a ralenti la lumière à une vitesse de 60 kilomètres par heure. Dans son laboratoire, la lumière avançait moins vite qu’un cycliste descendant un col ! Pour faire cela, il faut mettre à profit l’interaction de la lumière avec les atomes. Seulement, ces derniers ont une fâcheuse tendance à bouger dans tous les sens, ce qui rend l’interaction plus difficile. La chercheuse a ainsi dû les piéger pour qu’ils arrêtent de bouger, puis modifier leurs propriétés grâce à un laser pour que le photon s’y propage lentement, comme dans un verre très dense. Scanner les étoiles Comme Einstein nous l’a appris, l’énergie d’un photon est proportionnelle à sa fréquence – sa couleur, pour la lumière visible. Conséquence : à chaque transition d’un niveau d’énergie vers un autre correspond une lumière de couleur différente. Par exemple, lorsque l’atome d’hydrogène tombe de son troisième niveau d’énergie au second, il émet un photon de couleur rouge. S’il tombe du quatrième niveau d’énergie – de plus haut, donc –, il émet un photon de couleur bleue, possédant plus d’énergie. L’ensemble des transitions possibles forme une série de raies colorées appelée le spectre d’émission de l’atome, sorte de code-barres permettant de l’identifier (voir figure précédente). Le sodium, par exemple, est reconnaissable aux deux raies jaune-orangé très proches qu’il peut émettre – c’est la couleur des lampes à sodium utilisées dans l’éclairage public. Grâce à ce code-barres lumineux, les astrophysiciens peuvent déterminer la composition chimique des étoiles aussi facilement que l’on scanne un produit au supermarché. Ayant à leur disposition les code-barres de nombreuses espèces chimiques individuelles, ils peuvent déterminer quelle combinaison d’espèces peut expliquer le spectre observé. La plupart des étoiles étant formées majoritairement d’hydrogène et d’hélium, ils observeront en général une superposition des deux spectres présentés cidessus, combinée aux spectres des autres espèces d’atomes. Les photons de Panurge Vous êtes-vous déjà émerveillé de la danse poétique d’un banc de poissons ou d’une volée d’hirondelles ? C’est le fruit de l’esprit grégaire de ces animaux, qui ont tendance à suivre le mouvement de leurs voisins. L’homme sait tirer profit de cet instinct depuis la nuit des temps, par exemple en contenant les troupeaux de moutons à l’aide de chiens de berger. Par chance, il se trouve que la lumière possède ce même instinct grégaire. En effet, lorsqu’un photon arrive sur un atome excité, il a la capacité de déclencher l’émission d’un autre photon de même fréquence, avançant dans la même direction ! Ce phénomène, qui n’a rien d’évident, a été prédit par le visionnaire Einstein (encore lui) en 1916 : on le qualifie d’émission stimulée. Comment peut-on exploiter ce phénomène ? Exactement comme le berger : en confinant les photons, on peut les forcer à avancer en un troupeau ordonné. Ici, les aboiements d’un chien auront peu d’effet : pour confiner la lumière, il suffit de placer deux miroirs face à face. Plaçons également, entre ces deux miroirs, un nuage d’atomes excités. Lors de son passage dans le nuage, un photon peut stimuler l’émission de quelques dizaines d’autres, qui lui emboîtent le pas. En traversant à nouveau le nuage, chacun de ces photons pourra recruter de nouveau une dizaine d’autres, et ainsi de suite. Le cortège croît exponentiellement au gré des allers-retours, se transformant en quelques nanosecondes en une nuée de photons tous identiques, avançant en bloc. Derrière cette idée a priori très simple, nous avons le principe d’une des innovations les plus utiles qu’a permis la physique quantique : le laser. Son nom est en fait un acronyme reflétant son fonctionnement : light amplification by stimulated emission of radiation, soit amplification lumineuse par émission stimulée. UN PARAPLUIE AZOTÉ Il n’y a pas que les atomes qui ont des niveaux d’énergie discontinus : c’est le cas de tous les objets quantiques et notamment des molécules. En 1953, quelques années avant le premier laser, Charles Townes parvient à fabriquer une machine permettant d’amplifier des micro-ondes à partir d’ammoniac qu’il nomme maser (m pour microwave). L’ammoniac est une molécule pyramidale constituée d’un atome d’azote et de 3 atomes d’hydrogène. L’azote est au sommet, et les 3 hydrogènes reliés à lui forment la base, mais cette pyramide peut s’inverser comme un parapluie, et ce plusieurs milliards de fois par seconde. Dans certaines conditions, les deux configurations de la pyramide possèdent des énergies différentes, et le passage de l’une vers l’autre s’accompagne de l’émission d’un photon dans le domaine des micro-ondes. L’émission stimulée peut alors être utilisée pour amplifier ce photon. Cette découverte vaut à Townes le prix Nobel de physique en 1964 et l’honneur d’avoir son idée reprise dans la conception du laser, mais ne déclenche pas le succès commercial prédit par son créateur. Laser à tout faire Apparu dans les années 1960, le laser est aujourd’hui devenu incontournable. Du lecteur CD à la fibre optique, du découpage de pièces métalliques aux mesures de distance, de l’épilation à la chirurgie… La diversité de ses applications industrielles et son faible coût le rendent aujourd’hui omniprésent. Le laser est tout aussi crucial dans la recherche scientifique. Poussez la porte d’un laboratoire de physique quantique et vous tomberez probablement sur un jeune doctorant s’appliquant à guider un faisceau laser à travers un labyrinthe de miroirs (voir la photo ci-après)... Pourquoi le laser est-il aussi indispensable ? D’abord, parce qu’il permet de produire une lumière très « pure ». La plupart des sources lumineuses naturelles émettent de la lumière sur une large plage de fréquences : la lumière blanche, comme celle du Soleil, est constituée d’un mélange de toutes les couleurs visibles, qui se révèlent lors des arcs-en-ciel. En reprenant notre analogie du son, cette lumière correspond à la cacophonie que l’on entend si l’on joue toutes les notes du piano en même temps. À l’inverse, un laser est comme un diapason ne pouvant donner qu’un la très pur. Laser vert servant à une expérience de téléportation quantique (voir chapitre 7). Source : Laboratoire Kastler Brossel CULTURE Pourra-t-on un jour fabriquer des sabres lasers, comme dans Star Wars ? Sur le papier, l’idée n’est pas si farfelue : des lasers très puissants sont déjà utilisés en tant qu’armes de longue portée sur certains navires de guerre. Mais pour réussir à faire fondre une porte métallique d’un mètre d’épaisseur en quelques secondes, comme le fait Qui-Gon Jinn dans La Menace fantôme (1999), il faudrait une puissance d’un milliard de watts, soit celle d’un réacteur nucléaire actuel… Nous sommes bien loin du record détenu par les meilleurs lasers actuels, qui est de 1 000 watts environ. Le deuxième grand avantage du laser est qu’il est extrêmement directif : son faisceau est très droit, et peut rester étroit sur de longues distances. Ce n’est pas non plus le cas des sources lumineuses habituelles : une lampe de chevet éclaire un large cône de manière diffuse – c’est le but recherché. Le faisceau d’une lampe torche ne s’agrandit que de quelques centimètres pour chaque mètre parcouru, mais dans le cas d’un laser dernier cri, cette divergence peut descendre à moins d’un millimètre par kilomètre parcouru. D’où son utilisation en tant que pointeur sur des armes à feu de précision par exemple. Troisième avantage, qui découle de cette faible divergence : un faisceau laser peut parcourir des distances phénoménales avant de s’atténuer. Même les petits lasers de poche vendus au pied de la tour Eiffel ont une portée d’une centaine de mètres ! Avec des lasers plus avancés, on peut envoyer un rayon parcourir un aller-retour Terre-Lune, pour mesurer avec précision la distance qui nous sépare de notre satellite. Malgré les trois cent mille kilomètres de distance, le faisceau laser ne mesure qu’une centaine de mètres de diamètre en arrivant sur l’astre. Il est ensuite réfléchi grâce à des miroirs qui ont été disposés sur sa surface lors des missions Apollo. En chronométrant la durée de l’aller-retour, de l’ordre de deux secondes, les chercheurs de l’Observatoire de la Côte d’Azur sont parvenus à obtenir des mesures de distance précises au millimètre près. DES P’TITS TROUS, TOUJOURS DES P’TITS TROUS Malgré leur apparence très lisse, les DVD sont gravés d’une myriade de trous micrométriques qui encodent l’information. Là où le relief d’un disque vinyle est lu par une pointe en diamant qui abîme le disque à chaque passage (d’où les craquements du son qui plaisent tant aux collectionneurs), celui du DVD est détecté par un faisceau laser qui s’y réfléchit. Grâce à la précision du laser, le relief peut être bien plus fin que sur un vinyle, permettant de stocker plus d’informations. Seulement, il existe une limite à cette miniaturisation : lorsque les trous deviennent aussi petits que la longueur d’onde du laser, ils se mettent à diffracter la lumière dans tous les sens, comme les fentes de Young (voir chapitre 2). Comment éviter cet effet indésirable ? Une possibilité est de réduire la longueur d’onde de la lumière : c’est ce qui a été mis en place avec les lecteurs Blu-Ray, qui utilisent un laser bleu à la place du laser rouge des lecteurs DVD. Résultat : on peut y stocker des films en meilleure qualité, jusqu’à 5 fois plus volumineux ! À l’écoute de l’Univers Mesurer la distance Terre-Lune au millimètre près est déjà un exploit remarquable. Mais le laser a permis de faire beaucoup mieux encore. En 2015, des chercheurs de la collaboration internationale LIGO 1 ont pulvérisé tous les records de précision, à l’aide d’un des instruments les plus imposants qui aient été construits pour la science : un interféromètre géant basé aux États-Unis. Le but de ce mastodonte : détecter des ondes gravitationnelles, soubresauts de l’espace-temps issus de lointaines collisions de trous noirs. L'observatoire LIGO possède deux sites aux États-Unis. Ci-dessus, les deux bras de l'interféromètre situé à Livingstone en Louisiane. Source : Caltech/MIT/LIGO Ces ondes très particulières, prédites en 1916 par l’irremplaçable Einstein, ont le pouvoir d’étirer et de contracter les objets qu’elles traversent. Elles sont créées par le mouvement de masses gigantesques dans le cosmos et se propagent dans le vide à la vitesse de la lumière. Pour les « entendre » sur Terre, l’interféromètre géant est équipé de deux immenses bras perpendiculaires, de longueur strictement égale. Lors du passage de l’onde sur Terre, la longueur de chaque bras oscille légèrement, un peu comme la distance entre deux bouées sur la mer qui augmente puis diminue au passage d’une vague. Pour détecter cette oscillation, on envoie un faisceau laser parcourir un aller-retour dans chaque bras, et l’on mesure une éventuelle différence de temps de parcours entre les deux chemins, qui se manifeste par l’apparition de franges d’interférence au niveau d’un détecteur (voir schéma). L’immense défi technique réside dans l’extrême discrétion de ces ondes. Sur les 4 kilomètres que mesurent les bras de l’interféromètre, la différence de longueur induite par l’onde gravitationnelle n’est que d’un milliardième de nanomètre. La précision requise pour mesurer cette différence revient à mesurer la distance Terre-Soleil au nanomètre près ! Comment a-t-on pu parvenir à une telle prouesse ? Plusieurs astuces sont en jeu. D’abord, il faut débarrasser le trajet du faisceau laser de toute nuisance possible. Pour cela, il faut éliminer tous les atomes susceptibles d’entraver son parcours ; les bras de l’interféromètre sont en réalité d’immenses tubes à vide. Ensuite, il faut supprimer toute source de bruit : un simple tracteur situé à quelques kilomètres de l’appareil est suffisamment bruyant pour perturber la mesure. Pour cela, on équipe les bras de puissants stabilisateurs, tandis que les miroirs sont suspendus à d’immenses pendules servant à absorber les vibrations. Enfin, pour accroître la sensibilité de la machine, il faut des bras aussi longs que possible. Pour allonger le parcours de la lumière sans avoir à étendre les bras au-delà de leurs 4 kilomètres déjà très encombrants, on les équipe de sortes de pièges à photons – des paires de miroirs forçant la lumière à rebondir un grand nombre de fois avant de s’échapper. Grâce à ce dispositif, le faisceau laser parcourt en réalité douze mille kilomètres, soit un aller-retour Paris-New York ! Au-delà de valider la théorie de la relativité et prouver l’existence des trous noirs, les ondes gravitationnelles ont ouvert l’astronomie à un tout nouveau champ d’études. En plus d’observer la lumière des astres pour analyser le ciel, nous pouvons désormais les écouter grâce à ces ondes d’un genre nouveau. Celles-ci pourraient nous permettre de remonter aux ères ténébreuses de l’Univers primordial afin de percer les mystères du Big Bang. TOUJOURS PLUS GRAND Prévue pour 2032, la mission spatiale LISA 2 a de quoi faire rêver les amateurs de science-fiction. Le pari : envoyer un interféromètre géant dans l’espace. Bien sûr, il est impossible d’y envoyer un objet aussi grand que les interféromètres terrestres de LIGO. Par chance, les tubes à vide dont leurs bras sont formés ne sont plus nécessaires dans l’espace, qui est déjà vide par nature. Ainsi, l’interféromètre spatial consistera en trois petits satellites en orbite autour du Soleil qui s’envoient en permanence un rayon laser, formant un gigantesque triangle dont les bras mesureront quelque 2 millions de kilomètres. Viser une cible de quelques mètres à une telle distance, voilà un exploit qui ferait pâlir d’envie un tireur d’élite ! Résumé du concept : l’émission de la lumière Les atomes ne peuvent se trouver que dans un nombre fini d’états, appelés niveaux d’énergie, analogues aux frettes d’une guitare. Pour grimper ou descendre d’un niveau, l’atome doit absorber ou émettre un photon, c’est-à-dire un grain de lumière. C’est selon ce mécanisme d’émission spontanée, aléatoire et omnidirectionnel, que fonctionnent par exemple les lampes de chevet. Les lasers exploitent un procédé plus complexe : l’émission stimulée, qui permet aux photons de former des « troupeaux » ordonnés. Les faisceaux lasers sont ainsi très précis et peuvent se propager très loin sans être atténués, d’où leur utilisation dans de nombreux objets du quotidien et dans l’industrie. 1. Acronyme anglais de « Observatoire d’ondes gravitationnelles par laser ». 2. Laser Interferometer Space Antenna. En 2013, le géant de l’informatique IBM présente un courtmétrage d’une minute intitulé A boy and his atom. On y voit un garçon jouer à la baballe puis sauter sur un trampoline, le tout en stop motion. Rien de bien passionnant, si ce n’est que le studio dans lequel a été tournée la scène mesure… une centaine de nanomètres ! Cet exploit insolite valut à la firme le record du plus petit film de l’histoire. Mais là n’était bien sûr pas le seul intérêt : il s’agissait surtout de vanter leurs prouesses techniques, dans une course à la miniaturisation des circuits électroniques qui touche aux confins du monde quantique. Quant à la caméra utilisée, elle exploite l’un des phénomènes les plus étonnants de la physique quantique : l’effet tunnel. L’influence du regard En juillet 2020, une étude publiée dans le New York Times constate une anomalie statistique flagrante dans les matchs de football de la Bundesliga, première division allemande. Alors que chaque année, le taux de victoire des équipes jouant devant leur public tourne autour de 43 %, celui-ci a chuté brutalement à 33 % en 2020. L’explication semble claire : l’avantage que procure le soutien du public a disparu en 2020 en raison des matchs disputés à huis clos liés à la pandémie de Covid-19. L’ampleur du phénomène est néanmoins surprenante, et ne concerne pas que les taux de victoires mais aussi le nombre de tirs, de dribbles, de cartons rouges… Au football, le public n’est pas simple spectateur : il influe activement sur le déroulement de la partie. C’est l’une des raisons pour lesquelles les supporters aiment s’amasser dans des tribunes avec peu de visibilité, plutôt que regarder le match confortablement depuis leur canapé. La même chose s’applique au théâtre, où les comédiens peuvent réagir à l’attitude du public. Dans le monde vivant, le spectateur est toujours partie prenante de ce qu’il observe. Les physiciens ont longtemps ignoré cette règle. Pour décrire le monde, ils doivent généralement effectuer des hypothèses simplificatrices. L’une d’elles est de considérer que les propriétés des objets sont définies de manière absolue : l’observation ne fait que les relever, sans les affecter. Cette hypothèse paraît tout à fait raisonnable : une pomme tombe à la même vitesse, qu’on la regarde tomber ou non. Pourtant, elle ne s’applique plus dans le monde des atomes… Électrons farceurs Revenons à l’expérience des fentes de Young, qui consiste à faire passer des photons à travers un obstacle percé de deux fentes, pour les observer ensuite sur un écran. Mais cette fois, remplaçons ces grains de lumière par des grains de matière – des électrons, par exemple. Si l’on imagine ces derniers comme de minuscules balles de tennis, on s’attend à observer, sur l’écran, des impacts dessinant la forme des fentes. À nouveau, il n’en est rien. En se heurtant à l’écran, les électrons construisent petit à petit une série de franges verticales, exactement comme le faisaient les grains de lumière (figure de gauche). Tout se passe comme si les électrons, eux aussi, avaient le don de traverser les deux fentes à la fois… Essayons de vérifier par quelle fente l’électron passe en plaçant un détecteur devant chacune d’entre elles – contrairement aux photons, il est possible de « flasher » les électrons comme des voitures sur l’autoroute, sans les détruire. Le résultat de l’expérience a de quoi surprendre. Dès que l’on active les détecteurs, ils révèlent la fente qu’empruntent les électrons : les détecteurs de gauche et de droite s’allument dans des proportions égales, mais un seul à la fois. Cependant, les électrons cessent de se répartir selon des franges sur l’écran, laissant place à la forme projetée des fentes (figure de droite) ! Quelque chose de complètement insensé semble se passer : lorsque l’on cherche à détecter par quelle fente l’électron passe, il cesse de se comporter comme une onde : ses propriétés ondulatoires disparaissent dès que l’on essaye de les observer ! La complémentarité onde-particule évoquée au chapitre 2 s’applique donc également à la matière… Ainsi, dans les expériences de physique quantique comme dans des matchs de football, l’observateur influe sur le système. Attention cependant aux mauvaises interprétations : il est tentant d’imaginer que l’électron « se sent observé », comme le footballeur. Ici, le changement de comportement n’est pas dû à la psychologie de l’électron, mais plutôt à sa fragilité : on ne peut le mesurer sans le perturber d’une manière ou d’une autre, et modifier son comportement. RÉÉCRIRE LE PASSÉ La présence de détecteurs avant les fentes semble forcer l’électron à se comporter comme une particule, et à traverser une seule des fentes. Vous pourriez cependant suggérer de placer les détecteurs après les fentes plutôt qu’avant, pour être sûr que l’électron ne soit pas encore affecté par la mesure au moment de les traverser. Mais le résultat est strictement le même : les franges d’interférence disparaissent ! La fente par laquelle passe l’électron semble être choisie après sa traversée. En 1988, une équipe américaine décide d’aller plus loin encore, et de fabriquer une gomme quantique, dispositif permettant de brouiller l’information collectée par les détecteurs, de telle sorte qu’il soit impossible de lire la mesure. Lorsque l’on met en marche la gomme, les franges lumineuses réapparaissent par miracle – comme si le choix de la fente était annulé a posteriori ! S’il n’y a pas encore de consensus sur l’interprétation de cette « machine à réécrire le passé », la prudence est de mise face aux titres accrocheurs qui peuvent circuler dans les médias. Les ondes de matière La physique quantique a d’abord révélé la nature duelle de la lumière : longtemps considérée comme une onde, elle peut en réalité se matérialiser sous la forme d’une particule, le photon. L’expérience précédente montre que la même chose s’applique aux particules de matière comme l’électron : capables de traverser les deux fentes simultanément, elles possèdent ce même caractère ambivalent. Au début des années 1920, Louis de Broglie émet l’idée qu’à chaque objet matériel est associée une onde de matière. L’électron serait porté par cette onde un peu comme un surfeur sur une vague. Or, nous avons vu qu’une vague interfère avec elle-même lorsqu’elle traverse les fentes. Ainsi, les électrons reproduiraient la figure d’interférence de l’onde qui les porte. Doit-on en déduire que tous les objets qui nous entourent sont des ondes ? Vraisemblablement, non : une balle de tennis ne peut traverser deux fentes accolées simultanément. Et pour cause : plus un objet est grand, plus sa longueur d’onde quantique est petite, et moins son caractère ondulatoire peut se manifester. Pour que l’expérience des fentes de Young fonctionne, il faut qu’il y ait diffraction au niveau des fentes. Comme nous l’avons vu avec les lecteurs DVD (voir encadré ici), ceci n’est possible que si la largeur des fentes est de taille comparable à la longueur d’onde. La longueur d’onde quantique de l’électron ne mesure déjà que quelques nanomètres : fabriquer des fentes de cette largeur est difficile, mais faisable. Pour les objets de la vie courante comme les balles de tennis, la longueur d’onde quantique est des milliards de fois plus petite, ce qui exclut tout phénomène de diffraction. Néanmoins, à défaut de balles de tennis, des physiciens sont parvenus à faire interférer des fullerènes en 1999, grosses molécules en forme de ballons de football formés de 60 atomes de carbone. En 2020, c’est au tour de petites protéines de franchir les fentes de Young avec succès. Petit à petit, au rythme des progrès techniques, le monde quantique s’agrandit… Prédire l’imprévisible Quelques années après de Broglie, Erwin Schrödinger s’empare du problème des ondes de matière, et s’affranchit totalement de la notion de particule. Il décrit l’électron à l’aide d’une onde de probabilité, appelée la fonction d’onde, qui indique les endroits où l’électron peut se trouver. Mesurer la position de l’électron revient en quelque sorte à lancer un dé : la probabilité de trouver l’électron en un endroit 1 de l’espace est donnée par la valeur de la fonction d’onde à cet endroit. Cela vous rappelle quelque chose ? Les orbitales atomiques rencontrées dans le chapitre 1 sont en fait les fonctions d’onde des électrons liés au noyau. Cette nature aléatoire de la position de l’électron peut donner l’impression que la physique quantique est une théorie du flou, où tout est imprévisible et incontrôlable. Heureusement, la forme et l’évolution de la fonction d’onde peuvent être parfaitement prédites grâce à l’équation de Schrödinger, formulée en 1925. Cette dernière est, en quelque sorte, l’équivalent quantique des lois de Newton, qui permettent de calculer la trajectoire des objets à notre échelle. La trajectoire d’une particule n’a pas de sens en physique quantique, puisque sa position est indéterminée ; néanmoins, l’équation de Schrödinger permet de calculer la trajectoire de la fonction d’onde, comme on prédit le mouvement d’une vague sur la mer (voir image ci-dessous). Insistons : cette équation ne donne pas accès au parcours réel de l’électron. Elle permet de prédire la probabilité que celui-ci apparaisse en un endroit donné, lorsque l’on mesure sa position ; et ce à chaque instant. Le résultat de la mesure reste purement aléatoire. Néanmoins, connaître les probabilités d’un phénomène aléatoire est crucial : un joueur de poker qui connaît les probabilités de chaque main peut perdre quelques parties face à un débutant, mais finira toujours par gagner sur le long terme… L’équation de Schrödinger est donc un outil formidable, notamment pour les chimistes qui doivent prédire la manière dont les particules quantiques réagissent entre elles. Taisez-vous et calculez ! L’équation de Schrödinger est un succès considérable : elle nous permet de reprendre en partie la main sur cet indomptable hasard quantique. En revanche, elle laisse une question fondamentale en suspens : que se passet-il avant la mesure ? La position de la particule est-elle déterminée, mais simplement inconnue par l’observateur, ou est-elle réellement indéterminée ? L’interprétation dominante de nos jours est celle de l’école de Copenhague, dont sont issus divers pionniers de la mécanique quantique comme Niels Bohr. Elle considère que les propriétés physiques des objets sont véritablement indéterminées avant la mesure, et sont subitement choisies, de manière purement aléatoire, quand un expérimentateur cherche à les mesurer. On résume souvent cette vision par la maxime suivante, assez prosaïque : « Taisez-vous et calculez. » Puisque la théorie quantique prédit parfaitement les observations réalisées, pourquoi s’entêter à chercher à comprendre ce qui n’est de toute façon pas observable ? Pour les adeptes de cette interprétation, c’est une question à laisser aux philosophes. Cet avis n’est pas partagé par tous. Pour souligner l’invraisemblance de cette indétermination quantique, Schrödinger imagina en 1935 une expérience de pensée mettant en scène un chat enfermé dans une boîte opaque dans laquelle se trouve une fiole de poison. Imaginons que dans l’expérience des fentes de Young, le poison soit libéré lorsque la particule passe par la fente de droite, et conservé dans la fiole dans le cas contraire. Puisque la particule traverse les deux fentes à la fois, peut-on dire que le chat est à la fois vivant et mort ? Pour Schrödinger, c’est un non-sens, un chat étant soit vivant soit mort. Puisque l’indétermination quantique mène à ce genre de raisonnement, elle est à bannir. Nous verrons plus tard dans ce livre que ce paradoxe n’en est plus vraiment un aujourd’hui ; nous savons que les objets à notre échelle, comme les chats, ne peuvent montrer des propriétés quantiques en raison d’un phénomène appelé la décohérence. Le chat de Schrödinger n’en reste pas moins dans l’imaginaire collectif l’emblème par excellence de la théorie quantique, bien qu’il fût imaginé pour s’en moquer. Des univers parallèles Même si l’on accepte que la fonction d’onde représente un état indéterminé, l’interprétation de Copenhague n’est pas convaincante sur ce qui se passe au moment de la mesure. La réduction brutale de la fonction d’onde en un point ne peut pas être décrite par l’équation de Schrödinger – un problème qui n’est toujours pas véritablement résolu aujourd’hui. En réponse à cela, diverses interprétations plus ou moins sérieuses ont proposé une réponse alternative à ce problème de la mesure. Citons la plus spectaculaire d’entre elles – et probablement la plus appréciée des férus de science-fiction : celle des mondes multiples. Proposée par Hugh Everett dans sa thèse en 1957, elle postule que lorsque l’on mesure un système quantique, on n’observe qu’un résultat, mais tous les autres résultats possibles se déroulent dans des univers parallèles. À chaque mesure, ces univers se subdivisent de nouveau, donnant naissance à un multivers aux ramifications infinies. Dans certains univers, l’électron passe par la fente de gauche, tandis que dans d’autres, il passe par la fente de droite. Cette interprétation permet de supprimer le hasard arbitraire de la mesure, car tous les résultats de la mesure sont obtenus en même temps – mais dans des « univers » différents. Aussi séduisante que soit cette théorie, elle a le défaut épistémologique d’être impossible à vérifier. Nous découvrirons plus tard dans ce livre une autre solution au problème de la mesure, défendue par Einstein, selon laquelle l’indétermination n’existe pas : ce serait une illusion, liée à notre ignorance de variables « cachées » déterminant à l’avance le résultat de la mesure. Pour une fois, Einstein a eu tort : son interprétation fut rigoureusement invalidée en laboratoire. CULTURE L’interprétation des mondes multiples d’Everett a inspiré de nombreuses fictions aux scénarios rocambolesques. Ainsi, dans le film Avengers : Endgame (2019), Tony Stark tente de réparer une apocalypse en retournant dans le temps. Seulement, ses actions dans le passé ne se répercutent pas dans « son » futur, mais dans celui d’un autre monde où le désastre est évité. Sans vraiment citer la physique quantique, c’est le même artifice scénaristique qui est utilisé dans XMen : Days of Future Past (2014). Dans un autre registre, Another Earth (2011) imagine qu’un de ces mondes parallèles devient soudainement visible aux yeux des humains. Le passe-muraille quantique Résumons : la mécanique quantique nous dit que les particules ne sont pas précisément localisées, mais plutôt étalées sur une zone diffuse décrite par la fonction d’onde. Cette idée est déjà difficile à accepter, mais la suite n’en est que plus déroutante. Imaginons qu’on lance un projectile contre un mur en plâtre. Deux scénarios sont possibles : soit le projectile franchit le mur, soit il ne le franchit pas. Une balle de tennis rebondit contre le mur, car elle ne possède pas assez d’énergie. En revanche, une balle de pistolet traverse le mur en y laissant un trou béant. Bien sûr, l’épaisseur du mur entre aussi en compte dans le résultat : s’il mesure trois mètres d’épaisseur, la balle de pistolet n’a aucune chance de le perforer. Répétons la même expérience dans le monde quantique, en envoyant un électron contre un mur nanométrique. Lorsque l’électron a suffisamment d’énergie, sa fonction d’onde traverse en grande partie le mur, comme la balle de pistolet, mais une petite partie rebondit et repart en sens inverse. Concrètement, cela signifie que si l’on cherche à le localiser, l’électron peut se manifester d’un côté ou l’autre du mur, mais il est plus probable qu’il traverse le mur. Plus étonnant encore : que se passe-t-il lorsque l’électron n’a pas suffisamment d’énergie, comme la balle de tennis ? Dans ce cas, sa fonction d’onde rebondit en grande partie, mais une petite partie traverse le mur, tel Harry Potter qui rejoint la voie 9 ¾. C’est ce que l’on appelle l’effet tunnel. À nouveau, ce qui est étonnant, c’est la nature indéterminée du monde quantique : avant la mesure, on ne peut pas dire avec certitude que l’électron traverse ou rebondit ; plutôt, il traverse et rebondit simultanément, avec des probabilités connues, dépendant de son énergie et de l’épaisseur du mur. LA QUANTIQUE AU BOUT DES DOIGTS La physique quantique ne se résume pas qu’aux expériences de laboratoire ! Figurez-vous que l’on peut observer un effet tunnel assez facilement chez soi, en se munissant d’un verre d’eau. Placez votre œil au-dessus du verre, jusqu’à atteindre une inclinaison telle que la lumière provenant du sol est réfléchie contre la paroi du verre. Maintenant, appuyez fermement vos doigts contre le verre : vous y verrez ressortir assez distinctement votre empreinte digitale. En pressant vos doigts, vous réduisez l’épaisseur de la couche d’air qui sépare votre peau du verre. Au niveau des crêtes de votre empreinte digitale, l’épaisseur de cette couche d’air est si fine que les photons la traversent par effet tunnel. Ils sont ainsi absorbés par vos doigts, plutôt que de rebondir contre le verre et parvenir à vos yeux. Résultat, ces crêtes apparaissent plus foncées. C’est sur un phénomène similaire que reposent certains lecteurs d’empreintes digitales. Tourner un film nanométrique L’effet tunnel est partout autour de nous : il est mis en jeu dans de nombreux composants électroniques, comme les transistors qui composent les microprocesseurs. C’est aussi lui qui est responsable de la radioactivité alpha, qui a lieu lorsqu’un noyau atomique trop lourd se décharge de quelques protons et neutrons en libérant un noyau d’hélium. Ce dernier, initialement piégé au cœur du noyau volumineux, parvient à s’en extirper grâce à l’effet tunnel. Image du film A boy and his atom (2013) d'IBM. Chaque bille correspond à un atome d'oxygène. Source : IBM La vidéo nanoscopique dont nous avons parlé dans l’introduction, A boy and his atom, a été filmée grâce à un microscope à effet tunnel, l’un des outils les plus performants dont on dispose actuellement pour scruter l’infiniment petit. Ne vous attendez pas à un film en couleur ; ce genre de microscope ne permet pas à proprement parler de voir les atomes, mais plutôt de les sentir. L’idée est de construire une carte en relief de la surface à étudier, à la manière d’une personne aveugle qui la parcourt de ses doigts pour s’en faire une image mentale. Faute de doigts assez précis, on utilise ici une pointe métallique extrêmement fine qui se déplace au-dessus de l’échantillon à observer. Hors de question, ici, de toucher la surface : cela détruirait la pointe. Il faut donc en permanence maintenir une couche d’air entre les deux. Néanmoins, la pointe parvient à ressentir la présence des atomes : étant chargée électriquement, elle attire leurs électrons (voir schéma). Si la couche d’air est suffisamment fine, les électrons peuvent la traverser par effet tunnel, ce qui produit un courant électrique. Plus la pointe est éloignée, plus le courant électrique qu’elle reçoit est faible, ce qui permet de déterminer très précisément la hauteur de la surface en chaque point. Ce n’est pas tout : dans la vidéo d’IBM, les atomes ont été déplacés d’une image à la suivante grâce à cette même pointe métallique. En jouant sur sa charge électrique, on peut s’en servir comme d’une pince minuscule, permettant d’attraper des atomes individuellement pour les déposer où l’on veut. Cette vidéo résume assez bien les applications d’un tel microscope, qui peut être utilisé à la fois pour scruter et manipuler l’infiniment petit. Tout cela grâce au don de passe-muraille des particules quantiques. LE PETIT GRAND PRIX En avril 2017, un Grand Prix d’un genre nouveau s’est tenu à Toulouse : la NanoCar Race. Cinq prestigieuses écuries des quatre coins du globe se sont réunies sur un circuit construit en or, pourvu de deux chicanes et mesurant l’inédite distance de… 133 nanomètres ! Le public était peu nombreux ce jour-là, vraisemblablement en raison des températures peu clémentes (−269 degrés Celsius). Source : NanoCar Race En guise de bolides, de petites molécules propulsées par effet tunnel, capables d’atteindre des vitesses de 100 nanomètres par heure (soit moins d’un millimètre par an !). Les participants connurent quelques déboires : la voiture américaine fit demitour sans explication après 20 nanomètres, l’équipe allemande détruisit deux de ses véhicules… Quant au fleuron français, le Toulouse Nanomobile Club, il perdit trace de son carrosse au beau milieu de la course, et fut contraint à l’abandon. Il put néanmoins se consoler du prix de la voiture la plus élégante du circuit (voir figure ici). Résumé du concept : la fonction d’onde Les particules quantiques, que l’on imagine comme des grains, ne sont pas précisément localisées dans l’espace. Elles sont décrites par une onde indiquant leur probabilité de se trouver en tel ou tel lieu, et dont l’évolution est régie par l’équation de Schrödinger. Cette délocalisation leur permet de traverser des obstacles en principe infranchissables par effet tunnel, un phénomène mis à profit dans de nombreux composants électroniques. Cependant, cette indétermination continue d’alimenter de vifs débats autour de l’interprétation physique de la mécanique quantique, illustrés par l’allégorie du chat de Schrödinger. 1. C’est en réalité le carré de la fonction d’onde qui donne la probabilité de présence. C’est Max Born qui le réalise en 1925, donnant un véritable sens physique à cette fonction mathématique qui apparaissait naturellement dans les calculs de Schrödinger. À l’époque où les téléphones fixes étaient monnaie courante, il n’était pas rare d’entendre de petits malins décrocher le combiné de la pièce voisine pour écouter la conversation. Heureusement, leur respiration ou le bruit ambiant permettait souvent de les déceler… Ce n’est pas le cas de certaines méthodes d’espionnage, qui peuvent mettre des communications sous écoute sans laisser de trace. La cryptographie, science du secret, a joué un rôle fondamental pendant les guerres mondiales et est devenue un domaine de recherche majeur depuis. Dans les années 1980, alors que le monde entrait dans l’ère ultra-connectée, on s’est aperçu que les lois étranges de la physique quantique pouvaient mettre en péril des méthodes de cryptographie jusqu’alors réputées inviolables. Peu à peu, l’idée d’utiliser des algorithmes de chiffrage quantique pour répondre à cette menace a fait son chemin… Jouer aux espions Vous êtes-vous déjà demandé pourquoi personne n’a encore réussi à s’emparer de votre numéro de carte bancaire, pourtant enregistré sur nombre de sites Internet ? Heureusement pour nous, les pages web manipulant nos informations sensibles sont hautement sécurisées. Les éventuels hackers cherchant à y accéder se retrouveront face à du charabia, car les données sont chiffrées. Pour déchiffrer, il faut d’une manière ou d’une autre « casser un code secret ». Contrairement à ce que montrent les films hollywoodiens, il ne suffit pas de pianoter une minute sur un clavier et laisser défiler des chiffres sur l’écran pour y arriver : soixante années de recherche en cryptographie ont rendu ce travail bien plus complexe. Il existe désormais beaucoup de moyens de chiffrer un message. Pour donner quelques exemples concrets, laissons la place à Arthur et Bertille, deux amis d’enfance qui jouent depuis leur plus jeune âge à s’envoyer des messages secrets. Une méthode très simple, qu’ils utilisaient quand ils étaient enfants, est de créer une clé de chiffrage en associant chaque lettre à une autre. Cette clé est une petite feuille de papier avec les règles suivantes : A→W, B→J, C→E, etc. Pour envoyer un message secret à Bertille, Arthur doit au préalable lui transmettre une copie de la clé par voie postale. Il lui suffit ensuite de chiffrer ses messages à l’aide de la clé et Bertille pourra les déchiffrer en l’utilisant en sens inverse (W→A, J→B, E→C, etc.). On parle de chiffrage symétrique, car la même clé est utilisée pour le chiffrage et le déchiffrage. Le grand défaut de cette méthode est que si un espion parvient à intercepter la lettre contenant la clé, il pourra lire tous les messages sans que ni Arthur ni Bertille ne s’en aperçoivent. LA GUERRE DES SECRETS La clé de chiffrement utilisée par Arthur est Bertille est assez basique, et peut être devinée assez facilement en interceptant suffisamment de messages. Par exemple, si la lettre « K » revient souvent, on peut supposer qu’elle est associée à la lettre « E »… Pour chiffrer ses communications militaires, l’armée nazie utilisait un système bien plus complexe : une sorte de machine à écrire à double clavier baptisée Enigma. L’appareil de chiffrage Enigma, muni de ses deux claviers. Source : Wikimedia Commons À chaque lettre tapée sur le premier clavier, une autre lettre s’allume sur le second. La force de cette machine réside dans un ingénieux système de rouages qui change en permanence la règle de chiffrage : en tapant la même lettre deux fois d’affilée, on voit deux lettres différentes s’allumer. Cependant, le mathématicien anglais Alan Turing remarqua une faille dans la machine : une lettre ne s’allume jamais elle-même, ce qui dévoile des informations sur la clé. En se basant sur cela, il parvint à fabriquer une imposante machine permettant de déchiffrer les codes nazis. Son rôle crucial dans la victoire des Alliés fut cependant gardé secret par les autorités britanniques jusque dans les années 1970, bien après sa mort. Un chiffrage clé en main Pour remédier aux défauts du chiffrage symétrique, la grande majorité des échanges sur Internet reposent sur des méthodes de chiffrage asymétrique, qui consistent à se munir non pas d’une, mais de deux clés : une pour le chiffrage, l’autre pour le déchiffrage. Une fois adultes, Arthur et Bertille ont mis en place ce système. Avant qu’Arthur puisse lui transmettre un message, Bertille doit d’abord fabriquer les deux clés. Elle garde la clé de déchiffrage, dite clé privée, et envoie la clé de chiffrage, dite clé publique, à Arthur. Arthur chiffre son message avec la clé publique, puis l’envoie à Bertille qui pourra la déchiffrer avec sa clé privée. Cette fois, si un espion réussit à capter l’enveloppe contenant la clé publique, il ne sera pas bien avancé : la clé permet seulement de chiffrer, et pas de déchiffrer ! Nos deux protagonistes sont donc, en principe, à l’abri des regards. Hélas, ce protocole a lui aussi une faille : les deux clés sont fabriquées ensemble, et ne sont en fait pas indépendantes. La clé publique porte en elle une trace du procédé de fabrication, à partir de laquelle il est, en théorie, possible de deviner la clé privée. Heureusement pour nos données bancaires, cette trace est quasiment illisible. Pour deviner la clé privée à partir des clés publiques utilisées de nos jours, il faudrait résoudre un problème mathématique extrêmement difficile, insoluble avec nos ordinateurs actuels. La confidentialité est donc a priori assurée. UN CASSE-TÊTE DE PREMIER ORDRE Inventé en 1977, le chiffrement RSA est encore aujourd’hui le protocole de chiffrement asymétrique le plus répandu. Les clés publiques et privées y sont représentées par deux nombres entiers très grands. Pour accéder à la clé privée, l’espion doit réussir à « décomposer la clé publique en produit de facteurs premiers ». Détaillons brièvement ce que cela signifie. Un nombre premier est un nombre qui ne peut pas être écrit comme produit d’autres entiers. Par exemple, 15 n’est pas premier, car 15 = 3 × 5. Mais 3 l’est, ainsi que 5. Tous les nombres peuvent en fait s’écrire comme un produit de nombres premiers. La tâche, en apparence simple, de trouver cette décomposition est en fait très fastidieuse : il n’existe pas d’algorithme efficace pour y parvenir. Le meilleur ordinateur actuel mettra quelques milliardièmes de seconde à factoriser 15 en 3 × 5, mais 1 h 30 pour un nombre de 100 chiffres, et plus de 2500 ans pour un nombre de 250 chiffres ! Le chiffrement RSA utilise généralement des clés d’au moins 615 chiffres, ce qui assure largement notre sécurité. La quantique, poison et remède À l’heure actuelle, la confidentialité de la plupart des données sensibles repose sur la difficulté des ordinateurs à résoudre certains problèmes mathématiques comme la factorisation en nombres premiers. Que se passerait-il si l’on parvenait à fabriquer un ordinateur d’un genre nouveau, capable de résoudre ces problèmes sans difficulté ? La sécurité des données bancaires, médicales, gouvernementales ou encore militaires serait instantanément mise en péril à l’échelle mondiale ! Cette crainte devint bien réelle dès les années 1980 avec l’apparition de l’informatique quantique. Fer de lance actuel des technologies quantiques et objet d’un prochain chapitre, l’ordinateur quantique serait, en théorie, capable de résoudre des problèmes insolubles avec nos technologies actuelles. Il apparut donc nécessaire de trouver de nouvelles solutions pour chiffrer les données, et vite. D’autant plus qu’un hacker malveillant pourrait très bien collecter des données chiffrées dès maintenant, en attendant d’avoir un ordinateur quantique qui lui permette de les déchiffrer ! En réponse à cette menace, le domaine de la cryptographie quantique s’est rapidement développé ces mêmes années, dans l’espoir d’utiliser la physique quantique pour trouver des algorithmes de chiffrement véritablement inviolables. Avec lui, la promesse de se protéger de l’ordinateur quantique, mais aussi de développer de nouvelles méthodes de communication encore plus sûres, détectant automatiquement la présence d’espions ! L’idée de base est de revenir à des algorithmes de chiffrement symétrique, utilisant une seule clé. Tout l’enjeu réside donc dans l’étape de transmission de la clé : il faut pouvoir s’assurer que personne n’y ait accès à notre insu. C’est ici qu’intervient de manière providentielle l’une des propriétés les plus remarquables du monde quantique : lorsqu’on l’observe, on le modifie. Repensez à l’électron du chapitre précédent : son comportement change du tout au tout lorsque l’on cherche à le détecter ! Imaginez donc transmettre, en guise de clé de chiffrement, un système quantique (par exemple un électron). Si un espion l’intercepte et l’observe, le système quantique sera modifié : l’espion laisse inévitablement une trace de son passage ! Pour comprendre les choses plus en détail, prenons le temps d’introduire une propriété célèbre des objets quantiques que nous avons déjà rencontrée plusieurs fois au détour de ces pages, sans jamais la nommer. UN THÉORÈME À DOUBLE TRANCHANT Le lecteur perspicace pourrait proposer que l’espion effectue une copie du système, puis mesure son exemplaire pour laisser l’original vierge. Seulement, c’est interdit par les lois de la physique quantique : il est impossible de reproduire un système quantique inconnu à l’identique. Pour cela, il faudrait connaître son état ; mais en le mesurant, on modifie le système ! Ce théorème de non-clonage assure la fiabilité des protocoles de cryptographie quantique, mais nous complique la tâche lorsqu’il s’agit de construire des amplificateurs de signal pour transmettre de l’information. Il est relié à une loi plus générale qui stipule que l’information quantique doit toujours être conservée ; comme le martelait Lavoisier en ce qui concerne la chimie, rien ne se perd, rien ne se crée, tout se transforme ! À la fois pile et face Prenez une pièce de monnaie dans votre main et lancez-la. Deux configurations bien distinctes existent, Pile et Face, et si la pièce n’est pas truquée, on a autant de chances que la pièce retombe dans votre main sur Pile que sur Face. Cependant, si l’on vous demandait quel est l’état de la pièce pendant qu’elle est en l’air, ou même avant le lancer, que répondriezvous ? On pourrait mettre en cause la pertinence de cette question, mais le physicien, qui aime mettre des étiquettes sur ses systèmes, répondra que la pièce est en superposition Pile + Face. Cette dénomination traduit l’idée que l’état n’est pas encore fixé, et que l’on a autant de chances d’obtenir un état que l’autre à l’issue de la mesure ; mais que signifie ce « + » ? En ce qui concerne la pièce, Pile + Face signifie en réalité Pile ou Face. La superposition quantique, elle, est plus subtile. Repensons à l’électron qui traverse les fentes de Young (voir chapitre 4). Quand on place des détecteurs devant les fentes, on mesure que l’électron passe à gauche ou à droite, avec des probabilités égales. Par analogie avec la pièce, on peut donc écrire que l’état est Gauche + Droite. Seulement ici, la présence d’interférences sur l’écran traduit le fait que l’électron traverse la fente de droite et la fente de gauche simultanément. C’est l’interaction entre ces deux chemins possibles qui donne lieu à des interférences. Il paraît donc plus rigoureux d’interpréter la superposition quantique comme un « et », et dire que l’électron passe à droite et à gauche. Malheureusement, cette interprétation est insuffisante, elle aussi. Imaginons un photon pouvant se trouver dans une superposition de deux couleurs, bleu et rouge – ce genre de photon bicolore a été créé en laboratoire en 2016. En disant que le photon est bleu et rouge à la fois, on passe à côté de deux informations cruciales qui définissent le système, illustrées dans la figure : la probabilité des couleurs (dans la figure, la surface de la sphère qu’elles recouvrent). Dans l’état Bleu + Rouge, les deux couleurs ont autant de probabilité de se manifester lors d’une mesure, mais on peut aussi former un état où le rouge est deux fois plus probable. l’orientation des couleurs sur la sphère. Cette notion est plus délicate à décrire, mais déterminante dans la manière dont le photon interagit avec d’autres systèmes quantiques. Le résultat de la mesure d’un état superposé ne peut pas être prédit, mais ces deux grandeurs peuvent être connues, et permettent de prédire ce qui sera mesuré, en moyenne, sur un grand nombre d’états similaires. Une fois la mesure réalisée, la superposition est brisée ; si le photon est mesuré dans l’état Bleu, une seconde mesure donnera le même résultat. S’il faut retenir une chose, c’est que la superposition est un concept complexe, sans équivalent dans le monde qui nous entoure. Ni vraiment ou, ni vraiment et, elle semble échapper à ce que notre langage peut exprimer. Démasquer les espions Un état quantique superposé est un système fragile, qui « choisit » de manière totalement imprévisible un état et y reste dès qu’on l’observe. Ainsi, en transmettant des codes sous la forme d’états quantiques superposés, on peut facilement identifier la présence d’espions, qui se trahiront en modifiant le message au moment de le lire. Voilà, dans les grandes lignes, le principe fondamental de la cryptographie quantique. Les applications commerciales commencent déjà à voir le jour. La menace des ordinateurs quantiques est prise tellement au sérieux que des pays comme la Corée du Sud ont déjà amorcé un vaste chantier de sécurisation de leurs données sensibles via ce genre de méthode : une première initiative reliant 18 centres gouvernementaux à travers le pays doit voir le jour dès 2022. Que ce soit pour regrouper des données médicales entre hôpitaux, échanger des données confidentielles entre ministères ou organiser des élections ultra-sécurisées, la cryptographie quantique a vocation à être déployée à grande échelle. Seul problème : l’échange de systèmes quantiques sur des longues distances ne peut se dérouler via de simples fibres optiques… Pour y parvenir, la mise en place d’un « Internet quantique » est nécessaire : ce sera l’objet du prochain chapitre. Pour les lecteurs qui aimeraient voir à quoi ressemble concrètement un algorithme de cryptographie quantique et sont prêts à s’accrocher, nous proposons dans ce qui suit de décortiquer la plus célèbre méthode de transmission de clé quantique : le protocole BB84. Si ce n’est pas votre cas, n’hésitez pas à passer directement à la suite. CULTURE Le film Coherence (2013) met en scène un dîner entre amis. Suite à un événement paranormal, les convives se retrouvent dédoublés, et rencontrent leurs jumeaux superposés dans un dîner similaire au leur. Par la suite, les protagonistes doivent absolument éviter la rupture de la superposition, qui impliquerait la destruction de l’une des deux réalités. Une clé inviolable Le protocole BB84, imaginé en 1984 par les chercheurs Charles Bennett et Gilles Brassard, a pour but de transmettre une clé de chiffrement de manière sécurisée. Il met en jeu des photons dont on s’intéresse à la polarisation. Nul besoin d’entrer dans des détails techniques : imaginez simplement cette polarisation comme une petite boussole portée par le photon, qui peut avoir quatre orientations : Nord ↑, Sud ↓, Ouest ← et Est →. Pour mesurer la polarisation d’un photon, on dispose de deux détecteurs. Le premier, noté ↕, mesure l’orientation nord-sud de la polarisation : il renvoie la valeur 0 si le photon est ↓ et 1 s’il est ↑. Le second, noté ↔, mesure l’orientation est-ouest, et renvoie 0 si le photon est ← et 1 s’il est →. Que se passe-t-il si l’on cherche à mesurer un photon → avec le détecteur ↕ ? Cela revient à se demander si l’Est est plutôt au Nord ou au Sud : il n’y a pas de réponse évidente. En réalité, lorsqu’un photon est dans l’état →, il est en superposition ↑ + ↓ : le détecteur ↕ a une chance sur deux de retourner 0 ou 1. Retrouvons notre ami Arthur, qui veut transmettre une clé de chiffrement à Bertille. Pour ce faire, il se munit d’un certain nombre de photons, mettons 5. Pour chacun d’eux, il tire au hasard un détecteur, ↕ ou ↔, mesure la polarisation du photon et note le résultat obtenu. Ensuite, il envoie les photons à Bertille, qui fait de même. Pour tous les photons où elle a choisi le même détecteur qu’Arthur, elle obtient le même résultat. En revanche, pour ceux où elle a choisi le mauvais détecteur, elle n’a qu’une chance sur deux d’obtenir le même résultat. Une fois les mesures réalisées, les deux amis communiquent les détecteurs qu’ils ont utilisés. Pour être sûrs d’avoir les mêmes résultats, ils ne gardent que les bits où ils ont choisi le même détecteur (en bleu dans la figure). Les résultats obtenus leur fournissent une clé de chiffrement de manière parfaitement sécurisée, qu’ils pourront utiliser par la suite pour chiffrer et déchiffrer des messages. Dans la figure, cette clé ne comporte que 3 chiffres (101), mais dans les applications réelles elle peut être aussi longue qu’on le souhaite. Pour vérifier que personne n’a intercepté leur clé de chiffrement, il suffit aux deux amis d’en dévoiler la moitié, et de vérifier que les chiffres sont identiques. En effet, si un espion accède aux photons et cherche à les mesurer avant qu’ils ne parviennent à Bertille, il se trompera de détecteur une fois sur deux et modifiera l’état du photon, introduisant des incohérences. S’il intercepte la liste des détecteurs utilisés après que les photons ont été envoyés, il ne pourra rien en tirer. Résumé du concept : la superposition En physique quantique, un système peut se retrouver dans une superposition d’états. Cela signifie que tant qu’on ne le mesure pas, l’état du système est indéterminé ; lorsqu’on le mesure, l’un des états possibles est sélectionné. La cryptographie quantique met à profit la fragilité de la superposition face à la mesure pour offrir des protocoles ultrasécurisés qui permettent de démasquer automatiquement la présence d’un éventuel espion. En 1969, un étudiant de l’Université de Californie envoyait à Stanford, à 500 kilomètres de là, le tout premier message via un réseau de communication informatique : le mot « login ». Même s’il fallut attendre une heure pour que les trois dernières lettres parviennent à destination, cet événement historique marqua la naissance d’ARPANET, ancêtre d’Internet. En 2017, le groupe de Jian-Wei Pan, en Chine, parvenait à envoyer 2 photons « intriqués » à des laboratoires séparés de 1 400 kilomètres, grâce à un satellite sur orbite. Ils envoyaient ainsi le premier « message quantique » sur une longue distance. L’Internet quantique fait son chemin dans les esprits depuis les années 1990 et se concrétise grâce à ce genre de tour de force. Un tel réseau servirait à transmettre de l’information quantique, que ce soit pour établir des communications ultra-sécurisées ou pour accéder à distance aux ordinateurs quantiques tant attendus… Coïncidence ou corrélation ? En février 1979, c’est une drôle de rencontre qui a lieu entre James Springer et James Lewis. Alors âgés de 39 ans, ces deux jumeaux, séparés à la naissance, prennent conscience des improbables similitudes qui caractérisent leur parcours de vie. Tous deux ont grandi avec un frère adoptif appelé Larry et un chien nommé Toy. Ils ont chacun épousé une femme nommée Linda, puis se sont remariés avec une Betty. Leur premier fils s’appelle, respectivement, James Allan et James Alan. Les deux frères étaient policiers, et aimaient passer leurs vacances sur la même plage de Floride, où ils se rendaient dans une Chevrolet… L’hérédité a probablement joué un rôle dans ces coïncidences invraisemblables, et de nombreuses études ont été menées sur les jumeaux, rapidement devenus célèbres après leur rencontre. Mais bien entendu, le hasard est le principal responsable ici ; nulle raison de croire en une connexion surnaturelle entre les deux hommes. En physique quantique, les particules aux destins liés sont monnaie courante, et ce phénomène ne relève pas de la coïncidence. Imaginons deux pièces de monnaie qu’on lance l’une après l’autre. En notant P pour Pile et F pour Face, quatre résultats de lancer sont possibles : FF, PP, FP et PF. Dans la vie de tous les jours, ces quatre résultats ont la même probabilité de se produire : 1 chance sur 4 pour chacun. Mais dans le monde quantique, il est possible de fabriquer des pièces truquées, qui ne donneront que deux résultats parmi les quatre – par exemple, FF ou PP, mais jamais les deux autres possibilités ! L’état mesuré de la deuxième pièce est parfaitement corrélé avec l’état de la première. En connaissant le résultat du premier lancer, on sait à coup sûr ce que donnera le second. On dira alors que ces pièces sont intriquées. Le fait que deux quantités aléatoires aient des résultats corrélés n’est pas rare en soi : le cours de la bourse est influencé par toutes sortes d’événements conjoncturels. Ce qui est étonnant dans le cas des pièces et des particules quantiques, c’est que l’on ne voit pas bien comment l’une peut influer sur l’autre. Pourtant, l’intrication est bien prédite par les équations de la physique quantique, et fut longtemps décriée par une partie de la communauté comme un artefact, voire un « bug » de la théorie. CINQUANTE NUANCES D’INTRICATION Comment peut-on truquer des particules de cette manière ? Une méthode courante est d’envoyer un photon à travers un cristal dit non-linéaire, qui le divise en deux photons de fréquence plus faible (afin que l’énergie du premier soit conservée). Ces deux jumeaux gardent par la suite un lien entre eux, à la manière des frères James. L’intrication, qui n’est rien d’autre qu’une corrélation entre propriétés quantiques, n’est pas une chose rare : toutes sortes de systèmes peuvent en fait être intriqués plus ou moins fortement. Les électrons qui entourent une molécule sont naturellement intriqués avec les noyaux des atomes, dans la mesure où la position de ces derniers influe sur la position des électrons. Pour intriquer artificiellement deux particules, il suffit généralement de les faire interagir ; cette interaction laissera une trace, sous la forme d’une corrélation plus ou moins forte de leurs propriétés. Des gants télépathiques Einstein était sceptique à l’égard de l’intrication. Il refusait l’idée qu’un système quantique puisse instantanément influencer l’état d’un autre, quelle que soit leur distance. Cela suppose un signal voyageant à vitesse infinie, en contradiction avec sa théorie de la relativité qui nous enseigne qu’aucune information ne peut voyager plus vite que la lumière. On appelle cela le principe de localité : dans un temps court, seuls des objets suffisamment proches peuvent s’influencer. Cette contradiction paraît insurmontable à Einstein et le pousse à qualifier l’intrication d’« action fantôme à distance », soulignant ainsi son invraisemblance. Pour lui, si corrélation il y a entre deux systèmes, elle existait forcément avant la mesure. Pour défendre son point de vue, il publie en 1935, épaulé de ses deux assistants, Boris Podolsky et Nathan Rosen, une expérience de pensée qui porte aujourd’hui le nom de paradoxe EPR, des initiales des trois auteurs. On peut résumer l’idée ainsi : vous achetez une paire de gants et décidez d’envoyer le gant gauche à votre père, vivant à Sydney, et le gant droit à votre mère, vivant à New York. Avant d’ouvrir le colis, votre père ne sait pas quel gant il a reçu. Mais au moment où il ouvre le colis et y trouve le gant gauche, il sait que votre mère a reçu le gant droit, et inversement. Comme pour les pièces, la corrélation est parfaite. Pour Einstein, la corrélation entre les propriétés des particules quantiques est analogue à celle des gants : elle provient simplement de la manière dont les systèmes ont été préparés. Cette corrélation est cachée avant la mesure, mais bel et bien là depuis le début : la mesure ne fait que la révéler à nos yeux. Einstein propose donc l’existence de variables cachées qui déterminent le résultat des mesures à l’avance, mais nous sont inaccessibles. Cette idée s’oppose à l’interprétation de Copenhague, dont nous avons déjà parlé précédemment, selon laquelle l’état d’un système quantique n’est « décidé » qu’au moment où on l’observe. En ce qui concerne les gants, cela suppose qu’à l’instant précis où votre père ouvre son colis, son gant prend la forme d’une main gauche, et celui de votre mère, encore dans un colis à l’autre bout du monde, prend la forme d’une main droite. Dans cet exemple caricatural, l’interprétation de Copenhague paraît bien entendu absurde : on sait bien que les gants ne peuvent pas se métamorphoser ainsi. Pourtant, votre père n’a aucun moyen d’éliminer cette interprétation, puisqu’il ne peut pas savoir quel était l’état des gants avant d’ouvrir le colis… PASSER COMME UNE OMBRE Peut-on dépasser la vitesse de la lumière sans contredire les lois de la relativité restreinte ? Oui, à condition de disposer d’un projecteur suffisamment puissant pour éclairer la Lune entière depuis la Terre. Il vous suffit alors de balayer votre main devant le projecteur. Si votre geste est assez rapide, l’ombre de votre main parcourt la surface de la Lune d’un bout à l’autre en une fraction de seconde, et se déplace plus vite que la lumière ! Deux habitants de la Lune pourraient-ils utiliser cette ombre pour communiquer plus vite que la lumière (par exemple en utilisant l’ombre pour écrire en morse) ? Malheureusement, non : puisque c’est votre main qui contrôle l’ombre, ils devraient d’abord vous envoyer le message à transmettre. La relativité restreinte est saine et sauve : une ombre n’est pas une information ou une particule, c’est simplement une absence de lumière. Rien n’exclut donc qu’elle se déplace plus vite que la lumière. Notre avenir est-il écrit ? Au-delà du paradoxe EPR, Einstein s’oppose à l’interprétation de Copenhague pour deux raisons essentiellement philosophiques. D’abord, il refuse la notion de hasard quantique. Pour lui, tout phénomène peut s’expliquer par une chaîne causale plus ou moins complexe. Dire que le résultat d’un tirage pile ou face est « aléatoire » est faux, et simplement lié à notre ignorance de la chaîne causale. En réalité, si l’on avait à notre disposition des appareils de mesure permettant de connaître parfaitement la position, l’orientation et la vitesse de la pièce au moment du lancer, on pourrait déterminer la trajectoire exacte de la pièce au cours du temps grâce aux lois du mouvement de Newton, et donc prédire le résultat du tirage. Plus généralement, les phénomènes qui se déroulent à notre échelle peuvent tous être prédits plus ou moins facilement avec les lois de la physique classique. Certains, comme le mouvement des planètes, peuvent être prédits sur plusieurs millénaires ; d’autres, comme la météo, sont plus difficiles à anticiper, car chaotiques – il faut connaître très précisément leur état à un instant donné pour prédire leur évolution. Mais si l’on disposait d’une puissance de calcul infinie et que l’on connaissait parfaitement l’état du monde à un instant t, on pourrait en principe prédire son état à n’importe quel instant ultérieur – on dit que le monde qui nous entoure est déterministe. Selon Einstein, le « hasard » quantique est simplement lié à notre ignorance de certaines variables cachées, comme lorsque l’on tire à pile ou face. La connaissance de ces variables permettrait de rétablir le déterminisme au sein de la théorie quantique. Einstein critique également le rôle que joue l’observateur lors de la mesure dans l’interprétation de Copenhague. Celle-ci le place en effet dans une position très particulière : sa mesure influence l’état du système, comme nous l’avons vu à de multiples reprises. La subjectivité semble alors entrer en jeu dans la théorie quantique… Action instantanée, hasard et subjectivité comme nouveaux fondements de la physique : c’en est trop pour Einstein, qui se désolidarise des partisans de la théorie qu’il a aidé à fonder. LES DÉS SONT (RE)JETÉS La défiance d’Einstein envers le hasard quantique s’est incarnée dans une phrase restée célèbre : « Dieu ne joue pas aux dés avec l’Univers. » Souvent mal interprétée, elle n’exprime pas un rejet de la théorie quantique en tant que telle, mais plutôt une volonté de la concevoir comme déterministe et objective, au même titre que la physique classique. Les débats houleux qui s’ensuivent entre Bohr et Einstein (Bohr lui rétorqua notamment de « cesser de dire à Dieu ce qu’il doit faire ») montrent la difficulté de la communauté scientifique à se faire un avis définitif sur ce sujet. Philosophiquement, le débat est d’une importance capitale. Le déterminisme absolu auquel aspire Einstein ne laisse aucune place au libre arbitre – Einstein n’y croyait d’ailleurs pas. En effet, s’il est possible de prédire avec certitude l’évolution de l’Univers, on pourrait en particulier prédire toutes les décisions d’un être humain dès sa naissance. L’aléatoire quantique permettrait de briser cette chaîne causale, au profit d’un éventuel libre arbitre – bien qu’aucun lien ne soit établi scientifiquement 1. Le génie de Bell Comment déterminer quelle est la bonne interprétation, entre celle d’Einstein et celle de Bohr ? Ce n’est qu’en 1964, après la mort des deux physiciens, qu’un test fut proposé pour trancher la question. Le mathématicien John Bell, s’étant octroyé une année sabbatique pour réfléchir au paradoxe EPR, imagina une situation un peu plus complexe que celle des gants, où les deux interprétations mènent à des résultats différents. Pour cela, il faut étudier simultanément les corrélations de deux caractéristiques des particules intriquées, comme leur position et leur vitesse. Bell montre que si les corrélations sont inférieures à une certaine valeur, alors la théorie des variables cachées est fausse, et il faut accepter l’interprétation de Copenhague. Grâce à son théorème, la question du déterminisme en physique, jusqu’alors cantonnée à des débats philosophiques, entre dans le champ de ce qui est vérifiable. L’expérience fut réalisée entre 1980 et 1982 par le physicien français Alain Aspect, et invalide effectivement l’interprétation d’Einstein. L’action fantôme à distance semble bel et bien avoir lieu… Malheureusement, il est difficile d’expliquer le test de Bell en des termes simples – nous ne nous y risquerons pas ici. Au début des années 1990, Lucien Hardy propose une expérience illustrant de manière plus limpide la contradiction entre les deux théories présentées plus haut. Celle-ci est présentée en détail à la fin du chapitre, pour les lecteurs qui voudraient la preuve que les particules quantiques ne se comportent pas comme des gants. CULTURE L’intrication quantique, par sa nature extraordinaire, a beaucoup inspiré les auteurs de science-fiction. Pourrait-on l’utiliser pour communiquer plus vite que la lumière ? C’est ce qu’imagine le space opera chinois Le Problème à trois corps (2008). Dans le but d’envahir la Terre, des extraterrestres créent des paires de particules intriquées « intelligentes ». Ils en envoient une sur Terre et gardent l’autre avec eux. Elles leur permettent alors d’espionner les humains, en dépit des quatre années-lumière qui séparent les deux civilisations. Heureusement pour nous, cette forme de communication est rendue impossible par la nature aléatoire de la quantique. Repensez aux gants : lorsque votre père ouvre son colis, il sait instantanément quel gant votre mère a reçu. Pour autant, peut-il lui transmettre un message via ces gants ? Non, car il ne peut pas choisir le gant que recevra votre mère : il le découvre au moment où il ouvre son colis. De la friture sur la ligne Si la discussion précédente vous a un peu déboussolé, rassurez-vous : Bohr, Einstein et leurs confrères l’ont été tout autant. Il est temps pour nous de revenir à des choses plus concrètes : quel est le lien entre l’intrication et l’Internet quantique que nous avons évoqué dans l’introduction ? Lorsque vous regardez une vidéo sur Internet, des milliards de photons voyagent depuis des serveurs jusqu’à votre boîtier Wi-Fi dans des fibres optiques, propageant l’information à la vitesse de la lumière. Cependant, comme dans tout canal de transmission, le signal s’atténue au fur et à mesure de sa propagation. On doit donc régulièrement placer des amplificateurs de signal, appelés répéteurs, pour compenser les pertes. Dans le cas des communications quantiques, le signal est bien plus faible : les photons sont envoyés par petits paquets. Si l’on essayait d’envoyer 1 000 photons par seconde dans une fibre de 500 kilomètres, on ne recevrait en sortie qu’un photon tous les quatre ans ! L’amplification est donc encore plus cruciale ici. Seulement, amplifier nécessiterait de mesurer l’état des photons pour en créer d’autres dans le même état. Cela est strictement interdit par les lois de la physique quantique : le théorème de non-clonage stipule qu’il est impossible de recopier un système quantique inconnu à l’identique (voir chapitre 5). Alors qu’il garantissait la fiabilité des protocoles de cryptographie quantique, ce théorème constitue un obstacle majeur à l’Internet quantique : sans répéteur, difficile de viser des communications intercontinentales… Une solution serait de miser sur la communication dans l’espace, comme nous l’avons illustré dans l’introduction avec l’exploit de Jian-Wei Pan. Les défis à relever restent cependant nombreux, ne serait-ce que pour assurer la transmission en cas de mauvais temps… Une autre approche, plus viable à long terme, serait d’utiliser la téléportation quantique. Des talkies-walkies quantiques Imaginons qu’Arthur veuille transmettre de manière sécurisée un message – par exemple l’état d’une particule P – à Bertille, qui vit trop loin pour qu’une ligne quantique directe puisse être établie. Une solution serait de fabriquer deux particules intriquées A et B, puis donner la première à Arthur et la seconde à Bertille. Ces particules fonctionnent en fait comme des talkies-walkies un peu particuliers, permettant de téléporter l’état de la particule P de A à B. Pour effectuer la téléportation, Arthur « enregistre son message » en faisant interagir P avec son talkie-walkie A. Le message P est ainsi téléporté sur B. Cependant, de manière très imagée, le talkie-walkie de Bertille possède plusieurs boutons non étiquetés, si bien qu’elle ne sait pas sur lequel appuyer pour « écouter » le message. Seul Arthur le sait, car il dépend de l’interaction entre P et A. Il doit appeler Bertille pour le lui indiquer : une fois le bon bouton pressé, la particule B se retrouve dans l’état quantique de la particule P, alors que celles-ci n’ont jamais interagi. Remarquez qu’en dépit du nom de « téléportation », ce protocole ne permet pas de communiquer plus vite que la lumière, puisqu’Arthur doit envoyer des informations à Bertille via un canal de communication classique pour qu’elle puisse recevoir le message. Pourtant, la téléportation a un intérêt majeur : l’efficacité du protocole ne dépend pas de la distance entre Arthur et Bertille. Il est donc possible en théorie de créer des liens de communication quantiques aussi longs que l’on veut. Seulement, nous n’avons fait que déplacer le problème original : pour que ce protocole fonctionne, il faut pouvoir acheminer les particules intriquées A et B sur une grande distance pour établir le lien de communication, et nous voilà à nouveau face au problème des pertes. Heureusement, si l’on ne peut pas amplifier un signal quantique, on peut créer des « répéteurs d’intrication ». Schématiquement, on découpe la distance qui sépare Arthur et Bertille en segments plus courts, en plaçant des talkies-walkies relais à chaque étape intermédiaire. En intriquant chaque relais au relais suivant, on peut établir un lien direct entre Arthur et Bertille. La première téléportation réussie a eu lieu en 1997 dans le laboratoire d’Anton Zeilinger, en Autriche. Depuis, on a pu téléporter des états différents, sur de plus longues distances. Le tour de force de Jian-Wei Pan que nous avons évoqué dans l’introduction constitue encore un record, avec ses 1 400 kilomètres. LE FANTOMATON L’intrication ne se résume pas aux communications quantiques. Une autre de ses applications inattendues est l’imagerie dite fantôme. Elle consiste à photographier des objets extrêmement sensibles à la lumière en utilisant une paire de photons intriqués de couleurs différentes. L’idée est d’envoyer celui avec le moins d’énergie sur l’objet pour ne pas l’endommager, et reconstituer son image avec le deuxième – qui n’a pourtant jamais interagi avec l’objet – grâce aux corrélations entre les deux. Ce genre de technique peut également être utilisé pour améliorer la résolution de certaines caméras. Un réseau en chantier L’intrication, par le simple fait qu’elle peut permettre des communications quantiques à longue distance, est devenue un pilier de l’Internet quantique. Il est important de préciser que ce dernier n’est pas une « nouvelle génération » d’Internet, vouée à remplacer notre réseau actuel. À long terme, l’Internet quantique a surtout pour ambition de relier entre eux les ordinateurs quantiques que nous découvrirons dans les pages qui suivent, et de combiner leur puissance de calcul avec la sécurité de la cryptographie quantique. Son importance en ce qui concerne la cybersécurité en fait déjà un enjeu stratégique majeur. Si un Internet quantique intercontinental semble pour l’instant hors de portée, de nombreux essais internationaux existent. Des tests sur des maillons de quelques centaines de kilomètres voient le jour dans divers pays, et 4 600 kilomètres de fibres optiques dédiées à la transmission de clés quantiques relient déjà Pékin à Shanghai. Côté européen, un projet d’Internet quantique continental se dessine à l’horizon 2027. À moyen terme, les premières applications de ce réseau seront avant tout scientifiques – tout comme le World Wide Web, issu d’une collaboration de chercheurs du CERN cherchant une méthode simple et sûre pour échanger leurs données. Que ce soit pour combiner les observations de télescopes ou synchroniser des horloges atomiques tout autour du globe, ces réseaux offriront probablement des opportunités immenses aux chercheurs. VOIR DES TROUS NOIRS En 2019, la première image d’un trou noir fut capturée par l’Event Horizon Telescope, un réseau de télescopes disposés aux quatre coins du globe. Ce monstre cosmique pèse plus qu’un milliard de soleils réunis, et se trouve à une cinquantaine d’années-lumière de la Terre. Observer un objet aussi lointain revient à voir un grain de sable sur une plage californienne depuis New York ! Pour atteindre une telle résolution, l’idée est de faire interférer entre eux les rayons lumineux issus des observations de différents télescopes. Seulement, la lumière faiblarde qui nous provient d’objets aussi éloignés se résume à quelques poignées de photons… En nous aidant à acheminer ces précieux signaux d’un télescope à l’autre sans pertes, l’Internet quantique sera sans doute un allié de poids pour scruter les profondeurs de l’Univers. Deuxième photo du trou noir M87* publiée en 2021 par la collaboration EHT, montrant la polarisation de la lumière aux abords de l'astre. Source : Event Horizon Telescope (EHT) Pas du gâteau Ce qui suit vise à donner une explication plus détaillée de l’expérience de Hardy, dont le but est de discréditer la description de la physique quantique en termes de variables cachées soutenue par Einstein. Pour les lecteurs qui souhaitent s’y attarder, soyez prêts à remettre en cause beaucoup de choses que vous savez sur la physique du monde qui nous entoure. Reprenons l’analogie qu’a utilisée Hardy lui-même pour expliquer son expérience. Elle met en scène une cheffe pâtissière qui, à intervalles réguliers, enfourne simultanément deux gâteaux de sa confection (les particules intriquées) dans deux fours différents. Robin et Maxence, ses apprentis, sont assignés chacun à un four. Chacun peut effectuer l’une des deux opérations suivantes pour contrôler la qualité des gâteaux : ouvrir le four à mi-cuisson pour vérifier que le gâteau a bien commencé à lever, ou attendre la fin de la cuisson pour goûter le gâteau. À chaque fournée, les deux apprentis choisissent aléatoirement l’une des deux opérations et notent les résultats. Après un grand nombre de mesures, ils comparent leurs résultats, et notent deux corrélations surprenantes : Observation 1 : lorsqu’un des gâteaux est bon, l’autre est toujours mauvais. Observation 2 : lorsqu’un des gâteaux est levé, l’autre est toujours bon. Ces corrélations sont déjà surprenantes, mais il y a pire. Une incohérence apparaît dans le cas où les deux apprentis contrôlent la cuisson : de temps en temps, ils trouvent que les deux gâteaux ont bien levé. Ceci est pourtant incompatible avec les deux observations ci-dessus : si les deux gâteaux ont levé, la deuxième observation nous indique qu’ils doivent tous les deux être bons, ce qui est impossible d’après la première observation ! Cette expérience fut réalisée avec succès en 1994, non pas avec des gâteaux mais avec des photons. Les mesures de cuisson ou de goût correspondent ici à des mesures de polarisation selon des axes différents (Nord/Sud pour l’un et Est/Ouest pour l’autre, comme dans le protocole BB84 du chapitre précédent). Mais le constat est le même : selon les mesures que l’on effectue, on peut obtenir des résultats totalement incohérents. Comment expliquer cette contradiction ? Dans le monde qui nous entoure, les objets ont des propriétés intrinsèques. On peut dire qu’une balle est jaune, et elle le sera toujours, même si personne n’est là pour le constater. Cette hypothèse qui consiste à considérer l’existence des propriétés des objets en dehors de leur observation s’appelle le réalisme. Elle est si ancrée dans notre perception du monde que s’en détacher paraît totalement absurde. Pourtant, ce réalisme n’est pas compatible avec les résultats de l’expérience des gâteaux. Selon les opérations que choisissent Maxence et Robin, les propriétés mesurées des gâteaux ne montrent pas les mêmes corrélations. L’état combiné des deux gâteaux – c’est-à-dire leurs propriétés – n’a pas une valeur absolue et déterminée à l’avance ; il dépend de la manière dont on le mesure. Il faut donc se défaire de l’idée selon laquelle les propriétés des objets quantiques ont une existence propre avant la mesure. C’est une réécriture complète de la relation entre science et philosophie qui est ainsi opérée. Einstein, dans une pique restée dans la postérité, demanda à son ami Abraham Pais, fervent défenseur de l’interprétation de Copenhague : « Mais alors, la Lune n’existe-t-elle que quand je la regarde ? » Ce à quoi son ami lui répondit : « En tant que physicien du XXe siècle, je ne peux pas prétendre avoir une réponse définitive à cette question. » Résumé du concept : l’intrication Deux particules sont dites intriquées lorsque les résultats donnés par leurs mesures individuelles ne sont pas indépendants. Dans les cas extrêmes, la mesure de l’une « force » l’autre à choisir un état précis, et ce, même si elles sont à deux extrémités opposées de l’Univers. Ce concept a peut-être été le plus difficile à accepter par les fondateurs de la physique quantique. Longtemps pointés du doigt comme un artefact lié à une mauvaise interprétation de la théorie quantique, les travaux réalisés à partir des années 1960 ont forcé les scientifiques à accepter une nouvelle approche pour décrire la réalité. 1. Il est en fait possible de sauver l’idée de libre arbitre sans hasard quantique. Prédire l’évolution de la météo sur une semaine est déjà difficile ; prédire l’évolution de l’Univers entier est fondamentalement impossible d’après le philosophe des sciences Karl Popper – voir L’Univers irrésolu (1984). Leur nom vous est peut-être déjà familier. On leur attribue monts et merveilles, mais aussi des menaces terribles : ils pourraient tout autant découvrir des médicaments providentiels que mettre en péril la sécurité de nos codes bancaires. Si les ordinateurs quantiques éveillent tant l’intérêt, c’est autant par leurs applications potentielles que par l’exploit technologique qu’ils représentent, engageant une course à l’échelle mondiale. La route est pourtant semée d’embûches : exploiter les propriétés quantiques des particules dans un processeur implique de pouvoir les dompter parfaitement. Or, difficile de trouver des objets plus capricieux : au moindre contact, ils se transforment et perdent leurs propriétés si convoitées. Pour réussir à effectuer des calculs avec des particules quantiques, il nous faudra vaincre un obstacle de poids : la décohérence. Prenons le temps de décrypter cette branche si médiatique de la physique quantique afin de démêler les vrais espoirs des effets d’annonce, et la technologie du fantasme. Le casse-tête du plan de table Après plusieurs journées de sueurs froides, vous avez demandé votre partenaire en mariage, et il ou elle a accepté ! À présent, il faut organiser la noce : réserver la salle, le traiteur, les fleurs… La liste est longue. Mais le plus gros casse-tête sera sûrement d’élaborer un plan de table. Votre beaufrère ne s’entend pas avec votre sœur, celle-ci tient absolument à être assise aux côtés de son amie d’enfance, mais cette dernière refuse de se séparer de ses deux enfants… Sans parler des groupes d’amis à ne pas séparer ou des anciens fiancés à ne pas asseoir ensemble. Plutôt que de vous arracher les cheveux, vous décidez de donner le problème à résoudre à votre ordinateur. Une approche naïve est de tirer aléatoirement des configurations jusqu’à trouver celle qui satisfait au mieux les contraintes. Seulement, avec 60 invités à répartir sur une grande table, le nombre de configurations est colossal : on a 60 choix pour le premier à asseoir, 59 pour le second, et ainsi de suite… Le nombre de possibilités est démultiplié pour chaque nouvel invité, ce qui donne le résultat impensable de 1082 configurations (1 suivi de 82 zéros). C’est plus que le nombre d’atomes dans l’Univers observable ! Bien que la vitesse des processeurs ait été multipliée par presque mille en vingt ans, elle dépasse rarement les 100 milliards d’opérations par seconde. C’est considérable, mais largement insuffisant pour énumérer toutes les possibilités de ce genre de problème : avec 20 invités à placer autour de la table, il faudrait déjà plus de trois mois à un ordinateur pour toutes les traiter ! Un ordinateur quantique lui, pourrait théoriquement résoudre ce problème en quelques minutes. Mais que diable vient faire la quantique ici ? Coder l’information Débutons par un bref détour dans un ordinateur « classique ». Un document texte, un fichier son ou une vidéo constituent des informations de natures très différentes. Pourtant, ils peuvent tous être lus par le même processeur, car au niveau le plus élémentaire, ils se présentent sous la même forme pour ce dernier : une longue chaîne de bits, c’est-à-dire de zéros et de uns. Le bit est donc la plus petite unité d’information que peut recevoir un ordinateur. En regroupant 8 bits, on obtient un octet, qui peut prendre 256 valeurs et permet d’écrire toutes les lettres de l’alphabet, ou encore les couleurs d’un pixel. Par exemple, le mot « b-i-t », constitué de trois lettres, s’écrit de la manière suivante pour un ordinateur : 01000010 – 01001001 – 01010100. C’est cette méthode de codage très simple qui permet à nos ordinateurs d’être aussi polyvalents. Au-delà de leur existence conceptuelle, les bits ont une réalité matérielle. Dans les appareils électroniques actuels, ils s’incarnent par des interrupteurs microscopiques, les transistors – une autre invention qui n’aurait jamais vu le jour sans la physique quantique. Ces derniers peuvent laisser passer le courant électrique (le bit vaut alors 1) ou l’interrompre (le bit vaut 0), et permettent de stocker beaucoup d’informations dans peu d’espace et de la traiter rapidement. Cependant, les transistors sont un choix de convenance : tout comme le langage morse, un bit pourrait être représenté par n’importe quel système possédant deux états bien définis. On pourrait très bien utiliser des pièces de monnaie et décider, arbitrairement, d’attribuer au côté pile la valeur 0 et au côté face la valeur 1… En 2015, un physicien de Stanford a même fabriqué un ordinateur à base d’eau, 0 et 1 étant alors représentés par l’absence ou la présence de gouttelettes. Plus impressionnant encore, la nature elle-même utilise cette technique de codage de l’information sous forme de chaînes de caractères simples. C’est le cas de l’information génétique, entortillée dans nos cellules sous la forme d’une longue hélice : l’ADN. Ici, chaque caractère peut prendre non pas deux, mais quatre valeurs : A, T, C, G. Des protéines peuvent ensuite « lire » l’ADN comme un mode d’emploi, permettant de fabriquer des molécules utiles au fonctionnement du corps. Au jeu de la miniaturisation, l’homme est battu à plate couture : une clé USB à base d’ADN pourrait contenir plusieurs milliers de térabits de données ! UN CODAGE BASIQUE Notre méthode de comptage habituelle nécessite 10 chiffres différents (de 0 à 9) pour exprimer tous les nombres : on dit que l’on compte en « base 10 ». En base 10, on écrit un nombre comme une séquence de puissances de 10. Par exemple, 21 signifie : (2×101) + (1×100). Cette méthode nous paraît la plus intuitive parce que l’on apprend dès notre plus jeune âge à compter sur les 10 doigts de la main. Mais on peut très bien écrire les nombres dans d’autres bases ! Ainsi les séries de 0 et de 1 vues par un ordinateur expriment des nombres en notation binaire, c’est-à-dire en « base 2 » (seulement 2 chiffres nécessaires). Dans cette base, le nombre 21 doit être décomposé en puissances de 2 et s’écrit 10101, car 21 = (1×24) + (0×23) + (1×22) + (0×21) + (1×20). On peut écrire tous les nombres qui existent avec des 0 et des 1, mais de façon bien moins compacte ! Des problèmes insolubles Les ordinateurs ne sont pas que des machines à décoder les chaînes de bits – ils peuvent aussi les manipuler. Pour effectuer des calculs avec un alphabet si limité, ils doivent décomposer les opérations complexes, comme la multiplication de deux nombres, en une suite d’opérations élémentaires – transformer un 1 en 0, comparer 2 bits et retourner 1 s’ils sont identiques, 0 sinon… Comme un métier à tisser qui relie des brins entre eux, l’ordinateur assemble des chaînes de bits pour parvenir à ses fins. Pour résoudre un problème donné, l’ordinateur doit exécuter une suite d’opérations élémentaires dans un ordre bien précis : on appelle cette suite un algorithme. Le temps d’exécution d’un algorithme dépend toujours de la « taille » du problème à traiter, mais dans des mesures différentes selon le problème considéré. Le temps requis pour chercher un destinataire dans l’annuaire ne dépend quasiment pas du nombre total d’entrées dans l’annuaire, car celui-ci est rangé par ordre alphabétique. En revanche, pour effectuer l’opération inverse – retrouver un numéro inconnu – il faudra énumérer tous les destinataires jusqu’à trouver le bon numéro. Dans ce cas, le temps requis est proportionnel au nombre total d’entrées, ce qui peut paraître assez prohibitif. Mais ce n’est encore rien par rapport à la complexité de certains problèmes. Le problème du plan de table que nous avons évoqué plus haut est déjà inabordable avec 60 invités. Que se passe-t-il si un nouvel invité s’ajoute à la fête ? Il faudra rajouter une chaise pour l’asseoir entre deux personnes, et le nombre de possibilités est à nouveau multiplié par 60 ! On dit que la difficulté de ce problème – en apparence simple – augmente de manière exponentielle avec le nombre d’invités. C’est le cas de nombreux problèmes dits d’optimisation, où le but est de trouver la meilleure configuration pour satisfaire un ensemble de contraintes. Un autre exemple célèbre est celui du voyageur de commerce, qui doit trouver le chemin le plus court reliant un certain nombre de villes : le nombre de chemins possibles croît exponentiellement avec le nombre de villes. Heureusement, dans la plupart des problèmes d’optimisation, il n’est pas nécessaire d’énumérer toutes les possibilités. Par exemple, lorsqu’il cherche l’itinéraire le plus court pour relier Lyon à Strasbourg, votre GPS se doute bien qu’il n’a pas besoin de prendre en compte les chemins passant par Brest. Cependant, dans certains problèmes, il n’existe pas de méthodes pour réduire le nombre de possibilités. La confidentialité de la plupart de nos systèmes d’information repose aujourd’hui sur la difficulté de ce genre de problème (voir chapitre 5), totalement insoluble en temps raisonnable par les ordinateurs actuels… Le qubit à la rescousse Assez parlé d’informatique, et place au sujet central de ce livre : la révolution quantique. Une solution possible à l’écueil des problèmes à complexité exponentielle est d’abandonner la représentation de l’information en bits, pour les remplacer par des qubits (contraction de quantum bits). Un qubit est, tout comme le bit, un système physique auquel on peut associer deux configurations distinctes, que l’on note 0 et 1. Mais à la différence des bits, on ne peut utiliser n’importe quel objet qui possède deux états pour former un qubit. Il faut un objet purement quantique, capable d’une part d’être dans une superposition d’états (voir chapitre 5), et d’autre part d’être intriqué à d’autres objets quantiques (voir chapitre 6). De manière imagée, là où les bits sont noirs ou blancs et ne communiquent pas entre eux, les qubits peuvent adopter toutes les nuances de gris et peuvent interagir : c’est de là qu’ils tirent toute leur richesse. Un processeur quantique met en jeu un ensemble de qubits, tous intriqués les uns avec les autres dans une sorte de réseau inextricable. Pour changer un peu, remplaçons notre sempiternelle pièce de monnaie par une carte à jouer, qui elle aussi possède deux états, Face (F) et Dos (D), selon comment elle est posée. Un processeur quantique ressemble alors à un château de cartes. Tant qu’il tient debout, le sort de chaque carte n’est pas fixé et chacune est dans une superposition de la forme F + D (voir figure de droite). L’ensemble est cependant très fragile : pour attribuer un état à l’une des cartes, il faut la retirer, ce qui fait tomber toutes les autres et les force à choisir un côté. Cette fragilité rend le processeur difficile à dompter, mais c’est aussi elle qui lui procure un premier avantage considérable : mesurer un seul qubit donne immédiatement le résultat de tous les autres, ce qui permet de combiner plusieurs calculs en une seule opération. Le deuxième avantage est plus subtil, mais mérite que l’on s’y attarde un peu. On a vu qu’un état superposé peut s’écrire F + D. Mais il s’agit là d’un cas particulier où la mesure donne F ou D avec la même probabilité : un système quantique en superposition peut en fait s’écrire a « F » + b « D », où a et b sont des nombres liés aux probabilités de trouver le système dans un état ou l’autre 1. De la même façon qu’on peut repérer n’importe quel point sur Terre par sa latitude et sa longitude, le qubit est caractérisé par deux informations, et non une seule : les valeurs de a et b. Imaginons maintenant deux qubits intriqués. Cette fois-ci, quatre états sont possibles : FF, DD, FD, DF. L’état superposé de l’ensemble peut s’écrire à l’aide de quatre chiffres : a « FF » + b « DD » + c « FD » + d « DF ». Il faut donc quatre informations pour décrire deux qubits, là où il n’en fallait que deux pour décrire deux bits classiques : la valeur du premier bit et la valeur du deuxième. Si l’on passe à 3 qubits, on a besoin de 8 informations, contre 3 dans le cas de bits. Avec 4 qubits, il en faut 16, contre 4. En continuant cette logique, on comprend la différence fondamentale entre les bits et les qubits : chaque nouveau bit ajoute une seule information, tandis que chaque nouveau qubit double le nombre d’informations. La croissance est exponentielle, comme pour le nombre de combinaisons dans le problème du plan de table. Ainsi, 10 qubits contiennent autant d’information que 1 024 bits, et pour représenter une photo de vacances, habituellement stockée sur plusieurs millions de bits classiques, il suffirait d’une vingtaine de qubits ! Boîtes noires quantiques Le changement de paradigme entraîné par les qubits pourrait, selon certains, déclencher une véritable révolution informatique. Nous en arrivons cependant à la première grande limite des ordinateurs quantiques : pour lire une chaîne de qubits, il faut mesurer son état. Seulement, cette mesure détruit la superposition quantique, et ne nous donne accès qu’à une seule des informations qu’il renferme ! C’est là tout le paradoxe de l’informatique quantique : la promesse d’effectuer des calculs très facilement sur un grand nombre de qubits, mais l’impossibilité de récupérer ces informations efficacement. Il est bien beau de pouvoir stocker une photo de vacances sur une vingtaine de qubits, et de pouvoir la retoucher efficacement, mais quel intérêt si l’on ne peut pas y accéder par la suite ? Le but des algorithmes quantiques développés depuis les années 1990 est de ruser pour contourner cette contrainte. C’est ici que l’on peut exploiter le dernier avantage des qubits – indissociable des deux autres : en tant qu’objets quantiques, ils peuvent interférer entre eux, comme les photons dans l’expérience des fentes de Young (voir chapitre 2). L’idée est donc, via cette interférence, d’amplifier l’importance de certains états et de diminuer l’importance d’autres, pour privilégier ceux qui donneront le bon résultat de calcul. On ne pourrait résumer ici les astuces utilisées tant elles dépendent du problème considéré. La boîte à outils mise à disposition par la quantique est diverse et complexe, et demande de trouver un compromis entre rapidité de calcul et efficacité de lecture. Ce n’est malheureusement pas possible pour tous les problèmes, et c’est pourquoi un ordinateur quantique, même très abouti, ne sera sûrement jamais universel comme le sont nos ordinateurs actuels. Face à la surenchère médiatique que provoque le calcul quantique, de nombreux scientifiques martèlent que celui-ci n’aura à terme d’intérêt que dans certains domaines particuliers. L’ANNUAIRE INVERSÉ Comme on l’a vu, trouver le nom d’un destinataire inconnu à partir de son numéro dans un annuaire est une tâche très fastidieuse : si l’annuaire compte 10 000 entrées, il faudra en énumérer 5 000 en moyenne avant de trouver la bonne. En 1996, Lov Grover présente un algorithme quantique permettant de résoudre le problème en seulement 100 opérations ! L’astuce est de créer un état quantique où les 10 000 entrées sont en superposition équilibrée. En mesurant un tel système, on tomberait sur chaque entrée avec une chance sur 10 000, ce qui nous avancerait peu. L’idée de Grover est de soumettre cet état superposé à une suite de manipulations qui augmentent petit à petit la probabilité du numéro recherché jusqu’à ce qu’il soit proche de 1. Il suffit ensuite de mesurer l’état pour trouver le numéro que l’on cherche ! Cet exemple montre que même si l’on ne peut réaliser qu’une seule mesure sur la chaîne de qubits, on peut en extraire des informations utiles en faisant preuve d’ingéniosité. Vaincre la décohérence Revenons sur l’une des caractéristiques des qubits : leur fragilité. La moindre mesure d’un système quantique superposé le force à choisir un état, et brise la superposition de manière irréversible. Lorsqu’un château de cartes s’effondre, son sort est scellé ; on aura beau revenir une heure plus tard, les cartes seront toujours dans le même état… Que signifie, ici, la mesure ? On l’imagine généralement comme l’action d’un détecteur sur le système quantique : dans l’image du château de cartes, ceci revient à retirer l’une des cartes. Mais comme on le sait, le château peut s’effondrer pour toutes sortes d’autres raisons, comme un léger coup de vent ou un tremblement du sol. De même, la superposition quantique s’effondre à la moindre interaction avec un autre système, qu’il s’agisse d’un détecteur de mesure ou des molécules du gaz environnant. Ce phénomène de brouillage des propriétés quantiques porte le nom de décohérence, et c’est lui qui cause tant de soucis aux chercheurs du domaine. On touche ici du doigt la principale difficulté de l’informatique quantique : maintenir les qubits en superposition. Le défi technique consiste à réduire au minimum les interactions des qubits avec leur environnement, comme si l’on cherchait à mettre le château de cartes à l’abri du vent. Ainsi, on place généralement les qubits dans une enceinte à vide, pour se débarrasser des molécules de gaz qui pourraient perturber le système. Comme le vide n’est jamais parfait, on refroidit également jusqu’au zéro absolu pour que les quelques molécules de gaz restantes soient totalement figées. Ce n’est que dans ces conditions extrêmes que le caractère quantique des qubits peut se révéler pleinement. De même qu’un château de cartes est d’autant plus instable qu’il est grand, cette lutte contre la décohérence devient d’autant plus difficile à mesure que le système grandit. Les meilleurs ordinateurs quantiques actuels parviennent à exploiter une centaine de qubits, et la course à qui construira le plus grand château de cartes fait rage à l’échelle mondiale… Au-delà de son importance pratique, ce phénomène de décohérence est crucial d’un point de vue théorique, car il explique pourquoi les phénomènes étranges égrenés tout au long de ce livre sont invisibles à notre échelle. Mettre un chat en superposition quantique, alors que celui-ci est constitué de millions de trillions d’atomes, est en théorie possible. Mais en pratique, ce serait aussi difficile que de construire un château de cartes haut comme l’Everest, tout en l’abritant du vent. Peu de chance, donc, de tomber nez à nez avec le chat mort-vivant qu’imaginait Schrödinger. UN ÉCHIQUIER ERRATIQUE Mentionnons un dernier grand défi qui découle de la fragilité des qubits : les ordinateurs quantiques sont pour l’instant très propices aux erreurs de calcul, que l’on regroupe en deux catégories. La première correspond à une erreur sur un seul qubit. Si le processeur quantique est un échiquier, ce genre d’erreur correspond au déplacement d’une seule pièce, par exemple si votre adversaire triche quand vous avez le dos tourné. L’erreur est facile à corriger, mais encore faut-il l’avoir remarquée. La deuxième catégorie d’erreur affecte l’ensemble des qubits, comme si vous donniez accidentellement un coup dans la table, de telle sorte que les pièces se retrouvent toutes décalées de manière identique sur le plateau. Ce décalage est facile à remarquer, mais plus difficile à corriger. Certains systèmes sont plus robustes face au premier type d’erreur, d’autres au second type, mais pour l’instant, aucun n’a été trouvé qui permette de résoudre efficacement les deux. La guerre des qubits Que l’on soit convaincu ou non du potentiel de l’informatique quantique, force est de constater que les progrès sont en pleine accélération. Les entrailles de l'ordinateur quantique d'IBM révèlent les enchevêtrements de câbles nécessaires au contrôle des qubits. Source : IBM En septembre 2019, une équipe de Google se targue d’avoir atteint la « suprématie quantique ». Armés d’un processeur opérant sur 53 qubits, les ingénieurs annoncent avoir résolu en 3 minutes un calcul qui aurait demandé 10 000 années de labeur aux meilleurs ordinateurs classiques actuels. L’annonce ne passe pas inaperçue dans la communauté scientifique : un mois plus tard, une équipe d’IBM fusille la publication de Google, et accuse les auteurs d’avoir exagéré la performance – ils assurent que ledit calcul pourrait être réalisé en 3 jours seulement avec l’ordinateur classique. En 2021, c’est au tour de l’équipe de Jian-Wei Pan en Chine de présenter un ordinateur quantique à 66 qubits, qui serait plusieurs centaines de fois plus rapide que celui de Google. Quelques mois plus tard, IBM déclare avoir franchi la limite des 100 qubits à l’aide d’un nouveau processeur aux airs futuristes (voir photo). Les ordinateurs d’IBM et de Google sont basés sur la même technologie : les qubits supraconducteurs, considérés comme les plus prometteurs à court ou moyen terme. Chaque qubit est composé de 2 petites bandes de métal séparées par un isolant. Les électrons du métal peuvent traverser l’isolant par effet tunnel (voir chapitre 4) : les états 1 et 0 correspondent aux états « un électron a traversé » et « aucun électron n’a traversé », respectivement. Le grand avantage de ce système est qu’il bénéficie de techniques de fabrication mises au point depuis longtemps pour les circuits imprimés classiques. Cependant, les supraconducteurs, que l’on découvrira en détail au cours du dernier chapitre, doivent être maintenus à des températures très basses pour fonctionner… Et les erreurs de calcul de ce genre d’ordinateurs sont encore nombreuses. Un autre choix courant est d’utiliser la polarisation des photons (voir chapitre 5). D’autres groupes de recherche utilisent des qubits plus exotiques, sous la forme de cristaux ou de chaînes d’atomes. Il existe déjà tout un bestiaire de qubits, chacun possédant ses avantages et inconvénients – bien avisé celui qui peut prédire laquelle de ces technologies triomphera. PLANCHES À PHOTONS Avez-vous déjà vu ce genre de planche cloutée dans des foires ? On y laisse tomber des billes du haut et celles-ci rebondissent sur les clous avant de venir se placer dans une case tout en bas. On les appelle « planches de Galton », du nom de leur inventeur. Imaginez maintenant ce même instrument mais avec des particules quantiques à la place des billes. À chaque « clou », la fonction d’onde de la particule est séparée en deux, comme dans les fentes de Young. La figure d’interférence lorsque les particules arrivent en bas est si complexe qu’aucun ordinateur classique ne peut calculer sa forme. C’est cette drôle de planche qui a été simulée par l’équipe de Jian-Wei Pan (encore lui !) en 2020 avec 76 photons, puis en octobre 2021 avec 113. Certes, les ordinateurs classiques sont dans les choux, mais les applications liées à ce calcul sont loin d’être évidentes… Révolution ou chimère ? Cette guerre des chiffres laisse songeur, et montre l’importance stratégique de la course aux qubits. Dans quelques années, les premiers succès des processeurs quantiques écloront peut-être, avec de potentielles applications dans des domaines sensibles tels que la pharmacie, la cryptographie ou la finance. Quelle sera l’importance de l’ordinateur quantique à long terme ? Difficile à dire, tant les phénomènes de mode sont à double tranchant. Si l’informatique quantique suscite des pluies de financements – publics comme privés –, ces derniers ont tendance à être instables. On le voit avec le domaine de l’intelligence artificielle, qui a connu une alternance de périodes fastes et d’« hivers » : le vent peut tourner très vite lorsque les progrès ne sont pas assez rapides au goût des investisseurs. Insistons sur le fait que l’ordinateur quantique ne sera pas un remplaçant de l’ordinateur d’aujourd’hui, de même que l’Internet quantique n’a pas vocation à remplacer le nôtre. Ces technologies ont des champs d’application très prometteurs, mais assez spécialisés ; elles ne viendront pas, a priori, transformer notre vie de tous les jours, comme l’ont fait les ordinateurs classiques, et comme le fera peut-être l’intelligence artificielle. Cependant, il est difficile de croire que les efforts de recherche qu’ils suscitent n’auront aucune retombée, même indirecte, sur le monde numérique. LA PHYSIQUE MISE EN ABYME Si un ordinateur quantique universel semble encore hors de portée, une autre classe de calculateurs fait son apparition : les simulateurs quantiques. L’idée, proposée par le prix Nobel de physique Richard Feynman dès les années 1980, est de modéliser des systèmes quantiques complexes grâce à des systèmes quantiques plus simples dont on contrôle les propriétés. La quantique ne sert pas ici à accélérer les calculs comme dans un ordinateur quantique, mais à les modéliser. Plutôt que de résoudre des équations pour prédire les interactions entre deux molécules, on les simule en mettant des atomes dans les bonnes conditions. Ensuite, il n’y a plus qu’à mesurer ces interactions (et non les calculer) ! Ces simulations pourraient permettre de prédire les propriétés de nouvelles molécules et ainsi découvrir de nouveaux matériaux, médicaments, composants de batteries, ou même engrais chimiques. Des simulateurs comportant 250 qubits étaient déjà opérationnels à la fin 2021. À partir de 500 qubits, ils devraient être en mesure de résoudre des problèmes réellement intéressants. Résumé du concept : le calcul quantique Le calcul quantique consiste à remplacer les bits par des qubits (bits quantiques). Là où les bits des ordinateurs classiques ont une valeur 0 ou 1 et fonctionnent indépendamment, les qubits peuvent chacun être en superposition 0 + 1 et être intriqués les uns avec les autres. Cela leur permet de résoudre certains calculs inabordables avec les ordinateurs classiques. Cependant, il est difficile d’extraire les résultats des calculs une fois ceux-ci terminés. De plus, la superposition des qubits est très fragile : elle est brisée à la moindre interaction, un phénomène connu sous le nom de décohérence. C’est pourquoi les ordinateurs quantiques, pourtant très prometteurs, restent si difficiles à mettre au point. 1. Plus précisément, nous avons vu au chapitre 5 que pour caractériser complètement un état superposé, il faut deux nombres : une probabilité et une orientation. a et b ne sont donc pas des probabilités à proprement parler, mais un mélange de ces deux nombres. S’il y a une chose que les hommes aiment faire, c’est mesurer le temps. On raconte que Christophe Colomb, lors de son voyage vers l’Amérique, retournait un sablier toutes les demi-heures… Depuis des siècles, les plus grands esprits ont rivalisé d’ingéniosité pour améliorer la précision de nos gardiens du temps. Grâce à la physique quantique, cette précision a atteint e son paroxysme au XX siècle avec les horloges atomiques, tellement précises que si elles avaient été installées au moment du Big Bang, elles n’auraient accumulé qu’une seconde de retard… Une telle précision peut sembler superflue, mais elle est capitale dans nombre de technologies modernes comme le guidage par satellite. La quantique joue un rôle paradoxal en ce qui concerne la science de la mesure. D’un côté, elle nous offre de nouvelles générations d’horloges, de capteurs magnétiques, électriques, gravimétriques, tous plus précis les uns que les autres. De l’autre, elle nous enseigne, via son principe d’incertitude, qu’il existe une limite de précision infranchissable. Les physiciens ont dû apprendre à composer avec cette limite pour poursuivre leur course à la précision. Compter à l’oreille Quelle est la différence entre le dong d’une cloche frappée et le clap d’un applaudissement ? Le son de la cloche est une note assez facile à identifier : on pourrait, en tâtonnant sur un piano, la retrouver assez facilement. Ce n’est pas le cas de l’applaudissement, que l’on pourrait qualifier de « bruit ». Qu’est-ce qui cloche ici ? Le son est une onde, semblable à une série de vagues sur la mer : il se propage jusqu’à nos oreilles en comprimant et dilatant des couches d’air. Sa hauteur est déterminée par la fréquence de l’onde : sur l’océan, cela correspond au nombre de vagues qui déferlent par seconde. Imaginezvous en mer, à bord d’une petite embarcation, une montre au poignet. Pour mesurer la fréquence de l’onde, il suffit de chronométrer la durée qui s’écoule entre le passage de deux vagues successives. À l’aide de la trotteuse, vous comptez une durée de 5 secondes. Ce résultat est peu précis : il indique que la durée réelle se situe quelque part entre 4 et 6 secondes, mais difficile d’avoir plus d’informations. Une astuce simple pour améliorer la précision est de chronométrer le passage de dix vagues, puis de diviser le résultat par dix. Vous mesurez 52 secondes, ce qui vous donne un résultat de 5,2 secondes, précis au dixième de seconde : vous savez désormais que la valeur réelle se situe entre 5,1 secondes et 5,3 secondes. Si vous laissiez passer mille vagues, vous pourriez obtenir, avec votre simple montre, une précision de l’ordre de la milliseconde, meilleure qu’un chronomètre haut de gamme ! Ainsi, plus on compte de vagues, mieux on connaît la fréquence de l’onde. Pour déterminer la hauteur d’un son, notre oreille suit un procédé très similaire : elle mesure la fréquence moyenne de l’onde sonore sur un grand nombre de crêtes. Or, là est la grande différence entre le son de la cloche et celui de l’applaudissement : leur durée. Le dong de la cloche résonne longuement et permet à l’oreille de compter un grand nombre de crêtes, tel un long train de vagues. Le clap de l’applaudissement est plutôt comme un tsunami : une vague unique de forte intensité qui déferle sur la plage. Impossible de mesurer la durée entre deux vagues si l’on n’en dispose que d’une ! La brièveté du clap rend donc sa hauteur difficile à identifier – l’incertitude sur sa fréquence est élevée. En revanche, on peut déterminer l’instant du clap avec une grande précision : c’est pourquoi les cinéastes utilisent des claps, et non des cloches, pour synchroniser le son et l’image en postproduction. Morale de l’histoire : un son bref est facile à localiser dans le temps, mais difficile à localiser en termes de fréquence. À l’inverse, un son long est étalé dans le temps, mais sa fréquence peut être connue très précisément. Ce résultat vaut en fait pour tous les types d’ondes – il a notamment d’importantes conséquences dans le domaine des télécommunications. En 1927, l’un des pionniers de la théorie quantique dont nous avons peu parlé jusqu’ici, Werner Heisenberg, a l’idée d’appliquer le même raisonnement aux ondes quantiques. C’est ainsi que naît son principe d’incertitude, dont les implications physiques sont particulièrement exotiques. LES MIRACLES DE LA COCHLÉE Tout comme la lumière du Soleil peut être décomposée en arc-en-ciel grâce à un prisme, les sons sont habituellement constitués d’un mélange d’ondes sonores de fréquences différentes. L’ensemble de ces fréquences constitue le spectre du son et définit son timbre : il permet de distinguer le la d’un violon du la d’une clarinette. Si l’oreille peine à attribuer une fréquence précise à des sons courts, elle est très efficace pour caractériser leur spectre grâce à la cochlée, petit organe spiral de l’oreille interne qui joue le rôle de « prisme sonore ». C’est ainsi que l’on fait facilement la distinction entre un applaudissement, un tintement de verre et un craquement de bois mort. Pouvoir ainsi reconnaître des bruits courts a pu constituer un avantage évolutif pour nos lointains ancêtres vivant dans la forêt. Les fourmillements du vide Commençons par appliquer le principe d’incertitude à la lumière, onde quantique par excellence. Il nous indique que plus un flash lumineux est bref, moins sa fréquence est bien définie. Or, la fréquence d’un photon est directement reliée à son énergie (voir chapitre 2). On en déduit la chose suivante : plus un système quantique vit sur une durée courte, plus son énergie est floue. Cela peut sembler abstrait, mais une conséquence absolument vertigineuse en découle : le vide n’existe pas. En effet, le vide implique l’absence de toute chose, et donc une énergie strictement nulle, parfaitement connue. Or, lorsque l’on regarde ce vide sur une durée courte, le principe d’incertitude nous indique qu’on a nécessairement une incertitude sur son énergie : elle ne peut être parfaitement connue. La seule façon de remédier à cette contradiction est d’accepter que le vide ne soit pas réellement vide. Le vide est plutôt semblable à une fourmilière. Lorsqu’on le regarde de loin, il paraît bel et bien inerte, mais lorsque l’on s’approche de plus près, il grouille de petits événements insaisissables appelés fluctuations quantiques, comme la création ex nihilo de paires de particules qui s’annihilent aussitôt. Ces événements, aussi éphémères qu’ils soient, confèrent au vide une substance, et même une énergie mesurable. LES REMOUS QUANTIQUES Les matelots le savent : il ne faut jamais laisser deux bateaux côte à côte dans une mer agitée ! Ces derniers seront poussés l’un vers l’autre par la houle, jusqu’à la collision. En effet, la zone entre les deux bateaux est abritée du vent, et les quelques clapotis qui y survivent ne peuvent compenser les vagues qui s’écrasent contre l’autre côté de la coque. Cet effet a un analogue dans le monde quantique, qui ne provient pas de la houle mais des fluctuations du vide : l’effet Casimir. Lorsque l’on place deux plaques de métal parallèlement l’une à l’autre, elles subissent une force qui tend à les rapprocher, à cause des fluctuations quantiques plus importantes à l’extérieur des plaques qu’à l’intérieur. Cette force est très faible, et ne produit des effets tangibles que pour des plaques extrêmement proches : il fallut attendre cinquante ans entre sa prédiction par le physicien néerlandais Hendrik Casimir et sa première détection, en 1997. De nos jours, elle commence déjà à poser problème aux fabricants de microprocesseurs, dont les transistors atteignent des tailles si minuscules qu’ils entrent dans le règne du quantique. En revanche, elle peut être mise à profit pour mesurer la position d’objets nanoscopiques avec précision ! Rien n’est immobile Après la lumière, appliquons notre principe d’incertitude à un autre type d’onde purement quantique : la fonction d’onde, qui décrit de manière probabiliste la position de particules quantiques comme les électrons (voir chapitre 4). Cette onde est soumise à la même loi : plus elle est localisée, plus sa fréquence est floue. Que signifie « localisée » ? Simplement qu’elle est resserrée autour d’un endroit de l’espace, signifiant que l’incertitude sur la position de l’électron est faible. Quant à la fréquence de la fonction d’onde, elle correspond physiquement à la vitesse de l’électron. Ainsi, le principe d’incertitude nous dit la chose suivante : plus la position de l’électron est connue avec précision, plus sa vitesse fluctue. C’est en fait sous cette forme que Werner Heisenberg publie son principe en 1927. Cette affirmation a de quoi surprendre. Pour mieux la comprendre, essayons de localiser notre cher électron comme on cherche nos clés dans le noir : en l’éclairant. Cela implique de l’inonder de photons : ceux qu’il absorbe trahissent sa position en créant une « ombre » (voir figure). Seulement, lorsque l’électron absorbe un photon, il subit un recul, comme s’il était heurté par une boule de billard, ce qui affecte son mouvement. Ainsi, plus on l’éclaire, plus on a d’information sur sa position, car l’ombre est plus nette, mais moins on en a sur sa vitesse, qui est modifiée par les photons absorbés. Une conséquence particulièrement déroutante de cette loi est qu’aucune particule quantique ne peut être immobile. En effet, si une particule était immobile, alors sa vitesse serait strictement nulle et sa position serait parfaitement déterminée, ce qui est impossible d’après notre sacro-saint principe d’incertitude. Cette idée peut sembler absurde de notre point de vue, car la plupart des objets qui nous entourent semblent immobiles : la table, le tapis sur lequel elle repose, le stylo posé dessus. Mais à l’échelle microscopique, les molécules qui constituent ces objets sont en perpétuelle agitation. INCERTITUDE OU INDÉTERMINATION ? Depuis sa formulation en 1927, le principe d’incertitude a alimenté nombre de fausses croyances. Il laisse en effet entendre que la position et la vitesse de la particule ont une valeur bien déterminée, mais que la nature nous empêche d’y accéder, comme par l’action d’un voile pudique. En réalité, ce sont les valeurs de ces quantités qui sont intrinsèquement indéterminées : parler de la position exacte d’un atome a aussi peu de sens que de préciser les coordonnées exactes d’une chaîne de montagnes. Heisenberg prit rapidement conscience de cette source de confusion, et suggéra de remplacer « principe d’incertitude » par « principe d’indétermination » ; ce fut trop tard, hélas. Le principe d’incertitude n’est pas un aveu de faiblesse, entérinant notre ignorance sur le monde. Bien au contraire, c’est une relation mathématique qui permet de quantifier précisément l’indétermination associée à une grandeur physique. À nouveau, la théorie quantique est clairvoyante dans son flou : il faudrait plutôt parler de « relation d’indétermination » que de « principe d’incertitude ». À la recherche du zéro absolu La température d’un corps est déterminée par la vitesse d’agitation des molécules qui le composent. Lorsqu’on allume le brûleur d’une montgolfière par exemple, les molécules de gaz contenues dans le ballon accélèrent, et leurs chocs contre l’enveloppe du ballon font gonfler ce dernier. À l’inverse, en refroidissant un corps, on ralentit son agitation microscopique. Jusqu’où peut-on refroidir ? A priori, jusqu’à ce que les particules microscopiques soient à l’arrêt. C’est ainsi qu’est défini le zéro absolu, l’origine de l’échelle de température de Lord Kelvin, soit environ –273,15 °C. À cette température, la matière est totalement figée : les particules sont toutes immobiles. Peut-être vous exclamez-vous déjà d’indignation : c’est une violation catégorique du principe d’incertitude ! Puisqu’aucune particule ne peut être parfaitement immobile, on ne peut atteindre le zéro absolu en pratique. Les particules garderont toujours une irrépressible bougeotte quantique, due au principe d’incertitude, qui leur interdit de s’immobiliser totalement. C’est ce qui nous permet de refroidir l’hélium liquide à des températures aussi basses que l’on veut sans craindre qu’il gèle : les atomes d’hélium s’attirent si peu que même l’infime agitation quantique est suffisante pour empêcher les atomes de se ranger en ordre pour former un solide. L’hélium liquide est une mine d’or pour la cryogénie – la science du froid –, et est utilisé dans plusieurs des applications que nous allons rencontrer au cours des chapitres suivants (appareils IRM, trains à lévitation magnétique…). Vous l’aurez compris : jamais vide, jamais immobile, le monde quantique n’est décidément jamais au repos. ZÉRO DEGRÉ EN ZÉROG Les physiciens aiment battre des records, et si le zéro absolu est inatteignable, s’en approcher autant que possible compte parmi les défis qu’ils aiment se lancer. En août 2021, une équipe de l’Université de Brême a mis la barre très haut, ou plutôt très bas, en refroidissant un gaz à… quelques trillionièmes de degrés au-dessus du zéro absolu. L’astuce : s’affranchir de la gravité, qui a naturellement tendance à mettre les corps en mouvement. Pour y parvenir, les chercheurs ont lâché leur précieux gaz depuis les 120 mètres de hauteur de la Bremen Drop Tower, une tour construite spécialement pour ce genre d’expériences farfelues. C’est donc en pleine chute libre que le système a atteint la température la plus basse qui ait jamais existé sur Terre… Et peut-être même ailleurs dans l’Univers ! Midi moins le quartz Si vous possédez une montre au poignet, celle-ci fonctionne probablement grâce à un petit cristal de quartz. Lorsqu’il est excité électriquement, ce dernier oscille mécaniquement à raison de 32 768 oscillations par seconde, comme une pendule ultra-rapide qui mesurerait les dix-millièmes de seconde. Ce battement est très régulier et permet à la montre de se dérégler de moins d’une seconde par jour, soit quelques minutes par an à peine. Cette précision est étonnante pour un objet aussi bon marché, et largement suffisante pour un usage personnel. Néanmoins, la fréquence d’oscillation du cristal peut varier légèrement d’un modèle à l’autre. L’idéal, pour créer des horloges fiables et absolument identiques, serait d’utiliser des objets que l’on sait être strictement identiques. Les atomes, par exemple ? Souvenez-vous, un atome est comme une petite guitare : ses électrons peuvent se trouver dans un certain nombre de niveaux d’énergie dont les valeurs sont connues très précisément (voir chapitre 3). Quand un électron saute d’un niveau au niveau inférieur, il émet un photon à une fréquence fixe, toujours la même, contrairement au cristal de quartz. C’est sur cette idée qu’a été définie la seconde en 1967, comme « la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins de l’état fondamental de l’atome de césium 133 ». Cette définition alambiquée a l’avantage d’offrir une méthode « pratique » pour déterminer la durée d’une seconde avec précision : il suffit de se munir d’un atome de césium et de mesurer très précisément la fréquence de transition entre les deux niveaux considérés, tout comme on vérifie la hauteur d’une note de guitare avec un accordeur. Seulement, la mesure n’est pas aussi facile dans le cas de l’atome, et ce, en raison d’un effet bien connu des fans de course automobile : l’effet Doppler. C’est lui qui cause le rugissement si caractéristique des voitures de formule 1 qui passent devant la caméra : « gniii-ooon ». De même, la sirène d’une ambulance paraît plus aiguë quand elle se rapproche de nous, puis plus grave lorsqu’elle s’éloigne. Plus généralement, n’importe quelle onde provenant d’une source en mouvement voit sa fréquence modifiée pour un observateur fixe. Le physicien qui observe les photons émis par une collection d’atomes s’agitant dans tous les sens se retrouve confronté au même phénomène. La fréquence des photons émis par les atomes se déplaçant vers lui est augmentée par l’effet Doppler, et diminuée pour ceux qui s’éloignent. Pour mesurer la fréquence de transition des atomes le plus précisément possible, il faut donc ralentir les atomes, c’est-à-dire les refroidir autant que possible (voir encadré ci-après). La plupart des horloges atomiques actuelles fonctionnent grâce à ces atomes froids. Admettons que l’on puisse refroidir nos atomes jusqu’au zéro absolu – ce qui est impossible, on l’a vu, à cause du principe d’incertitude. Pourrait-on déclarer que notre horloge à atomes est infiniment précise ? Toujours pas ! Un photon est un flash lumineux, émis lors de la désexcitation de l’atome de césium. Sa durée est brève, tout comme le clap de l’applaudissement, ce qui implique une irréductible incertitude sur sa fréquence – toujours selon le principe d’incertitude. Le voici à nouveau qui nous met dans l’embarras ! ÉCLAIRER POUR REFROIDIR Le meilleur moyen de refroidir des atomes est d’utiliser… de la lumière. Si celle du Soleil nous réchauffe, il en est autrement dans le monde nanoscopique, où refroidir signifie ralentir. L’idée est de piéger les atomes en les inondant de faisceaux lasers depuis toutes les directions, comme les jets d’eau arrosent une voiture au car wash. Si l’atome cherche à s’échapper du piège, les photons qui le heurtent de face verront leur fréquence augmenter par effet Doppler – ici utilisé à notre avantage –, tout comme le jet d’eau paraît plus puissant si l’on avance vers lui. Si l’on règle correctement la fréquence des lasers, ces photons atteindront pile la fréquence de transition de l’atome et seront absorbés, repoussant l’atome en arrière. Claude Cohen-Tannoudji reçut le prix Nobel en 1997 pour la mise en place de cette technique de refroidissement laser. Comprimer pour mieux voir Résumons : plus une particule est localisée dans l’espace, moins sa vitesse est déterminée, et plus elle est localisée dans la durée, moins son énergie est déterminée. Le principe d’incertitude de Heisenberg nous apprend que chaque grandeur mesurable possède une grandeur conjuguée, telle que si l’une est déterminée avec précision, l’autre devient floue. La position et la vitesse sont deux grandeurs conjuguées, tout comme la durée et l’énergie. Si l’on voulait dessiner l’état d’un système quantique dans un graphique qui aurait comme axes les deux grandeurs conjuguées, on ne pourrait pas le représenter par un point, mais par un ballon caractérisant l’irréductible flou quantique. Le principe d’incertitude nous autorise néanmoins à déformer ce ballon comme une baudruche, tant que son volume total reste constant. On peut illustrer ce jeu entre grandeurs conjuguées par un cadran solaire, formé d’un bâton planté dans le sol dont l’ombre se déplace avec le Soleil (voir figure). Pour lire l’heure au mieux, on voudrait une ombre aussi nette et longue que possible. Lorsque le Soleil est au zénith, l’ombre portée du bâton est très nette mais courte et tassée : elle est facile à repérer sur le sol (l’incertitude sur sa position est faible), mais difficile de lire sa direction (l’incertitude sur sa direction est grande). À l’inverse, au crépuscule, le Soleil est bas dans le ciel et l’ombre portée du bâton s’allonge, mais les rayons du Soleil se font timides et le contraste n’est plus très bon. On peut dire qu’au zénith, notre ballon d’incertitude est comprimé dans la direction de la « position », et au crépuscule dans la direction de la « direction » (voir figure suivante). Si notre but est de lire l’heure le plus précisément possible, la deuxième situation semble la plus intéressante, même si elle vient au prix d’un effort supplémentaire (de bons yeux pour distinguer l’ombre recherchée). De façon générale, pour obtenir des mesures de précision, les physiciens doivent s’arranger ainsi avec le principe d’incertitude, en comprimant leurs systèmes quantiques selon la direction la plus intéressante, même si cela implique des fluctuations indésirables de sa variable conjuguée. Si le principe d’incertitude peut limiter la précision de nos mesures, il offre heureusement une solution de contournement. C’est ce principe qu’exploitent les horloges atomiques les plus récentes pour améliorer leur précision. Comment comprimer le ballon d'incertitude dans la pratique ? Il n'y a pas de réponse unique, mais l'intrication peut être d'une grande aide. En intriquant entre eux les atomes froids de l'horloge, on peut ainsi réussir à diviser par cent l'incertitude sur la fréquence d'émission. Preuve une nouvelle fois que l’intrication n’a pas fini de nous surprendre. Remettre les pendules à l’heure Un des tours de force les plus spectaculaires des horloges quantiques est de pouvoir mesurer les effets de dilatation du temps prédits par la relativité. Cette théorie, que nous n’avons évoquée qu’en filigrane au cours de cet ouvrage, stipule que le temps d’un observateur en mouvement ralentit par rapport à un observateur immobile. Plus spectaculaire encore, le temps est affecté par la gravité, et passe plus vite en altitude ! En 1971, deux physiciens américains testèrent ces étonnantes prédictions en embarquant des horloges atomiques à bord de deux avions de ligne, l’un chargé de parcourir un tour du monde vers l’Est, l’autre vers l’Ouest. Lorsque les avions retournèrent au point de départ, ils purent constater un décalage de quelques dixièmes de microseconde entre les deux horloges et une troisième restée au sol. En tenant compte à la fois de l’altitude des avions et de leur mouvement, le décalage était parfaitement conforme à celui prévu par les équations de la relativité. Mesurer l’infime distorsion du temps que l’on ressent dans un avion vous semble peu applicable aux problèmes de la vie courante ? Détrompezvous. C’est grâce à la précision des horloges atomiques que nos GPS peuvent nous localiser aussi précisément. Pour se repérer sur une carte, votre smartphone reçoit en permanence des ondes radio envoyées par trois satellites, en orbite à plusieurs dizaines de milliers de kilomètres d’altitude, et calcule la durée mise par ces ondes à lui parvenir grâce à un quatrième satellite. Les ondes radio voyageant à la vitesse de la lumière, la moindre microseconde d’erreur induirait une erreur de localisation de trois cents mètres ! Pour atteindre une précision de l’ordre du mètre, les satellites doivent donc mesurer le temps à la nanoseconde près, et ont besoin pour cela de la précision des horloges atomiques. Les satellites doivent en permanence prendre en compte la distorsion du temps due à leur altitude, qui introduit de précieuses microsecondes de décalage. Ainsi, les deux grandes théories de la physique dont Einstein était le précurseur, la relativité et la quantique, sont toutes les deux mises à contribution à chaque fois que nous utilisons Google Maps ! CULTURE La distorsion du temps due à la gravité est magnifiquement illustrée dans le film Interstellar (2014) de Christopher Nolan. Sur l’une des planètes visitées par le héros, située très proche d’un trou noir, chaque heure équivaut à sept années sur Terre… Ce qui vaut au protagoniste la désagréable surprise de retrouver sa propre fille plus âgée que lui ! Si l’effet relativiste est ici exagéré à des fins scénaristiques, il est assez facilement mesurable sur Terre : nos horloges atomiques les plus performantes peuvent détecter la différence de vitesse d’écoulement du temps entre deux points dont l’altitude diffère de quelques centimètres. Résumé du concept : le principe d’incertitude Le principe d’incertitude (ou d’indétermination) de Heisenberg nous enseigne que l’on ne peut pas connaître simultanément certaines propriétés d’un système quantique. Lorsque l’on cherche à mesurer l’une d’elles avec précision, on perd nécessairement de l’information sur une autre. Ceci a des conséquences remarquables : rien ne peut être immobile, le vide n’existe pas… Mais également des applications bien concrètes : pour effectuer des mesures de précision, les physiciens doivent chercher à jouer avec ce principe d’incertitude pour le tourner à leur avantage. Nous sommes en général familiers avec les aimants depuis l’enfance. Qui ne s’est jamais émerveillé devant leur étrange capacité à tantôt s’attirer, tantôt se repousser ? La physique quantique, qui ne semble décrire que des objets éloignés de notre réalité, se manifeste pourtant dans des objets aussi banals que les figurines collées sur les portes de réfrigérateur. Alors que le magnétisme est étudié depuis plusieurs siècles, la véritable nature des aimants n’a été comprise que grâce à la découverte d’une propriété purement quantique des particules : le spin. C’est aussi en jouant avec ces spins que les physiciens sont parvenus à l’une des innovations médicales les plus e importantes du XX siècle : l’imagerie par résonance magnétique, ou IRM. Un bouclier naturel Parmi toutes les merveilles de la nature, peu rivalisent avec la grâce des aurores polaires, ces immenses rideaux colorés qui illuminent la nuit de leurs ondulations. Elles sont en fait les résidus de vents solaires, immenses salves de particules crachées par le Soleil qui s’écrasent contre le champ magnétique terrestre. Ce bouclier naturel dévie les particules et les canalise vers les pôles magnétiques de la Terre, nous protégeant de leurs effets cancérigènes. Une fois dans la haute atmosphère, elles percutent des molécules d’air, qui se mettent à émettre cette lumière verte qui zèbre régulièrement le ciel dans des pays comme le Canada ou la NouvelleZélande. Ce champ magnétique salvateur provient en fait des profondeurs de la Terre. Cette dernière possède, en son noyau ardent, des nappes de métal fondu qui tournent autour de l’axe nord-sud du fait de sa rotation. Or, nous savons depuis le XVIIIe siècle qu’un déplacement de charges électriques génère autour de lui un champ magnétique. Vous le verrez si vous approchez une boussole d’un fil traversé par un courant électrique : l’aiguille s’oriente perpendiculairement au fil. Mais alors, qu’en est-il de ces fameux aimants qui s’accrochent à votre réfrigérateur ? Dépourvus de pile, leur magnétisme ne peut vraisemblablement pas s’expliquer par la présence d’un courant électrique. Le champ magnétique qu’ils produisent doit avoir une autre origine… Pour la découvrir, nous allons devoir revenir à l’échelle des atomes. Des atomes déboussolés Au début du XXe siècle, les physiciens comprennent que les atomes sont formés d’un noyau entouré d’électrons. Il est alors facile d’imaginer que les électrons génèrent un champ magnétique en tournant autour du noyau, transformant l’atome en un minuscule aimant. En 1922, les physiciens allemands Otto Stern et Walter Gerlach se mettent en tête d’examiner les propriétés de ces aimants nanométriques. Ils utilisent pour cela un gros aimant, capable de générer un fort champ magnétique selon la direction verticale, à travers lequel ils envoient un jet d’atomes d’argent. En observant les impacts des atomes sur un écran placé derrière l’aimant, on peut en déduire leur trajectoire. Si l’on envoyait de véritables aimants à travers ce dispositif, ceux-ci seraient déviés différemment en fonction de leur orientation. Lorsque le pôle Nord de l’aimant pointe vers le haut, l’aimant est dévié vers le bas, et inversement. En revanche, si son pôle Nord est à l’horizontale, les forces vers le haut et le bas se compensent, et l’aimant n’est pas dévié. Pour toutes les orientations intermédiaires, la déviation est proportionnelle à l’angle que forme l’aimant par rapport à la verticale. Ainsi, en envoyant un jet d’aimants orientés aléatoirement à travers le dispositif, on devrait observer une tache étalée verticalement sur l’écran (figure de gauche). Mais lorsqu’ils font l’expérience avec les atomes d’argent, Stern et Gerlach voient apparaître deux taches bien distinctes sur l’écran : une en haut et une en bas (figure de droite). Tout se passe comme si le petit aimant des atomes ne pouvait être orienté que vers le haut ou vers le bas ! To spin or not to spin L’expérience de Stern et Gerlach est fondamentale : elle montre que tout comme les niveaux d’énergie, l’aimantation des atomes est quantifiée. Elle n'a que deux états possibles : Nord, Sud, mais rien d’intermédiaire. Elle doit donc avoir une origine quantique. Quelques années après l’expérience, les physiciens comprennent que l’aimantation des atomes d’argent ne peut pas s’expliquer par le mouvement des électrons autour du noyau. Elle provient en réalité d’une propriété intrinsèque des électrons eux-mêmes : le spin. Il est tentant d’imaginer l’électron comme une toupie miniature, qui générerait, comme la Terre, un champ magnétique du fait de sa rotation : c’est ce qui a donné son nom au spin (rotation, en anglais). Cette image est en fait trompeuse, car l’électron est, autant qu’on le sache, de taille infiniment petite. En réalité, la physique ne peut expliquer d’où vient ce spin, tout comme elle ne peut expliquer d’où vient la charge électrique de l’électron – elle a pour vocation de décrire le « comment », et non le « pourquoi ». Il faut accepter le spin comme une propriété purement quantique de l’électron, sans équivalent classique. LE COMPAS DANS L’ŒIL Comment les oiseaux migrateurs parviennent-ils à traverser la moitié du globe terrestre sans se perdre ? Une hypothèse naturelle est qu’ils s’orientent grâce au Soleil, mais dans ce cas, comment font-ils la nuit, ou lorsque le ciel est voilé ? Leur capacité à ne jamais perdre le Nord fascine encore les scientifiques de nos jours. En 2021, une équipe regroupant ornithologues, physiciens et chimistes annonce avoir trouvé la réponse. L’œil du rouge-gorge serait pourvu d’une protéine, appelée cryptochrome, qui parvient à lui faire détecter le champ magnétique terrestre, comme une boussole. Le mécanisme est complexe : la protéine est capable de produire deux électrons aux spins intriqués, qui ressentent un champ magnétique différent et affectent en retour les propriétés chimiques de la protéine. Comment le rouge-gorge parvient-il à maintenir cette intrication en vie, quand les physiciens s’y arrachent les cheveux en laboratoire, dans des conditions de froid extrême ? Comme souvent, les prouesses de l’évolution nous dépassent… La vie secrète des aimants Au sein des atomes et molécules, les électrons ont tendance à se regrouper par paires. Un électron se marie toujours avec un électron de spin opposé, de telle sorte que leurs champs magnétiques s’annulent. Ainsi, les atomes et molécules possédant un nombre d’électrons pair ne se comportent pas comme des aimants : on les qualifie de matériaux diamagnétiques. C’est le cas de la plupart des molécules qui nous entourent, comme l’eau et le dioxygène. Ce n’est pas le cas des atomes métalliques, qui possèdent des électrons célibataires, les fameux électrons « libres » qui permettent de conduire le courant électrique. Ce sont eux qui transforment les atomes d’argent de Stern et Gerlach en petites boussoles quantiques. Dans certains métaux comme le fer, ces boussoles peuvent s’aligner, de manière à ajouter leurs effets et créer un champ magnétique global : on parle alors de ferromagnétisme. C’est ainsi que fonctionnent les aimants permanents comme ceux que l’on colle aux réfrigérateurs ! Lorsque l’on fait « remagnétiser » une carte bancaire, on réaligne en réalité ses spins… Dans les autres métaux, ces boussoles sont orientées aléatoirement, et annulent leurs effets respectifs. Mais en présence d’un champ magnétique extérieur, les boussoles peuvent s’aligner : on parle alors de paramagnétisme. C’est le cas d’une feuille d’aluminium : lorsqu’on l’approche d’un aimant, elle devient elle-même légèrement aimantée, suffisamment pour être soulevée. CULTURE Non seulement les atomes et molécules diamagnétiques ne sont pas attirés par les champs magnétiques, mais ils ont même tendance à être légèrement repoussés. C’est le cas notamment de l’eau, et donc des cellules vivantes. En générant un fort champ magnétique et en utilisant le diamagnétisme de son corps, le maléfique Magnéto de Marvel, ennemi juré des X-Men, parvient à se mettre en lévitation. Un super-pouvoir pas si irréaliste : en 2000, une équipe de chercheurs a réussi à faire léviter une grenouille, par la seule action d’un puissant aimant sur l’eau que contient le pauvre batracien ! Cette prouesse leur valut le prix Ig Nobel, une récompense satirique décernée à la découverte scientifique la plus loufoque de l’année. Ê Être en phase Nous voilà armés pour comprendre l’un des outils d’analyse les plus puissants que la physique nous ait fournis : la résonance magnétique nucléaire. Elle a offert à la médecine l’imagerie par résonance magnétique, ou IRM, une technologie aussi précise qu’inoffensive pour le corps, mais a aussi révolutionné la chimie, permettant d’identifier des molécules de manière très précise. Commençons par décortiquer le sens du mot résonance en physique. Nous avons tous découvert ce principe dès notre plus jeune âge sans le savoir, en poussant nos amis sur une balançoire. Rapidement, on s’aperçoit qu’il faut pousser juste au bon moment, lorsque la balançoire est au plus haut, pour que l’amplitude des oscillations augmente. Autrement dit, il faut se synchroniser au rythme naturel de la balançoire pour lui fournir de l’énergie. Quel rapport avec la résonance, terme que l’on utilise surtout dans le domaine du son ? Dans le langage courant, on confond la résonance avec la réverbération : on dit qu’une église « résonne » parce qu’elle produit un écho. En physique, la résonance désigne un phénomène d’amplification qui a lieu lorsqu’un objet vibre à l’une de ses fréquences naturelles. Par exemple, lorsque l’on pince une corde de guitare, on génère toutes sortes d’ondes qui se déplacent le long de la corde et rebondissent aux extrémités. Pourtant, on n’entend qu’une seule note : celle correspondant à l’onde qui oscille exactement une fois sur un aller-retour le long de la corde. Elle est amplifiée par résonance, exactement comme la balançoire qui est poussée à chaque aller-retour, tandis que les autres ondes s’atténuent rapidement. Remarquez qu’il existe une autre stratégie pour faire accélérer la balançoire : pousser non pas à chaque oscillation, mais une fois toutes les deux oscillations, ou toutes les trois oscillations. Pour la corde de guitare, c’est la même chose : quelques ondes secondaires, de fréquences multiples de la fréquence fondamentale, sont amplifiées par résonance. Ce sont les harmoniques (voir figure ci-dessous) qui définissent le timbre du son. LES DANGERS DE LA RÉSONANCE Si la résonance est souhaitable en ce qui concerne les instruments de musique, elle est souvent indésirable. Vous avez peut-être remarqué que lorsqu’une machine à laver accélère lors de l’essorage, elle se met parfois à trembler violemment : ceci arrive lorsque la rotation du tambour excite l’une des fréquences naturelles de la machine. Mais il y a bien plus dommageable que cette nuisance sonore. Plusieurs fois au cours du XIXe siècle, des troupes de soldats eurent la déconvenue de provoquer l’effondrement d’un pont en le traversant au pas. Ceci arrive lorsque le rythme régulier de leur marche correspond, par malchance, à l’une des fréquences de résonance du pont. Depuis, les militaires savent qu’il faut toujours rompre le pas avant de traverser. Plus généralement, dans tous les secteurs de la construction, les ingénieurs apprennent à se méfier des phénomènes de résonance, que ce soit pour éviter les bruits désagréables dans une voiture ou protéger les bâtiments des tremblements de terre. Le chant du spin L’IRM sonde la nature des tissus corporels en faisant résonner leurs atomes. Et c’est ici que les spins entrent en jeu. Si vous avez joué à la toupie enfant, vous vous souvenez peut-être que lorsqu’elle perd de la vitesse, sa pointe décrit des cercles sur le support, tandis que son axe de rotation tourne autour de la verticale – on parle de précession. Lorsque l’on place un spin dans un champ magnétique, il se passe la même chose : le spin se met à tourner autour de l’axe du champ, à une vitesse proportionnelle à l’intensité du champ. Un appareil IRM consiste en une gigantesque bobine cylindrique, sorte de tunnel dans lequel est plongé le patient. On y génère un puissant champ magnétique en injectant d’intenses courants électriques dans la bobine. Cette dernière se met à vibrer bruyamment, produisant un son aussi puissant qu’un marteau piqueur – d’où les casques de chantier dont on munit les patients. Le champ magnétique ainsi produit est colossal – plusieurs milliers de fois plus puissant que le champ magnétique terrestre – ce qui exclut la présence du moindre objet magnétique dans la pièce (téléphone, montre…). L’intensité de ce champ augmente d’un bout à l’autre du tunnel, de sorte que la vitesse de précession des spins varie le long du corps. Pour faire « résonner » les spins d’une zone précise, il suffit d’envoyer une onde radio de fréquence égale à leur vitesse de précession. En effet, chaque spin se comporte comme une petite antenne radio qui ne peut capter qu’une seule station : les spins de vos pieds captent France Inter, ceux de vos chevilles captent France Bleu, ceux de vos genoux RTL… Pour scanner des pieds aux genoux, le radiologue n’a qu’à balayer les fréquences, de France Inter à RTL. Lorsqu’un spin reçoit une onde radio à la bonne fréquence, il résonne et gagne de l’énergie, tout comme la balançoire. Il suffit ensuite d’écouter l’écho : il relâche cette énergie quelques instants plus tard. La durée de l’écho varie selon les types de tissus mis en jeu – les zones graisseuses ont tendance à relâcher l’énergie plus vite que les zones aqueuses –, ce qui permet de donner une image précise de la composition de la zone scannée. Vous le saurez désormais : dans les imposants appareils IRM, votre corps devient un véritable poste de radio ! REMPLACER LES RAYONS X S’il fallait encore vous convaincre que la physique théorique n’est pas si déconnectée du monde réel, mentionnons une autre révolution médicale issue de la physique des particules : la protonthérapie. Elle permet de traiter les tumeurs de manière beaucoup moins invasive que la radiothérapie en remplaçant les rayons X par des protons accélérés jusqu’à des vitesses proches de celle de la lumière. L’avantage est considérable : lorsqu’un faisceau de rayons X traverse le corps, ses photons sont absorbés et il s’affaiblit pendant la propagation. Si la tumeur est en profondeur, une radiothérapie peut infliger d’importants dommages aux tissus en surface. Le proton, lui, n’est pas absorbé par les atomes : il se cogne contre eux. Il faut l’imaginer comme une balle de fusil qui pénètre dans le corps à haute vitesse et ralentit au gré des chocs : plus il ralentit, plus il interagit avec les atomes, et plus les chocs deviennent nombreux. Le maximum d’énergie est libéré au moment où le proton s’arrête, et permet de cibler précisément la tumeur en épargnant les tissus environnants. Résumé du concept : le spin Le spin est une propriété de certaines particules quantiques comme les électrons, qui génère un minuscule champ magnétique. Dans la plupart des matériaux, ces spins s’annulent mutuellement, mais dans les aimants, ils sont tous alignés : leurs effets s’ajoutent pour produire un champ magnétique suffisant pour adhérer à une porte de réfrigérateur. À l’origine, les physiciens pensaient que le spin provenait de la rotation des électrons, comme le champ magnétique de la Terre. Pourtant, l’expérience de Stern et Gerlach montre que c’est une propriété purement quantique, qui ne peut être décrite avec les lois de la physique classique. En juillet 2021, la Chine inaugure un train aux allures futuristes pour relier Shanghai à son aéroport. C’est, de loin, le véhicule terrestre le plus rapide du monde : il est capable de dépasser les 600 kilomètres par heure, soit le double des TGV français ! Son secret : s’affranchir totalement des frottements, en lévitant audessus des rails. De la science-fiction pure ! Cet exploit technologique met en jeu un effet quantique fascinant : la supraconductivité. Presque trop beau pour être vrai, il permet aux électrons de conduire le courant sans pertes, comme un skieur sur une neige parfaitement damée. Les applications sont déjà nombreuses, des qubits aux réacteurs de fusion nucléaire, et sont amenées à se développer rapidement dans les années à venir. Des fourmis interchangeables Débutons par un petit bijou d’énigme. Vous disposez d’un bâton mesurant un mètre. Dix fourmis y sont placées aléatoirement et se mettent à avancer soit vers la gauche, soit vers la droite, mais toutes en ligne droite et à la même vitesse : un mètre par minute. Leur but est d’atteindre l’une des extrémités du bâton, pour en tomber et rejoindre le sol. Seule subtilité : lorsque deux fourmis se rencontrent, elles repartent instantanément en sens inverse, comme si elles rebondissaient l’une contre l’autre (voir figure). La question est la suivante : au bout de combien de temps peut-on être sûr que toutes les fourmis sont tombées du bâton ? Posez ce livre et prenez quelques minutes pour y réfléchir. L’énigme se transforme rapidement en vrai casse-tête : vous avez probablement essayé de vous mettre à la place d’une des fourmis et imaginé les rebonds incessants qui entravent votre chemin. Il paraît difficile de rendre compte de tous ces rebonds et changements de direction dans un calcul simple. Comme souvent, il y a un piège dans la formulation de l’énoncé. Pensez au choc entre deux fourmis : dire qu’elles rebondissent et repartent en sens inverse est en fait équivalent à dire que les deux se croisent et poursuivent leur chemin. Sur la figure, il serait impossible de distinguer ces deux scénarios si nous n’avions pas donné des noms aux fourmis pour induire le lecteur en erreur ! Les noms sont échangés dans un cas et pas dans l’autre, mais cela ne change rien au problème. Ainsi, on peut simplifier l’énoncé en considérant que toutes les fourmis se déplacent tout droit sur le bâton en s’ignorant : il faudra donc attendre au plus une minute pour que toutes les fourmis tombent. La notion clé de cette énigme est l’indiscernabilité. Lorsque deux objets ont exactement les mêmes propriétés, échanger leurs positions n’a strictement aucun effet : personne ne pourra s’en rendre compte. Sous son apparence innocente, ce problème de fourmis va nous permettre d’appréhender l’un des concepts les plus profonds de la physique quantique. Fermions et bosons Imaginons deux photons possédant les mêmes propriétés : fréquence, polarisation… La seule chose qui les distingue est leur position. Échangez discrètement ces deux particules, et personne ne pourra s’en apercevoir : c’est comme si rien ne s’était passé ! Ceci se traduit par le fait que la fonction d’onde, cet objet mathématique qui décrit l’état du système (voir chapitre 4), est inchangée. Tout va bien jusqu’ici : on qualifie ces particules au comportement assez intuitif de bosons. Seulement, la situation se complique si l’on considère cette fois deux électrons identiques. Cette fois, il se passe quelque chose d’étrange lors de l’échange : la fonction d’onde change de signe (là où elle valait 2 avant, elle vaut désormais −2). On parle dans ce cas de fermions. Heureusement, la probabilité de présence des particules est donnée par la valeur du carré de la fonction d’onde. Or, le carré n’est pas affecté par un changement de signe : −2 au carré est égal à 4, tout comme 2 au carré. Rassurés ? Pas tout à fait. Ce troublant changement de signe semble nous dire que la nature sait, d’une certaine manière, que l’on a échangé les particules, comme si elle connaissait les noms des particules et nous disait : « Je ne suis pas dupe : tu as échangé les positions de Ferdinand et Julie ! » Ce détail mathématique a une conséquence absolument essentielle sans laquelle les atomes ne pourraient exister : le principe d’exclusion, énoncé par Wolfgang Pauli en 1925. Chacun son orbitale Imaginons un atome entouré des belles orbitales que nous avons introduites au chapitre 1 1, et plaçons deux électrons identiques au sein d’une même orbitale. Ils sont non seulement indiscernables, mais de plus « situés » au même endroit puisqu’ils sont décrits par la même fonction d’onde. Cette fois, même si l’on assigne des noms à nos deux électrons, les échanger revient à ne rien faire, puisqu’ils sont au même endroit. Le système est strictement identique après l’échange, sa fonction d’onde doit donc être inchangée. Pourtant, comme nous avons affaire à deux fermions, la fonction d’onde doit changer de signe lors de l’échange. Nous sommes donc face à une contradiction flagrante. Résolution du problème : deux électrons absolument identiques ne peuvent pas se trouver dans la même orbitale. La seule manière de faire cohabiter deux électrons est de les différencier par leur spin : un électron partage volontiers son orbitale avec un électron de spin opposé (voir chapitre 9). Mais essayez d’approcher deux électrons de même spin, et vous ferez face à une force de répulsion gigantesque ! D’une simple histoire de fourmis, nous voilà arrivés à un principe physique capital : le principe d’exclusion de Pauli, selon lequel les fermions se repoussent. Ce principe est fondamental, parce qu’il répond à cette question troublante : comment la matière peut-elle être solide, alors qu’elle est majoritairement constituée de vide (voir chapitre 1) ? Autrement dit, pourquoi votre main ne traverse-t-elle pas la table lorsque vous tapez dessus ? La réponse est donnée par le principe d’exclusion : deux électrons ne pouvant se trouver dans le même état, ils sont contraints d’occuper des régions distinctes de l’espace, et leurs orbitales se repoussent. Si vous sentez les atomes de la table résister, c’est en vertu de ce principe fondamental. LES CADAVRES D’ÉTOILES Le principe d’exclusion s’illustre magnifiquement dans les cadavres d’étoiles lourdes, qui comptent parmi les objets les plus exotiques de l’Univers. Lorsqu’elles arrivent au bout de leurs réserves de carburant, ces étoiles s’effondrent sur ellesmêmes sous l’effet de leur poids. Elles forment alors des petites boules très compactes et chaudes, appelées naines blanches. Une simple cuillère à café de naine blanche peut peser jusqu’à une tonne ! Dans ces conditions de densité extrême, la matière prend la forme d’une soupe de fermions (électrons, protons et neutrons mélangés). Ces fermions sont si proches qu’ils se repoussent uniquement grâce au principe d’exclusion. Sans ce dernier, l’astre s’effondrerait sur lui-même à cause de la colossale attraction gravitationnelle. On parle alors de matière dégénérée. C’est ce triste sort qui arrivera à notre Soleil dans 10 milliards d’années ! L’union fait la force Les fermions sont des particules solitaires : elles se repoussent, par le principe d’exclusion. Qu’en est-il des bosons, l’autre grande famille de particules dont fait partie le photon ? L’exact opposé : les bosons sont des particules grégaires, qui aiment se retrouver dans le même état. Nous l’avons déjà vu avec le laser : les photons sont capables de se déplacer en bloc, comme un banc de poissons (voir chapitre 3). Au sein de ce banc, les individualités s’effacent : les fonctions d’ondes des différents photons se combinent pour former une seule et même fonction d’onde géante, appelée un état collectif. Cette union fait la force des lasers, et permet au faisceau de maintenir son intensité sur de longues distances. Un autre phénomène collectif spectaculaire est la supraconductivité. À la place de photons qui s’unissent, ce sont des électrons qui s’assemblent pour former un courant électrique à toute épreuve, capable de voyager des millions de kilomètres sans être atténué ! On pourrait cependant être surpris par cette affirmation : ne vient-on pas de dire que l’électron est un fermion, qui a tendance à repousser ses pairs ? Ce phénomène passionnant mérite qu’on lui consacre quelques pages. LA QUANTIQUE XXL En refroidissant suffisamment un gaz de bosons, ceux-ci peuvent former un état collectif comme les photons d’un laser : on parle d’un condensat de Bose-Einstein. Obtenu pour la première fois en 1997, ce nouvel état de la matière se comporte comme une soupe où il n’est plus possible de distinguer les atomes individuels, même en regardant de très près. Ces états sont particulièrement intéressants pour les physiciens, puisqu’ils permettent de rapprocher le monde quantique de notre échelle afin de mieux le comprendre – les plus gros condensats mesurent quelques millimètres. On peut aussi s’en servir comme détecteurs de champs magnétiques, électriques ou gravitationnels, en exploitant leurs ondulations. L’improbable film Spectral (2016) met en scène des condensats de Bose-Einstein tueurs, et représente assez bien l’image hollywoodienne de la physique quantique : une science obscure avec des concepts aux noms tape-à-l’œil, que l’on détourne à souhait. Fendre la foule Un fil électrique est formé d’atomes de métal qui possèdent des électrons libres, capables de se libérer de leur noyau pour conduire le courant. Seulement, la conduction n’est jamais parfaite : les électrons (en rouge sur la figure) ont tendance à se cogner contre les noyaux des atomes métalliques qui jonchent leur parcours (en bleu). Ces chocs dissipent de l’énergie électrique sous forme de chaleur dans le métal, et donnent lieu à une résistance électrique : c’est le fameux effet Joule, qui permet à votre grille-pain de fonctionner. Mais c’est aussi lui qui crée des pertes électriques dans les câbles à haute tension, et fait chauffer le processeur de votre ordinateur portable. C’est pourquoi on cherche généralement à minimiser cette résistance. Certains métaux sont plus résistants que d’autres : l’or présente une résistance remarquablement faible, mais du fait de son coût prohibitif on lui préfère le cuivre dans les composants électriques. La résistance d’un métal dépend aussi de sa température : plus elle est élevée, plus les noyaux atomiques sont agités. Cette agitation augmente le nombre de chocs que subissent les électrons, et donc la résistance : plus difficile de traverser une gare lorsque les passants courent que lorsqu’ils sont immobiles ! Une solution pour réduire autant que possible la résistance d’un métal est donc de le refroidir, par exemple en le plongeant dans de l’hélium liquide à –269 °C. Le physicien hollandais Heike Onnes tente l’expérience en 1911. Le résultat dépasse largement ses attentes : en dessous d’une certaine température, la résistance électrique du métal devient strictement nulle ! Il fallut quelques décennies de recherche supplémentaires pour comprendre ce phénomène. L’explication est particulièrement élégante : à basse température, les électrons ont tendance à s’assembler par paires pour devenir des bosons, et peuvent ensuite former des « bancs » comme les photons d’un faisceau laser. Comment parviennent-ils à s’assembler, alors que leur charge électrique devrait les repousser ? Il faut imaginer l’électron dans un métal refroidi comme Angelina Jolie traversant la foule du festival de Cannes (en rouge dans la figure). Lors de son passage, les fans – représentés par les noyaux atomiques chargés positivement, en bleu – s’approchent de l’actrice chargée négativement, créant une surdensité électrique positive autour d’elle. Brad Pitt, un autre électron chargé négativement qui lui emboîte le pas, est attiré électriquement par cette surdensité et se rapproche donc d’Angelina. Angelina et Brad forment, malgré eux, une paire de Cooper, du nom de leur découvreur qui obtint le prix Nobel en 1972 (et non pas de leur confrère Bradley Cooper). Cette paire a toutes les propriétés d’un boson, et peut faire bloc avec d’autres paires pour fendre la foule sans résistance. Les miracles des supraconducteurs Pour fabriquer un aimant puissant, on peut faire circuler un courant électrique dans une bobine de fil de cuivre. Plus le courant est fort, plus le champ magnétique résultant est intense. Seulement, dans les fils électriques habituels, l’intensité du courant est limitée par la résistance du métal. Pour s’affranchir de cette barrière, il suffit d’utiliser une bobine supraconductrice. Ces dernières permettent de générer des champs magnétiques colossaux, employés dans nombre de technologies mentionnées au cours de ce livre, des accélérateurs de particules du CERN, aux plasmas du projet de fusion nucléaire ITER (chapitre 1), en passant par les appareils d’IRM (chapitre 9). En plus de pouvoir contenir un courant électrique intense, un fil supraconducteur peut le contenir très longtemps. Ceci permettrait, en principe, de transporter de l’énergie sans perte d’une ville à l’autre… Hélas, refroidir un câble à –269 °C sur plusieurs kilomètres coûte très cher et consomme plus d’énergie qu’il n’en fait économiser. En revanche, il est possible d’enrouler le câble sur lui-même et le mettre dans un supercongélateur pour stocker l’énergie indéfiniment : le courant peut continuer à circuler en rond pendant des années, jusqu’à ce que l’on veuille le récupérer. S’ÉLOIGNER DU ZÉRO ABSOLU Le principal obstacle technique à la supraconductivité est la nécessité de maintenir le métal à très basse température, typiquement proche du zéro absolu. Une avancée majeure fut apportée par les cuprates dans les années 1980, des matériaux pouvant devenir supraconducteurs à des températures au-dessus de celle de l’azote liquide (−200 °C). Ceci nous permet aujourd’hui d’employer la supraconductivité dans des contextes aussi variés que ceux décrits plus haut. Le Graal serait de pouvoir obtenir des métaux supraconducteurs à température ambiante. Cet exploit a déjà été réalisé avec des cristaux de bismuth et des dérivés du soufre, mais dans des conditions de pressions extrêmes, proches de celles régnant au centre de la Terre. Pour nous aider à trouver de nouveaux métaux qui puissent égaler cette performance à une pression raisonnable, certains misent sur la force des simulateurs quantiques (voir chapitre 7)… Les trains du futur Nous n’en avons pas fini avec les miracles des supraconducteurs. Une autre de leurs particularités est qu’ils sont parfaitement imperméables aux champs magnétiques, un phénomène connu sous le nom d’effet Meissner. Il faut imaginer une tôle de supraconducteur comme un bouclier impénétrable : en repoussant le champ magnétique créé par un aimant, celui-ci subit un recul qui peut lui permettre de léviter au-dessus de l’aimant. Cette lévitation a de plus la particularité d’être stable : la tôle est comme verrouillée en place. Nous avons évoqué un phénomène similaire au cours du chapitre 9 : le diamagnétisme, qui permet (entre autres) de faire léviter des grenouilles. Les molécules d’eau ont, elles aussi, cette capacité à s’opposer aux champs magnétiques, mais de manière beaucoup plus faible. Il faut des champs magnétiques des milliers de fois supérieurs à ceux produits par les aimants de réfrigérateur pour soulever un batracien. Avec les supraconducteurs, un champ magnétique de cette intensité est suffisant pour faire léviter des objets aussi gros que des trains : c’est le principe des trains à sustentation magnétique, aussi appelés trains Maglev (pour magnetic levitation). L’idée est de remplacer les rails et les roues du train par de puissants aimants supraconducteurs. Comme le train n’est pas en contact avec les rails, les seuls frottements qu’il subit sont les frottements de l’air. D’où l’importance d’un aérodynamisme maximal expliquant leur design futuriste. Imaginée dès les années 1960, cette technologie commença à fasciner le monde dès 1979, lorsque le premier train Maglev fut présenté lors d’une exposition internationale à Hambourg. Ce n’est qu’en 2004 que cette technologie fut finalement employée à des fins commerciales, avec l’ouverture du Transrapid reliant Shanghai à son aéroport avec une vitesse moyenne de 245 km/h à l’époque. Aujourd’hui, on ne compte qu’une poignée de lignes en service, réparties entre le Japon, la Corée et la Chine, mais de nombreux projets voient le jour ailleurs dans le monde. Résumé du concept : fermions et bosons Deux catégories de particules aux comportements radicalement différents existent : les fermions et les bosons. Les fermions, dont l’archétype est l’électron, ont un comportement solitaire, refusant de se retrouver à plusieurs dans le même état. Ce principe d’exclusion explique pourquoi les atomes sont aussi vides. Les bosons, illustrés par les photons, ont à l’inverse un comportement grégaire, et aiment se regrouper dans le même état. C’est cette propriété qui est mise à profit dans les métaux supraconducteurs, dépourvus de toute résistance électrique. 1. L’orbitale est la fonction d’onde décrivant la probabilité de présence des électrons autour du noyau. CONCLUSION Au terme de ce voyage, vous comprenez sûrement mieux les « incertitudes » et « actes de foi » qu’évoquait Paul Valéry dans le fragment qui ouvre ce livre pour décrire la science de son temps. Si nous n’avons en rien caché la saveur déconcertante de la physique quantique, il nous a toutefois semblé important de la relier à des technologies concrètes, pour montrer qu’elle n’est pas seulement l’apanage de quelques savants dans leur tour d’ivoire. Deux aspects de la théorie sont particulièrement difficiles à accepter. D’abord, son aspect probabiliste : les propriétés des systèmes quantiques sont par nature aléatoires et indéterminées jusqu’à ce qu’on les mesure. Ensuite, son aspect relationnel : la mesure influe sur ces propriétés, comme si la théorie ne décrivait pas comment sont les choses, mais comment elles se manifestent à nous. Le risque est donc de concevoir la théorie quantique comme floue et subjective, inapte à décrire notre réalité. S’il est vrai que le hasard fait partie intégrante du monde quantique, c’est un hasard que l’on peut comprendre, prédire, voire dompter. De même, le fait que les propriétés d’un système soient conditionnées à la manière dont on les mesure n’a finalement rien de si étonnant, si l’on accepte que la mesure est une interaction comme une autre. De fait, la théorie quantique est aujourd’hui l’une des théories les mieux vérifiées par l’expérience. Les controverses qui ont opposé les pères de la physique quantique – et qui continuent de diviser les scientifiques – concernent moins les fondements de la théorie que l’interprétation de ce qu’elle décrit. Elles sont finalement le reflet du hiatus profond qui existe entre la physique moderne et l’intuition. C’est pourquoi nous appelions, dans les pages introductives, à l’ouverture d’esprit : comprendre la théorie quantique, c’est avant tout l’accepter, et consentir à se plonger dans un monde où les règles sont différentes. Un écueil récurrent est d’extrapoler ces règles si singulières jusqu’à notre échelle. Pour cela, nous avons insisté sur la notion de décohérence, qui érige une barrière entre notre monde et celui des atomes. Les propriétés quantiques sont fragiles, détruites à la moindre interaction, et ne peuvent s’exprimer que dans les milieux contrôlés des laboratoires. Pas plus de chat mort-vivant que de conscience quantique, n’en déplaise à certaines pseudo-sciences. En ce qui concerne les technologies quantiques qui se développent depuis une vingtaine d’années (ordinateurs, simulateurs, communications et capteurs), tout l’enjeu réside dans le fait de manipuler les particules individuellement, avec des gants de velours, pour échapper à la décohérence et tirer profit de leurs propriétés si particulières. Grâce à ce travail d’orfèvre, voyager au cœur des atomes est désormais chose possible. GLOSSAIRE Bosons : type de particules qui ont tendance à vouloir se retrouver dans le même état. Complémentarité : principe stipulant qu’il est impossible d’observer les comportements ondulatoires et corpusculaires des particules simultanément. Décohérence : théorie expliquant pourquoi les propriétés quantiques se diluent au gré des interactions. Diffraction : élargissement d’un faisceau lumineux au passage d’un étranglement. Effet photoélectrique : apparition d’un courant électrique dans un métal en présence de lumière. Effet tunnel : phénomène quantique lors duquel une particule franchit une barrière énergétique en principe infranchissable. Électron : particule élémentaire chargée négativement qui entoure le noyau des atomes et conduit le courant électrique. Émission spontanée : désexcitation aléatoire d’un atome à l’origine de l’émission d’un photon. Émission stimulée : lors de l’arrivée d’un photon sur un atome, émission d’un deuxième photon de même fréquence dans la même direction. Équation de Schrödinger : équation qui décrit l’évolution temporelle de la fonction d’onde d’une particule. Fentes de Young : expérience majeure qui a démontré la nature ondulatoire de la lumière. Fermions : type de particules qui ne peuvent pas se retrouver à deux dans le même état. Fonction d’onde : onde quantique décrivant la probabilité de trouver une particule en chaque lieu de l’espace. Grandeurs conjuguées : paires de grandeurs physiques soumises au principe d’incertitude de Heisenberg. Interférences : modulation de l’amplitude d’une onde lorsqu’elle se superpose à une autre onde. Interprétation de Copenhague : courant de pensée qui considère la physique quantique comme un moyen de décrire des phénomènes sans essayer de les expliquer. Intrication : couplage de deux systèmes quantiques qui induit une interdépendance de leurs états. Neutron : particule de charge neutre qui constitue, avec les protons, les noyaux des atomes. Orbitale atomique : fonction d’onde d’un électron lié à un noyau atomique. Peut contenir jusqu’à deux électrons. Photon : particule élémentaire qui compose la lumière. Polarisation : propriété des ondes électromagnétiques pouvant être représentée par une petite flèche perpendiculaire à la direction de propagation. Principe d’exclusion : loi énoncée par Wolfgang Pauli selon laquelle deux fermions identiques ne peuvent se trouver dans le même état quantique. Principe d’incertitude : loi énoncée par Werner Heisenberg selon laquelle certaines paires de quantités physiques ne peuvent pas être connues simultanément avec grande précision, par exemple la position et la vitesse d’une particule. Proton : particule chargée positivement qui constitue, avec les neutrons, les noyaux des atomes. Qubit : bit quantique pouvant se trouver dans une superposition de « 0 » et « 1 ». Spin : champ magnétique d’origine quantique que possèdent certaines particules comme l’électron. Superposition : état quantique indéterminé, dont l’état est choisi aléatoirement lorsqu’on le mesure. Supraconductivité : absence de résistance électrique de certains matériaux à très basse température. Variables cachées : paramètres physiques hypothétiques qui permettraient d’expliquer les résultats des mesures de systèmes quantiques sans avoir recours aux probabilités. REMERCIEMENTS Un immense merci à Serge Decroocq, Cécile Mitéran, Eleanor Harris, Dora Csillag, Philippe Loutrel, Alain Nouvel et Bernard d’Ascoli pour leur relecture attentive et leurs précieux conseils. RÉFÉRENCES GÉNÉRALES Livres Helgoland (2021) de Carlo Rovelli : une passionnante discussion des interprétations de la mécanique quantique, centrée sur la vision relationnelle. La Physique selon Étienne Klein (2021) de Étienne Klein : un formidable recueil racontant la physique moderne sous un angle historique, avec un art des mots hors pair. La Lumière révélée (2020) de Serge Haroche : un livre de vulgarisation écrit par le prix Nobel de physique 2012, centré sur la lumière. La Quantique autrement (2020) de Julien Bobroff : une introduction à la physique quantique superbement illustrée, offrant une approche limpide, originale et sans équation. Mon Grand Mécano quantique (2019) de Julien Bobroff : décryptage des expériences fondatrices de la physique quantique avec introduction des notions clés et anecdotes en tout genre. Quantix (2019) de Laurent Schafer : une approche ludique de la physique quantique sous forme de bande dessinée, n’ayant pas peur de s’attaquer à des concepts complexes. L’Univers quantique (2013) de Brian Cox et Jeff Forshaw : une approche vulgarisée de la physique quantique et de la théorie quantique des champs qui introduit le formalisme en profondeur, à renfort d’analogies astucieuses. Dance of the Photons: From Einstein to Quantum Teleportation (2010) de Anton Zeilinger : un ouvrage de vulgarisation un peu dense par l’un des pionniers de l’informatique quantique (en anglais ou allemand uniquement). Le Cours de physique de Feynman (1963) de Richard Feynman : couvrant tous les pans de la physique moderne, les cours de Feynman dispensés à Caltech entre 1961 et 1963 sont devenus une référence par leur originalité dans la façon d’approcher les concepts. Accessibles pour des étudiants en licence de physique. Chaînes YouTube L’excellente chaîne de vulgarisation Science Étonnante couvre de manière passionnante de nombreux domaines de la physique (quantique inclus). Elle figure un entretien des plus éclairants avec Alain Aspect. Les vidéos de ScienceClic abordent des concepts techniques avec grande clarté. Les conférences de Roland Lehoucq vulgarisent la physique de Star Wars et Superman. Sorbonne Université a lancé une chaîne de vulgarisation dédiée à l’information quantique – QICS Sorbonne – tenue par des doctorants du domaine. Pour les anglophones, la chaîne Veritasium est une mine d’or, ainsi que Minute Physics et Kurzgesagt pour des formats plus condensés. Pour les amateurs d’expériences farfelues, les vidéos de The Action Lab sont très divertissantes. Enfin, pour les plus passionnés, les vidéos plus ardues de la chaîne PBS Space Time méritent largement le détour. Jeux vidéo Le Massachussets Institute of Technology a développé une simulation nommée A Slower Speed of Light qui permet de se représenter à quoi ressemblerait le monde si la vitesse de la lumière était 2, 100 ou 1 000 fois plus lente. Sorbonne Université a développé un jeu en ligne OptiQraft permettant de se familiariser avec des concepts utiles pour le traitement de l’information quantique avec des photons, et notamment l’intrication. En libre accès sur : https://tatawanda.itch.io/optiqraft RÉFÉRENCES SCIENTIFIQUES Chapitre 1 Une synthèse de Jean Perrin très pédagogique et étonnamment lyrique sur le mouvement brownien (en français) : Perrin, J., « Mouvement brownien et réalité moléculaire », Annales de chimie et de physique (1909) L’article fondateur d’Einstein qui introduit l’équation E = mc2. Celleci n’apparaît pas sous cette forme dans l’article, mais est décrite avec une phrase : Einstein, A., « Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig? » [« L’inertie d’un corps dépend-elle de son contenu en énergie ? »], Annalen der Physik 18 (1905) Chapitre 2 Le premier article de l’annus mirabilis d’Einstein qui interprète l’effet photoélectrique en supposant que la lumière est constituée de quanta d’énergie : Einstein, A., « Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt » [« Un point de vue heuristique concernant la production et la transformation de la lumière »], Annalen der Physik 17 (1905) L’article original sur les sphères de Dyson : Dyson, J., « Search for Artificial Stellar Sources of Infrared Radiation », Science 131 (1960) Chapitre 3 Premier article montrant le ralentissement de la lumière à la vitesse d’un cycliste : Hau, L. et al., « Light speed reduction to 17 metres per second in an ultracold atomic gas », Nature 597 (1999) Première détection d’ondes gravitationnelles par LIGO : Abbott, B. et al., « Observation of Gravitational Waves from a Binary Black Hole Merger », Physical Review Letters 116 (2016) Chapitre 4 Article sur l’influence des matchs à huis clos sur les résultats des équipes de la Bundesliga : « How Empty Seats Filled In Gaps About Essence of a Sport », New York Times, 1er juillet 2020, page 10 Expérience des fentes de Young avec des fullerènes : Arndt, M. et al., « Wave–particle duality of C60 molecules », Nature 401 (1999) Expérience des fentes de Young avec de petites protéines : Shayegi, A. et al., « Matter-wave interference of a native polypeptide », Nature Communications 11 (2020) Le site officiel de la course de nanomobiles : https://nanocarrace.cnrs.fr/ Un article scientifique présentant l’un des modèles : Soe, W. et al., « Surface manipulation of a curved polycyclic aromatic hydrocarbon-based nano-vehicle molecule equipped with triptycene wheels », Nanotechnology 29 (2018) Chapitre 5 Sur la production de photons bicolores : Gaeta A. et al., « Ramsey Interference with Single Photons », Physical Review Letters 117 (2016) L’article original de Bennett et Brassard sur le protocole BB84 : Bennett C. and Brassard G., « Quantum cryptography: Public key distribution and coin tossing », International Conference on Computers, Systems and Signal Processing (1984) Chapitre 6 L’article du New York Times sur les jumeaux James : « Twins reared apart: a living lab », New York Times, 9 décembre 1979, page 28 Première réalisation expérimentale de la téléportation quantique : Zeilinger, A. et al., « Experimental quantum teleportation », Nature 390 (1997) Mise en place d’un réseau quantique de 4 600 kilomètres en Chine : Pan, JW. et al., « An integrated space-to-ground quantum communication network over 4,600 kilometres », Nature 589 (2021) Photo d’un objet avec des photons qui n’ont pas interagi avec lui : Lemos, G. et al., « Quantum imaging with undetected photons », Nature 512 (2014) L’analogie originale des gâteaux quantiques racontée dans un court article de Lucien Hardy : Kwiat, PG. and Hardy, L., « The mystery of the quantum cakes », American Journal of Physics 68 (2000) Chapitre 7 Un ordinateur à base d’eau : Katsikis, G. et al., « Synchronous universal droplet logic and control », Nature Physics 11 (2015) La première démonstration d’un avantage quantique par Google et leur processeur de 53 qubits : Arute, F. et al., « Quantum supremacy using a programmable superconducting processor », Nature 574 (2019) La surenchère de l’équipe de Jian-Wei Pan avec 66 qubits : Wu, Y. et al., « Strong Quantum Computational Advantage Using a Superconducting Quantum Processor », Physical Review Letters 127 (2021) Une planche de Galton quantique à 113 photons : Zhong, H. et al., « Phase-Programmable Gaussian Boson Sampling Using Stimulated Squeezed Light », Physical Review Letters 127 (2021) Chapitre 8 Première mesure de la force de Casimir : Lamoreaux, S.K., « Demonstration of the Casimir Force in the 0.6 to 6 μm Range », Physical Review Letters 78 (1997) Le gaz le plus froid de l’Univers à Brême : Deppner, C. et al., « Collective-Mode Enhanced Matter-Wave Optics », Physical Review Letters 127 (2021) Comprimer avec de l’intrication : Pedrozo-Peñafiel, E. et al., « Entanglement on an optical atomic-clock transition », Nature 588 (2020) Mesure de la dilatation du temps dans des avions en vol : Hafele, J. and Keating, R., « Around-the-World Atomic Clocks: Predicted Relativistic Time Gains », Science 177 (1971) Chapitre 9 De la quantique dans l’œil du rouge-gorge : Xu, J. et al., « Magnetic sensitivity of cryptochrome 4 from a migratory songbird », Nature 594 (2021) L’article – très sérieux – de l’équipe d’Andre Geim (prix Nobel 2010) sur la lévitation des grenouilles : Berry, M.V, et Geim, A.K., « Of flying frogs and levitrons », European Journal of Physics 18 (1997) Chapitre 10 Première observation expérimentale du non-changement de signe de la fonction d’onde des bosons après échange : Tschernig, K. et al., « Direct observation of the particle exchange phase of photons », Nature Photonics 15 (2021) Un gravimètre à base de condensats de Bose-Einstein déployé sur l’Etna : Carbone, D. et al., « The NEWTON-g Gravity Imager: Toward New Paradigms for Terrain Gravimetry », Frontiers in Earth Science 8 (2020) Découverte de la supraconductivité à –238 °C des cuprates, prix Nobel pour les auteurs dès l’année suivante : Bednorz, J.G., et Müller, K.A., « Possible high Tc superconductivity in the Ba−La−Cu−O system », Zeitschrift für Physik B Condensed Matter 64 (1986) Supraconductivité à haute température de cristaux de Bismuth : Valladares, A. et al., « Possible superconductivity in the Bismuth IV solid phase under pressure », Scientific Reports 8 (2018) INDEX A Accélérateur de particules, 25 Aimant, 164-169, 187, 189 supraconducteur, 187-189 Algorithme, 91, 95, 127, 131, 132 quantique, 131, 132 Annus mirabilis, 22, 36 Aspect, Alain, 110 Atome aimantation, 166 d’argent, 165, 166, 168 de césium, 154, 155 désexcité (état), 49, 50 d’hydrogène, 21, 51, 52, 54 d’uranium, 23-25 excité (état), 49, 50, 53, 153 froid, 155, 158 métallique, 168, 185 noyau, 23-26, 28, 79, 165, 166, 184-186 nuage, 53 B Becquerel, Antoine, 35 Bell, John, 109, 110, 180 Bennett, Charles, 96 Big Bang, 61, 143 Bit, 125, 130 Bobine supraconductrice, 187 Bohr, Niels, 20, 44, 108, 109, 111 Born, Max, 71 Boson, 25, 186, 195 Brassard, Gilles, 96 Broglie (Louis de), 70, 71 C Casimir (effet), 148 Casimir, Hendrick, 148 Centrale nucléaire, 25 CERN (Organisation européenne pour la recherche nucléaire), 25, 116, 187 Césium, 154, 155 Champ magnétique, 164-166, 168, 169, 172, 175, 187, 188, 189 terrestre, 164, 167 Chat (de Schrödinger), 74, 134 Chiffrage asymétrique, 88 Chiffrage symétrique, 86, 88 Cohen-Tannoudji, Claude, 155 Complémentarité (concept ou principe de), 44, 45, 68, 195 Compton, Arthur, 39 Condensat de Bose-Einstein, 183 Copenhague (interprétation de), 73, 74, 105, 107-109, 120 Corpusculaire (théorie), 33, 39, 43 Cryogénie, 152 Cryptographie quantique, 90, 92, 95, 112, 115 Cuprate, 188 D Décohérence, 74, 124, 133, 134, 194, 195 Démocrite, 13, 15, 16 Déterminisme, 107-109 Deutérium, 26 Diamagnétisme, 169, 189 Diffraction (phénomène de), 34, 70, 195 Doppler (effet), 154, 155 Dyson (sphère de), 40 E E = mc2, 22, 24 Effet photoélectrique, 31, 35, 37, 38, 39-42, 45, 195 tunnel, 65, 78-82, 195 Einstein, Albert, 22, 36, 37, 39, 45, 51, 53, 60, 75, 104, 105, 107111, 118, 120, 159 Électrique charge, 18, 80, 164, 166 courant, 35, 36, 45, 80, 125, 164, 183, 187 Électromagnétisme, 19 Électron, 17-21, 24, 28, 35, 38, 39, 41, 45, 49, 67-72, 77, 78, 80, 91, 93, 103, 136, 149, 165-168, 175, 179-186, 190, 195 Émission spontanée, 50, 195 stimulée, 53, 54, 195 Énergie niveau, 49-51, 54, 153, 166 nucléaire, 22 Équation de Schrödinger, 72, 73, 195 Espace-temps, 37, 59 État collectif, 183 Étoile composition chimique, 52 Event Horizon Telescope, 116 Everett, Hugh, 75, 76 F Femtomètre, 15 Fentes de Young, 67, 70, 71, 74, 195 Fermion, 179-183, 195 Ferromagnétisme, 168 Feynman, Richard, 139 Fission nucléaire, 24-26 Fluctuations quantiques, 147, 148 Fonction d’onde, 71, 72, 74, 76, 77, 82, 137, 149, 179-181, 183, 196 carré, 180 Fréquence de l’onde, 144 d’émission, 158 Fusion nucléaire, 26 G Gamma knife, 38 onde, 38 rayonnement, 26 Gerlach, Walter, 165, 166, 168 Gomme quantique, 69 GPS, 128, 159 Grandeurs conjuguées, 156, 196 Grover, Lov, 132 H Hardy, Lucien, 110, 118 Hau, Lene, 50 Heisenberg, Werner, 145, 149, 150, 156 Hélium liquide, 152, 185 Hiroshima, 22, 24 Horloges atomiques, 155, 158, 159 Huygens, Christian, 33 Hydrogène, 21, 51, 54 I Incertitude (principe d’), 146, 147, 149-152, 155-157 Indétermination quantique, 74 Indiscernabilité, 179 Infini, 15, 80, 104, 107 Interaction, 24, 43, 51, 93, 103, 133, 139, 140 Interférence, 34, 42-44, 60, 69, 93, 131, 137, 196 Interféromètre, 59-62 Internet quantique, 95, 111, 115, 138 Interprétation de Copenhague, 74, 105, 107, 109, 196 Interstellar, 159 Intrication, 103, 104, 110, 114, 115, 158, 167, 196 IRM (Imagerie par résonance magnétique), 163, 170, 172, 173, 187 J Joule (effet), 185 K Kelvin (lord), 151 L Large Hadron Collider (LHC), 25 Laser (light amplification by stimulated emission of radiation), 47, 53-63, 155, 182, 183 LED, 41 Lévitation, 152, 169, 189 LIGO (Observatoire d’ondes gravitationnelles par interférométrie laser), 59, 62 LISA (Laser Interferometer Space Antenna), 62 Longueur d’onde quantique, 70 Lumière longueur d’onde, 58 nature duelle, 70 vitesse, 22, 37, 39, 106 M Maglev (magnetic levitation), 189 Maser, 54 Masse, 22-24, Matériaux diamagnétiques, 168, 169 Matière dégénérée, 182 onde de, 70 particule de, 70 Meissner (effet), 188 Micromètre, 15 Microprocesseurs, 79, 148 Molécule, 14-16, 19, 54, 81, 133, 139, 150, 151, 168-170 Mouvement brownien, 36 Multivers, 75 N Naine blanche, 182 NanoCar Race, 81 Nanomètre, 15, 16, 60, 61, 66, 81 Neutron, 17, 22, 24-26, 196 Newton, Isaac, 33, 35, 37 Newton (lois de), 72, 107 Niveau d’énergie, 49, 51 Noyau, 17-24, 26, 28, 79, 103, 165, 166, 184-186 Nucléaire centrale, 22, 23, 25, 26 déchets, 26 énergie, 22 fission, 24-26, 28 fusion, 26-28, 187 recherche, 27 O Onde de matière, 70 de probabilité, 71 fonction d’, 71, 72, 74, 76, 77, 82, 137, 149, 179-181, 183, 196 gamma, 38 gravitationnelle, 47, 59-61 longueur d’, 35, 36, 58, 70, 71 radio, 159, 173, Ondulatoire (théorie), 33, 34, 37 Onnes, Heike, 185 Orbitale, 20, 21, 28, 49, 71, 180, 181, 196 Ordinateur quantique, 95, 101, 115, 123, 124, 131, 132, 134-136, 138140 P Paire de Cooper, 186 Paradoxe EPR (Einstein-Podolsky-Rosen), 104, 109 Paramagnétisme, 169 Particule accélérateur, 25, 187 de matière, 70 quantique, 72, 81, 82, 103, 105, 110, 123, 137, 149, 175 Pauli, Wolfgang, 180, 181 Perrin, Jean, 14, 15, 36 Photoélectrique (effet), 31, 35, 37-42, 45, 195 Photon, 37-39, 41-45, 50-54, 61, 63, 67, 68, 78, 94, 96-98, 101, 103, 111, 115, 119, 137, 149, 150, 153-155, 183, 196 Photosynthèse, 32 Photovoltaïque (cellule), 40 Polarisation, 96, 97, 117, 137, 196 Physique quantique, 10, 11, 15, 28, 37, 43, 53, 55, 65, 68, 70-72, 78, 85, 90, 92, 99, 102, 103, 112, 118, 121, 143, 163, 193 Planck (constante de), 37 Popper, Karl, 109 Précession, 172, 173 Principe d’exclusion, 180-182, 190, 196 de localité, 104 d’incertitude, 143, 146, 147, 149-152, 155, 156, 157, 160, 196 d’indétermination, 150 Prisme sonore, 146 Processeur quantique, 129, 134, 138 Projet ITER, 27 Protocole BB84, 95, 96, 119 Proton, 17, 18, 22-25, 79, 174, 182, 196 Protonthérapie, 174 Q Quantique fluctuation, 147, 148 gomme, 69 longueur d’onde, 70, 71 particule, 72, 81, 82, 103, 105, 110, 123, 137, 149, 150, 175 processeur, 129, 134 saut, 49 Quarks, 24, 25 Quartz, 153, 154 Qubit (quantum bits), 128-140, 196 R Radioactivité alpha, 79 Rayons laser, 62 ultraviolets, 38 X, 38, 39, 174 Relativité, 37, 48, 61, 104, 106, 158, 159 Répéteur d’intrication, 114 Résistance électrique, 185, 190 Résonance magnétique nucléaire, 170 Rutherford, Ernest, 18, 19, 22 S Saut quantique, 49 Schrödinger, Erwin, 71 Simulateur quantique, 139, 188 Sodium, 52 Soleil, 18, 38, 40, 41, 55, 62, 116, 156, 157, 164, 167, 182 Spectre d’émission, 52 du son, 146 Spin, 163, 166-169, 172, 173, 175, 181, 196 Stern, Otto, 165, 166, 168, 175 Superposition quantique, 93, 131, 133, 134, 197 Supraconductivité, 177, 183, 188, 197 T Tchernobyl, 26 Téléportation quantique, 56, 112 Temps distorsion, 159 Théorème de non-clonage, 92, 112 Thomson, Joseph John, 17, 18 Tour Eiffel, 18, 57 Townes, Charles, 54 Trains à sustentation magnétique, 189 Trajectoire fonction d’onde, 72 particule, 72 photon, 44 Transistors, 79, 125, 148 Tritium, 26 Trou noir, 47, 59, 116, 117 Turing, Alan, 87 U Uranium, 21, 23-25 V Variables cachées, 105, 107, 109, 118, 197 Vents solaires, 164 Verre, 16, 50, 51, 78, 146 Vide, 18, 19, 50, 60-62, 133, 147, 148, 160, 181, 190 Vitesse de la lumière, 22, 37, 106, 159 Y Young, Thomas, 33, 45 Z Zeilinger, Anton, 114 Zéro absolu, 133, 151, 152, 155, 188