Telechargé par Makram Hrizi

VOYAGE AU COEUR DE L'ATOME

publicité
© Éditions First, un département d’Édi8, Paris, 2022.
« Cette œuvre est protégée par le droit d’auteur et strictement réservée à l’usage privé
du client. Toute reproduction ou diffusion au profit de tiers, à titre gratuit ou onéreux,
de tout ou partie de cette œuvre, est strictement interdite et constitue une contrefaçon
prévue par les articles L 335-2 et suivants du Code de la Propriété Intellectuelle.
L’éditeur se réserve le droit de poursuivre toute atteinte à ses droits de propriété
intellectuelle devant les juridictions civiles ou pénales. »
ISBN : 978-2-412-07844-0
ISBN numérique : 978-2-412-08106-8
Correction et index : Sophie Guibout
Mise en page : Istria
Illustrations (entrées de chapitre) : Svekloid/Shutterstock
Éditions First, un département d’Édi8
92, avenue de France
75013 Paris – France
Tél : 01 44 16 09 00
Fax : 01 44 16 09 01
Email : [email protected]
Site internet : www.lisez.com
Ce document numérique a été réalisé par Nord Compo.
« Savez-vous quelle est la première hypothèse de toute science, l’idée
nécessaire de tout savant ? C’est que le monde est mal connu. Oui.
Or, on pense souvent le contraire ; il y a des instants où tout paraît
clair – où tout est plein, tout sans problèmes. Dans ces instants, il n’y a
plus de science – ou, si vous voulez, la science est accomplie. Mais à
d’autres heures, rien n’est évident, il n’y a que des lacunes, actes de foi,
incertitudes ; on ne voit que des lambeaux, et d’irréductibles objets, de
toutes parts. »
Dialogue, ou nouveau fragment relatif à Monsieur Teste,
Paul Valéry
S
Titre
Copyright
Avant-propos
Chapitre 1 - Casser les atomes
La chasse aux atomes
Vers l'infini et en deçà
Des atomes creux
De l'orbite à l'orbitale
De l'énergie cachée
Dénoyauter les atomes
L'alchimie des étoiles
Résumé du concept : l'atome
Chapitre 2 - Puiser l'énergie du Soleil
La vérité se dérobe
Un jeu d'ombres chinoises
En voir de toutes les couleurs
Annus mirabilis
La naissance du photon
Le Soleil comme batterie
Les deux visages de la lumière
Complémentaire, mon cher Watson
Résumé du concept : la dualité onde-particule
Chapitre 3 - Entendre l'univers
Des atomes bien accordés
Sauts de puce quantiques
Scanner les étoiles
Les photons de Panurge
Laser à tout faire
À l'écoute de l'Univers
Résumé du concept : l'émission de la lumière
Chapitre 4 - Scruter l'infiniment petit
L'influence du regard
Électrons farceurs
Les ondes de matière
Prédire l'imprévisible
Taisez-vous et calculez !
Des univers parallèles
Le passe-muraille quantique
Tourner un film nanométrique
Résumé du concept : la fonction d'onde
Chapitre 5 - Communiquer en secret
Jouer aux espions
Un chiffrage clé en main
La quantique, poison et remède
À la fois pile et face
Démasquer les espions
Une clé inviolable
Résumé du concept : la superposition
Chapitre 6 - Téléporter l'information
Coïncidence ou corrélation ?
Des gants télépathiques
Notre avenir est-il écrit ?
Le génie de Bell
De la friture sur la ligne
Des talkies-walkies quantiques
Un réseau en chantier
Pas du gâteau
Résumé du concept : l'intrication
Chapitre 7 - Calculer plus vite que son ombre
Le casse-tête du plan de table
Coder l'information
Des problèmes insolubles
Le qubit à la rescousse
Boîtes noires quantiques
Vaincre la décohérence
La guerre des qubits
Révolution ou chimère ?
Résumé du concept : le calcul quantique
Chapitre 8 - Connaître l'heure exacte
Compter à l'oreille
Les fourmillements du vide
Rien n'est immobile
À la recherche du zéro absolu
Midi moins le quartz
Comprimer pour mieux voir
Remettre les pendules à l'heure
Résumé du concept : le principe d'incertitude
Chapitre 9 - Détecter des tumeurs
Un bouclier naturel
Des atomes déboussolés
To spin or not to spin
La vie secrète des aimants
Être en phase
Le chant du spin
Résumé du concept : le spin
Chapitre 10 - Faire léviter des trains
Des fourmis interchangeables
Fermions et bosons
Chacun son orbitale
L'union fait la force
Fendre la foule
Les miracles des supraconducteurs
Les trains du futur
Résumé du concept : fermions et bosons
Conclusion
Glossaire
Remerciements
Références générales
Références scientifiques
Index
AVANT-PROPOS
Traverser l’Atlantique en brûlant quelques grammes d’uranium, percevoir
les grondements de trous noirs situés à l’autre bout de l’Univers, organiser
une course de voitures sur une route plus fine qu’un cheveu ou faire léviter
un train en refroidissant ses roues à –170 °C…
Ces exploits – plus ou moins utiles, mais tous étonnants – ont un point
commun : ils sont le fruit de la physique quantique, théorie absconse qui
s’est transformée en mine d’or technologique en l’espace d’un siècle. Sans
quantique, pas de téléphone ni de GPS, pas d’ordinateur ni d’Internet, ni
même de lecteur DVD. Pas non plus de centrales nucléaires, d’IRM, de
panneaux solaires ou d’ampoules LED.
On peut le dire avec certitude : la mine d’or est loin d’être tarie. La course à
l’informatique quantique est devenue l’un des enjeux technologiques
majeurs du XXIe siècle, comme celle à l’intelligence artificielle. D’autres
technologies moins médiatiques, mais tout aussi prometteuses, émergent
depuis une vingtaine d’années dans ce qu’il est dorénavant convenu
d’appeler la « seconde révolution quantique » – la première ayant été celle,
théorique, menée au début du siècle dernier. Pourtant, la méconnaissance
du grand public à l’égard de la physique quantique donne l’impression
d’une théorie obscure, déconnectée de la réalité, voire mystique. Cette
perception suffit à alimenter toute une panoplie de dérives plus loufoques
les unes que les autres : pis-aller scénaristique dans les films
hollywoodiens, technique d’hypnose permettant de se « connecter » à ses
protons, méthode révolutionnaire pour trouver l’âme sœur…
Le but de ce livre est d’exposer clairement les concepts fondateurs de la
physique quantique pour donner une meilleure compréhension de ce
qu’elle est réellement. Nous n’avons pas pour objectif de retracer toute son
histoire – non pas qu’elle soit ennuyeuse : c’est une épopée palpitante, dont
les jeunes protagonistes rivalisent d’audace et de génie. Seulement, nous
voulons aller plus directement aux faits et montrer qu’une théorie avec des
concepts aussi déroutants, et si souvent fantasmés, peut avoir des
manifestations étonnamment concrètes.
Dans chaque chapitre, nous avons choisi de partir d’une innovation
technologique qu’a permis la physique quantique pour introduire une
notion théorique, alternant entre points techniques, anecdotes farfelues,
débats épistémologiques et applications dans la vie quotidienne.
Le but de cet ouvrage est aussi de convaincre le lecteur que les
fondements de la théorie peuvent être appréhendés en profondeur sans la
moindre équation. Davantage qu’un bagage solide en mathématiques, ce
voyage au cœur des atomes exigera de vous un goût pour l’inconnu, le
surprenant, l’absurde.
Bonne lecture, ou plutôt bon voyage…
Casser les atomes ? Cette phrase semble se contredire : a-tome
provient du grec tomos, couper, précédé d’un a privatif. L’atome
est donc ce que l’on ne peut couper. Pourquoi, alors, les avoir
nommés ainsi ? Simplement parce que l’atome a été imaginé
bien avant que l’on puisse le casser, ou même le déceler : c’est le
savant grec Démocrite qui suggère le premier que la matière
serait formée de petites briques indivisibles, comme un jeu de
Lego.
e
À l’aube du XX siècle, la preuve de cette granularité de la
matière marqua le premier pas vers la physique quantique. En
retour, c’est cette dernière qui nous a appris à casser l’atome
pour alimenter les centrales nucléaires, tout comme elle nous a
appris à voir l’invisible, traverser l’infranchissable et mesurer
l’imperceptible – nous le verrons au cours de ce livre. N’allons
pas trop vite en besogne, et commençons par une immersion en
douceur dans le monde fascinant des atomes.
La chasse aux atomes
Au Mexique, il est courant lors d’un anniversaire de casser une piñata,
sorte de ballon en papier mâché que l’on accroche en hauteur. Les enfants,
munis de bâtons, frappent férocement la structure jusqu’à ce qu’elle libère
les bonbons qu’elle renferme. Lorsqu’il est heurté, le pauvre ballon est
bousculé dans toutes les directions, au hasard des coups qu’il reçoit ; son
mouvement est complètement aléatoire. Il se passe la même chose lorsque
l’on dépose des petites poussières à la surface de l’eau : elles se mettent en
mouvement, propulsées non pas par des coups de bâtons mais par des
particules qui viennent les heurter.
Sont représentés les mouvements aléatoires de trois poussières mesurant un micromètre de
diamètre.
Source : reproduction d'un dessin de Jean Perrin dans Mouvement brownien et réalité moléculaire
(1909)
C’est en observant le mouvement de ces poussières que le physicien
français Jean Perrin démontre, en 1909, que les liquides sont constitués de
petites particules glissant les unes sur les autres : les molécules. Il met par
la même occasion un terme à un débat ancestral sur la nature de la
matière : cette dernière n’est pas lisse, mais composée de molécules, ellesmêmes formées d’atomes liés les uns aux autres.
Si deux millénaires se sont écoulés entre les intuitions visionnaires de
Démocrite et la première mise en évidence des atomes, c’est notamment à
cause de leur taille. Ils sont bien trop petits pour être observés à l’œil nu,
ou même au microscope : ce n’est qu’indirectement que Jean Perrin a pu
les « voir », par les effets qu’ils produisent sur des poussières…
Vers l’infini et en deçà
Pour découvrir le monde quantique, il est important de se faire une idée de
la taille des objets qu’il implique. On lit souvent que la physique quantique
décrit « l’infiniment petit ». Il s’agit d’un abus de langage, puisque la
matière n’est justement pas lisse : elle est formée d’atomes, qui possèdent
une certaine taille, certes petite, mais pas nulle. Ailleurs, on lit qu’il s’agit de
la physique du monde microscopique. Là encore, c’est imprécis : le monde
microscopique est celui du micromètre (un millième de millimètre), qui est
visible au microscope. C’est une échelle courante en biologie : nos cheveux
mesurent quelques dizaines de micromètres d’épaisseur, comme la plupart
de nos cellules.
Le monde quantique est encore plus petit : il débute à l’échelle des atomes,
celle du nanomètre, mille fois plus petit que le micromètre, et s’étend
jusqu’à l’échelle des protons, celle du femtomètre, encore un million de fois
plus petit…
Prenons un exemple concret pour se représenter ces tailles. Une molécule
d’eau, notée H2O car formée de deux atomes d’hydrogène H et d’un atome
d’oxygène O, mesure environ un nanomètre. Combien de molécules faut-il
pour remplir un verre d’eau ? Environ un million de trillions, soit
1 000 000 000 000 000 000 000 000. Ce nombre est trop grand pour nous
évoquer quoi que ce soit, mais on peut se le représenter de la manière
suivante : c’est environ le nombre de verres d’eau que contient l’océan
Pacifique ! Le verre d’eau est donc à mi-chemin entre les objets les plus
petits et les objets les plus grands de notre planète.
BOIRE DANS LE VERRE
DE DÉMOCRITE
Conséquence frappante de la taille des atomes : chaque verre
d’eau que nous buvons aujourd’hui contient quelques millions
de molécules d’eau ayant été bues par Démocrite il y a deux
millénaires ! Vous n’en croyez mot ? Faisons le calcul : ayant
vécu jusqu’à l’âge vénérable de 103 ans, Démocrite a dû boire
près d'un million de verres d’eau au cours de sa vie. Cela ne
représente qu’un trillionième de la quantité d’eau sur Terre.
Néanmoins, depuis deux millénaires, les molécules d’eau bues
par Démocrite ont été uniformément disséminées aux quatre
coins de la planète au gré des cycles climatiques. Ainsi, on
peut estimer qu’elles se retrouvent aujourd’hui dans chaque
verre que l’on boit, à hauteur d’une molécule par trillion. Et
comme ledit verre contient un million de trillions de molécules,
cela revient statistiquement à un million de molécules bues
par le père des atomes !
Des atomes creux
Dans les cours de physique du secondaire, on donne généralement une
image très simple de l’atome : un petit amas de protons et de neutrons, le
noyau, entouré d’électrons. Pourtant, une chose est sûre aujourd’hui :
l’atome est loin de ressembler à cela. Déconstruire cette image a été l’un
des chevaux de bataille de la mécanique quantique. Mais avant de montrer
à quoi l’atome ressemble vraiment, prenons le temps de décortiquer cette
représentation trompeuse.
Ce qu’il y a de vrai dans cette image, c’est que l’atome n’est pas une
particule élémentaire, dans la mesure où il est formé d’autres particules
plus petites. C’est le physicien anglais Joseph John Thomson qui l’affirme
à la fin du XIXe siècle, en parvenant à arracher aux atomes des petites
particules : les électrons. Thomson imagine alors l’atome comme une sorte
de soupe peu dense, appelée plum-pudding 1, dans laquelle les électrons
flottent.
En 1909, Ernest Rutherford, élève de Thomson, démontre qu’en réalité les
électrons vivent autour d’un noyau extrêmement compact, lors d’une
expérience où il mitraille une fine feuille d’or avec des particules
radioactives. Il s’étonne de voir les projectiles rebondir au contact des
atomes d’or : le modèle de plum-pudding de Thomson suggère que les
projectiles devraient traverser sans être déviés, comme des balles de
pistolet. Pour Rutherford, seule la présence d’un noyau très petit et dur au
centre de l’atome peut expliquer ce phénomène.
Petit à quel point ? Tenez-vous bien : si le noyau mesurait la taille d’une
bille, les électrons se trouveraient en orbite à plusieurs kilomètres de lui !
Le reste de l’atome, c’est-à-dire plus de 99,99 % de son volume, n’est que du
vide. Prenez la tour Eiffel : si l’on pouvait ôter tout le vide de ses atomes,
elle pourrait tenir dans un dé à coudre ! Mais si la matière qui la constitue
est à ce point creuse, comment peut-elle tenir debout ? Patience, c’est la
physique quantique qui nous apportera la réponse…
Achevons ce portrait « classique » de l’atome en précisant que les
électrons portent une charge électrique négative. Si les atomes sont
électriquement neutres, c’est parce que cette charge est compensée par la
charge électrique positive des protons situés dans le noyau. Or, en
électricité, les opposés s’attirent : le noyau a tendance à attirer les
électrons, tout comme le Soleil attire la Terre par gravité. Il est donc
tentant d’imaginer que les électrons « gravitent » autour du noyau, de la
même manière que les planètes tournent autour du Soleil : c’est
exactement l’image que propose Rutherford en 1911. Quoi de plus
séduisant que l’idée de réconcilier le microcosme de l’atome avec le
macrocosme du Système solaire ?
CULTURE
Dans la superproduction Marvel Ant-Man (2015) et ses suites,
le personnage principal peut se rapetisser grâce à une
combinaison spéciale. S’il se réduit en général à la taille d’un
insecte ou d’une poussière, il se voit dans un cas de force
majeure contraint de descendre dans la « dimension
subatomique ». On le voit alors devenir successivement plus
petit qu’une cellule, qu’une molécule, puis qu’un atome. Si la
vision de ce monde nanométrique est romancée, les effets
spéciaux ont le mérite d’essayer de représenter l’aspect vide
de la matière.
De l’orbite à l’orbitale
Le modèle planétaire de Rutherford révéla rapidement ses limites. Il fut
d’abord critiqué pour son incompatibilité avec la théorie de
l’électromagnétisme, selon laquelle une particule chargée en mouvement
émet de la lumière. Par ce phénomène, l’électron devrait perdre de
l’énergie petit à petit, jusqu’à s’écraser sur le noyau. Si les atomes étaient
ainsi faits, il paraît peu probable que nous soyons là pour en discuter
aujourd’hui.
Ensuite, des expériences montrèrent que l’énergie des électrons ne peut
pas prendre toutes les valeurs possibles, mais seulement quelques valeurs
bien précises – un peu comme si votre voiture pouvait rouler à 30 ou
50 km/h, mais pas à 40 ni à 60. Ce phénomène, que nous détaillerons plus
loin, poussa le physicien danois Niels Bohr à proposer un nouveau modèle
planétaire pour l’atome, dans lequel seules certaines orbites sont
autorisées autour du Soleil (noyau), et les planètes (électrons) sautent
mystérieusement d’une orbite à l’autre.
Plus tard encore, de nouvelles découvertes poussèrent les physiciens à
rejeter l’idée même d’un électron bien localisé. Il ne faut alors plus
imaginer des planètes qui se déplacent le long d’une orbite, mais des
sortes de ballons de baudruche flottant autour du noyau. Ces ballons
portent le nom d’orbitales, clin d’œil au modèle planétaire de l’atome dont
ils entraînent l’abandon. Lorsque l’on cherche à localiser l’électron, ce
dernier se matérialise en un point aléatoire à l’intérieur de son orbitale.
L’orbitale délimite ainsi les endroits où l’électron peut se trouver : il faut
l’imaginer comme un nuage de présence, qui se contracte en un point
précis lorsque l’on mesure la position de l’électron. Cette nature
fantomatique n’est en fait pas le propre de l’électron : elle est inhérente à
tous les objets quantiques, comme nous le verrons plus tard.
Trêve de mise en bouche : montrons à quoi ressemblent ces ballons dans
lesquels se cachent les électrons. Sur la figure ci-dessus, nous avons
représenté six orbitales séparément ; il faut en réalité les imaginer blotties
les unes contre les autres autour du noyau, comme une grappe de ballons
d’hélium qui flottent au-dessus d’un stand de fête foraine.
L’atome d’hydrogène, qui ne possède qu’un électron, ressemble à une
sphère toute simple, comme en haut à gauche dans la figure. Les atomes
les plus volumineux, comme l’uranium, possèdent une centaine
d’électrons, autant vous dire qu’ils ne sont pas faciles à dessiner !
Néanmoins, grâce à la théorie quantique, la forme de ces orbitales peut
être calculée très précisément.
De l’énergie cachée
Puisque l’atome n’est pas une particule élémentaire, il est non seulement
possible, mais en fait très facile de le casser : il suffit par exemple de lui
arracher des électrons. Vous pouvez le faire vous-même grâce à une
expérience très simple : gonflez un ballon de baudruche et frottez-le contre
vos cheveux. Le ballon leur arrachera des électrons, et donc des charges
négatives. Chaque cheveu se retrouvera avec une petite charge positive, et
sera repoussé par ses voisins : l’ensemble se dressera sur votre tête pour
occuper plus d’espace. À l’inverse, le ballon sera chargé négativement, si
bien qu’il pourra se coller aux murs en attirant les charges positives de leur
surface.
Si cette expérience est divertissante, il est peu utile de casser les atomes de
cette manière. Lorsque nous parlions, dans l’introduction, de casser les
atomes, nous pensions plutôt à ce qui se passe dans les centrales
nucléaires. Pour extraire de l’énergie des atomes, c’est le noyau lui-même,
ce minuscule assemblage de protons et de neutrons, qu’il faut réussir à
briser – d’où le nom d’énergie nucléaire (de nucleus, noyau en latin).
Cette idée parut dans un premier temps inaccessible, même aux plus
grands experts de physique atomique. Rutherford, que nous avons cité
parmi les pères de l’atome, aurait qualifié les physiciens cherchant à
extraire l’énergie nucléaire de charlatans en 1933. Il était bien loin
d’imaginer que la décennie suivante, cette forme d’énergie aboutirait à la
déflagration d’Hiroshima.
Pourquoi le fait de casser un noyau libère-t-il de l’énergie ? C’est ici
qu’intervient la formule la plus célèbre – et peut-être la moins bien
comprise – de l’histoire des sciences : E = mc2. Celle-ci naît en 1905, durant
l’annus mirabilis d’Albert Einstein, année où le physicien allemand refonde
à lui seul la physique tout entière – nous y reviendrons. Que se cache-t-il
derrière cette célèbre formule ?
Ce que nous appelons la masse m d’un objet est en fait proportionnelle à la
quantité d’énergie que l’objet contient, notée E. Par exemple, lorsqu’une
pile électrique est déchargée, elle est légèrement moins lourde, puisqu’elle
a perdu de l’énergie. La constante de proportionnalité, c2, est la vitesse de
la lumière au carré, un nombre extrêmement grand. Ainsi, une simple
pomme, pesant 200 grammes, renferme en elle une énergie comparable à
la consommation énergétique quotidienne de la France !
Pourquoi cette pomme ne nous apporte-t-elle qu’une poignée de calories
lorsque nous la mangeons ? Tout simplement parce que notre intestin est
bien loin de pouvoir extraire toute cette énergie. Même les centrales
nucléaires convertissent moins d’un pour cent de la masse de l’uranium en
énergie. Où cette énergie se cache-t-elle, et pourquoi est-elle si difficile à
libérer ?
Dénoyauter les atomes
On imagine souvent que pour déterminer la masse d’un corps, il suffit
d’additionner la masse de tous ses constituants. C’est bien le cas à notre
échelle : la masse d’un sachet de bonbons est égale à la somme des masses
des bonbons pris indépendamment (en ignorant le poids du sachet).
Pourtant, dans le monde des atomes, les choses ne sont pas aussi simples.
Munissez-vous d’une balance ultra-précise et pesez le noyau d’un atome
d’uranium-238, sorte de sachet de bonbons formé de 92 protons et de
146 neutrons. Divisez ensuite ce noyau en deux noyaux plus petits, et
pesez chacun des deux : vous aurez la surprise de trouver une masse totale
plus faible ! Comment expliquer cette différence de masse ?
Dans notre monde, la masse est une propriété intrinsèque d’un objet : un
bonbon pèsera toujours la même masse, quel que soit l’état du monde qui
l’entoure. Dans le monde quantique, les particules ne peuvent être
considérées comme des entités isolées ; leurs propriétés, notamment leur
masse, dépendent de leurs interactions. Ainsi, un proton ne pèse pas la
même masse lorsqu’il est tout seul et lorsqu’il est au sein d’un noyau
atomique, en interaction avec tous les autres protons et neutrons. De
même, un noyau d’uranium ne pèse pas la même masse lorsqu’il est entier
et lorsqu’il est divisé en deux.
La fission nucléaire consiste donc à bombarder des atomes d’uranium à
l’aide de neutrons, dans le but de fendre leurs noyaux en deux noyaux plus
petits, comme illustré dans la figure précédente. La différence de masse est
alors libérée sous forme d’énergie, suivant la formule E = mc2. L’énergie
dégagée est colossale : lors du bombardement d’Hiroshima, la fission de
moins d’un kilogramme d’uranium a suffi à relâcher autant d’énergie que
quinze mille tonnes de TNT, l’explosif le plus couramment utilisé pendant
la Seconde Guerre mondiale.
CASSER LES PROTONS
Nous avons vu que les atomes sont constitués d’électrons, de
protons et de neutrons. Ces particules, elles, sont-elles
élémentaires ? La réponse est affirmative pour ce qui
concerne les électrons, mais négative pour ce qui concerne
les protons et les neutrons. Ces derniers peuvent donc être
cassés, au même titre que les atomes, pour révéler leurs
constituants : les quarks.
Pour cela, une centrale nucléaire ne suffit pas : il faut un
accélérateur de particules, une énorme machine qui propulse
les protons et neutrons à des vitesses proches de celle de la
lumière, puis les contraint à une collision frontale.
L’accélérateur de particules le plus célèbre est le Large
Hadron Collider (LHC) du CERN 2, en Suisse. Son but n’est pas
de produire de l’énergie, mais plutôt de détecter des résidus
intéressants lors des collisions. On y rencontre des quarks,
mais aussi tout un florilège de particules exotiques comme le
boson de Higgs, longtemps une pièce manquante de la
physique des particules, enfin observé en 2012.
L’alchimie des étoiles
La fission nucléaire est d’une efficacité redoutable, sans commune mesure
avec les autres méthodes que nous connaissons pour produire de l’énergie.
Fendre un kilogramme d’uranium libère plusieurs millions de fois plus
d’énergie que brûler un kilogramme de charbon, et possède le grand
avantage de ne pas rejeter de gaz carbonique CO2 dans l’atmosphère : la
fumée blanche que l’on voit s’échapper des centrales nucléaires n’est que
de la vapeur d’eau.
Néanmoins, on le sait, les centrales nucléaires ne sont pas sans risques. La
fission nucléaire est fondée sur un équilibre délicat : lorsque les noyaux se
brisent sous l’impact d’un neutron, ils libèrent un nouveau neutron, qui
peut à son tour briser d’autres atomes et ainsi de suite, initiant une
réaction en chaîne (voir figure ici). Celle-ci permet à la fission d’être autoentretenue, mais doit impérativement être contrôlée pour éviter des
drames comme celui de Tchernobyl en 1986, lorsqu’une surchauffe
entraîna la destruction complète du réacteur.
De plus, la fission met en jeu des atomes dont les noyaux sont
suffisamment gros et instables pour qu’il soit facile de les casser. Ces
noyaux sont radioactifs : ils peuvent se désintégrer spontanément en
émettant des rayonnements gamma extrêmement énergétiques et nocifs.
Après la fission, ils engendrent deux nouveaux noyaux certes plus petits,
mais toujours radioactifs : ce sont les fameux déchets nucléaires qui
suscitent tant d’inquiétudes, pouvant rester radioactifs pendant des
millions d’années.
Pour pallier ces deux défauts, une alternative s’offre à nous : la fusion
nucléaire. Elle exploite le procédé inverse : partir de deux petits noyaux
instables (le deutérium et le tritium, variants de l’hydrogène), et les fondre
ensemble pour former un nouveau noyau plus stable (l’hélium), comme
illustré dans la figure ci-dessous. C’est exactement ce qui se produit au
cœur des étoiles : ces usines à matière produisent une kyrielle d’atomes
dans une fournaise de plusieurs millions de degrés en fusionnant des
noyaux de plus en plus gros.
Véritable Graal de la recherche nucléaire, la fusion fait miroiter la
promesse d’une source d’énergie propre et abondante. La maîtriser est
l’objectif du projet ITER, l’une des plus grandes collaborations
scientifiques internationales de l’histoire, basée à Cadarache dans le sudest de la France. La collaboration prévoit une première démonstration de
la fusion vers la fin des années 2030, et espère pouvoir mettre au point un
réacteur commercial à l’horizon 2050. Toutefois, en dépit des moyens
déployés et des avancées récentes, les coûts restent énormes pour
reproduire les conditions de température d’une étoile sur Terre, et laissent
planer le doute sur la rentabilité énergétique du dispositif…
En attendant de pouvoir fabriquer une étoile nous-mêmes, la solution
serait-elle de puiser directement l’énergie du Soleil ? La réponse au
chapitre suivant.
Résumé du concept : l’atome
L’atome est la brique de base de la matière. Son existence, dont on
avait eu l’intuition dès l’Antiquité, ne fut démontrée qu’au XXe siècle.
Il est constitué d’un très petit noyau entouré d’électrons, ce qui nous
a menés à imaginer l’ensemble comme un Système solaire
miniature. La physique quantique nous a appris que la réalité est
bien plus complexe : les électrons vivent en fait dans des sortes de
ballons de baudruche appelés orbitales.
Quant au noyau, on peut le briser en deux noyaux plus petits en le
bombardant de neutrons. En se fissurant, le noyau relâche une
grande quantité d’énergie selon la formule E = mc2 : c’est le principe
de la fission nucléaire. La fusion nucléaire, encore loin de portée,
exploite le procédé inverse.
1. En référence au gâteau aux fruits secs typiquement anglais, traditionnellement dégusté à
Noël.
2. Le CERN est l’Organisation européenne pour la recherche nucléaire.
Les plantes se développent grâce à une merveilleuse petite
fabrique à énergie : la photosynthèse, qui leur permet de
produire de l’énergie à partir de la lumière du Soleil. Depuis
quelques décennies, nous exploitons un procédé similaire pour
produire de l’électricité grâce aux panneaux photovoltaïques. Le
mécanisme à l’œuvre dans les deux cas n’est rien de moins que
celui qui bouleversa la physique à l’aube du
photoélectrique.
e
XX
siècle : l’effet
Cet étrange phénomène nous a permis de comprendre qu’à
l’instar de la matière, la lumière est faite de grains. C’est le
sésame vers un monde insoupçonné, aux propriétés
ambivalentes ; pour y voir plus clair, un bref retour dans le
temps s’impose.
La vérité se dérobe
Observez attentivement l’image ci-dessous. Qu’y voyez-vous ? Cinq cubes
dont les coins sont creusés ? Ou au contraire, cinq coins de murs contre
lesquels sont posés des cubes ? Le point central de chacun des cinq
hexagones peut être perçu vers l’avant ou vers l’arrière, et c’est cette
ambivalence qui fait la subtilité de l’œuvre de l’artiste franco-hongrois
Victor Vasarely, spécialiste du trompe-l’œil.
Hexa 5 de Victor Vasarely (1988)
En physique, il arrive aussi que des questions admettent plusieurs
réponses. Au XIXe siècle, alors que la discipline vit un âge d’or depuis
l’époque de Newton, une controverse virulente s’anime autour du débat
suivant : qu’est-ce que la lumière ?
D’un côté, ceux qui imaginent la lumière comme une onde, au même titre
que les sons ou les vagues sur l’océan : c’est la théorie ondulatoire,
développée notamment par le néerlandais Christian Huygens. De l’autre,
ceux qui voient la lumière comme une gerbe de petites particules. Parmi
les défenseurs de cette théorie dite corpusculaire, on compte Newton,
premier homme à avoir décomposé la lumière blanche en arc-en-ciel à
l’aide d’un prisme. En l’absence de preuves empiriques soutenant l’une ou
l’autre des théories, la seconde a dominé les débats pendant deux siècles,
en grande partie grâce à la popularité de Newton.
Un jeu d’ombres chinoises
Ce n’est qu’en 1801 que les théories sont confrontées à l’expérience,
lorsqu’un jeune anglais, Thomas Young – retenez bien ce nom –, se met en
tête de jouer aux ombres chinoises. Son dispositif est d’une simplicité
déconcertante : imaginez une feuille percée de deux fentes, que l’on éclaire
à l’aide d’une source lumineuse (voir figure suivante). Qu’observe-t-on sur
un écran placé derrière les fentes ?
Si la lumière est formée de particules, on s’attend tout simplement à
observer l’ombre portée des deux fentes. Pourtant, Young observe quelque
chose de radicalement différent : une élégante série de franges
lumineuses, tantôt brillantes, tantôt sombres ! Ceci ne peut s’expliquer
qu’en faisant appel à deux phénomènes propres aux ondes, déjà bien
connus à l’époque.
D’abord, au sortir des fentes, les deux faisceaux de lumière s’étalent
perpendiculairement à celles-ci, si bien qu’ils se superposent sur l’écran.
Ce phénomène porte le nom de diffraction – vous pouvez l’observer très
facilement en plissant les paupières. Les quelques rayons de lumière qui se
faufilent dans votre œil s’étirent selon des lignes verticales, et ce d’autant
plus que l’espace entre les paupières se rétrécit.
Ensuite, les franges lumineuses se forment par un phénomène
d’interférence, au niveau de la zone de rencontre des rayons diffractés par
les deux fentes. Ce phénomène est plus intuitif : lorsque deux vagues se
superposent, elles peuvent soit se renforcer, si leurs crêtes et leurs creux
coïncident, soit s’annuler, si les crêtes de l’une coïncident avec les creux de
l’autre. C’est ce qui produit une alternance de zones brillantes et de zones
sombres.
La théorie ondulatoire sort triomphante de cette expérience… Mais sa
concurrente est loin d’avoir dit son dernier mot.
En voir de toutes les couleurs
En 1839, le physicien français Antoine Becquerel découvre un phénomène
inattendu en éclairant un morceau de métal : l’apparition d’un courant
électrique, c’est-à-dire un mouvement d’électrons au sein du métal. Cela
signifie que la lumière a le pouvoir d’arracher des électrons aux atomes :
c’est l’effet photoélectrique. Quelques années plus tard, on découvre que
cet effet a une étrange particularité : il ne se produit pas pour toutes les
couleurs. Il se produit en présence d’une lumière bleue, mais pas pour une
lumière rouge, et ce, quelle que soit la puissance de la source lumineuse…
Précisons ce qu’est une couleur : la lumière, on l’a dit, se comporte comme
une onde – n’en déplaise à Newton. Pensez à une série de vagues sur
l’océan : chaque point à la surface de l’eau oscille verticalement. Toute
onde est caractérisée par sa fréquence, c’est-à-dire par le nombre de fois
qu’elle oscille par seconde. C’est cette fréquence qui détermine la couleur
de la lumière : le rouge correspond à une onde qui bat quatre cent mille
milliards de fois par seconde, tandis que le bleu bat presque deux fois plus
vite. De manière équivalente, on peut déterminer la couleur d’une lumière
en mesurant sa longueur d’onde, c’est-à-dire la distance entre deux crêtes
successives (plus la fréquence est élevée, plus la longueur d’onde est
faible). Le bleu a une longueur d’onde de 500 nanomètres, tandis que le
rouge a une longueur d’onde de 800 nanomètres.
Comment expliquer le fait que la lumière rouge ne provoque pas de
courant électrique ? Comment la fréquence d’une onde peut-elle
déterminer sa capacité à générer un courant ? Cette observation
surprenante resta un mystère pendant plus de soixante ans ; il manquait
décidément quelque chose à la physique pour expliquer ces observations.
Annus mirabilis
Nous voilà en 1905. Albert Einstein est encore un jeune homme. Loin
d’être « nul à l’école » comme on l’entend parfois, il n’en reste pas moins
un personnage peu académique, qui préfère rêvasser qu’écouter des cours
magistraux. Résultat : il n’obtient pas de bourse de thèse, et se voit
contraint de travailler dans un office des brevets à Berne pour subvenir à
ses besoins. Cela ne l’empêche pas de se frotter aux grands problèmes de
la physique dans son temps libre, et avec un certain culot.
Cette année-là, Einstein rédige quatre articles qui sont autant de
tremblements de terre dans le monde de la physique. L’un d’eux met en
équation le mouvement brownien, cette bougeotte désordonnée que Jean
Perrin utilisa pour prouver l’existence des atomes quatre ans plus tard (voir
chapitre 1). Un autre énonce la célèbre formule E = mc2 que nous avons
également découverte dans le chapitre précédent. Mais surtout, les deux
derniers répondent aux deux plus grands paradoxes de son temps, portant
sur la nature de la lumière. Il n’est pas exagéré de dire que ces articles ont
posé les fondements des deux grands piliers de la physique moderne.
Le premier paradoxe porte sur la vitesse de la lumière : pourquoi les rayons
émis par les phares d’un train en marche se déplacent-ils aussi vite que
ceux émis par un train à l’arrêt ? La réponse oblige à accepter un décalage
entre les horloges des deux trains : c’est la naissance de la relativité, qui
décrit l’élasticité de l’espace-temps.
Le second paradoxe, c’est celui de l’effet photoélectrique que nous venons
de découvrir. Pour le résoudre, Einstein, du haut de ses 26 ans, se permet
de tordre le cou à la théorie ondulatoire, que l’expérience de Young avait
rendue quasi irréfutable.
La naissance du photon
Einstein revient à l’idée de Newton, selon laquelle la lumière serait formée
de grains trop petits pour être visibles à l’œil nu. Elle serait un peu comme
l’écran d’un smartphone : lisse vue de loin, pixélisée de très près. Chaque
« pixel » de lumière, appelé photon, transporte une énergie E
proportionnelle à sa fréquence , ce qui se traduit par la formule E = h. La
constante de proportionnalité, notée h, est la constante de Planck, peutêtre la plus emblématique de la physique quantique. Sa valeur est très
faible, traduisant le fait que les photons possèdent individuellement une
très petite quantité d’énergie. Ce n’est qu’en nombre faramineux qu’ils
peuvent former un rayon lumineux visible : une simple lampe de poche
émet des milliards de milliards de photons chaque seconde !
Conséquence de cette loi : un photon bleu transporte plus d’énergie qu’un
photon rouge, puisque sa fréquence est deux fois plus élevée. On le voit en
observant une bougie de près : la zone la plus chaude – et donc la plus
énergétique –, à la base de la flamme, est teintée de bleu. À des fréquences
(et donc des énergies) plus élevées que le bleu, on trouve les rayons
ultraviolets du Soleil, qui sont dangereux à long terme pour notre peau, ou
encore les rayons X, employés à faible dose dans l’imagerie médicale, car
plus puissants encore que les ultraviolets. Les championnes de la haute
énergie sont les ondes gamma, caractéristiques de la radioactivité, dont les
photons sont assez puissants pour découper la chair (on utilise le gamma
knife 1 en chirurgie pour remplacer le bistouri !).
Vous l’aurez compris, plus la fréquence d’un photon est élevée, plus il
transporte d’énergie. Il existe donc deux manières d’augmenter la
puissance d’une source lumineuse : augmenter son intensité, c’est-à-dire le
nombre de photons qu’elle transporte, ou changer sa couleur, c’est-à-dire
l’énergie que transporte chaque photon. Seulement, ces deux méthodes ne
sont pas équivalentes en ce qui concerne l’effet photoélectrique, et c’est ce
qui explique le phénomène de « tout ou rien » observé. Les photons
rouges n’ont pas assez d’énergie pour arracher un électron au métal : on
aura beau augmenter leur nombre, aucun courant ne sera libéré. Autant
tuer un âne à coups de figues, comme le disent les Provençaux… En
revanche, les photons bleus sont capables d’arracher un électron, et le
courant qui en résulte augmente avec l’intensité lumineuse.
Ainsi, c’est en remettant la théorie corpusculaire sur le devant de la scène
qu’Einstein parvient à expliquer l’effet photoélectrique. Parmi tous ses
éclairs de génie, c’est celui-ci qui lui valut son unique prix Nobel en 1921 –
on aurait pu lui en décerner plusieurs autres, au risque de faire des jaloux.
UN BILLARD LUMINEUX
Si la théorie du photon, qui entre en contradiction avec les
expériences de Young, suscita de nombreuses critiques, les
derniers réfractaires durent baisser les armes en 1923, suite
aux expériences de l’américain Arthur Compton. Ce dernier
bombarda des électrons avec des rayons X et récolta en
retour des rayons de fréquence plus faible.
Seule explication possible : les photons rebondissent sur les
électrons, comme des boules de billard, et perdent de
l’énergie lors de la collision. Seulement, ce n’est pas leur
vitesse qui diminue (ils ne peuvent se déplacer qu’à la vitesse
de la lumière), mais leur fréquence. Ses résultats
expérimentaux confirmèrent parfaitement les prédictions de la
formule E = h.
Le Soleil comme batterie
La lumière du Soleil reçue par la Terre en une heure permettrait, si elle
était récupérée en totalité, de pourvoir aux besoins énergétiques de la
planète pendant environ un an. Pour tirer profit de cette ressource
inestimable, les scientifiques prirent rapidement conscience du potentiel
de l’effet photoélectrique : la première cellule photovoltaïque fut fabriquée
dès 1883.
Bien entendu, nous sommes loin de pouvoir tapisser la planète de
panneaux noirs : la production de ces derniers est coûteuse et polluante.
Mais un autre défi technologique se pose : les cellules photovoltaïques les
plus récentes ne parviennent à récupérer que 10 % tout au plus de l’énergie
qu’elles reçoivent. Pourquoi un rendement si faible, et comment
l’améliorer ?
CULTURE
Une méthode pour récupérer l’énergie lumineuse du Soleil,
particulièrement prisée des auteurs de science-fiction, est la
sphère de Dyson, qui apparaît dans le cycle de romans Omale
(2001) ou encore la série Star Trek (1992). Il s’agit d’une
coquille géante englobant l’étoile pour en collecter
l’intégralité des rayons lumineux.
Cette mégastructure fascine, car elle pourrait permettre le
développement de civilisations extraterrestres très avancées,
capables notamment d’exploiter cette énergie pour voyager à
travers le cosmos, mais invisibles depuis la Terre (car cachées
dans leur sphère). Ceci expliquerait peut-être pourquoi nous
n’avons toujours pas eu de signe d’une autre espèce douée
d’intelligence !
Repensons à l’effet photoélectrique et à son caractère « tout ou rien ». La
lumière du Soleil est composée d’un mélange de photons de toutes les
couleurs de l’arc-en-ciel, ainsi que d’une bonne part d’ultraviolets. Parmi
tous ces photons, seuls ceux dont la fréquence dépasse un certain seuil
parviendront à déclencher un effet photoélectrique : tous les autres seront
perdus.
Il paraît donc tentant de baisser le seuil pour récupérer plus de photons,
mais dans ce cas, on récupère moins d’énergie à chaque photon collecté.
Ainsi, le choix de la fréquence seuil, qui dépend des matériaux utilisés, est
un dilemme similaire à celui d’un vendeur de tapis : si ses tapis sont trop
chers, peu de monde les achète, mais s’ils sont trop bon marché, ils
rapportent peu.
UNE INVENTION
LUMINEUSE
Les ampoules LED fonctionnent aussi grâce à l’effet
photoélectrique. Elles l’exploitent en fait en sens inverse : à la
place d’un photon qui provoque la libération d’un électron,
c’est l’électron qui se recombine avec un atome pour libérer
des photons, et donc de la lumière. Fabriquées dès les années
1960, il fallut attendre les années 1990 pour réussir à produire
des LED émettant de la lumière bleue, pouvant servir à
l’éclairage.
Cette invention est loin d’être anecdotique : la consommation
énergétique des LED bleues est plus de cinq fois moindre que
celle des ampoules à incandescence, si bien qu’elles ont
rapidement envahi notre quotidien, de l’éclairage public aux
écrans d’ordinateur. Elles ont également l’avantage d’être une
dizaine de fois plus durables, et de ne pas produire de chaleur.
Dans la mesure où un cinquième de l’électricité mondiale sert
à l’éclairage, cette technologie, dont les inventeurs ont été
couronnés du prix Nobel en 2014, revêt une grande
importance en termes d’économies d’énergie.
Les deux visages
de la lumière
Impossible de clore ce chapitre sans vous donner l’issue de ce houleux
débat onde-particule. En effet, si le concept de photon introduit par
Einstein résout la question de l’effet photoélectrique, il n’explique pas
comment la lumière peut produire des interférences comme celles
observées par Young ! Comment expliquer que la lumière puisse se
comporter tantôt comme une particule et tantôt comme une onde ? Pour
tenter de répondre à cette question, l’expérience de Young fut revisitée au
e
XX siècle, en envoyant non plus un faisceau de lumière à travers les fentes,
mais des photons isolés, un par un. Les premiers photons envoyés forment
des impacts nets sur l’écran, à des endroits a priori aléatoires. Mais photon
après photon, une forme se dessine : certaines zones sont couvertes
d’impacts, tandis que d’autres restent vierges (voir figure). Miracle : on voit
réapparaître les franges verticales qu’observait Young, trahissant la
présence d’interférences !
Comment expliquer un tel résultat ? Rappelons que les photons sont
envoyés un par un et ne peuvent donc pas s’influencer l’un l’autre. Or, les
interférences ne peuvent s’expliquer que par l’interaction entre une onde
provenant de la fente de gauche et une autre provenant de la fente de
droite. Vraisemblablement, un photon ne peut passer que par une fente à
la fois, pas les deux… Seulement, comme nous allons le voir tout au long de
notre voyage dans le monde des atomes, la physique quantique se soucie
peu de ce que nous considérons comme vraisemblable. Au contraire, elle
semble prendre un malin plaisir à renverser notre intuition.
Cette expérience suggère que chaque photon doit, d’une manière ou d’une
autre, traverser les deux fentes simultanément, à la manière d’une onde,
puis se recombiner à la surface de l’écran pour former un unique impact.
Le photon doit donc interférer avec lui-même. En un siècle, nous voilà
passés d’une conception ondulatoire de la lumière à une conception
corpusculaire, pour enfin conclure que la lumière est formée de grains
pouvant se comporter individuellement comme des ondes.
Complémentaire,
mon cher Watson
Pour vérifier que le photon passe bien par les deux fentes, il est tentant de
placer un détecteur devant chaque fente. Seulement, pour être détecté, le
photon doit nécessairement entrer en collision avec le détecteur, ce qui le
détruit et l’empêche de parvenir jusqu’à l’écran.
Pour Niels Bohr, il est physiquement impossible de réussir à satisfaire
notre curiosité. On ne peut pas simultanément observer le caractère
ondulatoire (les interférences) et corpusculaire de la lumière (la trajectoire
du photon). Il propose alors le concept de complémentarité ondeparticule. Tout se passe comme dans le paradoxe visuel des cubes de
Vasarely : on peut se convaincre que le point central est vers l’avant, puis
vers l’arrière, mais il est très difficile de percevoir les deux perspectives en
même temps.
Cette complémentarité est-elle une loi inviolable de la nature, ou pourraiton l’enfreindre en trouvant un moyen de détecter le photon sans l’affecter,
de manière à observer malgré tout des interférences, comme un détective
qui photographie discrètement un suspect ?
Le défi est de taille, tant le photon est fragile. Depuis une vingtaine
d’années, il est possible de détecter la présence de photons dans un
système sans les détruire, au prix d’appareils expérimentaux très
complexes, mais les localiser sans les détruire est pour le moment hors de
portée. Malgré de nombreuses tentatives à la fois expérimentales et
théoriques pour le remettre en cause (Einstein lui-même s’y cassa les
dents 2), ce troublant principe de complémentarité survit encore
aujourd’hui.
Résumé du concept :
la dualité onde-particule
En 1801, Thomas Young mène une expérience célèbre qui montre
que la lumière est une onde. Mais cette intuition est remise en cause
en 1839 par la découverte de l’effet photoélectrique, selon lequel la
lumière peut produire un courant électrique. En 1905, Einstein
explique ce phénomène par le fait que la lumière est constituée de
petites particules, appelées photons, capables d’arracher des
électrons aux atomes.
Comment réconcilier ces deux natures contradictoires ? La réponse
est en fait duelle : la lumière est effectivement composée de photons,
mais ces derniers peuvent se comporter individuellement comme
des ondes.
1. Ou scalpel gamma.
2. Serge Haroche décrit en détail dans La Lumière révélée (2020) l’une des nombreuses
expériences de pensée d’Einstein censées mettre en défaut le principe de complémentarité.
Le 14 septembre 2015, un événement exceptionnel ébranle la
communauté scientifique : la première détection d’ondes
gravitationnelles. C’est une confirmation majeure de la théorie
de la relativité, prédite cent ans plus tôt par Einstein. Issues
d’une collision de trous noirs à l’autre bout de l’Univers, ces
ondes ont mis plus d’un milliard d’années à atteindre la Terre !
Pour percevoir des échos aussi lointains, les physiciens ont dû
construire l’un des appareils les plus sensibles au monde : un
détecteur de plusieurs kilomètres d’envergure. Son
fonctionnement repose sur l’un des plus grands succès de la
physique quantique : le laser.
Outre ce genre d’exploit scientifique, le laser est devenu
indispensable dans d’innombrables objets du quotidien, tels que
les lecteurs CD ou la fibre optique. Pour comprendre son
fonctionnement, nous allons continuer à décortiquer la nature
troublante de la lumière, que les physiciens ont appris à
e
dompter tout au long du XX siècle.
Des atomes bien accordés
Si vous avez déjà eu le désagrément d’entendre les sons émis par un
violoniste novice, vous savez que cet instrument a tendance à sonner
« faux ». Il est plus facile de débuter à la guitare : il suffit de bien l’accorder,
de mémoriser quelques combinaisons de doigtés, et des accords
mélodieux en sortent comme par magie.
Pourtant, ces deux instruments fonctionnent selon un principe similaire :
les doigts viennent raccourcir la partie des cordes qui vibre en les pinçant
contre le manche, afin de produire des sons plus ou moins aigus. La
différence fondamentale vient des frettes, ces barres métalliques disposées
le long du manche de la guitare. Grâce à elles, les cordes d’une guitare
fonctionnent par paliers : seules certaines notes sont autorisées (celles qui
ont le bon goût d’être justes). Le violon, lui, autorise toutes les notes
intermédiaires, ce qui offre plus de liberté, mais complique nettement la
tâche du musicien, qui doit faire preuve d’une grande précision pour jouer
juste.
Cette discontinuité des notes de la guitare ressemble beaucoup à celle qui
caractérise le monde quantique. Les atomes ne peuvent se trouver que
dans un certain nombre d’états, appelés niveaux d’énergie. Ces niveaux
sont analogues aux frettes de la guitare, sauf que leur disposition n’est pas
forcément régulière. Chaque espèce d’atome peut être imaginée comme
un type de guitare, caractérisé par des notes (c’est-à-dire des énergies)
différentes. Ces notes sont exactement les mêmes pour tous les atomes
d’une même espèce et en constituent en quelque sorte l’empreinte digitale.
L’atome est assez paresseux, et préfère généralement rester dans le niveau
d’énergie le plus bas, comme une corde de guitare jouée à vide. Mais si on
lui donne suffisamment d’élan, il peut grimper d’une ou plusieurs frettes
pour atteindre des notes plus aiguës : on dit alors qu’il est excité. Il aura
ensuite tendance à se désexciter rapidement pour retourner vers des notes
plus graves.
Sauts de puce quantiques
À quoi correspondent ces niveaux d’énergie, et que se passe-t-il
concrètement lorsqu’un atome monte ou descend d’une note ?
Souvenez-vous qu’un atome contient des électrons qui entourent un
noyau. Ces électrons se répartissent dans des orbitales, ces drôles de
ballons de baudruche que nous avons dessinés dans le premier chapitre.
Plus le ballon dans lequel se trouve l’électron est gros, plus son énergie est
élevée. Ainsi, le niveau d’énergie de l’atome est déterminé par la plus
grande orbitale occupée. Pour monter ou descendre d’un niveau d’énergie,
l’électron peut bondir d’un ballon à l’autre, de manière aléatoire : on parle
de saut quantique.
Cette discontinuité des niveaux d’énergie de l’atome n’est pas sans
rappeler celle de la lumière, qui est formée de paquets d’énergie : les
photons. C’est loin d’être un hasard : les photons sont justement émis
lorsqu’un atome se « désexcite », c’est-à-dire descend d’un ou de plusieurs
niveaux d’énergie. On parle d’émission spontanée : le photon émis
emporte avec lui l’énergie perdue par l’atome. Ce phénomène a une nature
purement aléatoire : il est impossible de prédire quand l’atome se
désexcitera, ni dans quelle direction le photon sera émis.
Inversement, lorsqu’un atome rencontre un photon possédant exactement
la bonne énergie pour lui permettre de grimper à un niveau supérieur, il
peut l’absorber pour passer dans un état excité (voir figure ici).
PÉDALER PLUS VITE
QUE LA LUMIÈRE
Dans le vide, la lumière se déplace à environ
300 000 kilomètres par seconde. Dans d’autres matériaux
comme le verre ou l’eau, elle est ralentie par les atomes, elle
s’y « cogne » – c’est-à-dire se fait absorber puis réémettre.
Dans le verre, par exemple, elle voyage à « seulement »
200 000 kilomètres par seconde, ce qui reste tout de même
un peu rapide pour nos yeux. En 1999, la chercheuse danoise
Lene Hau annonce que son équipe de l’Université de Harvard
a ralenti la lumière à une vitesse de 60 kilomètres par heure.
Dans son laboratoire, la lumière avançait moins vite qu’un
cycliste descendant un col !
Pour faire cela, il faut mettre à profit l’interaction de la lumière
avec les atomes. Seulement, ces derniers ont une fâcheuse
tendance à bouger dans tous les sens, ce qui rend l’interaction
plus difficile. La chercheuse a ainsi dû les piéger pour qu’ils
arrêtent de bouger, puis modifier leurs propriétés grâce à un
laser pour que le photon s’y propage lentement, comme dans
un verre très dense.
Scanner les étoiles
Comme Einstein nous l’a appris, l’énergie d’un photon est proportionnelle
à sa fréquence – sa couleur, pour la lumière visible. Conséquence : à
chaque transition d’un niveau d’énergie vers un autre correspond une
lumière de couleur différente. Par exemple, lorsque l’atome d’hydrogène
tombe de son troisième niveau d’énergie au second, il émet un photon de
couleur rouge. S’il tombe du quatrième niveau d’énergie – de plus haut,
donc –, il émet un photon de couleur bleue, possédant plus d’énergie.
L’ensemble des transitions possibles forme une série de raies colorées
appelée le spectre d’émission de l’atome, sorte de code-barres permettant
de l’identifier (voir figure précédente). Le sodium, par exemple, est
reconnaissable aux deux raies jaune-orangé très proches qu’il peut émettre
– c’est la couleur des lampes à sodium utilisées dans l’éclairage public.
Grâce à ce code-barres lumineux, les astrophysiciens peuvent déterminer
la composition chimique des étoiles aussi facilement que l’on scanne un
produit au supermarché. Ayant à leur disposition les code-barres de
nombreuses espèces chimiques individuelles, ils peuvent déterminer
quelle combinaison d’espèces peut expliquer le spectre observé. La plupart
des étoiles étant formées majoritairement d’hydrogène et d’hélium, ils
observeront en général une superposition des deux spectres présentés cidessus, combinée aux spectres des autres espèces d’atomes.
Les photons de Panurge
Vous êtes-vous déjà émerveillé de la danse poétique d’un banc de
poissons ou d’une volée d’hirondelles ? C’est le fruit de l’esprit grégaire de
ces animaux, qui ont tendance à suivre le mouvement de leurs voisins.
L’homme sait tirer profit de cet instinct depuis la nuit des temps, par
exemple en contenant les troupeaux de moutons à l’aide de chiens de
berger.
Par chance, il se trouve que la lumière possède ce même instinct grégaire.
En effet, lorsqu’un photon arrive sur un atome excité, il a la capacité de
déclencher l’émission d’un autre photon de même fréquence, avançant
dans la même direction ! Ce phénomène, qui n’a rien d’évident, a été prédit
par le visionnaire Einstein (encore lui) en 1916 : on le qualifie d’émission
stimulée. Comment peut-on exploiter ce phénomène ?
Exactement comme le berger : en confinant les photons, on peut les forcer
à avancer en un troupeau ordonné. Ici, les aboiements d’un chien auront
peu d’effet : pour confiner la lumière, il suffit de placer deux miroirs face à
face. Plaçons également, entre ces deux miroirs, un nuage d’atomes
excités. Lors de son passage dans le nuage, un photon peut stimuler
l’émission de quelques dizaines d’autres, qui lui emboîtent le pas. En
traversant à nouveau le nuage, chacun de ces photons pourra recruter de
nouveau une dizaine d’autres, et ainsi de suite. Le cortège croît
exponentiellement au gré des allers-retours, se transformant en quelques
nanosecondes en une nuée de photons tous identiques, avançant en bloc.
Derrière cette idée a priori très simple, nous avons le principe d’une des
innovations les plus utiles qu’a permis la physique quantique : le laser.
Son nom est en fait un acronyme reflétant son fonctionnement : light
amplification by stimulated emission of radiation, soit amplification
lumineuse par émission stimulée.
UN PARAPLUIE AZOTÉ
Il n’y a pas que les atomes qui ont des niveaux d’énergie
discontinus : c’est le cas de tous les objets quantiques et
notamment des molécules. En 1953, quelques années avant le
premier laser, Charles Townes parvient à fabriquer une
machine permettant d’amplifier des micro-ondes à partir
d’ammoniac qu’il nomme maser (m pour microwave).
L’ammoniac est une molécule pyramidale constituée d’un
atome d’azote et de 3 atomes d’hydrogène. L’azote est au
sommet, et les 3 hydrogènes reliés à lui forment la base, mais
cette pyramide peut s’inverser comme un parapluie, et ce
plusieurs milliards de fois par seconde.
Dans certaines conditions, les deux configurations de la
pyramide possèdent des énergies différentes, et le passage
de l’une vers l’autre s’accompagne de l’émission d’un photon
dans le domaine des micro-ondes. L’émission stimulée peut
alors être utilisée pour amplifier ce photon. Cette découverte
vaut à Townes le prix Nobel de physique en 1964 et l’honneur
d’avoir son idée reprise dans la conception du laser, mais ne
déclenche pas le succès commercial prédit par son créateur.
Laser à tout faire
Apparu dans les années 1960, le laser est aujourd’hui devenu
incontournable. Du lecteur CD à la fibre optique, du découpage de pièces
métalliques aux mesures de distance, de l’épilation à la chirurgie… La
diversité de ses applications industrielles et son faible coût le rendent
aujourd’hui omniprésent. Le laser est tout aussi crucial dans la recherche
scientifique. Poussez la porte d’un laboratoire de physique quantique et
vous tomberez probablement sur un jeune doctorant s’appliquant à guider
un faisceau laser à travers un labyrinthe de miroirs (voir la photo ci-après)...
Pourquoi le laser est-il aussi indispensable ?
D’abord, parce qu’il permet de produire une lumière très « pure ». La
plupart des sources lumineuses naturelles émettent de la lumière sur une
large plage de fréquences : la lumière blanche, comme celle du Soleil, est
constituée d’un mélange de toutes les couleurs visibles, qui se révèlent lors
des arcs-en-ciel. En reprenant notre analogie du son, cette lumière
correspond à la cacophonie que l’on entend si l’on joue toutes les notes du
piano en même temps. À l’inverse, un laser est comme un diapason ne
pouvant donner qu’un la très pur.
Laser vert servant à une expérience de téléportation quantique (voir chapitre 7).
Source : Laboratoire Kastler Brossel
CULTURE
Pourra-t-on un jour fabriquer des sabres lasers, comme dans
Star Wars ? Sur le papier, l’idée n’est pas si farfelue : des
lasers très puissants sont déjà utilisés en tant qu’armes de
longue portée sur certains navires de guerre. Mais pour
réussir à faire fondre une porte métallique d’un mètre
d’épaisseur en quelques secondes, comme le fait Qui-Gon
Jinn dans La Menace fantôme (1999), il faudrait une puissance
d’un milliard de watts, soit celle d’un réacteur nucléaire
actuel… Nous sommes bien loin du record détenu par les
meilleurs lasers actuels, qui est de 1 000 watts environ.
Le deuxième grand avantage du laser est qu’il est extrêmement directif :
son faisceau est très droit, et peut rester étroit sur de longues distances. Ce
n’est pas non plus le cas des sources lumineuses habituelles : une lampe
de chevet éclaire un large cône de manière diffuse – c’est le but recherché.
Le faisceau d’une lampe torche ne s’agrandit que de quelques centimètres
pour chaque mètre parcouru, mais dans le cas d’un laser dernier cri, cette
divergence peut descendre à moins d’un millimètre par kilomètre
parcouru. D’où son utilisation en tant que pointeur sur des armes à feu de
précision par exemple.
Troisième avantage, qui découle de cette faible divergence : un faisceau
laser peut parcourir des distances phénoménales avant de s’atténuer.
Même les petits lasers de poche vendus au pied de la tour Eiffel ont une
portée d’une centaine de mètres ! Avec des lasers plus avancés, on peut
envoyer un rayon parcourir un aller-retour Terre-Lune, pour mesurer avec
précision la distance qui nous sépare de notre satellite. Malgré les trois
cent mille kilomètres de distance, le faisceau laser ne mesure qu’une
centaine de mètres de diamètre en arrivant sur l’astre. Il est ensuite réfléchi
grâce à des miroirs qui ont été disposés sur sa surface lors des missions
Apollo. En chronométrant la durée de l’aller-retour, de l’ordre de deux
secondes, les chercheurs de l’Observatoire de la Côte d’Azur sont
parvenus à obtenir des mesures de distance précises au millimètre près.
DES P’TITS TROUS,
TOUJOURS DES P’TITS
TROUS
Malgré leur apparence très lisse, les DVD sont gravés d’une
myriade de trous micrométriques qui encodent l’information.
Là où le relief d’un disque vinyle est lu par une pointe en
diamant qui abîme le disque à chaque passage (d’où les
craquements du son qui plaisent tant aux collectionneurs),
celui du DVD est détecté par un faisceau laser qui s’y réfléchit.
Grâce à la précision du laser, le relief peut être bien plus fin
que sur un vinyle, permettant de stocker plus d’informations.
Seulement, il existe une limite à cette miniaturisation : lorsque
les trous deviennent aussi petits que la longueur d’onde du
laser, ils se mettent à diffracter la lumière dans tous les sens,
comme les fentes de Young (voir chapitre 2). Comment éviter
cet effet indésirable ? Une possibilité est de réduire la
longueur d’onde de la lumière : c’est ce qui a été mis en place
avec les lecteurs Blu-Ray, qui utilisent un laser bleu à la place
du laser rouge des lecteurs DVD. Résultat : on peut y stocker
des films en meilleure qualité, jusqu’à 5 fois plus volumineux !
À l’écoute de l’Univers
Mesurer la distance Terre-Lune au millimètre près est déjà un exploit
remarquable. Mais le laser a permis de faire beaucoup mieux encore.
En 2015, des chercheurs de la collaboration internationale LIGO 1 ont
pulvérisé tous les records de précision, à l’aide d’un des instruments les
plus imposants qui aient été construits pour la science : un
interféromètre géant basé aux États-Unis. Le but de ce mastodonte :
détecter des ondes gravitationnelles, soubresauts de l’espace-temps
issus de lointaines collisions de trous noirs.
L'observatoire LIGO possède deux sites aux États-Unis. Ci-dessus, les deux bras de l'interféromètre
situé à Livingstone en Louisiane.
Source : Caltech/MIT/LIGO
Ces ondes très particulières, prédites en 1916 par l’irremplaçable Einstein,
ont le pouvoir d’étirer et de contracter les objets qu’elles traversent. Elles
sont créées par le mouvement de masses gigantesques dans le cosmos et
se propagent dans le vide à la vitesse de la lumière. Pour les « entendre »
sur Terre, l’interféromètre géant est équipé de deux immenses bras
perpendiculaires, de longueur strictement égale.
Lors du passage de l’onde sur Terre, la longueur de chaque bras oscille
légèrement, un peu comme la distance entre deux bouées sur la mer qui
augmente puis diminue au passage d’une vague. Pour détecter cette
oscillation, on envoie un faisceau laser parcourir un aller-retour dans
chaque bras, et l’on mesure une éventuelle différence de temps de
parcours entre les deux chemins, qui se manifeste par l’apparition de
franges d’interférence au niveau d’un détecteur (voir schéma).
L’immense défi technique réside dans l’extrême discrétion de ces ondes.
Sur les 4 kilomètres que mesurent les bras de l’interféromètre, la différence
de longueur induite par l’onde gravitationnelle n’est que d’un milliardième
de nanomètre. La précision requise pour mesurer cette différence revient à
mesurer la distance Terre-Soleil au nanomètre près ! Comment a-t-on pu
parvenir à une telle prouesse ?
Plusieurs astuces sont en jeu. D’abord, il faut débarrasser le trajet du
faisceau laser de toute nuisance possible. Pour cela, il faut éliminer tous les
atomes susceptibles d’entraver son parcours ; les bras de l’interféromètre
sont en réalité d’immenses tubes à vide. Ensuite, il faut supprimer toute
source de bruit : un simple tracteur situé à quelques kilomètres de
l’appareil est suffisamment bruyant pour perturber la mesure. Pour cela, on
équipe les bras de puissants stabilisateurs, tandis que les miroirs sont
suspendus à d’immenses pendules servant à absorber les vibrations.
Enfin, pour accroître la sensibilité de la machine, il faut des bras aussi
longs que possible. Pour allonger le parcours de la lumière sans avoir à
étendre les bras au-delà de leurs 4 kilomètres déjà très encombrants, on les
équipe de sortes de pièges à photons – des paires de miroirs forçant la
lumière à rebondir un grand nombre de fois avant de s’échapper. Grâce à
ce dispositif, le faisceau laser parcourt en réalité douze mille kilomètres,
soit un aller-retour Paris-New York !
Au-delà de valider la théorie de la relativité et prouver l’existence des trous
noirs, les ondes gravitationnelles ont ouvert l’astronomie à un tout
nouveau champ d’études. En plus d’observer la lumière des astres pour
analyser le ciel, nous pouvons désormais les écouter grâce à ces ondes
d’un genre nouveau. Celles-ci pourraient nous permettre de remonter aux
ères ténébreuses de l’Univers primordial afin de percer les mystères du Big
Bang.
TOUJOURS PLUS
GRAND
Prévue pour 2032, la mission spatiale LISA 2 a de quoi faire
rêver les amateurs de science-fiction. Le pari : envoyer un
interféromètre géant dans l’espace. Bien sûr, il est impossible
d’y envoyer un objet aussi grand que les interféromètres
terrestres de LIGO.
Par chance, les tubes à vide dont leurs bras sont formés ne
sont plus nécessaires dans l’espace, qui est déjà vide par
nature. Ainsi, l’interféromètre spatial consistera en trois petits
satellites en orbite autour du Soleil qui s’envoient en
permanence un rayon laser, formant un gigantesque triangle
dont les bras mesureront quelque 2 millions de kilomètres.
Viser une cible de quelques mètres à une telle distance, voilà
un exploit qui ferait pâlir d’envie un tireur d’élite !
Résumé du concept :
l’émission de la lumière
Les atomes ne peuvent se trouver que dans un nombre fini d’états,
appelés niveaux d’énergie, analogues aux frettes d’une guitare.
Pour grimper ou descendre d’un niveau, l’atome doit absorber ou
émettre un photon, c’est-à-dire un grain de lumière. C’est selon ce
mécanisme d’émission spontanée, aléatoire et omnidirectionnel,
que fonctionnent par exemple les lampes de chevet.
Les lasers exploitent un procédé plus complexe : l’émission stimulée,
qui permet aux photons de former des « troupeaux » ordonnés. Les
faisceaux lasers sont ainsi très précis et peuvent se propager très
loin sans être atténués, d’où leur utilisation dans de nombreux
objets du quotidien et dans l’industrie.
1. Acronyme anglais de « Observatoire d’ondes gravitationnelles par laser ».
2. Laser Interferometer Space Antenna.
En 2013, le géant de l’informatique IBM présente un courtmétrage d’une minute intitulé A boy and his atom. On y voit un
garçon jouer à la baballe puis sauter sur un trampoline, le tout
en stop motion. Rien de bien passionnant, si ce n’est que le
studio dans lequel a été tournée la scène mesure… une centaine
de nanomètres !
Cet exploit insolite valut à la firme le record du plus petit film de
l’histoire. Mais là n’était bien sûr pas le seul intérêt : il s’agissait
surtout de vanter leurs prouesses techniques, dans une course à
la miniaturisation des circuits électroniques qui touche aux
confins du monde quantique. Quant à la caméra utilisée, elle
exploite l’un des phénomènes les plus étonnants de la physique
quantique : l’effet tunnel.
L’influence du regard
En juillet 2020, une étude publiée dans le New York Times constate une
anomalie statistique flagrante dans les matchs de football de la
Bundesliga, première division allemande. Alors que chaque année, le taux
de victoire des équipes jouant devant leur public tourne autour de 43 %,
celui-ci a chuté brutalement à 33 % en 2020. L’explication semble claire :
l’avantage que procure le soutien du public a disparu en 2020 en raison
des matchs disputés à huis clos liés à la pandémie de Covid-19. L’ampleur
du phénomène est néanmoins surprenante, et ne concerne pas que les
taux de victoires mais aussi le nombre de tirs, de dribbles, de cartons
rouges…
Au football, le public n’est pas simple spectateur : il influe activement sur
le déroulement de la partie. C’est l’une des raisons pour lesquelles les
supporters aiment s’amasser dans des tribunes avec peu de visibilité,
plutôt que regarder le match confortablement depuis leur canapé. La
même chose s’applique au théâtre, où les comédiens peuvent réagir à
l’attitude du public. Dans le monde vivant, le spectateur est toujours partie
prenante de ce qu’il observe.
Les physiciens ont longtemps ignoré cette règle. Pour décrire le monde, ils
doivent généralement effectuer des hypothèses simplificatrices. L’une
d’elles est de considérer que les propriétés des objets sont définies de
manière absolue : l’observation ne fait que les relever, sans les affecter.
Cette hypothèse paraît tout à fait raisonnable : une pomme tombe à la
même vitesse, qu’on la regarde tomber ou non. Pourtant, elle ne s’applique
plus dans le monde des atomes…
Électrons farceurs
Revenons à l’expérience des fentes de Young, qui consiste à faire passer
des photons à travers un obstacle percé de deux fentes, pour les observer
ensuite sur un écran. Mais cette fois, remplaçons ces grains de lumière par
des grains de matière – des électrons, par exemple. Si l’on imagine ces
derniers comme de minuscules balles de tennis, on s’attend à observer, sur
l’écran, des impacts dessinant la forme des fentes. À nouveau, il n’en est
rien.
En se heurtant à l’écran, les électrons construisent petit à petit une série de
franges verticales, exactement comme le faisaient les grains de lumière
(figure de gauche). Tout se passe comme si les électrons, eux aussi, avaient
le don de traverser les deux fentes à la fois…
Essayons de vérifier par quelle fente l’électron passe en plaçant un
détecteur devant chacune d’entre elles – contrairement aux photons, il est
possible de « flasher » les électrons comme des voitures sur l’autoroute,
sans les détruire. Le résultat de l’expérience a de quoi surprendre. Dès que
l’on active les détecteurs, ils révèlent la fente qu’empruntent les électrons :
les détecteurs de gauche et de droite s’allument dans des proportions
égales, mais un seul à la fois. Cependant, les électrons cessent de se
répartir selon des franges sur l’écran, laissant place à la forme projetée des
fentes (figure de droite) !
Quelque chose de complètement insensé semble se passer : lorsque l’on
cherche à détecter par quelle fente l’électron passe, il cesse de se
comporter comme une onde : ses propriétés ondulatoires disparaissent
dès que l’on essaye de les observer ! La complémentarité onde-particule
évoquée au chapitre 2 s’applique donc également à la matière…
Ainsi, dans les expériences de physique quantique comme dans des
matchs de football, l’observateur influe sur le système. Attention
cependant aux mauvaises interprétations : il est tentant d’imaginer que
l’électron « se sent observé », comme le footballeur. Ici, le changement de
comportement n’est pas dû à la psychologie de l’électron, mais plutôt à sa
fragilité : on ne peut le mesurer sans le perturber d’une manière ou d’une
autre, et modifier son comportement.
RÉÉCRIRE LE PASSÉ
La présence de détecteurs avant les fentes semble forcer
l’électron à se comporter comme une particule, et à traverser
une seule des fentes. Vous pourriez cependant suggérer de
placer les détecteurs après les fentes plutôt qu’avant, pour
être sûr que l’électron ne soit pas encore affecté par la mesure
au moment de les traverser. Mais le résultat est strictement le
même : les franges d’interférence disparaissent ! La fente par
laquelle passe l’électron semble être choisie après sa
traversée.
En 1988, une équipe américaine décide d’aller plus loin
encore, et de fabriquer une gomme quantique, dispositif
permettant de brouiller l’information collectée par les
détecteurs, de telle sorte qu’il soit impossible de lire la
mesure. Lorsque l’on met en marche la gomme, les franges
lumineuses réapparaissent par miracle – comme si le choix de
la fente était annulé a posteriori ! S’il n’y a pas encore de
consensus sur l’interprétation de cette « machine à réécrire le
passé », la prudence est de mise face aux titres accrocheurs
qui peuvent circuler dans les médias.
Les ondes de matière
La physique quantique a d’abord révélé la nature duelle de la lumière :
longtemps considérée comme une onde, elle peut en réalité se matérialiser
sous la forme d’une particule, le photon. L’expérience précédente montre
que la même chose s’applique aux particules de matière comme l’électron :
capables de traverser les deux fentes simultanément, elles possèdent ce
même caractère ambivalent.
Au début des années 1920, Louis de Broglie émet l’idée qu’à chaque objet
matériel est associée une onde de matière. L’électron serait porté par cette
onde un peu comme un surfeur sur une vague. Or, nous avons vu qu’une
vague interfère avec elle-même lorsqu’elle traverse les fentes. Ainsi, les
électrons reproduiraient la figure d’interférence de l’onde qui les porte.
Doit-on en déduire que tous les objets qui nous entourent sont des ondes ?
Vraisemblablement, non : une balle de tennis ne peut traverser deux fentes
accolées simultanément. Et pour cause : plus un objet est grand, plus sa
longueur d’onde quantique est petite, et moins son caractère ondulatoire
peut se manifester.
Pour que l’expérience des fentes de Young fonctionne, il faut qu’il y ait
diffraction au niveau des fentes. Comme nous l’avons vu avec les lecteurs
DVD (voir encadré ici), ceci n’est possible que si la largeur des fentes est
de taille comparable à la longueur d’onde. La longueur d’onde quantique
de l’électron ne mesure déjà que quelques nanomètres : fabriquer des
fentes de cette largeur est difficile, mais faisable. Pour les objets de la vie
courante comme les balles de tennis, la longueur d’onde quantique est des
milliards de fois plus petite, ce qui exclut tout phénomène de diffraction.
Néanmoins, à défaut de balles de tennis, des physiciens sont parvenus à
faire interférer des fullerènes en 1999, grosses molécules en forme de
ballons de football formés de 60 atomes de carbone. En 2020, c’est au tour
de petites protéines de franchir les fentes de Young avec succès. Petit à
petit, au rythme des progrès techniques, le monde quantique s’agrandit…
Prédire l’imprévisible
Quelques années après de Broglie, Erwin Schrödinger s’empare du
problème des ondes de matière, et s’affranchit totalement de la notion de
particule. Il décrit l’électron à l’aide d’une onde de probabilité, appelée la
fonction d’onde, qui indique les endroits où l’électron peut se trouver.
Mesurer la position de l’électron revient en quelque sorte à lancer un dé :
la probabilité de trouver l’électron en un endroit 1 de l’espace est donnée
par la valeur de la fonction d’onde à cet endroit. Cela vous rappelle
quelque chose ? Les orbitales atomiques rencontrées dans le chapitre 1
sont en fait les fonctions d’onde des électrons liés au noyau.
Cette nature aléatoire de la position de l’électron peut donner l’impression
que la physique quantique est une théorie du flou, où tout est imprévisible
et incontrôlable. Heureusement, la forme et l’évolution de la fonction
d’onde peuvent être parfaitement prédites grâce à l’équation de
Schrödinger, formulée en 1925. Cette dernière est, en quelque sorte,
l’équivalent quantique des lois de Newton, qui permettent de calculer la
trajectoire des objets à notre échelle. La trajectoire d’une particule n’a pas
de sens en physique quantique, puisque sa position est indéterminée ;
néanmoins, l’équation de Schrödinger permet de calculer la trajectoire de
la fonction d’onde, comme on prédit le mouvement d’une vague sur la mer
(voir image ci-dessous).
Insistons : cette équation ne donne pas accès au parcours réel de l’électron.
Elle permet de prédire la probabilité que celui-ci apparaisse en un endroit
donné, lorsque l’on mesure sa position ; et ce à chaque instant. Le résultat
de la mesure reste purement aléatoire. Néanmoins, connaître les
probabilités d’un phénomène aléatoire est crucial : un joueur de poker qui
connaît les probabilités de chaque main peut perdre quelques parties face
à un débutant, mais finira toujours par gagner sur le long terme…
L’équation de Schrödinger est donc un outil formidable, notamment pour
les chimistes qui doivent prédire la manière dont les particules quantiques
réagissent entre elles.
Taisez-vous et calculez !
L’équation de Schrödinger est un succès considérable : elle nous permet
de reprendre en partie la main sur cet indomptable hasard quantique. En
revanche, elle laisse une question fondamentale en suspens : que se passet-il avant la mesure ? La position de la particule est-elle déterminée, mais
simplement inconnue par l’observateur, ou est-elle réellement
indéterminée ?
L’interprétation dominante de nos jours est celle de l’école de
Copenhague, dont sont issus divers pionniers de la mécanique quantique
comme Niels Bohr. Elle considère que les propriétés physiques des objets
sont véritablement indéterminées avant la mesure, et sont subitement
choisies, de manière purement aléatoire, quand un expérimentateur
cherche à les mesurer. On résume souvent cette vision par la maxime
suivante, assez prosaïque : « Taisez-vous et calculez. » Puisque la théorie
quantique prédit parfaitement les observations réalisées, pourquoi
s’entêter à chercher à comprendre ce qui n’est de toute façon pas
observable ? Pour les adeptes de cette interprétation, c’est une question à
laisser aux philosophes.
Cet avis n’est pas partagé par tous. Pour souligner l’invraisemblance de
cette indétermination quantique, Schrödinger imagina en 1935 une
expérience de pensée mettant en scène un chat enfermé dans une boîte
opaque dans laquelle se trouve une fiole de poison. Imaginons que dans
l’expérience des fentes de Young, le poison soit libéré lorsque la particule
passe par la fente de droite, et conservé dans la fiole dans le cas contraire.
Puisque la particule traverse les deux fentes à la fois, peut-on dire que le
chat est à la fois vivant et mort ? Pour Schrödinger, c’est un non-sens, un
chat étant soit vivant soit mort. Puisque l’indétermination quantique mène
à ce genre de raisonnement, elle est à bannir.
Nous verrons plus tard dans ce livre que ce paradoxe n’en est plus
vraiment un aujourd’hui ; nous savons que les objets à notre échelle,
comme les chats, ne peuvent montrer des propriétés quantiques en raison
d’un phénomène appelé la décohérence. Le chat de Schrödinger n’en reste
pas moins dans l’imaginaire collectif l’emblème par excellence de la
théorie quantique, bien qu’il fût imaginé pour s’en moquer.
Des univers parallèles
Même si l’on accepte que la fonction d’onde représente un état
indéterminé, l’interprétation de Copenhague n’est pas convaincante sur ce
qui se passe au moment de la mesure. La réduction brutale de la fonction
d’onde en un point ne peut pas être décrite par l’équation de Schrödinger –
un problème qui n’est toujours pas véritablement résolu aujourd’hui. En
réponse à cela, diverses interprétations plus ou moins sérieuses ont
proposé une réponse alternative à ce problème de la mesure.
Citons la plus spectaculaire d’entre elles – et probablement la plus
appréciée des férus de science-fiction : celle des mondes multiples.
Proposée par Hugh Everett dans sa thèse en 1957, elle postule que lorsque
l’on mesure un système quantique, on n’observe qu’un résultat, mais tous
les autres résultats possibles se déroulent dans des univers parallèles. À
chaque mesure, ces univers se subdivisent de nouveau, donnant naissance
à un multivers aux ramifications infinies. Dans certains univers, l’électron
passe par la fente de gauche, tandis que dans d’autres, il passe par la fente
de droite. Cette interprétation permet de supprimer le hasard arbitraire de
la mesure, car tous les résultats de la mesure sont obtenus en même temps
– mais dans des « univers » différents. Aussi séduisante que soit cette
théorie, elle a le défaut épistémologique d’être impossible à vérifier.
Nous découvrirons plus tard dans ce livre une autre solution au problème
de la mesure, défendue par Einstein, selon laquelle l’indétermination
n’existe pas : ce serait une illusion, liée à notre ignorance de variables
« cachées » déterminant à l’avance le résultat de la mesure. Pour une fois,
Einstein a eu tort : son interprétation fut rigoureusement invalidée en
laboratoire.
CULTURE
L’interprétation des mondes multiples d’Everett a inspiré de
nombreuses fictions aux scénarios rocambolesques. Ainsi,
dans le film Avengers : Endgame (2019), Tony Stark tente de
réparer une apocalypse en retournant dans le temps.
Seulement, ses actions dans le passé ne se répercutent pas
dans « son » futur, mais dans celui d’un autre monde où le
désastre est évité. Sans vraiment citer la physique quantique,
c’est le même artifice scénaristique qui est utilisé dans XMen : Days of Future Past (2014). Dans un autre registre,
Another Earth (2011) imagine qu’un de ces mondes parallèles
devient soudainement visible aux yeux des humains.
Le passe-muraille quantique
Résumons : la mécanique quantique nous dit que les particules ne sont
pas précisément localisées, mais plutôt étalées sur une zone diffuse décrite
par la fonction d’onde. Cette idée est déjà difficile à accepter, mais la suite
n’en est que plus déroutante.
Imaginons qu’on lance un projectile contre un mur en plâtre. Deux
scénarios sont possibles : soit le projectile franchit le mur, soit il ne le
franchit pas. Une balle de tennis rebondit contre le mur, car elle ne
possède pas assez d’énergie. En revanche, une balle de pistolet traverse le
mur en y laissant un trou béant. Bien sûr, l’épaisseur du mur entre aussi en
compte dans le résultat : s’il mesure trois mètres d’épaisseur, la balle de
pistolet n’a aucune chance de le perforer.
Répétons la même expérience dans le monde quantique, en envoyant un
électron contre un mur nanométrique. Lorsque l’électron a suffisamment
d’énergie, sa fonction d’onde traverse en grande partie le mur, comme la
balle de pistolet, mais une petite partie rebondit et repart en sens inverse.
Concrètement, cela signifie que si l’on cherche à le localiser, l’électron peut
se manifester d’un côté ou l’autre du mur, mais il est plus probable qu’il
traverse le mur.
Plus étonnant encore : que se passe-t-il lorsque l’électron n’a pas
suffisamment d’énergie, comme la balle de tennis ? Dans ce cas, sa
fonction d’onde rebondit en grande partie, mais une petite partie traverse
le mur, tel Harry Potter qui rejoint la voie 9 ¾. C’est ce que l’on appelle
l’effet tunnel.
À nouveau, ce qui est étonnant, c’est la nature indéterminée du monde
quantique : avant la mesure, on ne peut pas dire avec certitude que
l’électron traverse ou rebondit ; plutôt, il traverse et rebondit
simultanément, avec des probabilités connues, dépendant de son énergie
et de l’épaisseur du mur.
LA QUANTIQUE
AU BOUT DES DOIGTS
La physique quantique ne se résume pas qu’aux expériences
de laboratoire ! Figurez-vous que l’on peut observer un effet
tunnel assez facilement chez soi, en se munissant d’un verre
d’eau. Placez votre œil au-dessus du verre, jusqu’à atteindre
une inclinaison telle que la lumière provenant du sol est
réfléchie contre la paroi du verre. Maintenant, appuyez
fermement vos doigts contre le verre : vous y verrez ressortir
assez distinctement votre empreinte digitale.
En pressant vos doigts, vous réduisez l’épaisseur de la couche
d’air qui sépare votre peau du verre. Au niveau des crêtes de
votre empreinte digitale, l’épaisseur de cette couche d’air est
si fine que les photons la traversent par effet tunnel. Ils sont
ainsi absorbés par vos doigts, plutôt que de rebondir contre le
verre et parvenir à vos yeux. Résultat, ces crêtes apparaissent
plus foncées. C’est sur un phénomène similaire que reposent
certains lecteurs d’empreintes digitales.
Tourner un film
nanométrique
L’effet tunnel est partout autour de nous : il est mis en jeu dans de
nombreux composants électroniques, comme les transistors qui
composent les microprocesseurs. C’est aussi lui qui est responsable de la
radioactivité alpha, qui a lieu lorsqu’un noyau atomique trop lourd se
décharge de quelques protons et neutrons en libérant un noyau d’hélium.
Ce dernier, initialement piégé au cœur du noyau volumineux, parvient à
s’en extirper grâce à l’effet tunnel.
Image du film A boy and his atom (2013) d'IBM. Chaque bille correspond à un atome d'oxygène.
Source : IBM
La vidéo nanoscopique dont nous avons parlé dans l’introduction, A boy
and his atom, a été filmée grâce à un microscope à effet tunnel, l’un des
outils les plus performants dont on dispose actuellement pour scruter
l’infiniment petit. Ne vous attendez pas à un film en couleur ; ce genre de
microscope ne permet pas à proprement parler de voir les atomes, mais
plutôt de les sentir. L’idée est de construire une carte en relief de la surface
à étudier, à la manière d’une personne aveugle qui la parcourt de ses
doigts pour s’en faire une image mentale.
Faute de doigts assez précis, on utilise ici une pointe métallique
extrêmement fine qui se déplace au-dessus de l’échantillon à observer.
Hors de question, ici, de toucher la surface : cela détruirait la pointe. Il faut
donc en permanence maintenir une couche d’air entre les deux.
Néanmoins, la pointe parvient à ressentir la présence des atomes : étant
chargée électriquement, elle attire leurs électrons (voir schéma). Si la
couche d’air est suffisamment fine, les électrons peuvent la traverser par
effet tunnel, ce qui produit un courant électrique. Plus la pointe est
éloignée, plus le courant électrique qu’elle reçoit est faible, ce qui permet
de déterminer très précisément la hauteur de la surface en chaque point.
Ce n’est pas tout : dans la vidéo d’IBM, les atomes ont été déplacés d’une
image à la suivante grâce à cette même pointe métallique. En jouant sur sa
charge électrique, on peut s’en servir comme d’une pince minuscule,
permettant d’attraper des atomes individuellement pour les déposer où
l’on veut. Cette vidéo résume assez bien les applications d’un tel
microscope, qui peut être utilisé à la fois pour scruter et manipuler
l’infiniment petit. Tout cela grâce au don de passe-muraille des particules
quantiques.
LE PETIT GRAND PRIX
En avril 2017, un Grand Prix d’un genre nouveau s’est tenu à
Toulouse : la NanoCar Race. Cinq prestigieuses écuries des
quatre coins du globe se sont réunies sur un circuit construit
en or, pourvu de deux chicanes et mesurant l’inédite distance
de… 133 nanomètres ! Le public était peu nombreux ce jour-là,
vraisemblablement en raison des températures peu clémentes
(−269 degrés Celsius).
Source : NanoCar Race
En guise de bolides, de petites molécules propulsées par effet
tunnel, capables d’atteindre des vitesses de 100 nanomètres
par heure (soit moins d’un millimètre par an !). Les participants
connurent quelques déboires : la voiture américaine fit demitour sans explication après 20 nanomètres, l’équipe
allemande détruisit deux de ses véhicules… Quant au fleuron
français, le Toulouse Nanomobile Club, il perdit trace de son
carrosse au beau milieu de la course, et fut contraint à
l’abandon. Il put néanmoins se consoler du prix de la voiture la
plus élégante du circuit (voir figure ici).
Résumé du concept :
la fonction d’onde
Les particules quantiques, que l’on imagine comme des grains, ne
sont pas précisément localisées dans l’espace. Elles sont décrites
par une onde indiquant leur probabilité de se trouver en tel ou tel
lieu, et dont l’évolution est régie par l’équation de Schrödinger.
Cette délocalisation leur permet de traverser des obstacles en
principe infranchissables par effet tunnel, un phénomène mis à
profit dans de nombreux composants électroniques. Cependant,
cette indétermination continue d’alimenter de vifs débats autour de
l’interprétation physique de la mécanique quantique, illustrés par
l’allégorie du chat de Schrödinger.
1. C’est en réalité le carré de la fonction d’onde qui donne la probabilité de présence. C’est
Max Born qui le réalise en 1925, donnant un véritable sens physique à cette fonction
mathématique qui apparaissait naturellement dans les calculs de Schrödinger.
À l’époque où les téléphones fixes étaient monnaie courante, il
n’était pas rare d’entendre de petits malins décrocher le combiné
de la pièce voisine pour écouter la conversation. Heureusement,
leur respiration ou le bruit ambiant permettait souvent de les
déceler… Ce n’est pas le cas de certaines méthodes d’espionnage,
qui peuvent mettre des communications sous écoute sans
laisser de trace.
La cryptographie, science du secret, a joué un rôle fondamental
pendant les guerres mondiales et est devenue un domaine de
recherche majeur depuis. Dans les années 1980, alors que le
monde entrait dans l’ère ultra-connectée, on s’est aperçu que les
lois étranges de la physique quantique pouvaient mettre en péril
des méthodes de cryptographie jusqu’alors réputées inviolables.
Peu à peu, l’idée d’utiliser des algorithmes de chiffrage
quantique pour répondre à cette menace a fait son chemin…
Jouer aux espions
Vous êtes-vous déjà demandé pourquoi personne n’a encore réussi à
s’emparer de votre numéro de carte bancaire, pourtant enregistré sur
nombre de sites Internet ? Heureusement pour nous, les pages web
manipulant nos informations sensibles sont hautement sécurisées. Les
éventuels hackers cherchant à y accéder se retrouveront face à du
charabia, car les données sont chiffrées.
Pour déchiffrer, il faut d’une manière ou d’une autre « casser un code
secret ». Contrairement à ce que montrent les films hollywoodiens, il ne
suffit pas de pianoter une minute sur un clavier et laisser défiler des
chiffres sur l’écran pour y arriver : soixante années de recherche en
cryptographie ont rendu ce travail bien plus complexe. Il existe désormais
beaucoup de moyens de chiffrer un message. Pour donner quelques
exemples concrets, laissons la place à Arthur et Bertille, deux amis
d’enfance qui jouent depuis leur plus jeune âge à s’envoyer des messages
secrets.
Une méthode très simple, qu’ils utilisaient quand ils étaient enfants, est de
créer une clé de chiffrage en associant chaque lettre à une autre. Cette clé
est une petite feuille de papier avec les règles suivantes : A→W, B→J,
C→E, etc. Pour envoyer un message secret à Bertille, Arthur doit au
préalable lui transmettre une copie de la clé par voie postale. Il lui suffit
ensuite de chiffrer ses messages à l’aide de la clé et Bertille pourra les
déchiffrer en l’utilisant en sens inverse (W→A, J→B, E→C, etc.). On parle
de chiffrage symétrique, car la même clé est utilisée pour le chiffrage et
le déchiffrage. Le grand défaut de cette méthode est que si un espion
parvient à intercepter la lettre contenant la clé, il pourra lire tous les
messages sans que ni Arthur ni Bertille ne s’en aperçoivent.
LA GUERRE
DES SECRETS
La clé de chiffrement utilisée par Arthur est Bertille est assez
basique, et peut être devinée assez facilement en interceptant
suffisamment de messages. Par exemple, si la lettre « K »
revient souvent, on peut supposer qu’elle est associée à la
lettre « E »… Pour chiffrer ses communications militaires,
l’armée nazie utilisait un système bien plus complexe : une
sorte de machine à écrire à double clavier baptisée Enigma.
L’appareil de chiffrage Enigma, muni de ses deux claviers.
Source : Wikimedia Commons
À chaque lettre tapée sur le premier clavier, une autre lettre
s’allume sur le second. La force de cette machine réside dans
un ingénieux système de rouages qui change en permanence
la règle de chiffrage : en tapant la même lettre deux fois
d’affilée, on voit deux lettres différentes s’allumer. Cependant,
le mathématicien anglais Alan Turing remarqua une faille dans
la machine : une lettre ne s’allume jamais elle-même, ce qui
dévoile des informations sur la clé. En se basant sur cela, il
parvint à fabriquer une imposante machine permettant de
déchiffrer les codes nazis. Son rôle crucial dans la victoire des
Alliés fut cependant gardé secret par les autorités britanniques
jusque dans les années 1970, bien après sa mort.
Un chiffrage clé en main
Pour remédier aux défauts du chiffrage symétrique, la grande majorité des
échanges sur Internet reposent sur des méthodes de chiffrage
asymétrique, qui consistent à se munir non pas d’une, mais de deux clés :
une pour le chiffrage, l’autre pour le déchiffrage. Une fois adultes, Arthur et
Bertille ont mis en place ce système. Avant qu’Arthur puisse lui
transmettre un message, Bertille doit d’abord fabriquer les deux clés. Elle
garde la clé de déchiffrage, dite clé privée, et envoie la clé de chiffrage,
dite clé publique, à Arthur. Arthur chiffre son message avec la clé
publique, puis l’envoie à Bertille qui pourra la déchiffrer avec sa clé privée.
Cette fois, si un espion réussit à capter l’enveloppe contenant la clé
publique, il ne sera pas bien avancé : la clé permet seulement de chiffrer, et
pas de déchiffrer ! Nos deux protagonistes sont donc, en principe, à l’abri
des regards.
Hélas, ce protocole a lui aussi une faille : les deux clés sont fabriquées
ensemble, et ne sont en fait pas indépendantes. La clé publique porte en
elle une trace du procédé de fabrication, à partir de laquelle il est, en
théorie, possible de deviner la clé privée. Heureusement pour nos données
bancaires, cette trace est quasiment illisible. Pour deviner la clé privée à
partir des clés publiques utilisées de nos jours, il faudrait résoudre un
problème mathématique extrêmement difficile, insoluble avec nos
ordinateurs actuels. La confidentialité est donc a priori assurée.
UN CASSE-TÊTE
DE PREMIER ORDRE
Inventé en 1977, le chiffrement RSA est encore aujourd’hui le
protocole de chiffrement asymétrique le plus répandu. Les
clés publiques et privées y sont représentées par deux
nombres entiers très grands. Pour accéder à la clé privée,
l’espion doit réussir à « décomposer la clé publique en produit
de facteurs premiers ». Détaillons brièvement ce que cela
signifie.
Un nombre premier est un nombre qui ne peut pas être écrit
comme produit d’autres entiers. Par exemple, 15 n’est pas
premier, car 15 = 3 × 5. Mais 3 l’est, ainsi que 5. Tous les
nombres peuvent en fait s’écrire comme un produit de
nombres premiers. La tâche, en apparence simple, de trouver
cette décomposition est en fait très fastidieuse : il n’existe pas
d’algorithme efficace pour y parvenir. Le meilleur ordinateur
actuel mettra quelques milliardièmes de seconde à factoriser
15 en 3 × 5, mais 1 h 30 pour un nombre de 100 chiffres, et plus
de 2500 ans pour un nombre de 250 chiffres ! Le chiffrement
RSA utilise généralement des clés d’au moins 615 chiffres, ce
qui assure largement notre sécurité.
La quantique,
poison et remède
À l’heure actuelle, la confidentialité de la plupart des données sensibles
repose sur la difficulté des ordinateurs à résoudre certains problèmes
mathématiques comme la factorisation en nombres premiers. Que se
passerait-il si l’on parvenait à fabriquer un ordinateur d’un genre nouveau,
capable de résoudre ces problèmes sans difficulté ? La sécurité des
données bancaires, médicales, gouvernementales ou encore militaires
serait instantanément mise en péril à l’échelle mondiale !
Cette crainte devint bien réelle dès les années 1980 avec l’apparition de
l’informatique quantique. Fer de lance actuel des technologies quantiques
et objet d’un prochain chapitre, l’ordinateur quantique serait, en théorie,
capable de résoudre des problèmes insolubles avec nos technologies
actuelles. Il apparut donc nécessaire de trouver de nouvelles solutions
pour chiffrer les données, et vite. D’autant plus qu’un hacker malveillant
pourrait très bien collecter des données chiffrées dès maintenant, en
attendant d’avoir un ordinateur quantique qui lui permette de les
déchiffrer !
En réponse à cette menace, le domaine de la cryptographie quantique
s’est rapidement développé ces mêmes années, dans l’espoir d’utiliser la
physique quantique pour trouver des algorithmes de chiffrement
véritablement inviolables. Avec lui, la promesse de se protéger de
l’ordinateur quantique, mais aussi de développer de nouvelles méthodes
de communication encore plus sûres, détectant automatiquement la
présence d’espions !
L’idée de base est de revenir à des algorithmes de chiffrement symétrique,
utilisant une seule clé. Tout l’enjeu réside donc dans l’étape de
transmission de la clé : il faut pouvoir s’assurer que personne n’y ait accès
à notre insu. C’est ici qu’intervient de manière providentielle l’une des
propriétés les plus remarquables du monde quantique : lorsqu’on l’observe,
on le modifie. Repensez à l’électron du chapitre précédent : son
comportement change du tout au tout lorsque l’on cherche à le détecter !
Imaginez donc transmettre, en guise de clé de chiffrement, un système
quantique (par exemple un électron). Si un espion l’intercepte et l’observe,
le système quantique sera modifié : l’espion laisse inévitablement une
trace de son passage ! Pour comprendre les choses plus en détail, prenons
le temps d’introduire une propriété célèbre des objets quantiques que nous
avons déjà rencontrée plusieurs fois au détour de ces pages, sans jamais la
nommer.
UN THÉORÈME
À DOUBLE TRANCHANT
Le lecteur perspicace pourrait proposer que l’espion effectue
une copie du système, puis mesure son exemplaire pour
laisser l’original vierge. Seulement, c’est interdit par les lois de
la physique quantique : il est impossible de reproduire un
système quantique inconnu à l’identique. Pour cela, il faudrait
connaître son état ; mais en le mesurant, on modifie le
système !
Ce théorème de non-clonage assure la fiabilité des protocoles
de cryptographie quantique, mais nous complique la tâche
lorsqu’il s’agit de construire des amplificateurs de signal pour
transmettre de l’information. Il est relié à une loi plus générale
qui stipule que l’information quantique doit toujours être
conservée ; comme le martelait Lavoisier en ce qui concerne
la chimie, rien ne se perd, rien ne se crée, tout se transforme !
À la fois pile et face
Prenez une pièce de monnaie dans votre main et lancez-la. Deux
configurations bien distinctes existent, Pile et Face, et si la pièce n’est pas
truquée, on a autant de chances que la pièce retombe dans votre main sur
Pile que sur Face. Cependant, si l’on vous demandait quel est l’état de la
pièce pendant qu’elle est en l’air, ou même avant le lancer, que répondriezvous ? On pourrait mettre en cause la pertinence de cette question, mais le
physicien, qui aime mettre des étiquettes sur ses systèmes, répondra que la
pièce est en superposition Pile + Face. Cette dénomination traduit l’idée
que l’état n’est pas encore fixé, et que l’on a autant de chances d’obtenir un
état que l’autre à l’issue de la mesure ; mais que signifie ce « + » ?
En ce qui concerne la pièce, Pile + Face signifie en réalité Pile ou Face. La
superposition quantique, elle, est plus subtile. Repensons à l’électron qui
traverse les fentes de Young (voir chapitre 4). Quand on place des
détecteurs devant les fentes, on mesure que l’électron passe à gauche ou à
droite, avec des probabilités égales. Par analogie avec la pièce, on peut
donc écrire que l’état est Gauche + Droite. Seulement ici, la présence
d’interférences sur l’écran traduit le fait que l’électron traverse la fente de
droite et la fente de gauche simultanément. C’est l’interaction entre ces
deux chemins possibles qui donne lieu à des interférences.
Il paraît donc plus rigoureux d’interpréter la superposition quantique
comme un « et », et dire que l’électron passe à droite et à gauche.
Malheureusement, cette interprétation est insuffisante, elle aussi.
Imaginons un photon pouvant se trouver dans une superposition de deux
couleurs, bleu et rouge – ce genre de photon bicolore a été créé en
laboratoire en 2016. En disant que le photon est bleu et rouge à la fois, on
passe à côté de deux informations cruciales qui définissent le système,
illustrées dans la figure :
la probabilité des couleurs (dans la figure, la surface de la sphère
qu’elles recouvrent). Dans l’état Bleu + Rouge, les deux couleurs ont
autant de probabilité de se manifester lors d’une mesure, mais on peut
aussi former un état où le rouge est deux fois plus probable.
l’orientation des couleurs sur la sphère. Cette notion est plus délicate à
décrire, mais déterminante dans la manière dont le photon interagit
avec d’autres systèmes quantiques.
Le résultat de la mesure d’un état superposé ne peut pas être prédit, mais
ces deux grandeurs peuvent être connues, et permettent de prédire ce qui
sera mesuré, en moyenne, sur un grand nombre d’états similaires. Une fois
la mesure réalisée, la superposition est brisée ; si le photon est mesuré
dans l’état Bleu, une seconde mesure donnera le même résultat.
S’il faut retenir une chose, c’est que la superposition est un concept
complexe, sans équivalent dans le monde qui nous entoure. Ni vraiment
ou, ni vraiment et, elle semble échapper à ce que notre langage peut
exprimer.
Démasquer les espions
Un état quantique superposé est un système fragile, qui « choisit » de
manière totalement imprévisible un état et y reste dès qu’on l’observe.
Ainsi, en transmettant des codes sous la forme d’états quantiques
superposés, on peut facilement identifier la présence d’espions, qui se
trahiront en modifiant le message au moment de le lire. Voilà, dans les
grandes lignes, le principe fondamental de la cryptographie quantique.
Les applications commerciales commencent déjà à voir le jour. La menace
des ordinateurs quantiques est prise tellement au sérieux que des pays
comme la Corée du Sud ont déjà amorcé un vaste chantier de sécurisation
de leurs données sensibles via ce genre de méthode : une première
initiative reliant 18 centres gouvernementaux à travers le pays doit voir le
jour dès 2022. Que ce soit pour regrouper des données médicales entre
hôpitaux, échanger des données confidentielles entre ministères ou
organiser des élections ultra-sécurisées, la cryptographie quantique a
vocation à être déployée à grande échelle.
Seul problème : l’échange de systèmes quantiques sur des longues
distances ne peut se dérouler via de simples fibres optiques… Pour y
parvenir, la mise en place d’un « Internet quantique » est nécessaire : ce
sera l’objet du prochain chapitre. Pour les lecteurs qui aimeraient voir à
quoi ressemble concrètement un algorithme de cryptographie quantique
et sont prêts à s’accrocher, nous proposons dans ce qui suit de décortiquer
la plus célèbre méthode de transmission de clé quantique : le
protocole BB84. Si ce n’est pas votre cas, n’hésitez pas à passer directement
à la suite.
CULTURE
Le film Coherence (2013) met en scène un dîner entre amis.
Suite à un événement paranormal, les convives se retrouvent
dédoublés, et rencontrent leurs jumeaux superposés dans un
dîner similaire au leur. Par la suite, les protagonistes doivent
absolument éviter la rupture de la superposition, qui
impliquerait la destruction de l’une des deux réalités.
Une clé inviolable
Le protocole BB84, imaginé en 1984 par les chercheurs Charles Bennett et
Gilles Brassard, a pour but de transmettre une clé de chiffrement de
manière sécurisée. Il met en jeu des photons dont on s’intéresse à la
polarisation. Nul besoin d’entrer dans des détails techniques : imaginez
simplement cette polarisation comme une petite boussole portée par le
photon, qui peut avoir quatre orientations : Nord ↑, Sud ↓, Ouest ← et Est
→.
Pour mesurer la polarisation d’un photon, on dispose de deux détecteurs.
Le premier, noté ↕, mesure l’orientation nord-sud de la polarisation : il
renvoie la valeur 0 si le photon est ↓ et 1 s’il est ↑. Le second, noté ↔,
mesure l’orientation est-ouest, et renvoie 0 si le photon est ← et 1 s’il est
→. Que se passe-t-il si l’on cherche à mesurer un photon → avec le
détecteur ↕ ? Cela revient à se demander si l’Est est plutôt au Nord ou au
Sud : il n’y a pas de réponse évidente. En réalité, lorsqu’un photon est dans
l’état →, il est en superposition ↑ + ↓ : le détecteur ↕ a une chance sur deux
de retourner 0 ou 1.
Retrouvons notre ami Arthur, qui veut transmettre une clé de chiffrement à
Bertille. Pour ce faire, il se munit d’un certain nombre de photons, mettons
5. Pour chacun d’eux, il tire au hasard un détecteur, ↕ ou ↔, mesure la
polarisation du photon et note le résultat obtenu. Ensuite, il envoie les
photons à Bertille, qui fait de même. Pour tous les photons où elle a choisi
le même détecteur qu’Arthur, elle obtient le même résultat. En revanche,
pour ceux où elle a choisi le mauvais détecteur, elle n’a qu’une chance sur
deux d’obtenir le même résultat.
Une fois les mesures réalisées, les deux amis communiquent les détecteurs
qu’ils ont utilisés. Pour être sûrs d’avoir les mêmes résultats, ils ne gardent
que les bits où ils ont choisi le même détecteur (en bleu dans la figure). Les
résultats obtenus leur fournissent une clé de chiffrement de manière
parfaitement sécurisée, qu’ils pourront utiliser par la suite pour chiffrer et
déchiffrer des messages. Dans la figure, cette clé ne comporte que
3 chiffres (101), mais dans les applications réelles elle peut être aussi
longue qu’on le souhaite.
Pour vérifier que personne n’a intercepté leur clé de chiffrement, il suffit
aux deux amis d’en dévoiler la moitié, et de vérifier que les chiffres sont
identiques. En effet, si un espion accède aux photons et cherche à les
mesurer avant qu’ils ne parviennent à Bertille, il se trompera de détecteur
une fois sur deux et modifiera l’état du photon, introduisant des
incohérences. S’il intercepte la liste des détecteurs utilisés après que les
photons ont été envoyés, il ne pourra rien en tirer.
Résumé du concept :
la superposition
En physique quantique, un système peut se retrouver dans une
superposition d’états. Cela signifie que tant qu’on ne le mesure pas,
l’état du système est indéterminé ; lorsqu’on le mesure, l’un des états
possibles est sélectionné.
La cryptographie quantique met à profit la fragilité de la
superposition face à la mesure pour offrir des protocoles ultrasécurisés qui permettent de démasquer automatiquement la
présence d’un éventuel espion.
En 1969, un étudiant de l’Université de Californie envoyait à
Stanford, à 500 kilomètres de là, le tout premier message via un
réseau de communication informatique : le mot « login ». Même
s’il fallut attendre une heure pour que les trois dernières lettres
parviennent à destination, cet événement historique marqua la
naissance d’ARPANET, ancêtre d’Internet. En 2017, le groupe de
Jian-Wei Pan, en Chine, parvenait à envoyer 2 photons
« intriqués » à des laboratoires séparés de 1 400 kilomètres,
grâce à un satellite sur orbite. Ils envoyaient ainsi le premier
« message quantique » sur une longue distance.
L’Internet quantique fait son chemin dans les esprits depuis les
années 1990 et se concrétise grâce à ce genre de tour de force.
Un tel réseau servirait à transmettre de l’information quantique,
que ce soit pour établir des communications ultra-sécurisées ou
pour accéder à distance aux ordinateurs quantiques tant
attendus…
Coïncidence ou corrélation ?
En février 1979, c’est une drôle de rencontre qui a lieu entre James
Springer et James Lewis. Alors âgés de 39 ans, ces deux jumeaux, séparés
à la naissance, prennent conscience des improbables similitudes qui
caractérisent leur parcours de vie.
Tous deux ont grandi avec un frère adoptif appelé Larry et un chien
nommé Toy. Ils ont chacun épousé une femme nommée Linda, puis se
sont remariés avec une Betty. Leur premier fils s’appelle, respectivement,
James Allan et James Alan. Les deux frères étaient policiers, et aimaient
passer leurs vacances sur la même plage de Floride, où ils se rendaient
dans une Chevrolet…
L’hérédité a probablement joué un rôle dans ces coïncidences
invraisemblables, et de nombreuses études ont été menées sur les
jumeaux, rapidement devenus célèbres après leur rencontre. Mais bien
entendu, le hasard est le principal responsable ici ; nulle raison de croire en
une connexion surnaturelle entre les deux hommes.
En physique quantique, les particules aux destins liés sont monnaie
courante, et ce phénomène ne relève pas de la coïncidence. Imaginons
deux pièces de monnaie qu’on lance l’une après l’autre. En notant P pour
Pile et F pour Face, quatre résultats de lancer sont possibles : FF, PP, FP et
PF. Dans la vie de tous les jours, ces quatre résultats ont la même
probabilité de se produire : 1 chance sur 4 pour chacun. Mais dans le
monde quantique, il est possible de fabriquer des pièces truquées, qui ne
donneront que deux résultats parmi les quatre – par exemple, FF ou PP,
mais jamais les deux autres possibilités ! L’état mesuré de la deuxième
pièce est parfaitement corrélé avec l’état de la première. En connaissant le
résultat du premier lancer, on sait à coup sûr ce que donnera le second. On
dira alors que ces pièces sont intriquées.
Le fait que deux quantités aléatoires aient des résultats corrélés n’est pas
rare en soi : le cours de la bourse est influencé par toutes sortes
d’événements conjoncturels. Ce qui est étonnant dans le cas des pièces et
des particules quantiques, c’est que l’on ne voit pas bien comment l’une
peut influer sur l’autre. Pourtant, l’intrication est bien prédite par les
équations de la physique quantique, et fut longtemps décriée par une
partie de la communauté comme un artefact, voire un « bug » de la
théorie.
CINQUANTE NUANCES
D’INTRICATION
Comment peut-on truquer des particules de cette manière ?
Une méthode courante est d’envoyer un photon à travers un
cristal dit non-linéaire, qui le divise en deux photons de
fréquence plus faible (afin que l’énergie du premier soit
conservée). Ces deux jumeaux gardent par la suite un lien
entre eux, à la manière des frères James.
L’intrication, qui n’est rien d’autre qu’une corrélation entre
propriétés quantiques, n’est pas une chose rare : toutes sortes
de systèmes peuvent en fait être intriqués plus ou moins
fortement. Les électrons qui entourent une molécule sont
naturellement intriqués avec les noyaux des atomes, dans la
mesure où la position de ces derniers influe sur la position des
électrons. Pour intriquer artificiellement deux particules, il suffit
généralement de les faire interagir ; cette interaction laissera
une trace, sous la forme d’une corrélation plus ou moins forte
de leurs propriétés.
Des gants télépathiques
Einstein était sceptique à l’égard de l’intrication. Il refusait l’idée qu’un
système quantique puisse instantanément influencer l’état d’un autre,
quelle que soit leur distance. Cela suppose un signal voyageant à vitesse
infinie, en contradiction avec sa théorie de la relativité qui nous enseigne
qu’aucune information ne peut voyager plus vite que la lumière. On
appelle cela le principe de localité : dans un temps court, seuls des objets
suffisamment proches peuvent s’influencer.
Cette contradiction paraît insurmontable à Einstein et le pousse à qualifier
l’intrication d’« action fantôme à distance », soulignant ainsi son
invraisemblance. Pour lui, si corrélation il y a entre deux systèmes, elle
existait forcément avant la mesure. Pour défendre son point de vue, il
publie en 1935, épaulé de ses deux assistants, Boris Podolsky et Nathan
Rosen, une expérience de pensée qui porte aujourd’hui le nom de
paradoxe EPR, des initiales des trois auteurs.
On peut résumer l’idée ainsi : vous achetez une paire de gants et décidez
d’envoyer le gant gauche à votre père, vivant à Sydney, et le gant droit à
votre mère, vivant à New York. Avant d’ouvrir le colis, votre père ne sait
pas quel gant il a reçu. Mais au moment où il ouvre le colis et y trouve le
gant gauche, il sait que votre mère a reçu le gant droit, et inversement.
Comme pour les pièces, la corrélation est parfaite.
Pour Einstein, la corrélation entre les propriétés des particules quantiques
est analogue à celle des gants : elle provient simplement de la manière
dont les systèmes ont été préparés. Cette corrélation est cachée avant la
mesure, mais bel et bien là depuis le début : la mesure ne fait que la révéler
à nos yeux. Einstein propose donc l’existence de variables cachées qui
déterminent le résultat des mesures à l’avance, mais nous sont
inaccessibles.
Cette idée s’oppose à l’interprétation de Copenhague, dont nous avons
déjà parlé précédemment, selon laquelle l’état d’un système quantique
n’est « décidé » qu’au moment où on l’observe. En ce qui concerne les
gants, cela suppose qu’à l’instant précis où votre père ouvre son colis, son
gant prend la forme d’une main gauche, et celui de votre mère, encore
dans un colis à l’autre bout du monde, prend la forme d’une main droite.
Dans cet exemple caricatural, l’interprétation de Copenhague paraît bien
entendu absurde : on sait bien que les gants ne peuvent pas se
métamorphoser ainsi. Pourtant, votre père n’a aucun moyen d’éliminer
cette interprétation, puisqu’il ne peut pas savoir quel était l’état des gants
avant d’ouvrir le colis…
PASSER COMME
UNE OMBRE
Peut-on dépasser la vitesse de la lumière sans contredire les
lois de la relativité restreinte ? Oui, à condition de disposer
d’un projecteur suffisamment puissant pour éclairer la Lune
entière depuis la Terre. Il vous suffit alors de balayer votre
main devant le projecteur. Si votre geste est assez rapide,
l’ombre de votre main parcourt la surface de la Lune d’un bout
à l’autre en une fraction de seconde, et se déplace plus vite
que la lumière !
Deux habitants de la Lune pourraient-ils utiliser cette ombre
pour communiquer plus vite que la lumière (par exemple en
utilisant l’ombre pour écrire en morse) ? Malheureusement,
non : puisque c’est votre main qui contrôle l’ombre, ils
devraient d’abord vous envoyer le message à transmettre. La
relativité restreinte est saine et sauve : une ombre n’est pas
une information ou une particule, c’est simplement une
absence de lumière. Rien n’exclut donc qu’elle se déplace
plus vite que la lumière.
Notre avenir est-il écrit ?
Au-delà du paradoxe EPR, Einstein s’oppose à l’interprétation de
Copenhague pour deux raisons essentiellement philosophiques.
D’abord, il refuse la notion de hasard quantique. Pour lui, tout phénomène
peut s’expliquer par une chaîne causale plus ou moins complexe. Dire que
le résultat d’un tirage pile ou face est « aléatoire » est faux, et simplement
lié à notre ignorance de la chaîne causale. En réalité, si l’on avait à notre
disposition des appareils de mesure permettant de connaître parfaitement
la position, l’orientation et la vitesse de la pièce au moment du lancer, on
pourrait déterminer la trajectoire exacte de la pièce au cours du temps
grâce aux lois du mouvement de Newton, et donc prédire le résultat du
tirage.
Plus généralement, les phénomènes qui se déroulent à notre échelle
peuvent tous être prédits plus ou moins facilement avec les lois de la
physique classique. Certains, comme le mouvement des planètes, peuvent
être prédits sur plusieurs millénaires ; d’autres, comme la météo, sont plus
difficiles à anticiper, car chaotiques – il faut connaître très précisément leur
état à un instant donné pour prédire leur évolution. Mais si l’on disposait
d’une puissance de calcul infinie et que l’on connaissait parfaitement l’état
du monde à un instant t, on pourrait en principe prédire son état à
n’importe quel instant ultérieur – on dit que le monde qui nous entoure est
déterministe.
Selon Einstein, le « hasard » quantique est simplement lié à notre
ignorance de certaines variables cachées, comme lorsque l’on tire à pile ou
face. La connaissance de ces variables permettrait de rétablir le
déterminisme au sein de la théorie quantique.
Einstein critique également le rôle que joue l’observateur lors de la mesure
dans l’interprétation de Copenhague. Celle-ci le place en effet dans une
position très particulière : sa mesure influence l’état du système, comme
nous l’avons vu à de multiples reprises. La subjectivité semble alors entrer
en jeu dans la théorie quantique… Action instantanée, hasard et
subjectivité comme nouveaux fondements de la physique : c’en est trop
pour Einstein, qui se désolidarise des partisans de la théorie qu’il a aidé à
fonder.
LES DÉS SONT
(RE)JETÉS
La défiance d’Einstein envers le hasard quantique s’est
incarnée dans une phrase restée célèbre : « Dieu ne joue pas
aux dés avec l’Univers. » Souvent mal interprétée, elle
n’exprime pas un rejet de la théorie quantique en tant que
telle, mais plutôt une volonté de la concevoir comme
déterministe et objective, au même titre que la physique
classique. Les débats houleux qui s’ensuivent entre Bohr et
Einstein (Bohr lui rétorqua notamment de « cesser de dire à
Dieu ce qu’il doit faire ») montrent la difficulté de la
communauté scientifique à se faire un avis définitif sur ce
sujet.
Philosophiquement, le débat est d’une importance capitale. Le
déterminisme absolu auquel aspire Einstein ne laisse aucune
place au libre arbitre – Einstein n’y croyait d’ailleurs pas. En
effet, s’il est possible de prédire avec certitude l’évolution de
l’Univers, on pourrait en particulier prédire toutes les décisions
d’un être humain dès sa naissance. L’aléatoire quantique
permettrait de briser cette chaîne causale, au profit d’un
éventuel libre arbitre – bien qu’aucun lien ne soit établi
scientifiquement 1.
Le génie de Bell
Comment déterminer quelle est la bonne interprétation, entre celle
d’Einstein et celle de Bohr ? Ce n’est qu’en 1964, après la mort des deux
physiciens, qu’un test fut proposé pour trancher la question.
Le mathématicien John Bell, s’étant octroyé une année sabbatique pour
réfléchir au paradoxe EPR, imagina une situation un peu plus complexe
que celle des gants, où les deux interprétations mènent à des résultats
différents. Pour cela, il faut étudier simultanément les corrélations de deux
caractéristiques des particules intriquées, comme leur position et leur
vitesse.
Bell montre que si les corrélations sont inférieures à une certaine valeur,
alors la théorie des variables cachées est fausse, et il faut accepter
l’interprétation de Copenhague. Grâce à son théorème, la question du
déterminisme en physique, jusqu’alors cantonnée à des débats
philosophiques, entre dans le champ de ce qui est vérifiable. L’expérience
fut réalisée entre 1980 et 1982 par le physicien français Alain Aspect, et
invalide effectivement l’interprétation d’Einstein. L’action fantôme à
distance semble bel et bien avoir lieu…
Malheureusement, il est difficile d’expliquer le test de Bell en des termes
simples – nous ne nous y risquerons pas ici. Au début des années 1990,
Lucien Hardy propose une expérience illustrant de manière plus limpide la
contradiction entre les deux théories présentées plus haut. Celle-ci est
présentée en détail à la fin du chapitre, pour les lecteurs qui voudraient la
preuve que les particules quantiques ne se comportent pas comme des
gants.
CULTURE
L’intrication quantique, par sa nature extraordinaire, a
beaucoup inspiré les auteurs de science-fiction. Pourrait-on
l’utiliser pour communiquer plus vite que la lumière ? C’est ce
qu’imagine le space opera chinois Le Problème à trois corps
(2008). Dans le but d’envahir la Terre, des extraterrestres
créent des paires de particules intriquées « intelligentes ». Ils
en envoient une sur Terre et gardent l’autre avec eux. Elles
leur permettent alors d’espionner les humains, en dépit des
quatre années-lumière qui séparent les deux civilisations.
Heureusement pour nous, cette forme de communication est
rendue impossible par la nature aléatoire de la quantique.
Repensez aux gants : lorsque votre père ouvre son colis, il sait
instantanément quel gant votre mère a reçu. Pour autant,
peut-il lui transmettre un message via ces gants ? Non, car il
ne peut pas choisir le gant que recevra votre mère : il le
découvre au moment où il ouvre son colis.
De la friture sur la ligne
Si la discussion précédente vous a un peu déboussolé, rassurez-vous :
Bohr, Einstein et leurs confrères l’ont été tout autant. Il est temps pour
nous de revenir à des choses plus concrètes : quel est le lien entre
l’intrication et l’Internet quantique que nous avons évoqué dans
l’introduction ?
Lorsque vous regardez une vidéo sur Internet, des milliards de photons
voyagent depuis des serveurs jusqu’à votre boîtier Wi-Fi dans des fibres
optiques, propageant l’information à la vitesse de la lumière. Cependant,
comme dans tout canal de transmission, le signal s’atténue au fur et à
mesure de sa propagation. On doit donc régulièrement placer des
amplificateurs de signal, appelés répéteurs, pour compenser les pertes.
Dans le cas des communications quantiques, le signal est bien plus faible :
les photons sont envoyés par petits paquets. Si l’on essayait d’envoyer
1 000 photons par seconde dans une fibre de 500 kilomètres, on ne
recevrait en sortie qu’un photon tous les quatre ans ! L’amplification est
donc encore plus cruciale ici. Seulement, amplifier nécessiterait de
mesurer l’état des photons pour en créer d’autres dans le même état. Cela
est strictement interdit par les lois de la physique quantique : le théorème
de non-clonage stipule qu’il est impossible de recopier un système
quantique inconnu à l’identique (voir chapitre 5). Alors qu’il garantissait la
fiabilité des protocoles de cryptographie quantique, ce théorème constitue
un obstacle majeur à l’Internet quantique : sans répéteur, difficile de viser
des communications intercontinentales…
Une solution serait de miser sur la communication dans l’espace, comme
nous l’avons illustré dans l’introduction avec l’exploit de Jian-Wei Pan. Les
défis à relever restent cependant nombreux, ne serait-ce que pour assurer
la transmission en cas de mauvais temps… Une autre approche, plus viable
à long terme, serait d’utiliser la téléportation quantique.
Des talkies-walkies
quantiques
Imaginons qu’Arthur veuille transmettre de manière sécurisée un message
– par exemple l’état d’une particule P – à Bertille, qui vit trop loin pour
qu’une ligne quantique directe puisse être établie. Une solution serait de
fabriquer deux particules intriquées A et B, puis donner la première à
Arthur et la seconde à Bertille. Ces particules fonctionnent en fait comme
des talkies-walkies un peu particuliers, permettant de téléporter l’état de la
particule P de A à B.
Pour effectuer la téléportation, Arthur « enregistre son message » en
faisant interagir P avec son talkie-walkie A. Le message P est ainsi
téléporté sur B. Cependant, de manière très imagée, le talkie-walkie de
Bertille possède plusieurs boutons non étiquetés, si bien qu’elle ne sait pas
sur lequel appuyer pour « écouter » le message. Seul Arthur le sait, car il
dépend de l’interaction entre P et A. Il doit appeler Bertille pour le lui
indiquer : une fois le bon bouton pressé, la particule B se retrouve dans
l’état quantique de la particule P, alors que celles-ci n’ont jamais interagi.
Remarquez qu’en dépit du nom de « téléportation », ce protocole ne
permet pas de communiquer plus vite que la lumière, puisqu’Arthur doit
envoyer des informations à Bertille via un canal de communication
classique pour qu’elle puisse recevoir le message.
Pourtant, la téléportation a un intérêt majeur : l’efficacité du protocole ne
dépend pas de la distance entre Arthur et Bertille. Il est donc possible en
théorie de créer des liens de communication quantiques aussi longs que
l’on veut. Seulement, nous n’avons fait que déplacer le problème original :
pour que ce protocole fonctionne, il faut pouvoir acheminer les particules
intriquées A et B sur une grande distance pour établir le lien de
communication, et nous voilà à nouveau face au problème des pertes.
Heureusement, si l’on ne peut pas amplifier un signal quantique, on peut
créer des « répéteurs d’intrication ». Schématiquement, on découpe la
distance qui sépare Arthur et Bertille en segments plus courts, en plaçant
des talkies-walkies relais à chaque étape intermédiaire. En intriquant
chaque relais au relais suivant, on peut établir un lien direct entre Arthur et
Bertille.
La première téléportation réussie a eu lieu en 1997 dans le laboratoire
d’Anton Zeilinger, en Autriche. Depuis, on a pu téléporter des états
différents, sur de plus longues distances. Le tour de force de Jian-Wei Pan
que nous avons évoqué dans l’introduction constitue encore un record,
avec ses 1 400 kilomètres.
LE FANTOMATON
L’intrication ne se résume pas aux communications
quantiques. Une autre de ses applications inattendues est
l’imagerie dite fantôme. Elle consiste à photographier des
objets extrêmement sensibles à la lumière en utilisant une
paire de photons intriqués de couleurs différentes.
L’idée est d’envoyer celui avec le moins d’énergie sur l’objet
pour ne pas l’endommager, et reconstituer son image avec le
deuxième – qui n’a pourtant jamais interagi avec l’objet –
grâce aux corrélations entre les deux. Ce genre de technique
peut également être utilisé pour améliorer la résolution de
certaines caméras.
Un réseau en chantier
L’intrication, par le simple fait qu’elle peut permettre des communications
quantiques à longue distance, est devenue un pilier de l’Internet
quantique. Il est important de préciser que ce dernier n’est pas une
« nouvelle génération » d’Internet, vouée à remplacer notre réseau actuel.
À long terme, l’Internet quantique a surtout pour ambition de relier entre
eux les ordinateurs quantiques que nous découvrirons dans les pages qui
suivent, et de combiner leur puissance de calcul avec la sécurité de la
cryptographie quantique.
Son importance en ce qui concerne la cybersécurité en fait déjà un enjeu
stratégique majeur. Si un Internet quantique intercontinental semble pour
l’instant hors de portée, de nombreux essais internationaux existent. Des
tests sur des maillons de quelques centaines de kilomètres voient le jour
dans divers pays, et 4 600 kilomètres de fibres optiques dédiées à la
transmission de clés quantiques relient déjà Pékin à Shanghai. Côté
européen, un projet d’Internet quantique continental se dessine à l’horizon
2027.
À moyen terme, les premières applications de ce réseau seront avant tout
scientifiques – tout comme le World Wide Web, issu d’une collaboration de
chercheurs du CERN cherchant une méthode simple et sûre pour
échanger leurs données. Que ce soit pour combiner les observations de
télescopes ou synchroniser des horloges atomiques tout autour du globe,
ces réseaux offriront probablement des opportunités immenses aux
chercheurs.
VOIR DES TROUS NOIRS
En 2019, la première image d’un trou noir fut capturée par
l’Event Horizon Telescope, un réseau de télescopes disposés
aux quatre coins du globe. Ce monstre cosmique pèse plus
qu’un milliard de soleils réunis, et se trouve à une
cinquantaine d’années-lumière de la Terre. Observer un objet
aussi lointain revient à voir un grain de sable sur une plage
californienne depuis New York !
Pour atteindre une telle résolution, l’idée est de faire interférer
entre eux les rayons lumineux issus des observations de
différents télescopes. Seulement, la lumière faiblarde qui nous
provient d’objets aussi éloignés se résume à quelques
poignées de photons… En nous aidant à acheminer ces
précieux signaux d’un télescope à l’autre sans pertes,
l’Internet quantique sera sans doute un allié de poids pour
scruter les profondeurs de l’Univers.
Deuxième photo du trou noir M87* publiée en 2021 par la collaboration EHT,
montrant la polarisation de la lumière aux abords de l'astre.
Source : Event Horizon Telescope (EHT)
Pas du gâteau
Ce qui suit vise à donner une explication plus détaillée de l’expérience de
Hardy, dont le but est de discréditer la description de la physique
quantique en termes de variables cachées soutenue par Einstein. Pour les
lecteurs qui souhaitent s’y attarder, soyez prêts à remettre en cause
beaucoup de choses que vous savez sur la physique du monde qui nous
entoure.
Reprenons l’analogie qu’a utilisée Hardy lui-même pour expliquer son
expérience. Elle met en scène une cheffe pâtissière qui, à intervalles
réguliers, enfourne simultanément deux gâteaux de sa confection (les
particules intriquées) dans deux fours différents. Robin et Maxence, ses
apprentis, sont assignés chacun à un four. Chacun peut effectuer l’une des
deux opérations suivantes pour contrôler la qualité des gâteaux : ouvrir le
four à mi-cuisson pour vérifier que le gâteau a bien commencé à lever, ou
attendre la fin de la cuisson pour goûter le gâteau.
À chaque fournée, les deux apprentis choisissent aléatoirement l’une des
deux opérations et notent les résultats. Après un grand nombre de
mesures, ils comparent leurs résultats, et notent deux corrélations
surprenantes :
Observation 1 : lorsqu’un des gâteaux est bon, l’autre est toujours
mauvais.
Observation 2 : lorsqu’un des gâteaux est levé, l’autre est toujours bon.
Ces corrélations sont déjà surprenantes, mais il y a pire. Une incohérence
apparaît dans le cas où les deux apprentis contrôlent la cuisson : de temps
en temps, ils trouvent que les deux gâteaux ont bien levé. Ceci est
pourtant incompatible avec les deux observations ci-dessus : si les deux
gâteaux ont levé, la deuxième observation nous indique qu’ils doivent tous
les deux être bons, ce qui est impossible d’après la première observation !
Cette expérience fut réalisée avec succès en 1994, non pas avec des
gâteaux mais avec des photons. Les mesures de cuisson ou de goût
correspondent ici à des mesures de polarisation selon des axes différents
(Nord/Sud pour l’un et Est/Ouest pour l’autre, comme dans le protocole
BB84 du chapitre précédent). Mais le constat est le même : selon les
mesures que l’on effectue, on peut obtenir des résultats totalement
incohérents. Comment expliquer cette contradiction ?
Dans le monde qui nous entoure, les objets ont des propriétés
intrinsèques. On peut dire qu’une balle est jaune, et elle le sera toujours,
même si personne n’est là pour le constater. Cette hypothèse qui consiste
à considérer l’existence des propriétés des objets en dehors de leur
observation s’appelle le réalisme. Elle est si ancrée dans notre perception
du monde que s’en détacher paraît totalement absurde. Pourtant, ce
réalisme n’est pas compatible avec les résultats de l’expérience des
gâteaux. Selon les opérations que choisissent Maxence et Robin, les
propriétés mesurées des gâteaux ne montrent pas les mêmes corrélations.
L’état combiné des deux gâteaux – c’est-à-dire leurs propriétés – n’a pas
une valeur absolue et déterminée à l’avance ; il dépend de la manière dont
on le mesure.
Il faut donc se défaire de l’idée selon laquelle les propriétés des objets
quantiques ont une existence propre avant la mesure. C’est une réécriture
complète de la relation entre science et philosophie qui est ainsi opérée.
Einstein, dans une pique restée dans la postérité, demanda à son ami
Abraham Pais, fervent défenseur de l’interprétation de Copenhague :
« Mais alors, la Lune n’existe-t-elle que quand je la regarde ? » Ce à quoi
son ami lui répondit : « En tant que physicien du XXe siècle, je ne peux pas
prétendre avoir une réponse définitive à cette question. »
Résumé du concept :
l’intrication
Deux particules sont dites intriquées lorsque les résultats donnés
par leurs mesures individuelles ne sont pas indépendants. Dans les
cas extrêmes, la mesure de l’une « force » l’autre à choisir un état
précis, et ce, même si elles sont à deux extrémités opposées de
l’Univers.
Ce concept a peut-être été le plus difficile à accepter par les
fondateurs de la physique quantique. Longtemps pointés du doigt
comme un artefact lié à une mauvaise interprétation de la théorie
quantique, les travaux réalisés à partir des années 1960 ont forcé les
scientifiques à accepter une nouvelle approche pour décrire la
réalité.
1. Il est en fait possible de sauver l’idée de libre arbitre sans hasard quantique. Prédire
l’évolution de la météo sur une semaine est déjà difficile ; prédire l’évolution de l’Univers entier
est fondamentalement impossible d’après le philosophe des sciences Karl Popper – voir
L’Univers irrésolu (1984).
Leur nom vous est peut-être déjà familier. On leur attribue
monts et merveilles, mais aussi des menaces terribles : ils
pourraient tout autant découvrir des médicaments providentiels
que mettre en péril la sécurité de nos codes bancaires. Si les
ordinateurs quantiques éveillent tant l’intérêt, c’est autant par
leurs applications potentielles que par l’exploit technologique
qu’ils représentent, engageant une course à l’échelle mondiale.
La route est pourtant semée d’embûches : exploiter les
propriétés quantiques des particules dans un processeur
implique de pouvoir les dompter parfaitement. Or, difficile de
trouver des objets plus capricieux : au moindre contact, ils se
transforment et perdent leurs propriétés si convoitées. Pour
réussir à effectuer des calculs avec des particules quantiques, il
nous faudra vaincre un obstacle de poids : la décohérence.
Prenons le temps de décrypter cette branche si médiatique de la
physique quantique afin de démêler les vrais espoirs des effets
d’annonce, et la technologie du fantasme.
Le casse-tête du plan
de table
Après plusieurs journées de sueurs froides, vous avez demandé votre
partenaire en mariage, et il ou elle a accepté ! À présent, il faut organiser la
noce : réserver la salle, le traiteur, les fleurs… La liste est longue. Mais le
plus gros casse-tête sera sûrement d’élaborer un plan de table. Votre beaufrère ne s’entend pas avec votre sœur, celle-ci tient absolument à être
assise aux côtés de son amie d’enfance, mais cette dernière refuse de se
séparer de ses deux enfants… Sans parler des groupes d’amis à ne pas
séparer ou des anciens fiancés à ne pas asseoir ensemble. Plutôt que de
vous arracher les cheveux, vous décidez de donner le problème à résoudre
à votre ordinateur.
Une approche naïve est de tirer aléatoirement des configurations jusqu’à
trouver celle qui satisfait au mieux les contraintes. Seulement, avec
60 invités à répartir sur une grande table, le nombre de configurations est
colossal : on a 60 choix pour le premier à asseoir, 59 pour le second, et
ainsi de suite… Le nombre de possibilités est démultiplié pour chaque
nouvel invité, ce qui donne le résultat impensable de 1082 configurations
(1 suivi de 82 zéros). C’est plus que le nombre d’atomes dans l’Univers
observable !
Bien que la vitesse des processeurs ait été multipliée par presque mille en
vingt ans, elle dépasse rarement les 100 milliards d’opérations par seconde.
C’est considérable, mais largement insuffisant pour énumérer toutes les
possibilités de ce genre de problème : avec 20 invités à placer autour de la
table, il faudrait déjà plus de trois mois à un ordinateur pour toutes les
traiter ! Un ordinateur quantique lui, pourrait théoriquement résoudre ce
problème en quelques minutes. Mais que diable vient faire la quantique
ici ?
Coder l’information
Débutons par un bref détour dans un ordinateur « classique ». Un
document texte, un fichier son ou une vidéo constituent des informations
de natures très différentes. Pourtant, ils peuvent tous être lus par le même
processeur, car au niveau le plus élémentaire, ils se présentent sous la
même forme pour ce dernier : une longue chaîne de bits, c’est-à-dire de
zéros et de uns. Le bit est donc la plus petite unité d’information que peut
recevoir un ordinateur. En regroupant 8 bits, on obtient un octet, qui peut
prendre 256 valeurs et permet d’écrire toutes les lettres de l’alphabet, ou
encore les couleurs d’un pixel. Par exemple, le mot « b-i-t », constitué de
trois lettres, s’écrit de la manière suivante pour un ordinateur : 01000010 –
01001001 – 01010100. C’est cette méthode de codage très simple qui
permet à nos ordinateurs d’être aussi polyvalents.
Au-delà de leur existence conceptuelle, les bits ont une réalité matérielle.
Dans les appareils électroniques actuels, ils s’incarnent par des
interrupteurs microscopiques, les transistors – une autre invention qui
n’aurait jamais vu le jour sans la physique quantique. Ces derniers peuvent
laisser passer le courant électrique (le bit vaut alors 1) ou l’interrompre (le
bit vaut 0), et permettent de stocker beaucoup d’informations dans peu
d’espace et de la traiter rapidement. Cependant, les transistors sont un
choix de convenance : tout comme le langage morse, un bit pourrait être
représenté par n’importe quel système possédant deux états bien définis.
On pourrait très bien utiliser des pièces de monnaie et décider,
arbitrairement, d’attribuer au côté pile la valeur 0 et au côté face la
valeur 1… En 2015, un physicien de Stanford a même fabriqué un
ordinateur à base d’eau, 0 et 1 étant alors représentés par l’absence ou la
présence de gouttelettes.
Plus impressionnant encore, la nature elle-même utilise cette technique de
codage de l’information sous forme de chaînes de caractères simples. C’est
le cas de l’information génétique, entortillée dans nos cellules sous la
forme d’une longue hélice : l’ADN. Ici, chaque caractère peut prendre non
pas deux, mais quatre valeurs : A, T, C, G. Des protéines peuvent ensuite
« lire » l’ADN comme un mode d’emploi, permettant de fabriquer des
molécules utiles au fonctionnement du corps. Au jeu de la miniaturisation,
l’homme est battu à plate couture : une clé USB à base d’ADN pourrait
contenir plusieurs milliers de térabits de données !
UN CODAGE BASIQUE
Notre méthode de comptage habituelle nécessite 10 chiffres
différents (de 0 à 9) pour exprimer tous les nombres : on dit
que l’on compte en « base 10 ». En base 10, on écrit un
nombre comme une séquence de puissances de 10. Par
exemple, 21 signifie : (2×101) + (1×100). Cette méthode nous
paraît la plus intuitive parce que l’on apprend dès notre plus
jeune âge à compter sur les 10 doigts de la main. Mais on peut
très bien écrire les nombres dans d’autres bases !
Ainsi les séries de 0 et de 1 vues par un ordinateur expriment
des nombres en notation binaire, c’est-à-dire en « base 2 »
(seulement 2 chiffres nécessaires). Dans cette base, le nombre
21 doit être décomposé en puissances de 2 et s’écrit 10101, car
21 = (1×24) + (0×23) + (1×22) + (0×21) + (1×20). On peut écrire tous
les nombres qui existent avec des 0 et des 1, mais de façon
bien moins compacte !
Des problèmes insolubles
Les ordinateurs ne sont pas que des machines à décoder les chaînes de
bits – ils peuvent aussi les manipuler. Pour effectuer des calculs avec un
alphabet si limité, ils doivent décomposer les opérations complexes,
comme la multiplication de deux nombres, en une suite d’opérations
élémentaires – transformer un 1 en 0, comparer 2 bits et retourner 1 s’ils
sont identiques, 0 sinon… Comme un métier à tisser qui relie des brins
entre eux, l’ordinateur assemble des chaînes de bits pour parvenir à ses
fins.
Pour résoudre un problème donné, l’ordinateur doit exécuter une suite
d’opérations élémentaires dans un ordre bien précis : on appelle cette suite
un algorithme. Le temps d’exécution d’un algorithme dépend toujours de
la « taille » du problème à traiter, mais dans des mesures différentes selon
le problème considéré. Le temps requis pour chercher un destinataire dans
l’annuaire ne dépend quasiment pas du nombre total d’entrées dans
l’annuaire, car celui-ci est rangé par ordre alphabétique. En revanche, pour
effectuer l’opération inverse – retrouver un numéro inconnu – il faudra
énumérer tous les destinataires jusqu’à trouver le bon numéro. Dans ce cas,
le temps requis est proportionnel au nombre total d’entrées, ce qui peut
paraître assez prohibitif. Mais ce n’est encore rien par rapport à la
complexité de certains problèmes.
Le problème du plan de table que nous avons évoqué plus haut est déjà
inabordable avec 60 invités. Que se passe-t-il si un nouvel invité s’ajoute à
la fête ? Il faudra rajouter une chaise pour l’asseoir entre deux personnes,
et le nombre de possibilités est à nouveau multiplié par 60 ! On dit que la
difficulté de ce problème – en apparence simple – augmente de manière
exponentielle avec le nombre d’invités. C’est le cas de nombreux
problèmes dits d’optimisation, où le but est de trouver la meilleure
configuration pour satisfaire un ensemble de contraintes. Un autre
exemple célèbre est celui du voyageur de commerce, qui doit trouver le
chemin le plus court reliant un certain nombre de villes : le nombre de
chemins possibles croît exponentiellement avec le nombre de villes.
Heureusement, dans la plupart des problèmes d’optimisation, il n’est pas
nécessaire d’énumérer toutes les possibilités. Par exemple, lorsqu’il
cherche l’itinéraire le plus court pour relier Lyon à Strasbourg, votre GPS
se doute bien qu’il n’a pas besoin de prendre en compte les chemins
passant par Brest. Cependant, dans certains problèmes, il n’existe pas de
méthodes pour réduire le nombre de possibilités. La confidentialité de la
plupart de nos systèmes d’information repose aujourd’hui sur la difficulté
de ce genre de problème (voir chapitre 5), totalement insoluble en temps
raisonnable par les ordinateurs actuels…
Le qubit à la rescousse
Assez parlé d’informatique, et place au sujet central de ce livre : la
révolution quantique. Une solution possible à l’écueil des problèmes à
complexité exponentielle est d’abandonner la représentation de
l’information en bits, pour les remplacer par des qubits (contraction de
quantum bits).
Un qubit est, tout comme le bit, un système physique auquel on peut
associer deux configurations distinctes, que l’on note 0 et 1. Mais à la
différence des bits, on ne peut utiliser n’importe quel objet qui possède
deux états pour former un qubit. Il faut un objet purement quantique,
capable d’une part d’être dans une superposition d’états (voir chapitre 5),
et d’autre part d’être intriqué à d’autres objets quantiques (voir chapitre 6).
De manière imagée, là où les bits sont noirs ou blancs et ne
communiquent pas entre eux, les qubits peuvent adopter toutes les
nuances de gris et peuvent interagir : c’est de là qu’ils tirent toute leur
richesse.
Un processeur quantique met en jeu un ensemble de qubits, tous intriqués
les uns avec les autres dans une sorte de réseau inextricable. Pour changer
un peu, remplaçons notre sempiternelle pièce de monnaie par une carte à
jouer, qui elle aussi possède deux états, Face (F) et Dos (D), selon
comment elle est posée. Un processeur quantique ressemble alors à un
château de cartes. Tant qu’il tient debout, le sort de chaque carte n’est pas
fixé et chacune est dans une superposition de la forme F + D (voir figure de
droite).
L’ensemble est cependant très fragile : pour attribuer un état à l’une des
cartes, il faut la retirer, ce qui fait tomber toutes les autres et les force à
choisir un côté. Cette fragilité rend le processeur difficile à dompter, mais
c’est aussi elle qui lui procure un premier avantage considérable : mesurer
un seul qubit donne immédiatement le résultat de tous les autres, ce qui
permet de combiner plusieurs calculs en une seule opération. Le deuxième
avantage est plus subtil, mais mérite que l’on s’y attarde un peu.
On a vu qu’un état superposé peut s’écrire F + D. Mais il s’agit là d’un cas
particulier où la mesure donne F ou D avec la même probabilité : un
système quantique en superposition peut en fait s’écrire a « F » + b « D »,
où a et b sont des nombres liés aux probabilités de trouver le système
dans un état ou l’autre 1. De la même façon qu’on peut repérer n’importe
quel point sur Terre par sa latitude et sa longitude, le qubit est caractérisé
par deux informations, et non une seule : les valeurs de a et b.
Imaginons maintenant deux qubits intriqués. Cette fois-ci, quatre états
sont possibles : FF, DD, FD, DF. L’état superposé de l’ensemble peut
s’écrire à l’aide de quatre chiffres : a « FF » + b « DD » + c « FD » + d
« DF ». Il faut donc quatre informations pour décrire deux qubits, là où il
n’en fallait que deux pour décrire deux bits classiques : la valeur du
premier bit et la valeur du deuxième.
Si l’on passe à 3 qubits, on a besoin de 8 informations, contre 3 dans le cas
de bits. Avec 4 qubits, il en faut 16, contre 4. En continuant cette logique,
on comprend la différence fondamentale entre les bits et les qubits :
chaque nouveau bit ajoute une seule information, tandis que chaque
nouveau qubit double le nombre d’informations. La croissance est
exponentielle, comme pour le nombre de combinaisons dans le problème
du plan de table. Ainsi, 10 qubits contiennent autant d’information que
1 024 bits, et pour représenter une photo de vacances, habituellement
stockée sur plusieurs millions de bits classiques, il suffirait d’une vingtaine
de qubits !
Boîtes noires quantiques
Le changement de paradigme entraîné par les qubits pourrait, selon
certains, déclencher une véritable révolution informatique. Nous en
arrivons cependant à la première grande limite des ordinateurs
quantiques : pour lire une chaîne de qubits, il faut mesurer son état.
Seulement, cette mesure détruit la superposition quantique, et ne nous
donne accès qu’à une seule des informations qu’il renferme !
C’est là tout le paradoxe de l’informatique quantique : la promesse
d’effectuer des calculs très facilement sur un grand nombre de qubits, mais
l’impossibilité de récupérer ces informations efficacement. Il est bien beau
de pouvoir stocker une photo de vacances sur une vingtaine de qubits, et
de pouvoir la retoucher efficacement, mais quel intérêt si l’on ne peut pas y
accéder par la suite ?
Le but des algorithmes quantiques développés depuis les années 1990 est
de ruser pour contourner cette contrainte. C’est ici que l’on peut exploiter
le dernier avantage des qubits – indissociable des deux autres : en tant
qu’objets quantiques, ils peuvent interférer entre eux, comme les photons
dans l’expérience des fentes de Young (voir chapitre 2). L’idée est donc, via
cette interférence, d’amplifier l’importance de certains états et de diminuer
l’importance d’autres, pour privilégier ceux qui donneront le bon résultat
de calcul.
On ne pourrait résumer ici les astuces utilisées tant elles dépendent du
problème considéré. La boîte à outils mise à disposition par la quantique
est diverse et complexe, et demande de trouver un compromis entre
rapidité de calcul et efficacité de lecture. Ce n’est malheureusement pas
possible pour tous les problèmes, et c’est pourquoi un ordinateur
quantique, même très abouti, ne sera sûrement jamais universel comme le
sont nos ordinateurs actuels. Face à la surenchère médiatique que
provoque le calcul quantique, de nombreux scientifiques martèlent que
celui-ci n’aura à terme d’intérêt que dans certains domaines particuliers.
L’ANNUAIRE INVERSÉ
Comme on l’a vu, trouver le nom d’un destinataire inconnu à
partir de son numéro dans un annuaire est une tâche très
fastidieuse : si l’annuaire compte 10 000 entrées, il faudra en
énumérer 5 000 en moyenne avant de trouver la bonne. En
1996, Lov Grover présente un algorithme quantique
permettant de résoudre le problème en seulement
100 opérations ! L’astuce est de créer un état quantique où les
10 000 entrées sont en superposition équilibrée.
En mesurant un tel système, on tomberait sur chaque entrée
avec une chance sur 10 000, ce qui nous avancerait peu.
L’idée de Grover est de soumettre cet état superposé à une
suite de manipulations qui augmentent petit à petit la
probabilité du numéro recherché jusqu’à ce qu’il soit proche
de 1. Il suffit ensuite de mesurer l’état pour trouver le numéro
que l’on cherche ! Cet exemple montre que même si l’on ne
peut réaliser qu’une seule mesure sur la chaîne de qubits, on
peut en extraire des informations utiles en faisant preuve
d’ingéniosité.
Vaincre la décohérence
Revenons sur l’une des caractéristiques des qubits : leur fragilité. La
moindre mesure d’un système quantique superposé le force à choisir un
état, et brise la superposition de manière irréversible. Lorsqu’un château de
cartes s’effondre, son sort est scellé ; on aura beau revenir une heure plus
tard, les cartes seront toujours dans le même état…
Que signifie, ici, la mesure ? On l’imagine généralement comme l’action
d’un détecteur sur le système quantique : dans l’image du château de
cartes, ceci revient à retirer l’une des cartes. Mais comme on le sait, le
château peut s’effondrer pour toutes sortes d’autres raisons, comme un
léger coup de vent ou un tremblement du sol. De même, la superposition
quantique s’effondre à la moindre interaction avec un autre système, qu’il
s’agisse d’un détecteur de mesure ou des molécules du gaz environnant.
Ce phénomène de brouillage des propriétés quantiques porte le nom de
décohérence, et c’est lui qui cause tant de soucis aux chercheurs du
domaine. On touche ici du doigt la principale difficulté de l’informatique
quantique : maintenir les qubits en superposition.
Le défi technique consiste à réduire au minimum les interactions des
qubits avec leur environnement, comme si l’on cherchait à mettre le
château de cartes à l’abri du vent. Ainsi, on place généralement les qubits
dans une enceinte à vide, pour se débarrasser des molécules de gaz qui
pourraient perturber le système. Comme le vide n’est jamais parfait, on
refroidit également jusqu’au zéro absolu pour que les quelques molécules
de gaz restantes soient totalement figées. Ce n’est que dans ces conditions
extrêmes que le caractère quantique des qubits peut se révéler pleinement.
De même qu’un château de cartes est d’autant plus instable qu’il est grand,
cette lutte contre la décohérence devient d’autant plus difficile à mesure
que le système grandit. Les meilleurs ordinateurs quantiques actuels
parviennent à exploiter une centaine de qubits, et la course à qui
construira le plus grand château de cartes fait rage à l’échelle mondiale…
Au-delà de son importance pratique, ce phénomène de décohérence est
crucial d’un point de vue théorique, car il explique pourquoi les
phénomènes étranges égrenés tout au long de ce livre sont invisibles à
notre échelle. Mettre un chat en superposition quantique, alors que celui-ci
est constitué de millions de trillions d’atomes, est en théorie possible. Mais
en pratique, ce serait aussi difficile que de construire un château de cartes
haut comme l’Everest, tout en l’abritant du vent. Peu de chance, donc, de
tomber nez à nez avec le chat mort-vivant qu’imaginait Schrödinger.
UN ÉCHIQUIER
ERRATIQUE
Mentionnons un dernier grand défi qui découle de la fragilité
des qubits : les ordinateurs quantiques sont pour l’instant très
propices aux erreurs de calcul, que l’on regroupe en deux
catégories. La première correspond à une erreur sur un seul
qubit. Si le processeur quantique est un échiquier, ce genre
d’erreur correspond au déplacement d’une seule pièce, par
exemple si votre adversaire triche quand vous avez le dos
tourné. L’erreur est facile à corriger, mais encore faut-il l’avoir
remarquée.
La deuxième catégorie d’erreur affecte l’ensemble des qubits,
comme si vous donniez accidentellement un coup dans la
table, de telle sorte que les pièces se retrouvent toutes
décalées de manière identique sur le plateau. Ce décalage est
facile à remarquer, mais plus difficile à corriger. Certains
systèmes sont plus robustes face au premier type d’erreur,
d’autres au second type, mais pour l’instant, aucun n’a été
trouvé qui permette de résoudre efficacement les deux.
La guerre des qubits
Que l’on soit convaincu ou non du potentiel de l’informatique quantique,
force est de constater que les progrès sont en pleine accélération.
Les entrailles de l'ordinateur quantique d'IBM révèlent les enchevêtrements de câbles nécessaires
au contrôle des qubits.
Source : IBM
En septembre 2019, une équipe de Google se targue d’avoir atteint la
« suprématie quantique ». Armés d’un processeur opérant sur 53 qubits,
les ingénieurs annoncent avoir résolu en 3 minutes un calcul qui aurait
demandé 10 000 années de labeur aux meilleurs ordinateurs classiques
actuels. L’annonce ne passe pas inaperçue dans la communauté
scientifique : un mois plus tard, une équipe d’IBM fusille la publication de
Google, et accuse les auteurs d’avoir exagéré la performance – ils assurent
que ledit calcul pourrait être réalisé en 3 jours seulement avec l’ordinateur
classique.
En 2021, c’est au tour de l’équipe de Jian-Wei Pan en Chine de présenter
un ordinateur quantique à 66 qubits, qui serait plusieurs centaines de fois
plus rapide que celui de Google. Quelques mois plus tard, IBM déclare
avoir franchi la limite des 100 qubits à l’aide d’un nouveau processeur aux
airs futuristes (voir photo).
Les ordinateurs d’IBM et de Google sont basés sur la même technologie :
les qubits supraconducteurs, considérés comme les plus prometteurs à
court ou moyen terme. Chaque qubit est composé de 2 petites bandes de
métal séparées par un isolant. Les électrons du métal peuvent traverser
l’isolant par effet tunnel (voir chapitre 4) : les états 1 et 0 correspondent aux
états « un électron a traversé » et « aucun électron n’a traversé »,
respectivement.
Le grand avantage de ce système est qu’il bénéficie de techniques de
fabrication mises au point depuis longtemps pour les circuits imprimés
classiques. Cependant, les supraconducteurs, que l’on découvrira en détail
au cours du dernier chapitre, doivent être maintenus à des températures
très basses pour fonctionner… Et les erreurs de calcul de ce genre
d’ordinateurs sont encore nombreuses.
Un autre choix courant est d’utiliser la polarisation des photons (voir
chapitre 5). D’autres groupes de recherche utilisent des qubits plus
exotiques, sous la forme de cristaux ou de chaînes d’atomes. Il existe déjà
tout un bestiaire de qubits, chacun possédant ses avantages et
inconvénients – bien avisé celui qui peut prédire laquelle de ces
technologies triomphera.
PLANCHES À PHOTONS
Avez-vous déjà vu ce genre de planche cloutée dans des
foires ? On y laisse tomber des billes du haut et celles-ci
rebondissent sur les clous avant de venir se placer dans une
case tout en bas. On les appelle « planches de Galton », du
nom de leur inventeur.
Imaginez maintenant ce même instrument mais avec des
particules quantiques à la place des billes. À chaque « clou »,
la fonction d’onde de la particule est séparée en deux, comme
dans les fentes de Young. La figure d’interférence lorsque les
particules arrivent en bas est si complexe qu’aucun ordinateur
classique ne peut calculer sa forme. C’est cette drôle de
planche qui a été simulée par l’équipe de Jian-Wei Pan
(encore lui !) en 2020 avec 76 photons, puis en octobre 2021
avec 113. Certes, les ordinateurs classiques sont dans les
choux, mais les applications liées à ce calcul sont loin d’être
évidentes…
Révolution ou chimère ?
Cette guerre des chiffres laisse songeur, et montre l’importance
stratégique de la course aux qubits. Dans quelques années, les premiers
succès des processeurs quantiques écloront peut-être, avec de potentielles
applications dans des domaines sensibles tels que la pharmacie, la
cryptographie ou la finance.
Quelle sera l’importance de l’ordinateur quantique à long terme ? Difficile
à dire, tant les phénomènes de mode sont à double tranchant. Si
l’informatique quantique suscite des pluies de financements – publics
comme privés –, ces derniers ont tendance à être instables. On le voit avec
le domaine de l’intelligence artificielle, qui a connu une alternance de
périodes fastes et d’« hivers » : le vent peut tourner très vite lorsque les
progrès ne sont pas assez rapides au goût des investisseurs.
Insistons sur le fait que l’ordinateur quantique ne sera pas un remplaçant
de l’ordinateur d’aujourd’hui, de même que l’Internet quantique n’a pas
vocation à remplacer le nôtre. Ces technologies ont des champs
d’application très prometteurs, mais assez spécialisés ; elles ne viendront
pas, a priori, transformer notre vie de tous les jours, comme l’ont fait les
ordinateurs classiques, et comme le fera peut-être l’intelligence artificielle.
Cependant, il est difficile de croire que les efforts de recherche qu’ils
suscitent n’auront aucune retombée, même indirecte, sur le monde
numérique.
LA PHYSIQUE MISE
EN ABYME
Si un ordinateur quantique universel semble encore hors de
portée, une autre classe de calculateurs fait son apparition :
les simulateurs quantiques. L’idée, proposée par le prix Nobel
de physique Richard Feynman dès les années 1980, est de
modéliser des systèmes quantiques complexes grâce à des
systèmes quantiques plus simples dont on contrôle les
propriétés.
La quantique ne sert pas ici à accélérer les calculs comme
dans un ordinateur quantique, mais à les modéliser. Plutôt que
de résoudre des équations pour prédire les interactions entre
deux molécules, on les simule en mettant des atomes dans les
bonnes conditions. Ensuite, il n’y a plus qu’à mesurer ces
interactions (et non les calculer) ! Ces simulations pourraient
permettre de prédire les propriétés de nouvelles molécules et
ainsi découvrir de nouveaux matériaux, médicaments,
composants de batteries, ou même engrais chimiques. Des
simulateurs comportant 250 qubits étaient déjà opérationnels
à la fin 2021. À partir de 500 qubits, ils devraient être en
mesure de résoudre des problèmes réellement intéressants.
Résumé du concept :
le calcul quantique
Le calcul quantique consiste à remplacer les bits par des qubits
(bits quantiques). Là où les bits des ordinateurs classiques ont une
valeur 0 ou 1 et fonctionnent indépendamment, les qubits peuvent
chacun être en superposition 0 + 1 et être intriqués les uns avec les
autres. Cela leur permet de résoudre certains calculs inabordables
avec les ordinateurs classiques.
Cependant, il est difficile d’extraire les résultats des calculs une fois
ceux-ci terminés. De plus, la superposition des qubits est très
fragile : elle est brisée à la moindre interaction, un phénomène
connu sous le nom de décohérence. C’est pourquoi les ordinateurs
quantiques, pourtant très prometteurs, restent si difficiles à mettre
au point.
1. Plus précisément, nous avons vu au chapitre 5 que pour caractériser complètement un état
superposé, il faut deux nombres : une probabilité et une orientation. a et b ne sont donc pas
des probabilités à proprement parler, mais un mélange de ces deux nombres.
S’il y a une chose que les hommes aiment faire, c’est mesurer le
temps. On raconte que Christophe Colomb, lors de son voyage
vers l’Amérique, retournait un sablier toutes les demi-heures…
Depuis des siècles, les plus grands esprits ont rivalisé
d’ingéniosité pour améliorer la précision de nos gardiens du
temps. Grâce à la physique quantique, cette précision a atteint
e
son paroxysme au XX siècle avec les horloges atomiques,
tellement précises que si elles avaient été installées au moment
du Big Bang, elles n’auraient accumulé qu’une seconde de
retard… Une telle précision peut sembler superflue, mais elle est
capitale dans nombre de technologies modernes comme le
guidage par satellite.
La quantique joue un rôle paradoxal en ce qui concerne la
science de la mesure. D’un côté, elle nous offre de nouvelles
générations d’horloges, de capteurs magnétiques, électriques,
gravimétriques, tous plus précis les uns que les autres. De
l’autre, elle nous enseigne, via son principe d’incertitude, qu’il
existe une limite de précision infranchissable. Les physiciens ont
dû apprendre à composer avec cette limite pour poursuivre leur
course à la précision.
Compter à l’oreille
Quelle est la différence entre le dong d’une cloche frappée et le clap d’un
applaudissement ? Le son de la cloche est une note assez facile à
identifier : on pourrait, en tâtonnant sur un piano, la retrouver assez
facilement. Ce n’est pas le cas de l’applaudissement, que l’on pourrait
qualifier de « bruit ». Qu’est-ce qui cloche ici ?
Le son est une onde, semblable à une série de vagues sur la mer : il se
propage jusqu’à nos oreilles en comprimant et dilatant des couches d’air.
Sa hauteur est déterminée par la fréquence de l’onde : sur l’océan, cela
correspond au nombre de vagues qui déferlent par seconde. Imaginezvous en mer, à bord d’une petite embarcation, une montre au poignet. Pour
mesurer la fréquence de l’onde, il suffit de chronométrer la durée qui
s’écoule entre le passage de deux vagues successives. À l’aide de la
trotteuse, vous comptez une durée de 5 secondes. Ce résultat est peu
précis : il indique que la durée réelle se situe quelque part entre 4 et
6 secondes, mais difficile d’avoir plus d’informations.
Une astuce simple pour améliorer la précision est de chronométrer le
passage de dix vagues, puis de diviser le résultat par dix. Vous mesurez
52 secondes, ce qui vous donne un résultat de 5,2 secondes, précis au
dixième de seconde : vous savez désormais que la valeur réelle se situe
entre 5,1 secondes et 5,3 secondes. Si vous laissiez passer mille vagues,
vous pourriez obtenir, avec votre simple montre, une précision de l’ordre
de la milliseconde, meilleure qu’un chronomètre haut de gamme ! Ainsi,
plus on compte de vagues, mieux on connaît la fréquence de l’onde.
Pour déterminer la hauteur d’un son, notre oreille suit un procédé très
similaire : elle mesure la fréquence moyenne de l’onde sonore sur un grand
nombre de crêtes. Or, là est la grande différence entre le son de la cloche et
celui de l’applaudissement : leur durée. Le dong de la cloche résonne
longuement et permet à l’oreille de compter un grand nombre de crêtes, tel
un long train de vagues. Le clap de l’applaudissement est plutôt comme
un tsunami : une vague unique de forte intensité qui déferle sur la plage.
Impossible de mesurer la durée entre deux vagues si l’on n’en dispose que
d’une !
La brièveté du clap rend donc sa hauteur difficile à identifier – l’incertitude
sur sa fréquence est élevée. En revanche, on peut déterminer l’instant du
clap avec une grande précision : c’est pourquoi les cinéastes utilisent des
claps, et non des cloches, pour synchroniser le son et l’image en postproduction. Morale de l’histoire : un son bref est facile à localiser dans le
temps, mais difficile à localiser en termes de fréquence. À l’inverse, un son
long est étalé dans le temps, mais sa fréquence peut être connue très
précisément.
Ce résultat vaut en fait pour tous les types d’ondes – il a notamment
d’importantes conséquences dans le domaine des télécommunications. En
1927, l’un des pionniers de la théorie quantique dont nous avons peu parlé
jusqu’ici, Werner Heisenberg, a l’idée d’appliquer le même raisonnement
aux ondes quantiques. C’est ainsi que naît son principe d’incertitude,
dont les implications physiques sont particulièrement exotiques.
LES MIRACLES
DE LA COCHLÉE
Tout comme la lumière du Soleil peut être décomposée en
arc-en-ciel grâce à un prisme, les sons sont habituellement
constitués d’un mélange d’ondes sonores de fréquences
différentes. L’ensemble de ces fréquences constitue le spectre
du son et définit son timbre : il permet de distinguer le la d’un
violon du la d’une clarinette.
Si l’oreille peine à attribuer une fréquence précise à des sons
courts, elle est très efficace pour caractériser leur spectre
grâce à la cochlée, petit organe spiral de l’oreille interne qui
joue le rôle de « prisme sonore ». C’est ainsi que l’on fait
facilement la distinction entre un applaudissement, un
tintement de verre et un craquement de bois mort. Pouvoir
ainsi reconnaître des bruits courts a pu constituer un avantage
évolutif pour nos lointains ancêtres vivant dans la forêt.
Les fourmillements du vide
Commençons par appliquer le principe d’incertitude à la lumière, onde
quantique par excellence. Il nous indique que plus un flash lumineux est
bref, moins sa fréquence est bien définie. Or, la fréquence d’un photon est
directement reliée à son énergie (voir chapitre 2). On en déduit la chose
suivante : plus un système quantique vit sur une durée courte, plus son
énergie est floue. Cela peut sembler abstrait, mais une conséquence
absolument vertigineuse en découle : le vide n’existe pas.
En effet, le vide implique l’absence de toute chose, et donc une énergie
strictement nulle, parfaitement connue. Or, lorsque l’on regarde ce vide sur
une durée courte, le principe d’incertitude nous indique qu’on a
nécessairement une incertitude sur son énergie : elle ne peut être
parfaitement connue. La seule façon de remédier à cette contradiction est
d’accepter que le vide ne soit pas réellement vide.
Le vide est plutôt semblable à une fourmilière. Lorsqu’on le regarde de
loin, il paraît bel et bien inerte, mais lorsque l’on s’approche de plus près, il
grouille de petits événements insaisissables appelés fluctuations
quantiques, comme la création ex nihilo de paires de particules qui
s’annihilent aussitôt. Ces événements, aussi éphémères qu’ils soient,
confèrent au vide une substance, et même une énergie mesurable.
LES REMOUS
QUANTIQUES
Les matelots le savent : il ne faut jamais laisser deux bateaux
côte à côte dans une mer agitée ! Ces derniers seront poussés
l’un vers l’autre par la houle, jusqu’à la collision. En effet, la
zone entre les deux bateaux est abritée du vent, et les
quelques clapotis qui y survivent ne peuvent compenser les
vagues qui s’écrasent contre l’autre côté de la coque. Cet effet
a un analogue dans le monde quantique, qui ne provient pas
de la houle mais des fluctuations du vide : l’effet Casimir.
Lorsque l’on place deux plaques de métal parallèlement l’une
à l’autre, elles subissent une force qui tend à les rapprocher, à
cause des fluctuations quantiques plus importantes à
l’extérieur des plaques qu’à l’intérieur. Cette force est très
faible, et ne produit des effets tangibles que pour des plaques
extrêmement proches : il fallut attendre cinquante ans entre sa
prédiction par le physicien néerlandais Hendrik Casimir et sa
première détection, en 1997. De nos jours, elle commence
déjà à poser problème aux fabricants de microprocesseurs,
dont les transistors atteignent des tailles si minuscules qu’ils
entrent dans le règne du quantique. En revanche, elle peut
être mise à profit pour mesurer la position d’objets
nanoscopiques avec précision !
Rien n’est immobile
Après la lumière, appliquons notre principe d’incertitude à un autre type
d’onde purement quantique : la fonction d’onde, qui décrit de manière
probabiliste la position de particules quantiques comme les électrons (voir
chapitre 4). Cette onde est soumise à la même loi : plus elle est localisée,
plus sa fréquence est floue. Que signifie « localisée » ? Simplement qu’elle
est resserrée autour d’un endroit de l’espace, signifiant que l’incertitude sur
la position de l’électron est faible. Quant à la fréquence de la fonction
d’onde, elle correspond physiquement à la vitesse de l’électron. Ainsi, le
principe d’incertitude nous dit la chose suivante : plus la position de
l’électron est connue avec précision, plus sa vitesse fluctue. C’est en fait
sous cette forme que Werner Heisenberg publie son principe en 1927.
Cette affirmation a de quoi surprendre. Pour mieux la comprendre,
essayons de localiser notre cher électron comme on cherche nos clés dans
le noir : en l’éclairant. Cela implique de l’inonder de photons : ceux qu’il
absorbe trahissent sa position en créant une « ombre » (voir figure).
Seulement, lorsque l’électron absorbe un photon, il subit un recul, comme
s’il était heurté par une boule de billard, ce qui affecte son mouvement.
Ainsi, plus on l’éclaire, plus on a d’information sur sa position, car l’ombre
est plus nette, mais moins on en a sur sa vitesse, qui est modifiée par les
photons absorbés.
Une conséquence particulièrement déroutante de cette loi est qu’aucune
particule quantique ne peut être immobile. En effet, si une particule était
immobile, alors sa vitesse serait strictement nulle et sa position serait
parfaitement déterminée, ce qui est impossible d’après notre sacro-saint
principe d’incertitude. Cette idée peut sembler absurde de notre point de
vue, car la plupart des objets qui nous entourent semblent immobiles : la
table, le tapis sur lequel elle repose, le stylo posé dessus. Mais à l’échelle
microscopique, les molécules qui constituent ces objets sont en
perpétuelle agitation.
INCERTITUDE
OU INDÉTERMINATION
?
Depuis sa formulation en 1927, le principe d’incertitude a
alimenté nombre de fausses croyances. Il laisse en effet
entendre que la position et la vitesse de la particule ont une
valeur bien déterminée, mais que la nature nous empêche d’y
accéder, comme par l’action d’un voile pudique. En réalité, ce
sont les valeurs de ces quantités qui sont intrinsèquement
indéterminées : parler de la position exacte d’un atome a aussi
peu de sens que de préciser les coordonnées exactes d’une
chaîne de montagnes. Heisenberg prit rapidement conscience
de cette source de confusion, et suggéra de remplacer
« principe d’incertitude » par « principe d’indétermination » ;
ce fut trop tard, hélas.
Le principe d’incertitude n’est pas un aveu de faiblesse,
entérinant notre ignorance sur le monde. Bien au contraire,
c’est une relation mathématique qui permet de quantifier
précisément l’indétermination associée à une grandeur
physique. À nouveau, la théorie quantique est clairvoyante
dans son flou : il faudrait plutôt parler de « relation
d’indétermination » que de « principe d’incertitude ».
À la recherche du zéro absolu
La température d’un corps est déterminée par la vitesse d’agitation des
molécules qui le composent. Lorsqu’on allume le brûleur d’une
montgolfière par exemple, les molécules de gaz contenues dans le ballon
accélèrent, et leurs chocs contre l’enveloppe du ballon font gonfler ce
dernier. À l’inverse, en refroidissant un corps, on ralentit son agitation
microscopique. Jusqu’où peut-on refroidir ?
A priori, jusqu’à ce que les particules microscopiques soient à l’arrêt. C’est
ainsi qu’est défini le zéro absolu, l’origine de l’échelle de température de
Lord Kelvin, soit environ –273,15 °C. À cette température, la matière est
totalement figée : les particules sont toutes immobiles.
Peut-être vous exclamez-vous déjà d’indignation : c’est une violation
catégorique du principe d’incertitude ! Puisqu’aucune particule ne peut
être parfaitement immobile, on ne peut atteindre le zéro absolu en
pratique. Les particules garderont toujours une irrépressible bougeotte
quantique, due au principe d’incertitude, qui leur interdit de s’immobiliser
totalement.
C’est ce qui nous permet de refroidir l’hélium liquide à des températures
aussi basses que l’on veut sans craindre qu’il gèle : les atomes d’hélium
s’attirent si peu que même l’infime agitation quantique est suffisante pour
empêcher les atomes de se ranger en ordre pour former un solide. L’hélium
liquide est une mine d’or pour la cryogénie – la science du froid –, et est
utilisé dans plusieurs des applications que nous allons rencontrer au cours
des chapitres suivants (appareils IRM, trains à lévitation magnétique…).
Vous l’aurez compris : jamais vide, jamais immobile, le monde quantique
n’est décidément jamais au repos.
ZÉRO DEGRÉ EN ZÉROG
Les physiciens aiment battre des records, et si le zéro absolu
est inatteignable, s’en approcher autant que possible compte
parmi les défis qu’ils aiment se lancer. En août 2021, une
équipe de l’Université de Brême a mis la barre très haut, ou
plutôt très bas, en refroidissant un gaz à… quelques
trillionièmes de degrés au-dessus du zéro absolu.
L’astuce : s’affranchir de la gravité, qui a naturellement
tendance à mettre les corps en mouvement. Pour y parvenir,
les chercheurs ont lâché leur précieux gaz depuis les
120 mètres de hauteur de la Bremen Drop Tower, une tour
construite spécialement pour ce genre d’expériences
farfelues. C’est donc en pleine chute libre que le système a
atteint la température la plus basse qui ait jamais existé sur
Terre… Et peut-être même ailleurs dans l’Univers !
Midi moins le quartz
Si vous possédez une montre au poignet, celle-ci fonctionne probablement
grâce à un petit cristal de quartz. Lorsqu’il est excité électriquement, ce
dernier oscille mécaniquement à raison de 32 768 oscillations par seconde,
comme une pendule ultra-rapide qui mesurerait les dix-millièmes de
seconde. Ce battement est très régulier et permet à la montre de se
dérégler de moins d’une seconde par jour, soit quelques minutes par an à
peine.
Cette précision est étonnante pour un objet aussi bon marché, et
largement suffisante pour un usage personnel. Néanmoins, la fréquence
d’oscillation du cristal peut varier légèrement d’un modèle à l’autre. L’idéal,
pour créer des horloges fiables et absolument identiques, serait d’utiliser
des objets que l’on sait être strictement identiques. Les atomes, par
exemple ?
Souvenez-vous, un atome est comme une petite guitare : ses électrons
peuvent se trouver dans un certain nombre de niveaux d’énergie dont les
valeurs sont connues très précisément (voir chapitre 3). Quand un électron
saute d’un niveau au niveau inférieur, il émet un photon à une fréquence
fixe, toujours la même, contrairement au cristal de quartz. C’est sur cette
idée qu’a été définie la seconde en 1967, comme « la durée de
9 192 631 770 périodes de la radiation correspondant à la transition entre
les deux niveaux hyperfins de l’état fondamental de l’atome de
césium 133 ».
Cette définition alambiquée a l’avantage d’offrir une méthode « pratique »
pour déterminer la durée d’une seconde avec précision : il suffit de se
munir d’un atome de césium et de mesurer très précisément la fréquence
de transition entre les deux niveaux considérés, tout comme on vérifie la
hauteur d’une note de guitare avec un accordeur.
Seulement, la mesure n’est pas aussi facile dans le cas de l’atome, et ce, en
raison d’un effet bien connu des fans de course automobile : l’effet
Doppler. C’est lui qui cause le rugissement si caractéristique des voitures
de formule 1 qui passent devant la caméra : « gniii-ooon ». De même, la
sirène d’une ambulance paraît plus aiguë quand elle se rapproche de nous,
puis plus grave lorsqu’elle s’éloigne. Plus généralement, n’importe quelle
onde provenant d’une source en mouvement voit sa fréquence modifiée
pour un observateur fixe.
Le physicien qui observe les photons émis par une collection d’atomes
s’agitant dans tous les sens se retrouve confronté au même phénomène. La
fréquence des photons émis par les atomes se déplaçant vers lui est
augmentée par l’effet Doppler, et diminuée pour ceux qui s’éloignent. Pour
mesurer la fréquence de transition des atomes le plus précisément
possible, il faut donc ralentir les atomes, c’est-à-dire les refroidir autant que
possible (voir encadré ci-après). La plupart des horloges atomiques
actuelles fonctionnent grâce à ces atomes froids.
Admettons que l’on puisse refroidir nos atomes jusqu’au zéro absolu – ce
qui est impossible, on l’a vu, à cause du principe d’incertitude. Pourrait-on
déclarer que notre horloge à atomes est infiniment précise ? Toujours pas !
Un photon est un flash lumineux, émis lors de la désexcitation de l’atome
de césium. Sa durée est brève, tout comme le clap de l’applaudissement, ce
qui implique une irréductible incertitude sur sa fréquence – toujours selon
le principe d’incertitude. Le voici à nouveau qui nous met dans l’embarras !
ÉCLAIRER POUR
REFROIDIR
Le meilleur moyen de refroidir des atomes est d’utiliser… de la
lumière. Si celle du Soleil nous réchauffe, il en est autrement
dans le monde nanoscopique, où refroidir signifie ralentir.
L’idée est de piéger les atomes en les inondant de faisceaux
lasers depuis toutes les directions, comme les jets d’eau
arrosent une voiture au car wash.
Si l’atome cherche à s’échapper du piège, les photons qui le
heurtent de face verront leur fréquence augmenter par effet
Doppler – ici utilisé à notre avantage –, tout comme le jet
d’eau paraît plus puissant si l’on avance vers lui. Si l’on règle
correctement la fréquence des lasers, ces photons atteindront
pile la fréquence de transition de l’atome et seront absorbés,
repoussant l’atome en arrière. Claude Cohen-Tannoudji reçut
le prix Nobel en 1997 pour la mise en place de cette technique
de refroidissement laser.
Comprimer pour mieux voir
Résumons : plus une particule est localisée dans l’espace, moins sa vitesse
est déterminée, et plus elle est localisée dans la durée, moins son énergie
est déterminée. Le principe d’incertitude de Heisenberg nous apprend que
chaque grandeur mesurable possède une grandeur conjuguée, telle que si
l’une est déterminée avec précision, l’autre devient floue. La position et la
vitesse sont deux grandeurs conjuguées, tout comme la durée et l’énergie.
Si l’on voulait dessiner l’état d’un système quantique dans un graphique
qui aurait comme axes les deux grandeurs conjuguées, on ne pourrait pas
le représenter par un point, mais par un ballon caractérisant l’irréductible
flou quantique. Le principe d’incertitude nous autorise néanmoins à
déformer ce ballon comme une baudruche, tant que son volume total reste
constant.
On peut illustrer ce jeu entre grandeurs conjuguées par un cadran solaire,
formé d’un bâton planté dans le sol dont l’ombre se déplace avec le Soleil
(voir figure). Pour lire l’heure au mieux, on voudrait une ombre aussi nette
et longue que possible.
Lorsque le Soleil est au zénith, l’ombre portée du bâton est très nette mais
courte et tassée : elle est facile à repérer sur le sol (l’incertitude sur sa
position est faible), mais difficile de lire sa direction (l’incertitude sur sa
direction est grande). À l’inverse, au crépuscule, le Soleil est bas dans le
ciel et l’ombre portée du bâton s’allonge, mais les rayons du Soleil se font
timides et le contraste n’est plus très bon. On peut dire qu’au zénith, notre
ballon d’incertitude est comprimé dans la direction de la « position », et au
crépuscule dans la direction de la « direction » (voir figure suivante).
Si notre but est de lire l’heure le plus précisément possible, la deuxième
situation semble la plus intéressante, même si elle vient au prix d’un effort
supplémentaire (de bons yeux pour distinguer l’ombre recherchée). De
façon générale, pour obtenir des mesures de précision, les physiciens
doivent s’arranger ainsi avec le principe d’incertitude, en comprimant leurs
systèmes quantiques selon la direction la plus intéressante, même si cela
implique des fluctuations indésirables de sa variable conjuguée. Si le
principe d’incertitude peut limiter la précision de nos mesures, il offre
heureusement une solution de contournement.
C’est ce principe qu’exploitent les horloges atomiques les plus récentes
pour améliorer leur précision. Comment comprimer le ballon d'incertitude
dans la pratique ? Il n'y a pas de réponse unique, mais l'intrication peut
être d'une grande aide. En intriquant entre eux les atomes froids de
l'horloge, on peut ainsi réussir à diviser par cent l'incertitude sur la
fréquence d'émission. Preuve une nouvelle fois que l’intrication n’a pas fini
de nous surprendre.
Remettre les pendules
à l’heure
Un des tours de force les plus spectaculaires des horloges quantiques est
de pouvoir mesurer les effets de dilatation du temps prédits par la
relativité. Cette théorie, que nous n’avons évoquée qu’en filigrane au cours
de cet ouvrage, stipule que le temps d’un observateur en mouvement
ralentit par rapport à un observateur immobile. Plus spectaculaire encore,
le temps est affecté par la gravité, et passe plus vite en altitude !
En 1971, deux physiciens américains testèrent ces étonnantes prédictions
en embarquant des horloges atomiques à bord de deux avions de ligne,
l’un chargé de parcourir un tour du monde vers l’Est, l’autre vers l’Ouest.
Lorsque les avions retournèrent au point de départ, ils purent constater un
décalage de quelques dixièmes de microseconde entre les deux horloges
et une troisième restée au sol. En tenant compte à la fois de l’altitude des
avions et de leur mouvement, le décalage était parfaitement conforme à
celui prévu par les équations de la relativité.
Mesurer l’infime distorsion du temps que l’on ressent dans un avion vous
semble peu applicable aux problèmes de la vie courante ? Détrompezvous. C’est grâce à la précision des horloges atomiques que nos GPS
peuvent nous localiser aussi précisément. Pour se repérer sur une carte,
votre smartphone reçoit en permanence des ondes radio envoyées par
trois satellites, en orbite à plusieurs dizaines de milliers de kilomètres
d’altitude, et calcule la durée mise par ces ondes à lui parvenir grâce à un
quatrième satellite. Les ondes radio voyageant à la vitesse de la lumière, la
moindre microseconde d’erreur induirait une erreur de localisation de trois
cents mètres !
Pour atteindre une précision de l’ordre du mètre, les satellites doivent donc
mesurer le temps à la nanoseconde près, et ont besoin pour cela de la
précision des horloges atomiques. Les satellites doivent en permanence
prendre en compte la distorsion du temps due à leur altitude, qui introduit
de précieuses microsecondes de décalage. Ainsi, les deux grandes théories
de la physique dont Einstein était le précurseur, la relativité et la
quantique, sont toutes les deux mises à contribution à chaque fois que
nous utilisons Google Maps !
CULTURE
La distorsion du temps due à la gravité est magnifiquement
illustrée dans le film Interstellar (2014) de Christopher Nolan.
Sur l’une des planètes visitées par le héros, située très proche
d’un trou noir, chaque heure équivaut à sept années sur
Terre… Ce qui vaut au protagoniste la désagréable surprise de
retrouver sa propre fille plus âgée que lui !
Si l’effet relativiste est ici exagéré à des fins scénaristiques, il
est assez facilement mesurable sur Terre : nos horloges
atomiques les plus performantes peuvent détecter la
différence de vitesse d’écoulement du temps entre deux
points dont l’altitude diffère de quelques centimètres.
Résumé du concept :
le principe d’incertitude
Le principe d’incertitude (ou d’indétermination) de Heisenberg
nous enseigne que l’on ne peut pas connaître simultanément
certaines propriétés d’un système quantique. Lorsque l’on cherche à
mesurer l’une d’elles avec précision, on perd nécessairement de
l’information sur une autre.
Ceci a des conséquences remarquables : rien ne peut être immobile,
le vide n’existe pas… Mais également des applications bien
concrètes : pour effectuer des mesures de précision, les physiciens
doivent chercher à jouer avec ce principe d’incertitude pour le
tourner à leur avantage.
Nous sommes en général familiers avec les aimants depuis
l’enfance. Qui ne s’est jamais émerveillé devant leur étrange
capacité à tantôt s’attirer, tantôt se repousser ? La physique
quantique, qui ne semble décrire que des objets éloignés de
notre réalité, se manifeste pourtant dans des objets aussi banals
que les figurines collées sur les portes de réfrigérateur.
Alors que le magnétisme est étudié depuis plusieurs siècles, la
véritable nature des aimants n’a été comprise que grâce à la
découverte d’une propriété purement quantique des particules :
le spin. C’est aussi en jouant avec ces spins que les physiciens
sont parvenus à l’une des innovations médicales les plus
e
importantes du XX siècle : l’imagerie par résonance magnétique,
ou IRM.
Un bouclier naturel
Parmi toutes les merveilles de la nature, peu rivalisent avec la grâce des
aurores polaires, ces immenses rideaux colorés qui illuminent la nuit de
leurs ondulations. Elles sont en fait les résidus de vents solaires, immenses
salves de particules crachées par le Soleil qui s’écrasent contre le champ
magnétique terrestre. Ce bouclier naturel dévie les particules et les
canalise vers les pôles magnétiques de la Terre, nous protégeant de leurs
effets cancérigènes. Une fois dans la haute atmosphère, elles percutent des
molécules d’air, qui se mettent à émettre cette lumière verte qui zèbre
régulièrement le ciel dans des pays comme le Canada ou la NouvelleZélande.
Ce champ magnétique salvateur provient en fait des profondeurs de la
Terre. Cette dernière possède, en son noyau ardent, des nappes de métal
fondu qui tournent autour de l’axe nord-sud du fait de sa rotation. Or, nous
savons depuis le XVIIIe siècle qu’un déplacement de charges électriques
génère autour de lui un champ magnétique. Vous le verrez si vous
approchez une boussole d’un fil traversé par un courant électrique :
l’aiguille s’oriente perpendiculairement au fil.
Mais alors, qu’en est-il de ces fameux aimants qui s’accrochent à votre
réfrigérateur ? Dépourvus de pile, leur magnétisme ne peut
vraisemblablement pas s’expliquer par la présence d’un courant électrique.
Le champ magnétique qu’ils produisent doit avoir une autre origine… Pour
la découvrir, nous allons devoir revenir à l’échelle des atomes.
Des atomes déboussolés
Au début du XXe siècle, les physiciens comprennent que les atomes sont
formés d’un noyau entouré d’électrons. Il est alors facile d’imaginer que les
électrons génèrent un champ magnétique en tournant autour du noyau,
transformant l’atome en un minuscule aimant.
En 1922, les physiciens allemands Otto Stern et Walter Gerlach se mettent
en tête d’examiner les propriétés de ces aimants nanométriques. Ils
utilisent pour cela un gros aimant, capable de générer un fort champ
magnétique selon la direction verticale, à travers lequel ils envoient un jet
d’atomes d’argent. En observant les impacts des atomes sur un écran placé
derrière l’aimant, on peut en déduire leur trajectoire.
Si l’on envoyait de véritables aimants à travers ce dispositif, ceux-ci
seraient déviés différemment en fonction de leur orientation. Lorsque le
pôle Nord de l’aimant pointe vers le haut, l’aimant est dévié vers le bas, et
inversement. En revanche, si son pôle Nord est à l’horizontale, les forces
vers le haut et le bas se compensent, et l’aimant n’est pas dévié. Pour
toutes les orientations intermédiaires, la déviation est proportionnelle à
l’angle que forme l’aimant par rapport à la verticale. Ainsi, en envoyant un
jet d’aimants orientés aléatoirement à travers le dispositif, on devrait
observer une tache étalée verticalement sur l’écran (figure de gauche).
Mais lorsqu’ils font l’expérience avec les atomes d’argent, Stern et Gerlach
voient apparaître deux taches bien distinctes sur l’écran : une en haut et
une en bas (figure de droite). Tout se passe comme si le petit aimant des
atomes ne pouvait être orienté que vers le haut ou vers le bas !
To spin or not to spin
L’expérience de Stern et Gerlach est fondamentale : elle montre que tout
comme les niveaux d’énergie, l’aimantation des atomes est quantifiée. Elle
n'a que deux états possibles : Nord, Sud, mais rien d’intermédiaire. Elle doit
donc avoir une origine quantique. Quelques années après l’expérience, les
physiciens comprennent que l’aimantation des atomes d’argent ne peut
pas s’expliquer par le mouvement des électrons autour du noyau. Elle
provient en réalité d’une propriété intrinsèque des électrons eux-mêmes :
le spin.
Il est tentant d’imaginer l’électron comme une toupie miniature, qui
générerait, comme la Terre, un champ magnétique du fait de sa rotation :
c’est ce qui a donné son nom au spin (rotation, en anglais). Cette image est
en fait trompeuse, car l’électron est, autant qu’on le sache, de taille
infiniment petite. En réalité, la physique ne peut expliquer d’où vient ce
spin, tout comme elle ne peut expliquer d’où vient la charge électrique de
l’électron – elle a pour vocation de décrire le « comment », et non le
« pourquoi ». Il faut accepter le spin comme une propriété purement
quantique de l’électron, sans équivalent classique.
LE COMPAS DANS
L’ŒIL
Comment les oiseaux migrateurs parviennent-ils à traverser la
moitié du globe terrestre sans se perdre ? Une hypothèse
naturelle est qu’ils s’orientent grâce au Soleil, mais dans ce
cas, comment font-ils la nuit, ou lorsque le ciel est voilé ? Leur
capacité à ne jamais perdre le Nord fascine encore les
scientifiques de nos jours. En 2021, une équipe regroupant
ornithologues, physiciens et chimistes annonce avoir trouvé la
réponse.
L’œil du rouge-gorge serait pourvu d’une protéine, appelée
cryptochrome, qui parvient à lui faire détecter le champ
magnétique terrestre, comme une boussole. Le mécanisme
est complexe : la protéine est capable de produire deux
électrons aux spins intriqués, qui ressentent un champ
magnétique différent et affectent en retour les propriétés
chimiques de la protéine. Comment le rouge-gorge parvient-il
à maintenir cette intrication en vie, quand les physiciens s’y
arrachent les cheveux en laboratoire, dans des conditions de
froid extrême ? Comme souvent, les prouesses de l’évolution
nous dépassent…
La vie secrète des aimants
Au sein des atomes et molécules, les électrons ont tendance à se regrouper
par paires. Un électron se marie toujours avec un électron de spin opposé,
de telle sorte que leurs champs magnétiques s’annulent. Ainsi, les atomes
et molécules possédant un nombre d’électrons pair ne se comportent pas
comme des aimants : on les qualifie de matériaux diamagnétiques. C’est
le cas de la plupart des molécules qui nous entourent, comme l’eau et le
dioxygène.
Ce n’est pas le cas des atomes métalliques, qui possèdent des électrons
célibataires, les fameux électrons « libres » qui permettent de conduire le
courant électrique. Ce sont eux qui transforment les atomes d’argent de
Stern et Gerlach en petites boussoles quantiques. Dans certains métaux
comme le fer, ces boussoles peuvent s’aligner, de manière à ajouter leurs
effets et créer un champ magnétique global : on parle alors de
ferromagnétisme. C’est ainsi que fonctionnent les aimants permanents
comme ceux que l’on colle aux réfrigérateurs ! Lorsque l’on fait
« remagnétiser » une carte bancaire, on réaligne en réalité ses spins…
Dans les autres métaux, ces boussoles sont orientées aléatoirement, et
annulent leurs effets respectifs. Mais en présence d’un champ magnétique
extérieur, les boussoles peuvent s’aligner : on parle alors de
paramagnétisme. C’est le cas d’une feuille d’aluminium : lorsqu’on
l’approche d’un aimant, elle devient elle-même légèrement aimantée,
suffisamment pour être soulevée.
CULTURE
Non seulement les atomes et molécules diamagnétiques ne
sont pas attirés par les champs magnétiques, mais ils ont
même tendance à être légèrement repoussés. C’est le cas
notamment de l’eau, et donc des cellules vivantes.
En générant un fort champ magnétique et en utilisant le
diamagnétisme de son corps, le maléfique Magnéto de
Marvel, ennemi juré des X-Men, parvient à se mettre en
lévitation. Un super-pouvoir pas si irréaliste : en 2000, une
équipe de chercheurs a réussi à faire léviter une grenouille,
par la seule action d’un puissant aimant sur l’eau que contient
le pauvre batracien ! Cette prouesse leur valut le prix Ig
Nobel, une récompense satirique décernée à la découverte
scientifique la plus loufoque de l’année.
Ê
Être en phase
Nous voilà armés pour comprendre l’un des outils d’analyse les plus
puissants que la physique nous ait fournis : la résonance magnétique
nucléaire. Elle a offert à la médecine l’imagerie par résonance magnétique,
ou IRM, une technologie aussi précise qu’inoffensive pour le corps, mais a
aussi révolutionné la chimie, permettant d’identifier des molécules de
manière très précise.
Commençons par décortiquer le sens du mot résonance en physique.
Nous avons tous découvert ce principe dès notre plus jeune âge sans le
savoir, en poussant nos amis sur une balançoire. Rapidement, on s’aperçoit
qu’il faut pousser juste au bon moment, lorsque la balançoire est au plus
haut, pour que l’amplitude des oscillations augmente. Autrement dit, il faut
se synchroniser au rythme naturel de la balançoire pour lui fournir de
l’énergie.
Quel rapport avec la résonance, terme que l’on utilise surtout dans le
domaine du son ? Dans le langage courant, on confond la résonance avec
la réverbération : on dit qu’une église « résonne » parce qu’elle produit un
écho. En physique, la résonance désigne un phénomène d’amplification
qui a lieu lorsqu’un objet vibre à l’une de ses fréquences naturelles. Par
exemple, lorsque l’on pince une corde de guitare, on génère toutes sortes
d’ondes qui se déplacent le long de la corde et rebondissent aux
extrémités. Pourtant, on n’entend qu’une seule note : celle correspondant à
l’onde qui oscille exactement une fois sur un aller-retour le long de la
corde. Elle est amplifiée par résonance, exactement comme la balançoire
qui est poussée à chaque aller-retour, tandis que les autres ondes
s’atténuent rapidement.
Remarquez qu’il existe une autre stratégie pour faire accélérer la
balançoire : pousser non pas à chaque oscillation, mais une fois toutes les
deux oscillations, ou toutes les trois oscillations. Pour la corde de guitare,
c’est la même chose : quelques ondes secondaires, de fréquences multiples
de la fréquence fondamentale, sont amplifiées par résonance. Ce sont les
harmoniques (voir figure ci-dessous) qui définissent le timbre du son.
LES DANGERS
DE LA RÉSONANCE
Si la résonance est souhaitable en ce qui concerne les
instruments de musique, elle est souvent indésirable. Vous
avez peut-être remarqué que lorsqu’une machine à laver
accélère lors de l’essorage, elle se met parfois à trembler
violemment : ceci arrive lorsque la rotation du tambour excite
l’une des fréquences naturelles de la machine. Mais il y a bien
plus dommageable que cette nuisance sonore.
Plusieurs fois au cours du XIXe siècle, des troupes de soldats
eurent la déconvenue de provoquer l’effondrement d’un pont
en le traversant au pas. Ceci arrive lorsque le rythme régulier
de leur marche correspond, par malchance, à l’une des
fréquences de résonance du pont. Depuis, les militaires savent
qu’il faut toujours rompre le pas avant de traverser. Plus
généralement, dans tous les secteurs de la construction, les
ingénieurs apprennent à se méfier des phénomènes de
résonance, que ce soit pour éviter les bruits désagréables
dans une voiture ou protéger les bâtiments des tremblements
de terre.
Le chant du spin
L’IRM sonde la nature des tissus corporels en faisant résonner leurs
atomes. Et c’est ici que les spins entrent en jeu.
Si vous avez joué à la toupie enfant, vous vous souvenez peut-être que
lorsqu’elle perd de la vitesse, sa pointe décrit des cercles sur le support,
tandis que son axe de rotation tourne autour de la verticale – on parle de
précession. Lorsque l’on place un spin dans un champ magnétique, il se
passe la même chose : le spin se met à tourner autour de l’axe du champ, à
une vitesse proportionnelle à l’intensité du champ.
Un appareil IRM consiste en une gigantesque bobine cylindrique, sorte de
tunnel dans lequel est plongé le patient. On y génère un puissant champ
magnétique en injectant d’intenses courants électriques dans la bobine.
Cette dernière se met à vibrer bruyamment, produisant un son aussi
puissant qu’un marteau piqueur – d’où les casques de chantier dont on
munit les patients. Le champ magnétique ainsi produit est colossal –
plusieurs milliers de fois plus puissant que le champ magnétique terrestre
– ce qui exclut la présence du moindre objet magnétique dans la pièce
(téléphone, montre…).
L’intensité de ce champ augmente d’un bout à l’autre du tunnel, de sorte
que la vitesse de précession des spins varie le long du corps. Pour faire
« résonner » les spins d’une zone précise, il suffit d’envoyer une onde radio
de fréquence égale à leur vitesse de précession. En effet, chaque spin se
comporte comme une petite antenne radio qui ne peut capter qu’une seule
station : les spins de vos pieds captent France Inter, ceux de vos chevilles
captent France Bleu, ceux de vos genoux RTL… Pour scanner des pieds
aux genoux, le radiologue n’a qu’à balayer les fréquences, de France Inter à
RTL.
Lorsqu’un spin reçoit une onde radio à la bonne fréquence, il résonne et
gagne de l’énergie, tout comme la balançoire. Il suffit ensuite d’écouter
l’écho : il relâche cette énergie quelques instants plus tard. La durée de
l’écho varie selon les types de tissus mis en jeu – les zones graisseuses ont
tendance à relâcher l’énergie plus vite que les zones aqueuses –, ce qui
permet de donner une image précise de la composition de la zone
scannée. Vous le saurez désormais : dans les imposants appareils IRM,
votre corps devient un véritable poste de radio !
REMPLACER
LES RAYONS X
S’il fallait encore vous convaincre que la physique théorique
n’est pas si déconnectée du monde réel, mentionnons une
autre révolution médicale issue de la physique des particules :
la protonthérapie. Elle permet de traiter les tumeurs de
manière beaucoup moins invasive que la radiothérapie en
remplaçant les rayons X par des protons accélérés jusqu’à des
vitesses proches de celle de la lumière.
L’avantage est considérable : lorsqu’un faisceau de rayons X
traverse le corps, ses photons sont absorbés et il s’affaiblit
pendant la propagation. Si la tumeur est en profondeur, une
radiothérapie peut infliger d’importants dommages aux tissus
en surface. Le proton, lui, n’est pas absorbé par les atomes : il
se cogne contre eux. Il faut l’imaginer comme une balle de
fusil qui pénètre dans le corps à haute vitesse et ralentit au gré
des chocs : plus il ralentit, plus il interagit avec les atomes, et
plus les chocs deviennent nombreux. Le maximum d’énergie
est libéré au moment où le proton s’arrête, et permet de cibler
précisément la tumeur en épargnant les tissus environnants.
Résumé du concept :
le spin
Le spin est une propriété de certaines particules quantiques comme
les électrons, qui génère un minuscule champ magnétique. Dans la
plupart des matériaux, ces spins s’annulent mutuellement, mais
dans les aimants, ils sont tous alignés : leurs effets s’ajoutent pour
produire un champ magnétique suffisant pour adhérer à une porte
de réfrigérateur.
À l’origine, les physiciens pensaient que le spin provenait de la
rotation des électrons, comme le champ magnétique de la Terre.
Pourtant, l’expérience de Stern et Gerlach montre que c’est une
propriété purement quantique, qui ne peut être décrite avec les lois
de la physique classique.
En juillet 2021, la Chine inaugure un train aux allures futuristes
pour relier Shanghai à son aéroport. C’est, de loin, le véhicule
terrestre le plus rapide du monde : il est capable de dépasser les
600 kilomètres par heure, soit le double des TGV français ! Son
secret : s’affranchir totalement des frottements, en lévitant audessus des rails. De la science-fiction pure !
Cet exploit technologique met en jeu un effet quantique
fascinant : la supraconductivité. Presque trop beau pour être
vrai, il permet aux électrons de conduire le courant sans pertes,
comme un skieur sur une neige parfaitement damée. Les
applications sont déjà nombreuses, des qubits aux réacteurs de
fusion nucléaire, et sont amenées à se développer rapidement
dans les années à venir.
Des fourmis
interchangeables
Débutons par un petit bijou d’énigme.
Vous disposez d’un bâton mesurant un mètre. Dix fourmis y sont placées
aléatoirement et se mettent à avancer soit vers la gauche, soit vers la
droite, mais toutes en ligne droite et à la même vitesse : un mètre par
minute. Leur but est d’atteindre l’une des extrémités du bâton, pour en
tomber et rejoindre le sol. Seule subtilité : lorsque deux fourmis se
rencontrent, elles repartent instantanément en sens inverse, comme si elles
rebondissaient l’une contre l’autre (voir figure). La question est la suivante :
au bout de combien de temps peut-on être sûr que toutes les fourmis sont
tombées du bâton ?
Posez ce livre et prenez quelques minutes pour y réfléchir. L’énigme se
transforme rapidement en vrai casse-tête : vous avez probablement essayé
de vous mettre à la place d’une des fourmis et imaginé les rebonds
incessants qui entravent votre chemin. Il paraît difficile de rendre compte
de tous ces rebonds et changements de direction dans un calcul simple.
Comme souvent, il y a un piège dans la formulation de l’énoncé. Pensez au
choc entre deux fourmis : dire qu’elles rebondissent et repartent en sens
inverse est en fait équivalent à dire que les deux se croisent et poursuivent
leur chemin. Sur la figure, il serait impossible de distinguer ces deux
scénarios si nous n’avions pas donné des noms aux fourmis pour induire le
lecteur en erreur ! Les noms sont échangés dans un cas et pas dans l’autre,
mais cela ne change rien au problème. Ainsi, on peut simplifier l’énoncé
en considérant que toutes les fourmis se déplacent tout droit sur le bâton
en s’ignorant : il faudra donc attendre au plus une minute pour que toutes
les fourmis tombent.
La notion clé de cette énigme est l’indiscernabilité. Lorsque deux objets
ont exactement les mêmes propriétés, échanger leurs positions n’a
strictement aucun effet : personne ne pourra s’en rendre compte. Sous son
apparence innocente, ce problème de fourmis va nous permettre
d’appréhender l’un des concepts les plus profonds de la physique
quantique.
Fermions et bosons
Imaginons deux photons possédant les mêmes propriétés : fréquence,
polarisation… La seule chose qui les distingue est leur position. Échangez
discrètement ces deux particules, et personne ne pourra s’en apercevoir :
c’est comme si rien ne s’était passé ! Ceci se traduit par le fait que la
fonction d’onde, cet objet mathématique qui décrit l’état du système (voir
chapitre 4), est inchangée. Tout va bien jusqu’ici : on qualifie ces particules
au comportement assez intuitif de bosons.
Seulement, la situation se complique si l’on considère cette fois deux
électrons identiques. Cette fois, il se passe quelque chose d’étrange lors de
l’échange : la fonction d’onde change de signe (là où elle valait 2 avant, elle
vaut désormais −2). On parle dans ce cas de fermions. Heureusement, la
probabilité de présence des particules est donnée par la valeur du carré de
la fonction d’onde. Or, le carré n’est pas affecté par un changement de
signe : −2 au carré est égal à 4, tout comme 2 au carré. Rassurés ?
Pas tout à fait. Ce troublant changement de signe semble nous dire que la
nature sait, d’une certaine manière, que l’on a échangé les particules,
comme si elle connaissait les noms des particules et nous disait : « Je ne
suis pas dupe : tu as échangé les positions de Ferdinand et Julie ! » Ce
détail mathématique a une conséquence absolument essentielle sans
laquelle les atomes ne pourraient exister : le principe d’exclusion, énoncé
par Wolfgang Pauli en 1925.
Chacun son orbitale
Imaginons un atome entouré des belles orbitales que nous avons
introduites au chapitre 1 1, et plaçons deux électrons identiques au sein
d’une même orbitale. Ils sont non seulement indiscernables, mais de plus
« situés » au même endroit puisqu’ils sont décrits par la même fonction
d’onde. Cette fois, même si l’on assigne des noms à nos deux électrons, les
échanger revient à ne rien faire, puisqu’ils sont au même endroit. Le
système est strictement identique après l’échange, sa fonction d’onde doit
donc être inchangée. Pourtant, comme nous avons affaire à deux fermions,
la fonction d’onde doit changer de signe lors de l’échange. Nous sommes
donc face à une contradiction flagrante.
Résolution du problème : deux électrons absolument identiques ne
peuvent pas se trouver dans la même orbitale. La seule manière de faire
cohabiter deux électrons est de les différencier par leur spin : un électron
partage volontiers son orbitale avec un électron de spin opposé (voir
chapitre 9). Mais essayez d’approcher deux électrons de même spin, et
vous ferez face à une force de répulsion gigantesque ! D’une simple
histoire de fourmis, nous voilà arrivés à un principe physique capital : le
principe d’exclusion de Pauli, selon lequel les fermions se repoussent.
Ce principe est fondamental, parce qu’il répond à cette question
troublante : comment la matière peut-elle être solide, alors qu’elle est
majoritairement constituée de vide (voir chapitre 1) ? Autrement dit,
pourquoi votre main ne traverse-t-elle pas la table lorsque vous tapez
dessus ? La réponse est donnée par le principe d’exclusion : deux électrons
ne pouvant se trouver dans le même état, ils sont contraints d’occuper des
régions distinctes de l’espace, et leurs orbitales se repoussent. Si vous
sentez les atomes de la table résister, c’est en vertu de ce principe
fondamental.
LES CADAVRES
D’ÉTOILES
Le principe d’exclusion s’illustre magnifiquement dans les
cadavres d’étoiles lourdes, qui comptent parmi les objets les
plus exotiques de l’Univers. Lorsqu’elles arrivent au bout de
leurs réserves de carburant, ces étoiles s’effondrent sur ellesmêmes sous l’effet de leur poids. Elles forment alors des
petites boules très compactes et chaudes, appelées naines
blanches. Une simple cuillère à café de naine blanche peut
peser jusqu’à une tonne !
Dans ces conditions de densité extrême, la matière prend la
forme d’une soupe de fermions (électrons, protons et neutrons
mélangés). Ces fermions sont si proches qu’ils se repoussent
uniquement grâce au principe d’exclusion. Sans ce dernier,
l’astre s’effondrerait sur lui-même à cause de la colossale
attraction gravitationnelle. On parle alors de matière
dégénérée. C’est ce triste sort qui arrivera à notre Soleil dans
10 milliards d’années !
L’union fait la force
Les fermions sont des particules solitaires : elles se repoussent, par le
principe d’exclusion. Qu’en est-il des bosons, l’autre grande famille de
particules dont fait partie le photon ?
L’exact opposé : les bosons sont des particules grégaires, qui aiment se
retrouver dans le même état. Nous l’avons déjà vu avec le laser : les
photons sont capables de se déplacer en bloc, comme un banc de poissons
(voir chapitre 3). Au sein de ce banc, les individualités s’effacent : les
fonctions d’ondes des différents photons se combinent pour former une
seule et même fonction d’onde géante, appelée un état collectif. Cette
union fait la force des lasers, et permet au faisceau de maintenir son
intensité sur de longues distances.
Un autre phénomène collectif spectaculaire est la supraconductivité. À la
place de photons qui s’unissent, ce sont des électrons qui s’assemblent
pour former un courant électrique à toute épreuve, capable de voyager des
millions de kilomètres sans être atténué ! On pourrait cependant être
surpris par cette affirmation : ne vient-on pas de dire que l’électron est un
fermion, qui a tendance à repousser ses pairs ? Ce phénomène
passionnant mérite qu’on lui consacre quelques pages.
LA QUANTIQUE XXL
En refroidissant suffisamment un gaz de bosons, ceux-ci
peuvent former un état collectif comme les photons d’un
laser : on parle d’un condensat de Bose-Einstein. Obtenu pour
la première fois en 1997, ce nouvel état de la matière se
comporte comme une soupe où il n’est plus possible de
distinguer les atomes individuels, même en regardant de très
près.
Ces états sont particulièrement intéressants pour les
physiciens, puisqu’ils permettent de rapprocher le monde
quantique de notre échelle afin de mieux le comprendre – les
plus gros condensats mesurent quelques millimètres. On peut
aussi s’en servir comme détecteurs de champs magnétiques,
électriques ou gravitationnels, en exploitant leurs ondulations.
L’improbable film Spectral (2016) met en scène des
condensats de Bose-Einstein tueurs, et représente assez bien
l’image hollywoodienne de la physique quantique : une
science obscure avec des concepts aux noms tape-à-l’œil,
que l’on détourne à souhait.
Fendre la foule
Un fil électrique est formé d’atomes de métal qui possèdent des électrons
libres, capables de se libérer de leur noyau pour conduire le courant.
Seulement, la conduction n’est jamais parfaite : les électrons (en rouge sur
la figure) ont tendance à se cogner contre les noyaux des atomes
métalliques qui jonchent leur parcours (en bleu). Ces chocs dissipent de
l’énergie électrique sous forme de chaleur dans le métal, et donnent lieu à
une résistance électrique : c’est le fameux effet Joule, qui permet à votre
grille-pain de fonctionner. Mais c’est aussi lui qui crée des pertes
électriques dans les câbles à haute tension, et fait chauffer le processeur de
votre ordinateur portable. C’est pourquoi on cherche généralement à
minimiser cette résistance.
Certains métaux sont plus résistants que d’autres : l’or présente une
résistance remarquablement faible, mais du fait de son coût prohibitif on
lui préfère le cuivre dans les composants électriques. La résistance d’un
métal dépend aussi de sa température : plus elle est élevée, plus les noyaux
atomiques sont agités. Cette agitation augmente le nombre de chocs que
subissent les électrons, et donc la résistance : plus difficile de traverser une
gare lorsque les passants courent que lorsqu’ils sont immobiles !
Une solution pour réduire autant que possible la résistance d’un métal est
donc de le refroidir, par exemple en le plongeant dans de l’hélium liquide à
–269 °C. Le physicien hollandais Heike Onnes tente l’expérience en 1911. Le
résultat dépasse largement ses attentes : en dessous d’une certaine
température, la résistance électrique du métal devient strictement nulle !
Il fallut quelques décennies de recherche supplémentaires pour
comprendre ce phénomène. L’explication est particulièrement élégante : à
basse température, les électrons ont tendance à s’assembler par paires
pour devenir des bosons, et peuvent ensuite former des « bancs » comme
les photons d’un faisceau laser. Comment parviennent-ils à s’assembler,
alors que leur charge électrique devrait les repousser ?
Il faut imaginer l’électron dans un métal refroidi comme Angelina Jolie
traversant la foule du festival de Cannes (en rouge dans la figure). Lors de
son passage, les fans – représentés par les noyaux atomiques chargés
positivement, en bleu – s’approchent de l’actrice chargée négativement,
créant une surdensité électrique positive autour d’elle. Brad Pitt, un autre
électron chargé négativement qui lui emboîte le pas, est attiré
électriquement par cette surdensité et se rapproche donc d’Angelina.
Angelina et Brad forment, malgré eux, une paire de Cooper, du nom de
leur découvreur qui obtint le prix Nobel en 1972 (et non pas de leur
confrère Bradley Cooper). Cette paire a toutes les propriétés d’un boson, et
peut faire bloc avec d’autres paires pour fendre la foule sans résistance.
Les miracles
des supraconducteurs
Pour fabriquer un aimant puissant, on peut faire circuler un courant
électrique dans une bobine de fil de cuivre. Plus le courant est fort, plus le
champ magnétique résultant est intense. Seulement, dans les fils
électriques habituels, l’intensité du courant est limitée par la résistance du
métal.
Pour s’affranchir de cette barrière, il suffit d’utiliser une bobine
supraconductrice. Ces dernières permettent de générer des champs
magnétiques colossaux, employés dans nombre de technologies
mentionnées au cours de ce livre, des accélérateurs de particules du
CERN, aux plasmas du projet de fusion nucléaire ITER (chapitre 1), en
passant par les appareils d’IRM (chapitre 9).
En plus de pouvoir contenir un courant électrique intense, un fil
supraconducteur peut le contenir très longtemps. Ceci permettrait, en
principe, de transporter de l’énergie sans perte d’une ville à l’autre… Hélas,
refroidir un câble à –269 °C sur plusieurs kilomètres coûte très cher et
consomme plus d’énergie qu’il n’en fait économiser. En revanche, il est
possible d’enrouler le câble sur lui-même et le mettre dans un supercongélateur pour stocker l’énergie indéfiniment : le courant peut continuer
à circuler en rond pendant des années, jusqu’à ce que l’on veuille le
récupérer.
S’ÉLOIGNER DU ZÉRO
ABSOLU
Le principal obstacle technique à la supraconductivité est la
nécessité de maintenir le métal à très basse température,
typiquement proche du zéro absolu. Une avancée majeure fut
apportée par les cuprates dans les années 1980, des
matériaux pouvant devenir supraconducteurs à des
températures au-dessus de celle de l’azote liquide (−200 °C).
Ceci nous permet aujourd’hui d’employer la supraconductivité
dans des contextes aussi variés que ceux décrits plus haut.
Le Graal serait de pouvoir obtenir des métaux
supraconducteurs à température ambiante. Cet exploit a déjà
été réalisé avec des cristaux de bismuth et des dérivés du
soufre, mais dans des conditions de pressions extrêmes,
proches de celles régnant au centre de la Terre. Pour nous
aider à trouver de nouveaux métaux qui puissent égaler cette
performance à une pression raisonnable, certains misent sur la
force des simulateurs quantiques (voir chapitre 7)…
Les trains du futur
Nous n’en avons pas fini avec les miracles des supraconducteurs. Une
autre de leurs particularités est qu’ils sont parfaitement imperméables aux
champs magnétiques, un phénomène connu sous le nom d’effet
Meissner. Il faut imaginer une tôle de supraconducteur comme un
bouclier impénétrable : en repoussant le champ magnétique créé par un
aimant, celui-ci subit un recul qui peut lui permettre de léviter au-dessus
de l’aimant. Cette lévitation a de plus la particularité d’être stable : la tôle
est comme verrouillée en place.
Nous avons évoqué un phénomène similaire au cours du chapitre 9 : le
diamagnétisme, qui permet (entre autres) de faire léviter des grenouilles.
Les molécules d’eau ont, elles aussi, cette capacité à s’opposer aux champs
magnétiques, mais de manière beaucoup plus faible. Il faut des champs
magnétiques des milliers de fois supérieurs à ceux produits par les
aimants de réfrigérateur pour soulever un batracien.
Avec les supraconducteurs, un champ magnétique de cette intensité est
suffisant pour faire léviter des objets aussi gros que des trains : c’est le
principe des trains à sustentation magnétique, aussi appelés trains
Maglev (pour magnetic levitation). L’idée est de remplacer les rails et les
roues du train par de puissants aimants supraconducteurs. Comme le train
n’est pas en contact avec les rails, les seuls frottements qu’il subit sont les
frottements de l’air. D’où l’importance d’un aérodynamisme maximal
expliquant leur design futuriste.
Imaginée dès les années 1960, cette technologie commença à fasciner le
monde dès 1979, lorsque le premier train Maglev fut présenté lors d’une
exposition internationale à Hambourg. Ce n’est qu’en 2004 que cette
technologie fut finalement employée à des fins commerciales, avec
l’ouverture du Transrapid reliant Shanghai à son aéroport avec une vitesse
moyenne de 245 km/h à l’époque. Aujourd’hui, on ne compte qu’une
poignée de lignes en service, réparties entre le Japon, la Corée et la Chine,
mais de nombreux projets voient le jour ailleurs dans le monde.
Résumé du concept :
fermions et bosons
Deux catégories de particules aux comportements radicalement
différents existent : les fermions et les bosons. Les fermions, dont
l’archétype est l’électron, ont un comportement solitaire, refusant de
se retrouver à plusieurs dans le même état. Ce principe d’exclusion
explique pourquoi les atomes sont aussi vides.
Les bosons, illustrés par les photons, ont à l’inverse un
comportement grégaire, et aiment se regrouper dans le même état.
C’est cette propriété qui est mise à profit dans les métaux
supraconducteurs, dépourvus de toute résistance électrique.
1. L’orbitale est la fonction d’onde décrivant la probabilité de présence des électrons autour du
noyau.
CONCLUSION
Au terme de ce voyage, vous comprenez sûrement mieux les
« incertitudes » et « actes de foi » qu’évoquait Paul Valéry dans le
fragment qui ouvre ce livre pour décrire la science de son temps. Si nous
n’avons en rien caché la saveur déconcertante de la physique quantique, il
nous a toutefois semblé important de la relier à des technologies
concrètes, pour montrer qu’elle n’est pas seulement l’apanage de quelques
savants dans leur tour d’ivoire.
Deux aspects de la théorie sont particulièrement difficiles à accepter.
D’abord, son aspect probabiliste : les propriétés des systèmes quantiques
sont par nature aléatoires et indéterminées jusqu’à ce qu’on les mesure.
Ensuite, son aspect relationnel : la mesure influe sur ces propriétés, comme
si la théorie ne décrivait pas comment sont les choses, mais comment elles
se manifestent à nous.
Le risque est donc de concevoir la théorie quantique comme floue et
subjective, inapte à décrire notre réalité. S’il est vrai que le hasard fait
partie intégrante du monde quantique, c’est un hasard que l’on peut
comprendre, prédire, voire dompter. De même, le fait que les propriétés
d’un système soient conditionnées à la manière dont on les mesure n’a
finalement rien de si étonnant, si l’on accepte que la mesure est une
interaction comme une autre.
De fait, la théorie quantique est aujourd’hui l’une des théories les mieux
vérifiées par l’expérience. Les controverses qui ont opposé les pères de la
physique quantique – et qui continuent de diviser les scientifiques –
concernent moins les fondements de la théorie que l’interprétation de ce
qu’elle décrit. Elles sont finalement le reflet du hiatus profond qui existe
entre la physique moderne et l’intuition. C’est pourquoi nous appelions,
dans les pages introductives, à l’ouverture d’esprit : comprendre la théorie
quantique, c’est avant tout l’accepter, et consentir à se plonger dans un
monde où les règles sont différentes.
Un écueil récurrent est d’extrapoler ces règles si singulières jusqu’à notre
échelle. Pour cela, nous avons insisté sur la notion de décohérence, qui
érige une barrière entre notre monde et celui des atomes. Les propriétés
quantiques sont fragiles, détruites à la moindre interaction, et ne peuvent
s’exprimer que dans les milieux contrôlés des laboratoires. Pas plus de chat
mort-vivant que de conscience quantique, n’en déplaise à certaines
pseudo-sciences.
En ce qui concerne les technologies quantiques qui se développent depuis
une vingtaine d’années (ordinateurs, simulateurs, communications et
capteurs), tout l’enjeu réside dans le fait de manipuler les particules
individuellement, avec des gants de velours, pour échapper à la
décohérence et tirer profit de leurs propriétés si particulières. Grâce à ce
travail d’orfèvre, voyager au cœur des atomes est désormais chose
possible.
GLOSSAIRE
Bosons : type de particules qui ont tendance à vouloir se retrouver
dans le même état.
Complémentarité : principe stipulant qu’il est impossible d’observer
les comportements ondulatoires et corpusculaires des particules
simultanément.
Décohérence : théorie expliquant pourquoi les propriétés quantiques
se diluent au gré des interactions.
Diffraction : élargissement d’un faisceau lumineux au passage d’un
étranglement.
Effet photoélectrique : apparition d’un courant électrique dans un
métal en présence de lumière.
Effet tunnel : phénomène quantique lors duquel une particule franchit
une barrière énergétique en principe infranchissable.
Électron : particule élémentaire chargée négativement qui entoure le
noyau des atomes et conduit le courant électrique.
Émission spontanée : désexcitation aléatoire d’un atome à l’origine de
l’émission d’un photon.
Émission stimulée : lors de l’arrivée d’un photon sur un atome,
émission d’un deuxième photon de même fréquence dans la même
direction.
Équation de Schrödinger : équation qui décrit l’évolution temporelle
de la fonction d’onde d’une particule.
Fentes de Young : expérience majeure qui a démontré la nature
ondulatoire de la lumière.
Fermions : type de particules qui ne peuvent pas se retrouver à deux
dans le même état.
Fonction d’onde : onde quantique décrivant la probabilité de trouver
une particule en chaque lieu de l’espace.
Grandeurs conjuguées : paires de grandeurs physiques soumises au
principe d’incertitude de Heisenberg.
Interférences : modulation de l’amplitude d’une onde lorsqu’elle se
superpose à une autre onde.
Interprétation de Copenhague : courant de pensée qui considère la
physique quantique comme un moyen de décrire des phénomènes
sans essayer de les expliquer.
Intrication : couplage de deux systèmes quantiques qui induit une
interdépendance de leurs états.
Neutron : particule de charge neutre qui constitue, avec les protons,
les noyaux des atomes.
Orbitale atomique : fonction d’onde d’un électron lié à un noyau
atomique. Peut contenir jusqu’à deux électrons.
Photon : particule élémentaire qui compose la lumière.
Polarisation : propriété des ondes électromagnétiques pouvant être
représentée par une petite flèche perpendiculaire à la direction de
propagation.
Principe d’exclusion : loi énoncée par Wolfgang Pauli selon laquelle
deux fermions identiques ne peuvent se trouver dans le même état
quantique.
Principe d’incertitude : loi énoncée par Werner Heisenberg selon
laquelle certaines paires de quantités physiques ne peuvent pas être
connues simultanément avec grande précision, par exemple la position
et la vitesse d’une particule.
Proton : particule chargée positivement qui constitue, avec les
neutrons, les noyaux des atomes.
Qubit : bit quantique pouvant se trouver dans une superposition de
« 0 » et « 1 ».
Spin : champ magnétique d’origine quantique que possèdent certaines
particules comme l’électron.
Superposition : état quantique indéterminé, dont l’état est choisi
aléatoirement lorsqu’on le mesure.
Supraconductivité : absence de résistance électrique de certains
matériaux à très basse température.
Variables cachées : paramètres physiques hypothétiques qui
permettraient d’expliquer les résultats des mesures de systèmes
quantiques sans avoir recours aux probabilités.
REMERCIEMENTS
Un immense merci à Serge Decroocq, Cécile Mitéran, Eleanor Harris, Dora
Csillag, Philippe Loutrel, Alain Nouvel et Bernard d’Ascoli pour leur
relecture attentive et leurs précieux conseils.
RÉFÉRENCES GÉNÉRALES
Livres
Helgoland (2021) de Carlo Rovelli : une passionnante discussion des
interprétations de la mécanique quantique, centrée sur la vision
relationnelle.
La Physique selon Étienne Klein (2021) de Étienne Klein : un formidable
recueil racontant la physique moderne sous un angle historique, avec un
art des mots hors pair.
La Lumière révélée (2020) de Serge Haroche : un livre de vulgarisation
écrit par le prix Nobel de physique 2012, centré sur la lumière.
La Quantique autrement (2020) de Julien Bobroff : une introduction à la
physique quantique superbement illustrée, offrant une approche limpide,
originale et sans équation.
Mon Grand Mécano quantique (2019) de Julien Bobroff : décryptage des
expériences fondatrices de la physique quantique avec introduction des
notions clés et anecdotes en tout genre.
Quantix (2019) de Laurent Schafer : une approche ludique de la physique
quantique sous forme de bande dessinée, n’ayant pas peur de s’attaquer à
des concepts complexes.
L’Univers quantique (2013) de Brian Cox et Jeff Forshaw : une approche
vulgarisée de la physique quantique et de la théorie quantique des champs
qui introduit le formalisme en profondeur, à renfort d’analogies
astucieuses.
Dance of the Photons: From Einstein to Quantum Teleportation (2010) de
Anton Zeilinger : un ouvrage de vulgarisation un peu dense par l’un des
pionniers de l’informatique quantique (en anglais ou allemand
uniquement).
Le Cours de physique de Feynman (1963) de Richard Feynman : couvrant
tous les pans de la physique moderne, les cours de Feynman dispensés à
Caltech entre 1961 et 1963 sont devenus une référence par leur originalité
dans la façon d’approcher les concepts. Accessibles pour des étudiants en
licence de physique.
Chaînes YouTube
L’excellente chaîne de vulgarisation Science Étonnante couvre de manière
passionnante de nombreux domaines de la physique (quantique inclus).
Elle figure un entretien des plus éclairants avec Alain Aspect.
Les vidéos de ScienceClic abordent des concepts techniques avec grande
clarté.
Les conférences de Roland Lehoucq vulgarisent la physique de Star Wars
et Superman.
Sorbonne Université a lancé une chaîne de vulgarisation dédiée à
l’information quantique – QICS Sorbonne – tenue par des doctorants du
domaine.
Pour les anglophones, la chaîne Veritasium est une mine d’or, ainsi que
Minute Physics et Kurzgesagt pour des formats plus condensés. Pour les
amateurs d’expériences farfelues, les vidéos de The Action Lab sont très
divertissantes. Enfin, pour les plus passionnés, les vidéos plus ardues de la
chaîne PBS Space Time méritent largement le détour.
Jeux vidéo
Le Massachussets Institute of Technology a développé une simulation
nommée A Slower Speed of Light qui permet de se représenter à quoi
ressemblerait le monde si la vitesse de la lumière était 2, 100 ou 1 000 fois
plus lente.
Sorbonne Université a développé un jeu en ligne OptiQraft permettant de
se familiariser avec des concepts utiles pour le traitement de l’information
quantique avec des photons, et notamment l’intrication. En libre accès sur :
https://tatawanda.itch.io/optiqraft
RÉFÉRENCES SCIENTIFIQUES
Chapitre 1
Une synthèse de Jean Perrin très pédagogique et étonnamment
lyrique sur le mouvement brownien (en français) : Perrin, J.,
« Mouvement brownien et réalité moléculaire », Annales de chimie et de
physique (1909)
L’article fondateur d’Einstein qui introduit l’équation E = mc2. Celleci n’apparaît pas sous cette forme dans l’article, mais est décrite avec
une phrase : Einstein, A., « Ist die Trägheit eines Körpers von seinem
Energieinhalt abhängig? » [« L’inertie d’un corps dépend-elle de son
contenu en énergie ? »], Annalen der Physik 18 (1905)
Chapitre 2
Le premier article de l’annus mirabilis d’Einstein qui interprète
l’effet photoélectrique en supposant que la lumière est constituée de
quanta d’énergie : Einstein, A., « Über einen die Erzeugung und
Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt »
[« Un point de vue heuristique concernant la production et la
transformation de la lumière »], Annalen der Physik 17 (1905)
L’article original sur les sphères de Dyson : Dyson, J., « Search for
Artificial Stellar Sources of Infrared Radiation », Science 131 (1960)
Chapitre 3
Premier article montrant le ralentissement de la lumière à la vitesse
d’un cycliste : Hau, L. et al., « Light speed reduction to 17 metres per
second in an ultracold atomic gas », Nature 597 (1999)
Première détection d’ondes gravitationnelles par LIGO : Abbott, B. et
al., « Observation of Gravitational Waves from a Binary Black Hole
Merger », Physical Review Letters 116 (2016)
Chapitre 4
Article sur l’influence des matchs à huis clos sur les résultats des
équipes de la Bundesliga : « How Empty Seats Filled In Gaps About
Essence of a Sport », New York Times, 1er juillet 2020, page 10
Expérience des fentes de Young avec des fullerènes : Arndt, M. et al.,
« Wave–particle duality of C60 molecules », Nature 401 (1999)
Expérience des fentes de Young avec de petites protéines : Shayegi, A.
et al., « Matter-wave interference of a native polypeptide », Nature
Communications 11 (2020)
Le site officiel de la course de nanomobiles : https://nanocarrace.cnrs.fr/
Un article scientifique présentant l’un des modèles : Soe, W. et al.,
« Surface manipulation of a curved polycyclic aromatic hydrocarbon-based
nano-vehicle molecule equipped with triptycene wheels
»,
Nanotechnology 29 (2018)
Chapitre 5
Sur la production de photons bicolores : Gaeta A. et al., « Ramsey
Interference with Single Photons », Physical Review Letters 117 (2016)
L’article original de Bennett et Brassard sur le protocole BB84 :
Bennett C. and Brassard G., « Quantum cryptography: Public key
distribution and coin tossing », International Conference on Computers,
Systems and Signal Processing (1984)
Chapitre 6
L’article du New York Times sur les jumeaux James : « Twins reared
apart: a living lab », New York Times, 9 décembre 1979, page 28
Première réalisation expérimentale de la téléportation quantique :
Zeilinger, A. et al., « Experimental quantum teleportation », Nature 390
(1997)
Mise en place d’un réseau quantique de 4 600 kilomètres en Chine :
Pan, JW. et al., « An integrated space-to-ground quantum communication
network over 4,600 kilometres », Nature 589 (2021)
Photo d’un objet avec des photons qui n’ont pas interagi avec lui :
Lemos, G. et al., « Quantum imaging with undetected photons »,
Nature 512 (2014)
L’analogie originale des gâteaux quantiques racontée dans un court
article de Lucien Hardy : Kwiat, PG. and Hardy, L., « The mystery of the
quantum cakes », American Journal of Physics 68 (2000)
Chapitre 7
Un ordinateur à base d’eau : Katsikis, G. et al., « Synchronous universal
droplet logic and control », Nature Physics 11 (2015)
La première démonstration d’un avantage quantique par Google et
leur processeur de 53 qubits : Arute, F. et al., « Quantum supremacy
using a programmable superconducting processor », Nature 574 (2019)
La surenchère de l’équipe de Jian-Wei Pan avec 66 qubits : Wu, Y. et
al., « Strong Quantum Computational Advantage Using a
Superconducting Quantum Processor », Physical Review Letters 127 (2021)
Une planche de Galton quantique à 113 photons : Zhong, H. et al.,
« Phase-Programmable Gaussian Boson Sampling Using Stimulated
Squeezed Light », Physical Review Letters 127 (2021)
Chapitre 8
Première mesure de la force de Casimir : Lamoreaux, S.K.,
« Demonstration of the Casimir Force in the 0.6 to 6 μm Range », Physical
Review Letters 78 (1997)
Le gaz le plus froid de l’Univers à Brême : Deppner, C. et al.,
« Collective-Mode Enhanced Matter-Wave Optics », Physical Review
Letters 127 (2021)
Comprimer avec de l’intrication : Pedrozo-Peñafiel, E. et al.,
« Entanglement on an optical atomic-clock transition », Nature 588 (2020)
Mesure de la dilatation du temps dans des avions en vol : Hafele, J.
and Keating, R., « Around-the-World Atomic Clocks: Predicted Relativistic
Time Gains », Science 177 (1971)
Chapitre 9
De la quantique dans l’œil du rouge-gorge : Xu, J. et al., « Magnetic
sensitivity of cryptochrome 4 from a migratory songbird », Nature 594
(2021)
L’article – très sérieux – de l’équipe d’Andre Geim (prix Nobel 2010)
sur la lévitation des grenouilles : Berry, M.V, et Geim, A.K., « Of flying
frogs and levitrons », European Journal of Physics 18 (1997)
Chapitre 10
Première observation expérimentale du non-changement de signe de
la fonction d’onde des bosons après échange : Tschernig, K. et al.,
« Direct observation of the particle exchange phase of photons », Nature
Photonics 15 (2021)
Un gravimètre à base de condensats de Bose-Einstein déployé sur
l’Etna : Carbone, D. et al., « The NEWTON-g Gravity Imager: Toward New
Paradigms for Terrain Gravimetry », Frontiers in Earth Science 8 (2020)
Découverte de la supraconductivité à –238 °C des cuprates, prix
Nobel pour les auteurs dès l’année suivante : Bednorz, J.G., et Müller,
K.A., « Possible high Tc superconductivity in the Ba−La−Cu−O system »,
Zeitschrift für Physik B Condensed Matter 64 (1986)
Supraconductivité à haute température de cristaux de Bismuth :
Valladares, A. et al., « Possible superconductivity in the Bismuth IV solid
phase under pressure », Scientific Reports 8 (2018)
INDEX
A
Accélérateur de particules, 25
Aimant, 164-169, 187, 189
supraconducteur, 187-189
Algorithme, 91, 95, 127, 131, 132
quantique, 131, 132
Annus mirabilis, 22, 36
Aspect, Alain, 110
Atome
aimantation, 166
d’argent, 165, 166, 168
de césium, 154, 155
désexcité (état), 49, 50
d’hydrogène, 21, 51, 52, 54
d’uranium, 23-25
excité (état), 49, 50, 53, 153
froid, 155, 158
métallique, 168, 185
noyau, 23-26, 28, 79, 165, 166, 184-186
nuage, 53
B
Becquerel, Antoine, 35
Bell, John, 109, 110, 180
Bennett, Charles, 96
Big Bang, 61, 143
Bit, 125, 130
Bobine supraconductrice, 187
Bohr, Niels, 20, 44, 108, 109, 111
Born, Max, 71
Boson, 25, 186, 195
Brassard, Gilles, 96
Broglie (Louis de), 70, 71
C
Casimir (effet), 148
Casimir, Hendrick, 148
Centrale nucléaire, 25
CERN (Organisation européenne pour la recherche nucléaire), 25, 116,
187
Césium, 154, 155
Champ magnétique, 164-166, 168, 169, 172, 175, 187, 188, 189
terrestre, 164, 167
Chat (de Schrödinger), 74, 134
Chiffrage asymétrique, 88
Chiffrage symétrique, 86, 88
Cohen-Tannoudji, Claude, 155
Complémentarité (concept ou principe de), 44, 45, 68, 195
Compton, Arthur, 39
Condensat de Bose-Einstein, 183
Copenhague (interprétation de), 73, 74, 105, 107-109, 120
Corpusculaire (théorie), 33, 39, 43
Cryogénie, 152
Cryptographie quantique, 90, 92, 95, 112, 115
Cuprate, 188
D
Décohérence, 74, 124, 133, 134, 194, 195
Démocrite, 13, 15, 16
Déterminisme, 107-109
Deutérium, 26
Diamagnétisme, 169, 189
Diffraction (phénomène de), 34, 70, 195
Doppler (effet), 154, 155
Dyson (sphère de), 40
E
E = mc2, 22, 24
Effet
photoélectrique, 31, 35, 37, 38, 39-42, 45, 195
tunnel, 65, 78-82, 195
Einstein, Albert, 22, 36, 37, 39, 45, 51, 53, 60, 75, 104, 105, 107111, 118, 120, 159
Électrique
charge, 18, 80, 164, 166
courant, 35, 36, 45, 80, 125, 164, 183, 187
Électromagnétisme, 19
Électron, 17-21, 24, 28, 35, 38, 39, 41, 45, 49, 67-72, 77, 78, 80,
91, 93, 103, 136, 149, 165-168, 175, 179-186, 190, 195
Émission
spontanée, 50, 195
stimulée, 53, 54, 195
Énergie
niveau, 49-51, 54, 153, 166
nucléaire, 22
Équation de Schrödinger, 72, 73, 195
Espace-temps, 37, 59
État collectif, 183
Étoile
composition chimique, 52
Event Horizon Telescope, 116
Everett, Hugh, 75, 76
F
Femtomètre, 15
Fentes de Young, 67, 70, 71, 74, 195
Fermion, 179-183, 195
Ferromagnétisme, 168
Feynman, Richard, 139
Fission nucléaire, 24-26
Fluctuations quantiques, 147, 148
Fonction d’onde, 71, 72, 74, 76, 77, 82, 137, 149, 179-181, 183, 196
carré, 180
Fréquence
de l’onde, 144
d’émission, 158
Fusion nucléaire, 26
G
Gamma
knife, 38
onde, 38
rayonnement, 26
Gerlach, Walter, 165, 166, 168
Gomme quantique, 69
GPS, 128, 159
Grandeurs conjuguées, 156, 196
Grover, Lov, 132
H
Hardy, Lucien, 110, 118
Hau, Lene, 50
Heisenberg, Werner, 145, 149, 150, 156
Hélium liquide, 152, 185
Hiroshima, 22, 24
Horloges atomiques, 155, 158, 159
Huygens, Christian, 33
Hydrogène, 21, 51, 54
I
Incertitude (principe d’), 146, 147, 149-152, 155-157
Indétermination quantique, 74
Indiscernabilité, 179
Infini, 15, 80, 104, 107
Interaction, 24, 43, 51, 93, 103, 133, 139, 140
Interférence, 34, 42-44, 60, 69, 93, 131, 137, 196
Interféromètre, 59-62
Internet quantique, 95, 111, 115, 138
Interprétation de Copenhague, 74, 105, 107, 109, 196
Interstellar, 159
Intrication, 103, 104, 110, 114, 115, 158, 167, 196
IRM (Imagerie par résonance magnétique), 163, 170, 172, 173, 187
J
Joule (effet), 185
K
Kelvin (lord), 151
L
Large Hadron Collider (LHC), 25
Laser (light amplification by stimulated emission of radiation), 47, 53-63,
155, 182, 183
LED, 41
Lévitation, 152, 169, 189
LIGO (Observatoire d’ondes gravitationnelles par interférométrie laser),
59, 62
LISA (Laser Interferometer Space Antenna), 62
Longueur d’onde quantique, 70
Lumière
longueur d’onde, 58
nature duelle, 70
vitesse, 22, 37, 39, 106
M
Maglev (magnetic levitation), 189
Maser, 54
Masse, 22-24,
Matériaux diamagnétiques, 168, 169
Matière
dégénérée, 182
onde de, 70
particule de, 70
Meissner (effet), 188
Micromètre, 15
Microprocesseurs, 79, 148
Molécule, 14-16, 19, 54, 81, 133, 139, 150, 151, 168-170
Mouvement brownien, 36
Multivers, 75
N
Naine blanche, 182
NanoCar Race, 81
Nanomètre, 15, 16, 60, 61, 66, 81
Neutron, 17, 22, 24-26, 196
Newton, Isaac, 33, 35, 37
Newton (lois de), 72, 107
Niveau d’énergie, 49, 51
Noyau, 17-24, 26, 28, 79, 103, 165, 166, 184-186
Nucléaire
centrale, 22, 23, 25, 26
déchets, 26
énergie, 22
fission, 24-26, 28
fusion, 26-28, 187
recherche, 27
O
Onde
de matière, 70
de probabilité, 71
fonction d’, 71, 72, 74, 76, 77, 82, 137, 149, 179-181, 183, 196
gamma, 38
gravitationnelle, 47, 59-61
longueur d’, 35, 36, 58, 70, 71
radio, 159, 173,
Ondulatoire (théorie), 33, 34, 37
Onnes, Heike, 185
Orbitale, 20, 21, 28, 49, 71, 180, 181, 196
Ordinateur quantique, 95, 101, 115, 123, 124, 131, 132, 134-136, 138140
P
Paire de Cooper, 186
Paradoxe EPR (Einstein-Podolsky-Rosen), 104, 109
Paramagnétisme, 169
Particule
accélérateur, 25, 187
de matière, 70
quantique, 72, 81, 82, 103, 105, 110, 123, 137, 149, 175
Pauli, Wolfgang, 180, 181
Perrin, Jean, 14, 15, 36
Photoélectrique (effet), 31, 35, 37-42, 45, 195
Photon, 37-39, 41-45, 50-54, 61, 63, 67, 68, 78, 94, 96-98, 101,
103, 111, 115, 119, 137, 149, 150, 153-155, 183, 196
Photosynthèse, 32
Photovoltaïque (cellule), 40
Polarisation, 96, 97, 117, 137, 196
Physique quantique, 10, 11, 15, 28, 37, 43, 53, 55, 65, 68, 70-72,
78, 85, 90, 92, 99, 102, 103, 112, 118, 121, 143, 163, 193
Planck (constante de), 37
Popper, Karl, 109
Précession, 172, 173
Principe
d’exclusion, 180-182, 190, 196
de localité, 104
d’incertitude, 143, 146, 147, 149-152, 155, 156, 157, 160, 196
d’indétermination, 150
Prisme sonore, 146
Processeur quantique, 129, 134, 138
Projet ITER, 27
Protocole BB84, 95, 96, 119
Proton, 17, 18, 22-25, 79, 174, 182, 196
Protonthérapie, 174
Q
Quantique
fluctuation, 147, 148
gomme, 69
longueur d’onde, 70, 71
particule, 72, 81, 82, 103, 105, 110, 123, 137, 149, 150, 175
processeur, 129, 134
saut, 49
Quarks, 24, 25
Quartz, 153, 154
Qubit (quantum bits), 128-140, 196
R
Radioactivité alpha, 79
Rayons
laser, 62
ultraviolets, 38
X, 38, 39, 174
Relativité, 37, 48, 61, 104, 106, 158, 159
Répéteur d’intrication, 114
Résistance électrique, 185, 190
Résonance magnétique nucléaire, 170
Rutherford, Ernest, 18, 19, 22
S
Saut quantique, 49
Schrödinger, Erwin, 71
Simulateur quantique, 139, 188
Sodium, 52
Soleil, 18, 38, 40, 41, 55, 62, 116, 156, 157, 164, 167, 182
Spectre
d’émission, 52
du son, 146
Spin, 163, 166-169, 172, 173, 175, 181, 196
Stern, Otto, 165, 166, 168, 175
Superposition quantique, 93, 131, 133, 134, 197
Supraconductivité, 177, 183, 188, 197
T
Tchernobyl, 26
Téléportation quantique, 56, 112
Temps
distorsion, 159
Théorème de non-clonage, 92, 112
Thomson, Joseph John, 17, 18
Tour Eiffel, 18, 57
Townes, Charles, 54
Trains à sustentation magnétique, 189
Trajectoire
fonction d’onde, 72
particule, 72
photon, 44
Transistors, 79, 125, 148
Tritium, 26
Trou noir, 47, 59, 116, 117
Turing, Alan, 87
U
Uranium, 21, 23-25
V
Variables cachées, 105, 107, 109, 118, 197
Vents solaires, 164
Verre, 16, 50, 51, 78, 146
Vide, 18, 19, 50, 60-62, 133, 147, 148, 160, 181, 190
Vitesse de la lumière, 22, 37, 106, 159
Y
Young, Thomas, 33, 45
Z
Zeilinger, Anton, 114
Zéro absolu, 133, 151, 152, 155, 188
Téléchargement