La mesure en mécanique quantique : une révolution conceptuelle

publicité
La mesure en mécanique quantique :
une révolution conceptuelle
par Roger Balian
Institut de Physique Théorique, CEA, Saclay
Académie des Sciences
Les mesures jouent un rôle essentiel en sciences puisque
ce sont elles qui permettent d’explorer les grandeurs
caractérisant l’état d’un système. Au XXème siècle, la notion
même de grandeur physique a été révolutionnée par la
mécanique quantique ; les mesures quantiques, qui portent sur
des objets microscopiques, présentent des aspects insolites qui
ont donné lieu à de nombreuses discussions. Nous avons ainsi
été conduits à réviser plusieurs concepts mathématiques et
philosophiques, et notre façon de penser en a été affectée.
I. Caractéristiques générales des mesures
Commençons par passer en revue quelques propriétés
communes à toutes les mesures. Bien que banales en apparence,
plusieurs d’entre elles vont prendre une forme subtile en
mécanique quantique. Nous avons tous une idée intuitive de ce
qu’est une mesure. Pour estimer par exemple la durée d’un
phénomène, on utilise une horloge, système physique dont l’un
des constituants oscille ou vibre régulièrement ; ce peut être
le balancier d’une pendule ancienne, ou le quartz d’un
chronomètre. On met ces oscillations en correspondance avec
le phénomène, et leur décompte entre début et fin fournit la
durée cherchée. Pour déterminer la température d’un verre
d’eau, on y plonge un thermomètre, par exemple à alcool, dont
on observe le niveau. Pour mesurer la masse d’un objet, on la
compare à celle de masses connues grâce à une balance.
1
Dans tous ces cas, le but est de déterminer la valeur
d’une grandeur caractérisant telle ou telle propriété de l’objet
étudié. Pour acquérir cette information, il faut utiliser un
appareil. C’est la modification que celui-ci a subie, à l’issue
d’un processus où il a interagi avec l’objet, qui enregistre le
renseignement cherché. Une mesure, opération indirecte,
nécessite ainsi une maîtrise théorique du fonctionnement de
l’appareil. Une horloge doit être pilotée par un phénomène
produisant des oscillations de période bien déterminée,
comparée au préalable avec l’étalon de temps. La construction
de thermomètres à alcool suppose la connaissance du
coefficient de dilatation de ce liquide. Le contrôle de la vitesse
des véhicules par radars routiers repose sur la théorie de l’effet
Doppler : l’onde émise par l’appareil lui revient après réflexion
sur une voiture, avec une fréquence modifiée en fonction de la
vitesse de celle-ci. (De même, le son de la sirène d’une
ambulance est perçu avec une hauteur dépendant de sa vitesse.)
À partir du changement de fréquence, un calcul fournit la
vitesse de la voiture. Les instruments de mesure peuvent être
améliorés ou inventés grâce à des progrès de la science et de la
technologie, qui en retour peuvent bénéficier de mesures plus
précises.
En fait, la précision des mesures de toute grandeur
continue est limitée. Lorsqu’on évalue la durée d’un
phénomène directement à partir du nombre d’oscillations d’une
horloge, on doit accepter une imprécision de l’ordre de la
période de celle-ci – ce qui conduit à monter en fréquences,
comme dans les horloges atomiques où l’on utilise les
vibrations d’atomes (leurs périodes se mesurent en
femtosecondes, ou 10–15 s). De même, les mesures précises de
longueur se basent sur la comparaison avec une longueur
d’onde lumineuse. Un exploit dans ce domaine est Virgo,
appareil franco-italien mis en service près de Pise et destiné à
détecter des ondes gravitationnelles émises par certains
processus cosmiques violents. Une telle onde devrait se
manifester comme une déformation périodique de l’espacetemps ; pour Virgo, comprenant deux tubes orthogonaux de
3 km de long, on s’attend à ce que leurs longueurs soient
modifiées différemment, mais cet effet n’est que de 10–18 m, un
million de fois moins que la taille d’un atome ! Pour obtenir
une pareille précision, on fait subir à un faisceau laser des
2
réflexions multiples aux extrémités de l’un et l’autre des tubes
en sorte qu’il y effectue des dizaines d’allers et retours, et on
compare par interférence les distances parcourues par les deux
ondes lumineuses.
Le processus d’interaction entre l’objet et l’appareil,
nécessaire pour que la mesure soit enregistrée par celui-ci, peut
en retour perturber l’objet. Cette perturbation est le plus
souvent cachée, ou extrêmement faible, mais en toute rigueur
elle existe. Pour mesurer la température d’un verre d’eau, il
faut que s’établisse un équilibre commun avec le thermomètre ;
ceci nécessite des échanges de chaleur, qui affectent la
température de l’eau. Le pied à coulisse serrant une tige réduit
légèrement son diamètre. La mesure d’une différence de
potentiel à l’aide d’un voltmètre peut être biaisée en raison du
passage d’un courant dans celui-ci. La réflexion d’un faisceau
radar exerce une pression sur le véhicule contrôlé. Dans tous
ces exemples, l’effet est infime car l’objet testé est
macroscopique. Mais il ne pourra être négligé dans le cas des
mesures quantiques qui portent sur des objets microscopiques.
II. Mesures et probabilités
Étant donné qu’aucune mesure n’est parfaite, son résultat
n’est jamais certain : il est caractérisé par une loi de
probabilité. Si l’on admet que la grandeur étudiée possède une
« valeur vraie » à laquelle les mesures permettent d’accéder, la
probabilité caractérise notre marge d’erreur. Cependant, nous
verrons que la notion même de valeur vraie perd son sens en
physique quantique, où il est interdit de raisonner autrement
qu’en termes de probabilités.
Dans la littérature scientifique, on accompagne le plus
souvent un résultat de son incertitude (du moins devrait-on le
faire systématiquement). Ainsi, on trouve dans les tables les
plus récentes la masse du proton sous la forme :
1,672 621 637 ± 0,000 000 083 × 10–27 kg,
signifiant que cette masse doit être considérée comme un
nombre aléatoire, régi par une loi de probabilité dont
l’expérience a fourni la valeur moyenne (ou espérance) et la
déviation estimée.
3
Ces deux nombres résument en fait la statistique d’un
très grand nombre de mesures. Les progrès expérimentaux et
l’accumulation d’observations de plus en plus précises se
traduisent par un resserrement de l’intervalle de confiance. Il y
a un demi-siècle, on donnait pour masse du proton :
1,672 39 ± 0,000 04 × 10–27 kg,
avec une incertitude 500 fois plus grande.
Ici, les probabilités s’interprètent comme un outil
mathématique permettant d’évaluer notre degré de
connaissance de l’objet considéré, connaissance toujours
imparfaite mais perfectible, et d’estimer à quel point nos
prévisions sont fiables. Elles ont donc en physique un caractère
partiellement subjectif, selon les conceptions de Laplace. Dans
leur interprétation objective issue de la théorie des jeux, elles
sont associées à une propriété intrinsèque de l’objet, le
dénombrement de ses configurations.
Il arrive que des mesures portent, non sur l’objet à
évaluer lui-même, mais sur des échantillons – par exemple
lorsque l’on effectue un test biologique ou que l’on contrôle la
qualité d’une production industrielle. Une analyse statistique
est alors nécessaire pour déterminer à quel degré le
prélèvement effectué est significatif.
Les imperfections de mesure, l’une des causes du
caractère seulement probabiliste de notre connaissance, sont de
natures diverses. L’existence de déviations systématiques est
illustrée par la comparaison entre les deux valeurs indiquées cidessus pour la masse du proton : il est clair qu’il y a 50 ans on
avait non seulement sous-estimé cette masse, mais aussi pêché
par optimisme sur la marge des erreurs systématiques. De tels
écarts peuvent par exemple provenir d’un mauvais étalonnage
de l’appareil, de perturbations extérieures incontrôlées ou de
biais dans l’interprétation théorique du processus.
Il existe aussi des imprécisions aléatoires. Certaines sont
dues au phénomène mis en œuvre dans l’appareil, comme dans
la mesure du temps. D’autres sont liées à un certain flou dans la
nature même de la grandeur mesurée. On peut définir et
mesurer au centimètre près par satellite l’altitude d’un océan, à
condition de prendre sa moyenne sur une surface de l’ordre du
km² ; les fluctuations dues aux vagues ôtent toute signification
à une altitude locale. De même, ce que Virgo mesure avec une
précision de 10–18 m, c’est la position moyenne de la surface
4
des miroirs, alors que les atomes constituant cette surface ont
des tailles de l’ordre de 10–10 m. La température d’un gaz à
l’équilibre, grandeur liée à la vitesse moyenne de ses
molécules, est bien définie pour un volume macroscopique comprenant un très grand nombre de molécules ; ses
fluctuations statistiques deviennent toutefois significatives pour
un volume microscopique, auquel cas le concept de température
lui-même tend à s’évanouir.
III. Les grandeurs physiques en mécanique quantique
Toutes les caractéristiques ci-dessus se retrouvent dans
les mesures quantiques, mais avec quelques changements. Une
première différence, provenant de la taille microscopique des
objets considérés, porte sur la nature des grandeurs
caractérisant leur état. À l’échelle atomique, tous les
phénomènes, qu’ils soient physiques, chimiques ou même
biologiques, peuvent en principe être décrits en termes des
seules grandeurs suivantes : positions, vitesses, masses et
charges des particules (électrons et noyaux atomiques) ; champ
électromagnétique en chaque point ; moment cinétique propre
(ou « spin ») et moment magnétique des particules susceptibles
de tourner sur elles-mêmes, durée du phénomène. Les
grandeurs auxquelles nous sommes habitués, température,
chaleur, pression, densité, courant ou polarisation électriques,
aimantation, potentiel chimique, etc., s’interprètent à cette
échelle en termes d’effets collectifs.
La différence majeure provient de propriétés insolites
des grandeurs microscopiques, propriétés imposées par la
physique quantique qui les régit. Dans une description
classique, adéquate pour un objet macroscopique, il est
légitime de supposer que les grandeurs physiques caractérisant
son état prennent des « valeurs vraies » ; seule la limitation de
nos moyens d’investigation implique l’emploi de probabilités.
(Nous verrons que les probabilités apparaissent en mécanique
quantique pour des raisons plus profondes). L’inexactitude des
mesures conduit à représenter mathématiquement les grandeurs
classiques par des nombres aléatoires. Mais il s’agit de
nombres ordinaires, et aucun principe n’interdit d’imaginer des
mesures approchant indéfiniment la « valeur vraie ».
5
Une révolution dans le concept de grandeur physique a
été apportée par l’avènement de la physique quantique, dont les
lois, quoique contraires au sens commun, ont été vérifiées par
un siècle de confirmations expérimentales. Dans la théorie
quantique, les grandeurs sont représentées non par des nombres
ordinaires, mais par des entités mathématiques appelés
observables, ayant des propriétés algébriques inhabituelles que
nous allons plus loin esquisser. Ces observables remplacent les
variables aléatoires de la théorie classique des probabilités : on
peut continuer à leur associer des espérances, des fluctuations
ou des corrélations. Mais elles ont des propriétés nouvelles, que
seule une certaine familiarité avec les mathématiques permet
d’appréhender.
Historiquement, la physique théorique n’a cessé de
progresser en utilisant (et en suscitant) des mathématiques de
plus en plus élaborées, ce qui la rend de plus en plus abstraite.
La science de l’Antiquité reposait sur l’arithmétique et la
géométrie ; de Galilée à Newton, le raisonnement géométrique
a continué à sous-tendre la description des objets naturels.
C’est l’analyse, avec le calcul différentiel et intégral, qui a joué
un rôle majeur dans les progrès théoriques des XVIIIème et
XIXème siècles. Le dernier siècle a été marqué par l’appel aux
probabilités et à l’algèbre.
L’algèbre adéquate à la mécanique quantique comprend,
comme l’algèbre élémentaire, des notions de somme et de
produit. En mécanique classique, les grandeurs physiques,
comme la position x et la vitesse v d’un objet sur un axe, sont
représentées par de simples nombres ; leur produit est le
résultat d’une multiplication ordinaire. Il est « commutatif »,
c’est-à-dire qu’il ne dépend pas de leur ordre : xv=vx, même
s’il s’agit de variables aléatoires corrélées. La situation est
différente en mécanique quantique, où les « observables » qui
représentent mathématiquement des grandeurs physiques
comme x et v ne sont plus des variables aléatoires, mais des
éléments d’une algèbre plus générale que celle des nombres
réels habituels. On y retrouve les opérations arithmétiques,
mais ici le produit de deux éléments n’est pas commutatif : il
dépend de leur ordre. (On peut illustrer cette propriété de noncommutation d’un produit en considérant des rotations d’un
quart de tour autour de deux axes, l’un vertical, l’autre
horizontal ; si l’on définit le produit de ces opérations comme
6
résultat de leur action successive, ce produit dépend de l’ordre
dans lequel elles sont effectuées). En physique quantique, le
produit de la position x et de la vitesse v d’une particule dépend
de l’ordre des ces facteurs ; la différence xv–vx associée à cette
paire d’observables est elle-même une observable, dont
l’espérance n’est pas nulle. Toute l’étrangeté de la mécanique
quantique va provenir de cette structure mathématique non
commutative de la théorie.
IV. Les fluctuations statistiques en physique quantique
Il résulte de la structure de l’algèbre des observables
associées à un système physique qu’une grandeur représentée
par l’observable A est susceptible de prendre un ensemble
déterminé de valeurs am, discrètes ou continues. Dans un état
donné, plus ou moins bien connu, du système considéré, une
probabilité pm est associée à chacune des valeurs possibles am
de la grandeur A. Celle-ci a pour espérance ‹A›=∑m pmam, et son
incertitude est caractérisée par sa fluctuation statistique ∆A
donnée par la variance (∆A)²=‹(A–‹A›)²›.
Une propriété nouvelle apparaît pour deux observables A
et B qui ne commutent pas. On démontre (en se basant sur le
fait naturel que (∆X)² doit être positive pour toute combinaison
linéaire X de A et B) que les incertitudes sur A et B satisfont à
l’inégalité de Heisenberg (∆A)(∆B)≥|‹C›|, où 2C≡AB–BA,
appelée aussi « principe d’incertitude ». Des conséquences
physiques inattendues en découlent.
Dès lors que le second membre de cette inégalité est non
nul, on n’a pas le droit d’envisager que les grandeurs A et B
puissent prendre simultanément des valeurs numériques bien
définies. Si, par exemple, x et v sont la position et la vitesse
d’une particule de masse m, xv-vx vaut iћ/m, où ћ=1,055×10–34
m²s–1kg est la constante de Planck-Dirac, de sorte que la
position et la vitesse d’un électron (m=9, 11×10–31 kg) doivent
toujours satisfaire à l’inégalité (∆x)(∆v)≥0,58×10–4 m²s–1 : les
incertitudes sur x et v ne peuvent être toutes deux indéfiniment
réduites. Si, par exemple, on agit sur un électron en sorte qu’il
soit localisé sur un axe à 0,1 mm près, sa vitesse dans la même
direction reste indéterminée, ne pouvant être précisée à mieux
que 5,8 m s–1. Il n’est pas interdit d’imaginer que sa position
7
soit bien définie, mais alors sa vitesse est totalement
indéterminée. Strictement parlant, position et vitesse sont des
grandeurs incompatibles ; elles ne peuvent être pensées
simultanément que moyennant un certain flou, flou cependant
contrôlé par la théorie. Cette incertitude intrinsèque est
invisible pour des objets macroscopiques, car le second
membre de l’inégalité de Heisenberg est inversement
proportionnel à la masse de l’objet considéré.
La mécanique quantique nous interdit donc, en raison de
la non-commutation des observables, de considérer des
situations où toutes leurs fluctuations seraient nulles ― de sorte
qu’on ne peut en éliminer les probabilités. Même si on
s’intéressait à un objet individuel, il faudrait le considérer
comme faisant partie d’un ensemble statistique d’objets
produits dans les mêmes conditions. La théorie porte en fait sur
l’information que nous pouvons acquérir et sur les prévisions
probabilistes que nous pouvons faire sur un tel ensemble.
V. Complémentarité et mesures
Il existe de nombreux exemples de grandeurs qui, comme
la position et la vitesse d’une particule, sont à la fois
nécessaires pour décrire la réalité et floues lorsqu’on cherche à
les préciser simultanément. C’est ce que Niels Bohr a désigné
sous le nom de « complémentarité ». Lorsqu’une particule peut
tourner sur elle-même comme une molécule ou un électron, les
composantes de son moment cinétique sur trois axes
orthogonaux ne commutent pas ; si donc son moment
magnétique prend une valeur bien définie dans la direction z, il
est complètement aléatoire dans les directions x et y. Un
électron présente à la fois les deux natures complémentaires de
particule et d’onde, mais, si l’on cherche à trop le localiser, sa
longueur d’onde perd tout sens. Le champ électrique et le
champ magnétique sont des grandeurs qui ne commutent pas et
ne peuvent donc être précisés ensemble exactement. La lumière
est à la fois onde électromagnétique et faisceau de photons,
mais le champ électromagnétique moyen s’annule lorsque le
nombre de photons est bien défini, et inversement une donnée
de plus en plus précise du champ implique une fluctuation de
plus en plus forte du nombre de photons.
8
En accord avec ces considérations théoriques, les
mesures quantiques comportent un caractère probabiliste
inévitable. Aux incertitudes expérimentales sur toute grandeur
physique s’ajoutent ici les incertitudes théoriques imposées par
les inégalités de Heisenberg. Plus encore que dans le cas
classique, des mesures quantiques n’ont de sens que si elles
sont répétées, puisque la mécanique quantique décrit non des
objets individuels mais des ensembles statistiques. Lorsque
deux observables sont complémentaires, on peut imaginer des
appareils distincts qui déterminent soit l’une soit l’autre ; pour
une succession d’expériences répétées, portant sur des systèmes
tous préparés de la même façon, les fluctuations statistiques
associées aux deux appareils dépasseront toujours la borne
fournie par le principe d’incertitude. Il ne s’agit pas là d’un
défaut du processus de mesure : il est interdit de concevoir
qu’un électron possède à la fois une certaine position et une
certaine vitesse qui préexisteraient avant mesure.
VI. Un nouveau concept de probabilité
Ce n’est pas la théorie des probabilités ordinaires
qu’utilise la mécanique quantique. Certes, pour une seule
grandeur physique A, les valeurs possibles am restent régies par
une loi de probabilité pm classique. Mais dès que l’on considère
deux observables A et B qui ne commutent pas, il est
impossible de définir la probabilité pmn d’un couple de valeurs
am, bn ; si c’était le cas, A et B seraient susceptibles de prendre
en même temps (avec cette probabilité) les valeurs respectives
am et bn, ce que l’inégalité de Heisenberg interdit. La théorie
quantique précise comment calculer espérances, variances ou
corrélations ; les nouvelles probabilités ainsi introduites sont
toutefois irréductibles, en ce sens qu’on ne peut imaginer
aucune situation où les grandeurs physiques ne présenteraient
pas de fluctuations statistiques.
Tout cela est confirmé par les mesures quantiques. En
particulier, l’inadéquation des probabilités ordinaires (ou
« classiques ») à la description du réel à l’échelle atomique a
été établie de façon indiscutable par les tests des inégalités de
Bell. John Bell a montré que, si deux objets sont corrélés et si
9
leurs propriétés sont régies par des probabilités classiques, les
valeurs des corrélations existant entre eux doivent satisfaire à
certaines inégalités. Il a aussi montré que, dans la théorie
quantique, ces dernières peuvent être violées. La violation des
inégalités de Bell a été prouvée expérimentalement (Alain
Aspect, 1982) : malgré leur étrangeté, les probabilités
quantiques doivent à l’échelle microscopique remplacer les
probabilités ordinaires.
VII. Perturbation apportée par l’appareil à l’objet mesuré
Nous avons vu qu’une mesure nécessite une interaction
entre l’objet et l’appareil. C’est la corrélation établie par ce
processus, entre l’état final observé sur l’appareil et l’état
initial de l’objet, qui nous fournit l’information cherchée. Dans
une mesure quantique où l’objet est microscopique, l’appareil
est nécessairement macroscopique. En effet, il doit enregistrer
le résultat de façon robuste, afin que nous puissions en prendre
connaissance. Malgré sa petite taille, l’objet parvient à influer
sur l’appareil si celui-ci est initialement dans un état
métastable ; la perturbation apportée à l’appareil par l’objet,
quoique faible, est alors susceptible de déclencher une
relaxation vers un état stable. C’est ce qui se produit par
exemple dans les détecteurs de particules.
En sens inverse, l’objet testé subit l’interaction avec
l’appareil. En physique classique, rien, en principe, n’interdit
d’imaginer qu’il ne soit qu’infinitésimalement perturbé par une
mesure. Ici, il risque de l’être plus sérieusement en raison de sa
faible taille. D’ailleurs, on effectue souvent des mesures
quantiques destructrices, où la caractéristique cherchée ne
s’obtient que par disparition de l’objet, par exemple lorsqu’on
détecte l’énergie d’un photon par absorption. Une question se
pose alors : existe-t-il des mesures quantiques qui laisseraient
l’objet inchangé ? La réponse est négative en raison de la noncommutation entre observables. Considérons une succession de
mesures de A, effectuées sur un ensemble statistique d’objets
similaires, et supposons que, plusieurs résultats étant possibles,
l’on ait sélectionné celles qui ont fourni une valeur am
particulière. Avant mesure, l’incertitude ∆A était finie, mais
elle a été ramenée à 0 pour ce sous-ensemble. En conséquence,
10
les incertitudes ∆B sur les grandeurs complémentaires B ont
augmenté afin de satisfaire à la relation de Heisenberg.
L’acquisition d’information sur une grandeur A implique donc
une destruction d’information sur d’autres.
Même les mesures quantiques idéales, définies comme
perturbant le moins possible l’objet, modifient en général son
état. La théorie précise les règles qui régissent cette
modification. Une mesure idéale de A suivie de la sélection
d’un résultat particulier am donne naissance à un état de l’objet
dans lequel la valeur de A est contrôlée. Un tel processus
constitue ainsi une préparation ayant des caractéristiques
choisies à l’avance en vue d’expériences ultérieures.
VIII. Le paradoxe de la mesure
La perturbation apportée par une mesure idéale, appelée
« réduction du paquet d’ondes », pose un problème conceptuel.
Lors d’une succession de mesures quantiques effectuées sur des
objets préparés dans des conditions identiques, on obtient
divers résultats ; mais, à chaque fois, l’appareil donne une
indication bien définie. D’autre part, l’évolution conjointe de
l’objet et de l’appareil durant le processus de mesure doit obéir
aux lois fondamentales de la mécanique quantique. Or, celles-ci
impliquent que l’état final est une superposition d’états où une
même variable prend des valeurs distinctes : c’est le paradoxe
dit du « chat de Schrödinger », animal susceptible d’être à la
fois mort et vivant. Pourquoi alors une molécule peut-elle se
comporter comme un chat de Schrödinger, ce que l’on constate
expérimentalement, et pas un appareil de mesure, … ni un vrai
chat ?
Ce paradoxe a donné lieu à de multiples controverses
scientifiques et philosophiques. On a avancé que les lois
quantiques pourraient ne pas s’appliquer aux systèmes
macroscopiques, ce que sont les appareils. On a supposé
l’existence de mondes parallèles : une mesure nous conduirait
alors vers l’un d’entre eux, les autres nous restant inaccessibles.
On a aussi mis en avant le rôle de l’observateur, ce qui n’est
pas non plus satisfaisant puisque le résultat de mesure peut être
objectivé par enregistrement.
11
Les élucidations les plus convaincantes reposent sur
l’idée qu’un changement d’échelle peut faire émerger des
propriétés qualitativement nouvelles. Par exemple, à l’échelle
microscopique, la matière est discrète, alors qu’elle nous
apparaît comme continue. Ses équations d’évolution exactes
sont réversibles (elles ne changent pas si l’on renverse le sens
du temps), alors qu’à notre échelle bien des phénomènes
apparaissent comme irréversibles : l’énergie cinétique d’une
voiture se transforme en chaleur lorsqu’on freine, mais faire
fonctionner en sens inverse des freins pour restituer de
l’énergie cinétique à partir de chaleur est impensable. Pour
résoudre cette contradiction apparente, on s’appuie sur le
nombre gigantesque de constituants élémentaires d’un objet
macroscopique, nombre qui nous oblige à renoncer à une
description détaillée et à utiliser des probabilités. Alors, bien
qu’en toute rigueur de tels processus impensables où l’on
« remonte le temps » ne soient pas interdits par les lois
microscopiques qui les régissent, ils ont une probabilité
extraordinairement faible d’être observés (même pendant toute
la durée de vie de l’Univers !).
De même, malgré le caractère quantique du système
objet plus appareil, la taille macroscopique de ce dernier rend
très improbable son comportement en « chat de Schrödinger » :
lors de chaque mesure, nous n’avons pratiquement aucune
chance d’observer autre chose qu’un résultat bien défini. Des
études théoriques récentes de processus de mesure, s’appuyant
sur des considérations statistiques, ont permis de comprendre
pourquoi les propriétés des mesures sont compatibles avec des
équations d’évolution quantiques.
IX. Une nouvelle logique
Dans cette dernière partie, nous allons examiner l’un
des types les plus surprenants de mesures quantiques, celles qui
se rapportent au paradoxe GHZ (Greenberger, Horne et
Zeilinger, 1989). Il nous faudra d’abord introduire quelques
éléments d’algèbre, nécessaires à la compréhension du
phénomène physique.
On va considérer des mesures de « spins ». Laissant de
côté position et vitesse, l’état d’un électron, par exemple, est
12
caractérisé par sa rotation propre. Cette particule, quoique
ponctuelle, peut en effet tourner sur elle-même comme une
toupie ; sa rotation est caractérisée par les trois composantes de
son moment cinétique dans les directions x, y et z, qui valent
½ħσx, ½ħσy et ½ħσz, où ħ est la constante de Planck-Dirac et où
σx, σy et σz définissent les trois observables de spin. Leur
algèbre comporte les relations σx² = σy² = σz² = 1, ce qui
implique qu’elles ne peuvent prendre que les valeurs +1 ou –1 ;
elles ne commutent pas, de sorte que l’on ne peut les préciser ni
les mesurer simultanément. En fait, elles anticommutent, c’està-dire, par exemple, que σxσz = –σzσx. Étant donné que le
moment magnétique propre de l’électron est proportionnel à
son moment cinétique, on peut mesurer des spins par des
expériences de magnétisme.
Le paradoxe GHZ fait intervenir trois spins, notés 1, 2 et
3, dont les composantes sont notées x, y et z. Les observables
mises en jeu sont les suivantes :
• B1=σ1x ; B2=σ2x ; B3=σ3x ;
• C23=σ2yσ3y ; C31=σ3yσ1y ; C12=σ1yσ2y ;
• A1=B1C23 ; A2=B2C31 ; A3=B3C12 .
Leur algèbre résulte de celle des σ. Chacune d’entre elles
a un carré égal à 1, et peut donc prendre aléatoirement les
valeurs +1 ou –1. Se référant à des spins différents, B1, B2 et B3
commutent l’une avec l’autre (B1B2=B2B1, etc.), ainsi que
chacune des paires B1 et C23, B2 et C31, B3 et C12 ; les
observables C23, C31 et C12 commutent aussi entre elles, et, de
plus, leur produit est égal à 1 (C23C31C12≡1). Mais les paires
telles que B1 et C31 anticommutent (B1C31= – C31B1). Il en
résulte finalement que les trois observables A1, A2 et A3
commutent.
Ces dernières représentent des corrélations entre les
trois spins, par exemple A1=σ1xσ2yσ3y corrèle la composante x
du spin 1 et la composante y des spins 2 et 3. Puisque A1, A2 et
A3 commutent, les grandeurs physiques correspondantes
peuvent toutes trois prendre des valeurs bien déterminées.
Supposons que l’on ait mis au point un appareillage susceptible
de les contrôler simultanément. Ceci permet de produire des
systèmes de trois spins tels que les grandeurs A1, A2 et A3
prennent toujours les valeurs respectives a1=+1, a2=+1 et
a3=+1. On prépare ainsi une population de triplets corrélés,
tous dans le même état E caractérisé par ces valeurs. Aucune
13
expérience ne peut permettre de distinguer les échantillons de
ce nouvel ensemble, dans lequel les fluctuations des
observables de type B et C valent 1.
La surprise va venir de la mesure, dans l’état E ainsi
préparé, de l’observable D=B1B2B3. Quel est le résultat
attendu ? Un raisonnement basé sur l’idée que chacune des
grandeurs A, B ou C peut prendre les valeurs soit +1, soit –1,
semble nous le fournir. Étant donné que A1 = B1C23 vaut
a1 = +1, les grandeurs B1 et C23 prennent la même valeur, b1 =
c23 = +1 ou b1 = c23 = –1. De même, il paraît naturel de dire que
b2=c31 et b3=c12 dans l’état E. En utilisant l’identité
C23C31C12≡1, d’où c23c31c12=1, il semble donc que, dans l’état E
caractérisé par a1=a2=a3=+1, l’observable D = B1B2B3 prenne la
valeur d=b1b2b3=1.
Or, la mesure de D, qui a été effectuée (ainsi que des
expériences similaires, 1999), fournit le résultat d= –1 ! La
théorie quantique le confirme : un calcul algébrique, basé sur
les définitions des observables A, B et C et sur leurs propriétés
de commutation, donne :
A1A2A3 = B1C23B2C31B3C12 = – B1B2C23C31B3C12
= –B1B2B3C23C31C12 = –B1B2B3 = –D.
La grandeur D s’identifie à –A1A2A3 et vaut donc avec certitude
–1 dans l’état E, et non +1.
Qu’y avait-il donc d’erroné dans le raisonnement
précédent, qui semblait pourtant imparable ? Ce ne peut être
l’assertion selon laquelle b1=c23, qui est vraie. Celle-ci peut être
vérifiée expérimentalement, en mesurant ces deux grandeurs
(compatibles) sur un ensemble de systèmes préparés dans l’état
E (où a1=b1c23=+1) ; on trouvera, avec une chance sur deux, les
valeurs b1=c23=+1 ou b1=c23= –1. Les assertions b2=c31 et b3=c12
sont également vraies, et vérifiables expérimentalement.
Pourtant, étant donné que B1 et C31, par exemple, ne commutent
pas, leur mesure simultanée est impossible, et il est interdit
d’imaginer que b1 et c31 prennent en même temps des valeurs
bien déterminées dans l’état E. Les égalités b1=c23 et b2=c31
prises séparément sont correctes danc cet état, mais elles sont
incompatibles. Elles ne peuvent être vérifiées que sur des
échantillons différents de l’ensemble statistique, dans des
contextes expérimentaux différents. On doit donc admettre que
leur véracité n’est que contextuelle.
14
Notre logique quotidienne est donc mise en défaut.
Quoique séparément vraies, des assertions peuvent ne pas avoir
de sens ensemble : on n’a pas le droit de les combiner pour en
tirer des conséquences communes si la non-commutation de
certaines des observables mises en jeu nous interdit d’imaginer
des expériences où elles pourraient être simultanément
mesurées. Les relations entre grandeurs physiques ne portent
pas sur des objets en soi, mais sont relatives à un contexte
expérimental susceptible de les vérifier.
Il peut sembler choquant que la mécanique quantique,
notre théorie la plus fondamentale, défie le sens commun.
Pourtant, l’exploration du monde microscopique nous a forcés
à modifier profondément le concept de grandeur physique issu
de notre expérience courante. Nous devons admettre que notre
connaissance des objets est limitée par le cadre quantique où
des grandeurs complémentaires ne sont pas simultanément
mesurables. En conséquence, les probabilités deviennent
irréductibles en physique quantique, et leur nature doit être
reconsidérée. Enfin, la logique elle-même est affectée : elle ne
s’applique pas à des assertions que la théorie interdit de vérifier
simultanément par l’expérience, ce qui fait jouer un rôle
conceptuel inattendu aux mesures quantiques.
15
Téléchargement