La mesure en mécanique quantique : une révolution conceptuelle par Roger Balian Institut de Physique Théorique, CEA, Saclay Académie des Sciences Les mesures jouent un rôle essentiel en sciences puisque ce sont elles qui permettent d’explorer les grandeurs caractérisant l’état d’un système. Au XXème siècle, la notion même de grandeur physique a été révolutionnée par la mécanique quantique ; les mesures quantiques, qui portent sur des objets microscopiques, présentent des aspects insolites qui ont donné lieu à de nombreuses discussions. Nous avons ainsi été conduits à réviser plusieurs concepts mathématiques et philosophiques, et notre façon de penser en a été affectée. I. Caractéristiques générales des mesures Commençons par passer en revue quelques propriétés communes à toutes les mesures. Bien que banales en apparence, plusieurs d’entre elles vont prendre une forme subtile en mécanique quantique. Nous avons tous une idée intuitive de ce qu’est une mesure. Pour estimer par exemple la durée d’un phénomène, on utilise une horloge, système physique dont l’un des constituants oscille ou vibre régulièrement ; ce peut être le balancier d’une pendule ancienne, ou le quartz d’un chronomètre. On met ces oscillations en correspondance avec le phénomène, et leur décompte entre début et fin fournit la durée cherchée. Pour déterminer la température d’un verre d’eau, on y plonge un thermomètre, par exemple à alcool, dont on observe le niveau. Pour mesurer la masse d’un objet, on la compare à celle de masses connues grâce à une balance. 1 Dans tous ces cas, le but est de déterminer la valeur d’une grandeur caractérisant telle ou telle propriété de l’objet étudié. Pour acquérir cette information, il faut utiliser un appareil. C’est la modification que celui-ci a subie, à l’issue d’un processus où il a interagi avec l’objet, qui enregistre le renseignement cherché. Une mesure, opération indirecte, nécessite ainsi une maîtrise théorique du fonctionnement de l’appareil. Une horloge doit être pilotée par un phénomène produisant des oscillations de période bien déterminée, comparée au préalable avec l’étalon de temps. La construction de thermomètres à alcool suppose la connaissance du coefficient de dilatation de ce liquide. Le contrôle de la vitesse des véhicules par radars routiers repose sur la théorie de l’effet Doppler : l’onde émise par l’appareil lui revient après réflexion sur une voiture, avec une fréquence modifiée en fonction de la vitesse de celle-ci. (De même, le son de la sirène d’une ambulance est perçu avec une hauteur dépendant de sa vitesse.) À partir du changement de fréquence, un calcul fournit la vitesse de la voiture. Les instruments de mesure peuvent être améliorés ou inventés grâce à des progrès de la science et de la technologie, qui en retour peuvent bénéficier de mesures plus précises. En fait, la précision des mesures de toute grandeur continue est limitée. Lorsqu’on évalue la durée d’un phénomène directement à partir du nombre d’oscillations d’une horloge, on doit accepter une imprécision de l’ordre de la période de celle-ci – ce qui conduit à monter en fréquences, comme dans les horloges atomiques où l’on utilise les vibrations d’atomes (leurs périodes se mesurent en femtosecondes, ou 10–15 s). De même, les mesures précises de longueur se basent sur la comparaison avec une longueur d’onde lumineuse. Un exploit dans ce domaine est Virgo, appareil franco-italien mis en service près de Pise et destiné à détecter des ondes gravitationnelles émises par certains processus cosmiques violents. Une telle onde devrait se manifester comme une déformation périodique de l’espacetemps ; pour Virgo, comprenant deux tubes orthogonaux de 3 km de long, on s’attend à ce que leurs longueurs soient modifiées différemment, mais cet effet n’est que de 10–18 m, un million de fois moins que la taille d’un atome ! Pour obtenir une pareille précision, on fait subir à un faisceau laser des 2 réflexions multiples aux extrémités de l’un et l’autre des tubes en sorte qu’il y effectue des dizaines d’allers et retours, et on compare par interférence les distances parcourues par les deux ondes lumineuses. Le processus d’interaction entre l’objet et l’appareil, nécessaire pour que la mesure soit enregistrée par celui-ci, peut en retour perturber l’objet. Cette perturbation est le plus souvent cachée, ou extrêmement faible, mais en toute rigueur elle existe. Pour mesurer la température d’un verre d’eau, il faut que s’établisse un équilibre commun avec le thermomètre ; ceci nécessite des échanges de chaleur, qui affectent la température de l’eau. Le pied à coulisse serrant une tige réduit légèrement son diamètre. La mesure d’une différence de potentiel à l’aide d’un voltmètre peut être biaisée en raison du passage d’un courant dans celui-ci. La réflexion d’un faisceau radar exerce une pression sur le véhicule contrôlé. Dans tous ces exemples, l’effet est infime car l’objet testé est macroscopique. Mais il ne pourra être négligé dans le cas des mesures quantiques qui portent sur des objets microscopiques. II. Mesures et probabilités Étant donné qu’aucune mesure n’est parfaite, son résultat n’est jamais certain : il est caractérisé par une loi de probabilité. Si l’on admet que la grandeur étudiée possède une « valeur vraie » à laquelle les mesures permettent d’accéder, la probabilité caractérise notre marge d’erreur. Cependant, nous verrons que la notion même de valeur vraie perd son sens en physique quantique, où il est interdit de raisonner autrement qu’en termes de probabilités. Dans la littérature scientifique, on accompagne le plus souvent un résultat de son incertitude (du moins devrait-on le faire systématiquement). Ainsi, on trouve dans les tables les plus récentes la masse du proton sous la forme : 1,672 621 637 ± 0,000 000 083 × 10–27 kg, signifiant que cette masse doit être considérée comme un nombre aléatoire, régi par une loi de probabilité dont l’expérience a fourni la valeur moyenne (ou espérance) et la déviation estimée. 3 Ces deux nombres résument en fait la statistique d’un très grand nombre de mesures. Les progrès expérimentaux et l’accumulation d’observations de plus en plus précises se traduisent par un resserrement de l’intervalle de confiance. Il y a un demi-siècle, on donnait pour masse du proton : 1,672 39 ± 0,000 04 × 10–27 kg, avec une incertitude 500 fois plus grande. Ici, les probabilités s’interprètent comme un outil mathématique permettant d’évaluer notre degré de connaissance de l’objet considéré, connaissance toujours imparfaite mais perfectible, et d’estimer à quel point nos prévisions sont fiables. Elles ont donc en physique un caractère partiellement subjectif, selon les conceptions de Laplace. Dans leur interprétation objective issue de la théorie des jeux, elles sont associées à une propriété intrinsèque de l’objet, le dénombrement de ses configurations. Il arrive que des mesures portent, non sur l’objet à évaluer lui-même, mais sur des échantillons – par exemple lorsque l’on effectue un test biologique ou que l’on contrôle la qualité d’une production industrielle. Une analyse statistique est alors nécessaire pour déterminer à quel degré le prélèvement effectué est significatif. Les imperfections de mesure, l’une des causes du caractère seulement probabiliste de notre connaissance, sont de natures diverses. L’existence de déviations systématiques est illustrée par la comparaison entre les deux valeurs indiquées cidessus pour la masse du proton : il est clair qu’il y a 50 ans on avait non seulement sous-estimé cette masse, mais aussi pêché par optimisme sur la marge des erreurs systématiques. De tels écarts peuvent par exemple provenir d’un mauvais étalonnage de l’appareil, de perturbations extérieures incontrôlées ou de biais dans l’interprétation théorique du processus. Il existe aussi des imprécisions aléatoires. Certaines sont dues au phénomène mis en œuvre dans l’appareil, comme dans la mesure du temps. D’autres sont liées à un certain flou dans la nature même de la grandeur mesurée. On peut définir et mesurer au centimètre près par satellite l’altitude d’un océan, à condition de prendre sa moyenne sur une surface de l’ordre du km² ; les fluctuations dues aux vagues ôtent toute signification à une altitude locale. De même, ce que Virgo mesure avec une précision de 10–18 m, c’est la position moyenne de la surface 4 des miroirs, alors que les atomes constituant cette surface ont des tailles de l’ordre de 10–10 m. La température d’un gaz à l’équilibre, grandeur liée à la vitesse moyenne de ses molécules, est bien définie pour un volume macroscopique comprenant un très grand nombre de molécules ; ses fluctuations statistiques deviennent toutefois significatives pour un volume microscopique, auquel cas le concept de température lui-même tend à s’évanouir. III. Les grandeurs physiques en mécanique quantique Toutes les caractéristiques ci-dessus se retrouvent dans les mesures quantiques, mais avec quelques changements. Une première différence, provenant de la taille microscopique des objets considérés, porte sur la nature des grandeurs caractérisant leur état. À l’échelle atomique, tous les phénomènes, qu’ils soient physiques, chimiques ou même biologiques, peuvent en principe être décrits en termes des seules grandeurs suivantes : positions, vitesses, masses et charges des particules (électrons et noyaux atomiques) ; champ électromagnétique en chaque point ; moment cinétique propre (ou « spin ») et moment magnétique des particules susceptibles de tourner sur elles-mêmes, durée du phénomène. Les grandeurs auxquelles nous sommes habitués, température, chaleur, pression, densité, courant ou polarisation électriques, aimantation, potentiel chimique, etc., s’interprètent à cette échelle en termes d’effets collectifs. La différence majeure provient de propriétés insolites des grandeurs microscopiques, propriétés imposées par la physique quantique qui les régit. Dans une description classique, adéquate pour un objet macroscopique, il est légitime de supposer que les grandeurs physiques caractérisant son état prennent des « valeurs vraies » ; seule la limitation de nos moyens d’investigation implique l’emploi de probabilités. (Nous verrons que les probabilités apparaissent en mécanique quantique pour des raisons plus profondes). L’inexactitude des mesures conduit à représenter mathématiquement les grandeurs classiques par des nombres aléatoires. Mais il s’agit de nombres ordinaires, et aucun principe n’interdit d’imaginer des mesures approchant indéfiniment la « valeur vraie ». 5 Une révolution dans le concept de grandeur physique a été apportée par l’avènement de la physique quantique, dont les lois, quoique contraires au sens commun, ont été vérifiées par un siècle de confirmations expérimentales. Dans la théorie quantique, les grandeurs sont représentées non par des nombres ordinaires, mais par des entités mathématiques appelés observables, ayant des propriétés algébriques inhabituelles que nous allons plus loin esquisser. Ces observables remplacent les variables aléatoires de la théorie classique des probabilités : on peut continuer à leur associer des espérances, des fluctuations ou des corrélations. Mais elles ont des propriétés nouvelles, que seule une certaine familiarité avec les mathématiques permet d’appréhender. Historiquement, la physique théorique n’a cessé de progresser en utilisant (et en suscitant) des mathématiques de plus en plus élaborées, ce qui la rend de plus en plus abstraite. La science de l’Antiquité reposait sur l’arithmétique et la géométrie ; de Galilée à Newton, le raisonnement géométrique a continué à sous-tendre la description des objets naturels. C’est l’analyse, avec le calcul différentiel et intégral, qui a joué un rôle majeur dans les progrès théoriques des XVIIIème et XIXème siècles. Le dernier siècle a été marqué par l’appel aux probabilités et à l’algèbre. L’algèbre adéquate à la mécanique quantique comprend, comme l’algèbre élémentaire, des notions de somme et de produit. En mécanique classique, les grandeurs physiques, comme la position x et la vitesse v d’un objet sur un axe, sont représentées par de simples nombres ; leur produit est le résultat d’une multiplication ordinaire. Il est « commutatif », c’est-à-dire qu’il ne dépend pas de leur ordre : xv=vx, même s’il s’agit de variables aléatoires corrélées. La situation est différente en mécanique quantique, où les « observables » qui représentent mathématiquement des grandeurs physiques comme x et v ne sont plus des variables aléatoires, mais des éléments d’une algèbre plus générale que celle des nombres réels habituels. On y retrouve les opérations arithmétiques, mais ici le produit de deux éléments n’est pas commutatif : il dépend de leur ordre. (On peut illustrer cette propriété de noncommutation d’un produit en considérant des rotations d’un quart de tour autour de deux axes, l’un vertical, l’autre horizontal ; si l’on définit le produit de ces opérations comme 6 résultat de leur action successive, ce produit dépend de l’ordre dans lequel elles sont effectuées). En physique quantique, le produit de la position x et de la vitesse v d’une particule dépend de l’ordre des ces facteurs ; la différence xv–vx associée à cette paire d’observables est elle-même une observable, dont l’espérance n’est pas nulle. Toute l’étrangeté de la mécanique quantique va provenir de cette structure mathématique non commutative de la théorie. IV. Les fluctuations statistiques en physique quantique Il résulte de la structure de l’algèbre des observables associées à un système physique qu’une grandeur représentée par l’observable A est susceptible de prendre un ensemble déterminé de valeurs am, discrètes ou continues. Dans un état donné, plus ou moins bien connu, du système considéré, une probabilité pm est associée à chacune des valeurs possibles am de la grandeur A. Celle-ci a pour espérance ‹A›=∑m pmam, et son incertitude est caractérisée par sa fluctuation statistique ∆A donnée par la variance (∆A)²=‹(A–‹A›)²›. Une propriété nouvelle apparaît pour deux observables A et B qui ne commutent pas. On démontre (en se basant sur le fait naturel que (∆X)² doit être positive pour toute combinaison linéaire X de A et B) que les incertitudes sur A et B satisfont à l’inégalité de Heisenberg (∆A)(∆B)≥|‹C›|, où 2C≡AB–BA, appelée aussi « principe d’incertitude ». Des conséquences physiques inattendues en découlent. Dès lors que le second membre de cette inégalité est non nul, on n’a pas le droit d’envisager que les grandeurs A et B puissent prendre simultanément des valeurs numériques bien définies. Si, par exemple, x et v sont la position et la vitesse d’une particule de masse m, xv-vx vaut iћ/m, où ћ=1,055×10–34 m²s–1kg est la constante de Planck-Dirac, de sorte que la position et la vitesse d’un électron (m=9, 11×10–31 kg) doivent toujours satisfaire à l’inégalité (∆x)(∆v)≥0,58×10–4 m²s–1 : les incertitudes sur x et v ne peuvent être toutes deux indéfiniment réduites. Si, par exemple, on agit sur un électron en sorte qu’il soit localisé sur un axe à 0,1 mm près, sa vitesse dans la même direction reste indéterminée, ne pouvant être précisée à mieux que 5,8 m s–1. Il n’est pas interdit d’imaginer que sa position 7 soit bien définie, mais alors sa vitesse est totalement indéterminée. Strictement parlant, position et vitesse sont des grandeurs incompatibles ; elles ne peuvent être pensées simultanément que moyennant un certain flou, flou cependant contrôlé par la théorie. Cette incertitude intrinsèque est invisible pour des objets macroscopiques, car le second membre de l’inégalité de Heisenberg est inversement proportionnel à la masse de l’objet considéré. La mécanique quantique nous interdit donc, en raison de la non-commutation des observables, de considérer des situations où toutes leurs fluctuations seraient nulles ― de sorte qu’on ne peut en éliminer les probabilités. Même si on s’intéressait à un objet individuel, il faudrait le considérer comme faisant partie d’un ensemble statistique d’objets produits dans les mêmes conditions. La théorie porte en fait sur l’information que nous pouvons acquérir et sur les prévisions probabilistes que nous pouvons faire sur un tel ensemble. V. Complémentarité et mesures Il existe de nombreux exemples de grandeurs qui, comme la position et la vitesse d’une particule, sont à la fois nécessaires pour décrire la réalité et floues lorsqu’on cherche à les préciser simultanément. C’est ce que Niels Bohr a désigné sous le nom de « complémentarité ». Lorsqu’une particule peut tourner sur elle-même comme une molécule ou un électron, les composantes de son moment cinétique sur trois axes orthogonaux ne commutent pas ; si donc son moment magnétique prend une valeur bien définie dans la direction z, il est complètement aléatoire dans les directions x et y. Un électron présente à la fois les deux natures complémentaires de particule et d’onde, mais, si l’on cherche à trop le localiser, sa longueur d’onde perd tout sens. Le champ électrique et le champ magnétique sont des grandeurs qui ne commutent pas et ne peuvent donc être précisés ensemble exactement. La lumière est à la fois onde électromagnétique et faisceau de photons, mais le champ électromagnétique moyen s’annule lorsque le nombre de photons est bien défini, et inversement une donnée de plus en plus précise du champ implique une fluctuation de plus en plus forte du nombre de photons. 8 En accord avec ces considérations théoriques, les mesures quantiques comportent un caractère probabiliste inévitable. Aux incertitudes expérimentales sur toute grandeur physique s’ajoutent ici les incertitudes théoriques imposées par les inégalités de Heisenberg. Plus encore que dans le cas classique, des mesures quantiques n’ont de sens que si elles sont répétées, puisque la mécanique quantique décrit non des objets individuels mais des ensembles statistiques. Lorsque deux observables sont complémentaires, on peut imaginer des appareils distincts qui déterminent soit l’une soit l’autre ; pour une succession d’expériences répétées, portant sur des systèmes tous préparés de la même façon, les fluctuations statistiques associées aux deux appareils dépasseront toujours la borne fournie par le principe d’incertitude. Il ne s’agit pas là d’un défaut du processus de mesure : il est interdit de concevoir qu’un électron possède à la fois une certaine position et une certaine vitesse qui préexisteraient avant mesure. VI. Un nouveau concept de probabilité Ce n’est pas la théorie des probabilités ordinaires qu’utilise la mécanique quantique. Certes, pour une seule grandeur physique A, les valeurs possibles am restent régies par une loi de probabilité pm classique. Mais dès que l’on considère deux observables A et B qui ne commutent pas, il est impossible de définir la probabilité pmn d’un couple de valeurs am, bn ; si c’était le cas, A et B seraient susceptibles de prendre en même temps (avec cette probabilité) les valeurs respectives am et bn, ce que l’inégalité de Heisenberg interdit. La théorie quantique précise comment calculer espérances, variances ou corrélations ; les nouvelles probabilités ainsi introduites sont toutefois irréductibles, en ce sens qu’on ne peut imaginer aucune situation où les grandeurs physiques ne présenteraient pas de fluctuations statistiques. Tout cela est confirmé par les mesures quantiques. En particulier, l’inadéquation des probabilités ordinaires (ou « classiques ») à la description du réel à l’échelle atomique a été établie de façon indiscutable par les tests des inégalités de Bell. John Bell a montré que, si deux objets sont corrélés et si 9 leurs propriétés sont régies par des probabilités classiques, les valeurs des corrélations existant entre eux doivent satisfaire à certaines inégalités. Il a aussi montré que, dans la théorie quantique, ces dernières peuvent être violées. La violation des inégalités de Bell a été prouvée expérimentalement (Alain Aspect, 1982) : malgré leur étrangeté, les probabilités quantiques doivent à l’échelle microscopique remplacer les probabilités ordinaires. VII. Perturbation apportée par l’appareil à l’objet mesuré Nous avons vu qu’une mesure nécessite une interaction entre l’objet et l’appareil. C’est la corrélation établie par ce processus, entre l’état final observé sur l’appareil et l’état initial de l’objet, qui nous fournit l’information cherchée. Dans une mesure quantique où l’objet est microscopique, l’appareil est nécessairement macroscopique. En effet, il doit enregistrer le résultat de façon robuste, afin que nous puissions en prendre connaissance. Malgré sa petite taille, l’objet parvient à influer sur l’appareil si celui-ci est initialement dans un état métastable ; la perturbation apportée à l’appareil par l’objet, quoique faible, est alors susceptible de déclencher une relaxation vers un état stable. C’est ce qui se produit par exemple dans les détecteurs de particules. En sens inverse, l’objet testé subit l’interaction avec l’appareil. En physique classique, rien, en principe, n’interdit d’imaginer qu’il ne soit qu’infinitésimalement perturbé par une mesure. Ici, il risque de l’être plus sérieusement en raison de sa faible taille. D’ailleurs, on effectue souvent des mesures quantiques destructrices, où la caractéristique cherchée ne s’obtient que par disparition de l’objet, par exemple lorsqu’on détecte l’énergie d’un photon par absorption. Une question se pose alors : existe-t-il des mesures quantiques qui laisseraient l’objet inchangé ? La réponse est négative en raison de la noncommutation entre observables. Considérons une succession de mesures de A, effectuées sur un ensemble statistique d’objets similaires, et supposons que, plusieurs résultats étant possibles, l’on ait sélectionné celles qui ont fourni une valeur am particulière. Avant mesure, l’incertitude ∆A était finie, mais elle a été ramenée à 0 pour ce sous-ensemble. En conséquence, 10 les incertitudes ∆B sur les grandeurs complémentaires B ont augmenté afin de satisfaire à la relation de Heisenberg. L’acquisition d’information sur une grandeur A implique donc une destruction d’information sur d’autres. Même les mesures quantiques idéales, définies comme perturbant le moins possible l’objet, modifient en général son état. La théorie précise les règles qui régissent cette modification. Une mesure idéale de A suivie de la sélection d’un résultat particulier am donne naissance à un état de l’objet dans lequel la valeur de A est contrôlée. Un tel processus constitue ainsi une préparation ayant des caractéristiques choisies à l’avance en vue d’expériences ultérieures. VIII. Le paradoxe de la mesure La perturbation apportée par une mesure idéale, appelée « réduction du paquet d’ondes », pose un problème conceptuel. Lors d’une succession de mesures quantiques effectuées sur des objets préparés dans des conditions identiques, on obtient divers résultats ; mais, à chaque fois, l’appareil donne une indication bien définie. D’autre part, l’évolution conjointe de l’objet et de l’appareil durant le processus de mesure doit obéir aux lois fondamentales de la mécanique quantique. Or, celles-ci impliquent que l’état final est une superposition d’états où une même variable prend des valeurs distinctes : c’est le paradoxe dit du « chat de Schrödinger », animal susceptible d’être à la fois mort et vivant. Pourquoi alors une molécule peut-elle se comporter comme un chat de Schrödinger, ce que l’on constate expérimentalement, et pas un appareil de mesure, … ni un vrai chat ? Ce paradoxe a donné lieu à de multiples controverses scientifiques et philosophiques. On a avancé que les lois quantiques pourraient ne pas s’appliquer aux systèmes macroscopiques, ce que sont les appareils. On a supposé l’existence de mondes parallèles : une mesure nous conduirait alors vers l’un d’entre eux, les autres nous restant inaccessibles. On a aussi mis en avant le rôle de l’observateur, ce qui n’est pas non plus satisfaisant puisque le résultat de mesure peut être objectivé par enregistrement. 11 Les élucidations les plus convaincantes reposent sur l’idée qu’un changement d’échelle peut faire émerger des propriétés qualitativement nouvelles. Par exemple, à l’échelle microscopique, la matière est discrète, alors qu’elle nous apparaît comme continue. Ses équations d’évolution exactes sont réversibles (elles ne changent pas si l’on renverse le sens du temps), alors qu’à notre échelle bien des phénomènes apparaissent comme irréversibles : l’énergie cinétique d’une voiture se transforme en chaleur lorsqu’on freine, mais faire fonctionner en sens inverse des freins pour restituer de l’énergie cinétique à partir de chaleur est impensable. Pour résoudre cette contradiction apparente, on s’appuie sur le nombre gigantesque de constituants élémentaires d’un objet macroscopique, nombre qui nous oblige à renoncer à une description détaillée et à utiliser des probabilités. Alors, bien qu’en toute rigueur de tels processus impensables où l’on « remonte le temps » ne soient pas interdits par les lois microscopiques qui les régissent, ils ont une probabilité extraordinairement faible d’être observés (même pendant toute la durée de vie de l’Univers !). De même, malgré le caractère quantique du système objet plus appareil, la taille macroscopique de ce dernier rend très improbable son comportement en « chat de Schrödinger » : lors de chaque mesure, nous n’avons pratiquement aucune chance d’observer autre chose qu’un résultat bien défini. Des études théoriques récentes de processus de mesure, s’appuyant sur des considérations statistiques, ont permis de comprendre pourquoi les propriétés des mesures sont compatibles avec des équations d’évolution quantiques. IX. Une nouvelle logique Dans cette dernière partie, nous allons examiner l’un des types les plus surprenants de mesures quantiques, celles qui se rapportent au paradoxe GHZ (Greenberger, Horne et Zeilinger, 1989). Il nous faudra d’abord introduire quelques éléments d’algèbre, nécessaires à la compréhension du phénomène physique. On va considérer des mesures de « spins ». Laissant de côté position et vitesse, l’état d’un électron, par exemple, est 12 caractérisé par sa rotation propre. Cette particule, quoique ponctuelle, peut en effet tourner sur elle-même comme une toupie ; sa rotation est caractérisée par les trois composantes de son moment cinétique dans les directions x, y et z, qui valent ½ħσx, ½ħσy et ½ħσz, où ħ est la constante de Planck-Dirac et où σx, σy et σz définissent les trois observables de spin. Leur algèbre comporte les relations σx² = σy² = σz² = 1, ce qui implique qu’elles ne peuvent prendre que les valeurs +1 ou –1 ; elles ne commutent pas, de sorte que l’on ne peut les préciser ni les mesurer simultanément. En fait, elles anticommutent, c’està-dire, par exemple, que σxσz = –σzσx. Étant donné que le moment magnétique propre de l’électron est proportionnel à son moment cinétique, on peut mesurer des spins par des expériences de magnétisme. Le paradoxe GHZ fait intervenir trois spins, notés 1, 2 et 3, dont les composantes sont notées x, y et z. Les observables mises en jeu sont les suivantes : • B1=σ1x ; B2=σ2x ; B3=σ3x ; • C23=σ2yσ3y ; C31=σ3yσ1y ; C12=σ1yσ2y ; • A1=B1C23 ; A2=B2C31 ; A3=B3C12 . Leur algèbre résulte de celle des σ. Chacune d’entre elles a un carré égal à 1, et peut donc prendre aléatoirement les valeurs +1 ou –1. Se référant à des spins différents, B1, B2 et B3 commutent l’une avec l’autre (B1B2=B2B1, etc.), ainsi que chacune des paires B1 et C23, B2 et C31, B3 et C12 ; les observables C23, C31 et C12 commutent aussi entre elles, et, de plus, leur produit est égal à 1 (C23C31C12≡1). Mais les paires telles que B1 et C31 anticommutent (B1C31= – C31B1). Il en résulte finalement que les trois observables A1, A2 et A3 commutent. Ces dernières représentent des corrélations entre les trois spins, par exemple A1=σ1xσ2yσ3y corrèle la composante x du spin 1 et la composante y des spins 2 et 3. Puisque A1, A2 et A3 commutent, les grandeurs physiques correspondantes peuvent toutes trois prendre des valeurs bien déterminées. Supposons que l’on ait mis au point un appareillage susceptible de les contrôler simultanément. Ceci permet de produire des systèmes de trois spins tels que les grandeurs A1, A2 et A3 prennent toujours les valeurs respectives a1=+1, a2=+1 et a3=+1. On prépare ainsi une population de triplets corrélés, tous dans le même état E caractérisé par ces valeurs. Aucune 13 expérience ne peut permettre de distinguer les échantillons de ce nouvel ensemble, dans lequel les fluctuations des observables de type B et C valent 1. La surprise va venir de la mesure, dans l’état E ainsi préparé, de l’observable D=B1B2B3. Quel est le résultat attendu ? Un raisonnement basé sur l’idée que chacune des grandeurs A, B ou C peut prendre les valeurs soit +1, soit –1, semble nous le fournir. Étant donné que A1 = B1C23 vaut a1 = +1, les grandeurs B1 et C23 prennent la même valeur, b1 = c23 = +1 ou b1 = c23 = –1. De même, il paraît naturel de dire que b2=c31 et b3=c12 dans l’état E. En utilisant l’identité C23C31C12≡1, d’où c23c31c12=1, il semble donc que, dans l’état E caractérisé par a1=a2=a3=+1, l’observable D = B1B2B3 prenne la valeur d=b1b2b3=1. Or, la mesure de D, qui a été effectuée (ainsi que des expériences similaires, 1999), fournit le résultat d= –1 ! La théorie quantique le confirme : un calcul algébrique, basé sur les définitions des observables A, B et C et sur leurs propriétés de commutation, donne : A1A2A3 = B1C23B2C31B3C12 = – B1B2C23C31B3C12 = –B1B2B3C23C31C12 = –B1B2B3 = –D. La grandeur D s’identifie à –A1A2A3 et vaut donc avec certitude –1 dans l’état E, et non +1. Qu’y avait-il donc d’erroné dans le raisonnement précédent, qui semblait pourtant imparable ? Ce ne peut être l’assertion selon laquelle b1=c23, qui est vraie. Celle-ci peut être vérifiée expérimentalement, en mesurant ces deux grandeurs (compatibles) sur un ensemble de systèmes préparés dans l’état E (où a1=b1c23=+1) ; on trouvera, avec une chance sur deux, les valeurs b1=c23=+1 ou b1=c23= –1. Les assertions b2=c31 et b3=c12 sont également vraies, et vérifiables expérimentalement. Pourtant, étant donné que B1 et C31, par exemple, ne commutent pas, leur mesure simultanée est impossible, et il est interdit d’imaginer que b1 et c31 prennent en même temps des valeurs bien déterminées dans l’état E. Les égalités b1=c23 et b2=c31 prises séparément sont correctes danc cet état, mais elles sont incompatibles. Elles ne peuvent être vérifiées que sur des échantillons différents de l’ensemble statistique, dans des contextes expérimentaux différents. On doit donc admettre que leur véracité n’est que contextuelle. 14 Notre logique quotidienne est donc mise en défaut. Quoique séparément vraies, des assertions peuvent ne pas avoir de sens ensemble : on n’a pas le droit de les combiner pour en tirer des conséquences communes si la non-commutation de certaines des observables mises en jeu nous interdit d’imaginer des expériences où elles pourraient être simultanément mesurées. Les relations entre grandeurs physiques ne portent pas sur des objets en soi, mais sont relatives à un contexte expérimental susceptible de les vérifier. Il peut sembler choquant que la mécanique quantique, notre théorie la plus fondamentale, défie le sens commun. Pourtant, l’exploration du monde microscopique nous a forcés à modifier profondément le concept de grandeur physique issu de notre expérience courante. Nous devons admettre que notre connaissance des objets est limitée par le cadre quantique où des grandeurs complémentaires ne sont pas simultanément mesurables. En conséquence, les probabilités deviennent irréductibles en physique quantique, et leur nature doit être reconsidérée. Enfin, la logique elle-même est affectée : elle ne s’applique pas à des assertions que la théorie interdit de vérifier simultanément par l’expérience, ce qui fait jouer un rôle conceptuel inattendu aux mesures quantiques. 15