APPROCHES VULGARISEES DE LA MECANIQUE QUANTIQUE

publicité
1
APPROCHES VULGARISEES DE LA
MECANIQUE QUANTIQUE
Fille de l'ancienne théorie des quanta, la mécanique quantique fixe un cadre mathématique
cohérent qui a permis de remédier à tous les désaccords entre certains résultats expérimentaux
mis en évidence à la fin du XIXe siècle et les prédictions théoriques correspondantes de la
physique classique. La mécanique quantique a repris et développé l'idée de dualité ondeparticule1 introduite par Louis de Broglie en 1924 consistant à considérer les particules de
matière non pas seulement comme des corpuscules ponctuels, mais aussi comme des ondes,
possédant une certaine étendue spatiale (voir Mécanique ondulatoire). Niels Bohr a introduit
le concept de « complémentarité » pour résoudre cet apparent paradoxe : tout objet physique
est bien à la fois une onde et un corpuscule, mais ces deux aspects, mutuellement exclusifs,
ne peuvent être observés simultanément2. Si l'on observe une propriété ondulatoire, l'aspect
corpusculaire disparaît. Réciproquement, si l'on observe une propriété corpusculaire,
l'aspect ondulatoire disparaît. En 2008, aucune contradiction n'a pu être décelée entre les
prédictions de la mécanique quantique et les tests expérimentaux associés. Malgré cela, la
théorie continue d'être mal comprise par le public car elle repose sur un formalisme
mathématique abstrait, qui rend son abord assez difficile pour le profane.
1 ) Introduction
Un des grands problèmes de la physique quantique est de donner des images. En effet,
l'être humain a besoin d'images pour réfléchir, pour retenir. À titre d'exemple, lorsqu'on ne
connaît quelqu'un que par la voix (on l'a eu au téléphone ou entendu à la radio) et que l'on voit
la personne pour la première fois, on se dit « c'est bien comme cela que je me l'imaginais » ou
bien au contraire « je ne me l'imaginais pas du tout comme cela » ; notre cerveau a donc
1
Dualité onde-particule
En physique, la dualité onde-particule ou dualité onde-corpuscule est un principe selon lequel tous les objets de l'univers
microscopique présentent simultanément des propriétés d'ondes et de particules. Ce concept fait partie des fondements de la
mécanique quantique. Cette dualité tente de rendre compte de l'inadéquation des concepts conventionnels de « particules » ou
d'« ondes », pris isolément, à décrire le comportement des objets quantiques. L'idée de la dualité prend ses racines dans un
débat remontant aussi loin que le XVIIe siècle siècle, quand s'affrontaient les théories concurrentes de Christiaan Huygens qui
considérait que la lumière était composée d'ondes et celle de Isaac Newton qui considérait la lumière comme un flot de
particules. À la suite des travaux de Albert Einstein, Louis de Broglie et bien d'autres, les théories scientifiques modernes
accordent à tous les objets une nature d'onde et de particule, bien que ce phénomène ne soit perceptible qu'à des échelles
microscopiques. Il est important de mentionner que c’est l’absence d’équivalent macroscopique sur quoi nous pourrions nous
référer qui nous force à penser les objets quantiques comme possédant des attributs contradictoires. Il serait inexact de dire
que la lumière (comme tout autre système quantique d’ailleurs) est à la fois une onde et à la fois une particule, ce n’est ni
l’un, ni l’autre. Le manque d'un vocabulaire adéquat et l'impossibilité de se faire une représentation mentale intuitive des
phénomènes à petite échelle nous font voir ces objets comme ayant une nature, par elle même, antinomique. Pour lever cet
apparent paradoxe et insister sur l'imperfection de nos concepts classiques d'onde et de corpuscule, les physiciens Jean-Marc
Lévy-Leblond et Françoise Balibar ont proposé d'utiliser le terme de « quanton » pour parler d'un objet quantique. Un
quanton n'est ni une onde, ni un corpuscule, mais peut présenter les deux aspects selon le principe de complémentarité de
Bohr. Cette terminologie a du mal à s'imposer dans l'enseignement français. Le principe de complémentarité fut introduit à
Copenhague par Niels Bohr suite au principe d'indétermination de Werner Heisenberg comme approche philosophique aux
phénomènes apparemment contradictoires de la mécanique quantique, par exemple : celui de la dualité onde-corpuscule.
Dans sa forme la plus simpliste, il stipule qu'un « objet quantique » ne peut se présenter que sous un seul de ces deux aspects
à la fois. Souvent associé à l'école de Copenhague, ce principe est à présent un des concepts fondamentaux de la mécanique
quantique. L'expérience des fentes de Young en a fait une démonstration simple et efficace.
2
construit une image pour désigner cette personne, bien que l'on ne l'ait jamais vue. Le
problème en physique quantique est que, pour se représenter les objets (particules
élémentaires), il faut faire appel à deux notions : les ondes et les particules solides. On ne
peut se construire des images que par analogie avec ce que l'on connaît, avec notre expérience
quotidienne. Ainsi, lorsque l'on s'imagine une onde sonore, il nous vient à l'esprit les vagues
sur l'eau ; lorsque l'on s'imagine une particule, il nous vient à l'esprit une bille. Les deux
notions sont donc opposées et incompatibles :
Propriétés macroscopiques des ondes et particules
Particule
Onde
localisée, d'extension définie délocalisée (un son peut être entendu dans toute la pièce)
création et destruction
création et destruction facile (pincer ou arrêter une corde de
impossible1
guitare)
séparés, impossibles à
addition simple (interférences)
fusionner1
Ceci cause un grand trouble, une incompréhension, et entraîne fréquemment un blocage,
notamment lorsque l'on se pose la question : « si une particule est bien localisée lors d'une
interaction, comment se fait-il qu'elle ne le soit pas hors interaction ? »
La métaphore du
cylindre
Métaphore du cylindre : objet ayant à la fois les propriétés
d'un cercle et d'un rectangle. La métaphore du cylindre est
l'exemple d'un objet ayant des propriétés apparemment
inconciliables. Il serait à première vue incongru d'affirmer
qu'un objet a à la fois les propriétés d'un cercle et d'un
rectangle : sur un plan, un objet est soit un cercle, soit un
rectangle. Mais si l'on considère un cylindre : une projection
dans l'axe du cylindre donne un cercle, et une projection
perpendiculairement à cet axe donne un rectangle. On a
donc bien un objet ayant les propriétés de l'un et de l'autre
(mais il n'est ni l'un, ni l'autre). « Onde » et « particule »
sont des manières de voir les choses et non pas les choses
en elles même.
Notons par ailleurs que dans la description mathématique de la physique quantique, le
résultat de la mesure est similaire à une projection géométrique (notion d'observable : l'état
de l'objet est décrit par des nombres que l'on peut voir comme des coordonnées dans une base
vectorielle, et en géométrie euclidienne, les coordonnées sont la projection de l'objet sur les
axes de référence).
2) Historique du concept Dualité onde-particule. La dualité ondeparticule s'est imposée au terme d'une longue histoire où les aspects purement ondulatoires et
corpusculaires ont été tour à tour privilégiés. Ces aspects ont tout d'abord été mis en évidence
avec les théories de la lumière, avant d'être étendus — au XXe siècle — à tous les objets
physiques.
3
Huygens et Newton La première théorie complète de la lumière a été établie par le physicien
néerlandais Christiaan Huygens au XVIIe siècle. Il proposait une théorie ondulatoire de la
lumière et a en particulier démontré que les ondes lumineuses pouvaient interférer de manière
à former un front d'onde se propageant en ligne droite. Toutefois, sa théorie possédait
certaines limitations en d'autres domaines et fut bientôt éclipsée par la théorie corpusculaire
de la lumière établie à la même époque par Isaac Newton. Newton proposait une lumière
constituée de petites particules, expliquant ainsi simplement les phénomènes de réflexion
optique. Au prix de complications considérables, cette théorie pouvait également expliquer les
phénomènes de réfraction à travers une lentille, et de dispersion d'un faisceau lumineux à
travers un prisme. Bénéficiant de l'immense prestige de Newton, cette théorie ne fut pas
remise en question pendant plus d'un siècle.
Fresnel, Maxwell et Young Au début du XIXe siècle, les expériences de diffraction faites
par Thomas Young et Augustin Fresnel ont démontré l'exactitude des théories de Huygens :
ces expériences prouvèrent que quand la lumière est envoyée sur un réseau de diffraction, on
observe un motif d'interférence caractéristique, très semblable aux motifs résultant de
l'interférence d'ondulations sur l'eau; la longueur d'onde de la lumière peut être calculée à
partir de tels motifs. Le point de vue ondulatoire n'a pas remplacé immédiatement le point de
vue corpusculaire, mais s'est imposé peu à peu à la communauté scientifique au cours du
XIXe siècle, surtout grâce à l'explication du phénomène de polarisation de la lumière que ne
pouvait expliquer l'autre approche. Ces équations furent vérifiées par maintes expériences et
le point de vue de Huygens devint largement admis.
James Maxwell, à la fin du XIXe siècle, expliqua la lumière en tant que propagation d'ondes
électromagnétiques avec les équations de Maxwell.
Einstein et photons En 1905, Albert Einstein réconcilia la théorie de Huygens avec celle de
Newton : il expliqua l'effet photoélectrique, un effet dans lequel la lumière n'agit pas en tant
qu'onde, en postulant l'existence des photons, quanta d'énergie lumineuse avec des qualités de
particules. Einstein postula que la fréquence ν de cette lumière, est liée à l'énergie E des
photons : E = hν où h est la constante de Planck (6,626×10-34J s).
De Broglie
En 1924, dans sa thèse2, Louis de Broglie affirma que toute matière (et pas seulement la
lumière) a une nature ondulatoire. Il associa la quantité de mouvement p d'une particule à
une longueur d'onde λ, appelée longueur d'onde de de Broglie : λ = h
p
C'est une généralisation de la relation de Planck-Einstein indiquée ci-dessus, car la quantité de
E
mouvement (ou l'impulsion) d'un photon est donné par p = où c est la vitesse de la lumière
c
c
dans le vide, et λ = (si on remplace p et ν dans l'équation de de Broglie, on retrouve
υ
l'équation d'Einstein).
4
: Hypothèse de De Broglie. La formule exprimée par de Broglie fut confirmée trois ans après
par Clinton Joseph Davisson et Lester Halbert Germer. Ceux-ci dirigèrent un faisceau
d'électrons qui, contrairement aux photons, ont une masse vers un réseau de diffraction
cristallin : les motifs d'interférence attendus purent ainsi être observés. Des expériences
semblables ont été entreprises depuis avec des protons et même avec des molécules entières,
avec notamment l'expérience d'Estermann et Otto Stern en 1929, et la formule a été confirmée
dans tous les cas. De Broglie reçut en 1929 le prix Nobel de physique pour son hypothèse, qui
influença profondément la physique de cette époque. La confirmation la plus spectaculaire est
celle qui a été faite en 1999 par des chercheurs de l'Université de Vienne3, qui ont fait
diffracter du fullerène (molécule C60). Dans cette expérience, la longueur d'onde de de Broglie
était de 2,5 pm alors que la molécule a un diamètre d'environ 1 nm, soit 400 fois supérieur.
3) Mise en évidence de la dualité : fentes de Young
Figure 1 : Schéma de l'expérience.
Figure 2 : Figure
d'interférence observée.
Une des manières les plus claires de mettre
en évidence la dualité onde-particule est
l'expérience des fentes de Young. Cette
expérience est connue depuis le XIXe siècle,
où elle a d'abord mis clairement en évidence
l'aspect purement ondulatoire de la lumière.
Modifiée de manière adéquate, elle peut
démontrer de manière spectaculaire la dualité
onde-corpuscule non seulement de la
lumière, mais aussi de tout autre objet
quantique. Dans la description qui suit, il
sera question de lumière et de photons mais il
ne faut pas perdre de vue qu'elle est
également applicable - du moins en principe
- à toute autre particule (par exemple des
électrons), et même à des atomes et à des
molécules. L'expérience consiste à éclairer
par une source lumineuse un écran percé de
deux fentes très fines et très rapprochées. Ces
deux fentes se comportent comme deux
sources secondaires d'émission lumineuse.
Une plaque photographique placée derrière
l'écran enregistre la lumière issue des deux
fentes (⇐ voir figure 1). Ces deux sources
interfèrent et forment sur la plaque
photographique ce que l'on appelle une
figure d'interférence (voir figure 2 ⇒).
Cette figure est caractéristique d'un
comportement ondulatoire de la lumière
(voir l'article interférence). Si l'expérience en
reste à ce niveau, l'aspect corpusculaire
n'apparait pas.
5
Figure 3 : Expérience avec de "vraies"
particules, par exemple des micro-billes
Figure 4 : Figure d'interférence constituée
petit à petit
Force est donc de constater une dualité ondeparticule des photons (ou de tout autre objet
quantique), qui présentent simultanément les
deux aspects.
En fait, il est possible de diminuer l'intensité
lumineuse de la source primaire de manière à
ce que la lumière soit émise photon par
photon. Le comportement de la lumière
devient alors inexplicable sans faire appel à
la dualité onde-corpuscule. En effet, si on
remplace la source lumineuse par un canon
qui tire des micro-billes à travers les deux
fentes (par exemple), donc de "vraies"
particules, on n'obtient aucune figure
d'interférence, mais simplement une zone
plus dense, en face des fentes (⇐ voir figure
3). Or, dans le cas des photons, on retrouve
la figure d'interférence reconstituée petit à
petit, à mesure que les photons apparaissent
sur la plaque photographique (figure 4 ⇒).
On retrouve donc une figure d'interférence,
caractéristique des ondes, en même temps
qu'un aspect corpusculaire des impacts sur
la plaque photographique. L'interprétation
de cette expérience est difficile, car si on
considère la lumière comme une onde, alors
les points d'impacts sur la plaque
photographique sont inexplicables; on
devrait voir dans ce cas très faiblement, dès
les premiers instants, la figure
d'interférence de la figure 2, puis de plus en
plus intense. Au contraire, si on considère
la lumière comme étant exclusivement
composée de particules, alors les impacts
sur la plaque photographique s'expliquent
aisément, mais la figure d'interférence ne
s'explique pas : comment et pourquoi
certaines zones seraient privilégiées et
d'autres interdites à ces particules ?
6
4)
Interprétation de la dualité
(Interférence des
ondes de probabilité)
RAPPEL en probabilité soit une variable X
Formellement, une loi de probabilité possède une densité ƒ,
si ƒ est une fonction définie sur R positive ou nulle et
Lebesgue-intégrable, telle que la probabilité de l'intervalle
[a, b] soit donnée par
pour tous nombres a<b. Par exemple,
si la variable X a pour densité de probabilité la
fonction ƒ, la probabilité que la variable X soit
dans l'intervalle [4,3, 7,8] sera
Cela implique que l'intégrale de ƒ sur tout
donne 1. Réciproquement, pour toute fonction ƒ
positive ou nulle et Lebesgue-intégrable,
d'intégrale égale à 1 :
En mécanique quantique, la dualité ondeparticule est expliquée comme ceci : tout
système quantique et donc toute particule
sont décrits par une fonction d'onde qui code
la densité f de probabilité de toute variable
mesurable X(nommées aussi observable).La
position x d'une particule est un exemple
d'une de ces variables (aléatoires). Donc,
avant qu'une observation soit faite, la
position de la particule est décrite en termes
d'ondes de probabilité. Les deux fentes
peuvent être considérées comme deux
sources secondaires pour ces ondes de
probabilité : les deux ondes se propagent à
partir de celles-ci et interfèrent (voir schéma
de gauche ⇒).
Rem1 :(La décohérence quantique est un phénomène
physique susceptible d'expliquer la transition entre les
règles physiques quantiques et les règles physiques
classiques telles que nous les connaissons, à un niveau
macroscopique. Plus spécifiquement, cette théorie apporte
une réponse, considérée comme étant la plus complète à ce
jour, au paradoxe du chat de Schrödinger et au problème de
la mesure quantique La théorie de la décohérence a été
introduite par Heinz Dieter Zeh en 19701. Elle a reçu ses
premières confirmations expérimentales relativement
récemment, en 19962.
Sur la plaque photographique, il se produit ce que l'on appelle une réduction du paquet
d'onde2, ou une décohérence (voir rem1 ci-dessus) de la fonction d'onde : le photon se
matérialise, avec une probabilité donnée par la fonction d'onde : élevée à certains endroits
(frange brillante), faible ou nulle à d'autres (franges sombres).Cette expérience illustre
également une caractéristique essentielle de la mécanique quantique. Jusqu'à ce qu'une
observation soit faite, la position d'une particule est décrite en termes d'ondes de
probabilité, mais après que la particule est observée (ou mesurée), elle est décrite par une
2
La réduction du paquet d'onde est un concept de la mécanique quantique qui a induit de nombreux et parfois célèbres
débats au sein de la communauté scientifique selon lequel, après une mesure, un système physique voit son état entièrement
réduit à celui qui a été mesuré. L'un de ces débats a été introduit par Schrödinger, remettant en question le concept
d'objectivité de la mesure avec son paradoxe dît du chat de Schrödinger, mi-mort, mi-vivant. Paul Dirac, un pionnier de la
physique quantique, soutint que cette question n'a aucune importance, dans la mesure où la physique quantique s'affaire à
effectuer les meilleures prévisions possibles, vérifiées ou non par la suite par l'expérience, laquelle aura nécessairement le
mot final sur la réfutation, ou non, de l'hypothèse en fonction des limites de son champ d'application. Ce dernier point de vue,
celui des physiciens empiristes, n'est pas partagé par les physiciens rationalistes. Pour résoudre ce type de problème
conceptuel, certains physiciens, dont Albert Einstein, ont soutenu l'hypothèse de l'existence de variables cachées. À l'aide
d'un paradoxe découlant de cette théorie, le paradoxe EPR, ils rendirent cette hypothèse vérifiable expérimentalement. À la
fin du vingtième siècle, Alain Aspect réalisa ces expériences, ce qui aboutit à infirmer l'existence de ces variables cachées.
7
valeur fixe. La manière de conceptualiser le processus de la mesure est l'une des grandes
questions ouverte de la mécanique quantique. L'interprétation standard est l'interprétation de
Copenhague, mais la théorie de la décohérence est aussi de plus en plus considérée par la
communauté scientifique. L'etude détaillée de la décohérence est à l'ANNEXE1
5 Quelques exemples de succès
Historiquement, la théorie a d'abord permis de décrire correctement les structures
électroniques des atomes ( voir ANNEXE1) et des molécules( ANNEXE2) , ainsi que leurs
interactions avec °un champ électromagnétique. Elle permet également d'expliquer le
comportement de la matière condensée, notamment :
•
•
•
•
•
la structure des cristaux (ANNEXE 3)et leurs vibrations ;
les propriétés de conductivité électrique et de conduction thermique des métaux grâce
à la théorie des bandes ;
l'existence et les propriétés des semi-conducteurs ;
l'effet tunnel ;
la supraconductivité et superfluidité.
Un autre grand succès de la mécanique quantique fut de résoudre le paradoxe de Gibbs : en
physique statistique classique, des particules identiques sont considérées comme étant
discernables, et l'entropie n'est alors pas une grandeur extensive. L'accord entre la théorie et
l'expérience fut rétabli en tenant compte du fait que des particules identiques sont
indiscernables en mécanique quantique. La théorie quantique des champs, généralisation
relativiste de la mécanique quantique, permet quant à elle de décrire les phénomènes où le
nombre total de particules n'est pas conservé : radioactivité, fission nucléaire (c'est-à-dire la
désintégration du noyau atomique) et fusion nucléaire.
6 Équation de Schrödinger
L'équation de Schrödinger est une formulation ondulatoire de la mécanique quantique. Elle
s'est opposée à une époque à une représentation matricielle, qui avait été proposée par
Heisenberg. C'est une équation différentielle permettant de déterminer l'évolution dans le
temps de la fonction d'état d'une particule, appelée fonction d'onde.
Interprétation physique de la fonction d'onde [modifier]
L'interprétation physique de la fonction d'onde Ψ sera donnée par Born en 1926 : le module
au carré de cette fonction d'onde
représente la densité de probabilité de
présence de la particule considérée, c'est-à-dire que :
s'interprète comme étant la probabilité de trouver la particule dans un petit volume dV situé
au voisinage du point de l'espace à l'instant t. En particulier, la particule étant
nécessairement située quelque part dans l'espace entier, on a la condition de normalisation :
8
Cette interprétation statistique pose un problème lorsque le système quantique étudié est
l'Univers entier, comme en cosmologie quantique. Dans ce cas, les physiciens théoriciens
utilisent préférentiellement l'interprétation dite des « mondes multiples » d'Everett.
Méthodes de résolution [modifier]
En dehors de quelques cas particuliers où on sait l'intégrer exactement, l'équation de
Schrödinger ne se prête en général pas à une résolution analytique exacte. Il faut alors :
•
soit développer des techniques d'approximations comme la théorie des perturbations.
•
soit la résoudre numériquement. Cette résolution numérique permet notamment de
visualiser la disposition curieuse des orbitales électroniques.
7 Formalisme de Dirac : bras, kets, et postulats
fondamentaux (voir Annexe 4)
Dirac a introduit en 1925 une notation puissante3, dérivée de la théorie mathématique des
formes linéaires sur un espace vectoriel. Dans ce formalisme abstrait, les postulats de la
mécanique quantique prennent une forme concise et particulièrement élégante.
8 Formulation de la mécanique quantique par
intégrale de chemin
Richard Feynman dans sa thèse en 1942 introduit la notion d'intégrale de chemin afin de
présenter une nouvelle formulation de la mécanique quantique 4. Ces résultats ne seront
publiés qu'en 1948 5 en raison de la seconde guerre mondiale. A terme, le but de cette
approche serait de formuler une théorie de l'électrodynamique quantique relativiste en
développant la quantification par intégrale de chemin. Si de nos jours on retient le formalisme
Hamiltonien de la mécanique quantique pour traiter des problèmes classiques (au sens non
relativiste), il s'avère que la formulation de Feynman est largement prédominante pour traiter
les problèmes relativistes notamment en théorie quantique des champs, l'avantage c'est que
cette approche est non perturbative.
Par ailleurs en 1953 Feynman appliqua son approche pour formuler la mécanique statistique
quantique par intégrale de chemin (intégrale de Wiener, formule de Feynman-Kac) et tenta
d'expliquer la transition lambda dans l'hélium superfluide.
9 Mécanique quantique et relativité
Article détaillé : Théorie quantique
des champs. La mécanique quantique est une théorie non relativiste : elle n'incorpore pas les
principes de la relativité restreinte. En appliquant les règles de la quantification canonique à la
relation de dispersion relativiste, on obtient l'équation de Klein-Gordon (1926). Les solutions
de cette équation présentent toutefois de sérieuses difficultés d'interprétation dans le cadre
9
d'une théorie censée décrire une seule particule : on ne peut notamment pas construire une
densité de probabilité de présence partout positive, car l'équation contient une dérivée
temporelle seconde. Dirac cherchera alors une autre équation relativiste du premier ordre en
temps, et obtiendra l'équation de Dirac, qui décrit très bien les fermions de spin un-demi
comme l'électron. La théorie quantique des champs permet d'interpréter toutes les équations
quantiques relativistes sans difficulté. L'équation de Dirac incorpore naturellement
l'invariance de Lorentz avec la mécanique quantique, ainsi que l'interaction avec le champ
électromagnétique mais qui est traité encore de façon classique (on parle d'approximation
semi-classique). Elle constitue la mécanique quantique relativiste. Mais du fait précisément de
cette interaction entre les particules et le champ, il est alors nécessaire, afin d'obtenir une
description cohérente de l'ensemble, d'appliquer la procédure de quantification également au
champ électromagnétique. Le résultat de cette procédure est l'électrodynamique quantique
dans laquelle l'unité entre champ et particule est encore plus transparente puisque désormais
la matière elle aussi est décrite par un champ. L'électrodynamique quantique est un exemple
particulier de théorie quantique des champs. D'autres théories quantique des champs ont été
développées par la suite au fur et à mesure que les autres interactions fondamentales ont été
découvertes (théorie électrofaible, puis chromodynamique quantique).
10 Les inégalités de Heisenberg
Article détaillé : Principe
d'incertitude. Les relations d'incertitude de Heisenberg traduisent l'impossibilité de
préparer un état quantique correspondant à des valeurs précises de certains couples de
grandeurs conjuguées. Ceci est lié au fait que les opérateurs quantiques associés à ces
grandeurs classiques ne commutent pas.
]
11
Inégalité position-impulsion Considérons par exemple la position et
l'impulsion d'une particule. En utilisant les règles de la quantification canonique, il est
facile de vérifier que les opérateurs de position et d'impulsion vérifient :
La relation d'incertitude est définie à partir des écarts quadratiques moyens de grandeurs
conjuguées. Dans le cas de la position et de l'impulsion d'une particule, elle s'écrit par
exemple :
Plus l'état possède une distribution resserrée sur la position, plus sa
distribution sur les valeurs de l'impulsion qui lui est associée est large. Cette propriété
rappelle le cas des ondes, via un résultat de la transformée de Fourier, et exprime ici la dualité
onde-corpuscule. Il est clair que ceci mène à une remise en cause de la notion classique de
trajectoire comme chemin continu différentiable6.
12Inégalité temps-énergie
Il existe également une relation d'incertitude portant sur l'énergie d'une particule et la variable
temps. Ainsi, la durée
nécessaire à la détection d'une particule d'énergie à
près7
vérifie la relation :
Cependant, la dérivation de cette inégalité énergie-temps
est assez différente de celle des inégalités position-impulsion8. En effet, si le hamiltonien est
bien le générateur des translations dans le temps en mécanique hamiltonienne, indiquant que
temps et énergie sont conjuguées9, il n'existe pas d'opérateur temps en mécanique quantique
10
(« théorème » de Pauli), c'est-à-dire qu'on ne peut pas construire d'opérateur
qui obéirait à
une relation de commutation canonique avec l'opérateur hamiltonien
:
ceci pour une raison très fondamentale : la mécanique quantique a en effet été inventée pour
que chaque système physique stable possède un état fondamental d'énergie mininum.
L'argument de Pauli est le suivant : si l'opérateur temps existait, il posséderait un spectre
continu. Or, l'opérateur temps, obéissant à la relation de commutation canonique, serait aussi
le générateur des translations en énergie. Ceci entraîne alors que l'opérateur hamiltonien
posséderait lui aussi un spectre continu, en contradiction avec le fait que l'énergie de tout
système physique stable se doit d'être bornée inférieurement10.
13 L'intrication
Article détaillé : intrication quantique. L'intrication est un état
quantique (voir aussi fonction d'onde) décrivant deux systèmes classiques (ou plus) non
factorisables en un produit d'états correspondant à chaque système classique. Deux systèmes
ou deux particules peuvent être intriqués dès qu'il existe une interaction entre eux. En
conséquence, les états intriqués sont la règle plutôt que l'exception. Une mesure effectuée sur
l'une des particules changera son état quantique selon le postulat quantique de la mesure. Du
fait de l'intrication, cette mesure aura un effet instantané sur l'état de l'autre particule, même si
la ligne d'univers qui relie les deux évènements "mesure 1" et "mesure 2" de l'espace-temps
est une courbe de genre espace ! Par suite, le fait que la mécanique quantique tolère
l'existence d'états intriqués, états ayant effectivement été observés en laboratoire et dont le
comportement est en accord avec celui prévu par la mécanique quantique (voir l'expérience
d'Aspect), implique que la mécanique quantique est une théorie physique non-locale.
Néanmoins, il est incorrect d'assimiler ce changement d'état à une transmission d'information
plus rapide que la vitesse de la lumière (et donc une violation de la théorie de la relativité). La
raison est que le résultat de la mesure relatif à la première particule est toujours aléatoire, dans
le cas des états intriqués comme dans le cas des états non-intriqués. Il est donc impossible de
« transmettre » quelqu'information que ce soit, puisque la modification de l'état de l'autre
particule, pour immédiate qu'elle soit, conduit à un résultat de la mesure relatif à la seconde
particule qui est toujours aussi aléatoire que celui relatif à la première particule. Les
corrélations entre les mesures des deux particules, bien que très réelles et mises en évidence
dans de nombreux laboratoires de par le monde, resteront indétectables tant que les résultats
des mesures ne seront pas comparés, ce qui implique nécessairement un échange
d'information classique, respectueux de la Relativité (voir aussi le Paradoxe EPR). La
téléportation quantique fait usage de l'intrication pour assurer le transfert de l'état quantique
d'un système physique vers un autre système physique. Ce processus est le seul moyen connu
de transférer parfaitement l'information quantique. Il ne peut dépasser la vitesse de la lumière
et est également « désincarné », en ce sens qu'il n'y a pas de transfert de matière
(contrairement à la téléportation fictive de Star Trek). Cet état ne doit pas être confondu avec
l'état de superposition. Un même objet quantique peut avoir deux (ou plus) états superposés.
Par exemple un même photon peut être dans l'état "polarité longitudinale" et "polarité
transversale" simultanément. Le chat de Schrödinger est simultanément dans l'état "mort" et
"vivant". Un photon qui passe une lame semi-réfléchissante est dans l'état superposé "photon
transmis" et "photon réfléchi". C'est uniquement lors de l'acte de mesure que l'objet quantique
possédera un état déterminé.Dans le formalisme de la physique quantique, un état d'intrication
de plusieurs objets quantique est représenté par un produit tensoriel des vecteurs d'état de
chaque objet quantique. Un état de superposition ne concerne qu'un seul objet quantique (qui
peut être une intrication), et est représentée par une combinaison linéaire des différentes
possibilités d'états de celui-ci.
11
14 Téléportation quantique
Article détaillé : Téléportation quantique.
On ne peut déterminer l'état d'un système quantique qu'en l'observant, ce qui a pour effet de
détruire l'état en question. Celui-ci peut en revanche, une fois connu, être en principe recréé
ailleurs. En d'autres termes, la duplication n'est pas possible dans le monde quantique, seule
l'est une reconstruction en un autre endroit, voisine du concept de téléportation dans la
science-fiction. Élaborée théoriquement en 1993 par C.H. Bennett, G. Brassard, C. Crépeau,
R. Jozsa, A. Peres, et W. Wootters dans l'article Teleporting an unknown quantum state by
dual classical and EPR channels, de la Physical Review Letter, cette reconstruction a été
réalisée expérimentalement en 1997, sur des photons, par l'équipe d'Anton Zeilinger à
Innsbruck, et plus récemment sur des atomes d'hydrogène.
15 Quelques paradoxes Ces « paradoxes » nous questionnent sur
l'interprétation de la mécanique quantique, et révèlent dans certains cas à quel point
notre intuition peut se révéler trompeuse dans ce domaine qui ne relève pas directement
de l'expérience quotidienne de nos sens.
Chat de Schrödinger
Chat de Schrödinger : Ce paradoxe (1935) met en évidence les problèmes d'interprétation du
postulat de réduction du paquet d'onde. Article détaillé : Chat de Schrödinger. L'expérience
du chat de Schrödinger fut imaginée en 1935 par le physicien Erwin Schrödinger, afin de
mettre en évidence des lacunes supposées de l'interprétation de Copenhague de la physique
quantique, et particulièrement mettre en évidence le problème de la mesure.
La mécanique quantique est relativement difficile à concevoir car sa description du monde
repose sur des amplitudes de probabilité (fonctions d'onde). Ces fonctions d'ondes peuvent
se trouver en combinaison linéaire, donnant lieu à des « états superposés ». Cependant, lors
d'une opération dite de « mesure » l'objet quantique sera trouvé dans un état déterminé ; la
fonction d'onde donne les probabilités de trouver l'objet dans tel ou tel état. C'est la mesure
qui perturbe le système et le fait bifurquer d'un état quantique superposé (atome à la fois
intact et désintégré par exemple… mais avec une probabilité de désintégration dans un
intervalle de temps donné qui, elle, est parfaitement déterminée) vers un état mesuré. Cet état
ne préexiste pas à la mesure : c'est la mesure qui semble le faire advenir.Toutefois, la notion
de mesure ou de bifurcation n'apparaît pas explicitement ni même indirectement dans le
formalisme quantique, et les tentatives d'en faire surgir cette notion se heurtent à d'extrêmes
difficultés. En conséquence, certains physiciens n'accordent aucune réalité physique au
concept de mesure ou d'observation. Pour eux, les états superposés ne s'effondrent (ou ne
« bifurquent ») pas, et l'état mesuré n'existe pas réellement (voir par exemple : Hugh
Everett). C'est pour faire apparaître le caractère paradoxal de cette position et pour poser de
manière frappante le problème, que Schrödinger a imaginé cette expérience de pensée.
« L'expérience »
12
Erwin Schrödinger a donc imaginé une expérience dans laquelle un chat est enfermé dans une
boîte fermée avec un dispositif qui tue l'animal dès qu'il détecte la désintégration d'un atome
d'un corps radioactif ; par exemple : un détecteur de radioactivité type Geiger, relié à un
interrupteur provoquant la chute d'un marteau cassant une fiole de poison — Schrödinger
proposait de l'acide cyanhydrique, qui peut être enfermé sous forme liquide dans un flacon
sous pression et se vaporiser, devenant un gaz mortel, une fois le flacon brisé.
Si les probabilités indiquent qu'une désintégration a une chance sur deux d'avoir eu lieu au
bout d'une minute, la mécanique quantique indique que, tant que l'observation n'est pas faite,
l'atome est simultanément dans deux états (intact/désintégré). Or le mécanisme imaginé par
Erwin Schrödinger lie l'état du chat (mort ou vivant) à l'état des particules radioactives, de
sorte que le chat serait simultanément dans deux états (l'état mort et l'état vivant), jusqu'à ce
que l'ouverture de la boîte (l'observation) déclenche le choix entre les deux états. Du coup, on
ne peut absolument pas dire si le chat est mort ou non au bout d'une minute.
La difficulté principale tient donc dans le fait que si l'on est généralement prêt à accepter ce
genre de situation pour une particule, l'esprit refuse d'accepter facilement une situation qui
semble aussi peu naturelle quand il s'agit d'un objet plus familier comme un chat.
Pourquoi le chat de Schrödinger ?
Cette expérience n'a jamais été réalisée, car :
•
les conditions techniques pour préserver l'état superposé du chat sont très difficiles,
tout à fait irréalisables pour plus de quelques molécules ;
•
•
en fait, le passage à l'échelle macroscopique que représente le chat par rapport
aux quelques molécules est le principal intérêt de l'expérience de pensée (ce
n'est pas une question sur le vivant) ; le rôle du chat serait parfaitement réalisé
par un interrupteur ;
et même si ces conditions sont atteintes, il s'agit d'une pure expérience de pensée, non
réalisable même en principe. En effet, on ne pourra jamais mettre en évidence
directement, ou mesurer, que le chat est à la fois mort et vivant car le fait d'essayer de
connaître son état provoquera nécessairement l'effondrement de la fonction d'onde.
En fait, le but est surtout de marquer les esprits : si la théorie quantique autorise à un chat
d'être à la fois mort et vivant, c'est ou bien qu'elle est erronée, ou bien qu'il va falloir
reconsidérer tous les préjugés.
Erwin Schrödinger lui-même a imaginé cette expérience pour réfuter l'interprétation de
Copenhague de la mécanique quantique, qui conduisait à un chat à la fois mort et vivant.
Albert Einstein avait fait la même expérience de pensée avec un baril de poudre. Schrödinger
exposa alors à Einstein l'expérience de pensée (un chat et un flacon de poison) qu'il avait
l'intention de soumettre sous peu à une revue, et dès lors Einstein employa un baril de poudre
avec un chat à proximité1. Schrödinger et Einstein pensaient que la possibilité du chat mortvivant démontrait que l'interprétation de la fonction d'onde par Max Born était incomplète. La
partie « quelle solution ? » montre que cette situation souligne bien l'étrangeté de la
mécanique quantique, mais ne la réfute pas.
13
Il est évident que le fait que l'interprétation orthodoxe de la physique quantique mène à un
chat à la fois mort et vivant montre que la mécanique quantique obéit à des lois souvent
contraires à notre intuition. Pire, on se rend compte que la question n'est pas « comment
est-ce possible dans le monde quantique ? » mais « comment est-ce impossible dans le
monde réel ? ». Anecdotiquement, on peut aussi se demander (c'est ce que fait Étienne Klein
dans Il était sept fois la révolution) d'où vient le choix du chat pour cette expérience de
pensée. Sciences et Avenir, dans un numéro hors-série consacré au chat de Schrödinger,
propose l'hypothèse d'une référence de la part de Schrödinger au chat du Cheshire.
Est-il exact de dire que le chat est mort et vivant ? [modifier]
L'affirmation « Le chat est mort et vivant » est effectivement déroutante, et provoque souvent
des blagues sur le « chat mort-vivant ». Notre intuition nous dit que les phrases « le chat est
mort » et « le chat est vivant » sont chacune la négation de l'autre. En fait, il existe une
troisième possibilité : le chat peut être dans un état de superposition, dans lequel il cumule
plusieurs états classiques incompatibles. Il n'y a pas de problème logique (le principe du
tiers exclu n'est pas remis en cause), c'est juste qu'un objet quantique peut avoir des
propriétés contredisant notre expérience quotidienne.
Pour éviter les abus de langage sur le « chat mort-vivant », on peut préférer dire que le
chat est dans un état où les catégorisations habituelles (ici la vie ou la mort) perdent leur
sens. Mais on peut, comme Einstein, refuser d'admettre que le chat n'ait pas d'état
défini tant qu'on n'opère pas d'observation, et supposer que si on voit le chat vivant, il
l'a été depuis son enfermement. Einstein anticipa sur l'objection de Niels Bohr « Le
mystique positiviste va rétorquer qu'on ne peut spéculer sur l'état du chat tant qu'on ne regarde
pas sous prétexte que cela ne serait pas scientifique ».Même en admettant que l'état du chat
découle directement de celui de la particule, d'un point de vue sémantique, dire que le chat est
mort et vivant n'est pas tout à fait légitime : il est plus précisément
,
si on emploie la notation bra-ket de Paul Dirac. Et encore, les coefficients devant les vecteurs
« mort » et « vivant » pourraient être des nombres complexes. Le « et » du langage courant n'a
pas vraiment de sens dans cette situation, le « et » logique serait à redéfinir. La question n'est
pas exclusive à la physique quantique : dans le cas du coefficient
, demander si le chat est
vivant et s'il est mort est équivalent à demander si à 1 h 30 la petite aiguille d'une horloge est
horizontale et si elle est verticale.
16 Comment est-il possible d'être dans plusieurs états à la
fois ? C'est justement l'équation de Schrödinger qui autorise ces superpositions :
cette équation, régissant les états possibles d'une particule étudiée dans le cadre de la
physique quantique, est linéaire, ce qui entraîne que pour deux états possibles d'une
particule, la combinaison de ces deux états est également un état possible. L'observation
provoque en revanche la réduction à un seul état. Si l'on parvient à provoquer une
dépendance directe entre l'état d'une particule et la vie du chat, on devrait pouvoir
mettre le chat dans un état superposé, mort et vivant, jusqu'à l'observation, qui le
réduira à un seul état.
14
17 Quelle solution ?
Différentes options proposent de résoudre ce paradoxe :
---- Théorie de la décohérence ANNEXE 1
Un certain nombre de théoriciens quantiques affirment que l'état de superposition ne peut être
maintenu qu'en l'absence d'interactions avec l'environnement qui « déclenche » le choix entre
les deux états (mort ou vivant). C'est la théorie de la décohérence. La rupture n'est pas
provoquée par une action « consciente », que nous interprétons comme une « mesure », mais
par des interactions physiques avec l'environnement, de sorte que la cohérence est rompue
d'autant plus vite qu'il y a plus d'interactions. À l'échelle macroscopique, celui des milliards
de milliards de particules, la rupture se produit donc pratiquement instantanément. Autrement
dit, l'état de superposition ne peut être maintenu que pour des objets de très petite taille
(quelques particules). La décohérence se produit indépendamment de la présence d'un
observateur, ou même d'une mesure. Il n'y a donc pas de paradoxe : le chat se situe dans un
état déterminé bien avant que la boîte ne soit ouverte. Cette théorie est notamment défendue
par les physiciens Roland Omnès, et le prix Nobel Murray Gell-Mann.
--- Théorie de la décohérence avec paramètres cachés
Une variante de la théorie de la décohérence est défendue notamment par les physiciens
Roger Penrose, Rimini, Ghirardi et Weber. Elle part de la constatation que la décohérence
n'est démontrée à partir des lois quantiques que dans des cas précis, et en faisant des
hypothèses simplificatrices et ayant une teneur arbitraire (histoires à « gros grains »). De plus,
les lois quantiques étant fondamentalement linéaires, et la décohérence étant non linéaire par
essence, obtenir la seconde à partir des premières paraît hautement suspect aux yeux de ces
physiciens. Les lois quantiques ne seraient donc pas capable à elles seules d'expliquer la
décohérence. Ces auteurs introduisent donc des paramètres physiques supplémentaires dans
les lois quantiques (action de la gravitation par exemple pour Penrose) pour expliquer la
décohérence, qui se produit toujours indépendamment de la présence d'un observateur, ou
même d'une mesure.
Cette théorie présente l'avantage par rapport à la précédente d'apporter une réponse claire et
objective à la question « que se passe-t-il entre le niveau microscopique et le niveau
macroscopique expliquant la décohérence ». L'inconvénient est que ces paramètres
supplémentaires, bien que compatibles avec les expériences connues, ne correspondent à
aucune théorie complète et bien établie à ce jour.
----- Approche positiviste
De nombreux physiciens positivistes, bien représentés par Werner Heisenberg ou Stephen
Hawking, pensent que la fonction d'onde ne décrit pas la réalité en elle-même, mais
uniquement ce que nous connaissons de celle-ci (cette approche coïncide avec la philosophie
d'Emmanuel Kant, le noumène, la chose en soi / le phénomène, la chose telle que nous la
percevons). Autrement dit, les lois quantiques ne sont utiles que pour calculer et prédire le
résultat d'une expérience, mais pas pour décrire la réalité. Dans cette hypothèse, l'état
superposé du chat n'est pas un état « réel » et il n'y a pas lieu de philosopher à son sujet (d'où
la célèbre phrase de Stephen Hawking « Quand j'entends « chat de Schrödinger », je sors mon
revolver »). De même, « l'effondrement de la fonction d'onde » n'a aucune réalité, et décrit
15
simplement le changement de connaissance que nous avons du système. Le paradoxe, dans
cette approche toujours assez répandue parmi les physiciens, est donc évacué.
----- Théorie des univers parallèles
Article détaillé : Théorie
d'Everett.La théorie des univers parallèles introduite par Hugh Everett prend le contre-pied de
l'approche positiviste et stipule que la fonction d'onde décrit la réalité, et toute la réalité. Cette
approche permet de décrire séparément les deux états simultanés et leur donne une double
réalité qui semblait avoir disparu, dissoute dans le paradoxe (plus exactement deux réalités
dans deux univers complètement parallèles - et sans doute incapables de communiquer l'un
avec l'autre une fois totalement séparés). Cette théorie ne se prononce pas sur la question de
savoir s'il y a duplication de la réalité (many-worlds) ou duplication au contraire des
observateurs de cette même réalité (many-minds), puisqu'elles ne présentent pas de différence
fonctionnelle. Malgré sa complexité et les doutes sur sa réfutabilité, cette théorie emporte
l'adhésion de nombreux physiciens, non convaincus par la théorie de la décohérence,
non positivistes, et pensant que les lois quantiques sont exactes et complètes.
---- Reformulation radicale de la théorie quantique
Le paradoxe du chat prend sa source dans la formulation même des lois quantiques. Si une
théorie alternative, formulée différemment, peut être établie, alors le paradoxe disparaît de luimême. C'est le cas pour la théorie de David Bohm, inspirée des idées de Louis de Broglie, qui
reproduit tous les phénomènes connus de la physique quantique dans une approche réaliste, à
variables cachées (non locales). Dans cette théorie, il n'existe ni superposition des particules
ni effondrement de la fonction d'onde, et donc le paradoxe du Chat est considéré de ce point
de vue comme un artefact d'une théorie mal formulée. Bien que la théorie de Bohm réussisse
à reproduire tous les phénomènes quantiques connus et qu'aucun défaut objectif de cette
théorie n'ait été mis en évidence, elle est assez peu reconnue par la communauté des
physiciens. Elle est pourtant considérée par celle-ci comme un exemple intéressant, et même
un paradigme d'une théorie à variables cachées non locales.
---- Théorie de l'influence de la conscience
Un prix Nobel de physique 1963, Eugene Wigner, soutient la thèse de l'interaction de la
conscience, dans la décohérence (cessation de la superposition d'état). Dans cette
interprétation, ce ne serait pas une mesure, ou des interactions physiques, mais la
conscience de l'observateur qui « déciderait » finalement si le chat est mort ou vivant.
En regardant par le hublot, l'œil (dans ce cas, c'est lui l'appareil de mesure) se met dans
une superposition d'états :
•
d'un côté, un état A : « uranium désintégré, détecteur excité, marteau baissé, fiole
cassée, chat mort » ;
•
de l'autre, un état B : « uranium intact, détecteur non excité, marteau levé, fiole
entière, chat vivant » ;
le nerf optique achemine au cerveau une onde qui est aussi dans une superposition des
états A et B, et les cellules réceptrices du cerveau suivent le mouvement. C'est alors
que la conscience, brutalement, fait cesser le double jeu, obligeant la situation à passer
dans l'état A ou dans l'état B (rien ne dit pourquoi ce serait A ou B).
•
16
Wigner ne dit pas comment, mais les conséquences de sa position sont importantes : la réalité
matérielle du monde serait déterminée par notre conscience, et celle-ci est unique (deux
observateurs humains doivent percevoir la même chose). Cette solution peut être vue
comme une variante de la solution « avec variables cachées », où le « paramètre
supplémentaire » serait la conscience. Les avantages de cette solution sont les mêmes que
la solution avec variables cachées, les inconvénients étant qu'elle repose sur des notions
non scientifiques (faute d'une définition scientifique de la conscience).
Une variante intéressante rend le résultat plus spectaculaire encore : un appareil photo prend
une image du chat au bout d'une heure, puis la pièce contenant le chat est définitivement
scellée (hublots fermés). La photographie ne serait quant à elle développée qu'un an plus tard.
Or, ce n'est qu'à ce moment-là qu'une conscience humaine tranchera entre la vie ou la mort du
chat. Le signal nerveux remonterait-il le temps pour décider de la vie ou de la mort du chat ?
Cela peut paraître absurde, mais l'Expérience de Marlan Scully (VOIR ANNEXE 5) paradoxe
EPR illustrent l'existence de rétroaction temporelles apparentes en physique quantique.
Et si le chat était un observateur ? [modifier]
Dans la résolution du paradoxe du chat de Schrödinger, on considère que le chat n'a pas de
conscience lui permettant de jouer le rôle d'observateur. On postule donc que l'expérience du
chat de Schrödinger est équivalente à celle du baril de poudre d'Einstein. On peut également
étudier le cas où l'observateur est conscient. Pour qu'il n'y ait pas de doute, c'est un être
humain qui joue alors ce rôle.
L'ami de Wigner [modifier]
Dans cette variante imaginée par Eugene Wigner, un de ses amis observe le chat en
permanence par un hublot. Cet ami aime les chats.
Donc la superposition d'états du chat mort/vivant conduirait à une superposition d'états de
l'ami de Wigner triste/heureux, si l'on suppose qu'un observateur conscient peut également
être mis dans un état superposé. La plupart des interprétations ci-dessus concluent au contraire
que la superposition d'états serait brisée avant d'entraîner celle de l'ami de Wigner.
Le suicide quantique [modifier]
Le suicide quantique propose qu'un être humain, capable de jouer le rôle d'observateur,
prenne la place du chat. Cette situation pose problème aux interprétations faisant jouer un rôle
à la conscience, car notre courageux volontaire ne peut avoir conscience par définition que
d'être vivant (voir aussi Le cru et le cuit). Cela entraîne de nouvelles questions.
Contrairement au cas du chat (non conscient, rappelons qu'en cas de doute sur ce sujet on peut
remplacer le chat de Schrödinger par le baril de poudre d'Einstein), cette expérience
conduirait à différents résultats selon les interprétations. Elle permettrait donc d'éliminer
plusieurs interprétations si elle n'était pas irréalisable pour une multitude de raisons évidentes.
Interprétation de Wigner [modifier]
17
L'interprétation de Wigner conduit à l'impossibilité de la mort de notre volontaire... qui doit
donc interdire la désintégration de l'atome.
En effet, d'après Wigner, c'est la prise de conscience d'un état qui provoque, directement ou
indirectement, l'effondrement de la fonction d'onde. La prise de conscience n'étant possible
que dans le cas « vivant », cela rend impossible l'effondrement de la fonction d'onde dans
l'état « mort » (en tout cas tant qu'il n'y a pas un « ami » de Wigner pour prendre conscience
de l'état de l'expérimentateur).
Que se passe-t-il quand la probabilité de désintégration devient très proche de 1 ? Jusqu'à
quand les atomes accepteront-ils de ne pas se désintégrer parce qu'un humain ne peut avoir
conscience de sa propre mort ?
Cas des Univers Multiples d'Everett [modifier]
Le cas du « suicide quantique » a été, à l'origine, imaginé pour contrer cette interprétation.
Cette interprétation fait également jouer un rôle à la conscience, car elle stipule qu'à chaque
observation la conscience se « scinde » en autant d'univers que d'observations physiquement
possibles…
Dans cette interprétation, il y a toujours au moins un univers dans lequel l'expérimentateur est
vivant (à moins que la probabilité de mourir soit de 100 %). On pourrait dès lors se demander
si la « conscience » ne bifurque pas systématiquement dans l'univers avec le résultat
« vivant », menant à une sorte d' « immortalité quantique » ; l'auteur et acteur Norbert
Aboudharane a brodé autour de ce thème sa pièce Le chat de Schrödinger.
Théorie de l'information [modifier]
Conclusion [modifier]
Arbre des solutions du problème de la
mesure
Théorie
quantique
Ne
représente
pas
totalement
la réalité
N'est pas
censé
représenter
la réalité
Positivisme
Lois
quantiques
Influence
de la
Représente
totalement la
réalité
Refonte
totale
Décohérence
quantique
Univers
multiples
18
modifiées
Stephen
Hawking
Niels Bohr
conscience
Roger
Penrose
Eugene
Wigner
Théorie de
De BroglieBohm
Giancarlo
Ghirardi
Alberto
Rimini
Wilhelm
Eduard
Weber
John von
Neumann
Fritz
London &
Edmond
Bauer
Théorie des
cordes
Roland
Omnès
Murray
Gell-Mann
James Hartle
Hans-Dieter
Zeh
Wojciech
Zurek
Hugh
Everett
Bernard
d'Espagnat
Olivier
Costa de
Beauregard
Dans tous les cas, cette expérience de pensée et le paradoxe associé ont aujourd'hui pris
valeur de symboles centraux de la physique quantique. Qu'ils servent à supporter un aspect de
cette théorie ou qu'ils servent à défendre une option théorique divergente, ils sont appelés à la
rescousse pratiquement à chaque fois que la difficile convergence entre la réalité
macroscopique et la réalité microscopique (une situation caractéristique du monde quantique)
est observée ou supposée.
Ce chat mort-vivant peut apparaître comme une expérience de pensée folle, mais c'est une
bonne introduction à la complexité de la mécanique quantique. Il est aussi important de noter
que c'est justement de la maîtrise des états de superposition et de la décohérence (et donc de la
solution de ce paradoxe) que dépend la réalisation à long terme d'un ordinateur quantique.
Mise en œuvre [modifier]
Si l'on ne peut mettre un chat dans deux états incompatibles, on peut en revanche le faire avec
des particules simples. Les plus employées sont les photons. Une première expérience a été
réalisée en 19962, et une deuxième a été réalisée en août 2007 sur des photons par des
chercheurs de l'institut d'optique Paris Sud (dont le français Phillipe Grangier)3.
On parle d'« état de chat » pour dire qu'un objet quantique est dans une superposition d'états
incompatibles.
Humour [modifier]
Le chat de Schrödinger, dans un état si particulier, amena de nombreuses blagues. D'abord, il
est souvent présenté comme un fantôme, puisqu'il est mort vivant. Comme il n'a jamais été
observé, des physiciens ont dessiné des avis de recherche :
19
•
WANTED! Chat de Schrödinger. Mort ou vif.
Ou parfois, représentant mieux le paradoxe :
•
WANTED! Chat de Schrödinger. Mort et vif.
Et quelquefois, pour être plus rigoureux :
•
WANTED! Chat de Schrödinger. Mort, vif ou
On écrit également parfois que le chat n’est pas mort, avec les mots en gras clignotants4.
Les francophones qualifient souvent le chat de Schrödinger de « mort-vivant ». La
plaisanterie ne marche pas en anglais ou en allemand, langues dans lesquelles les personnages
d'Heroic fantasy qui sont des morts doués de mouvement sont appelés « non-morts ».
Enfin, certains ont noté que comme c'est en ouvrant la boîte qu'on tue le chat (ou pas),
Schrödinger a donné un nouveau sens au proverbe anglophone « la curiosité a tué le chat »5.
Articles connexes [modifier]
Paradoxe EPR et expérience d'Alain Aspect
Ce paradoxe (1935) met en évidence la non-localité de la physique quantique, impliquée par
les états intriqués.
Articles détaillés : Paradoxe EPR et Expérience d'Aspect.
Expérience de Marlan Scully
Cette expérience peut être interprétée comme une démonstration que les résultats d'une
expérience enregistrée à un instant T dépendent objectivement d'une action effectuée à un
temps ultérieur T+t. Selon cette interprétation, la non-localité des états intriqués ne serait pas
seulement spatiale, mais également temporelle.
Toutefois, la causalité n'est pas strictement violée car il n'est pas possible - pour des raisons
fondamentales - de mettre en évidence, avant l'instant T+t, que l'état enregistré à l'instant T
dépend d'un évènement ultérieur. Ce phénomène ne peut donc donner aucune information sur
l'avenir.
Article détaillé : Expérience de Marlan Scully.
Contrafactualité
Selon la mécanique quantique, des évènements qui auraient pu se produire, mais qui ne se
sont pas produits, influent sur les résultats de l'expérience.
Article détaillé : contrafactualité (physique).
20
La décohérence : du monde quantique au monde classique
[modifier]
Article détaillé : Décohérence.
Alors que les principes de la mécanique quantique s'appliquent a priori à tous les objets
contenus dans l'univers (nous y compris), pourquoi continuons-nous à percevoir
classiquement l'essentiel du monde macroscopique ? En particulier, pourquoi les
superpositions quantiques ne sont-elles pas observables dans le monde macroscopique? La
théorie de la décohérence explique leurs disparitions très rapides en raison du couplage
inévitable entre le système quantique considéré et son environnement.
Cette théorie a reçu une confirmation expérimentale avec les études portant sur des systèmes
mésoscopiques pour lesquels le temps de décohérence n'est pas trop court pour rester
mesurable, comme par exemple un système de quelques photons dans une cavité (Haroche et
al., 1996)
Voir aussi [modifier]
La Wikiversité possède des cours sur « Département:Mécanique quantique ».
Articles connexes [modifier]
Concepts fondamentaux [modifier]
•
•
•
•
•
•
•
•
•
Quantum
Théorie des quanta
o Diagramme d'énergie
Postulats de la mécanique quantique
Les trois axiomes de la mécanique quantique
Dualité onde-corpuscule
État quantique
o Principe de superposition quantique
o Intrication quantique
Téléportation quantique
Fonction d'onde
Principe d'incertitude
Principe de complémentarité
Interprétation [modifier]
Il existe de nombreuses interprétations des effets de la mécanique quantique, certaines étant
en contradiction totale avec d'autres. Faute de conséquences observables de ces
interprétations, il n'est pas possible de trancher en faveur de l'une ou de l'autre de ces
interprétations. Seule exception, l'école de Copenhague dont le principe est justement de
refuser toute interprétation des phénomènes.
21
[Dérouler]
Diagramme des principales interprétations
Arbre des solutions du problème de la
mesure
Théorie
quantique
Ne
représente
pas
totalement
la réalité
N'est pas
censé
représenter
la réalité
Positivisme
Stephen
Hawking
Niels Bohr
Lois
quantiques
modifiées
Représente
totalement la
réalité
Influence
de la
conscience
Refonte
totale
Décohérence
quantique
Univers
multiples
Roger
Penrose
Eugene
Wigner
Théorie de
De BroglieBohm
Roland
Omnès
Murray
Gell-Mann
James Hartle
Hugh
Everett
Giancarlo
Ghirardi
Alberto
Rimini
Wilhelm
Eduard
Weber
John von
Neumann
Fritz
London &
Edmond
Bauer
Théorie des
cordes
Hans-Dieter
Zeh
Wojciech
Zurek
Bernard
d'Espagnat
Olivier
Costa de
Beauregard
•
•
•
•
•
•
•
1924 : Hypothèse de De Broglie
1927 : École de Copenhague
1927 : Théorie de l'onde pilote
1952 : Théorie de De Broglie-Bohm
1957 : Théorie d'Everett (univers multiples)
1970 : Décohérence quantique
1986 : Interprétation transactionnelle
22
Problèmes, paradoxes et expériences [modifier]
•
•
•
•
•
•
•
•
•
•
•
Problème de la mesure quantique
Gravité quantique
Contrafactualité
Paradoxes de la mécanique quantique
Chat de Schrödinger
Paradoxe EPR
Expérience d'Aspect
Expérience de la gomme quantique à choix retardé
Fentes de Young
Expérience d’Afshar
Gomme quantique
Mathématique [modifier]
•
•
•
•
•
•
•
•
•
•
Constante de Planck
Constante de Planck réduite
Équation de Schrödinger
Amplitude de probabilité
Notation bra-ket
Espace de Hilbert
Oscillateur harmonique quantique
Phase géométrique
Intégrale de chemin
Spin
Mécanique quantique relativiste [modifier]
Article détaillé : Mécanique quantique relativiste.
•
•
•
•
•
•
•
Modèle standard
Physique quantique
Théorie quantique des champs
Principe d'exclusion de Pauli
Équation de Dirac
Physique des particules
Diagramme de Feynman
Informatique quantique [modifier]
Article détaillé : Informatique quantique.
•
•
•
•
Information quantique
Ordinateur quantique
Qubit
Cryptographie quantique
Vide quantique [modifier]
23
Article détaillé : Vide quantique.
•
•
•
Énergie du vide
Effet Casimir
o Décalage de Lamb
Évaporation des trous noirs
Divers [modifier]
•
•
Chronologie de la physique microscopique
Atome d'hydrogène
Bibliographie [modifier]
Ouvrages de vulgarisation [modifier]
•
Banesh Hoffman et Michel Paty ; L'étrange histoire des quanta, Collection PointsSciences 26, Le Seuil (1981). ISBN 2-02-005417-5
•
Emilio Segré ; Les physiciens modernes et leurs découvertes - Des rayons X aux
quarks, Fayard (1984) ISBN 2-213-01383-7. Une histoire vulgarisée qui couvre la
période 1895-1983. L'auteur a reçu le prix Nobel 1959 pour la découverte
expérimentale de l'antiproton.
•
Georges Gamow ; Trente années qui ébranlèrent la physique (Histoire de la théorie
quantique), 1968. Réédité par Jacques Gabay (2000) ISBN 2-87647-135-3.
•
Stéphane Deligeorges (ed) ; Le monde quantique, Collection Points-Sciences 46, Le
Seuil (1984). ISBN 2-02-008908-4
•
Emile Noël (ed) ; La matière aujourd'hui, Collection Points-Sciences 24, Le Seuil
(1981). ISBN 2-02-005739-5
•
Serge Haroche ; Physique quantique, Leçon inaugurale au Collège de France,
coédition Collège de France/Fayard (2004).
•
Étienne Klein ; Petit voyage dans le monde des quanta, Collection Champs 557,
Flammarion (2004). ISBN 2-08-080063-9
•
Roland Omnès ; Les indispensables de la mécanique quantique, Collection Sciences,
Odile Jacob (2006). ISBN 978-2-7381-1820-2
•
Helge S. Kragh ; Quantum generations - A history of physics in the twentieth century,
Princeton University Press (1999) ISBN 0-691-01206-7
•
Sven Ortoli et Jean-Pierre Pharabod; Le Cantique des quantiques: le monde existe-til ? éd. La Découverte, 2007. ISBN: 978-2-7071-5348-7.
Ouvrages de philosophie [modifier]
24
•
Bernard d'Espagnat ; "Le réel voilé, Analyse des concepts quantiques", Fayard, 1994
•
Michel Bitbol, Mécanique quantique, une introduction philosophique, 1re éd. 1996
[détail des éditions]
•
Bryce DeWitt and Neil Graham ; "The many-worlds interpretation of quantum
mechanics" Princeton University Press, 1973
•
David Bohm and Basil Hiley ; "The undivided Universe, An ontological interpretation
of quantum mechanics", Routledge, 1993
•
(en) Bas van Fraassen, Quantum mechanics : an empiricist view, Oxford University
Press, New York, 26 septembre 1991, 560 p. (ISBN 978-0-19-823980-2)
•
R. I. G. Hughes ; "The structure and interpretation of quantum mechanics", Harvard
University Press, 1992
•
Roland Omnès ; "The interpretation of quantum mechanics", Princeton University
Press, 1994
•
Robert B. Griffiths Consistent Quantum Theory, Cambridge University Press, 2003.
ISBN 0-521-53929-3
•
John S. Bell Speakable and Unspeakable in Quantum Mechanics, second Edition,
Collected papers on quantum philosophy, Cambridge University Press, 2004. ISBN 0521-52338-9
Ouvrages d'initiation [modifier]
Accessibles au niveau d'un premier cycle universitaire.
•
Jean-Marc Lévy-Leblond & Françoise Balibar ; Quantique : rudiments,
InterEditions/Editions du CNRS (1984). Réédité par Masson (1997) ISBN 2-22585521-8, aujourd'hui racheté par Dunod : ISBN 2-225-85521-8 Initiation à la physique
quantique, accessible dès le premier cycle universitaire. Le bagage mathématique est
restreint au minimum, l'accent étant porté sur la compréhension des phénomènes.
•
Richard Feynman ; Mécanique quantique, volume 3 du Cours de physique de
Feynman, issu d'un enseignement donné à CalTech (Californian Institute of
Technology, Pasadena), première parution aux États-Unis en 1963, édidions Dunod,
ISBN 2-10-004934-8. Cours de niveau premier cycle universitaire, par le théoricien
américain Richard Feynman, prix Nobel de physique 1965. C'est une vision
personnelle de la physique orientée vers la pédagogie : Feynman prend pour point de
départ les amplitudes de transitions plutôt que la fonction d'onde Ψ (l'équation de
Schrödinger ne faisant son apparition qu'au chapitre 16 à la page 320). Ces amplitudes
constituent l'objet central de sa propre formulation en intégrale de chemins. Cette
approche peut dérouter l'étudiant ayant déjà suivi un cours d'initiation standard,
l'aspect formel étant réduit.
25
•
Max Born ; Structure atomique de la matière - Introduction à la physique quantique,
Collection U, Armand-Colin (8 e édition-1971). Un livre de référence par un professeur
de physique théorique de l'université de Göttingen, prix Nobel de physique 1954 pour
son interprétation statistique de la fonction d'onde de Schrödinger. Ce livre vaut pour
certains détails historiques de première main.
•
Bernard Cagnac & Jean-Claude Pebay-Peyroula ; Physique atomique - Tome 1 :
expériences et principes fondamentaux, Dunod (1975). ISBN 2-04-002555-3. Ce livre
décrit précisément et en détails les aspects expérimentaux suivants : l'effet
photoélectrique, les spectres optiques, l'expérience de Franck et Hertz, l'effet
Compton, l'émission et l'absorption de photons, le laser, la dualité onde-corpuscule, les
modèles atomique planétaires, ainsi que de nombreux aspects du magnétisme orbital et
du magnétisme de spin, dont l'expérience de Stern et Gerlach.
•
Edouard Chpolski ; Physique atomique (2 vol.), Editions Mir (1977) ISBN . Un
exposé des principes de la physique atomique, qui fournit de nombreux détails
historiques.
•
Abraham Pais ; Inward Bound - Of Matter & Forces in the Physical World, Oxford
University Press (1986) [ISBN 0-19-851997-4] Écrite par un ancien assistant
d'Einstein à Princeton, cette histoire des développements de la physique moderne
démarre en 1895 avec la découverte expérimentale des rayons X, et se termine en
1983 lors de la découverte expérimentale au C.E.R.N. des bosons-vecteurs W et Z.
L'auteur décrit avec beaucoup de détails l'évolution des idées, indiquant
systématiquement les références des publications originales. Livre non traduit pour
l'instant en français.
Ouvrages destinés à l'apprentissage de la discipline [modifier]
Accessibles à partir du second cycle universitaire.
•
•
•
•
Constantin Piron ; "Mécanique Quantique: Bases et Applications", Presses
Polytechniques et Universitaires Romandes (1998) ISBN 2-88074-399-0. Ce cours
expose les bases de la théorie quantique et ses applications élémentaires sous une
forme moderne, totalement renouvelée grâce aux travaux et aux découvertes faites ces
trente dernières années, tant dans le domaine expérimental que dans le domaine
théorique. Les concepts mathématiques sont introduits au fur et à mesure des besoins
d'une manière élémentaire mais rigoureuse. Le tout est illustré par de nombreux
exercices, avec corrigé.
Michel Le Bellac ; Physique quantique, Collection Savoirs actuels, EDP
Sciences/CNRS Editions (2003) ISBN 2-86883-665-0 et ISBN 2-271-06147-4. Cet
ouvrage aborde les aspects les plus récents de la théorie.
J. L. Basdevant, J. Dalibard, Mécanique quantique [détail des éditions]
Jean-Louis Basdevant & Jean Dalibard ; Problèmes quantiques, Editions de l'école
Polytechnique (2004), ISBN 2730211179. Complément du volume de cours
précédent, ce livre contient 19 problèmes, avec corrigés, sur une grande diversité
d'exemples expérimentaux contemporains.
26
•
•
•
•
•
•
•
C. Cohen-Tannoudji, B. Diu et F. Laloë, Mécanique quantique [détail des éditions].
Traité en français, généralement donné comme référence aux étudiants du premier et
second cycles universitaires.
Albert Messiah, Mécanique quantique [détail des éditions]
Lev Landau et Evguéni Lifchitz, Physique théorique, tome 3 : Mécanique quantique,
éd. MIR, Moscou [détail des éditions]. Écrit par un théoricien soviétique (en collaboration
avec un de ses élèves) connu pour ses travaux en physique de l'état condensé, prix
Nobel de physique 1962. Ouvrage complet.
Jun John Sakurai ; Modern Quantum Mechanics, Revised Edition, Addison-Wesley
Publishing Company (1994) ISBN 0-201-53929-2. Cet ouvrage d'un niveau avancé
présente en particulier des sujets tels que les intégrales de chemin de Feynman, les
mesures de corrélations, les inégalités de Bell, etc.
Peter Atkins ; Molecular quantum mechanics, Oxford University Press (2e édition1983) ISBN . Cours très pédagogique, par le célèbre professeur de chimie-physique de
l'Université d'Oxford.
Alain Aspect ; Quelques tests expérimentaux des fondements de la mécanique
quantique (en optique), dans : Qu'est-ce que l'Univers ?, Vol. 4 de l'Université de
Tous les Savoirs (sous la direction d'Yves Michaux), Odile Jacob (2001) 589. Dualité
onde-corpuscule, intrication quantique & paradoxe E.P.R., par un professeur d'optique
à l'Université de Paris-Sud (Orsay), auteur en 1982 d'une remarquable expérience
testant les inégalités de Bell des corrélations E.P.R. (expérience en faveur des
prédictions de la mécanique quantique. Cette expérience fut améliorée en 1998 par
Anton Zeilinger et ses collaborateurs de l'Université d'Innsbrück, Autriche).
Anton Zeilinger ; La téléportation, Pour La Science 272 (Juin 2000) 36-44
Aspects historiques [modifier]
•
José Leite-Lopes & Bruno Escoubès ; Sources et évolution de la physique quantique Textes fondateurs, Masson (1995) [ISBN 2-225-84607-3]. Réédité par E.D.P.
Sciences. Donne une vue générale de l'évolution des idées, du XIXe siècle à 1993,
ainsi que la traduction française de quelques articles fondateurs.
•
John Archibald Wheeler & Wojciech Zurek ; "Quantum theory and measurement",
Princeton University Press, 1983. Un recueil classique d'articles sur le "problème de la
mesure"
•
B.L. van der Waerden (ed.) ; Sources of quantum mechanics, Dover Publications, Inc.
(1967) ISBN 0-486-61881-1. Ce volume regroupe quelque-uns des articles pionniers
de 1916 à 1926 (en traduction anglaise).
•
Paul A. Dirac; The principles of quantum mechanics, Oxford Science Publication,
Oxford University Press (4e édition-1958). Le traité historique de base sur les principes
de la mécanique quantique, par l'un de ses plus brillants inventeur, professeur de
physique théorique à l'université de Cambridge, prix Nobel de physique en 1933 (avec
Erwin Schrödinger).
•
Paul A.M. Dirac ; Lectures on Quantum Mechanics, Dover Publications, Inc (2001).
Quatre conférences faites à l'Université Yeshiva de New York en 1964.
27
•
Erwin Schrödinger ; Mémoires sur la mécanique ondulatoire, réédition des articles
historiques par Jacques Gabay (1988) ISBN .
•
Werner Heisenberg ; Les principes physiques de la théorie des quanta, réédition du
livre historique par Jacques Gabay (1989) ISBN .
•
Enrico Fermi ; Notes on quantum mechanics, the University of Chicago Press (1961)
ISBN .
•
John Von Neumann ; Les fondements mathématiques de la mécanique quantique,
Librairie Alcan (1946), réédité par Jacques Gabay (1988) ISBN . Un ouvrage
fondamental sur la structure mathématique de la théorie et les espaces de Hilbert.
•
Jagdish Mehra & Helmut Rechenberg ; The historical development of quantum theory,
Vols. 1-6, Springer-Verlag (New York-1978 à 2001) ISBN. Ouvrage de plus de 4500
pages (6 volumes en 9 livres) sur le développement la mécanique quantique,
principalement de 1900 à 1941 (un court texte est consacré aux avancées depuis 1941
jusqu'en 1999).
•
Max Jammer ; The conceptual development of quantum mechanics, McGraw-Hill
(New York-1966) ISBN .
•
Max Jammer ; The philosophy of quantum mechanics, John Wiley & Sons (New
York-1974) ISBN .
Sur la décohérence [modifier]
•
Serge Haroche, Jean-Michel Raimond & Michel Brune ; Le chat de Schrödinger se
prête à l'expérience - Voir en direct le passage du monde quantique au monde
classique, La Recherche 301 (Septembre 1997) 50.
•
Serge Haroche ; Une exploration au cœur du monde quantique, dans : Qu'est-ce que
l'Univers ?, Vol. 4 de l'Université de Tous les Savoirs (sous la direction d'Yves
Michaux), Odile Jacob (2001) 571.
•
Roland Omnès ; Comprendre la mécanique quantique, EDP Sciences (2000) ISBN 286883-470-1. Par un professeur de physique théorique émérite de l'Université de
Paris-Sud (Orsay), une discussion de l' interprétation de Copenhague de la mécanique
quantique, du problème de la mesure et de la théorie des histoires consistantes de
Griffiths et de la décohérence, par l'un de ses pionniers.
•
E. Joos,, H.D. Zeh, C. Kiefer, D. Giulini, K. Kupsch, I.O. Stamatescu ; Decoherence
and the Appearance of a Classical World in Quantum Theory, Springer-Verlag
(1996). Deuxième édition (2003) ISBN 3-540-00390-8
•
Gennaro Auletta ; Foundation & Interpretation of Quantum Mechanics (in the light of
a critical - historical analysis of the problems and of a synthesis of the results), Wolrd
Scientific (2001) ISBN . Par un professeur de l'Université de Rome, un ouvrage
monumental (environ 1000 pages) sur les fondements conceptuels de la mécanique
28
quantique des origines à nos jours - y compris les questions de décohérence -, mis en
relation avec les avancées expérimentales les plus récentes.
Bibliothèque virtuelle [modifier]
Cours [modifier]
•
Franck Laloë ; Comprenons-nous vraiment la mécanique quantique ? (pdf) : cours de
Franck Laloë (Laboratoire Kastler-Brossel, ENS Ulm, Paris).
•
Franck Laloë ; Do we really understand quantum mechanics ? (pdf) : version anglaise
augmentée du cours précédent sur le "paradoxe" E.P.R., le théorème de Bell, les
intrications quantiques et la décohérence.
•
Claude Cohen-Tannoudji ; Compléments de mécanique quantique (pdf) : cours de
Claude Cohen-Tannoudji (prix Nobel 1997) sur la formulation Lagrangienne de la
mécanique quantique (Feynman-Dirac), et sur l'utilisation des fonctions de Green.
Notes rédigées en 1966 par Serge Haroche.
•
Jean Dalibard ; Mécanique quantique avancée (pdf) : cours sur les systèmes de
bosons et de fermions, la seconde quantification et l'espace de Fock, et la théorie des
collisions.
•
Claude Cohen-Tannoudji au Collège de France (pdf) : cours donnés depuis 1976 par
Claude Cohen-Tannoudji (prix Nobel 1997 - chaire de physique atomique).
•
Serge Haroche au Collège de France (pdf) : cours donnés par Serge Haroche (chaire
de physique quantique).
•
Michel Le Bellac ; Introduction à l'information quantique (pdf). Cours de Michel Le
Bellac (Institut Non Linéaire de Nice).
•
Philippe Jacquier ; [1] Physique Quantique et Applications & Atomes et Molécules.
Cours de Master M1 donné à l'UPMC (Paris VI).
•
Doron Cohen ; Lecture Notes in Quantum Mechanics, (2006). Excellente introduction,
qui couvre de multiples aspects qu'on trouve rarement abordés à ce niveau. ArXiv :
quant-ph/0605180.
Lectures complémentaires [modifier]
•
Roger Balian ; La physique quantique à notre échelle : texte d'une conférence donnée
par l'auteur (Service de Physique Théorique du CEA, Saclay) le 15 décembre 2000 à
l'Académie des Sciences de Paris lors du colloque : Les quanta : un siècle après
Planck. Publié par Michel Crozon & Yves Saquin (éditeurs), Physique et
Interrogations Fondamentales - Un siècle de quanta, EDP Sciences (2003) pp. 59-89
29
•
Max Born ; Quelques problèmes de mécanique quantique (pdf), Annales de l'Institut
Henri Poincaré 1 (3) (1930) pp. 205-263. Après une introduction à la mécanique
quantique, Max Born (prix Nobel 1954) discute notamment le phénomène d'effet
tunnel appliqué à la radioactivité alpha, poursuit par quelques applications à la
cinétique des réactions chimiques, et aborde enfin le problème de la largeur des raies
spectrales.
•
P.A.M. Dirac ; Quelques problèmes de mécanique quantique (pdf), Annales de
l'Institut Henri Poincaré 1 (4) (1930) pp. 357-400. Paul Dirac (prix Nobel 1933) y
expose le formalisme de la physique statistique quantique d'une part, ainsi que
l'équation quantique et relativiste de l'électron d'autre part (aujourd'hui appelée
« équation de Dirac » en son honneur). À noter que, dans cet article, Dirac identifie de
façon erronée un « trou » de la mer de Dirac des états d'énergie négatives (issues des
solutions de son équation) avec le proton. On sait aujourd'hui qu'il s'agit d'un positron,
antiparticule de l'électron.
•
Edmond Bauer ; Introduction à la théorie des groupes et à ses applications en
physique quantique (pdf), Annales de l'Institut Henri Poincaré 3 (4) (1933) pp. 1-170.
Liens externes [modifier]
La Wikiversité possède des cours sur « Mécanique quantique ».
•
•
•
•
•
Scio : Introduction à la mécanique quantique, sans jargon technique
Introduction à la physique quantique
Quantum Physics Online : introduction interactive à la mécanique quantique (applets
Java)
Cours de mécanique quantique (1ère année) à l'Ecole polytechnique (vidéo)
Cours de mécanique quantique (2ème année) à l'Ecole polytechnique (vidéo)
Sur la téléportation quantique [modifier]
•
•
•
Téléportation quantique sur le site de M.Crépeau
La téléportation sur le site Luxorion
(en) Téléportation quantique sur le site d'IBM
Notes et références [modifier]
1.
2.
3.
↑ Cette dernière s'est étendue à partir de la mécanique quantique aux phénomènes relativistes et aux
champs (théorie quantique des champs) jusqu'au modèle standard de la physique des particules.
↑ Pour lever cet apparent paradoxe et insister sur l'imperfection de nos concepts classiques d'onde et de
corpuscule, les physiciens Jean-Marc Lévy-Leblond et Françoise Balibar ont proposé d'utiliser le terme
de « quanton » pour parler d'un objet quantique. Un quanton n'est ni une onde, ni un corpuscule, mais
peut présenter les deux aspects selon le principe de complémentarité de Bohr. Cette terminologie a du
mal à s'imposer dans l'enseignement français
↑ Cette formulation de la mécanique quantique a été appelée autrefois théorie des transformations.
Cette appellation est aujourd'hui abandonnée.
30
4.
5.
6.
7.
8.
9.
↑ Richard P. Feynman ; The principle of least action in quantum mechanics, thèse de l'université de
Princeton. Cette thèse vient d'être publiée dans Laurie M. Brown (Editor) ; Feynman's thesis: a new
approach to quantum theory, World Scientific (2005),ISBN 9812563806.
↑ Richard P. Feynman ; Space-time approach to non-relativistic quantum mechanics, Review of
Modern Physics 20 (1948) 267. Cet article est reproduit dans : Julian Schwinger (ed) ; Selected papers
on quantum electrodynamics, Dover Publications, Inc. (1958) ISBN 0-486-60444-6, ainsi que dans :
Laurie M. Brown (Editor) ; Feynman's thesis: a new approach to quantum theory, World Scientific
(2005),ISBN 9812563806.
↑ La notion de chemin a fait un retour spectaculaire en mécanique quantique en 1948 avec la
formulation lagrangienne introduite par Feynman, basée sur le concept d'intégrale de chemin.
↑ Ce concept est primordial en théorie quantique des champs, théorie qui fait appel à la notion de
particule virtuelle.
↑ Pour une dérivation rigoureuse de l'inégalité énergie-temps, consulter par exemple Albert Messiah,
Mécanique quantique - volume 1, Dunod (1959) pp. 114-117, pp. 269-270, et pour l'oscillateur
harmonique, p. 280. Ouvrage réédité par Dunod en 1995, ISBN 2-10-007361-3.
↑ De même que la composante de l'impulsion est le générateur des translations d'espace dans la
direction .
10. ↑ Concernant la validité de ce « théorème », lire les travaux d'Eric Galapon : quant-ph/9908033 [archive]
et quant-ph/0303106 [archive].
[Dérouler]
v· d· m
Physique
•
Portail de la physique
Ce document provient de « http://fr.wikipedia.org/wiki/M%C3%A9canique_quantique ».
Catégories : Théorie scientifique | Mécanique quantique | [+]
Catégories cachées : Article à recycler | Portail:Physique/Articles liés
Affichages
•
•
•
•
Article
Discussion
Modifier
Historique
Outils personnels
•
Créer un compte ou se connecter
Rechercher
Lire
Navigation
Rechercher
31
•
•
•
•
•
Accueil
Portails thématiques
Index alphabétique
Un article au hasard
Contacter Wikipédia
Contribuer
•
•
•
•
•
Aide
Communauté
Modifications récentes
Accueil des nouveaux arrivants
Faire un don
Créer un livre
•
•
Ajouter cet article
Aide sur les livres
Boîte à outils
•
•
•
•
•
•
•
•
Pages liées
Suivi des pages liées
Importer un fichier
Pages spéciales
Version imprimable
Adresse de cette version
Version PDF
Citer cette page
Autres langues
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Alemannisch
‫العربية‬
Žemaitėška
Беларуская
Български
Bosanski
Català
Česky
Чăвашла
Cymraeg
Dansk
Deutsch
Ελληνικά
English
Esperanto
Español
Eesti
32
•
Euskara
‫یفارس‬
Suomi
Galego
‫עברית‬
Hrvatski
Magyar
Interlingua
Bahasa Indonesia
Íslenska
Italiano
日本語
ქართული
•
ಕನಡ
•
•
•
•
•
•
•
한국어
Latina
Lumbaart
Lietuvių
Latviešu
Македонски
•
मराठ
Bahasa Melayu
Malti
Nederlands
Norsk (nynorsk)
Norsk (bokmål)
Polski
Português
Română
Русский
Sicilianu
Srpskohrvatski / Српскохрватски
Simple English
Slovenčina
Slovenščina
Shqip
Српски / Srpski
Basa Sunda
Svenska
தமி
ไทย
Tagalog
Türkçe
Українська
‫اردو‬
Tiếng Việt
吴语
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
33
•
•
中文
Bân-lâm-gú
•
•
Dernière modification de cette page le 29 mai 2009 à 05:49.
Droit d'auteur : Tous les textes sont disponibles sous les termes de la licence de
documentation libre GNU (GFDL).
Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation
de bienfaisance régie par le paragraphe 501(c)(3) du code fiscal des États-Unis.
Politique de confidentialité
À propos de Wikipédia
Avertissements
•
•
•
ANNEXE 1 LA décohérence quantique
Tous les objets décrits par la physique classique (projectile, planète, chat, etc.) étant
composés, en dernière analyse, d'atomes et de particules, et ces derniers étant décrits
entièrement par la physique quantique, il est logique de considérer que les règles de la
physique classique peuvent se déduire de celles de la physique quantique. Or, les tentatives en
ce sens ont posé de nombreux problèmes dès le départ et pendant très longtemps. La théorie
de la décohérence est à ce jour une des tentatives les plus satisfaisantes en ce sens, bien qu'elle
ne traite pas encore la totalité des problèmes.
a) Les problèmes de transition quantique/classique
Le problème majeur est que la physique quantique admet des états superposés, ces états étant
absolument inconnus à un niveau macroscopique, décrit par la physique classique. L'exemple
le plus frappant décrivant ce problème est l'expérience du chat de Schrödinger. Dans cette
expérience de pensée, l'état superposé d'un atome (désintégré/non désintégré) doit se
propager, en suivant scrupuleusement les règles quantiques, à l'état d'un chat qui devrait
également être, selon ces règles, dans un état superposé mort/vivant. Or, un tel état n'est bien
entendu jamais observé, d'où paradoxe et problème. La théorie quantique tient compte de
cette non-observabilité des états superposés quantiques en stipulant que tout acte
d'observation provoque un effondrement de la fonction d'onde, c'est à dire sélectionne
instantanément un et un seul état parmi l'ensemble des états superposés possibles. Cela
donne lieu à un postulat spécifique (postulat 5 dit de « Réduction du paquet d'onde »), qui
est en contradiction mathématique avec un autre postulat de la mécanique quantique
(postulat 6 : l'équation de Schrödinger). Voir « Problème de la mesure quantique » pour une
présentation détaillée de ce problème.Tel est le problème principalement traité par la théorie
de la décohérence. D'autres problèmes interviennent dans la transition quantique => classique,
comme le problème du déterminisme, ou des paradoxes de non-localité, mais qui ne sont pas
spécifiquement traités par cette théorie.
b)La décohérence [modifier]
34
La théorie de la décohérence s'attaque donc au problème de la disparition des états quantiques
superposés au niveau macroscopique. Son objectif est de démontrer que le postulat de
réduction du paquet d'onde est une conséquence de l'équation de Schrödinger, et n'est pas en
contradiction avec celle-ci. L'idée de base de la décohérence est qu'un système quantique ne
doit pas être considéré comme isolé, mais en interaction avec un environnement possédant un
grand nombre de degrés de liberté. Ce sont ces interactions qui provoquent la disparition
rapide des états superposés. En effet, selon cette théorie, chaque éventualité d'un état
superposé interagit avec son environnement ; mais la complexité des interactions est telle que
les différentes possibilités deviennent rapidement incohérentes (d'où le nom de la théorie). On
peut démontrer mathématiquement que chaque interaction « déphase » les fonctions d'onde
des états les unes par rapport aux autres, jusqu’à devenir orthogonales et de produit scalaire
nul. En conséquence, la probabilité d'observer un état superposé tend rapidement vers zéro.
Seuls restent observables les états dit « purs », correspondant aux états observables
macroscopiquement, par exemple - dans le cas du Chat de Schrödinger - mort ou bien vivant.
Les interactions et l'environnement dont il est question dans cette théorie ont des origines
très diverses3. Typiquement, le simple fait d'éclairer un système quantique suffit à
provoquer une décohérence. Même en l'absence de tout éclairage, il reste au minimum les
photons du fond diffus cosmologique qui provoquent également une décohérence, bien que
très lente. Naturellement, le fait de mesurer volontairement un système quantique provoque
des interactions nombreuses et complexes avec un environnement constitué par l'appareil de
mesure. Dans ce cas, la décohérence est pratiquement instantanée et inévitable.
Donc, pour la théorie de la décohérence, l'effondrement de la fonction d'onde n'est pas
spécifiquement provoquée par un acte de mesure, mais peut avoir lieu spontanément, même
en l'absence d'observation et d'observateurs4. Ceci est une différence essentielle avec le
postulat de réduction du paquet d'onde qui ne spécifie pas comment, pourquoi ou à quel
moment a lieu la réduction, ce qui a ouvert la porte à des interprétations mettant en jeu la
conscience et la présence d'un observateur conscient. Ces interprétations deviendront sans
objet si la théorie de la décohérence devient suffisamment complète pour préciser ces
points.
c) Durée de la décohérence
La théorie de la décohérence prévoit qu'un certain temps est nécessaire pour que les
déphasages s'accumulent, et finissent par rendre négligeables la probabilité des états
superposés. Avec certains modèles simples, mais pertinents, il est possible de calculer les
valeurs théoriques de temps de décohérence dans un certain nombre de cas de figure. Les
valeurs calculées à l'aide de ces modèles dépendent essentiellement de la grandeur de l'objet
considéré et de l'environnement.
Temps de décohérence (en sec) par type d'objet et par environnement5
Poussière (10-3 Agrégat moléculaire
cm)
(10-5 cm)
Molécule
complexe (10-6 cm)
35
10-36 sec
10-32 sec
10 -30 sec
Vide parfait + éclairage soleil 10-21 sec
10-17 sec
10 -13 sec
Dans l'air
Vide intergalactique +
rayonnement 3K
10-6 sec
106 sec ~ 11 jours
10 12 sec ~ 32000
ans
Vide de laboratoire (106
10-23 sec
10-19 sec
10 -17 sec
molécules d'air par cm3)
d) État des lieux de la théorie de la décohérence [modifier]
Aujourd'hui, cette théorie est considérée comme étant l'approche la plus aboutie pour
résoudre le problème de la mesure quantique. Elle a reçu un grand nombre de
confirmations expérimentales. Toutefois des problèmes subsistent, qui ne sont pas
entièrement, ou pas du tout, résolus par cette théorie.
---- États superposés de probabilité non nulle [modifier]
Dans la théorie de la décohérence, l'état est décrit dans le formalisme de la matrice densité, la
base de mesure étant sélectionnée par l'environnement selon un processus nommé einselection
(pour environment induced selection ) par Zurek. Dans cette base, les éléments non diagonaux
de la matrice densité, également appelés cohérences, tendent exponentiellement vers zéro
avec un temps caractéristique très court, mais ne deviennent jamais rigoureusement nuls. Cela
est d'ailleurs théoriquement impossible, car les lois quantiques sont invariantes par
changement de base de l'espace de Hilbert représentant les états quantiques, alors qu'une
diagonalisation parfaite n'est valable que dans une base donnée. Ceci est en contradiction avec
le postulat de réduction du paquet d'onde, qui stipule que les états superposés disparaissent
rigoureusement. La théorie de la décohérence arrive donc à déduire ce postulat, mais que de
manière approchée. Toutefois, les coefficients sont tellement faibles que toute mise en
évidence des états superposés résiduels est absolument impossible en pratique, même si
l'expérience utilise toute la matière et l'énergie de l'univers et ce, même pour des interactions
relativement faibles6. Cela permet donc d'affirmer que la décohérence est en pratique similaire
sur ce point au postulat de réduction du paquet d'onde.
----Unicité de la mesure La décohérence mène non pas à un état unique, comme dans la
réalité, mais à un ensemble d'états mutuellement exclusifs dont les probabilités sont régies
par les lois de la physique quantique.
Par exemple, la matrice densité du chat de Schrödinger évolue par décohérence en
qui signifie que le chat est soit mort avec une probabilité de 0.5 ou soit vivant avec une
ce
36
probabilité de 0.5, et non pas en
ou
comme on aurait pu le souhaiter, car finalement- l'état constaté du chat correspond à une de ces deux dernières matrices.
Ainsi, le mécanisme qui "choisit" l'état final du chat échappe à la théorie de la décohérence.
Or, le postulat de réduction du paquet d'onde stipule que l'état final est bien projeté sur une et
une seule valeur. Ce postulat n'est donc pas entièrement couvert par la théorie de la
décohérence. Les tenants de la théorie de la décohérence opposent à ce constat les
considérations suivantes6 :
•
•
La théorie de la décohérence n'apporte pas d'indications à propos de l'unicité du réel,
mais cette unicité est compatible avec la théorie de la décohérence. On n'en demande
pas plus à une théorie physique.
Etant donné que l'état d'un système représente les informations accessibles sur lui, le
fait que les différents états soient mutuellement exclusifs suite à une décohérence
implique que l'état physique prend bien une et une seule valeur, les autres valeurs
étant inaccessibles. Avec cette définition de l'état d'un système, l'unicité découle
implicitement de l'exclusion mutuelle qui elle-même est une conséquence de la
décohérence. Par transitivité, on peut conclure que l'unicité découle implicitement de
la décohérence.
-----Universalité de la décohérence La question peut se poser de savoir si le
mécanisme de la décohérence s'applique dans tous les cas de figure où s'applique le
postulat de réduction du paquet d'onde. Il s'avère que certains cas importants
échappent au formalisme de la décohérence, notamment ceux où les observables
apparaissent en cours de mesure, comme par exemple dans le cas des chambre à
bulles6. Il n'y a donc aucune preuve formelle que le mécanisme de la décohérence
s'applique à ces cas de figure. Toutefois, il n'y a pas non plus de preuve du
contraire, et l'opinion largement répandue est qu'il est vraisemblable que la
décohérence soit un phénomène universel.
---Interprétation de la matrice densité
La théorie de la décohérence est entièrement fondée sur le formalisme de la matrice densité et
n'est pas prouvée en dehors de ce cadre. Certains physiciens, et notamment Roger Penrose,
soulignent les problèmes de l'utilisation d'une matrice densité pour extrapoler des propriétés
concernant les phénomènes quantiques. Les problèmes sont de deux ordres :
•
•
La matrice densité représente, selon ce point de vue, une approximation du réel car ce
formalisme est utilisé quand le détail du système quantique examiné ne peut être
connu. Rien ne prouve qu'un phénomène crucial n'a pas été négligé dans
l'approximation de la matrice densité (par exemple, la gravitation), ou que des
artefacts n'apparaissent pas, dûs à cette approximation.
Et surtout, une même matrice densité peut avoir un grand nombre d'interprétations
"réelles". Quand la théorie de la décohérence prouve que la matrice densité se
diagonalise, il reste à montrer pourquoi et par quel mécanisme la nature choisit une
interprétation de cette matrice plutôt qu'une autre.
37
Ainsi, la même matrice densité
représenter l'état quantique global :
du chat de Schrödinger peut tout aussi bien
qui est la solution du paradoxe du Chat de Schrödinger selon la théorie de la décohérence,
que :
qui est un état physique tout à fait légal et possible selon les règles quantiques (on arrive
d'ailleurs à superposer réellement de cette manière des paires de particules EPR).
Il reste à démontrer, dans la théorie de la décohérence, pourquoi seule la première possibilité
advient dans la réalité et jamais la seconde, alors que les deux formes sont parfaitement
légales selon la théorie quantique.
-----Décohérence et Réduction du paquet d'onde [modifier]
On voit d'après ce qui précède qu'il ne faut pas confondre décohérence et réduction du paquet
d'onde. Voici un tableau récapitulant les différences :
Réduction du paquet d'onde
Décohérence
Postulat indépendant
Déduit d'un postulat
Durée de la réduction instantanée
Durée dépendante de l'environnement
Les états superposés n'existent plus après la
réduction
États superposés indétectables
Réduction provoquée par un acte de mesure, de
nature subjective
Réduction spontanée, objective
Universalité postulée
Universalité vraisemblable
38
Sélectionne un état unique
Sélectionne un ensemble d'états
mutuellement exclusifs
Il n'est pas encore tranché de savoir si la décohérence est une approximation du postulat de
réduction du paquet d'onde, ou si c'est au contraire le postulat qui approxime la réalité de
la décohérence. Malgré tout, nombreux sont les physiciens penchant vers la deuxième
hypothèse.
Formalisme mathématique de la décohérence [modifier]
Modèle de décohérence Soit une boule macroscopique de rayon R, dans un état superposé de
positions aux coordonnées x1 et x2. Son état quantique est
,
et
étant respectivement l'état de position x1 et x2. On suppose x1 et x2 assez éloignés, et
l'état de position suffisamment centré pour que
et
soient orthogonaux (aucune
influence l'un sur l'autre). Ces deux états peuvent donc appartenir à une base orthonormée. Le
processus de décohérence se déroule dans une base privilégiée, qui est la base propre de
l'observable ayant une intrication minimale (idéalement, nulle) avec l'environnement : ici la
position7. La matrice densité initiale, dans cette base, correspondant à cet état quantique est
très simple :
. Cette boule est plongée dans un environnement constitué de
particules d'impulsion moyenne p, dont la distribution de vitesse (direction) est aléatoire
(typiquement, une atmosphère, ou un éclairage non cohérent et non monochromatique).
Soit une particule d'impulsion p, venant heurter en x la boule dans l'état x1. Sa fonction
d'onde est
. Après le choc, considéré comme élastique, on peut démontrer5 que la fonction
d'onde de la particule devient
.
On constate donc un déphasage de la fonction d'onde de l'environnement à chaque fois qu'une
collision se produit. Ces déphasages s'accumulent au cours du temps, donnant une évolution
dynamique de la matrice densité :
39
, avec
.
Quand t augmente, la matrice densité tend rapidement vers la forme
. On
parle alors de diagonalisation de la matrice. Cet état diagonal est caractéristique d'états
quantiques orthogonaux, et donc mutuellement exclusifs.
ANNEXE 2:L'ATOME
Un article de Wikipédia, l'encyclopédie libre.
Aller à : Navigation, rechercher
Cet article ou cette section est sujet à caution car il ne cite pas suffisamment ses
sources. (mars 2009)
Pour rendre l'article vérifiable, signalez les passages sans source avec {{Référence
nécessaire}} et liez les informations aux sources avec les notes de bas de page. (modifier
l'article)
Un atome (grec ancien ατοµος [atomos], « que l'on ne peut diviser »)1 est la plus petite partie
d'un corps simple pouvant se combiner chimiquement avec une autre. Il est généralement
constitué d'un noyau composé de protons et de neutrons autour desquels se trouvent des
électrons. La taille de son diamètre est de l'ordre de l'ångström, soit 10 -10 m ou 0,1 nm.
La théorie atomiste, qui soutient l'idée d'une matière composée de « grains » indivisibles
(contre l'idée d'une matière indéfiniment sécable), est connue depuis l'Antiquité, et fut en
particulier défendue par Démocrite, philosophe de la Grèce antique. Elle fut disputée jusqu'à
la fin du XIXe siècle, mais n'est plus au XXIe siècle l'objet de la moindre controverse. C'est en
particulier sur cette notion d'atome que reposent les sciences de la matière modernes. L'atome
n'est cependant plus considéré comme un grain de matière insécable, depuis les expériences
de physique nucléaire ayant mis à jour sa structure au début du XXe siècle.
En chimie, les atomes sont les éléments de base. Ils constituent la matière et forment les
molécules en partageant des électrons. Les atomes restent, grosso modo, indivisibles au cours
d'une réaction chimique (en acceptant les légères exceptions que constituent les échanges des
électrons périphériques).
Cependant, depuis le début du XXe siècle, des expériences de physique nucléaire ont mis en
évidence l'existence d'une structure complexe pour le noyau atomique, les constituants de
l'atome étant des particules élémentaires.
40
Représentation d'un atome d'hélium avec, en rose, le noyau atomique et, en noir-gris, le nuage
électronique. Le noyau, magnifié à droite, contient 2 protons et 2 neutrons.
Sommaire
[masquer]
•
•
•
•
•
•
•
•
1 Caractéristiques
2 Histoire de l'atome
o 2.1 Antiquité : un concept philosophique
e
o 2.2 La chimie du XVIII siècle — les éléments
e
o 2.3 La physique du XVIII siècle — les particules
e
o 2.4 XIX siècle — le triomphe de l'atome
o 2.5 Bilan
3 Historique des modèles de l'atome
o 3.1 Modèles obsolètes
3.1.1 Le modèle de J.J. Thomson ou modèle du far aux pruneaux
(plum-pudding)
3.1.2 Le modèle planétaire de Rutherford
o 3.2 Modèles approchés couramment employés
3.2.1 Le modèle des sphères dures
3.2.2 Le modèle de Bohr
4 Le modèle actuel : modèle de Schrödinger
5 Le noyau atomique
6 Notation
7 Notes et références
8 Voir aussi
o 8.1 Articles connexes
41
o
o
8.2 Bibliographie
8.3 Liens externes
Caractéristiques [modifier]
La majeure partie de la masse de l'atome se trouve concentrée dans un très faible volume
(dimension de l'ordre de 10-15 m) : le noyau, composé de deux sortes de particules semblables,
appelées nucléons :
•
les neutrons, particules de charge électrique nulle, et de masse égale à :
mn = 1,67495 ×10-27 kg ;
•
les protons, particules de charge électrique positive égale à :
q=e = 1,602 176 ×10-19 C,
et de masse égale à :
mp = 1,67265 ×10-27 kg.
La masse du proton étant très proche de celle du neutron, il est pratique de caractériser un
noyau par son nombre de nucléons, appelé nombre de masse.
Autour du noyau se trouve le cortège électronique, « un nuage » de particules identiques : les
électrons ; les dimensions de ce nuage électronique (de l'ordre d'un angström, ou 10 -10 m)
correspondent à celles de l'atome.
Les électrons possèdent une charge électrique négative égale à :
-e = -1,602 176 ×10 -19 C,
identique à celle du proton en valeur absolue ; leur masse est bien plus faible que celles des
nucléons (1836 fois moindre) :
me = 9,109 53 ×10-31 kg.
La charge électrique d'un atome est neutre, car le nombre d'électrons (chargés négativement)
du nuage électronique est égal au nombre de protons (chargés positivement) constituant le
noyau. Ainsi, les charges électriques s'annulent d'un point de vue macroscopique.
Les atomes sont susceptibles de se charger électriquement en gagnant ou en perdant un ou
plusieurs électrons : on parle alors d'ions. Du fait qu'un électron a une charge électrique
négative, si un atome gagne un ou plusieurs électrons, la charge de l'atome devient négative
(anion), et s'il en perd, la charge de l'atome devient positive (cation).
Les propriétés physiques et chimiques des atomes dépendent essentiellement du nombre de
protons qui composent leur noyau. Aussi, les atomes sont-ils classés suivant ce nombre,
appelé numéro atomique.
42
La matière constituée d'un ensemble quelconque d'atomes de même numéro atomique est un
corps simple, ou élément chimique. Les atomes ayant un même numéro atomique, mais des
nombres de masse différents (nombre de neutrons différent), sont appelés isotopes.
Les différents éléments chimiques artificiels ou naturels ont été ordonnés en fonction de leurs
propriétés dans le tableau périodique des éléments.
Histoire de l'atome [modifier]
Article détaillé : Frise chronologique de la physique microscopique.
Le concept d'atome est particulièrement bien admis par le grand public, pourtant,
paradoxalement, les atomes ne peuvent pas être observés par des moyens optiques et seuls
quelques rares physiciens manipulent des atomes isolés. L'atome est donc un modèle
essentiellement théorique. Bien que ce modèle ne soit plus aujourd'hui remis en cause, il a
beaucoup évolué au cours du temps pour répondre aux exigences des nouvelles théories
physiques et correspondre avec les différentes expérimentations effectuées.
Antiquité : un concept philosophique [modifier]
Il est probable que plusieurs peuples aient développé la notion de «grain composant la
matière», tant ce concept semble évident lorsque l'on morcelle une motte de terre, ou en
regardant une dune de sable. Dans la culture européenne, ce concept apparaît pour la première
fois dans la Grèce antique au Ve siècle av. J.-C., chez les philosophes présocratiques,
notamment Leucippe, env. 460-370 av. J.-C., Démocrite et, plus tard, Épicure.
Il s'agit d'une conception du monde qui fait partie de la recherche des principes de la réalité,
recherche qui caractérise les premiers philosophes : on suppose que la matière ne peut se
diviser indéfiniment, qu'il y a donc une conservation des éléments du monde, qui se
transforment ou se combinent selon des processus variés. La décomposition du monde en
quatre éléments (eau, air, terre, feu) peut donc compléter cette thèse. L'atomisme est une
solution concurrente, qui naît de l'opposition de l'être et du néant : l'atome est une parcelle
d'être qui se conserve éternellement, sans quoi, les choses finiraient par disparaître. Ce fut,
sans doute, un tournant philosophique majeur, à l'origine du matérialisme et de la critique de
la religion. Cependant, même si l'empirisme épicurien tente d'établir cette hypothèse sur des
bases scientifiques, l'atome demeure une intuition sans confirmations.
La chimie du XVIIIe siècle — les éléments [modifier]
Depuis des millénaires, on a remarqué que les produits se transforment : le feu, la métallurgie
(transformation du minerai en métal), la corrosion (dégradation du métal), la vie, la cuisson
des aliments, la décomposition de la matière organique… Par exemple, pour Empédocle, les
transformations de la matière s'expliquaient de la manière suivante : il y avait quatre types
d'éléments (eau, air, terre, feu) qui s'associaient et se dissociaient, en fonction de l'amour ou
de la haine qu'ils se portaient — les fameux « atomes crochus ». Au Moyen Âge, les
alchimistes ont étudié ces transformations et remarqué qu'elles suivent des règles bien
précises. Vers 1760, des chimistes britanniques commencent à s'intéresser aux gaz produits
par les réactions, afin d'en mesurer le volume et de les peser. Ainsi, Joseph Black, Henry
Cavendish et Joseph Priestley découvrent différents « airs » (c'est-à-dire gaz) : l'« air fixe » (le
43
dioxyde de carbone), l'« air inflammable » (le dihydrogène), l'« air phlogistiqué » (le diazote),
l'« air déphlogistiqué » (le dioxygène)… (Le terme « phlogistique » provient de la théorie du
chimiste allemand Georg Ernst Stahl, au début du XVIIIe siècle, pour expliquer la
combustion ; cette théorie fut balayée par Lavoisier.)
Antoine Laurent de Lavoisier (chimiste français) énonce en 1775 que 2 : « Rien ne se perd,
rien ne se crée, tout se transforme » (formulé d'une manière légèrement différente à l'époque)
signifiant par là que :
•
•
la masse se conserve pendant les réactions chimiques.
Les scientifiques avaient observé que si l'on pesait la matière solide avant et après la
combustion, on avait une variation de masse ; ceci provient d'un échange avec l'air
(l'oxygène s'incorpore et alourdit, le dioxyde de carbone et la vapeur d'eau s'en vont et
allègent). Il suffit pour s'en rendre compte de faire brûler dans une cloche fermée, et
de peser la cloche en entier, somme solide et gaz (compris) : la masse totale ne change
pas. ;
les substances se décomposent en « éléments », c'est l'organisation de ces éléments qui
change lors d'une réaction.
Cette notion marque la véritable naissance de la chimie. Les chimistes ont donc commencé à
recenser les éléments dont sont composées toutes les substances et à créer une nomenclature
systématique — oxygène : qui génère des acides (οξυs signifie « acide » en grec) —
hydrogène : qui génère de l'eau… Par exemple, en 1774, Lavoisier, en suivant les travaux des
chimistes britanniques, établit que l'air se compose en « air vital » (dioxygène) et en « air
vicié et méphitique, mofette » (diazote) ; en 1785, il décompose l'eau (en faisant passer de la
vapeur d'eau sur du fer chauffé au rouge) et montre donc que ce n'est pas un élément, mais
que l'eau est décomposable en éléments (c'est en fait une pyrolyse). Le terme d'« analyse »
provient d'ailleurs de cette notion de décomposition, lusis (λυσιs) signifie « dissolution » en
grec : on décompose les produits (par attaque acide, en les brûlant, en les distillant...) jusqu'à
obtenir des substances simples reconnaissables facilement (l'hydrogène, l'oxygène, le carbone,
le fer...).
On a donc la première constatation expérimentale de la décomposition de la matière en
substances élémentaires.
La physique du XVIIIe siècle — les particules [modifier]
Un autre pas, fait en parallèle, vient de l'étude des propriétés des gaz et de la chaleur
(thermodynamique).
Les fluides (liquides et gaz) sont étudiés en Europe depuis l'Antiquité, mais c'est au milieu du
XVIIe siècle que l'on commence vraiment à cerner leur propriétés, avec l'invention du
thermomètre (thermoscope de Santorre Santario, 1612), du baromètre et du vide pompé
(Evangelista Torricelli, 1643), l'étude de l'expansion des gaz (Gilles Personne de Roberval,
1647), la pression atmosphérique (Blaise Pascal et Florin Perrier, 1648), les relations entre
pression et volume (Robert Boyle en 1660, Edmé Mariotte en 1685), la notion de zéro absolu
(Guillaume Amontons, 1702)...
René Descartes (mathématicien, physicien et philosophe français) émet l'idée, en 1644, que
les gaz sont composés de particules tourbillonnantes. Mais il ne s'agit là encore que d'une
44
conception imagée, sans appui expérimental ; dans le même ordre d'idées, Descartes pensait
que c'était aussi un tourbillon de « matière subtile » qui entraînait la rotation des planètes (ceci
fut mis en défaut par Isaac Newton avec l'attraction universelle en 1687).
Cependant, cette notion de corpuscules inspira d'autres scientifiques. Les mathématiciens
suisses Jakob Hermann (1716) et Leonhard Euler (1729), mais surtout le physicien suisse
Daniel Bernoulli (1733), effectuent des calculs en supposant que les gaz sont formés de
particules s'entrechoquant, et leurs résultats sont en accord avec l'expérience. C'est la
conception « cinétique » des gaz, c'est-à-dire l'explication de la température et de la pression
par des particules en mouvement.
Une autre science se développe à la fin du XVIIIe siècle : la cristallographie. Ce qui intrigue
les scientifiques, c'est l'observation des formes géométriques des cristaux naturels, et leur
capacité à se cliver selon des plans lisses respectant ces symétries. Reprenant l'idée de
classification des êtres vivants de Carl von Linné, on commence à rechercher et classer les
minéraux (Jean-Baptiste Romé de L'Isle, minéralogiste français, 1772). L'abbé René-Just
Haüy (cristallographe français), en 1781, suppose que la forme des cristaux reflète la symétrie
d'une « brique élémentaire », le cristal étant un assemblage de ces briques. On retrouve ici
cette notion de composant élémentaire de la matière.
XIXe siècle — le triomphe de l'atome [modifier]
À ce stade, ressortaient trois notions :
•
•
•
les corps chimiques sont décomposables en substances élémentaires ;
les gaz sont composés de corpuscules qui volent et s'entrechoquent ;
les cristaux sont composés de cellules dont la forme détermine la forme extérieure du
cristal.
Ces notions ont en commun le fait que la matière homogène est composée de corpuscules tous
semblables entre eux, mais trop petits pour être visibles. Les découvertes du XIXe siècle vont
permettre de faire converger ces trois notions, et d'établir les notions de molécule et d'atome.
John Dalton (chimiste et physicien britannique), en 1804, mesure les masses des réactifs et
des produits de réaction, et en déduit que les substances sont composées d'atomes sphériques,
identiques pour un élément, mais différents d'un élément à l'autre, notamment par la masse de
ces atomes. Il découvre également la notion de pression partielle (dans un mélange de gaz, la
contribution d'un gaz donné à la pression totale). Il fut le premier à émettre les idées de la
théorie atomique.
En 1807, Louis Joseph Gay-Lussac (physicien et chimiste français), établit la loi reliant la
température et la pression d'un gaz. En 1808, il établit que les gaz réagissent en proportions
déterminées ; les rapports des volumes des réactifs et des produits de réaction sont des
nombres entiers petits. Le fait que ce soit des nombres entiers, a induit fortement à penser que
la matière n'est pas « continue » (pensée dominante à cette époque), mais faite d'éléments
discontinus.
Amedeo Avogadro (physicien italien), en 1811, énonce, sans preuve, que pour une
température et une pression fixées, un volume donné de gaz contient toujours le même
nombre de molécules, et ce quel que soit le gaz. Il fait également l'hypothèse que les gaz sont
45
polyatomiques, et définit nettement molécules et atomes. André-Marie Ampère (1814), JeanBaptiste Dumas (1827) et William Prout (1834) arrivent à la même conclusion.
En 1821, John Herapath (mathématicien britannique) publie une théorie cinétique des gaz
pour expliquer la propagation des sons, les changements de phase (vaporisation, liquéfaction)
et la diffusion des gaz. Robert Brown (botaniste britannique), en 1827, observe le mouvement
de grains de pollen dans l'eau ; les grains vont en ligne droite, et ne changent de direction que
lors d'un choc avec un autre grain ou bien contre une paroi. C'est de ce comportement, le
« mouvement brownien », que s'inspireront les physiciens pour décrire le mouvement des
molécules de gaz.
Gabriel Delafosse, en 1840, suppose que l'on peut dissocier la composante élémentaire du
cristal et son organisation ; ainsi, la brique élémentaire de Haüy pourrait être un réseau aux
nœuds duquel se trouveraient des « molécules » ; ce serait la forme du réseau qui donnerait la
forme au cristal et non pas nécessairement la forme des molécules. Louis Pasteur (chimiste et
biologiste français), en 1847, établit le lien entre la forme des molécules et la forme des
cristaux (en fait, la molécule donne sa forme au réseau, et le réseau sa forme au cristal).
Auguste Bravais (physicien français), en 1849, détermine les 32 réseaux cristallins possibles.
En 1858, Rudolf Clausius (physicien allemand) définit le libre parcours moyen d'une
molécule dans un gaz (distance moyenne parcourue entre deux chocs). Partant de là, en 1859,
James Clerk Maxwell (physicien écossais) introduit la notion de dispersion statistique des
vitesses des molécules dans la cinétique des gaz. Ceci permit à Ludwig Boltzmann (physicien
autrichien), en 1858, d'estimer la taille des molécules et de définir la répartition statistique des
vitesses dans un gaz.
Dimitri Ivanovitch Mendeleïev (chimiste russe), en 1869, classe les atomes par masse
croissante, et remarque qu'il y a une périodicité dans leurs propriétés chimiques. Il établit
donc un tableau classant les éléments ; les trous dans ce tableau permirent de découvrir de
nouveaux éléments.
Bilan [modifier]
La notion d'atome et de molécule a donc permis le succès de la thermodynamique statistique,
de la chimie et de la cristallographie. À cette notion, vont correspondre des modèles qui seront
affinés au cours du développement de la physique et particulièrement précisés par les
découvertes de la physique quantique durant le XXe siècle, et notamment :
•
•
•
la découverte de l'électron (Joseph John Thomson, 1897) ;
les expériences de déviation des particules alpha par la matière (Ernest Rutherford of
Nelson, 1911) ;
les expériences de diffraction des rayons X sur les cristaux (Max von Laue, 1912).
Historique des modèles de l'atome [modifier]
Dans l'histoire des sciences, plusieurs modèles de l'atome ont été développés, au fur et à
mesure des découvertes des propriétés de la matière. Aujourd'hui encore, on utilise plusieurs
modèles différents ; en effet, le modèle le plus récent est assez complexe, l'utilisation de
modèles « anciens » ou partiellement faux, mais plus simples, facilite la compréhension, donc
l'apprentissage et la réflexion.
46
Depuis l'antiquité grecque, on supposait que la matière pouvait se fractionner en petits
morceaux jusqu'à obtenir des grains insécables, qu'elle était comme « de la poussière dans la
lumière ». C'est avec l'expérience de Rutherford que l'on atteint enfin ce grain : les particules
alpha, en traversant la matière, voient leur trajectoire perturbée, ce qui va permettre enfin de
savoir comment est organisée cette « poussière »...
•
•
•
•
•
1675 : Jean Picard observe une luminescence verte en agitant un tube de baromètre ;
on découvrira quelques siècles plus tard que cela est dû à l'électricité statique et aux
vapeurs de mercure ;
1854 : Geissler et Plücker découvrent les rayons cathodiques, des rayons verts
luminescents lorsque l'on établit une forte tension électrique dans une ampoule dont on
a pompé l'air (faible pression de gaz) ; ils inventent ainsi la lampe à décharge, qui
éclaire maintenant nos supermarchés d'une lumière blanche, nos rues et nos
stationnements d'une lumière orange (lampes au sodium) ;
1897 : J. J. Thomson établit que ces rayons cathodiques sont constitués de particules
chargées négativement arrachées à la matière, et découvre ainsi l'électron ; c'est la
première décomposition de l'atome ;
1900 : Max Planck montre la quantification des échanges d'énergie dans la matière
(recherches sur le corps noir) ;
1911 : expérience de Rutherford : il bombarde une feuille d'or par des particules alpha
(des noyaux d'hélium, chargés positivement, obtenus par radioactivité) ; il en déduit
que :
o la plupart des particules vont en lignes droites, donc la matière est « pleine de
trous » ;
o mais certaines sont déviées et même rebroussent chemin, donc elles
rencontrent des îlots très concentrés de matière chargée positivement (les + se
repoussent entre-eux).
Il en déduit le modèle atomique planétaire : l'atome est constitué d'un noyau positif
très petit et d'électrons tournant autour ; ce modèle pose un gros problème : en
tournant, les électrons devraient perdre de l'énergie par rayonnement, et donc s'écraser
sur le noyau… (ex.: Capture K)
•
•
•
•
1913 : Niels Bohr réunit les concepts de Planck et de Rutherford, et propose un
modèle atomique quantique: les orbites des électrons ont des rayons définis, il n'existe
que quelques orbites « autorisées » ; ainsi, les échanges d'énergie quantifiés
correspondent à des sauts entre les orbites définies, et lorsque l'électron est sur l'orbite
la plus basse, il ne peut pas descendre en dessous et s'écraser (mais ce modèle
n'explique pas pourquoi) ;
1914 : l'expérience de Franck et Hertz valide le modèle de Bohr : ils bombardent de la
vapeur de mercure avec des électrons ; l'énergie cinétique perdue par les électrons
traversant les vapeurs est toujours la même ;
1924 : Louis de Broglie postule la dualité onde-corpuscule ;
1926 : Schrödinger modélise l'électron comme une onde, l'électron dans l'atome n'est
donc plus une boule mais un « nuage » qui entoure le noyau ; ce modèle,
contrairement aux autres, est stable car l'électron ne perd pas d'énergie.
Modèles obsolètes [modifier]
47
Les modèles présentés dans cette section sont trop éloignés de la réalité pour pouvoir être
utilisés. Ils ne sont présentés ici qu'à titre historique.
Le modèle de J.J. Thomson ou modèle du far aux pruneaux (plum-pudding) [modifier]
Article détaillé : Modèle de Thomson.
Le pudding de Thomson, la charge positive est répartie dans un tout petit volume qui est
parsemée d'électrons
Avec la découverte de l'électron en 1897, on savait que la matière était composée de deux
parties : une négative, les électrons, et une positive, le noyau. Dans le modèle imaginé alors
par Joseph John Thomson, les électrons, particules localisées, baignaient dans une « soupe »
positive, à l'image des pruneaux dans le far breton (ou dans le plum-pudding pour les
Britanniques ou encore comme des raisins dans un gateau). Ce modèle fut invalidé en 1911
par l'expérience d'un de ses anciens étudiants, Ernest Rutherford.
Le modèle planétaire de Rutherford [modifier]
L'expérience de Rutherford met en évidence que les charges positives ne sont pas « étalées »
entre les électrons, mais sont concentrées en de petits points. Il bombarda une fine feuille d'or
par un faisceau de particules alpha (particules de charges électriques positives). Il observa que
les particules étaient déviées faiblement, ce qui ne correspondait pas au résultat prévu par le
modèle de Thomson, pour lequel, elles n'auraient pas dû la traverser.
Rutherford imagine donc un modèle planétaire : l'atome est constitué d'un noyau positif
autour duquel tournent des électrons négatifs. Entre le noyau - très petit par rapport à l'atome
(environ 100 000 fois) - et ses électrons, un très grand vide existe.
Ce modèle fut très vite mis en défaut par les équations de Maxwell d'une part, qui prédisent
que toute charge accélérée rayonne de l'énergie, et par les expériences montrant la
quantification des niveaux d'énergie d'autre part.
Modèles approchés couramment employés [modifier]
Le modèle des sphères dures [modifier]
Le modèle le plus simple pour représenter un atome est une boule indéformable. Ce modèle
est très utilisé en cristallographie. Une molécule peut se voir comme plusieurs boules
accolées, un cristal comme des boules empilées. On utilise parfois une représentation
48
« éclatée » : les atomes sont représentés comme des petites boules espacées, reliées par des
traits, permettant de faire ressortir les directions privilégiées, les angles et de visualiser le
nombre des liaisons.
modèle des sphères dures pour représenter l'atome ; représentation d'une molécule d'eau et
d'un cristal cubique à faces centrées, compacte (gauche) et éclatée (à droite)
Ce modèle correspond bien à certaines propriétés de la matière, comme, par exemple, la
difficulté de comprimer les liquides et les solides, ou bien le fait que les cristaux ont des faces
bien lisses. En revanche, il ne permet pas d'expliquer d'autres propriétés, comme la forme des
molécules : si les atomes n'ont pas de direction privilégiée, comment expliquer que les
liaisons chimiques révèlent des angles bien définis ?
Le modèle de Bohr [modifier]
Modèle de l'atome de Bohr : un modèle planétaire dans lequel les électrons ont des orbites
définies
Article détaillé : modèle de Bohr.
Un modèle fut développé par Niels Bohr en 1913 à partir des propriétés mises en évidence par
Planck et Rutherford. Dans le modèle des sphères dures, l'atome est un objet entier,
indécomposable. Or, on sait depuis le milieu du XIXe siècle que l'on peut en « arracher » des
particules portant une charge électrique négative, les électrons. Dans le modèle de Bohr,
l'atome est composé d'un noyau chargé positivement, et d'électrons tournant autour, les rayons
des orbites des électrons ne pouvant prendre que des valeurs bien précises.
49
Le noyau est très compact, d'un diamètre d'environ 10-15 à 10-14 m, c'est-à-dire que le noyau
est cent mille à un million de fois plus petit que l'atome ; il porte une charge électrique
positive. C'est aussi la partie la plus lourde de l'atome, puisque le noyau représente au moins
99,95% de la masse de l'atome. Les électrons sont ponctuels, c'est-à-dire que leur rayon est
admis quasi nul (tout du moins plus petit que ce que l'on peut estimer). Ils portent une charge
négative. Pour des raisons de lisibilité, le schéma ci-dessous n'est donc pas à l'échelle, en ce
qui concerne les dimensions du noyau et des électrons, ni aussi pour les rayons des différentes
orbites (on notera ici que le nombre d'électrons sur les orbites n'est pas prédit par le modèle).
Cette vision permet de décrire les phénomènes spectroscopiques fondamentaux, c'est-à-dire le
fait que les atomes absorbent ou émettent seulement certaines longueurs d'onde (ou couleur)
de lumière ou de rayons X. En effet, le système {noyau+électrons} étant stable et confiné,
d'énergie négative, il ne possède qu'un ensemble discret d'états (et donc de niveaux)
d'énergie : c'est le passage d'un état à l'autre de l'atome qui provoque une émission discrète
d'énergie, ce qui explique donc les raies spectroscopiques des atomes. Le modèle de Bohr,
décomposant l'atome en deux parties, un noyau et un nuage d'électrons, est plus précis que le
modèle des sphères dures, pour lequel la surface de la sphère correspond à l'orbite des
électrons extérieurs.
Cependant, très vite, le modèle de l'atome de Bohr ne permettra pas d'expliquer l'ensemble
des observations (effet Zeeman, etc.). Il faudra attendre 1924-1926 pour qu'avec Schrödinger,
les orbites deviennent orbitales avec des énergies stationnaires : la Mécanique Quantique est
née.
Le modèle actuel : modèle de Schrödinger [modifier]
Article détaillé : Théorie de Schrödinger de l'atome d'hydrogène.
La naissance de la mécanique ondulatoire de Louis de Broglie 1924, généralisée par Erwin
Schrödinger en 1926 amène à proposer un nouveau modèle, dont les aspects relativistes furent
décrits par Paul Dirac en 1928 ; il permet d'expliquer la stabilité de l'atome et la description
des termes spectroscopiques.
Dans ce modèle, les électrons ne sont plus des billes localisées en orbite, mais des nuages de
probabilité de présence. Ce point de vue, révolutionnaire, peut choquer en première approche.
Cependant la représentation que l'on pouvait se faire d'un électron — une petite bille ? — était
dictée par les formes observées dans le monde macroscopique, transposées sans preuves dans
le monde microscopique. Il faut bien se pénétrer du fait que ce que l'on connaît de l'électron
ne repose que sur des manifestations indirectes : courant électrique, tube cathodique
(télévision)…
Depuis les années 1930, on modélise ainsi l'électron par une « fonction d'onde » dont le carré
de la « norme représente la densité de probabilité de présence ». Pour représenter fidèlement
les propriétés de l'électron, on ne dispose que des fonctions mathématiques compliquées.
Cette abstraction rebute encore bien des physiciens. Nous allons essayer de donner une image
de cette notion de fonction d'onde, image nécessairement imparfaite.
50
Imaginons que hors de l'atome, l'électron soit une petite bille. Lorsque l'électron est
capturé par l'atome, il se « dissout » et devient un nuage diffus, il s'« évapore ». Quand
on l'arrache de l'atome, il redevient une petite bille, il se « recondense ». Il existe
d'autres exemples d'objet qui changent de forme, par exemple, hors de l'eau, le sel est
sous forme de cristaux ; mis dans l'eau, il se dissout, et si l'on fait s'évaporer l'eau, on
retrouve des cristaux. Le sel change de forme (cristal compact ou dissous dans l'eau),
mais on a tout le temps du sel.
Image simplifiée de l'arrachement d'un électron du nuage électronique dans le modèle de
Schrödinger
De manière un peu plus exacte : un électron, hors d'un atome, est représenté par un paquet
d'ondes, qui peut être considéré, dans certaines limites, comme une petite bille. La mécanique
quantique démontre qu'un tel paquet d'ondes s'étale au cours du temps ; au contraire, un
électron d'un atome conserve la structure de la fonction d'onde associée à l'orbite qu'il occupe
(tant qu'il n'est pas éjecté de l'atome). La mécanique quantique postule donc, non la
conservation de la forme (non connue) de l'électron, mais l'intégrale de la probabilité de
présence.
Dans le modèle de Schrödinger, les nuages correspondant aux différents électrons
s'interpénètrent ; il n'est pas question de se donner une représentation individuelle des
électrons chacun sur son orbite, comme cela était dans le cas du modèle de Bohr. Cela est
d'autant plus vrai que les électrons sont des particules identiques indiscernables. Les effets
d'échange amènent à considérer que chaque électron de l'atome est à la fois sur chaque
orbitale occupée (correspondant à une configuration électronique donnée). L'ionisation de
l'atome (l'arrachement d'un électron de l'atome) peut alors être représentée par le schéma
simplifié ci-dessous.
Pour éviter des complications inutiles, on considérera l'atome le plus simple afin de montrer
quelques schémas dévoilant les points fondamentaux du modèle :
•
le nuage électronique associé à l'état fondamental, révélant (comme d'autres états) la
possibilité pour l'électron d'être au sein du noyau, ce qui a des conséquences en
physique nucléaire : capture électronique.
•
le nuage électronique associé à une combinaison linéaire de deux orbitales associées
au premier niveau excité. Cet exemple montre la possibilité d'obtenir des nuages
électroniques pointant vers l'extérieur de l'atome… nous sommes ainsi préparés aux
liaisons moléculaires.
Soit ρ(r, θ, φ) la densité de probabilité de présence au point de coordonnées sphériques (r, θ,
φ). Pour l'état fondamental, la densité de probabilité, ρ, est maximale au centre de l'atome.
Considérons maintenant la densité radiale de probabilité de présence (à la distance r du
noyau, toutes les directions confondues) :
51
,
cette densité radiale est maximale pour r = r1 de la première orbite du modèle de Bohr (dans
l'expression ci-dessus, on a tenu compte de la symétrie sphérique de ρ, identique pour toutes
les directions). on a en fait :
ρ(0,0,0) > ρ(r1,0,0), mais P(0) < P(r1).
Densité de probabilité de présence de l'électron, état fondamental de l'hydrogène — la densité,
dans un plan xy, section droite passant par le centre de l'atome, est indiquée par des niveaux
de gris (elle est maximale au centre). La courbe en superposition (axe 0r) donne la densité de
probabilité radiale en fonction de la distance r, c'est-à-dire la probabilité d'être en r toutes
directions confondues : elle est maximale pour le premier rayon de Bohr (0,0529 nm).
En fonction de l'état quantique de l'électron (fondamental, excité …) ces nuages peuvent
prendre différentes formes, qui sont décrites en particulier par les harmoniques sphériques. La
forme la plus simple est la symétrie sphérique, montrée en particulier, ci-dessus, dans le cas
de l'état fondamental, |1s>.
52
Des combinaisons linéaires de fonctions d'onde, utilisant des harmoniques sphériques
distinctes, permettent l'apparition d'une anisotropie qui va devenir essentielle pour le passage
de la notion d'atome à celle de molécule. Le schéma ci-contre montre une coupe de la densité
de probabilité de présence de l'orbitale hybride |2spz > de l'atome d'hydrogène, coupe
contenant Oz axe de symétrie de l'orbitale atomique. Pour cet exemple, l'axe Oz devient une
direction privilégiée, mais de plus la densité de probabilité de présence s'étale plus loin pour
une orientation donnée.
Ce modèle permet d'expliquer :
•
•
•
•
la stabilité de l'atome, les charges sont accélérées, mais elles sont contraintes par la
mécanique quantique (relations d'incertitude) ;
la forme des molécules : orientation préférentielle des nuages électroniques ;
l'organisation des cristaux : le nuage électronique se comporte comme une coquille
dure ;
les effets spectroscopiques (la quantification des échanges d'énergie) : le nuage ne peut
prendre que des formes déterminées, notamment en ce qui concerne la distance r1 du
maximum de densité au noyau.
On notera pour terminer que des corrections relativistes sont à apporter, dans le cas des
atomes de numéro atomique élevé, pour la détermination des niveaux internes (les vitesses
des électrons sur les orbites du modèle de Bohr sont alors importantes).
Le noyau atomique [modifier]
Article détaillé : Noyau atomique.
Si la mécanique quantique permit d'expliquer rapidement les caractéristiques
spectroscopiques des atomes et des molécules, le cœur de l'atome, son noyau, fut plus difficile
à comprendre. Les difficultés sont ici de deux ordres : l'une correspondant à l'importance de
l'énergie des particules sondes permettant d'atteindre les dimensions de l'ordre du fermi,
l'autre à la nécessaire invention d'au moins une interaction supplémentaire permettant la
stabilité d'un noyau constitué de protons (qui se repoussent électriquement) et de neutrons.
Cette compréhension de la cohésion du noyau devait aussi expliquer les phénomènes de
radioactivité alpha, bêta et gamma, dont les premières observations dataient de la dernière
décennie du XIXe siècle.
La décennie qui précéda la Seconde Guerre mondiale mena à la découverte des deux
interactions maîtresses de la stabilité du cœur : l'interaction forte et l'interaction faible. La
petitesse de la portée de ces deux interactions, respectivement 10-15 m et 10 -18 m explique les
difficultés expérimentales rencontrées. Les difficultés théoriques ne manquent pas, non plus ;
il ne s'agit pas de lois physiques aussi simples que celles de l'électromagnétisme, même
compliquées par la mécanique quantique, mais de la compréhension de toutes les particules
élémentaires… L'invention des quarks et des gluons donne ainsi la vision actuelle de
l'interaction qui maintient ensemble les nucléons.
53
Cette physique nucléaire mène aussi à l'explication de la nucléosynthèse, expliquant les
aspects nucléaires tableau de Mendeleïev. On se retrouve là dans le foisonnement de la
naissance de l'univers et de la dynamique des étoiles.
Notation [modifier]
Un atome est couramment désigné par son symbole chimique, complété par son nombre de
masse A (égal au nombre de nucléons de l'atome) placé en haut et à gauche du symbole.
Exemple: le carbone 12 de nombre de masse 12 est noté
.
Il est d'usage de compléter cette écriture par le numéro atomique Z, placé en bas et à gauche
du symbole, pour décrire une réaction nucléaire dans laquelle intervient un isotope.
Le carbone 12 est ainsi noté
Ainsi, le carbone 14
.
et le carbone 12
sont deux isotopes.
ANNEXE 3 LES MOLECULES
Représentation 3D d'une molécule de saccharose.
Une molécule est un assemblage d'atomes dont la composition est donnée par sa formule
chimique. Le mot molécule vient du latin molecula/moles désignant une petite masse de
matière, ou un grain de matière.
Une molécule est un granule de matière susceptible de se déplacer parmi d'autres. Cet
assemblage n'est pas définitif, il est susceptible de subir des modifications, c’est-à-dire de se
transformer en une ou plusieurs molécules autres ; une telle transformation est appelée
réaction chimique.
En revanche, les atomes qui la constituent sont des particules beaucoup plus stables, qui se
conservent durant une réaction chimique car la transformation d'atomes, appelée
transmutation, nécessite des apports d'énergie beaucoup plus importants faisant l'objet des
réactions nucléaires.
Exemples de formule chimique:
•
•
la molécule de méthane CH4 est constituée d'un atome de carbone (C) et de quatre
atomes d'hydrogène (H) ;
la molécule de dioxygène O2 est constituée de deux atomes d'oxygène (O).
54
Sommaire
[masquer]
•
•
•
•
•
•
1 Histoire du concept
2 Caractéristique
o 2.1 Ordonnancement
o 2.2 Stabilité
o 2.3 Les macromolécules
3 Les corps non moléculaires
4 Dans l'espace interstellaire
5 Notes et références
6 Voir aussi
o 6.1 Articles connexes
o 6.2 Liens externes
Histoire du concept [modifier]
Article détaillé : Historique du concept de molécule.
Le concept de molécule a été présenté la première fois en 1811 par Amedeo Avogadro, qui a
su surmonter la confusion faite à cette époque entre atomes et molécules, en raison des lois
des proportions définies et multiples de John Dalton (1803-1808).
L'analyse d'Avogadro a été acceptée par beaucoup de chimistes, à des exceptions notables
(Boltzmann, Maxwell, Gibbs). Mais l'existence des molécules est restée en discussion ouverte
dans la communauté scientifique jusqu'au travail de Jean Perrin (1911) qui a alors confirmé
expérimentalement l'explication théorique du mouvement brownien en termes d'atomes
proposée par Albert Einstein (1905). Jean Perrin1 a également recalculé le nombre d'Avogadro
par plusieurs méthodes.
Caractéristique [modifier]
Ordonnancement [modifier]
Les molécules d'un corps sont en agitation permanente (sauf au zéro absolu). Cette agitation,
appelée mouvement brownien, a été décrite la première fois par Robert Brown en 1821 dans
les liquides (mais expliquée presque 100 ans plus tard).
Quand le corps est à l'état de gaz, les molécules sont très espacées, très agitées, avec des
mouvements désordonnés provoqués par les chocs entre elles ou avec les corps solides avec
lesquelles elles sont en contact (parois).
Quand le corps est à l'état liquide, l'espace entre les molécules est beaucoup plus restreint,
l'agitation beaucoup plus lente.
55
À l'état solide, les molécules sont rangées selon un empilement, régulier ou non, et vibrent
autour d'une position moyenne.
La température d'un corps donne une indication du degré d'agitation des molécules.
Les forces d'interaction de très faible intensité qui s'exercent à distance entre les molécules,
appelées forces de Van der Waals conditionnent ces arrangements et par conséquent les
propriétés physiques des composés moléculaires. Ainsi, par exemple, les propriétés physiques
exceptionnelles de l'eau sont dues pour beaucoup aux liaisons hydrogène.
Stabilité [modifier]
Les molécules sont des ensembles a priori électriquement neutres, dans lesquels les atomes
sont liés entre eux majoritairement par des liaisons covalentes,(il existe de nombreux
exemples d'assemblages supra-moléculaires par liaisons Van der Waals, hydrogène ou
ioniques), où apparaissent parfois des dissymétries électroniques pouvant aller jusqu'à donner
des ions par solvatation (solvants polaires). Dès lors, on doit conclure que le dihydrogène
(H2), le dichlore, le difluor et tant d'autres gaz diatomiques, sont électriquement neutres. Ce
qui laisse entendre que lorsqu'ils sont isolés, ils sont zérovalents, pour respecter l'équivalence
qu'il doit y avoir dans toute équation équilibrée en charges et globalement neutre comme : 2
H2 + O2 = 2H2O. Ici, dans la partie des réactants, le dihydrogène et le dioxygène sont des
molécules isolées et donc n'ont pas de charge propre, comme H2O (bien que molécule
polaire). L'équation chimique vérifie donc la neutralité de la charge globale.
La forme et la taille d'une molécule (ou de l'une de ses parties) peut jouer un rôle dans son
aptitude à réagir. La présence de certains atomes ou groupes d'atomes à l'intérieur d'une
molécule joue un rôle majeur dans sa capacité à se rompre ou à fixer d'autres atomes issus
d'autres corps, c’est-à-dire à se transformer pour donner naissance à d'autres molécules.
Les différents modes de représentation des molécules sont destinés à expliciter les différents
sites réactifs ; certains enchaînements d'atomes, appelés groupes fonctionnels produisent ainsi
des similitudes de propriétés, tout particulièrement dans les composés organiques.
Les macromolécules [modifier]
Les molécules possédant au moins plusieurs dizaines d'atomes sont appelées macromolécules.
Exemples : Les matières plastiques sont faites essentiellement de chaînes d'atomes de carbone
pouvant contenir plusieurs dizaines de milliers d'atomes, d'où des propriétés physiques tout à
fait intéressantes. Les protéines, les lipides, les sucres, les acides nucléiques tel l'ADN et
autres biomolécules de grandes tailles sont également des macromolécules où la grande
variété des liaisons chimiques internes induisent une réactivité chimique souvent très sélective
jouant un rôle majeur dans l'activité biologique des êtres vivants.
Les corps non moléculaires [modifier]
Il existe deux autres grandes catégories de corps purs non moléculaires :
56
•
•
les métaux, qui contiennent une seule sorte d'atomes tous liés les uns aux autres par
mise en commun globale et délocalisée d'électrons, appelée liaison métallique,
les composés ioniques qui regroupent des atomes (ou groupement d'atomes) dont
certains supportent un excès d'électrons (anions) répartis parmi d'autres acceptant un
déficit d'électrons (cations), la cohésion de l'ensemble est alors assurée par les forces
électriques présentes et appelée liaison ionique.
Dans l'espace interstellaire [modifier]
Les couches externes des étoiles contiennent, malgré les températures extrêmes qui y règnent,
des molécules, comme le monoxyde de carbone. Les comètes et les atmosphères gazeuses des
planètes contiennent une plus grande variété de molécules.
Dans l'espace interstellaire, où la probabilité de rencontre entre atomes est très faible, il existe
des assemblages instables (radicaux) d'une diversité restée longtemps inconnue qui est peutêtre à l'origine des premières molécules du monde du vivant.
Notes et références [modifier]
1.
↑ Jean Perrin qui a d'ailleurs donné son nom à un collège à Béziers.
ANNEXE
Les cristaux
Cristal
Un article de Wikipédia, l'encyclopédie libre.
Aller à : Navigation, rechercher
Pour le champagne, voir Cristal (champagne). Pour les autres significations, voir Cristal
(homonymie).
Cristal est un terme usuel pour désigner un solide aux formes régulières, bien que cet usage
diffère quelque peu de la définition scientifique de ce mot. Selon l'Union internationale de
cristallographie, tout solide dont le spectre de diffraction est essentiellement discret est un
cristal. Sur la base d'une propriété structurelle essentielle, cette définition englobe les cristaux
classiques mais aussi une variété récemment établie qu'on a appelée quasi-cristal. Les
propriétés empiriques des cristaux s'expliquent par deux facteurs : leur composition atomique
et l'arrangement spatial des atomes.
Les cristaux les plus communs sont la neige, le sucre, les sels, les silicates, les oxydes, les
sulfures, les métaux et les pierres précieuses (gemmes). Ainsi, traditionnellement, le cristal est
un solide polyédrique, plus ou moins brillant, à structure régulière et périodique, formée d'un
empilement ordonné d'un grand nombre d'atomes, de molécules ou d'ions.
57
Cristaux.
« Ordonné » signifie qu'un même motif est répété à l'identique selon un réseau régulier. La
plus petite partie du réseau permettant de recomposer l'empilement est appelée une maille.
« Grand nombre » résulte des grandes dimensions du cristal (quelques micromètres à
plusieurs millimètres) en comparaison avec la taille d'une maille : typiquement quelques
dixièmes de nanomètres.
On appelle phénocristal un cristal de taille exceptionnelle, mais la plupart des cristaux qu'on
observe sont composés de plusieurs cristaux accolés (ou cristallites). Dans le premier cas on
parle de « monocristal » et dans le second de « polycristal ». Un monocristal dont l'une des
dimensions est inférieure à 100 nm est une nanoparticule qu'on appelle aussi nanocristal. Si
cette dimension est réduite au minimum, c'est-à-dire à une seule couche d'atomes, on observe
un cristal monoplan, tel le graphène.
Un cristal idéal ne comporte pas de défauts cristallins, mais les cristaux réels sont loin de cette
perfection. Au-delà d'une certaine concentration des défauts, le concept de structure cristalline
cesse d'être utile et l'on considère que c'est un matériau amorphe tel que le verre. L'état
amorphe s'apparente fortement à l'état liquide mais il existe aussi des cristaux liquides.
Sommaire
[masquer]
•
•
•
•
1 Historique
o 1.1 La science classique des cristaux
o 1.2 La science contemporaine des cristaux
2 Notes et références
3 Voir aussi
4 Liens externes
Historique [modifier]
L'observation des cristaux est loin d'être récente. Déjà les Égyptiens connaissaient la turquoise
et les gemmes (diamant, saphir, émeraude, rubis) étaient très appréciés au temps de l'antiquité.
En 64 avant J.-C., Strabo invente le mot Krystallos pour désigner le quartz. Il est évident que
58
les cristaux ont toujours fasciné tant par leur aspect translucide et coloré que par leur forme
facettée. Ces deux aspects sont intimement liés aux propriétés physiques propres aux cristaux
et au fait qu'ils soient ordonnés. Cependant cet ordre est resté fort longtemps incompris.
L'histoire de la cristallographie s'étale principalement sur deux siècles (XIXe et XXe siècles).
À partir de la fin du XVIIIe siècle, l'approche que l'on va avoir du monde des cristaux va être
d'ordre purement géométrique, inspirée en cela par l'extrême rigidité du monde minéral.
Domaine réservé tout d'abord aux naturalistes, la cristallographie va prendre son envol en
France essentiellement au cours des XIXe et XXe siècles et sera marquée principalement par
trois figures : Jean-Baptiste Romé de l'Isle, René Just Haüy et Auguste Bravais.
La science classique des cristaux [modifier]
Romé de l'Isle, en reprenant les travaux de Stenon, remarque en 1772 que, bien que les faces
des cristaux soient en général de tailles différentes du fait même de leur croissance, deux
faces adjacentes forment toujours entre elles des angles égaux. Cette loi tout à fait générale
ouvre la voie à une description unique de l'ensemble des cristaux en termes purement
géométriques. Cependant il n'arrivera pas à déterminer l'ensemble des formes à partir de ce
principe unique.
Construction de Haüy
C'est l'abbé René Just Haüy qui va réaliser le bond en avant et ceci par une découverte
fortuite ! En faisant tomber un cristal de calcite, il découvre qu'en se brisant, les fragments de
tailles différentes présentent toujours le même caractère de facette que le cristal d'origine.
Hauy en déduit que le cristal d'origine peut être décrit par un empilement de « molécules »
semblables qu'il nomme « molécule intégrante ». Celles-ci, de forme parallélépipédique,
s'emboîtent parfaitement pour constituer un solide homogène. D'après ce principe, la forme
d'un cristal va dépendre du nombre d'éléments le composant, de sorte que les faces du cristal
soient formées de minuscules gradins. En effectuant ainsi ce qu'il appelle le « décroissement
égal sur tous les sommets », et qui consiste simplement à enlever des parallélépipèdes en
nombre décroissant à partir des sommets ou d'une arête de la forme complète, il explique un
grand nombre de formes naturelles (par exemple à partir d'un cube, on peut par décroissement
à partir des sommets obtenir une morphologie octaédrique, comme par exemple celle de la
fluorine). Il retrouve ainsi la loi de Rome de L'Isle sur la constance des angles puisque pour
un empilement les angles sont conservés, et explique du même coup la notion de clivage.
59
Son travail ne s'arrête pas là puisqu'il trouve de façon mathématique que beaucoup de formes
idéalisées peuvent être décrites par 3 types de parallélépipédiques, dits primitifs. Du même
coup, il montre l'impossibilité de construire un cristal avec des prismes pentagonaux,
octogonaux. Gabriel Delafosse, élève d'Hauy remplacera le terme de molécule intégrante par
celui de « maille élémentaire », terme qui restera à la postérité. Cependant, les déductions
d'Hauy ne sont pas complètes pour décrire l'ensemble des structures cristallographiques. Ceci
nous amène à la définition du cristal, plus précisément du réseau cristallin, comme étant la
répétition d'une maille élémentaire dans les trois directions de l'espace : un cristal est un objet
périodique.
Les travaux d'Hauy vont être repris par Weiss lequel va recenser les faces d'un cristal par
rapport à des éléments de symétrie. Ce principe très important en physique va guider toute la
cristallographie. Ainsi, pour passer d'une face à l'autre, il est possible d'appliquer une
opération de symétrie qui peut être une rotation, une inversion par rapport à un centre.
La pyrite et ses éléments de symétries : un axe d'ordre 3 sur les sommets, un axe d'ordre 2 sur
les arêtes, d'ordre 4 sur les faces1.
En 1848, Auguste Bravais rend une étude purement mathématique sur la classification des
cristaux. Il décrit l'ensemble des structures possédant des symétries d'orientation compatibles
avec la triple périodicité des cristaux dans les trois directions de l'espace (symétrie de
translation). Il trouve ainsi 32 classes de symétrie réparties en 14 types de réseaux, les réseaux
de Bravais que l'on peut regrouper en 7 systèmes définissant la forme de la maille
élémentaire. Cette analyse affirme simplement que l'on ne peut disposer les points d'un réseau
de façon arbitraire. Prenons le cas plus simple d'un réseau du plan (les résultats se généralisent
à 3D).
L'ère purement géométrique venait de finir, elle avait permis la classification exhaustive de
l'ensemble des structures, reste à savoir ce qu'était véritablement une structure réelle. En cette
fin de XIXe siècle, la physique est en ébullition tant le concept d'atome bouleverse les règles
établies. La théorie atomiste naissante est en partie bâtie à partir des conclusions fournies par
la cristallographie. Gabriel Delafosse en introduisant le concept de maille avait déjà pressenti
que l'on pouvait dissocier organisation et composant élémentaire : le cristal peut être décrit
par une maille élémentaire décorée par un motif atomique.
60
Réseau + motif = cristal
La découverte de la nature réticulaire des cristaux, c'est-à-dire le fait que l'on puisse décrire
les structures comme un ensemble de familles de plans (un empilement de couches d'atomes),
chaque plan d'une même famille étant séparé d'une distance constante, la distance
interréticulaire, a des conséquences importantes. Elle est due à Max von Laue2 qui découvre
que les rayons X sont diffractés par la matière cristalline. Ce phénomène a lieu lorsque que la
taille de la fente par laquelle on fait traverser un rayonnement est de l'ordre de la longueur
d'onde. Pour un cristal, la distance entre deux plans est de l'ordre de la distance entre atomes,
c'est-à-dire 1/10 de milliardième de mètre3. Dans ce cas pour obtenir le phénomène de
diffraction, il faut un rayonnement dont la longueur d'onde est très courte. Cette condition est
réalisée par les rayons X et c'est grâce à eux que l'on peut sonder la matière ! En particulier
lorsqu'on éclaire un cristal dans une orientation particulière, le rayonnement n'est diffracté que
dans des directions spécifiques : on obtient des clichés dits de diffraction, un réseau de taches
qui a les mêmes symétries que le cristal.
Maille du chlorure de sodium : un atome de chlore (vert) et un atome de sodium (bleu)
forment le motif élémentaire qui se retrouve aux sommets et aux centres des faces d'un cube
élémentaire.
Le travail de caractérisation des structures cristallines fut alors engagé par William Lawrence
Bragg4 aidé par son père et ne cessa de se développer avec un grand succès.
61
Il a ainsi été possible d'identifier un grand nombre de structures. Par exemple, les métaux
cristallisent selon trois types de réseaux : cubique centre (fer, chrome), cubique faces centrées
(aluminium, cuivre), et hexagonal (zinc, titane). D'autres structures cristallisent aussi. C'est
par exemple les protéines, les virus. L'exemple reste le plus célèbre est celui de la molécule
d'ADN, constituant élémentaire de nos cellules. En 1953, Crick et Watson découvrent la
structure en double hélice de cette molécule grâce à l'analyse des clichés de diffraction
réalisés dans l'ombre par R. Franklin de la molécule cristallisée.
Le sel de mer est lui aussi un cristal : celui de chlorure de sodium (NaCl) qui cristallise selon
un réseau cubique faces centrées. Dans ce cas on comprend mieux la notion de maille et de
motif atomique décorant la maille.
Cristallisation
Article détaillé : Cristallisation.
Un cristal naît, si la température d'une coulée descend assez lentement sous le point de fusion
et que le mouvement thermique des différents atomes atteint une valeur si faible que les
connexions réciproques ne peuvent plus être fracturées par des oscillations - on vient en
formation d'un treillis uniforme qui est marqué par un ordre à distance. Ce treillis uniforme a
une plus faible enthalpie libre que le verre amorphe, qui se dispose seulement un ordre local
(la disposition locale des atomes ne se répète pas régulièrement dans un verre) . On qualifie ce
processus de cristallisation. Dans les cas où la température d'une coulée descend rapidement
différents phénomènes sont observés et les solides ainsi obtenus peuvent avoir de propriétés
bien particulières.
La science contemporaine des cristaux [modifier]
Au début des années 1980, travaillant sur un alliage d'aluminium et de manganèse rapidement
solidifié Dan Schechtman obtint un spécimen cristallique qui présentait un cliché de
diffraction très particulier. Le cliché était très net, ce qui indiquait une structure cristalline,
mais il présentait une symétrie pentagonale qui selon la théorie bien établie était impossible.
Différentes explications furent avancées mais bientôt il fallut se rendre à l'évidence : une
nouvelle variété de cristaux avait été découverte. Trois autres chercheurs, I. Blech, J. W. Cahn
et Denis Gratias ont signé avec Schechtman l'article fondateur, paru en 1984 5. Cette
publication signale le début d'une véritable révolution scientifique: d'abord une controverse,
amenant bientôt un renversement d'opinion, et que suit la découverte rétrospective des cas
occultés auparavant. Les cristaux classiques et bien connus sont depuis considérés comme un
cas particulier: ce sont des cristaux périodiques. Dans une autre catégorie on classe les
cristaux apériodiques ou sont inclus les cristaux incommensurables reconnus avant la
découverte de ceux qu'on appelés quasi-cristaux. Au début des années 1990, l'Union
internationale de cristallographie a adopté une nouvelle définition de son objet principal, le
cristal. Ainsi, on admet maintenant que la périodicité est une composante suffisante mais non
nécessaire à l'ordre cristallin.
ANNEXE 4
Notation bra-ket
62
Un article de Wikipédia, l'encyclopédie libre.
Aller à : Navigation, rechercher
Cet article ou cette section est sujet à caution car il ne cite pas suffisamment ses
sources. (date inconnue)
Pour rendre l'article vérifiable, signalez les passages sans source avec {{Référence
nécessaire}} et liez les informations aux sources avec les notes de bas de page. (modifier
l'article)
Cet article fait partie de la série
Mécanique quantique
Postulats de la mécanique quantique
Histoire de la mécanique quantique
[Dérouler]Concepts fondamentaux
[Dérouler]Expériences
[Dérouler]Formalisme
[Dérouler]Statistiques
[Dérouler]Théories avancées
[Dérouler]Interprétations
[Dérouler]Physiciens
Cette boîte : voir • disc. • mod.
La notation bra-ket a été introduite par Paul Dirac pour faciliter l’écriture des équations de la
mécanique quantique, mais aussi pour souligner l’aspect vectoriel de l’objet représentant un
état quantique (voir Axiomes de la mécanique quantique).
Le nom provient d'un jeu de mots avec le terme (en) bracket qui signifie « crochet de
parenthèse », en l'occurrence « » et « » respectivement appelés « bra » et « ket » (un peu à
l'image de babord et de tribord). Cette notation est depuis reprise dans l’étude mathématique
de l’algèbre des opérateurs, et dont le champ d’application est plus large.
Sommaire
[masquer]
•
•
•
1 L'origine du formalisme
2 Ket
o 2.1 Définition
o 2.2 Propriétés
o 2.3 Base et composantes
3 Bra
63
3.1 Définition
3.2 Propriétés
3.3 Composantes
4 Opérateurs et notation de Dirac
5 Voir aussi
o
o
o
•
•
L'origine du formalisme [modifier]
Notation : la notation * signifie qu'il est question du transposé du conjugué d'un vecteur dont
les coordonnées sont des nombres complexes.
On rappelle que les fonctions d'onde quantiques sont des fonctions du temps, des coordonnées
spatiales, voire d'autres paramètres internes (spins, moments magnétiques, …) :
qu'elles sont solutions de l'équation de Schrödinger :
qu'elles sont normalisées, de sorte que :
et que la valeur d'une grandeur physique A est obtenue par :
La notation de Dirac s'appuie sur l'identification de l'intégrale précédente avec un produit
2
hermitien sur l'espace des fonctions à valeur complexe de carré intégrable L :
et par généralisation à deux fonctions Φ(t,...) et Ψ(t,...) :
noté en mécanique quantique :
•
On identifie donc :
la fonction Ψ(t,x,y,z,σ,...) avec un vecteur formel
dénommé ket Ψ.
64
•
la fonctionnelle duale
Ψ.
avec
dénommé bra Φ, dual du ket
D'autre part sous le formalisme de Heisenberg, les solutions ne sont plus des fonctions, mais
les vecteurs d'un espace de vecteurs d'états, ce qui rend l'identification encore plus directe.
Ket [modifier]
Définition [modifier]
Soit un vecteur de l’espace des états. Il est noté
et s'appelle vecteur-ket ou ket.
Deux kets forment un espace vectoriel linéaire. Ainsi, si λ1 et λ2 sont des nombres complexes
quelconques et u1 et u2 sont deux kets:
alors v est un ket.
En allant plus loin, si
normalisée sur
dépend d’un indice continu x, et si f est une fonction complexe
, alors,
est un ket.
Propriétés [modifier]
Le produit scalaire de deux kets est un nombre complexe, noté
ou plus simplement
(voir plus bas : bra). Comme tout produit scalaire complexe, ce produit est
sesquilinéaire (voir forme sesquilinéaire), c’est-à-dire que :
mais que :
.
*
(l'expression c signifie que l'on prend le complexe conjugué de c — voir Nombre
complexe)
Ce choix permet la définition d’une norme, qui est positive dans l’espace scalaire des nombres
complexes. En effet, le produit scalaire d’un vecteur par lui-même est égal au carré de sa
norme :
65
,
avec λ un scalaire une sorte de facteur d’échelle. Et d'où :
Base et composantes [modifier]
Il est commode d’utiliser une base afin de définir les composantes d’un ket. Il s’agit d'un
ensemble de vecteurs
, linéairement indépendants. Il y a autant de vecteurs que de
dimensions dans l’espace des états , et
Ainsi, on peut décomposer
dans la base des
.
:
,
où ψn sont les composantes de
et appartiennent aux nombres complexes.
On représente généralement un ket comme un vecteur colonne, une suite de nombres (les
composantes) rangés verticalement :
Bra [modifier]
Définition [modifier]
On associe à chaque ket d’un espace , un nombre complexe. On définit pour cela une
fonctionnelle linéaire χ, telle que :
, et
L’ensemble de ces fonctionnelles linéaires constitue un espace vectoriel , dit « espace dual
de ». On appelle vecteur-bra ou bra un élément de cet ensemble et on le note
.
Ainsi, quand la fonctionnelle linéaire χ agit sur
, on obtient :
66
Cette nouvelle notation souligne la relation qu’il existe entre bra, ket et le produit scalaire
entre kets. Prenons un ket
. Son produit scalaire avec
donne un nombre λ. On a ainsi
, fait correspondre un nombre complexe λ, à partir
défini une fonctionnelle linéaire qui, à
de
:
Puisque cette fonctionnelle se note
, on écrit également :
Ce qui amène à affirmer qu’à chaque ket correspond un bra, tel que le produit scalaire
s’écrit
. Cette correspondance n’est cependant absolument pas réciproque.
Il existe des bras qui n’ont aucun « équivalent ket » car ce sont des distributions.
L’écriture
revêt alors deux significations, l’une étant le résultat de l’application d’une
fonctionnelle à un ket, l’autre étant le produit scalaire de deux kets.
Propriétés [modifier]
Il existe une correspondance entre bra et ket :
(mais
n’est pas toujours vrai.)
L’antilinéarité du produit scalaire implique la correspondance suivante :
En effet, la norme de
est définie positive :
On identifie le ket
, ce qui implique que le « reste » de l’expression est le
correspondant dans l’espace dual des fonctionnelles linéaires.
Composantes [modifier]
L’écriture de la norme permet d’écrire un bra sous forme de composantes dans l’espace
vectoriel dual de même dimension que l’espace vectoriel des états :
,
,
67
.
On représente aussi le bra sous la forme d’un vecteur ligne, une suite de nombres (les
composantes) rangés horizontalement :
Le produit matriciel ci-dessus est commutatif, car la matrice ligne ne contient que des
scalaires, la matrice colonne que des bras unitaires, et le produit d’un scalaire et d’un bra est
commutatif, et le produit matriciel d’une matrice colonne et d’une matrice ligne, s'il est défini,
est toujours commutatif. Il en est de même du produit matriciel d’une matrice colonne de
scalaires et d’une matrice ligne de kets.
Il est alors possible d’écrire le produit scalaire d'un bra et d’un ket sous forme du produit de
quatre matrices : deux matrices scalaires et des matrices de bras unitaires ou de kets unitaires.
En permutant les matrices scalaires, il reste à déterminer le produit de matrices de bras
unitaires et de kets unitaires. Or, ces matrices unitaires sont transposées et conjuguées, ce qui
signifie que leur produit se réduit au produit de leurs normes. Comme par définition, la norme
des matrices unitaires est 1, ces matrices unitaires peuvent être éliminées du produit scalaire.
La définition même du produit scalaire nous permet alors de l'écrire simplement en termes de
produit de deux matrices scalaires de la façon suivante :
Opérateurs et notation de Dirac [modifier]
D’une façon générale, les opérateurs linéaires agissant sur l’espace des états peuvent s’écrire
sous la forme d’une combinaison linéaire d'opérateurs :
,
dont l’action sur un état, représenté par le ket
,
permettant une grande économie d’écriture.
, sera l’état :
68
Voir aussi [modifier]
•
•
Mécanique quantique
Paul Dirac
Portail de la physique
•
•
Portail des mathématiques
Ce document provient de « http://fr.wikipedia.org/wiki/Notation_bra-ket ».
Catégories : Mécanique quantique | Algèbre | [+]
Catégories cachées : Article manquant de référence depuis date inconnue |
Portail:Physique/Articles liés | Portail:Mathématiques/Articles liés
Affichages
•
•
•
•
Article
Discussion
Modifier
Historique
Outils personnels
•
Créer un compte ou se connecter
Rechercher
Lire
Rechercher
Navigation
•
•
•
•
•
Accueil
Portails thématiques
Index alphabétique
Un article au hasard
Contacter Wikipédia
Contribuer
•
•
•
•
•
Aide
Communauté
Modifications récentes
Accueil des nouveaux arrivants
Faire un don
Créer un livre
69
•
•
Ajouter cet article
Aide sur les livres
Boîte à outils
•
•
•
•
•
•
•
•
Pages liées
Suivi des pages liées
Importer un fichier
Pages spéciales
Version imprimable
Adresse de cette version
Version PDF
Citer cette page
Autres langues
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Česky
Deutsch
English
Español
‫یفارس‬
Suomi
‫עברית‬
Magyar
Interlingua
Italiano
日本語
한국어
Nederlands
Polski
Português
Русский
Slovenščina
Shqip
Svenska
Українська
中文
ANNEXE 5
Expérience de la gomme quantique à choix
retardé
Un article de Wikipédia, l'encyclopédie libre.
70
(Redirigé depuis Expérience de Marlan Scully)
Aller à : Navigation, rechercher
Cet article fait partie de la
série
Mécanique quantique
Postulats de la mécanique
quantique
Histoire de la mécanique
quantique
[Dérouler]Concepts
fondamentaux
[Dérouler]Expériences
[Dérouler]Formalisme
[Dérouler]Statistiques
[Dérouler]Théories
avancées
[Dérouler]Interprétations
[Dérouler]Physiciens
Cette boîte : voir • disc. • mod.
L’expérience de la gomme quantique à choix retardé1 est une expérience de mécanique
quantique qui constitue une extension de celle d'Alain Aspect et des fentes d'Young en y
introduisant ce qui semble être une rétroaction implicite dans le temps. Elle a été menée par
Marlan Scully, B.-G. Englert, et H. Walther, d'où le nom parfois employé d'expérience ESW.
Schématiquement, deux dispositifs similaires aux fentes d'Young sont installés en cascade.
On sait que l'incertitude quantique concernant le passage (éventuel !) de particules par l'une
ou l'autre fente
•
•
n'est levable que par un processus de détection,
et subsiste en l'absence de celle-ci non seulement en tant que connaissance de
l'expérimentateur, mais bien en tant qu'état du système.
L'idée de Marlan Scully est de ne décider l'intervention de cet observateur qu'au dernier
moment, alors que la particule2 a déjà franchi la première série de fentes.
Les équations de la mécanique quantique imposent à la particule d'avoir vérifié lors du
premier passage des conditions qui ne sont pourtant stipulées que postérieurement, par
intervention ultérieure du détecteur ou non. En d'autres termes, cette intervention du détecteur
semble modifier le passé de la particule.
71
L'observation confirme pour le moment ce résultat prévu, mais Marlan Scully ne se prononce
pas encore sur les enseignements que l'on peut ou non en tirer. John Wheeler s'est montré
parfois moins réservé et a tenu à ce sujet des propos controversés sur la modification du passé
par des processus d'observation (à moins, selon une autre interprétation du même phénomène,
qu'il ne s'agisse d'une définition du présent par le résultat de l'observation de phénomènes
passés — voir l'interprétation d'Everett).
Sommaire
[masquer]
•
•
•
•
•
•
•
1 Description de l'expérience
2 Figures d'interférences
3 Enjeux et interprétations
4 Enjeux et interprétations - complément
5 Voir aussi
6 Notes
7 Liens externes
Description de l'expérience [modifier]
72
Experience de Sculley
L'expérience est plus simple qu'il n'y paraît. Le dispositif va être décrit progressivement, afin
de bien faire apparaître les idées derrière chaque élément de l'expérience.
Décrivons d'abord la première partie du dispositif : si nous remplaçons les appareils B et C
par de simples miroirs, nous nous retrouvons avec une variante de l'expérience des fentes de
Young : le miroir semi-réfléchissant A provoque une interférence « du photon avec luimême » et provoque une figure d'interférence en I. Il est important de bien comprendre
l'expérience de Young avant de tenter de comprendre celle-ci.
En fait, en B et en C, sont placés des « convertisseurs bas ». Un « convertisseur bas » est un
appareil qui, à partir d'un photon en entrée, crée deux photons en sortie, corrélés, et de
longueur d'onde double par rapport au photon en entrée. Étant corrélés, toute mesure effectuée
sur un des deux photons de sortie nous renseigne sur l'état de l'autre photon. Par définition, un
des deux photons en sortie sera appelé « photon signal » et l'autre « photon témoin ». Il est
73
important aussi de souligner que le « convertisseur bas » ne détruit pas l'état quantique du
photon : il n'y a pas de « mesure » et l'état des deux photons en sortie respecte l'état de
superposition du photon en entrée.
Maintenant, imaginons qu'il n'y ait pas de miroir semi-réfléchissant en D et en E. Ne pourraiton pas détecter par quel chemin ( « par B » ou « par C ») est passé le photon initialement
émis ? Si le détecteur J se déclenche, c'est que le photon est passé par B, si c'est K, c'est que le
photon est passé par C. Les « photons signaux » se comportant de la même manière que s'il y
avait des miroirs en B ou en C, la figure d'interférence ne devrait-elle pas apparaître, tout en
nous renseignant sur le chemin pris par le photon ? (ce serait en contradiction avec
l'expérience de Young)
En fait, non. La « mesure » effectuée par un des détecteur J ou K détruit l'état quantique des
photons « signal » et « témoin » (ceux-ci étant quantiquement corrélés, voir paradoxe EPR), et
aucune figure d'interférence n'apparaît en I. Nous retrouvons bien les résultats de l'expérience
de Young.
Maintenant, considérons le dispositif complet, représenté par la figure. Le photon témoin a
une chance sur deux d'être réfléchi par le miroir D ou E. Dans ce cas il arrive en F et il n'y a
alors plus moyen de savoir si le photon est passé par B ou par C. En effet, que le photon
vienne de E ou de D, il a dans les deux cas une chance sur deux d'être détecté en H ou en G.
Donc la détection en H ou G ne permet pas de savoir d'où vient le photon. Ce miroir F est la
« gomme quantique » imaginée par Sculley : il détruit l'information permettant de savoir par
quel chemin est passé le photon.
Cependant, si au lieu d'avoir été réfléchi par D ou E, le photon témoin a été détecté par J ou
K, alors il est possible de savoir le chemin emprunté par le photon, et le photon signal
correspondant enregistré en I ne contribue pas à faire une figure d'interférence. Les miroirs D
et E "tirent au sort" - en quelque sorte - le destin du photon témoin : une chance sur deux de
devenir un photon dont on connaît le chemin, une chance sur deux de devenir un photon dont
le chemin est indéterminé.
Or, la distance BD (et a fortiori BF) peut être très supérieure à la distance BI, et de même pour
respectivement CE/CF et CI. Et c'est le cas dans cette expérience. Donc, quand le photon
signal vient impressionner la plaque photographique en I, le photon témoin n'a pas encore
atteint D ou E, et encore moins F. C'est le "choix retardé" dont il est question dans
l'expérience. Le résultat enregistré en I est donc fixé avant que le photon témoin ait été
détecté en J/K, ou en G/H.
Au moment où le photon signal impressionne I, le chemin du photon témoin est encore
indéterminé. La figure en I devrait donc s'organiser systématiquement en figure d'interférence.
Pourtant, un photon témoin sur deux en moyenne sera détecté en J/K, et les photons signaux
correspondant ne doivent pas s'organiser en figure d'interférence (puisque on connaît le
chemin emprunté). Comment le photon signal "sait-il" que le photon témoin sera détecté en
J/K ou non ? Telle est la question fondamentale de cette expérience.
Expérimentalement on constate qu'il n'y a jamais d'erreur : les photons signaux dont les
photons témoins sont détectés en J/K ne s'organisent pas en figure d'interférence, les photons
signaux dont les photons témoins sont détectés en G/H s'organisent en figure d'interférence
(voir section suivante).
74
Figures d'interférences [modifier]
Lorsque les impacts de photons sont matérialisés en I, on ne voit qu'un brouillard sans
signification. C'est la corrélation entre chaque impact et le capteur qui permet de faire
apparaître les franges d'interférence. Ici, les photons sont colorés en fonction du capteur qui
les a reçus. Lorsque l'on sépare l'image en quatre, on voit nettement apparaître les figures
d'interférence pour les photons détectés en G et H.
À noter que les deux figures 3. et 4. sont complémentaires, en opposition de phase. L'addition
de ces deux figures donne une figure similaire à la figure 2. ou 1. Cela explique la nécessité
de recevoir des corrélations pour faire apparaître les figures d'interférence. Sans corrélations,
il n'y a aucun moyen de distinguer le cas 3.+4. du cas 5.+6.
1. La figure telle qu'elle est reçue en 2. Corrélation entre les impacts et les 4
I
détecteurs
3. Photons corrélés avec le détecteur
G
4. Photons corrélés avec le détecteur
5. Photons corrélés avec le détecteur J
H
6. Photons corrélés avec le détecteur
K
Note : Ces images sont des simulations
Enjeux et interprétations [modifier]
L'aspect le plus spectaculaire de cette expérience est l'interprétation que l'on fait a posteriori
de la figure d'interférence en I. Tant que l'on n'a pas reçu les informations de corrélation en
provenance des détecteurs G et H (qui peuvent être, disons, à cent années-lumière !), il est
impossible de déterminer si la figure en I contient ou non une figure d'interférence.
Si cela était possible, cela voudrait dire que l'on pourrait recevoir des messages du futur ! Par
exemple, si, en même temps que le photon, on émettait un message en destination d'un
physicien (à cent années-lumière de là) lui demandant si, par exemple, la théorie des cordes
est exacte ou non, et de remplacer les miroirs D/E par des miroirs parfaitement réfléchissants
si oui, et de les enlever si non, alors il serait possible de savoir immédiatement si la théorie
des cordes est valable ou non en décryptant une figure d'interférence en I.
75
On pourrait alors véritablement parler de « rétroaction en provenance du futur ». Mais tel n'est
pas le cas. Certaines interprétation hâtives et sensationnalistes laissent penser cela, mais on
voit clairement que ce n'est pas aussi simple.
En effet, force est de constater que la figure en I contient une information indécryptable qui
dépend de quelque chose qui se passe dans le futur. Mais elle ne peut être décryptée qu'avec
des informations « classiques » (sur cette chose) qui ne peuvent être connues, au plus tôt, que
dans un délai qui annule le bénéfice de la rétroaction temporelle (par exemple, dans le cas de
l'interrogation d'un physicien à 100 années-lumière, on ne connaîtrait la réponse à la question
que - au mieux - 100 ans plus tard).
En fait, ce résultat, bien que spectaculaire, n'est pas plus surprenant (ni moins) que les
résultats déjà connus des expériences EPR. En effet, dans ces expériences, l'effondrement d'un
côté du dispositif provoque immédiatement l'effondrement de l'autre côté, aussi éloigné soit-il.
Mais on ne peut s'en rendre compte qu'avec l'envoi d'une information classique (évitant de
pouvoir communiquer à une vitesse supérieure à celle de la lumière).
Mais l'effet est plus frappant encore que dans l'expérience EPR, et nous pose avec une force
plus grande encore la question : qu'est-ce que le temps ?
Enjeux et interprétations - complément [modifier]
Considérons la situation où la "gomme quantique" est présente. La complémentarité des
figures d'interférence obtenues par corrélation des points reçus sur l'écran I avec les signaux
reçus en G et H est une donnée importante qui doit être interprétée. On nommera ces figures
Fig(G) et Fig(H). On appellera de même Fig(0) la figure obtenue en absence d'interférences.
Si la figure d'interférence était identique dans les deux cas (Fig(G) = Fig(H)), l'impact d'un
photon sur une frange sombre de cette figure pourrait donner une information de type
probabiliste. Nous pourrions dire dans ce cas qu'il y a davantage de chance de détecter le
photon en J ou K (cas où il n'y a pas interférence car on détecte quel chemin le photon a
emprunté) qu'en G ou H (cas où il y a interférence car la détection en G ou H n'apporte pas
d'information sur le chemin emprunté).
Mais ce n'est pas le cas : les figures d'interférence sont exactement complémentaires
(Fig(G)+Fig(H)=Fig(0)). Si le photon tombe sur une frange sombre de Fig(G) alors cela
donne bien une information de type probabiliste : si le photon est détecté en G ou H alors le
photon a davantage de chance d'être détecté en H (probabilité d'être détecté en H sachant qu'il
est détecté en G ou en H). Mais cette information n'a aucun lien avec la connaissance du
chemin emprunté par le photon.
Mathématiquement, la fonction d'onde juste après les convertisseurs bas s'écrit :
On a noté ψ la fonction d'onde d'un photon signal et φ celle d'un photon témoin. Juste avant
l'impact sur l'écran I, on a :
76
La probabilité d'impact en un point x de l'écran est :
Les fonctions | ψB > et | ψC > sont orthogonales donc :
Il n'y a pas d'interférence. L'observation d'un impact en un point x0 réduit la fonction d'onde
du photon signal à | φI(x0) > . Il s'agit d'une constante que l'on peut éliminer dans la suite.
L'espace se réduit donc à un espace à une seule particule :
Dans l'expérience de Marlan Scully décrite un peu plus précisément dans l'article de Kim, la
particule témoin prend la différence de phase de la particule signal. Comme après
l'observation sur l'écran on connaît cette différence de phase, on a :
Comme les miroirs semi-réfléchissants introduisent des déphasages de Π / 2, on a finalement
au niveau des détecteurs finaux :
Le signe + ou - dépend du détecteur G ou H. On observe donc la corrélation avec la première
observation car la différence de phase a été "enregistrée" dans la deuxième particule. Il n'y a
donc aucune transmission d'une information du futur vers le passé : la connaissance du
résultat x0 de la mesure en I pour le photon signal modifie, pour l'observateur, la probabilité
de détection du photon témoin en G ou en H, de telle manière qu'apparaisse une figure
d'interférence. La mécanique quantique explique correctement cette expérience de façon
déterministe. Il n'y aurait pas eu de corrélation si expérimentalement la particule témoin
n'avait pas pris la différence de phase de la particule signal.
Téléchargement