VOYAGE AU COEUR DE LA MATIÈRE À LA DÉCOUVERTE DU MONDE QUANTIQUE Alain Couleau Alain Couleau - Club Vega - 2014 Nous trouvons tous normal aujourd'hui, de taper sur un clavier d'ordinateur, d'utiliser un GPS (Global Positioning System) pour trouver son chemin, de communiquer à l'aide d'un téléphone portable, de regarder un film gravé sur un lecteur de DVD, d'écouter les news sur son transistor. Les lasers, les procédés d'imagerie médicale comme l'IRM sont des évolutions technologiques qui nous paraissent familières… Tous ces événements pratiques et scientifiques dont nous mesurons mal l'importance n'ont été possibles que par la révolution quantique qui a secoué les fondements de la physique classique il y a environ un siècle. Sur un plan pratique, environ 30% de la production de l'Europe et des Etats-Unis dérivent d'inventions qui en sont issues… Dans cette histoire passionnante, nous allons pénétrer dans un monde assez étrange et dérangeant où les incertitudes et les probabilités font loi, un monde où l'on est ici ou ailleurs, et partout en même temps, un monde où la raison s'effondre, le monde de la matière intime, le monde quantique. Nous allons essayer de comprendre "comment ça marche", sans faire appel à des notions mathématiques et physiques complexes. Ce qui reste un véritable enjeu, car la Physique Quantique défie toute tentative d'illustration concrète. Si vous êtes prêts, alors ouvrez grands, non pas vos yeux, mais votre esprit, et comme Alice au Pays des Merveilles, suivez-moi sans trop réfléchir en écoutant la douce mélopée de ce "cantique", car quand vous reviendrez dans le monde macroscopique, pour reprendre l'expression d'un célèbre physicien américain, "si vous pensez avoir compris, c'est que je n'aurai pas été assez clair". Alain Couleau - Club Vega - 2014 I. LA GENÈSE La nécessaire découverte des quanta Nous sommes à la fin du XIXème siècle, plus exactement en 1887… Dans l'angle d'un laboratoire plongé dans l'obscurité, se dresse un drôle d'appareil constitué d'un circuit reliant deux boules métalliques entre elles, destiné à produire de l'électricité… un oscilloscope. Un peu plus loin sur une autre table, se trouve un simple cerceau de fil de cuivre presque fermé, monté sur un pied isolant. Tout est prêt et le jeune expérimentateur établit le contact pour faire jaillir entre les deux sphères, les étincelles crépitantes. Tournant le dos aux fulgurantes étincelles, il laisse ses yeux s'habituer à l'obscurité, pour observer le cerceau. Aucun doute possible… De minuscules étincelles traversent la brèche du cerceau. Ce jeune savant allemand du nom de Heinrich Rudolph Hertz venait de démontrer de manière irréfutable la nature électro-magnétique des ondes lumineuses, confirmant les équations énoncées quelques années plus tôt par le physicien écossais John Clerk Maxwell. Car la lumière est omniprésente dans cette histoire, et un torrent de questions la concernant, partageait les physiciens de l'époque. Comment la lumière franchit-elle l'espace pour transmettre son message à nos yeux ? Alain Couleau - Club Vega - 2014 Depuis le XVIIème siècle, deux camps s'opposaient. • ceux qui, rangés derrière l'illustre Sir Isaac Newton, défendaient la théorie corpusculaire, selon laquelle la lumière est formée de myriades de petits grains ou "corpuscules" projetés à grande vitesse dans toutes les directions, par les corps lumineux, tels les éclats d'une bombe qui exploserait sans fin. • les théoriciens de l'onde, conduits par le physicien hollandais Christiaan Huygens, eux, défendaient la nature ondulatoire de la lumière. Mais depuis les expériences faites par Thomas Young et Augustin Fresnel au début du XIXème siècle, l'évidence de la nature ondulatoire de la lumière s'imposait. Renforcée par les équations de Maxwell sur l'électromagnétisme, énoncées en 1864 en ces termes : "… la lumière et le magnétisme sont deux phénomènes de même nature… la lumière est une perturbation électromagnétique qui se propage dans l'espace…" et validée, nous l'avons vu par l'expérience de Hertz. La théorie corpusculaire semblait donc avoir perdu toute raison d'exister. La physique classique en cette fin de XIXème siècle repose sur 3 piliers essentiels : - la gravitation, qui détermine la structure à grande échelle de l'univers, - l'électromagnétisme, qui traite des relations entre l'électricité et le magnétisme, - et la thermodynamique qui traite de la chaleur, de l'énergie thermique et de ses transformations. La communauté scientifique d'alors, malgré les récentes découvertes de l'électron, des rayons X et de la radioactivité, et la polémique en cours sur l'existence des atomes, était persuadée qu'il ne restait plus rien d'essentiel à découvrir. Ce sentiment général, on le retrouve dans une déclaration d'un physicien américain de l'époque : "Nos futures découvertes seront à chercher du côté de la sixième décimale." Il persistait néanmoins quelques expériences inexplicables dans le cadre de la physique classique. L'un de ces problèmes, les bizarreries de l'orbite de Mercure, conduira, mais ceci est une autre histoire, à une autre révolution de la physique, celle de la théorie de la Relativité restreinte, puis générale, au début du XXème siècle. Alain Couleau - Club Vega - 2014 Pour ce qui nous concerne, on peut résumer les échecs de la physique classique de la fin de ce siècle à trois problèmes : - le "rayonnement du corps noir", - l'"effet photoélectrique", - le "spectre atomique". Trois situations qui intéressent les rapports entre la lumière et la matière. Le Quantum fit son entrée officielle en physique à l'occasion de ce que l'on nomme "la catastrophe ultraviolette". 1er Acte LE RAYONNEMENT DU CORPS NOIR En cette fin de XIXème siècle , certains des plus grands physiciens allemands étaient obsédés par un problème qui les tracassait depuis longtemps : quelle était la relation entre la température, la gamme des couleurs et l'intensité de la lumière émise par un tisonnier brûlant ? Cela peut sembler être un problème anodin, mais pour une nation qui ne s'était forgée qu'en 1871, la recherche de la solution du tisonnier brûlant, qui allait devenir le "problème du corps noir", était intimement lié au besoin de donner à l'industrie de l'éclairage allemande un avantage décisif sur ses concurrentes britannique et américaine. Il est bien connu qu'un objet dont on élève la température, change de couleur. Le bout d'un tisonnier en fer qu'on a laissé dans le feu commence à briller faiblement d'un éclat rouge terne. Quand sa température augmente, il passe au rouge cerise, puis au jaune-orangé vif et enfin au blanc. Le fait que tous les objets chauffés émettent une lumière d'une même couleur à la même température, était bien connu des potiers depuis longtemps. Alain Couleau - Club Vega - 2014 La notion de corps noir Quelques notions simples - Rappelons que le noir est une absence de couleur, plutôt qu'une couleur. - un corps qui absorberait parfaitement toutes les radiations qui lui parviennent, sans en réfléchir ni en transmettre apparaîtrait en apparence noir. Prenons comme exemple, la photo d'une façade de maison. Les murs sont violemment éclairés et les fenêtres apparaissent très sombres dès lors que les vitres sont ouvertes. Les photons solaires qui sont bien réfléchis par les murs, ont diffusé dans les pièces aux vitres ouvertes et bien peu sont ressortis. Ce qui explique le contraste de luminosité entre la façade et les fenêtres ouvertes. - un corps noir est un modèle théorique, qui représente une situation d'équilibre thermodynamique entre la matière et son rayonnement. Malgré l'agitation des particules, l'état du système n'évolue pas et il n'échange aucune énergie avec son environnement. Il n'est donc pas forcément noir et peut être coloré. Un exemple, le Soleil dont le spectre se superpose à celui d'un corps noir de température 5 770 K (soit environ 5 500° C). Alain Couleau - Club Vega - 2014 En effet, l'astrophysique solaire nous apprend que le Soleil ne transporte pas instantanément l'énergie qu'il a générée dans son noyau. Suite à la densité du milieu et la marche au hasard des particules, un photon qui en l'absence de matière mettrait 2 à 3 secondes pour traverser le Soleil, prend en réalité entre 1 et 2 millions d'années pour rejoindre la surface du Soleil et parvenir sur Terre ! Le milieu est donc très absorbant pour les photons. Le spectre électromagnétique d’un corps noir présente une forme de courbe en cloche, avec un maximum à une longueur d’onde qui dépend de la température. Pour une température de quelques milliers de degré, la longueur d’onde correspondant au maximum d’émission est dans le domaine visible. C’est la cas de la plupart des étoiles et du filament d’une ampoule électrique, par exemple. La couleur d’un tel objet est un mélange de l’ensemble des couleurs au voisinage de la longueur d’onde d’émission maximum. Ainsi, le soleil a une température de surface d’environ 6000 degrés, ce qui correspond à une émission maximale pour la couleur jaune. En résumé Le corps noir est un corps "idéal" qui, recevant de l'énergie (par exemple lumineuse) l'absorberait intégralement et, étant chauffé, la rayonnerait dans toutes les fréquences, de l'ultraviolet à l’infrarouge. Un terme mieux adapté serait celui de radiateur intégral. Alain Couleau - Club Vega - 2014 Le modèle de corps noir En 1859, un physicien allemand, Gustav Kirchhoff, commence ses investigations théoriques sur la nature de cette corrélation entre température et intensité de la lumière émise. Il imagine alors une sphère creuse percée d'un petit trou, isolée extérieurement. Si l'on porte cette sphère à une température supérieure à 1 000°, alors les parois à l'intérieur vont émettre toutes sortes de radiations, de l'infra-rouge à l'ultra-violet, en passant par toutes les longueurs d'onde de la lumière visible. En se réfléchissant de paroi en paroi et d'absorptions en émissions successives, un équilibre va finir par s'établir. Le trou va laisser échapper une fraction du rayonnement qui se trouve à l'intérieur de la cavité. C'est le rayonnement du corps noir. Kirchhoff prouva mathématiquement ce que les potiers et porcelainiers avaient depuis longtemps observé dans leurs fours : que l'étendue spectrale et l'intensité du rayonnement à l'intérieur de la cavité, ne dépendaient pas du matériau dont le corps pourrait être constitué, ni de sa forme ou de sa taille, mais uniquement de sa température. Le problème du corps noir Il s'agissait donc, "in fine", de mesurer, la répartition spectrale du rayonnement, la quantité d'énergie émise pour chaque longueur d'onde, de l'infrarouge à l'ultraviolet, et d'en dériver une équation pour reproduire cette répartition à n'importe quelle température. Voilà le problème posé aux scientifiques allemands à la fin du XIXème siècle. La nécessité, pour l'Allemagne de fabriquer une ampoule électrique plus efficace, fut l'impulsion qui soutint les programmes de recherche sur le corps noir mis en place dans les années 1890. C'est là qu'entre en scène celui qui va se révéler l'homme de la situation, le physicien allemand Max Planck… Max Planck était fasciné par la thermodynamique et en particulier par son deuxième principe formulé par Rudolf Clausius (autre physicien allemand), qui traite de la manière dont la chaleur se diffuse, toujours du chaud vers le froid, en introduisant le terme d"entropie" pour caractériser mathématiquement l'irréversibilité de tels processus physiques. C'est quoi en fait "l'entropie" ? Alain Couleau - Club Vega - 2014 L’entropie On peut considérer comme Einstein que c'est le principe le plus important de la physique. En thermodynamique, il y a 4 principes , mais à l'époque cette science se résumait en deux principes seulement : • le premier principe "Rien ne se perd, rien ne se crée, tout se transforme." (Lavoisier) L'énergie se définit ainsi comme une constante numérique, ce qui implique de toujours chercher dans un bilan énergétique où est passée l'énergie manquante (sous forme de chaleur ou de rayonnement). Une pomme suspendue à une branche d'arbre possède une énergie potentielle en vertu de sa position dans le champ gravitationnel de la Terre. Lorsqu'elle tombe, l'énergie potentielle de la pomme est convertie en énergie cinétique, l'énergie du mouvement. • le deuxième principe "Tout passe, tout lasse, tout casse." C'est là qu'intervient la notion d'entropie définie par Rudolph Clausius. La chaleur ne passe pas spontanément d'un corps froid à un corps plus chaud. Le réfrigérateur a besoin d'être branché sur une source externe d'énergie (électrique en l'occurrence), pour faire passer la chaleur d'un corps plus froid à un corps plus chaud. Mais pourquoi donc ? Le principe de conservation de l'énergie ne s'oppose pas à ce que la chaleur passe spontanément d'un corps froid à un corps chaud… Toutefois, quelque chose empêchait que le phénomène se produise. Cette entité, Claudius l'appela entropie. Alors l''entropie c'est quoi ? Alain Couleau - Club Vega - 2014 L'entropie c'est que tout se dégrade, tout fout le camp. C'est la vieillesse qui nous gagne, le temps qui s'enfuit. L'entropie c'est que tout a une fin… Examinons cela plus en détail… - la nature n'apprécie pas ce qui est ordonné. Elle a tendance à tout égaliser. Prenons deux blocs métalliques accolés. L'un est chaud, l'autre est froid. Au bout d'un certain temps, ils vont avoir tous les deux la même température. De même si nous faisons tomber quelques gouttes de colorant dans un verre, celui-ci va se disperser dans l'eau qui apparaîtra finalement colorée de manière homogène. - la nature n'aime pas laisser un objet avec une énergie potentielle (qui est quelque part, une énergie bien rangée). Considérons un chariot placé en haut d'une montagne russe. Il a, au départ, de l'énergie potentielle. Puis il commence à prendre de la vitesse, en descendant la pente. Il remonte en face, puis redescend. Bref il oscille jusqu'à se stabiliser en bas de la pente, freiné par le frottement de ses roues sur les rails. Son énergie à l'arrivée a disparu, dissipée par les frottements. Elle s'est transformée en température, en agitation thermique très désordonnée. En résumé, une certaine forme d'ordre est détruite au cours du temps par la nature, si on laisse faire les choses. - le désordre d'un système isolé croît au cours du temps C'est ça le second principe de la thermodynamique. En fait les physiciens préfèrent le mot "entropie" au mot désordre. En résumé… Le second principe de la thermodynamique nous dit que : "L'entropie d'un système isolé croît au cours du temps de façon naturelle et cette évolution est irréversible." Mais comment expliquer ça ? Alain Couleau - Club Vega - 2014 Deux points de vue s'affrontent à l'époque : - celui de Rudolph Claudius, - et celui de Ludwig Boltzmann. Pour mieux comprendre imaginons une enceinte formée de deux compartiments communiquant par une petite ouverture. Dans l'enceinte de gauche est insufflé un volume de gaz. Intuitivement, nous pensons que le gaz va passer à travers le trou pour remplir le compartiment initialement vide. - dans le point de vue "classique" de Rudolph Clausius, l'entropie augmente avec le volume occupé par le gaz. Le gaz va donc adopter, à l'équilibre, le volume qui maximise l'entropie, c'est à dire celui des deux compartiments. Vous conviendrez que ce point de vue est pour le moins, particulièrement abstrait. - l'idée de Ludwig Boltzmann, atomiste convaincu, est que l'évolution thermodynamique d'un système vers l'équilibre, correspond au passage d'un état initial à un autre état statistiquement plus probable. Dans cet exemple de l'enceinte, on observera la plupart du temps les atomes de gaz également répartis entre les deux compartiments, car il existe beaucoup plus de configurations microscopiques correspondant à cette répartition égale, et qu'elle est donc plus probable. Boltzmann interprétait donc l'entropie d'un corps en termes statistiques, en la déduisant des atomes qui constituaient le corps. Nous verrons plus loin, toute l'importance de cette notion de probabilité. Revenons à Max Planck, notre personnage principal, pour qui ce second principe de la thermodynamique était un principe fondamental, "la propriété la plus importante des systèmes physiques" Alain Couleau - Club Vega - 2014 Il refusait sur ce point l'interprétation de l'entropie de Boltzmann car il ne croyait pas à l'existence de l'atome. Ce qui le préoccupait, c'était l'irréversibilité du phénomène, ce qu'on appelle en d'autres termes "la flèche du temps". Comment interpréter cette irréversibilité, alors que d'après les équations de la physique classique, celles de Newton notamment, toutes les évolutions sont réversibles. C'est à dire qu'un système peut repasser dans son futur dans un état qu'il a déjà connu dans son passé. Il peut revenir à son état initial, mais pas évidemment à l'instant initial, le temps n'étant pas réversible. L'idée de Planck, c'était que cette irréversibilité était liée aux interactions entre la lumière et la matière. Et pour tirer ça au clair, il s'attaqua à l'étude du spectre d'un corps noir, en pensant qu'en étudiant l'ensemble des fréquences lumineuses qu'on trouve à l'intérieur de la cavité, il allait pouvoir montrer l'origine de l'irréversibilité de l’entropie. En 1893, Wien, un autre physicien allemand, qui se penchait également sur le sujet, découvrit que la distribution des spectres du corps noir passait par un maximum, dont la longueur d'onde était inversement proportionnelle à sa température. Autrement dit, à mesure qu'augmente la température d'un corps noir, la longueur d'onde à laquelle l'intensité du rayonnement est la plus forte, devient de plus en plus courte. Cette "loi du déplacement" révéla quelque chose de très précis : la longueur d'onde à laquelle la quantité maximale de rayonnement est émise, multipliée par la température du corps noir, est toujours une constante. Cette relation "température - couleur" s'exprime ainsi lmax = (2.90 x 10 -3 )/T où (2.90 x 10-3) est une constante, avec la longueur l (lambda) et la température T (Kelvin K), exprimées dans le système international d'unités. Pour le Soleil, le maximum d'émission se situant vers 500 mm (jaune-vert), sa température de surface vaut donc T(K) = (2.90 x 10-3) / (0.5 x 10-6) = 5 800 Alain Couleau - Club Vega - 2014 Si cette relation permet de retrouver facilement la température d'un corps lorsqu'on a déterminé le maximum d'émission (longueur d'onde), à l'inverse il est possible de découvrir le maximum d'émission à partir d'une température. Exemple : La température du corps humain est de 37°5 C, soit environ 310 K. (T en Kelvin = T en C° + 273,15) On a donc lmax = (2.90 x 10 -3 ) / 310 = 9.35 mm Le maximum d'émission du corps humain se fait donc dans l'infrarouge. Cette formule de Wien était donc un pas important vers la solution du problème du corps noir. Elle expliquait les couleurs changeantes du tisonnier porté "au rouge". Il ne restait plus qu'à confirmer ça expérimentalement de manière rigoureuse en construisant un corps noir parfait, électriquement chauffé, capable de permettre des mesures sur une large étendue du spectre. Les premiers résultats validèrent la loi empirique de Wien pour la partie ultraviolette du spectre, c'est à dire pour les courtes longueurs d'onde, par contre la loi surestimait constamment l'intensité du rayonnement aux grandes longueurs d'onde. Donc il y avait là un grave dysfonctionnement, qui conduisit à une bousculade parmi les physiciens, pour lui trouver une remplaçante. Un peu plus tard, les physiciens anglais Rayleigh et Jeans proposèrent à leur tour une loi plus aboutie, qui s'accordait très bien, elle, avec les résultats observés pour les basses fréquences, donc de l'infrarouge au vert. Malheureusement, pour les hautes fréquences, elle impliquait que l'énergie eut due, depuis longtemps avoir quitté le corps noir dans un jaillissement catastrophique de radiation ultraviolette (à l'époque, ni les rayons X, ni les rayons gamma n'étaient connus). Ce qui, bien évidemment, était en totale contradiction avec l'expérience, car aucun potier ou boulanger ne devenait aveugle en regardant son four… Alain Couleau - Club Vega - 2014 C'est ce que le physicien autrichien Paul Ehrenfest, appellera quelques années plus tard la "catastrophe ultraviolette". Comment Max Planck, s'y est-il pris pour essayer de résoudre le problème ? Puisque les caractéristiques du rayonnement émis ne dépendaient ni de la taille, ni de la forme de la cavité, ni des matériaux de ses parois, la formule de distribution à trouver devrait donner, par unité de volume de la cavité, l'énergie spécifiquement transportée par chaque rayonnement lumineux en fonction de la longueur d'onde. Par conséquent, cette formule ne devrait faire intervenir que la température, la longueur d'onde et une ou deux constantes universelles. Et cette formule à trouver, était pour Planck, d'un double intérêt : - théorique, car elle était universelle, - et pratique car elle pouvait permettre d'utiliser le corps noir comme émetteur de lumière étalon. Pour construire son raisonnement, Planck fit appel à un procédé mathématique inventé par les Grecs, d'aspect général très simple, qui permet de remplacer une continuité, qui offre peu de prise à un traitement mathématique, à une suite de sauts discontinus, bien plus dociles à manipuler. Prenons par exemple la circonférence d'un cercle. Nous pouvons diviser le cercle en quatre, huit, seize parties égales, et ainsi de suite. En joignant les points par des traits, nous obtenons des polygones dont il est possible de calculer le périmètre total. Il est évident que plus nous traçons des côtés de plus en plus petits, plus leur longueur totale approchera celle de la circonférence du cercle. Donc, à ses fins de recherche, Planck se représenta les parois de la cavité d'un corps noir, comme constituées d'un ensemble de "résonateurs", sortes de petits ressorts munis d'une charge électrique à leur extrémité, pouvant osciller selon toutes les fréquences possibles. Alain Couleau - Club Vega - 2014 En chauffant les parois de la cavité, on met en mouvement ces ressorts, qui sont alors animés d'oscillations rythmiques, comme des balançoires enfantines, au gré de l'absorption et de l'émission de l'énergie lumineuse. Et ce jusqu'à ce qu'un équilibre s'établisse, chaque résonateur d'une certaine fréquence absorbant autant d'énergie en provenance de la cavité qu'il n'en émet. Finalement, le spectre du corps noir témoigne de la manière dont l'énergie totale est partagée entre les différentes fréquences. Planck supposa donc que c'était le nombre de résonateurs pour chaque fréquence donnée qui déterminait la répartition spectrale. Oui, mais comment ventiler l'énergie totale entre tous les "résonateurs" ? Avec les lois de la physique classique, Planck se heurtait à un mur… A contre-coeur, il dut se tourner vers les idées de Ludwig Boltzmann, auxquelles il ne croyait pas, et se convertir à l'atomisme. Rappelons-nous… Planck croyait que le deuxième principe de la thermodynamique était un principe absolu, et que, comme l'affirmait Rudolph Clausius l'entropie augmentait toujours. Dans l'interprétation statistique de Boltzmann, l'entropie augmente presque toujours, et mesure la probabilité de trouver un système dans un état particulier. Prenons un exemple... Un jeu de cartes tout neuf, où les cartes sont classées par couleur et par valeur, est un système fortement ordonné et de faible entropie. En battant les cartes de ce jeu tout neuf, on augmente son entropie, c'est à dire le désordre des cartes. Pour Boltzmann, ce principe n'est pas une loi absolue. Car il existe une probabilité infinitésimale, pour que le jeu de cartes, une fois battu, revienne à son état ordonné initial. Certes il faudrait que s'écoule plusieurs fois l'âge de l'Univers pour que l'opération réussisse… Un état d'entropie maximale, de désordre maximal, est pour un système l'état le plus probable. Pour un corps noir, cet état est l'équilibre thermique, c'est à dire exactement la situation que Planck affrontait en essayant de trouver la répartition énergétique la plus probable parmi ses résonateurs. Planck découvrit en désespoir de cause, qu'en adoptant la démarche probabiliste de Boltzmann, il pouvait obtenir une réponse en accord avec l'expérience, en considérant l'énergie à chaque fréquence comme étant composée d'un nombre de "paquets" définis et égaux, qu'il appellera des "quanta d'énergie". Alain Couleau - Club Vega - 2014 Et pour rendre la formule finale exacte, il trouva qu'il lui fallait fixer le quantum d’énergie, pour n'importe quelle fréquence particulière, selon une règle mathématique et physique étonnamment simple : Quantum d'énergie = h fois la fréquence ou E = hn Cette formule allait devenir l'une des équations les plus célèbres de la science. h est une nouvelle constante de la physique introduite par Planck, qui deviendra rapidement la clé de voûte de la physique quantique. Pourquoi la lettre "h", parce qu'elle est l'initiale du mot allemand "hilfe", qu'on peut traduire par "au secours", qui rendait bien compte du désespoir dans lequel Planck se trouvait. Cette nouvelle constante qui allait devenir si célèbre, n'était pourtant pas imposante du tout. Sa valeur équivalait seulement à 6,626 x 10-34 joules par seconde Cette idée était fantastique. Elle revenait à admettre que l'oscillation d'une balançoire pouvait avoir une amplitude de un, deux, trois, quatre… mètres, mais pas une amplitude de un mètre vingt-cinq par exemple, ou de tout autre valeur intermédiaire. En réalité la valeur infinitésimale de la constante h, rend les effets quantiques invisibles dans notre univers quotidien, quand il s'agit par exemple de balançoires… Avec ces "paquets" définis d'énergie, on pouvait faire disparaître la "catastrophe ultraviolette", en imposant aux hautes fréquences rebelles, la constitution de "paquets" beaucoup plus gros que ceux des basses fréquences. Prenons un exemple simple pour mieux comprendre… Imaginez un haltérophile et assimilons à un quantum d'énergie, l'énergie nécessaire pour soulever une barre d'un certain poids. Le corps du sportif possède une quantité d'énergie suffisante pour remplir un quantum lui permettant de soulever une barre de 10, puis de 30, 50 kg… Mais la barre devenant de plus en plus lourde, il aura de plus en plus en plus de mal à la soulever, car sa quantité d'énergie personnelle ne suffira plus pour remplir un quantum. Si, en jargon sportif, on dirait qu'il se met "dans le rouge", Planck aurait pu dire dans "l'ultraviolet". Alain Couleau - Club Vega - 2014 Le Vendredi 14 Décembre 1900, un peu après 17 heures, Max Planck s'adresse aux membres de la Société de Physique allemande rassemblés à Berlin et commence son exposé "Sur la théorie de la loi de la répartition énergétique du spectre normal". La Physique Quantique venait de naître mais personne dans l'auditoire n'en avait vraiment conscience... Pendant très longtemps, Planck accepta mal cette façon de voir qui troublait sa conception déterministe de la science. C'était pour lui, "un truc mathématique" qui n'avait aucune réalité physique… A la fin de sa vie, il expliquait encore : "Mes vaines tentatives pour réconcilier tant soit peu la théorie quantique élémentaire et la théorie classique, se poursuivirent pendant des années et me coutèrent de grands efforts…" 2ème Acte L'EFFET PHOTOÉLECTRIQUE Le second acte dans la genèse de la théorie des quanta s'ouvre cinq ans plus tard, en 1905, avec la publication d'un article au titre modeste : "Sur un point de vue heuristique* concernant la production et la transformation de la lumière." * heuristique = qui est utile à la découverte". Son auteur… un certain Albert Einstein, qui pour comprendre la nature de la lumière, s'est penché sur l'effet photoélectrique. Remontons quelques instants le cours du temps… Alain Couleau - Club Vega - 2014 En 1887, quelques mois après son expérience confirmant la nature électro-magnétique des ondes lumineuses , Hertz montre en interposant différents matériaux (lames de quartz, plaques de mica et de verre…), que ce sont les rayons ultraviolets qui sont à l'origine du phénomène observé. Dans les années suivantes, c'est son assistant, Philipp Lenard, qui poursuit l'étude de cet effet, en utilisant des tubes ayant un vide poussé. Il met en évidence le rôle des électrons découverts par Joseph John Thomson, et constate que d'une part, l'intensité du rayonnement lumineux ne joue aucun rôle dans l'effet photoélectrique et que, d'autre part, observation encore plus étrange, il n'existe plus de courant électrique, quelque soit l'intensité de la lumière, en dessous d'une certaine fréquence. Et ça, c'était inexplicable dans le cadre de la théorie électromagnétique de Maxwell, où la lumière est conçue comme une onde avec une énergie continûment répartie dans l'espace. Selon cette théorie, en augmentant l'intensité, c'est à dire la quantité de lumière incidente, la vitesse des électrons aurait dû augmenter. Ce qui n'était manifestement pas le cas : la vitesse restait exactement la même et c'était le nombre d'électrons qui, lui, augmentait. Il y avait là un désaccord entre la théorie et l'expérience, aussi grave que la catastrophe ultraviolette... C'est là que nous retrouvons notre cher Albert qui, ayant lu avec passion les travaux de Lenard, va proposer une explication révolutionnaire de l'effet photoélectrique. Nous avons vu que selon Planck, l'énergie ne pouvait habiter la matière que sous forme de "paquets", des "quanta d'énergie". Mais en dehors de la matière, là où elle apparaissait sous forme de radiation, l'énergie restait soumise aux lois continues établies par Maxwell. Pour Einstein, les deux idées ne s'accordaient pas entre elles. Il pensait que l'harmonie serait rétablie si la radiation était elle-aussi, formée de "paquets"… "La conception usuelle selon laquelle, l'énergie de la lumière est distribuée de façon continue dans l'espace où elle est rayonnée, présente quand on tente d'expliquer les phénomènes photoélectriques, de très sérieuses difficultés…" écrit-il dans son article. Voyons comment Einstein s'y est pris pour résoudre le mystérieux effet photoélectrique… Là où Planck avait exigé que la matière seulement, absorbe ou émette l'énergie par paquets, Einstein affirmait que même après avoir été émis par la matière, chaque quantum d'énergie, au lieu de se comporter uniquement comme une onde pour le bon plaisir de Maxwell, devait aussi se comporter plus ou moins comme une particule de Alain Couleau - Club Vega - 2014 lumière - qu'on appellera plus tard photon (terme proposé par le chimiste américain, Gilbert Newton Lewis en 1926). Cette proposition révolutionnaire avait ceci d'étrange qu'elle faisait revenir sur le devant de la scène, la vieille théorie corpusculaire de la lumière de Newton, tombée dans l'oubli. En supposant que la lumière est constituée de grains d'énergie, Einstein démontre simplement que cette énergie permet d'extraire un électron de l'atome en lui communiquant une énergie égale à son énergie de liaison, le reste étant emporté par l'électron sous forme d'énergie cinétique. Et ce transfert d'énergie provoquant la libération de l'électron ne peut se faire qu'à partir d'une certaine fréquence de la lumière, l'intensité elle, ne jouant aucun rôle. Comparons pour mieux comprendre, nos quantas de lumière à de petites boules faites de matières différentes (plastique, bois, acier), pesant respectivement 10 , 30 et 300 grammes. En visant avec chacune de ces trois boules, animées d'une même vitesse, une autre boule immobile, pesant 50 grammes (assimilable à un électron contenu dans une matière métallisée), située à quelques mètres de nous, nous verrons que l'impact produit sur cette dernière sera forcément différent. Avec la boule en plastique, on ne pourra jamais faire bouger la boule cible. L'énergie de la boule lancée étant trop faible, elle rebondira sur la cible. Nous nous situons dans l'infrarouge. Avec la boule en bois, on pourra parfois faire bouger la cible (quelquefois, un électron sera éjecté). Nous nous situons dans le violet. En revanche, avec l'importante énergie véhiculée par la boule en acier, la cible sera toujours déplacée. Nous nous situons alors dans l'ultraviolet. J'ignore si Einstein savait jouer à la pétanque, mais son interprétation à la fois simple et élégante permettait de retrouver les constats expérimentaux faits par Lenard. La relation E = hν relie le caractère ondulatoire de la lumière (représenté par sa fréquence ν), à son caractère corpusculaire (représenté par le grain d'énergie E). C'est la constante de Planck qui fait le lien entre ces deux mondes (ondulatoire et corpusculaire). Alain Couleau - Club Vega - 2014 Einstein donne ainsi une interprétation physique à cette constante h, contrairement à Planck qui essaie à cette époque de la faire disparaître. Cette idée "farfelue" de quanta de lumière ne fut pas bien reçue du tout et elle eut très peu de partisans au début. Max Planck lui-même, écrira en 1913, en parlant d'Einstein : "Il ne faut pas trop lui tenir rigueur de ce que, dans ses spéculations, il ait occasionnellement pu dépasser sa cible, comme par exemple avec son hypothèse des quanta de lumière." Le physicien américain, Robert Andrews Millikan, croyait lui-aussi que la théorie d'Einstein était erronée. Il entreprit même pendant dix ans, toutes une série d'expériences en illuminant une électrode de sodium avec des lumières de fréquences différentes et en mesurant l'énergie cinétique maximale des électrons éjectés. Alain Couleau - Club Vega - 2014 Il trouva qu'aucun électron n'était émis pour des fréquences inférieures à 4,39 x 1014 Hz (ou des longueurs d'onde supérieures à 683 nm - couleur rouge) et que les résultats étaient indépendants de l'intensité lumineuse. Il publie donc ses résultats en 1916, confirmant les prédictions d'Einstein et il écrira plus tard : "J'ai passé dix ans de ma vie à vérifier expérimentalement l'équation trouvée par Einstein en 1905, et contrairement à toutes mes prévisions, je fus contraint, en 1915, d'affirmer que sa confirmation était indiscutable en dépit de son caractère déraisonnable, car elle semblait contredire tout ce que nous savions sur les interférences lumineuses". Pour ses travaux sur l'effet photoélectrique, Einstein recevra le prix Nobel de Physique en 1921. La preuve expérimentale de la nature duale du rayonnement électromagnétique sera apportée en 1924, par Arthur Compton, et fera taire les derniers sceptiques. En bombardant des atomes de carbone avec des rayons X, Compton nota que le rayonnement était parfois diffusé avec une longueur d'onde accrue, qui dépendait de l'angle de diffusion. Or, d'après la théorie ondulatoire, elles auraient dû être strictement identiques. Cette différence signifiait que les rayons X diffusés n'étaient pas les mêmes que ceux qui avaient été projetés sur la cible. Pour expliquer ça, Compton se tourna vers les quanta de lumière d'Einstein et trouva que "la longueur d'onde et l'intensité des rayons diffusés sont ce qu'elles devraient être si un quantum de rayonnement rebondissait sur un électron comme une boule de billard rebondit sur une autre". C'était la preuve incontestable de l'existence des quanta de lumière, que nombre de physiciens réfutaient jusqu'alors. Alain Couleau - Club Vega - 2014 Ainsi la lumière dont on ne peut discuter le caractère ondulatoire continu, a aussi une structure corpusculaire, discontinue. Il apparaissait intolérable aux physiciens de l'époque, que la lumière puisse être à la fois deux choses aussi contradictoires et cela les torturait. Ils supportaient bon gré, mal gré cette idée, disant d'une voix triste et plaintive, que les lundis, mercredis et vendredis il leur fallait considérer la lumière comme une onde, et les mardis, jeudis et samedis comme une particule. Les dimanches, tout simplement, ils priaient. Loin d'apaiser les esprits, cette nouvelle illustration de la théorie des quanta, ne faisait qu'accroître la confusion. D'autant que le virus quantique allait poursuivre ses ravages en s'introduisant au coeur de l'atome. 3ème Acte L'ATOME QUANTIQUE Le troisième acte dans la genèse de la théorie des quanta va s'intéresser à la structure de l'atome. Il est bon de rappeler que, si le concept d'atome avait était évoqué dès le Vème siècle avant J.C. par les philosophes grecs Leucippe et Démocrite, les physiciens de ce début du XXème siècle n'avaient aucune idée de sa structure interne. Certains même comme Max Planck, n'y croyaient pas. Et ce qui intriguait les partisans de l'atomisme, c'était la particularité du spectre de l'atome. Alain Couleau - Club Vega - 2014 1. Le spectre atomique De quoi s'agit-il ? On savait, grâce à de nombreuses expériences réalisées à l'époque, que chaque atome pouvait émettre ou absorber de la lumière. Si par exemple la matière est fortement chauffée, les atomes entrent en collision les uns avec les autres du fait de l'agitation thermique. Ils sont alors dans un état excité qui se traduit par l'émission de lumière. Nous avons vu une occurrence de ce phénomène avec le corps noir. Cette lumière envoyée sur un prisme peut être décomposée en ses différentes couleurs (longueurs d'onde), révélant alors le spectre de l'atome considéré. Chaque spectre est unique. C'est en quelque sorte la signature, l'empreinte digitale de l'élément qui l'a émis. Ainsi, par exemple, l'observation du spectre d'une étoile permet de connaître sa composition. C'est de cette manière que l'on sait que notre Soleil est composé en grande partie d'hydrogène et d'hélium, et d'un peu de carbone, d'azote et d'oxygène. Et c'est comme cela qu'on découvrit l'hélium, la première fois. Son nom vient d'hélios (soleil en grec). Lorsqu'on observe des raies lumineuses sur un font sombre (en chauffant un gaz par exemple), on parle de spectre d'émission. Lorsqu'on observe des raies sombres sur un spectre lumineux, on parle d'un spectre d'absorption. Alain Couleau - Club Vega - 2014 Bien entendu, l'un est simplement le négatif de l'autre. Cette émission ou absorption de lumière, seulement pour certaines longueurs d'onde très particulières, que ne pouvait expliquer la physique classique, interpellait les savants de l'époque. 2. Les modèles historiques de l'atome - Tout commence avec la découverte par Wilhelm Röntgen en 1895, des rayons X. Il effectuait des expériences sur le passage de décharges électriques à travers des gaz, lorsqu'il mit la main dessus presque par hasard, en remarquant la lueur que ces rayons faisaient apparaître dans un corps fluorescent placé près de son appareil. - Cette découverte amena un an plus tard, le savant français Henri Becquerel, à faire une découverte accidentelle d'une importance plus grande encore. Il s'aperçut que l'uranium, l'élément le plus lourd connu à cette époque, émettait spontanément des rayons X. Comment se produisait cette émission et d'où venait-elle ? Becquerel venait de buter sur ce que nous appelons aujourd'hui, la radioactivité. - Ces radiations exercèrent alors une fascination irrésistible sur une jeune savante de l'époque, Marie Curie. Avec son mari, Pierre, elle découvrit l'existence de deux nouveaux éléments beaucoup plus puissamment radioactifs que l'uranium, qu'ils baptisèrent Polonium et Radium. La radioactivité du radium était presque incroyable, deux millions de fois plus importante que celle de l'uranium. On allait reconnaître en lui, un témoin éclatant de l'ébullition et du bouillonnement terribles qui agitent le coeur même de la matière. - C'est grâce aux expériences menées dès le début du XXème siècle par Ernest Rutherford et son collaborateur Frederick Soddy, que l'on pût alors comprendre le mécanisme de la radioactivité du radium. Alain Couleau - Club Vega - 2014 Les atomes émettaient trois sortes de rayons appelés, rayons a, rayons b et rayons g. Les rayons g se révélèrent être des rayons X beaucoup plus pénétrants que ceux découverts par Röntgen. Les rayons b se trouvèrent être des courants d'électrons, identifiés par Joseph John Thomson en 1897. Quant aux rayons g, résultant de l'explosion des atomes de radium, c'étaient des atomes d'une substance différente, un gaz très léger appelé hélium, dans un état dit ionisé, parce que électriquement chargé. • le modèle "plum pudding" de Joseph John Thomson Dans la foulée de sa découverte de l'électron, J. J. Thomson propose en 1902, le premier modèle atomique sur le modèle du "plum pudding" (pain aux raisins). Dans ce modèle électriquement neutre, les électrons sont considérés comme des raisins négatifs, répartis dans du pain de matière positive, qui neutralise les forces de répulsion entre les électrons qui, autrement ferait éclater l'atome. L'atome venait de perdre son statut d'insécabilité. Pour tout élément donné, Thomson envisageait une disposition unique de ces électrons atomiques en anneaux concentriques. Toutefois, ce modèle soulevait de nombreuses interrogations : quelles sont les dimensions effectives de l'atome ? Quelle est la nature de la charge positive ? Combien d'électrons contient un atome ? Comment le rendre stable ? • le modèle "planétaire " d'Ernest Rutherford En 1907, Ernest Rutherford s'attache à étudier le modèle atomique de Thomson. A l'aide de deux assistants, Hans Geiger et Ernest Marsden, il décide d'utiliser les particules alpha, très petites et très rapides, qu'il a découvertes, pour bombarder une feuille d'or très mince. Il s'attend à ce que les particules, soit traversent toutes la feuille d'or, soit ne la traversent pas puisque la matière est homogène. Alain Couleau - Club Vega - 2014 Pour cette expérience, il utilise un échantillon de radium radio-actif et des détecteurs fluorescents, derrière et sur les côtés en avant de la feuille d'or. Les observations relevées par Rutherford et ses assistants, sont les suivantes : - la plupart des particules alpha traversent la feuille d'or sans déviation. - plusieurs particules sont légèrement déviées lors de la traversée de la feuille d'or. - de rares particules (1/8 000) rebondissent carrément vers la source, comme si elles avaient frappé un mur. Stupéfait, Rutherford s'exclame : "c'est aussi peu croyable que si nous avions un obus sur du papier de soie et que l'obus nous soit revenu en pleine figure." Il en déduit que cette déviation de particules alpha positives ne peut résulter que de la présence d'un noyau chargé positivement au coeur des atomes, puisqu'il y a répulsion. En 1911, il propose son modèle "planétaire", comparant l'atome à un minuscule système solaire où des électrons, infimes particules négatives, gravitent autour d'un minuscule noyau central de charge positive, contenant pratiquement toute la masse de l'atome. Cette analogie apparemment saugrenue, le séduit, car il y voit une inspiration divine lui permettant d'unifier l'infiniment grand et l'infiniment petit. Le noyau, dix mille fois plus petit que l'atome n'occupe qu'un volume infime, "comme une mouche dans une cathédrale". Essayons d'imaginer le noyau de Rutherford à une échelle plus grande… Imaginons un noyau de la taille d'un ballon de football… l'électron le plus proche graviterait à une distance de 800 m, le reste de l'atome étant constitué d'un espace complètement vide. Alain Couleau - Club Vega - 2014 Pour le dire autrement, si on devait aspirer le vide de tous les atomes qui constituent notre corps, nous rétrécirions pour devenir plus petits qu'un grain de sel, tout en pesant le même poids. Seulement voilà… selon ce que savaient les scientifiques de l'époque au regard des lois de l'électromagnétisme, l'électron qui tourne autour du noyau, subit une accélération radiale, tout comme une voiture dans un virage. Dès lors, parce qu'il porte une charge électrique, il perd de son énergie en émettant de la lumière (c'est sa façon à lui de faire crisser les pneus). Et là, il y a un hic… Puisqu'il perd de l'énergie, l'électron se rapproche inexorablement du noyau en suivant une spirale, jusqu'à finalement s'écraser sur lui, en une fraction de seconde… Et pourtant, les atomes sont des édifices stables… donc l'atome de Rutherford contredisant les lois communes de la science, était condamné, à peine né... Evidemment, tous les grands scientifiques de l'époque étaient perplexes. Les concepts scientifiques auxquels ils avaient crû toute leur vie, échouaient complètement à expliquer l'atome… • le modèle "quantique " de Niels Bohr En 1913, Niels Bohr, jeune assistant de Rutherford, décide de comprendre pourquoi l'atome ne s'écrase pas et pourquoi il contient tant d'espace vide. Puisque la physique classique de Newton et Maxwell ne vaut plus au niveau atomique, il eut l'idée d'appliquer le postulat de quantification à la description de l'atome. Il était convaincu que le problème de la stabilité de l'atome pouvait être résolu si on partait du principe que l'énergie cinétique des électrons en mouvement autour du noyau, était reliée au quantum découvert à contrecoeur par Planck, et dont Einstein s'était fait le champion. Pour cela, il va introduire dans le modèle de Rutherford, le concept révolutionnaire, de saut quantique. De quoi s'agit-il ?… Bohr décrit l'atome, non pas comme un système solaire en miniature, mais comme un immeuble à plusieurs étages. Alain Couleau - Club Vega - 2014 Au rez-de-chaussée se trouve le noyau, et les électrons occupent les étages au-dessus. Des lois mystérieuses auxquelles il fait appel, font que : - d'une part, les électrons ne peuvent vivre que dans les étages, et jamais entre deux. En clair, ils ne peuvent tourner que sur certaines orbites, définies par une règle faisant intervenir la vitesse, le rayon de l'orbite et un nombre entier n, appelé nombre quantique principal. La région entre deux orbites est un « no man’s land ». - d'autre part, les électrons peuvent sauter en un instant d'un étage à l'autre. C'est ce que l'on appelle les sauts quantiques. Quand un électron saute d'un étage supérieur à un étage inférieur, il émet de la lumière. La couleur de cette lumière dépend de l'importance du saut quantique de l'électron. Ainsi un électron sautant du 4ème au 3ème étage pourra émettre une lumière rouge, tandis qu'un électron sautant du 6ème au 2ème étage pourra émettre une lumière bleue. Mais en aucun cas, il ne pourra descendre au-dessous d'une orbite dite "fondamentale" où se situe l'énergie la plus basse. Donc pas de risque de s'écraser sur le noyau. En revanche, pour qu'un électron puisse passer d'un étage inférieur à un étage supérieur (orbite dotée d'une plus grande énergie), il faudra que l'atome absorbe un photon d'une énergie exactement égale à la différence d'énergie existant entre les deux orbites. Les électrons tournent sur des orbites circulaires correspondant à des niveaux d'énergie autorisés. En désignant ces orbites par des entiers positifs, 1, 2, 3, etc, Niels Bohr introduisit le premier nombre quantique de la physique moderne, n. Au départ, simple construction de l'esprit sans justification apparente, la théorie de Bohr, démontre de façon très élégante, pourquoi un atome a une structure stable. Et elle va connaître à postériori d'éclatants succès. Elle va, entre autres, permettre d'expliquer les raies spectrales (radiations lumineuses de fréquences bien précises), émises ou absorbées par les différents corps chimiques. Alain Couleau - Club Vega - 2014 Quand un électron, placé sur une orbite élevée, descend sur sur une orbite inférieure, il émet un photon d'une fréquence (ou longueur d'onde) déterminée, qui se traduit par l'émission d'une raie colorée sur le spectre considéré. Et inversement, si l'électron absorbe un photon, il gagne de l'énergie et passe d'une orbite basse à une orbite plus haute, ce qui se traduit par une raie spectrale d'absorption. Ce modèle d'atomes à couches d'électrons, va permettre aussi d'expliquer le placement et le groupement des éléments dans la table périodique. Des éléments qui partagent les mêmes propriétés chimiques le font, selon Bohr, parce qu'ils ont le même nombre d'électrons dans leur couche extérieure. Mais si le modèle atomique de Bohr permettait de décrire correctement l’atome d’ hydrogène, il peinait à décrire des atomes à plusieurs électrons. Le physicien allemand Arnold Sommerfeld, l'améliora en 1916, en donnant aux électrons deux degrés de liberté supplémentaires, les autorisant à circuler sur des orbites elliptiques, comme les planètes autour du Soleil, et à modifier leur trajectoire en présence d'un champ magnétique. Il ajouta donc deux nombres, l, le nombre quantique orbital, et m, le nombre quantique magnétique. Alain Couleau - Club Vega - 2014 Ce modèle permettait d'expliquer une particularité du spectre atomique découvert par le physicien hollandais, Pieter Zeeman en 1886, et que la physique classique ne parvenait pas à comprendre. En étudiant le spectre du sodium, Zeeman avait constaté qu'en approchant un aimant de la lampe, la raie jaune caractéristique du sodium se subdivisait en trois raies. L'électron se comportait donc comme un petit circuit électrique sensible au champ magnétique extérieur, qui modifiait ses niveaux d'énergie. Malgré tout, le modèle établi par Bohr-Sommerfeld souffrait encore de beaucoup d’imperfections, car il ne rendait pas compte de deux phénomènes qui étaient encore autant d'énigmes pour la communauté scientifique. - Le premier nous ramène à la spectroscopie du sodium. Quand le champ magnétique s'intensifie, la raie du sodium se subdivise encore en nombre de raies pair. C'est ce qu'on a appelé l'effet Zeeman «anormal» ou "anomal". Et ça, il était impossible de l'attribuer au mouvement orbital de l'électron. Alors pour expliquer cette décomposition énigmatique des raies spectrales, Wolfgang Pauli, physicien autrichien, proposa en 1925, d'attribuer un quatrième nombre quantique ambivalent (ne pouvant contenir que deux valeurs), aux électrons dans les atomes. - Le deuxième phénomène a été observé en 1922 par les physiciens allemands Otto Stern et Walther Gerlach. En faisant passer un faisceau d'atomes d'argent à travers un champ magnétique, qu'ils projettent sur un écran, ils remarquent l'apparition de deux petites tâches symétriques, là encore impossibles à rattacher au mouvement orbital de l’électron. Alain Couleau - Club Vega - 2014 Mais quelle était donc la signification physique du ce quatrième nombre quantique proposé par Pauli ? Deux physiciens néerlandais George Uhlenbeck et Samuel Goudsmit émirent à la même époque, une hypothèse étonnante, mais juste : comme la Terre tourne autour de son axe, l'électron tourne sur lui-même. Cette "rotation" qui lui confère un degré supplémentaire de liberté, ils l'appelèrent "spin" (toupie en anglais). Cette rotation quantique devenait responsable du dédoublement des niveaux d'énergie dans l'effet Zeeman "anormal". L'expérience d'Otto Stern et Walther Gerlach montrait que le spin ne pouvait prendre que deux valeurs, spin « vers le haut » (+1/2) et spin « vers le bas » (-1/2), comme si l'électron avait un pôle nord et un pôle sud. Ainsi, pour parfaitement définir un atome, il faut 4 nombres quantiques : - la position de l'orbite, n (découvert par Bohr), - la forme de l'orbite, l (de Sommerfeld), - le champ magnétique, m (de Sommerfeld), - l'orientation du spin, s (de Pauli). Poursuivant sa démarche, Wolfgang Pauli énonce son Principe d'exclusion, qui allait pouvoir expliquer pourquoi les électrons d'un atome ne se réfugient pas tous sur l'orbite la plus proche du noyau dans un état fondamental (ce qui semblerait pourtant logique, puisqu'elle possède l'énergie la plus basse de l'atome). Alain Couleau - Club Vega - 2014 Qu'énonce ce principe ? Que dans un atome, il ne peut exister sur la même orbite, deux électrons aux caractéristiques quantiques identiques (valeurs identiques des quatre nombres quantiques). Non seulement la matière est essentiellement vide (l'atome est vide à 99,99 %), mais en plus les particules doivent obéir à des règles de placement. Ce principe fondamental de la physique quantique est essentiel pour comprendre : - la stabilité des atomes et leurs propriétés électroniques, - les électrons dans les métaux, les supraconducteurs, - la stabilité des étoiles à neutrons... La découverte de Pauli fut la dernière réussite de l'«ancienne» théorie des quanta. La crise menaçait. L'état de la physique était, d'un point de vue méthodologique, un lamentable mélange d'hypothèses, de principes, de théorèmes et de recettes de calcul plutôt qu'une théorie logique et cohérente. Le pot-pourri de règles quantiques et de physique classique qui était au cœur de l'atome de Bohr-Sommerfeld devait céder la place à une nouvelle théorie logiquement cohérente que Niels Bohr baptisa « mécanique quantique». Il était temps de passer à l'élaboration des outils mathématiques formels indispensables pour assurer la cohérence de la théorie. Alain Couleau - Club Vega - 2014 II. L'ÉLABORATION D'UNE THÉORIE : La difficile écriture d'un formalisme mathématique 1914... le monde plonge dans la guerre, provoquant l'exode de nombreux scientifiques européens vers le Nouveau-Monde. Mais c'est une autre guerre qui continue à se dérouler dans les milieux scientifiques, celle de l'onde et du corpuscule, conduite par les des deux plus grands scientifiques de l'époque, Niels Bohr et Albert Einstein. Comme pratiquement tous les autres physiciens, Bohr ne croyait pas à l'existence des quanta de lumière d'Einstein. Il admettait comme Planck, que le rayonnement soit émis et absorbé sous forme de quanta, mais pas que le rayonnement lui-même soit quantifié. Il y avait pour lui carrément trop de preuves en faveur de la théorie ondulatoire de la lumière. Einstein, lui, était embarrassé par la révélation que le hasard et les probabilités étaient à l'oeuvre au coeur de l'atome quantique. La causalité semblait menacée, même s'il ne doutait plus de la réalité des quanta. "Je trouve intolérable l'idée qu'un électron exposé à un rayonnement, choisisse de sa propre initiative, non seulement le moment où il sautera, mais aussi sa direction", dira-t-il. En 1924, plus sûr de lui après la confirmation par "l'effet Compton", de l'existence des quanta de lumière, il résume ainsi la situation : "Il y a donc maintenant deux théories de la lumière, l'une comme l'autre, indispensable et sans aucun lien logique ». Rappelons que l’effet Compton résulte de la collision d’un photon et d’un électron : le photon rebondit sur un électron cible et perd de l’énergie (sa longueur d’onde s’en trouve accrue). Ce qui démontre que la lumière ne peut pas être purement décrite comme seulement une onde, mais aussi comme une particule. Alain Couleau - Club Vega - 2014 Einstein voulait dire que la théorie ondulatoire, comme la théorie des quanta, étaient en quelque sorte valides en même temps. La lumière était de nature duelle, à la fois ondulatoire et corpusculaire, et les physiciens étaient totalement obligés de l’accepter. Revenons quelques instants sur cette fameuse dualité onde - corpuscule… 1. La dualité Onde - Corpuscule • Les fentes de Thomas Young Rappelons que la physique classique distingue essentiellement deux sortes d'objets, en un sens opposés : - les corpuscules, d'une part, qui sont des entités punctiformes, localisés dans une région très restreinte de l'espace, qui décrivent des trajectoires nettes le long desquelles, à tout instant, leur position et leur vitesse sont bien déterminées. - les ondes, d'autre part, qui au contraires ne sont pas précisément localisées, qui occupent une certaine étendue spatiale et qui n'ont pas plus de trajectoire que la houle de l'Atlantique venant frapper les côtes bretonnes. Les ondes ne transportent rien, elles ne font que transmettre de l'énergie et de l’information. Par exemple, si nous tendons une corde et agitons une de ses extrémités, nous envoyons une onde qui se propage le long de la corde sans que cette dernière quitte notre main pour courir après l'onde. Alain Couleau - Club Vega - 2014 Autre différence, capitale celle-là pour la suite : les ondes de même nature physique sont capables de se superposer, leurs amplitudes s'additionnant ou se soustrayant, créant des figures d'interférences comme l'avait démontré Thomas Young dans sa célèbre expérience des deux fentes. Cette expérience des deux fentes est le juge de paix capable de dire à quel objet nous avons affaire. Imaginons une machine capable de lancer des billes vers un mur percé de deux fentes parallèles. La plupart des billes sont arrêtées par le mur. D'autres passent par la première ou la deuxième ouverture, soit directement, soit en ricochant sur l'un des bords, et viennent frapper l'écran situé derrière le mur. Alain Couleau - Club Vega - 2014 Les billes se comportent bien comme des corpuscules durs et bien isolés les uns des autres. Chaque bille frappe l'écran en un point unique, les impacts étant plus nombreux en face des fentes. Refaisons la même expérience, mais avec des ondes. Lorsque les ondes sortent des deux fentes, elles forment deux fronts d'onde qui vont interférer. Si les ondes qui sortent d'une fente arrivent en phase avec celles de l'autre, les crêtes s'ajoutent de façon constructive et l'onde résultante est plus grande. Si elles sont en "opposition de phase", les creux de l'une arrivant en même temps que les crêtes de l'autre, le résultat s'annule. On observe sur l'écran une figure typique d’interférence. Mais comment expliquer le comportement de la lumière. Est-elle un corps spécifique ou est-elle le mouvement spécifique d'un corps ? • Louis de Broglie, le Prince de la dualité Le 25 Novembre 1924, Louis de Broglie, passionné par les découvertes de Planck et de Einstein sur les quanta, présente sa thèse intitulée "Recherche sur la Théorie des Quanta", devant un jury universitaire comprenant entre autres, Paul Langevin (le père des jumeaux). Les membres du jury sont tellement déconcertés par ses arguments auxquels ils ne comprennent rien, qu'ils réclament par l'intermédiaire de Langevin, l'avis d’Einstein. En réponse, celui-ci leur écrit : "Il a soulevé un coin du grand voile..." Alain Couleau - Club Vega - 2014 Cette phrase sibylline, gratifiante pour Louis de Broglie, n'aide pas vraiment les membres du jury à mieux comprendre, mais les rassure suffisamment pour lui accorder le titre de Docteur en physique, avec leurs félicitations. C'est ce travail qui lui vaudra le Prix Nobel de Physique en 1929. Notons qu'il est extrêmement rare qu'un Prix Nobel soit attribué sur un travail de thèse. Dès 1923, Louis de Broglie avait déjà accepté « l'hypothèse des quanta de lumière », à un moment où Compton n'avait pas encore communiqué quoi que ce soit sur ses expériences. Il pensait que l'on pouvait associer à toute particule matérielle (notamment l'électron), une "onde de matière", une onde-pilote qui, en quelque sorte, la guidait dans son voyage sans se confondre avec elle. "La source désapprouve presque toujours l'itinéraire du fleuve", disait-il. Si les ondes lumineuses peuvent se comporter comme des particules, pourquoi des particules telles que les électrons ne peuvent-elles pas se comporter comme des ondes? L'idée de de Broglie de traiter les électrons comme des ondes stationnaires, différait radicalement de la conception des électrons comme particules gravitant autour d'un noyau atomique. On peut par exemple,facilement produire des ondes stationnaires dans des cordes attachées aux deux extrémités, telles qu'elles sont utilisées dans les violons et les guitares. Pincer une de ces cordes produit une variété d'ondes stationnaires dont la caractéristique essentielle est qu'elles sont composées d'un nombre entier de demi- longueurs d'onde. La plus grande onde stationnaire possible a une longueur d'onde double de celle de la corde. L'onde stationnaire suivante est composée de deux de ces unités Alain Couleau - Club Vega - 2014 d'une demi-longueur d'onde, ce qui donne une longueur d'onde égale à la longueur physique de la corde. La suivante est une onde stationnaire consistant en trois demilongueurs d'onde, et ainsi de suite en montant la gamme. Cette séquence numérique d’ondes stationnaires est la seule qui soit physiquement possible et chaque onde a sa propre énergie. Etant donné la relation entre fréquence et longueur d'onde, cela équivaut à dire qu'une corde de guitare, une fois pincée, ne peut vibrer qu'à certaines fréquences, en commençant par la plus basse, la note fondamentale ou tonique. Pour pouvoir affirmer que toute particule est associée à une onde, il faut d'abord démontrer qu'elles suivent toutes les deux le même chemin. C'est ce que démontre Louis de Broglie en faisant appel conjointement à deux principes vieux de trois siècles : - celui énoncé par Pierre de Fermat, qui démontre qu'une onde lumineuse emprunte toujours le trajet qui la favorise pour aller le plus rapidement possible d'un point à un autre. - et celui de Pierre Louis Moreau de Maupertuis, appelé "principe de moindre action", qui fait une démonstration identique, mais avec une particule matérielle. Une fois la démonstration faite que les trajectoires d'une onde et d'une particule, d'un point à un autre, sont pratiquement les mêmes, Louis de Broglie peut alors affirmer que l'orbite d'un atome peut être représentée par une onde périodique stationnaire circulaire fermée. Et puisque dans l'atome de Bohr, les électrons tournent autour du noyau sur des orbites de rayon différent, l'onde pilote a forcément un nombre déterminé d'ondes périodiques stationnaires. Alain Couleau - Club Vega - 2014 De Broglie donne donc une image de l'atome et des électrons radicalement différente de celle de Bohr. Pour chaque orbite de l'atome, les électrons ne sont plus simplement des particules, mais aussi des ondes reliées aux deux extrémités et vibrant régulièrement. Finis les sauts quantiques des électrons, le passage d'un électron d'une orbite à une autre se faisant simplement par une modification de la fréquence de l'onde, synonyme d'une énergie différente. L'onde pilote constituée d'un ensemble d'ondes superposées, que de Broglie appelle "paquet d'ondes" ou "train d'ondes", se propage de façon linéaire guidant l'électron dans son déplacement. La vitesse de l'électron est liée à la vitesse de ce train d’ondes. Partant de la formule d'Einstein, E = mc2, Louis de Broglie attribue donc à un électron une « onde associée fictive » de fréquence ν et de longueur d'onde λ, ce qui lui permet d'expliquer l'emplacement exact des orbites dans l'atome de Bohr. La longueur d'onde λ de l'onde associée, étant égale à la constante de Planck divisée par la quantité de mouvement du corpuscule (le produit de sa masse par sa vitesse), selon la formule λ = h/p Ce qui a par ailleurs, permis de déterminer une frontière entre les mondes macroscopique et microscopique. En effet dans la formule λ = h/p ou h/mv, la constante de Planck étant très petite, de l'ordre de 6,6 x 10-34, la longueur d’onde ne peut être détectable physiquement que si la masse m, est très petite. C'est le cas de l'électron qui a une masse de 9 x 10-28. Alain Couleau - Club Vega - 2014 Dans le monde macroscopique, même si la masse d'un objet n'est que d'un milligramme, la longueur d'onde λ, qui lui est associée, serait de l'ordre de 10-16, donc difficilement détectable. Par ses hypothèses, Louis de Broglie crée un véritable séisme scientifique dans le monde de l'infiniment petit. L'électron, bien qu'étant une particule de matière, peut aussi se comporter comme une onde. La mécanique ondulatoire était née. La vérification matérielle de cette onde de matière sera faite par hasard en 1927, par deux physiciens américains, Clinton Joseph Davisson et Lester Germer. En bombardant des cristaux de nickel avec des électrons, ils voient apparaître sur leur écran de réception, des phénomènes de diffraction (sous forme de ronds concentriques), révélateurs de la présence d’ondes. Louis de Broglie affirme donc que toute matière (et pas seulement la lumière), a une nature ondulatoire. Soumettons donc cette théorie à l'épreuve de notre juge de paix, l'expérience des deux fentes de Young (comme cela a pu être réalisé dans les années 80)… Un canon à électrons envoie sur une plaque percée de deux fentes, des électrons dotés de la même énergie. Si l'on s'imagine que les électrons sont des corpuscules, chaque électron frappant l'écran en un point unique, on devrait constater une accumulation d'impacts plus nombreux en face des fentes. Mais, surprise, on observe sur l'écran des interférences, signature d'un comportement ondulatoire ! Diminuons l'intensité du canon, de telle façon que les électrons n'en sortent qu'un à un de manière régulière. On constate tout d'abord que chaque électron est capté en un point précis du détecteur. Chaque nouvel impact qui se produit sur l'écran accrédite Alain Couleau - Club Vega - 2014 l'idée que les électrons sont corpusculaires. Mais, petit à petit, à mesure que les impacts s'accumulent, on voit se dessiner sur l'écran le système de franges d'interférences que nous avions obtenu en les envoyant en grand nombre. L'électron n'est donc pas un simple corpuscule. Alors, question : quel genre d'objet est-il ? peut-il n'être ni une onde, ni un corpuscule ? Reprenons notre expérience en nous attachant à déterminer par quelle fente chaque électron passe. Et là, surprise, on n'observe plus d'interférences ! Si nous cherchons à savoir par quelle fente chaque électron est passé, nous retrouvons un comportement corpusculaire. Et réciproquement, si l'on observe les interférences, il devient impossible de dire par quel trou est passé l'électron. On doit donc admettre que la mesure a dérangé ou perturbé le comportement des particules... Et ça, c'est une conception absente de la physique traditionnelle. Alain Couleau - Club Vega - 2014 Résumons la situation… Toutes les particules que considère la physique quantique, de matière ou de lumière, manifestent tantôt des aspects ondulatoires, tantôt des aspects corpusculaires, mais elles ne sont ni des ondes, ni des corpuscules, mais "autre chose ». Pour mieux comprendre cela, parlons de… • la morale de l’ornithorynque En 1798, les taxinomistes du Bristish Museum furent assez surpris de recevoir à fin de classification, un bien étrange quadrupède avec un bec de canard agrafé au bout de la tête. Comment ranger cet inconnu dans une catégorie déjà existante ? - certains, voulant faire de lui un ovipare, nièrent l'existence des mamelles, - d'autres, voulant faire de lui un mammifère, refusèrent d’admettre qu'il put pondre des oeufs. Bref, il fallut quatre vingt années de débats pour qu'enfin soit rigoureusement démontrée l'existence des mamelles et des oeufs et pour conclure que l'ornithorynque est à la fois un mammifère (comme les vaches) et un ovipare (comme les reptiles). Il fallut donc inventer pour lui une nouvelle catégorie d'êtres vivants, celle des monotrèmes. En définitive, l'ornithorynque n'était paradoxal qu'au regard des anciennes catégories. Alain Couleau - Club Vega - 2014 Mais revenons à nos moutons et à l'onde de Louis de Broglie, qui avait simplement étendu le champ de bataille de la théorie de la lumière à la théorie de la matière... En 1924, elle n'était encore qu'une hypothèse non vérifiée et qui luttait pour se faire admettre. Car en vérité, à part Einstein, peu de gens avaient lu la thèse et les articles de de Broglie, parus en français. Il fallait désormais formaliser cette dualité onde-particule, c'est à dire lui trouver un ensemble de règles et propriétés mathématiques pour rendre compte de toutes ses particularités. 2. La mécanique ondulatoire d'Erwin Schrödinger En 1925, Erwin Schrödinger, physicien autrichien installé à Zurich, a 38 ans. Avec ses lunettes rondes, ses yeux gris-bleu, cet éternel séducteur n'a jusqu'alors pas vraiment fait parler de lui. Il tombe au mois d'octobre sur un article d'Einstein mentionnant la thèse de Louis de Broglie sur la dualité onde-corpuscule. Il s'en procure un exemplaire et se passionne à sa lecture. Il acquiert très vite la conviction qu'une particule n'est qu'une crête d'écumes sur un bain d'ondes. Il décide alors de trouver l'équation qui manque aux ondes de matière de Louis de Broglie. Cette insaisissable équation d'onde devait obligatoirement reproduire le modèle de l'atome d'hydrogène avec des ondes stationnaires tridimensionnelles. Au mois de décembre 1925, Erwin Schrödinger renoue avec l'une de ses anciennes maîtresses. Juste avant Noël, ils partent ensemble dans une station de ski des Grisons. Là, sans doute inspiré par sa muse, il élabore une équation à partir de formules consacrées de la physique classique, et de la formule de l'onde pilote mystérieuse de de Broglie, qui guiderait l'électron autour du noyau de l’atome. Alain Couleau - Club Vega - 2014 Un confrère physicien a dit de cette semaine créative de Schrödinger : "Il avait deux tâches cette semaine-là, satisfaire une femme et résoudre l'énigme de l'atome. Par chance, il a été à la hauteur dans les deux cas. » Développant sa mécanique ondulatoire, Schrödinger soutient qu'en réalité l'électron est une onde d'énergie qui vibre si vite, qu'il ressemble à un nuage autour du noyau de l'atome. Cette sorte de nuage virtuel qui enveloppe l'atome, correspondant à toutes les positions potentielles qu’un électron donné est susceptible d’occuper au sein de l’atome et permettant de calculer la probabilité qu’a celui-ci de se retrouver en tel ou tel lieu de l’espace concerné. Son équation, écrite ici dans sa forme la plus dépouillée, semble donc la bonne, du moins pour l'atome le plus simple de la nature, l'atome d’hydrogène.. HΨ=EΨ Dans cette équation apparaît une nouvelle valeur Ψ (psi), qui représente la fonction d'onde et qui, selon Schrödinger, décrit intégralement le comportement du monde subatomique.. H est un opérateur mathématique dit hamiltonien, qui permet de décrire l'évolution du système quantique au cours du temps. E représente le degré d’énergie. Au retour de son escapade amoureuse, il publie un article contenant son équation, suivi d'autres précisant certains aspects mathématiques de la formule. Alain Couleau - Club Vega - 2014 L'aspect réserve à cette nouvelle "mécanique ondulatoire" est enthousiaste, car elle permet aux scientifiques de visualiser l'atome en des termes simples. Einstein écrira même à Schrödinger : "L'idée qui est à la base de vos travaux porte la marque d'un authentique génie. » 3. La mécanique matricielle de Werner Heisenberg À peu près au moment où Schrödinger résout par sa fonction d'onde l'énigme de l'atome d'hydrogène, un autre physicien, Werner Heisenberg, protégé de Niels Bohr, est convaincu qu'il est temps d'abandonner toute image de l’atome. Le modèle de l'atome de Bohr avec ses électrons sauteurs le dérangeait, de même que le brouillard statistique qui entourait l'atome de Schrödinger. L'atome, selon lui est une chose trop capricieuse, trop étrange, pour pouvoir être expliquer simplement. Il décide de prendre le même problème par un autre bout, de faire abstraction de toute représentation de l’atome et de ne le considérer qu’à travers les valeurs numériques qu’on peut lui attribuer. Tout ces idées se cristallisent durant l'été 1925, alors qu'Heisenberg essaie de décrire un atome en prenant essentiellement en compte les seules caractéristiques physiques d'un électron : - quantité de mouvement (impulsion), q, - position, p, - énergie, e, - fréquences et intensités du rayonnement électromagnétique absorbé et émis par l'atome, etc... Mais il s'aperçoit bien vite que pour coder toutes ces informations, les feuilles de calcul mathématique ne suffisent pas. Il choisit alors de fait appel à des tableaux de nombres, et réinvente tout seul le calcul matriciel. Alain Couleau - Club Vega - 2014 Qu'est-ce qu'une matrice ? Les matrices sont des outils mathématiques. Elles forment des entités globales, disposant de propriétés propres et de règles de calcul. Dans les tableaux, les nombres sont disposés en lignes et en colonnes. Chacun des objets contenus dans la matrice peut être repéré par le numéro de sa ligne et celui de sa colonne. Dans cet exemple, le nombre 3 est ainsi repéré par le couple (1,2) : il est sur la première ligne, dans la seconde colonne. Une matrice d'une ligne et d'une colonne, est un nombre entier. Comme pour tout objet mathématique, on peut faire de nombreuses opérations sur les matrices, comme par exemple une addition ou une multiplication. Le calcul matriciel a été développé peu avant 1900, par des mathématiciens italiens. Il était pratiquement inconnu des physiciens de l’époque. Werner Heisenberg rassemble petit à petit toutes les pièces du puzzle. Mais un fait l'intrigue en faisant des opérations de multiplication sur ces tableaux. Le résultat obtenu n'est pas le même suivant l'ordre dans lequel il effectue l'opération. Avec des nombres ordinaires, peu importe dans quel sens on les multiplie : 5 x 4 = 4 x 5 = 20 Les mathématiciens appellent "commutativité", cette propriété. Et là, Werner Heisenberg observait une non-commutativité, le résultat de la multiplication de deux tableaux dépendait de l'ordre dans lequel ils étaient multipliés. Alain Couleau - Club Vega - 2014 Prenons par exemple la multiplication des deux tableaux suivants, T1 et T2, où le nombre 41 est obtenu par la multiplication de chacun des nombres de la première ligne de T1 par ceux de la première colonne de T2 : (2 x 5) + (3 x 1) + (4 x 7). Si nous invertissons les tableaux, le résultat n'est plus du tout le même. L'opération de multiplication entre deux tableaux n'est pas commutative. C'était très intriguant, car ça voulait dire qu'au niveau atomique, lorsqu'on effectue une mesure selon un certain ordre, on obtient pas le même résultat en la faisant dans un ordre différent. Et cela concernait des couples de caractères physiques d'une particule tels que la position et la quantité de mouvement, l'énergie et la durée temporelle, le champ électrique et le champ magnétique… Après de multiples calculs, Werner Heisenberg finit par déterminer l'équation des mouvements d'une particule, démontrant ainsi comme Bohr, mais sans avoir recours à la notion physique d'orbites, que les états énergétiques des électrons sont identifiés par des valeurs numériques entières (ils sont donc quantifiés), et stables durant un certain temps, tant que l'atome n'absorbe pas ou n'émet pas de photons. Époustouflé lui-même d'avoir pu d'avoir pu décrire la structure et les fonctionnalités de l'atome, par un formalisme aussi étrange, Heisenberg fait part de ses calculs à son ami Wolfgang Pauli et à Max Born, son directeur de recherche. Alain Couleau - Club Vega - 2014 Celui-ci, avec l'aide de son assistant Pascual Jordan, mathématicien et spécialiste du calcul matriciel, parvient à trouver rapidement une formule matricielle liant la position et la quantité de mouvement de l'électron, à la constante de Planck. Nouveau formalisme mathématique complet de la nouvelle physique quantique, la mécanique matricielle vient de naître. Fin 1925, elle est présentée au monde scientifique. Les physiciens de l'époque sont choqués par cet outil purement mathématique qu'ils ne parviennent pas a comprendre. Pour Einstein, c'est une hérésie scientifique, un atome ne peut pas être une matrice de nombres. Nous sommes faits d'atomes, pas de nombres. Il dira même, sur un ton goguenard : "Heisenberg nous a pondu un gros œuf quantique. » 4. La synthèse : La théorie de la transformation de Paul Dirac et Pascual Jordan Il y avait maintenant deux théories concurrentes, qui semblaient si différentes tant par la forme que par le contenu, l'une employant des équations d'onde et l'autre l'algèbre matriciel, l'une décrivant des ondes et l'autre des particules, mais qui étaient mathématiquement équivalentes. Chaque auteur était convaincu que sa propre théorie saisissait la vraie nature de la réalité physique. Mais ils ne pouvaient avoir raison tous les deux. Au début, il n'y avait pas d'animosité personnelle entre Schrödinger et Heisenberg lorsqu'ils commencèrent chacun à contester l'interprétation de l'autre en matière de mécanique quantique. Mais le ton monta rapidement. Dans un article, Schrödinger se dira découragé pour ne pas dire dégouté par les méthodes algébriques transcendantes, qu'il trouvait très difficiles, et par le manque de clarté de la mécanique matricielle. Dans une lettre adressée à son ami, Wolfgang Pauli, Heisenberg rétorque sur le même ton : "Plus je réfléchis à la physique contenue dans la théorie de Schrödinger, plus je la trouve repoussante." Alain Couleau - Club Vega - 2014 En vérité, l'équivalence mathématique des deux théories ne permettait toujours pas de comprendre plus profondément la dualité onde-particule. Et qui plus est, si chacune donnait des résultats assez précis pour l'électron unique de l'atome d'hydrogène, c'était pas du tout la même chose pour des électrons beaucoup plus véloces. Il fallait trouver une équation qui marrie la physique quantique, qui traite des objets minuscules, et la théorie de la relativité, qui traite des objets très rapides. C'est Paul Dirac et Pascual Jordan, qui indépendamment l'un de l'autre, en 1926, découvrirent cette théorie que tous attendaient : « la théorie de la transformation », qui fournissait un cadre général englobant les deux théories et définissait les règles pour passer de l'une à l’autre. En entreprenant de fondre les principes de la mécanique quantique de Schrödinger et de Heisenberg avec ceux de la relativité restreinte d’Einstein, Dirac aboutit à une équation qui, absurdement, donne une valeur potentiellement négative à certaines des énergies en jeu. Du coup, confiant dans les formules mathématiques qu’il vient de fabriquer, le savant en arrive à postuler l’existence d’une particule nouvelle, que personne n’a jamais observée, à laquelle nul ne croit, mais dont la nécessité tient au fait qu’elle doit correspondre à l’électron au sein de son système et balancer positivement la charge négative de celui-ci. Posant ainsi le principe qui veut qu’à chaque particule corresponde impérativement son antiparticule, Paul Dirac invente par là même, la notion plutôt paradoxale d’ antimatière. L'énigme de l'atome semblait donc résolue en cette fin d'année 1926, du moins sur le plan mathématique. Il ne restait plus qu'à trouver une interprétation physique de ce formalisme… Et là, de graves désaccords vont se faire jour... Après le temps des équations et des formulations mathématiques, vint le temps de l'interprétation, c'est à dire de la signification physique de ces belles formulations, et de la définition de principes sur lesquels asseoir solidement la physique quantique. Tout cela, nous allons le voir, n'allait pas se passer dans un consensus scientifique béat. Alain Couleau - Club Vega - 2014 III. PRINCIPES ET INTERPRÉTATION : Le temps de la polémique et des controverses L'histoire des quanta, comme vous commencez à l'entrevoir, est très turbulente… Bien sûr, grâce à la théorie de la transformation de Dirac, on avait maintenant une formulation mathématique assez solide, qui permettait de réunir dans un cadre commun la théorie ondulatoire de Schrödinger et la théorie matricielle de Heisenberg, mais les scientifiques avaient quand même du mal à appréhender le comportement de l'électron au sein de l'atome et à assimiler cette dualité onde-corpuscule. Résumons ce que nous savons à propos de la formulation de la mécanique quantique en cette année 1926. Les objets décrits sont complètement caractérisés par un être mathématique abstrait, sur lequel on applique des règles pour en extraire des informations en relation avec l'expérience. Cet être mathématique est appelé un "état" pour préciser qu'il renferme toute l'information dont on dispose sur l'objet décrit. Cet état peut être représenté par une fonction de l'espace et du temps : c'est la "fonction d’onde". l ψ x,t > Ainsi un électron est décrit quantiquement par cette fonction d'onde, alors que classiquement il l'était par les données de sa position et de sa vitesse. On ne peut donc plus le considérer comme ponctuel, et la fonction d'onde reflète sa "répartition" sur tout l'espace. Alain Couleau - Club Vega - 2014 1. L'interprétation de Copenhague : l'abandon du déterminisme • L'interprétation probabiliste de Max Born En 1926, le physicien allemand Max Born, convaincu que les particules ne pouvaient pas être carrément abolies comme dans l'équation d'onde de Schrödinger, découvre un moyen de les mêler aux ondes en recourant aux probabilités. Pour Born, l'équation de Schrödinger décrivait une onde de probabilité et ré-interprétant la fonction d'onde, il énonce que la probabilité de trouver l'électron à un endroit donné de l'espace, dépend mathématiquement du carré de la fonction d'onde à cet endroit. Essayons de comprendre comment cette fonction d'onde fonctionne matériellement. Associée à un électron, elle est représentée par un paquet d'ondes superposées, dont chacune a une longueur d'onde très peu différente des autres. C'est seulement lors d'une mesure qu'une seule onde sera "choisie" avec une certaine probabilité. Alain Couleau - Club Vega - 2014 Il ne subsistera alors du paquet d'ondes qu'une seule onde. Ce phénomène appelé "effondrement" ou "réduction du paquet d'ondes", est en quelque sorte la conséquence d'un "effondrement des probabilités". C'est à cet instant que l'expérimentateur saura où se trouve l'électron, le nuage électronique virtuel se réduisant alors à une probabilité certaine de trouver l'électron à un endroit géographique déterminé. La« probabilité quantique», faute d'un terme plus parlant, n'était pas la probabilité classique de l'ignorance, mais une caractéristique intrinsèque de la réalité atomique. Ainsi, un électron ne suit autour du noyau de l'atome aucune trajectoire définie à l'avance. Il va se trouver, suivant une certaine probabilité, à une distance déterminée du noyau de l'atome. Par exemple, pour l'atome de l'hydrogène qui n'a qu'un seul électron, si celui-ci se trouve dans son état fondamental, c'est à dire aux alentours de la première orbite (nombre quantique n = 1), là où son énergie est la plus basse, la probabilité la plus forte de le trouver se situe à 0,529 Å (égale au rayon de la première orbite de Bohr). En revanche, au-delà de 2,5 Å, la probabilité de le trouver devient nulle. Même si les orbites de Bohr n'existent pas matériellement, elles restent révélatrices des endroits de l'atome où la densité de probabilité de trouver un électron est la plus élevée. Cette zone de densité de probabilité, cette orbitale atomique, possède une structure simple pour l'atome d'hydrogène. Dans la majorité des cas, ces orbitales ont des formes très variées suivant l'élément atomique considéré. Alain Couleau - Club Vega - 2014 En décrivant l'évolution d'un système microscopique en termes probabilistes, Max Born crée un véritable séisme. Exit la fonction d'onde en tant qu'onde réelle, adieu la notion de trajectoire d'une particule. Au niveau de l'atome, le déterminisme est condamné. « Il est clair que le dualisme onde-corpuscule et l’incertitude essentielle qu’il implique nous obligent à abandonner tout espoir de conserver une théorie déterministe." Cette interprétation probabiliste de Max Born, de la fonction d'onde avait un prix que ni Einstein, ni Schrödinger n'étaient prêts à payer : la renonciation à la causalité et au déterminisme. Rappelons que le déterminisme, c'est le principe selon lequel chaque événement est déterminé par un précédent, suivant une loi de causes à effets. • Le principe d'indétermination de Werner Heisenberg Pour Werner Heisenberg, l'aspect corpusculaire était dominant dans la dualité ondecorpuscule. Dans sa théorie construite à partir de matrices, il avait découvert la non-commutativité, cette étrange règle qui faisait que la multiplication de deux tableaux de nombres ne donnait pas le même résultat, si l'on inversait l'ordre des valeurs. Poursuivant dans ses réflexions, il suggère alors que cette particularité est liée à l'ordre dans lequel l'expérimentateur fait des mesures. Par exemple, pour le couple position - quantité de mouvement (ou impulsion, c'est à dire le produit de sa masse par sa vitesse), si l'expérimentateur calcule à un instant déterminé la position puis la vitesse, les valeurs trouvées ne seront pas les mêmes que s'il avait déterminé d'abord la quantité de mouvement, puis la position. Alain Couleau - Club Vega - 2014 En s'appuyant sur cette hypothèse, il affirme que dans le monde de l'infiniment petit, il est impossible de connaître simultanément la position et la vitesse (assimilée à l'impulsion) d'une particule. C'est ça son principe d'indétermination qu'on appelle plus souvent principe d'incertitude, dont l'équation est la suivante : d(x) x d(p) ≥ h/2 π delta (x) est l'incertitude de la position de l'objet lors de la mesure, multiplié par delta (p), qui est l'incertitude de la quantité de mouvement (vitesse * masse), est supérieur ou égal à h (constante de Planck qui vaut 6,626 x 10-34 joules par seconde) sur 2 Pi (3,1416). Revoilà donc notre constante de Planck… on pourrait finalement raconter toute l'histoire de la physique quantique comme une sorte de colonisation de toute la physique (sauf la gravitation), par la constante h. Essayons de mieux comprendre cette bizarrerie par un exemple concret. Vous vous promenez dans la forêt, la nuit. Un oiseau se met à chanter sur un arbre. Vous appréciez son chant mélodieux mais vous ne pouvez pas identifier l'oiseau dans le noir. En revanche, si vous éclairez l'oiseau avec votre lampe électrique, il s'arrêtera probablement de chanter mais vous pourrez le reconnaître. Vous ne pouvez pas, à la fois, décrire l'oiseau qui chante (assimilable à la position géographique d'une particule), et analyser ce qu'il chante (assimilable à la vitesse d'une particule). Heisenberg va plus loin dans sa réflexion sur la mesure simultanée d'un couple de caractéristiques physiques d'une particule, comme la position et sa vitesse, en affirmant que mieux on connaît la position géographique, plus grande sera l'indétermination de sa vitesse, et réciproquement. Autrement dit, plus on est précis sur la valeur d'une des deux caractéristiques physiques, plus l'imprécision sur l'autre est grande. Position Alain Couleau - Club Vega - 2014 Vitesse Et cela se comprend mieux quand on évoque la dualité onde-corpuscule. Cette découverte vaudra à Werner Heisenberg le prix Nobel de physique en 1932. Ainsi, dans le monde microscopique, la position géographique d'une particule ne pourra donc être déterminée que par des calculs probabilistes. Ce principe s'applique également à d'autres variables conjuguées, comme le couple énergie-temps par exemple. C'est à partir de cette relation que l'on tente d'expliquer la naissance de l'Univers par une fluctuation quantique du vide. Mais ceci est un autre débat… Pour tester le principe d'indétermination, Heisenberg imagina une expérience de pensée, connue sous le nom du "microscope de Heisenberg", que je vais vous décrire succinctement. Imaginez que vous vouliez observer un électron avec un microscope (ce qu'évidemment, aucun microscope actuel ne pourrait faire). Mais il ne s'agit là que d'une expérience de pensée. Vous savez qu'on ne voit un objet que parce que nos yeux détectent de la lumière émise ou réfléchie par celui-ci. Il faut donc éclairer l'électron pour le voir au microscope. En envoyant de la lumière sur un électron qui est extrêmement petit, c'est comme si on le bombardait de photons. Et ça, ça le perturbe… Il va réagir car le photon va lui communiquer de l'énergie, et donc sa vitesse va changer de façon imprévisible. Alain Couleau - Club Vega - 2014 Donc… Pour voir un électron, il faut l'éclairer. Mais ce faisant, on lui communique de la vitesse. On a donc davantage d'incertitude sur la valeur de celle-ci. La précision avec laquelle vous allez pouvoir mesurer la position de l'électron va dépendre de cette longueur d'onde, mais aussi de la résolution du microscope. Vous me direz qu'il suffirait de diminuer l'énergie de l'éclairage pour obtenir plus de précision. On pourrait par exemple en diminuer l'intensité. Mais comme l'a démontré l'effet Compton, un photon peut suffire pour changer la vitesse d'un électron. On pourrait également changer la longueur d'onde de la lumière. Un photon de grande longueur d'onde a moins d'énergie qu'un photon de courte longueur d'onde. Il perturbe donc moins la vitesse d'un électron. Sauf que, plus la longueur d'onde est grande, plus la précision sur la mesure de la position de l'électron est faible. Les ondes lumineuses déferleraient par dessus-lui comme des vagues sur un galet. Ce que l'on gagne sur la détermination de la vitesse, on le perd sur la détermination de la position, et réciproquement. L'indétermination évoquée n'est pas le reflet d'une imprécision de l'opération de mesure, elle est une propriété fondamentale et inéluctable du monde quantique. L'onde probabiliste et le principe d'indétermination de Heisenberg vont rendre possibles des phénomènes le plus souvent étranges, l'effet tunnel par exemple… L'effet tunnel Si comme les "Tontons Flingueurs", vous n'avez pas peur de vous risquer dans le bizarre… suivez-moi… L'effet tunnel désigne la propriété que possède un objet quantique de franchir une barrière de potentiel même si son énergie est inférieure à l'énergie minimale requise pour franchir cette barrière. Alain Couleau - Club Vega - 2014 La démonstration formelle qu'un tel phénomène peut avoir lieu, a beau figurer dans les premiers chapitres de tous les cours de physique quantique, elle est trop compliquée pour être rapportée sans équations. Mais nous allons quand même essayer "d'imager" le phénomène pour mieux le comprendre. L'idée de tunnel évoque celle de montagne. Voyons ce qui se passe en Mécanique Classique... Imaginons que nous lancions une bille vers le sommet d'une montagne. Si son énergie totale est suffisante, la bille atteindra le sommet, basculera de l'autre côté puis redescendra l'autre pente en accélérant. Mais si son énergie est insuffisante, la bille s'arrêtera avant d'avoir pu atteindre le sommet et redescendra vers son point de départ. Dans un tel cas, dans le jargon des physiciens, on dit que la bille a été réfléchie par une "barrière de potentiel". Cela signifie qu'elle n'a pas pu franchir une région correspondant à une énergie potentielle supérieure à son énergie totale. Alain Couleau - Club Vega - 2014 La mécanique classique interdit donc à toute bille dont la vitesse est insuffisante de franchir une telle région pour rejoindre l'autre versant de la montagne. En Mécanique Quantique… La solution est moins tranchée, car aucun territoire n'est vraiment étanche. Imaginons que notre bille soit une particule. Nous avons vu que chaque particule possède une fonction d'onde (calculée par l'équation de Schrödinger) qui permet de calculer la probabilité de présence de la particule en un point de l'espace. On peut imaginer q'une particule, par exemple un électron, peut être représentée par une sphère large à l'intérieur de laquelle elle peut se trouver en chaque point. Si nous lançons cet électron vers le sommet de la montagne, même si l'énergie totale de l'électron est insuffisante pour traverser la barrière de potentiel, la fonction d'onde, elle, peut déborder légèrement de l'autre côté de la barrière si celle-ci n'est pas trop Alain Couleau - Club Vega - 2014 grande. Il existe donc une probabilité non nulle que la particule se retrouve de l'autre côté de la barrière. C'est cette sorte d'effet passe-muraille qui représente l'effet tunnel. En quelque sorte, l'électron heurtant la barrière voit apparaître devant lui comme un tunnel qui lui permet de la traverser sans que cela lui coûte de l'énergie. En réalité l'effet tunnel est davantage un jeu de saute-mouton qu'une histoire de passemuraille. Plus la barrière est petite, plus les électrons ont de chance de passer par effet tunnel. En fait si on ne connaît pas la hauteur de la barrière, on peut la calculer si on connaît la proportion des électrons qui la franchissent. Cet effet purement quantique ne peut pas s'expliquer par la mécanique classique. La fonction d'onde, dont le carré du module représente la densité de probabilité de présence, ne s'annule pas au niveau de la barrière, mais s'atténue à l'intérieur de la barrière. Si, à la sortie de la barrière de potentiel, la particule possède une probabilité de présence non nulle, elle peut traverser cette barrière. La physique quantique ne garantit pas que tous les électrons vont franchir l'obstacle, elle dit simplement, et l'expérience le confirme, que la probabilité qu'un électron a de passer n'est jamais strictement nulle. En exploitant cette propriété, deux chercheurs d'IBM , mirent au point en 1981, le microscope à effet tunnel (en anglais STM pour Scanning Tunneling Microscope), et montrèrent les premières images à l'échelle atomique d'une surface de silicium balayée à l'aide d'une pointe métallique. Ils furent récompensés en cela par le prix Nobel de Physique en 1986. Le Microscope à effet tunnel… Comment ça marche ? Observons un métal constitué d'atomes et d'électrons quantiques. Si on approche une pointe très fine alimentée électriquement, elle peut arracher par effet tunnel les électrons du métal. En mesurant le courant électrique qui passe dans la pointe, on peut reconstituer où se trouvent les atomes et tracer leur position, ce qui permet de dessiner le relief du matériau atome par atome. Alain Couleau - Club Vega - 2014 Le principe de complémentarité de Niels Bohr Pour Niels Bohr, c'était la dualité onde-corpuscule du rayonnement et de la matière, qui était au coeur de l'incertitude quantique. Personne ne pouvait répondre aux questions : - un électron est-il maintenant une onde ou une particule ? - comment va-t-il se comporter si je fais ceci ou cela ? Bohr eut très vite l'intuition de la complémentarité, cadre conceptuel jusqu'ici manquant, nécessaire pour décrire la nature insolite. Cette complémentarité, estimait-il, pouvait héberger la nature paradoxale de la dualité onde-corpuscule. Les propriétés ondulatoires et corpusculaires des photons et des électrons, étaient des aspects mutuellement exclusifs, mais complémentaires du même phénomène. Ondes et corpuscules étaient les deux faces d'une même pièce. A un moment donné, l'observateur ne peut en voir qu'une seule à la fois. Aucune expérience ne pourrait jamais révéler un corpuscule et une onde en même temps. Aidons-nous d'une métaphore pour mieux comprendre… • la métaphore du cylindre est l'exemple d'un objet ayant des propriétés apparemment inconciliables, celles d'un cercle et d'un rectangle. Regardé sous deux angles différents, un cylindre nous apparaît tantôt comme un cercle, tantôt comme un rectangle. Pourtant, il n'est ni l'un ni l'autre. Alain Couleau - Club Vega - 2014 - éclairé dans l'axe du cylindre, la projection donne un cercle. - tandis qu'une projection perpendiculaire donne un rectangle. On peut dire ainsi que, "onde" et "corpuscule" sont des manières de décrire les objets quantiques et non les objets quantiques en eux-mêmes. Ce sont deux visions complémentaires du même objet. C'est ce qu'exprime le principe de complémentarité. A l'appui de cette idée, Niels Bohr s'aperçut que l'équation d'Einstein-Planck (E=hn) et la formule de Louis de Broglie (p=h/l) incarnaient déjà la dualité onde-corpuscule. Energie et quantité de mouvement sont des propriétés associées aux corpuscules, tandis que fréquence et longueur d'onde sont caractéristiques des ondes. Selon Bohr, il n'était plus possible de faire la séparation qui existait en physique classique entre l'observateur et l'objet observé, entre le matériel de mesure et ce qui était mesuré. Il affirmait catégoriquement que c'était la nature spécifique de l'expérience effectuée qui révélait l'aspect soit corpusculaire, soit ondulatoire de la matière ou du rayonnement. Rappelez-vous notre expérience des deux fentes avec le canon à électrons… En mécanique quantique, dit Bohr, il n'y a pas moyen de savoir ce que la lumière "est vraiment". Une seule question vaut la peine d'être posée : est-ce que la lumière se comporte comme un corpuscule ou comme une onde ? Alain Couleau - Club Vega - 2014 La réponse est que certaines fois, elle se comporte comme un corpuscule et d'autres fois comme une onde, selon l'expérience choisie. Niels Bohr croyait toutefois, que l'origine de la perturbation ne résidait pas dans l'action de mesurer, mais dans le fait que l'expérimentateur soit obligé de choisir un aspect de la dualité onde-corpuscule, pour effectuer cette mesure. L'incertitude était le prix exigé par la nature pour faire ce choix. Le principe de superposition Du principe de complémentarité découle une règle formelle, conséquence purement mathématique de la physique quantique, le "principe de superposition". Et là, il est temps de prendre une bonne bouffée d'air avant de plonger plus profondément dans les troubles de ce monde mystérieux et désarmant qu'est le monde quantique… Nous avons vu que selon Max Born, l'onde de Schrödinger est une onde de probabilité. Associée à un électron, elle est représentée par un paquet d'ondes superposées, dont chacune a une longueur d'onde très peu différente des autres. C'est seulement lors d'une mesure qu'une seule onde sera "choisie" avec une certaine probabilité et que l'expérimentateur saura où se trouve l'électron. C'est la "réduction du paquet d'ondes". Nous savons également que ses caractéristiques et toutes les informations dont nous disposons à son sujet, sont réunies dans ce qu'on appelle son "état", représenté dans l'espace et le temps par une fonction d'onde. Si l'on s'intéresse par exemple à la position d'un électron, l'état de position doit être représenté comme une somme infinie de fonctions d'onde (on dit aussi vecteurs d'état), Alain Couleau - Club Vega - 2014 chacune d'entre elles représentant une position précise dans l'espace. Le carré de chaque fonction d'onde donne la probabilité de présence de l'électron à une position donnée. Donc au même titre que l'on peut additionner des ondes et obtenir une onde de superposition, quand un système a plusieurs états possibles, la somme de ces états est également un état possible. Le système se trouve alors dans une superposition d'états. Grâce à ce principe, une particule comme notre électron par exemple peut se trouver dans plusieurs états à la fois. Si l'on parle de position, il peut être ici ou là, ou les deux à la fois… Surprenant n'est-ce pas ? Convenons que cette exclusivité quantique est impensable dans notre univers classique. Prenons quelques analogies pour mieux comprendre ce principe dérangeant… • la poule noire et le coq blanc L'accouplement d'une poule noire et d'un coq blanc produit un poussin dont nous ne connaissons pas la couleur avant l'éclosion de l'oeuf. Mais nous pouvons avancer que le poussin est dans un état de couleur composite comprenant 25% de blanc, 25% de noir, et 50% de ce coloris bleu-gris propre à l'espèce dite andalouse. + = 25% 25% Alain Couleau - Club Vega - 2014 50% Cela ne veut pas dire que le poussin soit paré de toutes ces couleurs à la fois. Il n'a que l'une d'entre elles. Mais, faute de renseignements complets, il faut se contenter de probabilités. A sa sortie de l'oeuf, qui apporte un complément d'information, nous pouvons préciser cette couleur. Ceci correspond à une observation, et altère l'état en le faisant passer de l'état de couleur composite à l'état de couleur pure. Nous pouvons illustrer cet état composite représentant un manque d'information par une chasse au sous-marin. • la chasse au sous-marin Imaginons une chasse au sous-marin menée par un avion sans le secours d'aucun moyen de détection. Si un aviateur aperçoit un sous-marin juste au moment où il disparaît sous l'eau, il en connaîtra la position, mais non la direction qu'il prend. Donc, pour lui, le sous-marin est dans un état de superposition de tous les mouvements susceptibles de se produire à partir du point d'immersion. Le sous-marin en plongeant est devenu un paquet d'ondes de Schrödinger. Au-moment où l'aviateur le voit plonger, son paquet d'ondes est à son plus haut degré de cohésion et les grenades sous-marines ont de bonnes chances de toucher le but. Mais si l'avion tarde à atteindre le point d'immersion, ses chances d'atteindre le sousmarin diminuent de plus en plus, car au fil des minutes, la "position" du sous-marin s'élargit, et devient une vaste zone zone circulaire de probabilité... Max Born, Werner Heisenberg et Niels Bohr venaient de jeter les bases d'une nouvelle interprétation de la physique quantique, qu'on appellera plus tard "interprétation de Copenhague", car tout ce beau monde se réunissait à l'Institut de Niels Bohr à Copenhague. Alain Couleau - Club Vega - 2014 Elle portait un coup fatal au déterminisme, l'un des piliers incontournables de la physique classique et allait soulever controverses et polémiques. 2. Duel au sommet : probabilisme contre déterminisme • Premier round : Vème Congrès Solvay - 1927 Le Vème Congrès Solvay s'ouvre à Bruxelles à l'automne 1927, sur le thème "Electrons et photons". Parmi les 27 personnalités scientifiques présentes, 17 étaient ou allaient devenir lauréats du Prix Nobel. Alain Couleau - Club Vega - 2014 Les Congrès Solvay sont des conférences scientifiques en physique et en chimie, organisés à Bruxelles pour la plupart, grâce au mécénat d'Ernest Solvay, un chimiste et industriel belge, tous les trois ans depuis 1911. Cet événement très important va marquer une ligne de partage des eaux à la fois pour la communauté internationale des physiciens théoriciens, et pour la carrière scientifique d'Einstein. C'est à ce congrès qu'Einstein allait être confronté à l'interprétation de la nouvelle théorie quantique proposée par Niels Bohr, à partir des idées de Max Born (interprétation probabiliste de la fonction d'onde), et de Werner Heisenberg (principe d'indétermination), et du concept de complémentarité. Après les rapports préliminaires, ce fut au tour d'Heisenberg et de Born de présenter un rapport commun sur "La mécanique des quanta", en insistant sur la constante de Planck, h, qui n'était rien de moins, affirmaient-ils, que "la mesure universelle de l'indétermination qui entre dans les lois de la nature, au travers du dualisme des ondes et des corpuscules." En conclusion, ils énoncèrent l'opinion provocante : "nous considérons la théorie des quanta comme une théorie close, dont les hypothèses physiques et mathématiques fondamentales ne sont plus susceptibles d'être modifiées." Tous les physiciens attendaient avec un intérêt passionné de voir la réaction d'Einstein. Le pape de la physique théorique allait-il bénir sur les fonds baptismaux de la complémentarité, le nouvel enfant quantique ? En bien non ! Einstein ne fut pas convaincu par l'interprétation de la théorie quantique défendue par Bohr, quand il prit la parole : "Bien qu'étant conscient du fait que je ne suis pas entré assez profondément dans l'essence de la mécanique quantique, je veux néanmoins présenter ici quelques remarques générales." Dans son discours, Einstein expose qu'il n'est pas opposé à l'utilisation des probabilités, mais qu'il pense qu'elles ne peuvent être employées que comme simples outils mathématiques. Elles ne doivent en aucun cas constituer une théorie à part entière. Pour lui, la physique quantique est un non-sens scientifique. Elle n'explique rien, elle est incapable de décrire la nature des choses et elle donne des résultats certes justes, mais obtenus par des raisonnements probabilistes. Elle est donc forcément incomplète. Bien que non-croyant au sens classique, Einstein est une sorte de mystique scientifique. Il a la conviction profonde que "le vieux" (son Dieu, comme il l'appelle), n'a pas pu concevoir une nature non-compréhensible. Tout doit pouvoir s'expliquer. Il faut absolument découvrir le projet divin, peut-être dissimulé sous la forme d'une théorie unitaire… Alain Couleau - Club Vega - 2014 Pendant toute la durée du congrès, Einstein va essayer, au travers d'expériences de pensées hypothétiques effectuées dans le laboratoire de l'esprit (sa tactique favorite), de faire vaciller l'édifice de cette maudite physique quantique, sans parvenir à franchir les limites imposées par le principe d'incertitude. Au cours de ces débats passionnés entre Einstein et Bohr, jaillirent de belles phrases : A un moment donné, Einstein, excédé, jeta à Niels Bohr : "Dieu ne joue pas aux dés ! »… ce à quoi Bohr répondit : "Qui êtes-vous Einstein, pour dire à Dieu ce qu'il doit faire !." Quand le Vème congrès de Solvay se termina, Bohr avait, dans l'esprit de ceux qui s'étaient rassemblés à Bruxelles, réussi à démontrer la cohérence logique de son interprétation, qu'on appellera plus tard "l'interprétation de Copenhague". Mais il n'avait pas pu convaincre Einstein qu'elle était la seule interprétation possible de ce qui était une théorie complète et fermée. Ce congrès scientifique va créer une scission idéologique profonde entre Einstein et Bohr et ses amis. La majorité des physiciens prendront le parti de Bohr. • Deuxième round : VIème Congrès Solvay - 1930 Consacré aux "Propriétés magnétiques de la lumière", il débute le 20 octobre 1930. Trois ans après, Einstein reste fidèle à lui-même. Il monte une nouvelle expérience de pensée pour démontrer l'incohérence de certains principes de base de la nouvelle physique quantique, notamment le principe d'indétermination d'Heisenberg, qui rappelons-le, stipule que l'on ne peut pas connaître à la fois, la position et la vitesse d'une particule. Imaginez une boîte pleine de lumière, dit Einstein. Sur une de ses parois se trouve un trou muni d'un obturateur qui peut être ouvert ou fermé par un mécanisme relié à une horloge à l'intérieur de la boîte. Alain Couleau - Club Vega - 2014 Cette horloge est synchronisée avec une autre dans le laboratoire. Pesez la boîte. Réglez l'horloge de façon à ce que, à un certain moment elle ouvre l'obturateur le plus brièvement possible, mais juste assez pour qu'un seul photon s'échappe. Nous savons maintenant avec précision, explique Einstein, à quel moment le photon a quitté la boîte. Bohr écoute sans s'inquiéter : tout ce qu'Einstein vient de proposer semble simple et irréfutable. C'est alors que, avec un discret sourire, Einstein prononce ces paroles fatales : pesez la boîte encore une fois. Pour calculer la quantité de lumière qui s'est échappée, contenue dans un seul photon, Einstein se sert de la formule E = mc2 sous-produit de ses travaux sur la relativité, où E est l'énergie, m la masse et c la vitesse de la lumière. En pesant la boîte à lumière avant et après la sortie du photon, il est facile de calculer la différence de masse. En utilisant E = mc2 pour convertir la quantité de masse manquante en une quantité équivalente d'énergie, il est possible de calculer avec précision l'énergie du photon échappé. L'instant exact de la sortie du photon est connu puisque l'horloge du laboratoire est synchronisée avec celle qui, à l'intérieur de la boîte, contrôle l'obturateur. Einstein avait apparemment conçu une expérience de pensée capable de déterminer simultanément l'énergie du photon et l'instant de sa fuite avec un degré de précision interdit par le principe d'incertitude d'Heisenberg. Cette expérience fait l'effet d'une douche glacée sur l'assistance du Congrès. Einstein a réussi son coup… Tous les participants sont au comble de l'excitation. Si Einstein a raison, la nouvelle physique quantique a du plomb dans l'aile… Bohr est effondré et ne parvient pas à réfuter l'argumentation d'Einstein. Ce soir-là, il a l'air d'un chien qui vient de recevoir une raclée. De retour à l'hôtel, il réfléchit toute la nuit suivante pour trouver une riposte imparable, mettant en pièces la boîte à lumière imaginaire pour trouver le défaut qu'il espérait exister. Alain Couleau - Club Vega - 2014 Il décide de reprendre le schéma de pensée en se concentrant sur le processus de pesage. Il choisit de suspendre la boîte à lumière à un ressort fixé à une potence. Pour en faire une balance, Bohr attache une aiguille à la boîte de manière à ce que sa position puisse être lue sur une échelle fixée au montant vertical de la potence. Afin de s'assurer que l'aiguille soit bien positionnée sur le zéro de l'échelle, il attache un petit contrepoids au fond de la boîte. La mesure initiale du poids de la boîte à lumière est simplement la configuration avec le contrepoids choisi pour que l'aiguille soit sur le zéro. Après que le photon se soit échappé, la boîte à lumière allégée, est tirée vers le haut par le ressort. Pour remettre l'aiguille à zéro, il faut remplacer le contrepoids par un autre, légèrement plus lourd. La différence de poids est la perte de masse due à la fuite du photon, dont l'énergie peut être calculée avec précision avec la formule E = mc2. Contrairement à ce qu'il avait fait au congrès Solvay de 1927, Einstein attaquait ici la relation d'incertitude entre l'énergie et le temps, et non celle entre la position et la quantité de mouvement. Au petit matin, Niels Bohr, épuisé, aperçut la faille dans l'expérience de pensée d'Einstein… Il avait oublié de tenir compte de sa propre théorie de la Relativité générale. Il avait ignoré les effets de la gravitation sur la mesure du temps par l'horloge à l'intérieur de la boîte à lumière. En effet, deux horloges identiques, initialement synchronisées, l'une fixée au plafond d'une pièce et l'autre posée sur le plancher, divergeraient d'un trois centième de milliardième de milliardième de seconde, parce que le temps s'écoule plus vite sur le plancher qu'au plafond. La raison en est la gravitation. Bohr se rendit compte que le fait de peser la boîte à lumière affectait le fonctionnement de l'horloge à l'intérieur. Le changement de position de celle-ci modifierait la vitesse de fonctionnement de l'horloge, qui ne serait plus synchronisée avec celle du laboratoire. Alain Couleau - Club Vega - 2014 Ce qui alors rendrait impossible à déterminer aussi précisément qu'Einstein le supposait, l'instant précis où l'obturateur s'ouvre et où le photon s'échappe de la boîte. A cause de la capacité de la gravitation à affecter l'écoulement du temps, cette incertitude de la position empêche la détermination de l'instant exact où l'obturateur s'ouvre et libère le photon. Le principe d'incertitude d’Heisenberg restait intact et, avec lui, l'interprétation de Copenhague de la mécanique quantique. Lorsque Bohr se présenta à la table du petit déjeuner, il n'avait plus l'air du "chien battu" de la veille au soir. C'était à présent un Einstein stupéfait qui écoutait en silence Bohr. Son argumentation tenait la route. Et Einstein, comme la communauté des physiciens à l'époque, l'accepta. Il cessa donc d'essayer de circonvenir le principe d'incertitude pour démontrer l'incohérence logique de la mécanique quantique. Il allait se concentrer désormais sur l'incomplétude de cette théorie. Ces deux congrès de Solvay avaient définitivement séparé deux clans : - les défenseurs du déterminisme, comme Einstein, Schrödinger et de Broglie, pour qui les plus petites particules du monde réel existent objectivement, qu'on les observe ou non. - les partisans d'une physique quantique probabiliste, qui fait explicitement intervenir la mesure expérimentale dans la définition des propriétés des objets microscopiques (Niels Bohr, Werner Heisenberg, Max Born et Wolfgang Pauli). Alain Couleau - Club Vega - 2014 • Dernier round : le paradoxe E.P.R. - 1935 Dans les années qui suivirent le congrès Solvay de 1930, il n'y eut guère de contacts directs entre Bohr et Einstein. Einstein cherchait à caractériser de plus en plus finement son insatisfaction vis à vis de l'interprétation de Copenhague, et son sentiment était que, soit cette interprétation, soit la théorie quantique elle-même, était incomplète. Il avait besoin d'une nouvelle stratégie pour démontrer que la mécanique quantique ne saisissait pas la réalité physique dans son intégralité. A cette fin il élabora la plus durable des expériences de pensée. Pendant plusieurs semaines, au début de 1935, Einstein conféra dans son bureau avec deux de ses jeunes assistants, Boris Podolsky et Nathan Rosen, pour débattre de son idée. Podolsky se vit attribuer la tâche de rédiger l'article correspondant, tandis que Rosen effectuerait la plupart des calculs mathématiques nécessaires. Comprenant quatre pages seulement, l'article d'Einstein-Podolsky-Rosen ou "article E.P.R." comme on l'appellera plus tard, fut publié le 15 mai dans la Physical Review américaine, sous le titre aguicheur : "La description de la réalité physique par la mécanique quantique peut-elle être considérée comme complète ?". La réponse d'E.P.R. à la question posée était un "Non !" provocant. Dix jours auparavant, un article paru dans le New York Times, sous la manchette accrocheuse : "Einstein attaque la théorie des quanta - Le scientifique et deux de ses collègues la trouvent incomplète bien que correcte." Dans leur article, Eintein, Podolsky et Rosen commençaient par distinguer la réalité telle qu'elle est et la compréhension qu'en a le physicien : "Tout examen sérieux d'une théorie physique doit tenir compte de la distinction entre la réalité objective, qui est indépendante de toute théorie, et les concepts physiques avec lesquels opère cette théorie. Ces concepts sont élaborés pour correspondre à la réalité objective, et c'est au moyen de ces concepts que nous nous représentons cette réalité." Alain Couleau - Club Vega - 2014 E.P.R. imposaient une condition nécessaire à la complétude d'une théorie physique : "Tout élément de la réalité physique doit avoir une contrepartie dans la théorie physique." Les trois auteurs développent ensuite leur expérience de pensée. Selon la physique quantique, deux particules "corrélées" ou "intriquées" (ayant un passé commun, par exemple deux photons issus d'un même atome), doivent se comporter de façon identique, quelle que soit la distance qui les sépare. Arrêtons-nous un instant sur ce phénomène de l'intrication qui reste l'un des plus mystérieux de la mécanique quantique. La mécanique quantique sans intrication, c'est comme un baiser sans moustache, comme on disait dans les opérettes des années 30. L'intrication quantique doit se comprendre comme une relation d'une intimité peu commune entre deux particules. Le terme désigne l'idée que ces deux objets, même séparés par une certaine distance, ne forment en réalité qu'un seul tout, qu'une seule entité. Ainsi, lorsqu'on agit sur un des membres d'une paire de photons intriqués, l'autre réagit immédiatement en conséquence, qu'ils soient éloignés d'un millimètre, ou de cent kilomètres l'un de l'autre. Pour démontrer l'illogisme de la situation, E.P.R. imaginent deux particules issues d'un même atome, donc intriquées, qui partent dans deux directions opposées. L'une des deux est soumise à une contrainte matérielle qui l'oblige à réagir d'une certaine façon. L'autre particule, quelle que soit la distance qui les sépare, aura exactement le même comportement. Ainsi, si l'une des deux particules fait un certain "choix", l'autre le "sait" instantanément et peut l'imiter. Alain Couleau - Club Vega - 2014 Einstein ne peut pas accepter ce phénomène invraisemblable, car cela signifierait qu'un signal peut se transmettre plus vite que la lumière, or selon sa théorie sur la Relativité restreinte, cela est absolument impossible. Les deux particules intriquées doivent donc avoir au départ, une caractéristique physique commune indépendante de toute mesure. Mais là encore, c'est impossible car selon la physique quantique, c'est seulement au moment où l'expérimentateur effectue une mesure sur une particule, qu'est déterminée la valeur d'une des caractéristiques physiques de cette particule (vitesse, position…). Pour Einstein et ses collègues, ces impossibilités démontrent que la physique quantique est bien une une théorie incomplète, et qu'il existe dans les particules quantiques, des "variables" (ou caractéristiques) cachées, restant à découvrir. L'article EPR n'eut pas, quand il parut, de grande résonance dans la communauté des physiciens. La plupart reposaient leur esprit sur "l'oreiller douillet" de Copenhague et ne prirent pas la peine de réfléchir aux perspectives nouvelles qu'ouvrait l'article EPR. Quelques semaines plus tard, dans sa réponse (à la vérité très obscure) à l'article EPR, Niels Bohr s'oppose à cette conclusion d'Einstein, au motif qu'on doit se garder de tout raisonnement sur la réalité même des choses… Il continue à affirmer que la seule chose qu'une théorie puisse prétendre décrire, ce ne sont que des phénomènes incluant dans leur définition le contexte expérimental qui les rend manifestes, et non une réalité prétendument objective. Or cela, la physique quantique le fait parfaitement bien. Elle est prédictivement complète, et c'est le mieux qu'on puisse exiger d'une théorie physique. • Le chat de Schrödinger Dans les semaines qui suivirent la publication de l'article EPR, Einstein et Schrödinger échangèrent une correspondance fructueuse qui incita ce dernier à rechercher dans l'interprétation de Copenhague des lacunes supposées, en particulier dans le principe de superposition et le problème de la mesure. Le fruit de ce dialogue fut un article publié à la fin de l'année 1935, intitulé : "La situation actuelle en mécanique quantique", où Schrödinger décrit une expérience de pensée mettant en jeu un chat (présenté par lui-même comme un cas burlesque), devenue très vite célèbre. Imaginons, explique Schrödinger, un appareil capable de détecter l'émission d'une particule qu'un atome radioactif a une chance sur deux d'émettre au bout d'une heure (un compteur Geiger par exemple). Ce compteur est relié à un mécanisme actionnant Alain Couleau - Club Vega - 2014 un marteau si la désintégration se produit, le marteau brisant alors un petit flacon d'acide cyanhydrique. Installons dans une enceinte en acier, tout ce dispositif et introduisons un chat (qui ne peut avoir d'intervention directe sur l'appareillage). Au bout d'une heure, soit le chat est mort, soit il est vivant, suivant qu'il y ait eu ou non désintégration radioactive. Selon l'interprétation de Copenhague, seul un acte d'observation peut décider s'il y a eu ou non désintégration et déterminer si le chat est mort ou vivant. En attendant, le chat est consigné au purgatoire quantique, dans une superposition d'états dans laquelle il n'est ni mort ni vivant. Plus précisément, il est la superposition de l'état I atome désintégré - marteau baissé - fiole cassée - chat mort > et de l'état I atome non désintégré - marteau levé - fiole intacte - chat vivant >. Nous accorderons à Schrödinger que pareille situation est difficile à concevoir. Prolongation de l'article EPR, elle posait à nouveau la question de la complétude de la théorie quantique qui devait permettre de décider si oui ou non un électron se trouve ici ou là. Et pourquoi pas ?, si un chat est vivant ou mort - et non vivant et mort. Si la fonction ψ est un bon modèle de la réalité, alors dans la réalité l'état du chat est "réellement" une superposition des états "mort" et "vivant". Alain Couleau - Club Vega - 2014 Cette expérience hypothétique illustrait également la difficulté qu'il y avait à tracer la frontière entre le monde macroscopique (appareil de mesure) et le monde microscopique (atome radio-actif). Mais pour Bohr, il n'y avait pas de "coupure" franche entre les univers classique et quantique. Et pour expliquer ce qu'il entendait par le lien indestructible entre l'observateur et l’observé, il proposa l'exemple de l'aveugle avec sa canne. Où se trouvait, demanda-t-il, la coupure entre l'aveugle et le monde invisible dans lequel il vivait ? L'aveugle est inséparable de sa canne. C'est une extension de sa personne, dans la mesure où il s'en sert pour recueillir des informations sur le monde qui l'entoure. Le monde commence-t-il au bout de la canne de l'aveugle ? Non, dit Bohr. C'est grâce au bout de sa canne que le toucher de l'aveugle appréhende le monde, et l'un et l'autre sont inextricablement liés. Pour lui, il en était de même au niveau de l'acte de mesure d'une particule microphysique, observateur et observé étaient intimement liés, de telle manière qu'il était impossible de dire où commence l'un et où finit l'autre. Les divergences entre Einstein et Bohr sur l'interprétation de la mécanique quantique aboutissaient à un débat philosophique sur le statut de la réalité. Existait-elle ? Bohr était convaincu que la mécanique quantique était une théorie fondamentale complète de la nature. Einstein croyait de manière inébranlable en l'existence d'une réalité causale indépendante de l'observateur. Leurs points de vue restaient définitivement opposés. Le grondement des canons annonçait une période trouble et douloureuse qui conduisit nos deux savants à s'expatrier de l'autre côté de l'Atlantique. Après la guerre la controverse entre les deux hommes restait aussi tenace et elle ne s'éteignit pas avec la mort d'Einstein en 1955 (rupture d'anévrysme). La plupart des physiciens étaient trop occupés à utiliser la mécanique quantique, qui allait de succès en succès, pour daigner s'intéresser aux subtilités de leur polémique. Le samedi 17 novembre 1962, Niels Bohr succomba à une crise cardiaque. Sur le tableau noir de son bureau, il avait dessiné la veille au soir, la boîte à lumière d’Einstein… Alain Couleau - Club Vega - 2014 3. Le théorème de Bell sonne le glas Des années 30 aux années 60, on n'en savait pas plus sur le fond des choses, impossible à trancher par une expérience techniquement réalisable. En 1964, les radioastronomes Arno Penzias et Robert Wilson détectent l'écho du Big Bang et le physicien Murray Gell-Mann prédit l'existence de nouvelles particules élémentaires, les quarks. C'est aussi cette année-là, qu'un physicien irlandais, John Stewart Bell, découvre un théorème mathématique capable de trancher entre les deux conceptions du monde opposées d'Einstein et de Bohr. John Bell avait plutôt de la sympathie pour la position d'Einstein. Il décida d'étudier le paradoxe EPR impliquant un couple de particules corrélées. Arrêtons-nous quelques instants pour mieux appréhender la notion de corrélation. . Corrélations dans la vie courante Dans la vie courante, nous connaissons deux manières d'établir des corrélations : - corrélation par échange d'un signal : par exemple, quand un arbitre siffle dans un match de football, tous les joueurs s'arrêtent. - corrélation établie à la source : Je commande à un pâtissier deux boîtes-cadeaux identiques à envoyer à deux personnes qui se connaissent, pour éviter des jalousies. Si l'une des deux personnes trouve un panettone dans sa boîte, nous savons avec certitude que l'autre trouvera également un panettone dans la sienne. - et puis il y a aussi des corrélations génétiques troublantes, comme celles qu'on retrouve chez des jumeaux monozygotes (provenant de la division d'un oeuf fécondé unique). Alain Couleau - Club Vega - 2014 John Bell était d'ailleurs, fortement impressionné par l'histoire des Jim Twins, ces deux jumeaux américains nés en 1940, Jim Lewis et Jim Springer, jumeaux monozygotes, séparés peu après leur naissance pour finalement se retrouver 39 ans après. Ils ont fait partie d'une vaste étude sur les jumeaux et leurs vies parallèles ont été largement médiatisées. Les ressemblances qu'on a pu répertorier entre eux sont tout à fait troublantes. Elles apparaissent sur ce tableau. Ils avaient les mêmes matières préférées à l'école (mathématiques, menuiserie), et les mêmes difficultés (orthographe). La ressemblance qui fut la plus pertinente pour les deux frères fut qu'ils avaient toujours ressenti un « vide intérieur », jusqu'à leur rencontre. Alain Couleau - Club Vega - 2014 . Corrélations dans le monde quantique - la corrélation par échange d'un signal est problématique car la physique quantique prédit que les corrélations vont être observées indépendamment de la distance qui sépare les particules au moment où elles arrivent dans les analyseurs, alors qu'aucun signal ne peut, en principe, se propager plus vite que la lumière. - Les corrélations des paires de particules sont-elles pré-établies à la source ? Il semble que ce soit la seule alternative "raisonnable". Mais comment tester cette hypothèse ? Revenons donc à John Stewart Bell… Il examina une version simplifiée de l'expérience de pensée EPR, n'utilisant qu'une propriété d'une particule, sa polarisation. Imaginez un appareil qui lance des clous, deux par deux dans des directions opposées, leur tige étant perpendiculaire à l'axe de tir. Les clous d'une même paire sont parallèles (corrélés), mais les orientations changent aléatoirement pour chaque couple. Les clous mitraillent de chaque côté, deux plaques de métal percées d'une fente assez large pour que le clou puisse y passer s'il est bien orienté. Ces fentes se comportent comme de véritables polariseurs, ne laissant passer que les clous dont l'orientation est parallèle à la leur et arrêtant les autres. Nous supposerons qu'il est possible de modifier l'orientation des polariseurs au cours de l'expérience. Derrière chaque plaque un système de détection compte les clous passant ou ne passant pas par la fente. Si les deux disques, de part et d'autre du lanceur de clous, sont identiquement orientés, on obtiendrait une corrélation parfaite des mesures d'orientation : quand un clou passe d'un côté, l'autre passe aussi, puisqu'ils ont la même orientation dans l'espace. Quand un ne passe pas, l'autre non plus. Alain Couleau - Club Vega - 2014 Si on fait bouger un des deux disques (rotation d'un certain angle, théta), on va avoir des fautes de corrélation. Parfois ça passera quand même des deux côtés, si on n'a pas fait « trop » bouger le disque. Si on remet le disque en position initiale, et que l'on fait bouger l'autre d'un angle égal, mais dans l'autre sens, on aura également une suite de corrélations et de fautes de corrélations. Maintenant, si on fait bouger les deux disques simultanément, le premier de l'angle théta, le seconde de l'angle (– théta), on doit également constater des fautes de corrélations. Mais le nombre de ces corrélations manquées doit être inférieur à la somme des nombres de corrélations manquées dans les deux cas précédents. Pourquoi ? Tout simplement parce qu'en ayant bougé les deux disques dans des sens de rotation opposés, on augmente les probabilités d'échec de passage des deux clous simultanément, ce qui crée une fausse corrélation « réussie ». C'est ce qu'exprime mathématiquement la formule : E (2θ) ≤ 2E (θ) où E est le taux d'erreurs et q l'angle de rotation du polariseur. Cette formule porte le nom d' inégalité de Bell. Maintenant imaginons de remplacer les clous par des photons dans un état intriqué, comme dans l'expérience EPR, c'est à dire dans la superposition de tous les états possibles de polarisation. Et de faire les mêmes mesures, avec des polariseurs (donc des appareils qui mesurent la polarisation des photons). Si les deux polariseurs sont orientés dans la même direction, les deux photons vont se comporter toujours de la même façon (transmis ou absorbé selon l'angle du polariseur avec la polarisation). Alain Couleau - Club Vega - 2014 Mais lorsque les deux polariseurs sont tournés selon un certain angle, les calculs de la théorie quantique conduisent à prévoir un nombre de fautes de corrélation supérieur à ce que prévoit la formule de Bell. L'inégalité de Bell n'est pas vérifiée, on dit qu'elle est "violée". Toute l'astuce de John Bell a donc été d'identifier des cas de prévisions quantiques sur des comportements de particules qui sont en contradiction avec le comportement que prévoyait son théorème, si ces particules se comportaient d'une façon « réaliste classique » (c'est à dire localement, sans influence à distance), selon la conception d'Einstein. Il ne restait plus qu'à attendre que la technologie puisse permettre de monter des expériences permettant de réaliser, sur des échantillons statistiques suffisants, des mesures de polarisation sur des couples de photons corrélés. Et de voir si les inégalités de Bell sont respectées (prévision « classique », d'Einstein) ou non (prévision de la mécanique quantique). Avec l'expérience EPR et l'inégalité de Bell, nous avons pénétré au coeur même de "l'étrangeté quantique". Nous allons voir dans le dernier volet de cette saga, que ces expériences ont pu être réalisées quelques années plus tard, confirmant l'interprétation de Copenhague de la physique quantique. Alain Couleau - Club Vega - 2014 IV. EXPÉRIENCES ET APPLICATIONS : Les promesses d'un nouveau monde 1. La physique quantique à l'épreuve de l'expérience • Les premières expériences La réalisation d'expériences E.P.R. n'a commencé à être techniquement envisageable qu'à partir des années 1970. Les universités d'Harvard et de Berkeley ont commencé alors à mettre en oeuvre un protocole expérimental sur ces bases et les premières expériences eurent lieu en 1974, avec des résultats contradictoires. Le problème étant du à la source de photons, peu fiable et de faible débit. En 1976, une nouvelle expérience fut réalisée à Houston avec une meilleure source de photons intriqués. Mais les photons n'étaient pas polarisés de manière optimale pour faire clairement apparaître les violations des inégalités de Bell. En fait, ces expériences n'étaient pas assez élaborées pour évacuer la possibilité de corrélations qui serait dues à une influence ou à un signal quelconque, classique, de vitesse infra-luminique se propageant entre les deux particules. Le schéma expérimental utilisé par toutes ces expériences était très éloigné du schéma « idéal » utilisé par John Bell pour démontrer ses inégalités : on n'était donc pas certain que les inégalités de Bell puissent s'appliquer telles quelles à ces expériences. • Les expériences d'Alain Aspect (1980-1982) En 1980, il manquait donc encore une expérience décisive vérifiant la réalité de l'état d'intrication quantique, sur la base de la violation des inégalités de Bell. Avec son équipe du laboratoire d'Institut d'Optique d'Orsay, Alain Aspect réussit en 1982 à réaliser une expérience décisive. Alain Couleau - Club Vega - 2014 Critères précis - reposant sur un schéma expérimental le plus proche possible du schéma utilisé par John Bell pour démontrer ses inégalités, afin que l'accord entre les résultats mesurés et prédits soit le plus significatif possible. - avec une excellente source de particules intriquées, afin d'avoir un temps d'expérience court, et une violation la plus nette possible des inégalités de Bell. - l'expérience devant mettre en évidence non seulement qu'il existe des corrélations de mesure, mais aussi que ces corrélations sont bien dues à un effet quantique (et par conséquent à une influence instantanée), et non à un effet classique qui se propagerait à une vitesse inférieure ou égale à celle de la lumière entre les deux particules. Descriptif du dispositif expérimental Alain Couleau - Club Vega - 2014 * la source La source utilisée est une cascade atomique d'atomes de calcium, excitée à l'aide d'un laser à krypton. Tout ça est un peu compliqué, mais on peut dire en fait qu'il s'agit du processus par lequel l'atome descend le long de son diagramme d'énergie en émettant des photons, sous l'effet de l'excitation laser. * les polariseurs Pour s'assurer que les corrélations entre les mesures faites par les polariseurs ne soient pas induites par des effets d'origine « classique », et notamment par des artefacts expérimentaux, ou par une hypothétique influence de l'orientation fixe des polariseurs, il fallait que l'orientation des polariseurs soit déterminée au dernier moment (après l'émission des photons, et avant la détection) et qu'ils soient suffisamment éloignés l'un de l'autre pour qu'aucun signal n'ait le temps d'aller de l'un à l'autre. Dans le dispositif expérimental d'Aspect, les polariseurs étaient séparés de 6m de part et d'autre de la source, et de 12m l'un de l'autre. Ce qui laissait un temps de 20 ns entre l'émission des photons et leur détection. Comme il était physiquement impossible de changer matériellement l'orientation d'un polariseur dans ce laps de temps, deux polariseurs par côté ont été utilisés, pré-orientés différemment, avec un système d'aiguillage à très haute fréquence de basculement. Dernière caractéristique importante : l'utilisation de polariseurs à deux canaux, permettant d'avoir un résultat mesurable dans le cas (+) comme dans le cas (-). Résultats de l'expérience Les inégalités de Bell permettent d'établir une courbe théorique du nombre de corrélations (++ ou --) entre les deux détecteurs par rapport à l'angle relatif des détecteurs (a-b). La forme de cette courbe est caractéristique de la violation des inégalités de Bell. Les expériences d'Aspect ont confirmé sans ambiguïté la violation des inégalités de Bell comme le prévoyait l'interprétation de Copenhague de la mécanique quantique, infirmant par là-même la vision réaliste locale d'Einstein de la mécanique quantique et les scénarios à variables cachées locales. Alain Couleau - Club Vega - 2014 Non seulement la violation était confirmée mais de plus, elle était confirmée exactement de la manière prédite par la mécanique quantique, avec un accord statistique considérable. Étant donné la qualité technique de l'expérience, le soin apporté pour éviter les artefacts expérimentaux et l'accord statistique quasiment parfait, cette expérience a largement convaincu la communauté scientifique de la réalité de la violation des inégalités de Bell par la physique quantique et par conséquent, de la réalité de la non-localité quantique. En clair, cela veut dire qu'il existe un lien entre les deux photons - qui ne s'explique pas par un transfert (impossible) d'information entre eux, ni par l'existence de propriétés cachées. - qui n'est donc pas local. Les deux particules peuvent être séparées autant que nécessaire dans l'espace, le lien persiste. Les deux photons, du point de vue de la physique quantique, continuent à ne former qu'un seul objet. Voilà qui est pour le moins, très mystérieux. On comprend qu'Einstein ait cherché à trouver à ce phénomène une explication plus conforme à l'intuition. Mais l'expérience lui a finalement donné tort. La physique quantique bouleverse décidément le sens commun… Alain Couleau - Club Vega - 2014 • Les expériences récentes En 1998, l'expérience de Genève a testé les corrélations entre deux détecteurs distants de 30 kilomètres, en utilisant le réseau suisse de télécommunications par fibres optiques. Cette distance laisse beaucoup plus de temps pour commuter les angles des polariseurs et il a donc été possible de mettre en place un aiguillage purement aléatoire. D'autre part, les deux polariseurs éloignés étaient complètement indépendants et les mesures ont été enregistrées de chaque côté, puis comparées après l'expérience, en datant chaque mesure à l'aide d'une horloge atomique. La violation des inégalités de Bell a une nouvelle fois été vérifiée dans ces conditions strictes et presque idéales. Aujourd'hui, la violation des inégalités de Bell par la physique quantique est clairement établie. On doit donc admettre la non-localité de la physique quantique et la réalité de l'état d'intrication. Et nous allons voir plus loin que cette démonstration expérimentale a déclenché l'apparition de nouveaux champs de recherche. 2. La frontière classique-quantique • La théorie de la décohérence Si un romantique comme Alfred de Musset exclut qu'une porte soit à la fois fermée et ouverte, il n'en est pas de même, vous l'avez compris pour un physicien quantique constructeur de portes quantiques. Se poser la question : "Pourquoi la nature se livre-t-elle à pareilles facéties?", n'a ni sens, ni réponse. En revanche on pend se demander comme la nature s'y prend... Tous les objets décrits par la physique classique (projectile, planète, chat, etc.) étant composés, en dernière analyse, d'atomes et de particules, et ces derniers étant décrits entièrement par la physique quantique, il est logique de considérer que les règles de la physique classique peuvent se déduire de celles de la physique quantique. Or, les tentatives en ce sens ont posé de nombreux problèmes dès le départ et pendant très longtemps. Alain Couleau - Club Vega - 2014 La théorie de la décohérence est à ce jour une des tentatives les plus satisfaisantes. Elle a pour objectif de réconcilier ces deux visions d'un même monde. Le problème majeur est que la physique quantique admet des états superposés, absolument inconnus à un niveau macroscopique décrit par la physique classique. L'exemple le plus frappant décrivant ce problème est l'expérience du chat de Schrödinger. La théorie quantique tient compte de cette non-observabilité des états superposés quantiques en stipulant que tout acte d'observation provoque un effondrement de la fonction d'onde, c'est-à-dire sélectionne instantanément un et un seul état parmi l'ensemble des états superposés possibles. C'est le postulat de la réduction du paquet d'ondes. L'idée de base de la décohérence est qu'un système quantique ne doit pas être considéré comme isolé, mais en interaction avec un environnement possédant un grand nombre de degrés de liberté. Ce sont ces interactions qui provoquent la disparition des états superposés et ce d'autant plus rapidement qu'il y a plus d'interactions. A l'échelle macroscopique, celui des milliards de milliards de particules, la rupture se produit donc pratiquement instantanément. Seuls restent observables les états correspondant aux états macroscopiquement observables, par exemple - dans le cas du chat de Schrödinger - mort ou bien vivant. Les interactions et l'environnement dont il est question dans cette théorie ont des origines très diverses. Typiquement, le simple fait d'éclairer un système quantique suffit à provoquer une décohérence. Alain Couleau - Club Vega - 2014 Naturellement, le fait de mesurer volontairement un système quantique provoque des interactions nombreuses et complexes avec un environnement constitué par l'appareil de mesure. Dans ce cas, la décohérence est pratiquement instantanée et inévitable. Donc, pour la théorie de la décohérence, l'effondrement de la fonction d'onde n'est pas spécifiquement provoquée par un acte de mesure, mais peut avoir lieu spontanément, même en l'absence d'observation et d'observateurs. • La décohérence prise sur le vif Cette frontière floue qui sépare le quantique du classique a longtemps été un no man's land expérimental et le problème est resté théorique. Mais ce n'est plus le cas, car progrès techniques aidant, on peut aujourd'hui manipuler des atomes ou des photons un à un. Ce qui a permis en 2009, à Serge Laroche (Prix Nobel de Physique en 2012) et son équipe de l'Ecole Nationale Supérieure, de réussir à "filmer" des photons en train de glisser d'un état quantique superposé vers un état classique en passant par une succession d'étapes intermédiaires. Pour ce faire, ils ont fabriqué une "boite à photons" isolée de l'environnement. Cette boite à photons est une cavité formée de deux miroirs supraconducteurs refroidis à une température proche du zéro absolu (- 273°C). La lumière est réfléchie par chaque miroir pour atteindre l'autre qui la réfléchit à son tour. Le même photon décrit ainsi des allers-retours et se trouve piégé. Ensuite pour mesurer le nombre de photons, l'équipe a utilisé des atomes particuliers capables de sonder la cavité sans interagir avec les photons. Après un temps de plusieurs dizaines de millisecondes, le grain de lumière finit par s'échapper. Ce temps suffisamment long permet de déterminer son état quantique et d'étudier son évolution. Les moments où les photons apparaissent et disparaissent révèlent les sauts quantiques de la lumière qui se produisent au hasard. Alain Couleau - Club Vega - 2014 L'état du système quantique est matérialisé sous la forme d'une figure géométrique, où les états "normaux" de la lumière apparaissent comme des pics positifs au-dessus du plan de la figure. A l'inverse, les états superposés apparaissent comme des oscillations négatives sous le plan de la figure. Les mesures réalisées montrent que ces oscillations s'effacent progressivement, illustrant ainsi la transition d'un état superposé vers un état macroscopique "classique". • La théorie des univers parallèles Proposée par Hugh Everett en 1957, cette théorie stipule que la fonction d'onde décrit la réalité, et toute la réalité. Cette approche permet de décrire séparément les états superposés et leur donne à chacun une "réalité" dans autant d'univers distincts. Résumons-la le plus simplement possible… Prenons par exemple le jeu de pile ou face : la pièce qu'on lance peut retomber sur pile ou sur face, mais on ne sait pas à l'avance de quel côté elle va tomber. Juste avant qu'on la lance, les deux probabilités ont la même chance. Lorsqu'elle tombe, deux univers se séparent. Le nôtre où nous observons de quel côté est tombée la pièce (face par exemple) et un univers parallèle, incapable de communiquer avec le nôtre où le résultat de la chute est "pile". Cette interprétation d'Everett des mondes multiples, résout le paradoxe du chat de Schrödinger. Chaque événement est une bifurcation. Le chat est à la fois mort et vivant, avant l'ouverture de la boîte, mais le chat mort et le chat vivant existent dans des bifurcations différentes de l'Univers, qui sont tout aussi réelles l'une que l'autre. Alain Couleau - Club Vega - 2014 Cette théorie qui n'hésite pas à postuler l'existence de mondes inconnaissables par principe, parait extravagante, mais chose troublante, il est aussi difficile de la réfuter que d'y souscrire ! Et elle emporte l'adhésion de nombreux physiciens… • La théorie de l'influence de la conscience Soutenue par Eugene Wigner (prix Nobel de physique en 1963), elle défend la thèse de l'interaction de la conscience, dans la décohérence (cessation de la superposition d'états). Dans cette interprétation, à connotation spiritualiste, , ce ne serait pas une mesure, ou des interactions physiques, mais la conscience de l'observateur qui "déciderait" finalement si le chat est mort ou vivant. Pour Wigner, la réalité matérielle du monde serait déterminée par notre conscience. Je vous laisse méditer en silence sur le rôle de la conscience sur la matière… Revenons à des choses plus sérieuses… • Vers le quantique macroscopique Nos sens nous donneront-ils un jour directement accès à l'étrange monde quantique ? A priori non, car un simple échange d'information le fait disparaître, mais ce n'est plus un problème d'échelle. On crée en effet des phénomènes quantiques de plus en plus macroscopiques… Mais jusqu'à quel degré de complexité peut-on créer des superpositions d'états d'objets massifs ? Alain Couleau - Club Vega - 2014 Le chat imaginé par Schrödinger est un système complexe, visible et palpable, formé de nombreuses particules en interaction. Par rapport aux photons, les particules massives posent des problème supplémentaires: - tout d'abord, elles ont sensibles à la pesanteur. Les faibles vitesses des molécules comparées à celles des photons (de l'ordre de 100 m par seconde contre 300 000 kilomètres par seconde) rendent l'expérience sensible aux vibrations mécaniques. - les "chats" moléculaires sont d'autre part affectés par leur propre température. Les molécules sont chaudes, elles vibrent, tournent et se tordent. Ce qui impose de placer les objets à des températures glaciales pour que leur état quantique ne soit pas détruit. Pour être mort et vivant, un chat doit donc avant tout être congelé. Manipuler un objet au niveau quantique requiert de l'isoler de l'environnement et d'évacuer toute l'énergie thermique susceptible de perturber son état. La course à la taille devient alors une course au froid. Le premier chat "macroscopique" a été obtenu fin 2009. Des physiciens de l'Université de Santa Barbara, en Californie, ont placé une petite pastille piézo-électrique (qui transforme une déformation mécanique en électricité), refroidie à -273°C, dans un état où elle vibrait et ne vibrait pas à la fois ! Le temps de décohérence était toutefois encore très court, environ dix nanosecondes. 3. Quelques applications de la physique quantique • Le LASER (Light Amplification by Stimulated Emission of Radiation) En physique quantique, un atome présente des niveaux d'énergie. S'il est excité, son énergie augmente soudain d'un niveau au suivant. Si on envoie sur cet atome un grain de lumière, c'est à dire un photon, bien adapté, cela le désexcite. Il émet alors un deuxième photon parfaitement identique au premier. Dans un laser, on place entre deux miroirs des atomes excités. Un photon désexcite un atome, qui émet un autre photon, et ainsi de suite grâce aux miroirs. Alain Couleau - Club Vega - 2014 Les photons produits sont tous identiques. Ils ont une même énergie ce qui leur donne une couleur unique et une même direction. C'est le principe du LASER, acronyme de l'anglais Light Amplification by Stimulated Emission of Radiation, dont les applications sont nombreuses. • L'IRM (Imagerie par Résonance Magnétique) Avec une résolution spatiale et temporelle exceptionnelle, l'imagerie par résonance magnétique (IRM) nucléaire, est un outil puissant de diagnostic et de recherche neurobiologique. Son principe repose sur l'utilisation des propriétés magnétiques des noyaux d'hydrogène présents dans les molécules d'eau (H2O) qui constituent 80% de notre corps. Ces noyaux sont dotés d'un moment magnétique appelé "spin". Dans un champ magnétique, le spin se comporte comme une aiguille aimantée qui s'oriente dans la direction du champ. A proximité de la zone à explorer, une antenne émet des ondes radio de fréquences variées, sous forme d'impulsions très brèves, qui modifient l'orientation du spin. A la fin de chacune des impulsions, le spin retourne spontanément à sa position initiale, en émettant une onde de la même fréquence que celle qui l'a désorienté. On dit que le noyau entre en résonance. L'onde émise est enregistrée par l'antenne. Alain Couleau - Club Vega - 2014 Pour réaliser les images en 3D, le signal émis par le spin est localisé à partir d'un encodage spatial de la région à étudier. La nature du tissu dans lequel les noyaux d'hydrogène baignent (matière grise, sang,…) est déduite de la durée de retour des spins à leur état initial. Une IRM anatomique permet ainsi de visualiser la structure d'un organe, de diagnostiquer des tumeurs… 4. les promesses d'un nouveau monde L'intrication quantique, concept extraordinaire dont Einstein fut l'un des principaux découvreurs, a fécondé la science et ouvert de nouveaux horizons à ses applications, notamment dans le domaine du transfert et du traitement de l'information. Les principaux programmes de recherche concernent : - la cryptographie quantique, - l'ordinateur quantique, - et la téléportation quantique. • La cryptographie quantique (la physique quantique au service de la sécurité) Elle exploite la superposition d'états pour créer des clefs de cryptage inviolables. En quelques années, les physiciens sont passés de la théorie et des bricolages de laboratoire aux produits commercialisés. Le défi était d'autoriser l'expéditeur et le destinataire à partager une clef et de s'assurer qu'aucun individu écoutant la ligne de communication ne pouvait se la procurer. La physique quantique fournit une solution au problème de la distribution de clef, comme nous allons le voir. Le protocole de cryptographie quantique est entièrement fondé sur les propriétés quantiques des photons polarisés. Avant d'aller plus loin, il est indispensable de connaître et comprendre ces propriétés. Alain Couleau - Club Vega - 2014 - un photon peut être polarisé selon un axe quelconque. - si le filtre polarisant est orienté précisément dans l'axe de polarisation du photon, alors celui-ci le traversera dans 100% des cas. - si le filtre polarisant est orienté perpendiculairement à l'axe de polarisation du photon, alors celui-ci le sera arrêté dans 100% des cas. - si le filtre est orienté à 45° de l'axe de polarisation du photon, celui-ci aura une chance sur deux (50%) de le traverser. 1. Alice crée et envoie une série de photons polarisés au hasard. L'orientation des filtres polarisants est choisie parmi quatre possibles. Les deux premières résultent de la base de polarisation linéaire rectangulaire : le bit vaut 1 quand la polarisation est horizontale et 0 quand elle est verticale. Alain Couleau - Club Vega - 2014 Les deux autres directions correspondent à la base de polarisation diagonale : le bit vaut 1 ou 0 selon la direction de la diagonale. 2. Pour chaque photon qu'il reçoit, Bernard mesure sa polarisation avec un filtre polarisant soit rectangulaire, soit diagonal. Il note la polarisation obtenue et la valeur du bit associé. 3. Eve espionne le train de photons, mais la physique quantique lui interdit de pouvoir utiliser simultanément les deux filtres (rectangulaire et diagonal), pour détecter la direction de polarisation. Un filtre non adapté modifie la polarisation des photons et crée des erreurs qui trahiront son "méfait". 4. A la fin de la transmission quantique, Bernard contacte Alice par un canal public (téléphone, courrier électronique…), que l'espion peut écouter, et l'informe de la séquence de filtres qu'il a utilisés, mais il tait le résultat de ses mesures. 5. Alice indique à Bernard quels filtres ont été choisis correctement. Partant, les valeurs des bits mesurés par ces filtres constitueront une clef que les deux protagonistes utiliseront pour coder des messages. Alain Couleau - Club Vega - 2014 • L'ordinateur quantique L'idée en filigrane est celle du calcul quantique. On peut envisager des bits quantiques, c'est à dire des systèmes quantiques (atomes, photons,…) décrits par la superposition de deux états de base. Plusieurs équipes dans le monde tentent de créer et de contrôler des ensembles de quelques bits quantiques, pour réaliser un jour un ordinateur quantique. Car selon certains physiciens, si de grands calculateurs quantiques (plus de 300 qubits) pouvaient être construits, ils seraient capables de simuler le comportement de l'univers, lui-même. Mais la concrétisation d'un tel dispositif est, sinon une utopie, du moins d'une difficulté extrême. Le fonctionnement des calculateurs quantiques peut paraître mystérieux au premier abord : la théorie quantique est une théorie décrivant des probabilités de présence. Comment dès lors concilier ce concept d’aléa avec un calcul qui se veut déterministe ? Alors, comment ça marche ? La mémoire d'un ordinateur classique est faite de bits, qui ne peuvent prendre qu'un état parmi deux possibles : 0 ou 1. C'est le langage binaire. La machine calcule en manipulant ces bits. Alain Couleau - Club Vega - 2014 La révolution que propose l'informatique quantique est de remplacer ces bits par des bits quantiques, ou qubits en abrégé. En effet, la physique quantique, avec son principe de superposition, permet à un état d'être un "mélange" d'autres états. Ainsi, un qubit peut prendre les valeurs 0 ou 1, mais aussi un état constitué de 10% de 0 et 90% de 1, ou toute autre combinaison. bit qubit Un peu plus concrètement, avec 4 bits, un ordinateur classique peut traiter un état parmi 16 états différents : 0000, 0001, 0010, 0011, etc… L'avantage de l'ordinateur quantique est de pouvoir traiter simultanément les 16 états. On a pu calculer qu'un ordinateur quantique de 300 qubits pourrait gérer environ 1090 informations, soit plus que le nombre d'atomes dans l'univers observable. Mail il est très difficile de produire aux échelles macroscopiques des états intriqués, car aussitôt qu'un système quantique interagit avec son environnement, il "décohère" et tombe dans l'un des états classiques. De plus la mesure de la valeur contenue dans les qubits brise la superposition. Une des grandes difficultés de ce domaine est ainsi de trouver des algorithmes propres aux ordinateurs quantiques qui permettent de ne pas perdre le résultat du calcul quand on le lit. En 2011, le dispositif le plus complexe a été mis au point à l'université d'Innsbruck et comporte 14 qubits. Mais plus récemment, Google et la NASA ont réuni leurs forces dans le cadre d’un projet de recherche en informatique quantique, et ont fait l'acquisition à la société D-Wave d'un ordinateur quantique (D-Wave Two) supposé pouvoir traiter 512 qubits ! Là-dessus la communauté scientifique reste pour l'instant très sceptique... Alain Couleau - Club Vega - 2014 • La téléportation quantique Les oeuvres de science-fiction abondent en scènes de téléportation, c'est à dire de voyage d'un endroit à un autre sans devoir ingérer les rations alimentaires des compagnies aériennes. La téléportation quantique est un protocole de communications quantiques consistant à transférer l’état quantique d’un système vers un autre système similaire et séparé spatialement du premier en mettant à profit l’intrication quantique. Contrairement à ce que le nom laisse entendre, il ne s'agit donc pas de transfert de matière. Seule l'information est téléportée. Imaginez deux particules intriqués et situées à quelque distance l'une de l'autre. Si on fait agir une troisième particule (de la même nature) avec l'un des membres de la paire intriquée, le résultat va être de la retrouver de l'autre côté. Cette tierce particule sera passée d'un côté â l'autre, sans n'avoir jamais existé entre deux. C'est en 1997 que le physicien autrichien Anton Zellinger réalise les premières expériences de téléportation réussies avec des photons. D'autres expériences ultérieures ont réussi des téléportations de photons sur des distances de plus de 140 km. Certains groupes de recherche sont à ce jour, parvenus à intriquer des atomes, ou plus précisément des ions chargés électriquement, plus faciles à manier. Toutes ces recherches fascinantes préparent les technologies de communication quantique du futur. Alain Couleau - Club Vega - 2014 L'HEURE DU BILAN Résumons les 6 notions essentielles nécessaires à la compréhension du monde quantique. 1. La quantification La première différence entre le monde classique et le monde quantique, c'est que dans ce dernier les échanges (en particulier d’énergie) se font de manière discontinue. C'est comme si, dans ce monde, on ne pouvait s'échanger que des paquets d'argent de 100 Euros, sans aucune somme intermédiaire. C'est la fameuse quantification. L'effet photoélectrique illustre cette propriété. L'éclairement d'un matériau déclenche l'apparition d'un courant électrique pour certaines longueurs d'onde (donc certaines énergies) de la lumière, seulement. Au niveau microscopique, les atomes absorbent de l'énergie seulement par paquets. 2. La dualité onde-corpuscule Si la physique classique distingue essentiellement deux sortes d'objets, en un sens opposés, les corpuscules et les ondes, en physique quantique, toutes les particules qu'elles soient de lumière ou de matière, manifestent tantôt des aspects ondulatoires, tantôt des aspects corpusculaires. C'est le principe de complémentarité de Niels Bohr. Alain Couleau - Club Vega - 2014 3. Le principe d'incertitude (d'Heisenberg) La théorie quantique ne décrit pas les objets de la même manière. Dans le monde classique, la position et la vitesse d'une voiture, par exemple, sont bien définies. Sans cela les radars ne serviraient à rien… Dans le monde quantique, il est impossible par exemple, de connaître simultanément et précisément la position d'une particule et sa vitesse. 4. La superposition d'états C'est la fameuse expérience (de pensée) du chat de Schrödinger. Imaginons que l'état d'une particule soit entièrement décrit par sa couleur, qui ne peut prendre que deux valeurs, rouge ou bleue. Dans notre monde, les deux couleurs, donc les deux états, sont parfaitement distinguables. Alain Couleau - Club Vega - 2014 Pas dans l'univers quantique. Des états qui soient à la fois rouge et bleu existent. Seule une photo ou un instrument de mesure révèle la nature bleue ou rouge du système. Sans lui, l'objet n'a pas vraiment de couleur. 5. L'intrication Cette propriété découlant de la mécanique quantique qui gênait terriblement Albert Einstein, implique que deux particules issues du même atome, donc intriquées, sont si intimement liées entre elles, que la mesure de l'une influence celle de l'autre, ceci indépendamment de la distance qui les sépare. C'est sur cette caractéristique que reposent les prouesses de l'information quantique. 6. La décohérence Elle marque le passage de l'état quantique à l'état classique. Ce sont les interactions des particules avec l'environnement qui provoquent la disparition des états superposés et ce d'autant plus rapidement qu'il y a plus d'interactions. A l'échelle macroscopique, celui des milliards de milliards de particules, la rupture se produit donc pratiquement instantanément. Le chat de Schrödinger ne peut être que mort ou bien vivant. Il est maintenant temps de faire le point sur toutes les idées que nous venons d'évoquer, afin de voir le schéma qu'elles dessinent. Sous notre monde de l'espace et du temps, nous entrevoyons, bien caché, un univers étrange et occulte dont nous subissons en quelque sorte la domination. Alain Couleau - Club Vega - 2014 Pour pénétrer les secrets de cet univers, nous effectuons des expériences. Mais ces expériences sont des instruments maladroits, affligés d'une imprécision fatale. Et parce que nos représentations mentales inadaptées, ne nous laissent aucun espoir de visualiser dans l'espace et le temps, ce qui se passe au plus profond de cet univers, nous sommes contraints de faire appel aux mathématiques abstraites pour tenter d'en peindre les apparences. Ces expériences entachées d'une inéluctable indétermination, comportent malgré tout un fond précis d'exactitude et de détermination, sur lequel peut s'édifier une science des lois naturelles. Cette exactitude, paradoxalement, est une exactitude de probabilités. Car les probabilités ont de grands pouvoirs pourvu qu'on les applique à de grands nombres. Voyons un peu la confiance qu'on peut leur accorder… Dans le jeu de Pile ou Face, le résultat imprévisible puisqu'il est affaire de hasard, n'est pourtant pas totalement indéterminé. - nous savons qu'il ne peut être qu'un des deux cas possibles : pile ou face. - et chose encore plus importante, si nous lancions la pièce dix mille fois de suite, il nous est possible de prédire avec une relative sureté, que la moitié des pièces, environ, tombera sur pile. Bien sûr, il nous arrivera d'avoir tort de temps à autre, mais en acceptant ce faible risque, nous avons une grande confiance en la certitude des probabilités. Finalement, le hasard devient une certitude pratique, dont se servent - les casinos où l'on joue à la roulette, qui tablent sur la sortie à la longue du zéro pour récupérer un pourcentage régulier du volume des transactions. - les compagnies d'assurance, dont on entend jamais dire qu'elles soient en faillite. Alain Couleau - Club Vega - 2014 Le monde atomique offre à la fois - des probabilités précises qui se conforment à des lois mathématiques exactes, - et des nombres phénoménaux, auprès desquels le nombre des personnes assurées est insignifiant. Les savants ont calculé le poids d'un électron. A votre avis, combien faut-il d'électrons pour peser autant qu'une plume ? - un million ?… insuffisant. - ni même un milliard. - un million de milliards ?… non. - un milliard de milliards non plus. - pas plus qu'un million de milliards de milliards. Il faut atteindre un milliard de milliards de milliards, pour évoquer ce poids. 1 000 000 000 000 000 000 000 000 000 C'est avec des nombres tels que celui-ci, que la physique quantique surmonte le handicap de l'imprécision fondamentale. C'est grâce à eux qu'elle prédit avec hardiesse. Si elle s'avère impuissante à prédire le comportement exact d'une particule fondamentale, elle peut malgré tout affirmer avec beaucoup d'assurance, comment de telles multitudes d'entre elles vont se comporter. Il nous faut donc nous habituer à accepter le monde tel qu'il se présente à travers nos expériences. Car il n'existe aucun moyen satisfaisant de décrire les processus atomiques fondamentaux de la nature en termes d'espace, de temps et de causalité. Alain Couleau - Club Vega - 2014 Après tout, que sont ces entités mystiques d'espace et de temps, à la lumière des découvertes quantiques ? Les électrons ainsi que les autres particules fondamentales, n'existent pas dans l'espace et le temps. Ce sont l'espace et le temps qui existent en fonction d'eux. C'est à partir de ces particules, considérées dans leur nombre énorme, que nous édifions nos concepts spatiaux et temporels. Une particule individuelle ne se trouve pas simultanément en deux endroits différents : elle est nulle part. Dès lors le message des quanta devient très clair : l'espace et le temps ne sont pas des entités fondamentales. Allez… ce débat nous entrainerait très loin car il évident que toute cette spéculation scientifique est loin d'être terminée. Le Quantum est là et mon histoire se termine… Laissons tomber le rideau... Alain Couleau - Club Vega - 2014