CONTINU ET DISCONTINU en Physique moderne Louis de Broglie Membre de l’institut, Prix Nobel Professeur à la Faculté des Sciences de Paris 1941 2 i Préface Dans un précédent volume de cette collection 1 , nous avions réuni un certain nombre d’ études sur la Physique contemporaine dans l’intention de mettre en évidence l’ originalité des conceptions nouvelles qui y ont été récemment introduites et l’importance des conséquences philosophiques qui en découlent. L’idée centrale de ce premier volume était de montrer comment les théories corpusculaires et les théories ondulatoires de la Physique classique étaient venues se rejoindre et se fondre au sein de la Mécanique ondulatoire. Grâce à cette fusion, toute différence essentielle s’était trouuée abolie entre la Matière et la Lumière, toutes deux douées d’un double aspect corpusculaire et ondulatoire : ainsi se trouvait justifié le titre sous lequel cette première série d’études avait été rassemblée. Dans le present ouvrage, nous offrons aux lecteurs une nouvelle série de monographies consacrées, elles aussi, presque toutes à diverses questions de Physique quantique et de Mécanique ondulatoire. Ici l’idée centrale à laquelle se peut rattacher cet ensenible d’essais, c’est l’aspect vraiment nouveau que prennent dans la Physique d’aujourd’hui le traditionnel dilemme « continu ou discontinu », la classique opposition de l’élément simple et indivisible avec le continu étendu et disible. Dans la science moderne, l’élément simple et indivisible, c’est le grain, grain de matière ou grain de lumière, neutron, électron ou photon. Ce grain se manifeste à nous comme une entité physique indivisible, susceptible de produire tantôt une action localisée en une région quasi ponctuelle de l’espace, tantôt un échange d’énergie ou d’impulsion où apparaı̂t son caractère d’unite dynamique autonome : il est l’élément discontinu qui dans les profondeurs de l’infiniment petit paraı̂t bien constituer la réalité ultime. Par contre, dans les théories nouvelles comme dans les anciennes, l’ étendue continue et divisible, c’ est essentiellement le champ, c’està-dire l’ensemble des propiriétés physiques qui caracterisent à chaque instant les divers points de l’espace et qui s’expriment par des jonctions généralement continues des coordonnées d’espace et de temps. Au premier abord, on pourrait être tenté de considérer l’espace et le temps (ou l’espace-temps relativiste) comme un cadre donné à priori : le champ viendrait remplir ce cadre vide en exprimant ses propriétés locales. Cependant, il paraı̂t plus juste (la relativité généralisée nous a d’ailleurs habitués à cette idée) de renverser l’ordre des préséances et de dire au contraire : c’est le champ qui est la réalité première et c’est lui qui crée et qui modèle l’espace et le temps en leur donnant un contenu physique. Mais les conceptions antinomiques de grain et de champ doivent nécessairement 1. Matière et Lumière, Albin Michel, 1937 ii en fin de compte venir à la rencontre l’une de l’autre puisqu’ elles doivent trouver leur place côte a côte dans le cadre de la Physique totale. Comment les concilier ? Longtemps on a pensé que les grains devaient se décrire comme des objets ponctuels ou quasi ponctuels ayant à chaque instant une position dans l’espace. Eux aussi ils se trouveraient insérés dans le cadre de l’espace et du temps et viendraient se situer au sein du « champ ». Il était alors tout naturel de considérer les grains comme des sortes de points singuliers du champ. Il ne semble pas que les tentatives faites pour préciser cette séduisante conception aient été très heureuses et les théories quantiques actuelles nous font entrevoir une solution de ce problème bien autrement profonde et intéressante. Esquissons la rapidement. La discontinuité symbolisée par le grain est sans doute la réalité ultime. Mais les grains ne sont pas véritablement localisables dans le cadre de l’espace et du temps comme on le supposait autrefois. C’est le développement de la théorie des quanta qui nous a amenés a cette surprenante conclusion : les incertitudes d’Heisenberg s’opposent en effet a ce que nous puissions leur attribuer constamment une position et une vitesse bien déterminêes dans l’espace. Nous ne devons pas trop nous en étonner. Qu’est-ce, en effet, que l’espace et le temps ? Ce sont des cadres qui nous sont suggéres par l’interprétation de nos perceptions usuelles, c’ est-à-dire des cadres où peuvent se loger les phénomènes essentiellement statistiques et macroscopiques que nos perceptions nous révèlent. Pourquoi alors être surpris de voir le grain, réalité discontinue essentiellement élémentaire et microscopique, refuser de s’insérer exactement dans ce cadre grossier bon seulement pour représenter des moyennes ? Ce n’est pas l’ espace et le temps, concepts statistiques, qui peuvent nous permettre de décrire les propriétés des entités êlémentaires, des grains ; c’est au contraire à partir de moyennes statistiques faites sur les manifestations des entités élémentaires qu’une théorie suffisamment habile devrait pouvoir dégager ce cadre de nos perceptions macroscopique que forment l’espace et le temps. Les nouvelles théories quantiques semblent nous indiquer assez nettement la voie dans laquelle il faudrait s’ engager pour réaliser ce programme. Elles nous montrent, en effet, que si les grains ne sont pas constamment localisables dans notre cadre usuel de l’espace et du temps, par contre les probabilités de leurs localisations possibles dans ce cadre sont representées par des fonctions généralement continues ayant le caractère de grandeurs de champ : ces « champs de probabilité » sont les ondes de la Mécanique ondulatoire ou du moins des grandeurs se calculant à partir de ces ondes. La dualité corpuscule-onde, qui avait été le leitmotiv de Matière et Lumière, nous apparaı̂t ici sous un autre jour : l’onde étendue de la Mécanique ondulatoire, onde ψ associée à l’ électron ou onde électro-magnétique associée au photon, c’est comme le reflet dans notre espace et notre temps macroscopiques de l’impossibilité de localiser les corpuscules élémentaires, les grains, dans un cadre moyen qui n’ est pas adapté à leur description exacte. Mais, comme précédemment, on peut aussi iii renverser l’ordre des préséances et considérer le cadre continu constitué par notre espace et notre temps comme engendré en quelque sorte par l’incertitude d’Heisenbeg, la continuité macroscopique résultant alors d’ une statistique opérée sur des éléments discontinus affectés d’incertudes . Il n’ est probablement pas facile de de développer ces idées sous une forme précise et logiquement satisfaisante. Mais il est certain qu’ en nous montrant comment l’existence des champs correspond à la non localisation des grains, la Mécanique ondulatoire et les théories quantiques nous ouvrent de remarquables perspectives nouvelles sur le vieux problème du continu et du discontinu. ∴ Passons rapidement en revue les diverses études réunies dans ce livre. Les deux premières ont un caractère d’introduction : elles ont pour but de bien préciser l’une dans le cas de la Lumière, l’autre dans le cas des électrons, le sens très nouveau que l’on doit en, Mécanique ondulatoire attribuer à la notion de corpuscule et le lien subtil qu’il y faut établir entre ce corpuscule et son onde associée. Viennent ensuite quatre etudes à caractère philosophique général. Dans l’ une on trouvera énoncé sous la Iorme la plus objective possible ce que l’on doit appeler l’indéterminisme de la Physique quantique. Dans une autre sont exposés certains aspects philosophiques des progrès récents de la Physique et on y trouvera déjà le développement de quelques-unes des idées qui ont été esquissées plus haut. Une troisième étude plus psychologique que proprement scientifique porte sur les conditions de l’invention dans les théories physiques. Enfin, la quatrième et dernière étude expose le long duel qui a mis aux prises dans le développement de la Physique moderne les physiciens à esprit abstrait et formel et les intuitifs amateurs de représentations concrètes et s’efforce de rendre justice à tous. Dans une troisième partie dont le contenu correspond au titre même de l’ouvrage, nous avons rassemblé quatre exposés qui, bien qu’écrits sans faire usage d’algorithmes mathématiques, ont déjà un caractère un peu plus technique. Après avoir attiré l’attention sur l’aspect si original et si suggestif qu’ont prises dans la Physique contemporaine les notions d’individualité physique et d’interaction, nous avons abordé de front le problèmes des grains et des champs en traitant d’abord la question sous une forme générale, puis en prenant comme exemple la théorie quantique du rayonnement. Prolongeant cette dernière étude, nous avons été amené à parler de la théorie générale des particules élémentaires actuellement en plein développement et des récentes théories du noyau de l’atome où l’électron lourd ou « mésoton » découvert dans les rayons cosmiques joue un rôle essentiel . iv Enfin, on trouvera reproduite à la fin de l’ouvrage une conférence faite à la Sorbonne par l’auteur le 18 septembre 1940. Elle est consacrée à résumer la vie et à célébrer l’œuvre d’un de nos plus grands savants français, André-Marie Ampère, mathématicien éminent, initiateur des théories atomiques modernes, génial fondateur de l’Electrodynamique et remarquable précurseur de tous ceux qui ont, après lui, réalisé les grandes applications de l’électricité. Cette conférence faisant partie d’une série intitulée « Grandes Figures Françaises ». La grande et noble figure d’André-Marie Ampère était bien digne de trouver sa place da,s cette glorieuse galerie de portraits et son évocation dans les circonstances où elle était faite prenait une signification particulière. Quel que soit en effet le rôle que l’avenir réserve à la France dans l’Europe de demain, elle devra l’aborder la tête haute, fière d’une histoire glorieuse, soutenue par le souvenir des grands hommes qu’elle a produits au cours des siècles et clairement conciente de l’immense contribution qu’elle a apportée à la civilisation spirituelle et matérielle du monde moderne. Janvier 1941. Première partie LA LUMIÈRE ET LES ÉLECTRONS 1 Chapitre 1 Le secret de la lumière La lumière joue dans notre vie un rôle essentiel : elle intervient dans la plupart de nos activités. Les Grecs de l’Antiquité le savaient bien déjà, eux qui pour dire « mourir » disaient « perdre la lumière ». Aussi l’étude de la Lumière s’est-elle depuis longtemps imposée à l’attention des hommes. Néanmoins, cette étude ne fut que faiblement esquissée dans l’Antiquitê et au Moyen Age et elle ne s’est réellement developpée qu’à partir du XVIIe siècle. A dater de ce moment, la découverte d’un nombre croissant de phénomènes lumineux de plus en plus dêlicats à observer a permis de constituer une vaste science de la lumière, 1’Optique, dont le domaine a êté sans cesse en s’élargissant. Ce qui rend particulièrement intéressante l’histoire de 1’Optique, c’est qu’au cours de cette histoire, deux conceptions antagonistes sur la nature de la lumière se sont constamment affrontée avec des succès alternés. Les phénomènes lumineux qui, successivement, étaient découverts et étudiés paraissaient tour à tour apporter des arguments en faveur de ces deux conceptions rivales en apparence inconciliables. On eût dit que la lumière en se montrant à nous sous des aspects différents, cherchait à nous cacher sa véritable nature. C’est en ce sens qu’on peut parler du secret de la lumière. Aujourd’hui, nous avons commencé à soulever le voile et à entrevoir le mot de l’énigme : nous comprenons maintenant que les conceptions antagonistes de la lumière contiennent toutes les deux une part de vériité et qu ’il est possible de les concilier en acceptant, il est vrai, des idées très nouvelles dont la portée est très grande. En nous dévoilant partiellement son secret, la Lumière nous a forcés à modifier considérablement certaines de nos habitudes de pensée, ce qui nous a rendu de grands services non seulement en optique proprement dite, mais dans beaucoup d’autres branches de la Physique, notamment en Physique atomique. De ce secret de la Lumière, je voudrais m’efforcer de donner une idée générale sans entrer naturellement dans les développements mathématiques qui seraient nécessaires pour traiter ce sujet d’une façon tout à fait précise. Et d’abord, disons quelles sont les deux conceptions antagonistes sur la nature 3 4 CHAPITRE 1. LE SECRET DE LA LUMIÈRE de la Lumière dont j’ai parlé tout à l’heure. L’une d’elles veut que la lumière soit formêe par des corpuscules en mouvement, que les phénomènes lumineux soient dus au transport à travers l’espace de petits projectiles animés de grandes vitesses. L’autre théorie se forme de la Lumière une idée bien différente : ce serait la propagation à travers l’espace d’un ébranlement, d’une onde analogue à celles que l’on voit courir à la surface des nappes d’eau ou encore à celles qui, en se propageant dans l’air ou les milieux matériels donnent lieu aux phénomènes sonores. Cette seconde conception paraissait impliquer l’existence d’un milieu très subtil, l’éther, qui pénétrerait même dans les corps transparents les plus durs et qui servirait de support aux vibrations lumineuses. Le développement de 1’Optique, après avoir semblé d’abord favorisé plutôt la première conception, la conception corpusculaire, a amené au début du XIXe siècle, un triomphe, en apparence définitif, de la seconde conception, la conception ondulatoire. Mais, il y a une quarantaine d’années, des faits nouveaux ont ramené l’attention vers la théorie corpusculaire et montré que la théorie ondulatoire ne peut pas suffire à elle seule pour expliquer la totalité des phénomènes produits par la Lumière. Cette nécesité d’invoquer successivement des conceptions en apparence contradictoires suivant la nature des phénomènes à interpréter a provoqué une grave crise dans la science de 1’Optique. Il n’a été possible de sortir de cette crise qu’en conciliant l’image des ondes et celle des corpuscules à l’aide des idées à la fois nouvelles et hardies auxquelles j ’ai fait tout à l’heure allusion . Avant d’expliquer comment ces idées nouvelles nous permettent d’entrevoir aujourd’hui le secret de la Lumière, je dois d’abord donner un aperçu des péripéties de la longue lutte entre ondes et corpuscules telles qu’elles se sont déroulées au cours de l’histoire de 1’Optique. ∴ Les phénomènes optiques les plus simples, ceux qui ont été connus dès l’Antiquité et étudiés avec précision dès le XVIIe siècle, sont la propagation rectiligne des rayons lumineux, leur réflexion et leur réfraction. La propagation rectiligne du la lumière consiste en ceci que dans la plupart des cas usuels, la lumière se propage en ligne droite : tout se passe comme si elle suivait dans l’espace des trajectoires rectilignes qu’on nomme des rayons lumineux. Dans la conception granulaire, ce fait s’explique immédiatement d’une manière bien simple : toute source de lumière projetterait tout autour d’elle des corpuscules qui s’éloigneraient en ligne droite ; ces lignes droites seraient les trajectoires des grains de luniière, les rayons lumineux. Au contraire, la théorie ondulatoire ne peut pas rendre compte d’une manière aussi simple de ce fait fondamental puisque les ondes ont toujours tendance à s’épanouir en se propageant. 5 Il en est de même pour le phénomène de la réflexion. Quand de la lumière tombe sur un miroir plan, elle est renvoyée en arrière de telle façon que l’angle des rayons réfléchis avec la normale au miroir soit égal à l’angle de cette même normale avec les rayons incidents : c’est la loi de réflexion de Descartes. Cette loi est la même que la loi mécanique qui règle le rebondissement d’une bille contre un obstacle. L’interprétation de la rêflexion de la lumière par la théorie corpusculaire est donc immédiate tandis qu’elle paraı̂t beaucoup plus difficile par la théorie des ondes. Le phénomène de la réfraction de la lumière consiste en ceci, qu’un rayon lumineux en passant d’un milieu matériel dans un autre, subit en général une inflexion, une brisure. C’est encore Descartes qui a donné la loi exacte du phénomène. La réfraction de la lumière est moins aisée à interpréter avec la conception granulaire que les deux phénomènes précédents : cependant on parvient encore à l’interpréter en faisant des hypothèses simples sur la vitesse des corpuscules de lumière dans les divers milieux matériels. Tels étaient les principaux faits optiques connus vers 1670 et l’on voit que dans l’ensemble ils semblaient fortement suggérer l’exactitude de la conception corpusculaire. Néanmoins, dès cette époque, un savant hollandais d’un esprit très pénétrant, Christian Huyghens, avait affirmé sa préférence pour la théorie ondulatoire et il appuyait son opinion sur de très solides arguments. Grâce à des raisonnements qui sont aujourd’hui encore utilisés pour l’enseignement classique de l’optique et qui conduisent au principe et à la construction d’Huyghens, il parvenait à montrer que la conception des ondes permettait, elle aussi, de retrouver les lois de la réflexion et de la réfraction, d’une façon assurément moins directe que la théorie corpusculaire, mais tout aussi logiquement satisfaisante. Huyghens avait aussi découvert les remarquables phénomènes de double réfraction qui se produisent quand la lumière traverse certaine cristaux tels que le spath d’Islande et il en avait donné une interprétation ondulatoire. Mais cette œuvre admirable d’Huyghens en optique ne fut pas appréciée à sa juste valeur parce qu’elle était venue prématurément. Vers la fin du XVIIe siècle, Isaac Newton, le génial inventeur de la loi de la gravitation, découvrit de nouveaux faits optiques très importants. Tout d’abord il montra par l’expérience que la lumière blanche n’est pas simple et qu’on peut la décomposer à l’aide d’un prisme de verre en une infinité de lumières colorées dont les couleurs vont par gradations insensibles du rouge au violet et constituent ce que l’on nomme le « spectre ». Chaque lumière du spectre est simple et indécomposable. A cette découverte, Newton en ajouta une autre. Il montra que quand la lumière blanche tombe sur une lame tres mince, par exemple une couche d’huile répandue à la surface de l’eau ou une mince couche d’air limitée par deux morceaux de verre, on aperçoit en général des anneaux colorés. C’est là un phénomène capital, appartenant à la catégorie des phénomènes d’interférences dont la véritable explication 6 CHAPITRE 1. LE SECRET DE LA LUMIÈRE ne devait être donnée que plus tard par la théorie ondulatoire. Chose curieuse ! Les phénomènes découverts par Newton étaient des phénomènes où se manifeste nettement l’aspect ondulatoire de la Lumière et dont l’interprétation par l’image des corpuscules est impossible, et cependant Newton paraı̂t lui-même être toujours resté partisan de la théorie corpusculaire. Il chercha, il est vrai, pour essayer d’interpréter l’origine des anneaux colorés qu’il avait découverts, à compléter d’une façon très ingénieuse la conception corpusculaire et, dans cette très intéressante tentative, fut réalisé pour la première fois un effort pour combiner les images d’ondes et de corpuscules. Mais, après la mort de Newton, l’optique fit assez peu de progrès et pendant toute la fin du XVIIIe siècle la plupart des physiciens tendaient à admettre la théorie des corpuscules de Lumière, si bien que dans la lutte entre onde et corpuscules, ceux-ci paraissaient avoir gagné la première manche. Néanmoins, au début du XIXe siècle, toute une série de découvertes expérimentales et de travaux théoriques amenèrent le triomphe de la théorie des ondes. C’est en effet à cette époque que furent mis en doute, puis correctement interprétés grâce surtout aux recherches expérimentales de Thomas Young et à l’œuvre capitale expérimentales et théorique de notre compatriote Augustin Fresnel, les phénomènes d’interférences et de diffraction de la lumière. Ces phénomènes avaient été soupçonné dès le milieu du XVIIe siècle par Grimaldi et nous avons vu que Newton en avait découvert quelques-uns. Dans un moment, je vais expliquer ce qu’est un phénomène d’interférence ; pour l’instant, j’achève l’histoire de cette période de l’histoire de l’optique. Fresnel, après avoir achevé la découverte et l’étude des phénomènes signalés par Young, eut le grand mérite d’en donner une interprétation complète par la théorie des ondes. Il repris et compléta l’œuvre commencée par Huyghens. Huyghens avait montré que les lois de la réflexion et de la réfraction pouvaient s’expliquer par l’hypothèse des ondes, mais il n’avait pas prouvé que cette hypothèse pouvait se concilier avec le fait si simple et si fondamental de la propsgation rectiligne. Fresnel comble cette lacune en montrant que la propagation rectiligne, dans les conditions où on l’observe est aussi une conséquence de la propagation des ondes, puis il donne une interprétation ondulatoire détaillée des apparences observées dans les phénomènes d’interférences et de diffraction, interprétation dont les grandes lignes se retrouvent aujourd’hui sans changement dans tous les traités d’optique. Enfin, Fresnel couronne son œuvre en interprétant l’ensemble des phénomènes où la polarisation intervient par l’hypothèse de la transversalité des ondes lumineuses. Mais mon intention n’est pas d’analyser en détail l’œuvre de Fresnel et je me contenterai de dire que, quand Fresnel mourut prématurément à l’âge de 39 ans, en 1827, non seulement la théorie ondulatoire se trouvait avoir expliqué tous les faits qui, au premier abord paraissaient indiquer une constitution granulaire de la lumière, mais, de plus, elle seule parvenait à ex- 7 pliquer les interférences, la diffraction, la polarisation, la double réfraction, etc . . . Elle sortait donc triomphante de la lutte et peu de temps après la mort de Fresnel, personne ne doutait plus de son exactitude. Après Fresnel et durant tout le cours du siècle dernier, les physiciens ont accompli en Optique un énorme travail que l’on peut résumer en disant : toutes les prévisions de la théorie ondulatoire ont été vérifiées avec une extrême précission et jusque dans les moindres détails. Vers 1900, le fait que la lumière est formée d’ondes paraissait inébranlablement démontré et au-dessus de toute discussion. Une seule chose pouvait encore prèter controverse : la nature physique exacte de ces ondes. Fresnel les avait considérées comme des ondes élastiques transversales se propageant dans un milieu hypothétique, l’éther, qui imprégnerait tous les corps. Le physicien anglais, Maxwell avait ensuite montré que l’on pouvait regarder la vibration lumineuse comme de nature électromagnétique et avait ainsi, dans une remarquable synthèse, réuni les domaines de l’Optique et de l’Electricité. Il restait cependant difficile de préciser exactement ce qui vibre dans une onde luinineuse, mais ceci n’affectait en rien la solidité de la théorie des ondes, car les équations mathématiques conduisaient toujours sans ambiguité à des prévisions que l’expérience vérifiait. La nature ondulatoire de la Lumière paraissait alors si bien établie que la découverte d’ un phénomène en contradiction avec l’image des ondes lumineuses paraissait absolument invraisemblable. Et cependant l’invraisemblable s’est réalisé et la découverte de faits inexplicables par la simple conception ondulatoire a ouvert, il y a une quarantaine d’années, une période nouvelle dans l’histoire des théories de la Lumière. Nous allons avoir à l’étidier, mais auparavant il est nécessaire que je donne quelques explications sur la théorie des ondes et sur l’interprétation qu’elle fournit des phénomènes d’interférences. ∴ Lorsqu’une onde se propage librement dans l’espace, on peut la concevoir comme une suite de vagues dont les crêtes successives sont séparées par une distance constante appelée « longueur d’onde ». L’ensemble des vagues se propage dans la direction de propagation de l’onde, de sorte qu’en un point fixe de l’espace les différentes vagues avec eurs crêtes et leurs creux passent l’une après l’autre régulièrement. Par définition, on appelle « fréquence de l’onde » le nombre des crêtes de l’onde qui passent en un point fixe en une seconde. Nous nous figurons ainsi aisément comment progresse régulièrement une onde dans une région où rien ne vient entraver sa propagation. Mais les choses vont se passer tout différemment si l’onde en progressant vient se heurter à des obstacles. Alors, en effet, l’onde pourra être comme déformée ou repliée sur elle-même, de 8 CHAPITRE 1. LE SECRET DE LA LUMIÈRE sorte qu’au lieu d’avoir affaire a une onde simple du type précédent, on a maintienant affaire à une superposition de telles ondes simples. L’état vibratoire résultant en chaque point dépendra alors de la façon dont les effets des diverses ondes se renforcent ou se contrarient. Si les diverses ondes simples qui se croisent en un point ajoutent leurs effets, la vibration résultante sera très intense. Si, au contraire, ces ondes se contrarient, la vibration résultante sera très faible ou même nulle : dans ce cas, suivant une formule célèbre, de la lumière ajoutée à de la lumière pourra engendrer l’obscurité. Ce sont là les phénomènes d’interférences dont la théorie des ondes est apte à prévoir l’apparition d’une façon détaillée et quantitative dans chaque cas particulier. Si donc on adopte l’idée que la lumière est formée d’ondes, on sera amené à prévoir que, quand des obstacles s’opposeront à la libre progression d’un faisceau de lumière, des phénomènes d’interférences devront apparaı̂tre. Dans la région d’interférences, la répartition de la lumière sera compliquée : on y observera des franges brillantes et des franges obscures. Ces prévisions sont tout à fait caractéristiques de la théorie ondulatoire et rien de semblable ne peut être annoncé par la théorie corpusculaire. Donc, si l’on parvient à mettre en évidence avec de la lumière des phénomènes d’interférences, on sera, semble-t-il, forcé d’admettre que la Lumière est formée d’ondes. C’est précisément ce qui arriva à l’époque où Thomas Young et Augustin Fresnel mirent hors de doute l’existence des interférences. Et maintenant, pour préciser les caractéristiques essentielles de la conception ondulatoire de la Lumière, nous allons analyser un phénomène d’interférences particulier. Nous n’avons que l’embarras du choix, car ces phénomènes sont très nombreux et très variés : nous choisirons un des plus simples, un de ceux précisément qui ont été découverts par Young un peu avant les travaux de Fresnel. Nous considérerons un écran formé d’une matière opaque, mais percé d’un certain nombre d’ouvertures, par exemple circulaires et régulièrement distribuées. (Dans l’expérience classique des trous d’Young, il y avait seulement deux de ces ouvertures). Une source de lumière que nous supposerons ponctuelle envoie une onde lumineuse sur l’une des faces de cet écran. L’onde vient heurter toute la surface de l’écran et elle est arrêtée par toutes les régions non perforées de l’écran. Au contraire, dans les régions perforées de l’écran, l’onde incidente fuse en quelque sorte au travers des ouvertures qui lui sont offertes et pénètre ainsi dans la partie de l’espace postérieure à l’écran. De ce côté de l’écran, chaque ouverture devient le centre d’une petite onde sphérique et la superposition de toutes ces ondelettes donne lieu à un phénomène d’interférence conformément au schéma exposé plus haut. Le calcul de ce phénomène d’interférences peut se faire d’une façon très précise en tenant compte de la distribution des ouvertures sur l’écran et conduit à des résultats entièrement vérifiés par l’expérience. Il nous faut dégager quelques caractères importants de cette expérience telle 9 que nous l’interprétons en utilisant l’image ondulatoire de la lumière. L’onde lumineuse émise par la source se répand uniformément autour de cette source et vient frapper toute la surface antérieure de l’écran ; elle tâte, pourrait-on dire en langage imagé, toute la surface de cet ecran et c’est ce qui lui rend possible de trouver les ouvertures qui lui permettent de s’infiltrer dans la région située au delà. En raison de l’homogénéité de l’écran, toutes les ouvertures jouent un rôle parfaitement symétrique et contribuent toutes symétriquement au phénomène d’interférences qui se produit derrière l’écran. Le calcul tient compte de ce rôle identique de toutes les ouvertures. J’insiste sur ces points car c’est là, nous le verrons, ce qui a rendu si difficile de concilier une structure granulaire de la lumière avec l’existence des phénomènes d’interférences. ∴ Comme nous l’avons dit tout à l’heure, il y a une quarantaine d’années, la théorie qui représente la lumière comme formée d’ondes en propagation semblait l’avoir définitivement emporté sur la conception adverse qui assimile un faisceau de lumière à un flot de corpuscules en mouvement rapide. Et cependant, à l’étonnement général, la découverte et l’étude d’un phénomène en apparence un peu secondaire, l’effet photoélectrique, sont venues montrer les limites de l’hypothèse ondulatoire et ramener l’attention des physiciens vers la conception corpusculaire. Comment se peut-il que la découverte d’un unique phénomène ait pu être, à elle seule, le point de départ d’un tel reflux de la pensée scientifique ? Pour le comprendre, nous devons examiner avec quelque attention une différence essentielle qui existe entre les prévisions possibles des deux théories antagonistes de la Lumière. Si nous adoptons l’hypothèse corpusculaire, nous devons considérer une source de lumière comme envoyant dans toutes les directions un grand nombre de petits projectiles se déplaçant en ligne droite. Un écran placé à une certaine distance de la source recueillera par seconde un certain nombre de ces projectiles et ce nombre mesurera la quantité de lumière reçue par l’écran en une seconde. Or il suffit de se representer par l’imagination cette salve de projectiles partant de la source pour se rendre compte que ces projectiles s’écartent les uns des autres au fur et à mesure de leur progression. Donc, plus nous placerons l’écran loin de la source, plus faible sera le nombre des projectiles recueillis sur l’écran : plus précisément, ce nombre variera en raison inverse du carré de la distance de la source à l’écran. Supposons maintenant que la lumière soit formée d’ondes. Alors nous devons imaginer que la source est un centre d’ébranlement à partir duquel une ondulation se répand dans tout l’espace environnant ; l’onde lumineuse émise aura la forme d’une onde sphérique dont la source sera le centre. Si nous plaçons alors un écran 10 CHAPITRE 1. LE SECRET DE LA LUMIÈRE à une certaine distance de la source nous pourrons recueillir par seconde toute 1’énergie vibratoire que l’onde apportera en une seconde sur la surface de cet écran . On peut montrer aisément que, pour une distance donnée de l’écran à la source, 1’énergie ainsi recueillie par seconde est la même dans la théorie ondulatoire que dans la théorie corpusculaire : ce qui est profondément différent dans l’une ou l’autre hypothèse, c’est la manière dont l’énergie lumineuse est répartie sur l’écran. En effet, si la lumière est granulaire, certains points privilégiés de l’écran auront reçu pendant la durée de l’illumination un corpuscule de lumière, c’est-à-dire une quantité finie et relativement grande d’énergie, tandis que les autres points de l’écran n’auront rien reçu du tout. Si au contraire, la lumière émise par la source forme une onde sphérique, toutes les régions de l’écran reçoivent continuellement de l’énergie lumineuse pendant la durée de l’illumination, se sorte qu’à la fin tous les points de l’écran ont reçu la même quantité de lumière, d’ailleur très faible. La différence que nous venons de signaler entraı̂ne une conséquence d’une extrême importance. Imaginons, en effet, un mécanisme qui ne puisse fonctionner que si on lui appported’un seul coup une quantité d’énergie au moins égale à un certain minimum. Si ce mécanisine est placé très près de la source de lumière, il pourra dans les deux hypothèses être mis en action par la lumière, mais s’il est placé loin de la source, alors dans l’hypothèse des ondes, il ne pourra jamais être mis en action par la lumière qu’il reçoit, car l’onde lumineuse sur le front de laquelle l’énergie est uniformément répartie ne lui apportera jamais assez d’énergie à la fois pour le déclencher. Au contraire, dans l’hypothèse corpusculaire, le mécanisme placé très loin de la source aura évidemment peu de chance à chaque instant d’être atteint par un corpuscule de lumière, mais, soit dès le début de l’illumination, soit au bout d’un temps plus ou moins long, il finira bien tout de même par en recevoir un et, si ce corpuscule transporte une quantité d’énergie égale ou supérieure au minimum nécessaire, le mécanisme fonctionnera. Si donc on parvient à prouver que, même très loin de sa source, la lumière possède la possibilité de produire, parfois même dès le début de l’irradiation, des déclenchements exigeant une certaine quantité d’énergie minimum, on aura obtenu une preuve en apparence irréfutable de la constitution granulaire de la lumière. L’importance fondamentale de l’effet photoélectrique vient précisément du fait qu’il constitue un phénomène à déclenchement du type dont nous venons de parler. La matière contient en son sein un nombre énorme de petites charges électriques pnctuelles qu’on nomme les électrons. A l’état normal, les électrons ne peuvent pas sortir de la matière. Pour leur permettre d’en sortir, il faut leur fournir une quantité d’énergie bien déterminée qui dépend d’ailleur de la nature du corps considéré et de la position occupée par les électrons dans la structure de ce corps. L’expulsion d’un de ces électrons hors de la matière est donc précisément l’un de ces mécanismes à déclenchements dont nous avons parlé, qui exigent pour leur mise 11 en action, l’apport instantané d’une certaine quantité d’énergie. Or l’expérience a prouvé qu’en éclairant un morceau de matière, on peut dès le début de l’irradiation déclencher l’expulsion des électrons hors de la matière à condition toutefois que la fréquence de la lumière utilisée soit suffisamment élevée ; c’est là l’effet photoélectrique. Mais le point essentiel est le suivant : l’effet photoélectrique est indépendant de l’intensité de la lumière et, si l’on place le morceau de matière irradié très loin de la source, il y a toujours des électrons expulsés pourvu que la fréquence soit suffisamment élevée. Plus on sera loin de la source, moins il y aura d’électrons expulsés de la matière par seconde, mais si loin qu’on soit, il y aura toujours quelques-un de temps en temps. Donc la lumière, même quand sont intensité est très faible, reste toujours capable, si sa fréquence est assez élevée, de déclencher le mécanisme photoélectrique. Comme nous l’avons vu plus haut, cela ne peut s’expliquer qu’en admettant une structure granulaire de la Lumière et, puisqu’il faut pour déclencher l’effet photoélectrique que la fréquence ait au moins une certaine valeur minima, on est ammené à penser que chaque corpuscule de lumière transporte une quantité d’énergie d’autant plus grande que sa fréquence est plus élevée. Ces conclusions dérivent en quelque sorte directement de l’expérience mais, en y réfléchissant, les physiciens se sont aperçus qu’elles se rattachent intimement à des fait déjà rencontrés dans d’autres domaines de la Physique. En effet, les physiciens ne se sont pas bornés à étudier la lumière en elle-même : ils ont aussi cherché comment elle est émise et absorbée par la matière et comment il peut s’établir des équilibres d’énergie entre la lumière et la matière. Examinant ces difficiles questions, l’illustre savant Max Planck fut amené vers 1900, pour obtenir des résultats satisfaisant et en accord avec les faits, à énoncer l’hypothèse suivante : « Si nous désignons suivant l’usage par la lettre grecque ν la fréquence d’une certaine lumière, la matière ne peut émettre et absorber cette lumière que par quantités d’énergie finies et égale à hν ou, comme on dit souvent, par « quanta » d’énergie hν ». Dans cet énoncé, la lettre h désigne une constante dont M. Planck a su évaluer la valeur numérique dès le début de ses travaux sur cette question et qu’on nomme aujourd’hui« la constante de Planck ». Tous les développements ultérieurs des théories sur l’émission ou l’absorption de la lumière par la matière ont confirmé la géniale hypothèse de Planck. En 1905, M. Einstein a précisé et interprété cette hypothèse en admettant que toute lumière de fréquence ν est formée de corpuscules d’énergie hν. Les corpuscules ainsi réintroduits dans la théorie de la Lumière ont été d’abord appelés « quanta de lumière » et sont généralement aujourd’hui désignés sous le nom de photons. Ce retour vers une conception corpusculaire de la lumière a permis d’interpréter avec précision les particularités de l’effet photoélectrique. Soit, en effet, une lumière de fréquence ν tombant sur un morceau de matière qui contient des électrons 12 CHAPITRE 1. LE SECRET DE LA LUMIÈRE auxquels il faut fournir au moins une certaine énergie E pour qu’ils puissent sortir de la matière. Si la fréquence de la lumière est assez faible pour que sont quantum hν soit inférieur à E, il n’y aura pas d’effet photoélectrique ; mais, si le quantum hν est supérieur à E, l’un des électrons de la matière pourra absorber l’énergie hν apportée par l’un des corpuscules de la lumière incidente et on le verra sortir de la matière avec l’énergie hν − E. Cette théorie de l’effet photoélectrique a été vérifiée avec une grande précision. L’effet photoélectrique et d’autres phénomènes plus récemment découverts, effet Compton et effet Raman, paraissent bien établir l’existence des corpuscules de lumière, des photons, nous ramenant ainsi, dans une certaine mesure vers les coneptions antérieures à Fresnel. Ainsi l’effet photoélectrique, l’effet Compton et tout un ensemble de raisons progressivement tirées de l’expérience et,de la théorie ont paru militer depuis 1905 en faveur d’une structure granulaire de la Lumière. Mais un retour pur et simple vers les anciennes conceptions granulaires étaient évidemment interdit puisque tout l’ensemble si longuement etudié, si minutieusement vérifié, des phènomènes d’interférence et de diffraction exigeait pour son interprêtation l’emploi de la théorie ondulatoire. Comment parvenir à concilier des théories qui paraissaient inconciliables et à déchiffrer une énigme qui paraissait insoluble ? On y est parvenu cependant mais seulement à l’aide d’idées très nouvelles et très hardies. Pour faire comprendre pourquoi on a dû, bon gré mal gré, adopter ces idées, il faut que je cherche d’abord à montrer en détail combien le problème était difficile à résoudre. ∴ La conception classique des corpuscules consiste à se les representer comme de petits objets se déplaçant dans l’espace en décrivant une trajectoire. Le mouvementdu corpuscule dépend alors uniquement des circonstances qu’il rencontre le long de sa trajectoire. En langage imagé, on peut dire que le corpuscule « explore » l’espace seulement le long de la trajectoire qu’il décrit et ignore ce qui se passe au dehors de cette trajectoire. Si nous appliquons cette conception du corpuscule aux photons constituant la lumière, nous nous heurtons à de très graves difficultés pour l’interprêtation des interférences. Reprenons en effet le phénomène d’interférences que nous avons précédemment étudié ; représentons-nous la lumière émise par une source tombant sur la face antérieure de l’écran percé de trous et cherchons à suivre, par la pensée la trajectoire d’un des photons de cette lumière. Le photon parti en ligne droite de la source arrive sur l’écran : en général, il tombera sur une région pleine de l’écran et ne pourra poursuivre son chemin. Il pourra cependant arriver que le photon parvenant sur l’écran trouve devant lui un des trous qui y 13 sont perforés et puisse continuer son chemin au delà de l’écran. Mais il est presque inimaginable que le photon ayant traversé un des trous percés dans l’écran puisse, en quelque sorte, savoir que d’autres trous sont percés dans cet écran et subir l’infuence de ces autres trous. Aucune tentative théorique permettant d ’expliquer l’action sur ce photon de la présence des trous par lesquels il n’a pas passé n’a pu aboutir à un résultat satisfaisant. De ce fait l’interprétation des interférences qui effectivement se produisent derrière l’écran devient impossible : cette interprétation est essentiellement fondée, nous l’avons déjà dit, sur une participation symétrique de toutes les ouvertures percées dans l’écran au phénomène global d’interférences. Mais ici s’offre en apparence une échappatoire. En effet, les sources de lumière d’intensité usuelle envoient constamment autour d’elles un nombre énorme de photons. On pourra donc admettre que toutes les ouvertures percées dans l’écran sont traversées presque simultanément par des photons. Ne pourrait-on pas imaginer que tous ces photons en pénétrant simultanément dans la région postérieure à l’écran exercent entre eux des actions réciproques provoquant une répartition de ces photons correspondant aux phénomènes d’interférences ? En d’autres termes, ces photons ne pourraient-ils pas, par suite de leurs interactions, se répartir dans l’espace de façon à être nombreux dans les régions où l’on voit des franges brillantes et au contraire peu nombreux (ou même absents) dans les régions où se trouvent des franges obscures ? Une telle explication serait certainement très difficile à préciser d’une façon satisfaisante, mais il est inutile de chercher à le faire car il existe de très importantes expériences qui s’opposent absolument à l’adoption d’un semblable point de vue. Ces expériences sont celles où l’on a obtenu des franges d’interférences avec une source de lumière extrêmement faible. Quand on veut inscrire d’une façon précise et durable les franges qui se produisent dans un phénomène d’interférences, on emploie souvent des films photographiques. L’emploi de la méthode photographique a un avantage important : si la source de lumière employée est peu intense et si par suite les franges brillantes du phénomène d’interferences à étudier sont peu lumineuses, il suffira d’attendre suffisamment longtemps pour que les franges finissent par s’inscrire sur la plaque photographique, la longueur de la pose compensant la faiblesse de la lumière. Mais alors une question se présente à l’esprit : si l’on emploie des sources de lumière de plus en plus faibles et corrélativement des temps de pose de plus en plus long, continuera-t-on indéfiniment à obtenir des franges d’interférences ? La reponse que la théorie donne à cette question dépend du point de vue que l’on adopte. Si l’on admet qu’un seul photon arrivant dans l’appareil peut y produire un phènomène d’interférences, alors on devra obtenir des franges, si faible que soit la lumière utilisée, puisque les photons bien qu’arrivant les uns après les autres à des intervalles de temps assez longs provoqueront des interférences. Si, au contraire, on admet que les phénomènes d’interférences sont dû à l’interaction de 14 CHAPITRE 1. LE SECRET DE LA LUMIÈRE nombreux photons arrivant simultanément sur l’appareil d’interférences (c’est-àdire sur l’écran percé de trous dans notre exemple), alors les interférences devraient disparaı̂tre quand la lumière utilisée devient assez faible pour qu’il ne puisse pas arriver beaucoup de photons à la fois sur l’appareil. L’expérience a répondu d’une façon nette : les franges d’interférences sont obtenues quelque faible que soit la lumière utilisée, même quand il ne peut pas y avoir plus d’un photon à la fois dans l’appareil d’interférences. En nous obligeant à admettre que, même quand les photons arrivent un à un sur l’appareil, les franges finissent par s’inscrire sur la plaque photographique ces expériences capitales nous contraignent à rejeter la théorie qui cherchait à expliquer les interferences par l’interaction de nombreux photons. Et voici alors la crise de 1’Optique portée à son point le plus aigu. D’une part, en effet, il nous faut admettre que lors de l’arrivée d’un seul photon sur notre écran percé de trous, il se produit un phénomène d’interférences où tous les trous jouent un rôle symétrique sans qu’on puisse dire que le photon ait passé par l’un ou par l’autre : tout se passe comme si le photon avait couvert uniformément toute la surface de l’écran, ce qui conduirait à lui donner des dimensions inacceptables. D’autre part, l’effet photoélectrique nous montre le photon apportant toute son énergie dans une très petite région de l’espace et y produisant un effet tout à fait localisé. Comment sortir de cette impasse et concilier le caractère d’être étendu et homogène de l’onde lumineuse, sans laquelle on ne peut expliquer les interférences, avec le caractère ponctuel et localisé des effets, tels que l’effet photoélectrique, où se manifeste le photon ? Pour cela, nous l’avons déjà dit, il a fallu introduire des idées très nouvelles et très hardies. Pour bien montrer que l’introduction de telles idées est inévitable et pour nous guider dans leur choix, nous devons analyser de plus près le phénomène de la production des franges d’interférences en lumière très faible. Nous avons vu que même en lumière extrêmement faible, quand les photons arrivent un à un sur l’appareil d’interférences, on peut obtenir avec un temps de pose suffisamment long l’enregistrement des franges brillantes dues aux interférences et prévues par la théorie ondulatoire de la lumière. Or comment se produit l’action de Ia lumière sur la gélatine de la plaque photographique ? Sur ce point, il n’y a plus aucun doute aujourd’hui : elle se produit par une série d’effets photoélectriques dus à l’action des photons qui arrivent en pluie sur la plaque photographique soumise à l’illumination. L’arrivée de chaque photon se traduira donc par une action localisée dans la gélatine de la plaque photographique, action localisée qui se traduira par un grain noir sur le négatif. Considérons alors une plaque photographique placée dans une région où se produisent des interférences en lumière très faible. La plaque reçoit un par un des photons qui produisent des impressions ponctuelles et quand au bout d’un temps très long on développera la plaque, on verra sur le négatif des plages sombres correspondant aux franges 15 brillantes d’interférences prévues par la théorie ondulatoire : les franges ont donc été tracées point par point par les nombreux photons arrivés sur la plaque au cours de sa longue exposition. Nous sommes ainsi conduits à la conclusion suivante : la théorie ondulatoire prévoit d’une façon exacte la répartition des photons qui sont parvenus dans la région d’interférences, elle prédit exactement les régions où arriveront beaucoup de photons (franges brillantes) et les régions où arriveront peu ou pas de photons (franges obscures). Mais les photons, dans notre expérience à faible intensité, arrivent un par un : à chacun d’eux il faut associer une onde lumineusie qui interfère et dont on peut calculer l’intensité résultante à l’arrière de l’écran dans la région des interférences ; et cependant le photon considéré produira un seul effet ponctuel dans la couche sensible de la plaque photographique. La seule manière de mettre tous ces faits en accord est d’admettre que la répartition des intensités aux divers points de l’espace dans l’onde lumineuse associée à un photon détermine la probabilité pour que le photon se manifeste par une action observable (par exemple un effet photoélectrique) en tel ou tel point de l’espace. On peut exprimer ceci un peu autrement en disant : là où l’onde associée au photon possède une forte intensité résultante, il y a une grande probabilité que le photon manifeste sa présence par un effet observable et là où l’onde associée au photon possède une amplitude résultante faible (ou nulle) , il y a peu (ou pas) de chance que le photon se manifeste par un effet observable. On comprend alors très bien pourquoi au bout d’un temps très long, un grand nombre de photons auront produit des actions photoélectriques sur la plaque photographique là où l’amplitude de leurs ondes associées est très grande (franges brillantes) tandis que peu ou pas de photons auront produit un effet sur la plaque là où l’amplitude de leurs ondes associées est faible ou nulle (franges obscures) . Ainsi en établissant une relation de probabilité entre chaque photon et son onde associée, on parvient à comprendre comment la théorie ondulatoire peut prévoir la forme exacte des franges brillantes ou obscures inscrites à la fin de l’expérience d’interférences sur la plaque photographique, bien que chaque photon ait produit seulement un effet ponctuel et localisé dans la couche sensible de la plaque. Mais il faut bien voir maintenant combien l’idée à laquelle nous parvenons ainsi nous conduit à modifier profondément nos anciennes représentations. Tout d’abord, pendant que le photon sera en train de se propager entre la source de lumière et la plaque photographique avant d’avoir produit aucun effet observable, on ne pourra aucunement lui attribuer une trajectoire et seule la propagation de l’onde lumineuse associée nous permettra de représenter le déplacement du photon. Nous nous apercevons alors que l’idée de corpuscule, telle qu’elle était admise traditionnellement, contient deux aspects différents dont l’un peut être conservé, mais dont l’autre doit être abandonné. Le premier aspect de la notion de corpuscule est celui d’un agent indécomposable susceptible de produire des 16 CHAPITRE 1. LE SECRET DE LA LUMIÈRE effets observables bien localisés où se manifeste la totalité de son énergie (et de sa quantité de mouvement). Cet aspect correspond bien aux actions de la lumière sur la matière quand on les analyse d’une manière suffisamment fine, car ils se ramènent alors tous à l’effet photoélectrique et aux effets analogues. Le deuxième aspect de la notion de corpuscule est celui d’un petit objet ayant à chaque instant dans l’espace une position et une vitesse bien déterminées et décrivant par suite une trajectoire linéaire : c’est ce second aspect de l’idée de corpuscule qu’il nous est nécessaire de laisser tomber. Nous pouvons considérer le photon comme un corpulscule en ce sens qu’il est susceptible de produire des actions localisées où se manifeste la totalité de son énergie et de sa quantité de mouvement, mais en dehors de ces actions nous n’avons aucunement le droit d’une façon générale de le considérer comme un petit objet décrivant une trajectoire dans l’espace. La question de savoir, dans l’expérience de l’écran percé de trous, par quel trou a passé le photon n’a aucun sens parce que le photon ne se manifeste par aucune action qui serait exercée lors de son passage à travers l’écran et n’exerce finalement une action que sur le dispositif (plaque photographique) qui enregistre les franges. On pourrait évidemment chercher à mettre en évidence le passage du photon par l’un des trous, mais alors il faudrait monter Un dispositif sur lequel agirait le photon lors de son passage par le trou en question ; or, si le photon agissait sur ce dispositif, il deviendrait incapable de participer au phénomène d’interférences. On ne peut donc obtenir le phénomène d’interférences que quand il est impossible de dire par quel trou le photon a passé. Ceci permet d’entrevoir comment l’existence d’un effet localisé du photon dans une frange brillante est conciliable avec le rôle tout à fait symétrique joué par les trous percés dans l’écran pour la production du phénomène global d’interférences. Nous pouvons encore présenter ces idées délicates sous une autre forme. Pendant la propagation du photon, son mouvement est représenté par l’onde qui lui est associée, sans qu’il soit possible de lui attribuer une position déterminée à l’intérieur de cette onde. Il y a en quelque sorte une « présence potentielle » du corpuscule en tous les points de la région, de l’espace occupée par l’onde, le corpuscule pouvant manifester sa présence par une action localisée en un point de cette région avec une probabilité proportionnelle à l’intensité de l’onde en ce point. Quand l’action localisée du photon se produit, la présence potentielle du photon dans l’onde disparaı̂t et l’onde s’évanouit. On peut dire que quand le photon manifeste son aspect corpusculaire en se localisant, son aspect ondulatoire disparaı̂t, tandis qu’au contraire, quand son aspect ondulatoire s’affirme, toute localisation traduisant sa nature corpusculaire est impossible. C’est là un des aspects du fameux principe d’incertitude de M. Heisenberg. Avec ces conceptions nouvelles appliquées à notre écran percé de trous, on voit que l’onde lumineuse explore toute la surface antérieure de l’écran et, passant par 17 toutes les ouvertures qui y sont pratiquées et qui jouent toutes un rôle symétrique, produit à l’arrière de l’écran des interférences ; mais le photon associé à l’onde ne se localise qu’au moment où se produit un phénomène observable (une impression photographique élémentaire par exemple) et cette localisation peut se produire en n’importe quel point du champ d’interférences avec une probabilité proportionnelle à l’intensité de l’onde en ce point. Alors on ne peut calculer d’une façon exacte que la propagation de l’onde et ses interférences et ce calcul ne fournira que des probabilités pour les manifestations observables du photon. Nous sommes donc ainsi ammenés à abandonner l’idée traditionnelle d’un déterminisme rigoureux des phénomènes physiques observables pour lui substituer l’idée beaucoup plus souple d’un simple lien de probabilité entre ces phénomènes. On voit maintenant comment en cherchant à résoudre l’énigme que leur posait 1a double nature ondulatoire et corpusculaire de Lumière, les physiciens ont été amenés, par des raisonnements auxquels il semble qu’on ne puisse guère échapper, non seulement à modifier profondément les conceptions usuelles de la Physique théorique, mais même à adopter des points de vue nouveaux dont l’importance philosophique est très grande. Je dois encore insister sur un point. Nous avons vu, au début de cet exposé, que les phénomènes de l’optique géométrique, propagation rectiligne, réflexion, rêfraction, phénomènes qui peuvent tous s’exprimer à l’aide de la notion de « rayon de lumière », s’interprètent immédiatement par l’hypothèse corpusculaire classique. Pour pouvoir comprendre la valeur que possèdent dans ce domaine de l’optique géométrique les conceptions granulaires anciennes, il faut montrer que dans les limites de ce domaine les nouvelles conceptions vont rejoindre les conceptions corpusculaires classiques. Il en est bien ainsi et pour le comprendre, il nous faut dire quelques mots due la façon dont la théorie des ondes expliquait depuis Fresnel la validité de la notion de rayons lumineux dans le domaine de l’optique géométrique. On peut en effet démontrer en théorie des ondes qu’une onde lumineuse est susceptible de se propager en restant contenue à l’intérieur d’un tube très fin, à condition cependant que le diamètre de ce tube soit très grand par rapport à la longueur d’onde. Comme les longueurs d’ondes des ondes lumineuses sont très petites, de l’ordre du dix-millième de millimètre, les ondes lumineuses pourront se propager à 1’intérieur de petits tubes dont le diamètre sera négligeable à notre échelle (mettons par exemple die l’ordre de 1/10 ou 1/100 de millimètre), mais sera cependant très grand par rapport à la longueur d’onde. Ceci permet à la théorie des ondes de considérer la notion de « rayon lumineux » comme étant approximativement valable, bien que n’étant pas rigoureusement valable puisqu’elle disparaı̂t à l’échelle de la longueur d’onde. Le domaine de l’optique géométrique est constitué au point de vue ondulatoire par l’ensemble des phénomènes pour la description desquels cette approximation est suffisante. Mais ce domaine a des limites. Si l’on cherche à étrangler un rayon de lumière de façon à lui donner des dimensions transversales 18 CHAPITRE 1. LE SECRET DE LA LUMIÈRE comparables à la longueur d’onde, il apparaı̂t des phénomènes de diffraction et la notion de rayon lumineux perd toute valeur. De même si l’on superpose des rayons lumineux, par exemple à l’aide de réflexions appropriées, on verra paraı̂tre des phénomènes d’interférences dont la description à l’aide de l’optique géométrique dans le langage des rayons de lumière sera totallement impossible. On aura dans ces cas-là dépassé les limites de l’approximation constituée par l’optique géométrique, on sera entré dans le domaine propre de l’optique ondulatoire. Ceci rappelé, il est aisé de comprendre comment la nouvelle conception de la lumière va permettre d’interpréter la validité de la notion de rayon en optique géométrique et 1’aspect corpusculaire des phénomènes dans cette branche de l’optique. Nous savons qu’une onde lumineuse est susceptible, à l’approximation de l’optique géométrique, de se propager à l’intérieur d’un tube très délié qui à notre échelle nous apparaı̂t comme filiforme et constitue pour nous un rayon de lumière. Avec nos conceptions nouvelles, le photon ne peut pas à chaque instant être localisé en un point précis de ce tube ; nous savons seulement que, s’il nous manifeste sa présence par un phénomène observable, ce sera forcément à l’intérieur du tube. Comme le tube nous apparaı̂t à notre échelle comme une simple ligne de l’espace, nous savons que le photon ne pourra se manifester à nous qu’en un point de cette ligne : pratiquement, nous pourrons donc admettre que le photon est un corpuscule conçu à la manière ancienne qui décrit une ligne de l’espace : par suite, pratiquement, le rayon de lumière sera pour nous la trajectoire au sens classique du corpuscule « photon » et ainsi nous retrouverons toute l’interprétation corpusculaire ancienne des phénomènes de l’optique géométrique. Mais dès que nous sortirons du domaine de l’Optique géométrique, dès que nous considérerons des phénomènes d’interférences ou de diffraction, la notion du rayon lumineux deviendra sans valeur : alors nous nous apercevrons que nous ne pouvons plus à chaque instant localiser le photon en un point de l’espace bien que ses manifestations observables soient localisées. Nous en reviendrons ainsi aux idées nouvelles que nous avons précédemment étudiées, mais nous verrons bien maintenant comment ces idées nouvelles sont compatibles avec l’aspect corpusculaire des phénomènes de l’optique géométrique. Il me reste encore à faire voir à quel point les physiciens, en soulevant un coin du voile qui leur dérobait le secret de la Lumière, ont accompli un progrès encore bien plus considérable qu’on ne pourrait le croire au premier abord, car ce progrès a dépassé et de beaucoup les limites de l’Optique. Depuis une cinquantaine d’années, en effet, nous savons que la matière est formée de corpuscules élémentaires, électrons, protons, etc. , et cette découverte a porté tout d’abord les physiciens à chercher une explication des phénomènes matériels en les ramenant à des mouvements de telles particules élémentaires, mouvements qui devaient, pensait-on, s’accomplir suivant les lois classiques de la Mécanique. Mais on ne tarda pas à 19 s’apercevoir que pour rendre compte des propriétés de la matière à une échelle très fine, pour obtenir par exemple une théorie des phénomènes dont les atomes de la matière sont le siège, il est nécessaire d’introduire le quantum h de Planck dans la mécanique des particules élémentaires : on s’aperçut ainsi que les particules éléméntaires secomportent à l’échelle des atomes d’une façon qui n’est pas du tout conforme à l’image classique des particules. La manière dont avait évolué la théorie de la Lumière a alors suggéré une modification fondamentale de notre image des particules matérielles telles que les électrons. Le déplacement de ces particules, tout comme celui des photons, devrait être associé à une onde en propagation : tout comme les photons, les particules matérielles ne se manifesteraient que de temps à autre par des effets localisés et dans l’intervalle, leur déplacement serait représenté par la propagation de leur onde associée sans qu’on puisse leur attribuer à chaque instant une localisation dans l’espace. L’intensité de l’onde associée à une particule matérielle représenterait en chaque point la probabilité pour que la particule se manifeste par une action observable localisée en ce point. Quand la propagation de l’onde associée s’opère dans des conditions où l’approximation de l’optique géométriquie est valable, il devient pratiquement exact de considérer la particule matérielle suivant l’image ancienne comme un point matériel dêcrivant une trajectoire et cette circonstance permet d’interpréter les expériences où s’affirme l’aspect corpusculaire des particules matérielles, comme par exemple celles où l’on voit un pinceau d’électrons se courber en suivant les lois classiques due de la Mécanique sous l’action d’un champ électrique ou d’un champ magnétique. Mais dans les phénomènes où la propagation de l’onde associée à la particule ne peut plus être décrite par l’approximation de l’optique géométrique, quand cette onde par exemple subit de la dif’raction ou donne lieu à des interférences, alors la particule matérielle ne peut plus être considérée comme un point matériel écrivant une trajectoire et la probabilité pour qu’elle produise en un point un effet localisé s’obtient en calculant l’intensité de son onde associée en ce point, tout comme cela a lieu pour le photon. Pour les particules matérielles comme pour le photon, il n’y a plus de déterminisme rigoureux. On arrive ainsi à une belle théorie synthétique connue sous le nom de Mécanique ondulatoire. Elle seule permet d’interpréter correctement le comportement des particules matérielles dans les édifices atomiques : c’est sur elle que repose aujourd’hui tout l’ensemble de notre représentation théorique des phénomènes dont l’atome est le siège. De plus, cette conception nouvelle des particules matérielles a reçu la confirmation directe de l’expérience depuis qu’on est parvenu (pour la première fois en 1927) à obtenir avec ces particules des phénomènes entièrement analogues aux phénomènes de diffraction de la lumière ; je veux parler ici de la diffraction des électron :s par les cristaux. Ainsi il est aujourd’hui certain que pour les particules matérielles comme pour les photons, on doit combiner les images d’onde et de corpuscule, et cela précisément de la manière 20 CHAPITRE 1. LE SECRET DE LA LUMIÈRE qui a été imposée par l’ensemble du développement de nos connaissances sur la Lumière. Pour représenter l’ensemble des propriétés de la Lumière dans le cadre général de la Mécanique ondulatoire, il est d’ailleurs nécessaire de développer une mécanique ondulatoire des photons d’une manière qui rende compte non seullement des phénomènes d’optique géométrique, d’interférences et de diffraction, mais aussi des phénomènes de polarisation déjà interprétés par Fresnel et du caractère électromagnétique des ondes lumineuses découvert par Maxwell. Cette œuvre difficile peut être considérée comme réalisée du moins dans ses grandes lignes, et l’ensemble des propriétés des photons et des particules matérielles a trouvé aujourd’hui une représentation satisfaisante dans le cadre général de la Mécanique ondulatoire. En résumé, les théories de la Physique atomique contemporaine reposent essentiellement sur les conceptions nouvelles relatives aux corpuscules et à leurs ondes associées que j’ai exposées tout à l’heure sur l’exemple particulier de Ia Lumière et du photon. Ces conceptions nouvelles ont été peu à peu imposées par la découverte du double caractère de la Lumière ; transposées ensuite pour les particules matérielles, les mêmes conceptions ont entièrement transformé l’idée que nous faisions de ces particules et, en introduisant dans la théorie de la matière la dualité onde-corpuscule telle qu’elle s’était révélée pour la Lumière, elles nous ont enfin permis de construire des théories exactes des phénomènes atomiques. L’on voit alors pourquoi je disais, au début de cet exposé, qu’en leur dévoilant partiellement son secret, la Lumière avait rendu aux physiciens un immense service. Chapitre 2 Les propriétés ondulatoires de l’électron Lorsque la notion d’Électron a pénétré dans la Physique, elle s’est présentée tout d’abord sous une forme strictement corpusculaire. L’Électron était conçu commue un petit grain d’électricité négative doué d’inertie : c’était un point matériel, au sens de la Mécanique rationnelle, portant une charge électrique. Soumis à l’action de champs électriques ou de champs magnétiques, ce grain d’électricité décrivait des trajectoires que les lois de la Dynamique permettaient de prévoir et que l’observation mettait en évidence. Tout un ensemble de mémorables travaux expérimentaux auxquels restent attachés les noms de J.-J. Thomson, Lénard, Villard, Jean Perrin. . . ont établi sur des bases solides notre croyance à l’existence et aux propriétés corpusculaires de l’électron. Tâchons d’abord de bien préciser les conclusions auxquelles une première et longue série d’études avait ainsi amené au sujet de l’Electron. D’abord tous les électrons sont semblables entre eux ; ils se manifestent toujours avec les mêmes propriétés, avec la même charge et la même masse dont les valeurs extraordinairement petites ont été connues peu à peu avec une précision très grande. Ensuite l’électron se manifeste toujours d’une façon discontinue et totale, ce qui est un premier aspect de sa nature corpusculaire ; ainsi, avec un compteur à pointes ou d’autres dispositifs, on peut mettre en évidence les arrivées successives des divers électrons quand on envoie un faisceau d’électrons sur le dispositif, de telle sorte qu’on assiste, pourrait-on dire, à la série discrète de ces arrivées. De même, dans la célèbre expérience de la goutte électrisée en équilibre qui a permis à M. Millikan la mesure prêcise de la charge électronique, on constate les variations discontinues de la charge de la goutte quand elle capte ou quand elle perd un électron et ceci encore met clairement en évidence le caractère granulaire de l’électron. Un deuxième aspect de la nature corpusculaire de l’électron était le caractère local des circonstances qui agissent sur son mouvement. Ceci demande un peu d’ex21 22 CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON plication. Considérons un électron se déplaçant dans un champ électromagnétique : avec la conception corpusculaire de l’électron, nous devons penser que l’électron, en progressant dans le champ, rencontre en chaque point un certain état du champ électromagnétique qui détermine la suite de son mouvement, tout comme cela a lieu dans la théorie classique du mouvement d’un point matériel dans un champ en Mécanique rationnelle. Or c’est bien ce qui se passe dans des expériences comme celles que fit naguère M. Villard sur le mouvement des corpuscules cathodiques ou dans les expériences très nombreuses et très variées qui ont permis, depuis, de suivre le mouvement des électrons, par exemple dans cet admirable instrument qu’est la chambre à détente de Wilson. On comprend alors pourquoi j’ai parlé du caractère local des circonstances qui agissent sur le mouvement de l’électron. Ce doit être uniquement les champs de force (ou éventuellement les obstacles, qu’on peut du reste représenter par des champs de force) existant dans une « petite région » de l’espace, celle où se trouve l’électron à l’instant considéré, qui peuvent agir sur le mouvement du grain d’électricité. Evidemment, bien que la structure de l’électron n’ait jamais pu être précisée d’une façon satisfaisante, on imagine facilement que l’électron puisse avoir une certaine extension, qu’il ne se réduise pas à un point géométrique ; on imagine donc bien que la « petite région » dont je viens de parler puisse avoir des dimensions non nulles. Mais les dimensions de l’électron, s’il en a, sont en tous cas extrêmement petites : on admet qu’elles sont de l’ordre de 10−13 cm et, de toutes façons, elles doivent être énormément plus petites que les dimensions des atomes, c’est-à-dire que l’unité Angström (10−8 cm). Ce sont donc les champs ou les obstacles présents à l’intérieur d’une région ayant, mettons, des dimensions de l’ordre de 10−12 cm qui peuvent agir sur l’électron présent dans cette région : d’où le caractère extrêmement local des circonstances qui déterminent le mouvement si l’on admet l’image corpusculaire classique de l’électron. Telles sont les raisons qui paraissaient établir, il y a une vingtaine d’années, la nature strictement corpusculaire de l’électron sur des bases inébranlables. Mais, dans la période qui suivit (1923-1928) , les efforts conjugués de la théorie et de l’expérience ont profondément modifié nos idées sur l’électron en nous montrant que, si sa nature corpusculaire et discontinue reste assurée et fondamentale, certaines de ses propriétés ne peuvent être décrites qu’en introduisant des images ondulatoires. En particulier, il existe des phénomènes électroniques à aspect ondulatoire pour lesquels il ne peut plus être question d’une détermination par des causes uniquement locales du mouvement des électrons. Ceci apporte d’importantes limitations à notre conception granulaire, un peu simpliste, de l’électron et nous oblige, pour interpréter l’ensemble de ses propriétés, à introduire côte à côte l’image corpusculaire et l’image ondulatoire. Cherchons à dégager en quoi l’image des ondes s’oppose à l’image du grain. Une première différence tient au caractère périodique de l’onde : tandis que la no- 23 tion de grain ne comporte en elle-même aucune idée de rythme ou de vibration, l’onde est essentiellement formée par une vibration rythmée qui se propage, ou plus généralement par une superposition de vibrations rythmées qui se propagent. De plus, le grain est une singularité ponctuelle ou quasi-ponctuelle étroitement localisé dont le déplacement au cours du temps n’intéresse qu’une ligne (ou qu’un tube extrêmement délié) de l’espace, tandis qu’au contraire l’onde intéresse en général une région étendue de l’espace à chaque instant et l’ensemble de sa propagation est déterminée par les circonstances ou les accidents qu’elle rencontre sur toute l’étendue qu’elle explore. Les exemples en sont bien connus en optique et dans les autres branches de la théorie des ondes : ainsi la répartition des intensités lumineuses dans un champ d’interférences dépend de la forme des écrans placés sur le trajet de l’onde, des ouvertures qui y sont découpées ou encore des parois réfléchissantes qui la forcent à refluer ; ainsi en Acoustique, les sons renforcés par un résonateur dépendent de la forme des parois de ce résonateur, de tous les détails de sa topologie. Mathématiquement, tandis que le mouvement d’un « grain » dépend, d’après la Mécanique classique, d’équations différentielles donnant la variation en fonction du temps des coordonnées du grain, la propagation d’une onde dépend d’une équation aux dérivêes partielles (ou d’un système de telles équations) dont les solutions doivent être choisies de façon à satisfaire certaines conditions topologiques dans une région étendue de l’espace. L’onde est essentiellement définie par une ou plusieurs grandeurs formant un « champ » c’est-à-dire ayant des valeurs déterminées dans tout un domaine en chaque point et à chaque instant. Puisque les conceptions de grain et d’onde paraissent au premier abord si opposées, comment a-t-on pu être amené à chercher la manière de les rapprocher, pour obtenir une prévision complète des propriétés de l’électron ? Pour bien le comprendre, il faut se rapporter à l’évolution de la théorie de la Lumière depuis une quarantaine d’années. Depuis Fresnel, l’interprétation théorique des phénomènes lumineux était l’exemple typique d’une interprétation ondulatoire. On sait avec quelle admirable précision, elle permettait de présvoir les apparences observables. Néanmoins, après les travaux de M. Planck sur le rayonnement noir où pour la première fois la notion de quanta faisait son apparition en Physique, l’interprétation des lois de l’effet photoélectrique par l’hypothèse des « quanta de lumière » (1905) a montré la nécessité de revenir vers des conceptions plus anciennes, en admettant l’existence d’un certain aspect granulaire de la lumière. La réalité des « grains de lumière » ou « photons » a été ensuite confirmée directement par la découverte des effets Compton et Raman et indirectement par les développements théoriques dont la théorie de l’atome de M. Bohr a été le point de départ. Cette réalité des grains de lumière consiste essentiellement en ce que l’énergie lumineuse est toujours cédée ou empruntée à la matière d’une manière discontinue mettant en jeu la totalité d’un quantum d’énergie lumineuse. Pour chaque grain de lumière, 24 CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON le quantum d’énergie lumineuse qu’il transporte est proportionnel à la fréquence ν de la lumière considérée et égal à hν, h étant la célèbre constante d’action de Planck. La dynamique relativiste permet d’ailleurs d’ajouter que la quantité de hν (c étant la vitesse de mouvement du grain de lumière de fréquence ν doit être c la Lumière dans le vide) et cette conclusion est bien vérifiée par l’étude des lois de l’effet Compton. L’existence des photons se traduit donc par le caractère total et discontinu des phénomènes où ils se manifestent. Dans les phénomènes de l’optique géométrique, on peut aussi considérer un rayon de lumière comme la trajectoire d’un photon et parler du caractère « local » des circonstances qui déterminent la forme du rayon de lumière. Ainsi la forme courbée des rayons de lumière dans un milieu réfringent à indice variable est analogue à la forme courbe de la trajectoire d’un électron dans un champ électromagnétique. Mais dès que l’on considière les phénomènes d’interférences et de diffraction, il ne peut plus être question de trajectoires, ni de circonstances locales déterminant le mouvement en chaque point : les phénomènes sont déterminés par l’ensemble des conditions qui règnent dans tout le champ d’interférences et la notion d’ondes étendues explorant tout un domaine devient nécessaire pour l’interprétation des faits observables. La découverte de l’existence des grains de lumière a mis en évidence la nécessité de concilier la notion de « grain » ou de « corpuscule » avec celle d’ondes périodiques occupant un champ étendu. Elle a fait soupçonner peu à peu que la propriété essentielle d’un corpuscule physique est le caractère discontinu et total de ses manifestations dans les phénomènes observables et non pas la possibilité de le localiser dans l’espace et de lui attribuer au cours du temps une trajectoire déterminée par une succession de circonstances locales. Dès ses premiers travaux sur les « quanta » de lumière M. Einstein a vu que la conciliation des notions d’onde et de corpuscule en Optique exigeait l’intervention d’une sorte d’interprétation probabiliste des ondes. La nature granulaire de la lumière se manifeste au moment où un grain de lumière produit localement une action sur la matière : pour pouvoir conserver, ce qui est indispensable, la théorie ondulatoire de la lumière pour l’explication des phénomènes d’interférences et de diffraction, il faut admettre que l’intensité de l’onde lumineuse donne la probabilité des manifestations discontinues et granulaires de l’énergie radiante. Cette idée, précisée et généralisée, forme aujourd’hui la base de toute l’interprétation physique de la Mécanique ondulatoire. Revenons aux électrons. La nécessité de faire cohabiter dans le cadre de la théorie de la Lumière les concepts d’ondes et de corpuscules convenablement interprétés devait amener à se poser la question suivante : « Pour les électrons comme pour la lumière, n’existe-t-il pas, à côté de l’aspect granulaire déjà bien connu, un aspect ondulatoire se traduisant par l’existence pour les électrons de phénomènes analogues à ceux de l’optique ondulatoire ? » Il était très hardi de se poser, il y 25 a une quinzaine d’années, une telle question, car rien alors ne semblait justifier l’idée que l’électron eût un aspect ondulatoire. Cependant, en réfléchissant aux conceptions nouvelles introduites par la thêorie des quanta, on pouvait apercevoir quelques indications en faveur de cette idée. M. Planck dans sa théorie du rayonnement noir avait admis le caractère quantifié des mouvements des oscillateurs électroniques contenus dans la matière : M. Bohr, dans sa théorie de l’atome, avait montré que le mouvement des électrons dans l’atome est également quantifié. Peu à peu, s’était imposée cette idée que le mouvement des électrons à petite échelle était toujours soumis à des lois de quanta. Or cette quantification des mouvements électroniques fait intervenir des conditions « globales » portant sur tout l’ensemble du mouvement stationnaire de l’électron : ceci paraissait déjà indiquer que le mouvement de l’électron ne peut être prévu exactement sans faire intervenir une sorte de « champ », probablement ondulatoire, lié au mouvement de cet électron et explorant tout le domaine atomique. Je dois rappeler ici que M. Marcel Brillouin avait, dans un curieux mémoire publié avant l’éclosion de la Mécanique ondulatoire, envisagé une conception de ce genre. D’autre part, les conditions de quanta introduites par MM. Planck, Bohr et Sommerfeld contiennent des nombres entiers, circonstance qui ne s’était jamais présentée dans la dynamique du point matériel, mais qui au contraire est tout à fait habituelle dans les problèmes où interviennent les ondes (interférences, résonance, etc.). Enfin l’esprit une fois lancé dans cette direction, il était difficile de ne pas être frappé par l’analogie si étendue qui existe entre les théories les plus générales de la Mécanique analytique et celle de la propagation des ondes, et en particulier entre le principe de Fermat et celui de moindre action. L’idée se présentait alors que la représentation du mouvement des corpuscules par la Mécanique classique, avec son image de description progressive d’une trajectoire sousl’influence de circonstances locales, doit être une approximation correspondant à celle de l’optique géométrique en théorie de la Lumière où l’on décrit la progression de la lumière comme s’effectuant le long de rayons lumineux qui s’incurvent suivant les conditions locales de la propagation. Alors, de même que l’Optique géométrique apparaı̂t seulement dans l’ensemble de l’Optique ondulatoire comme une approximation à domaine d’application limité et cesse d’être valable dès qu’apparaissent les phénomènes spécifiquement ondulatoires d’interférences et de diffraction, de même, la Mécanique classique des corpuscules avec sa notion de corpuscule constamment localisé en un point d’une trajectoire doit aussi être une approximation à domaine d’application limité et doit cesser d’être valable dans des cas que les anciennes théories ne pouvaient prévoir, où apparaı̂traient des phénomènes analogues aux interférences et à la diffraction de la lumière. Dans de tels cas, l’existence des corpuscules matériels, comme celle des photons, ne se traduirait plus que par le caractère discontinu et ponctuel de leurs manifestations, et non par une constante 26 CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON localisation le long d’une trajectoire déterminée par des circonstances locales. La répartition dans l’espace des manifestations possibles d’un corpuscule matériel doit alors être régie par la propagation d’une certaine onde associée au corpuscule, tout comme la répartition dans l’espace des manifestations possibles d’un photon est régie par la propagation de l’onde lumineuse associée au photon. Ce sont là en somme, exposées sous une forme qualitative, les idées fondamentales qui servent de base à la Mécanique ondulatoire. Je ne puis exposer ici la façon dont s’est développée sous une forme mathématique de plus en plus précise cette nouvelle Mécanique ondulatoire. Qu’il me suffise de rappeler qu’au mouvement rectiligne et uniforme d’un corpuscule dont l’énergie est E et la quantité de mouvement p~, elle a été conduite à associer la propagation d’une onde plane monochromatique de fréquence : ν= et de longueur d’onde E h h p De plus, elle admet que, si l’onde associée à un corpuscule donne lieu à des phénomènes d’interférences ou de diffraction, l’intensité de cette onde en chaque point du champ d’interférences donne la probabilité pour que le corpuscule manifeste sa présence en ce point. Cette correspondance statistique entre l’aspect onde et l’aspect corpuscule, qui était déjà nécessaire en théorie de la Lumière, s’est également imposée dans la théorie ondulatoire de l’électron. Une première preuve de l’exactitude de la Mécanique ondulatoire de l’électron, c’est-à-dire de la conception qui attribue à l’électron un aspect ondulatoire, est le fait qu’elle fournit immédiatement une interprétation des « conditions de quanta » qui se présentent dans la théorie des mouvements électroniques de l’échelle atomique. Elle montre que les mouvements stationnaires quantifiés des électrons, mis en évidence par les travaux de MM. Planck, Bohr, Sommerfeld et leurs continuateurs, sont ceux dont l’onde associée a le caractère d’une onde stationnaire. Le caractère « stationnaire » d’une onde est toujours, en théorie des ondes, déterminé par l’ensemble des conditions qui règnent dans toute la région occupée par l’onde stationnaire : ceci nous explique immédiatement le caractère global et non local des conditions qui déterminent les mouvements quantifiés. De plus, l’intervention des nombres entiers dans les formules qui expriment les conditions de quanta apparaı̂t alors comme tout aussi naturelle que l’apparition de nombres entiers dans les formules permettant de prévoir les phénomènes d’interférences ou de résonance, en Optique ou en Acoustique par exemple. Le calcul des états stationnaires des êlectrons dans les systèmes atomiques effectués par les méthodes de la Mécanique ondulatoire a conduit à des résultats si importants pour la Microphysique et si λ= 27 bien vérifiés par l’expérience que l’on peut considérer les idées fondamentales de la conception ondulatoire de l’électron comme ayant ainsi reçu une confirmation complète. Néanmoins, cette confirmation, si probante soit-elle, n’est qu’indirecte ; mais il existe une preuve directe de l’aspect ondulatoire des électrons : c’est le phénomène de la diffraction des électrons par les cristaux. Si l’on admet que le mouvement des électrons est liê à la propagation d’une onde, on doit se demander s’ils ne peuvent pas donner lieu à des phénomènes d’interférences ou de diffraction observables, analogues à ceux de l’optique ondulatoire. Or les formules de la Mécanique ondulatoire montrent que la longueur de l’onde associée aux électrons dans les conditions usuelles est toujours très petite, toujours de l’ordre de celle des rayons X. Ce qu’on peut donc espérer d’obtenir avec des électrons, ce sont des phénomènes analogues à ceux que l’on obtient avec des rayons X. Mais on sait que le phénomène ondulatoire fondamental de la Physique des rayons X est le phénomène de leur diffraction par les cristaux. L’extrême petitesse de la longueur d’onde des rayons X rend presque impossible d’employer des dispositifs fabriqués de main d’homme pour obtenir leur diffraction. Fort heureusement, la nature nous offre des réseaux à trois dimensions qui sont adaptés à cette diffraction : ce sont les milieux cristallisés. Dans ces milieux, en effet, les atomes ou les molécules sont régulièrement distribués suivant un réseau à trois dimensions et il se trouve que les distances mutuelles des centres matériels dans ce réseau sont de l’ordre de grandeur des longueurs d’onde X. En envoyant un faisceau de rayons X sur un cristal, on doit donc obtenir un phénomène de diffraction analogue à celui qu’on pourrait obtenir avec la lumière en employant un réseau ponctuel à trois dimensions. On sait que ce phénomène de la diffraction des rayons X par les cristaux a été effectivement découvert en 1912 par MM. von Laue, Friedrich et Knipping et qu’il sert de base à tout le développement aujourd’Ihui considérable de la spectroscopie des rayons X. D’après tout ce que nous venons de dire, on doit s’attendre à pouvoir obtenir un phénomène tout à fait analogue avec des électrons. En envoyant sur un cristal un faisceau d’électrons, ayant tous une même énergie cinétique connue (ce qu’on obtiendra aisément en employant des électrons qui ont tous subi la même chute de potentiel connue), on doit pouvoir observer un phénomène de diffraction analogue au phénomène de Laue. La structure des différents cristaux qu’on peut employer pour une expérience de ce genre étant aujourd’hui bien connue, notamment par l’étude des spectres Röntgen, on pourra déduire des figures de diffraction obtenues la longueur d’onde de l’onde associée aux électrons que l’on a employés et on pourra ainsi vérifier l’exactituide de la relation proposée par la mécanique ondulatoire pour relier la longueur d’onde de l’onde associée à l’énergie de l’électron. C’est à MM. Davisson et Germer travaillant au laboratoire Bell à New-York 28 CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON qu’est revenu l’honneur d’avoir en 1927 decouvert l’existence de la diffraction des électrons par les cristaux. En bombardant un cristal de nickel à l’aide d’un faisceau d’électrons monocinétiques, ils mirent nettement en évidence que ces électrons se répartissaient suivant les figures de diffraction correspondant à une onde de longueur d’onde déterminée et ils montrèrent que cette longueur d’onde est bien celle que prévoient les formules de la Mécanique ondulatoire. Ainsi se trouva établie l’existence de ce beau phénomène dont la simple annonce aurait, quelques années auparavant, provoqué l’incrédulité des physiciens : ainsi a été apportée une magnifique confirmation directe de l’existence d’un double aspect corpusculaire et ondulatoire de l’électron et de l’exactitude des formules quantitatives proposées par la Mécanique ondulatoire pour exprimer le lien entre les deux faces de ce double aspect. Depuis la découverte de Davisson et Germer, le phénomène de la diffraction des électrons a été étudié de bien des façons et toutes les difficultés qui pouvaient exister dans l’interprétation des apparences observées ont été l’une après l’autre écartées. Aujourd’hui, la diffraction des électron est un phénomène très facile à obtenir et qui commence même à avoir des applications d’ordre presque technique pour l’étude de la structure des couches superficielles de certains corps. Mais je ne veux pas entrer ici dans des questions de détail et, restant au point de vue général que j’ai adopté, je vais, en terminant, chercher à montrer comment l’aspect ondulatoire et l’aspect corpusculaire de l’électron se manifestent dans le phénomène de la diffraction par les cristaux. Si nous représentons à l’aide de l’image granulaire classique un électron suivant d’abord une trajectoire rectiligne et venant frapper en un point bien déterminé la surface d’un cristal, cet électron rebondira sur le cristal d’une manière qui sera déterminée par les conditions locales existant dans le cristal au point d’impact et il sera totalement impossible de prévoir ainsi l’existence d’un phénomène de diffraction. Pour rendre compte de la diffraction réellement observée, il est nécessaire de conserver seulement de l’image granulaire de l’électron l’idée que l’électron est susceptible de manifester localement sa présence d’une façon discontinue et totale, mais il faut abandonner l’idée d’un grain décrivant une trajectoire d’une façon continue. Ce qui arrive sur la surface du cristal, ce n’est pas un grain bien localisé courant le long d’une droite, c’est tout un champ de possibilité de localisation, représenté par l’onde de la Mécanique ondulatoire, champ qui explore, qui tâte pour ainsi dire, toute la surface et toutes les couches superficielles du cristal. Ce contact du champ ondulatoire incident avec une partie étendue de la structure du cristal donne lieu à un phénomène de diffraction tout à fait semblable à celui que l’on considère dans la théorie de l’effet Laue pour les rayons X. Dans certaines directions privilégiées, l’onde sera diffusiée avec beaucoup d’intensité et, si nous disposons une plaque photographique à une certaine distance du cristal, il y aura 29 sur cette plaque des plages où l’intensité de l’onde sera très forte. L’électron aura beaucoup plus de probabilitê de manifester sa présence sur une de ces plages qu’en dehors. Au point où l’électron impressionnera la plaque photographique, il exercera une action tout à fait locale en un point de la gélatine de la plaque en y dépensant toute son énergie. C’est ce caractère localisê, discontinu et total de l’action exercée par l’électron qui permet de dire que l’électron est bien un « grain » malgré l’impossibilité de le localiser constamment et de lui attribuer une trajectoire. Si, au lieu d’un seul électron, on a un flot d’électrons arrivant sur le cristal (ce qui est le cas expérimental usuel) , les localisations ponctuelles des électrons dans la gélatine de la plaque photographique se répartiront statistiquement en proportion des intensités de l’onde en chaque point de la plaque : ces localisations se concentreront donc dans les plages de grande intensité et leur effet d’ensemble dessinera sur la plaque les taches de Laue prévues par le raisonnement ondulatoire. Ainsi l’onde paraı̂tra être la réalité physique, alors qu’elle n’est qu’un champ de probabilité. En résumé, on voit que l’électron est bien un « grain », mais seulement dans la mesure où il est susceptible, à l’occasion, de se manifester localement avec toute son énergie. On voit aussi que l’onde associée à l’électron permet bien de prévoir la répartition statistique des actions d’un flot d’électrons : mais elle n’est pas la vibration physique de quelque chose, elle n’est qu’un champ de probabilité. Finalement l’aspect ondulatoire et l’aspect granulaire de l’électron sont compatibles, parce qu’on doit apporter aux concepts d’onde et de corpuscule des limitations permettant de les concilier. 30 CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON Deuxième partie SUR CERAINS ASPECTS PHILOSOPHIQUES DE LA PHYSIQUE CONTEMPORAINE 31 Chapitre 3 Réflexions sur l’indéterminisme en physique quantique La question du déterminisme ne se pose pas pour le physicien de la même façon que pour le philosophe. Le physicien n’a pas, en effet, à l’envisager sous son aspect général et métaphysique : il a à en chercher une définition précise dans le cadre des faits qu’il étudie. Or cette définition précise ne peut, nous semble-t-il, reposer que sur la possibilité d’une prévision rigoureuse des phénomènes à venir : pour le physicien, il y a déterminisme lorsque la connaissance d’un certain nombre de faits observés à l’instant présent ou aux instants antérieurs, jointe à la connaissance de certaines lois de la Nature, lui permet de prévoir rigoureusement que tel ou tel phénomène observable aura lieu, à telle époque postérieure. Cette définition du déterminisme par la prévisibilité rigoureuse des phénomènes paraı̂t la seule que le physicien puisse accepter parce qu’elle est la seule qui soit réellement vérifiable. Il ne faut pas néanmoins se dissimuler que cette définition du déterminisme physique soulève quelques difficultés. Tout d’abord, comme dans la Nature il y a interaction universelle et que le mouvement du moindre atome peut être influencé par celui de l’astre le plus éloigné, la prévision tout à fait rigoureuse d’un phénomène futur quelconque exigerait en principe la connaissance intégrale de l’état présent de l’univers et ne serait donc pas réalisable. Mais c’est là évidemment une objection plutôt théorique car, en général, la prévision d’un phénomène à venir peut être obtenue pratiquement à l’aide d’un nombre fini de données sur l’état présent. Plus importante est l’objection que l’on peut tirer du caractère nécessairement approximatif de nos observations et de nos mesures. Les données fournies par l’observation ou la mesure étant toujours affectées d’erreurs expérimentales, les prévisions que nous pouvons effectuer à partir de ces données imparfaites sont elles-mêmes affectées d’une certaine imprécision, de sorte que la vérification de la prévisibilité rigoureuse des phénomènes, et par suite du déterminisme défini comme nous l’avons fait plus haut, est toujours approximative. Néanmoins, cette nouvelle objection 33 34 CHAPITRE 3. L’INDÉTERMINISME EN PHYSIQUE QUANTIQUE ne paraı̂t pas encore insurmontable parce que la précision de nos observations et de nos mesures peut être améliorée soit par l’affinement des méthodes, soit par le perfectionnement des prociédiés expérimentaux. Si, au fur et à mesure que la précision de nos observations s’améliore, nous obtenons toujours une prévisibilité plus rigoureuse, nous pourrons considérer le déterminisme comme établi par une sorte de convergence à la limite. Dans la physique classique, rien ne semblait s’opposer à l’idée d’une prévisibilité des phénomènes futurs d’autant plus parfaite que nos procédés d’observation et de mesure devenaient plus exacts. C’est en ce sens que le déterminisme physique paraissait devoir être admis avant le développement de nos connaiances sur les phénomènes quantiques. Mais, lorsqu’en descendant l’échelle des grandeurs, les physiciens en sont arrivés à étudier les phénomènes du monde atomique où les quanta manifestent leur existence, ils se sont aperçus que la convergence vers une prévisibilité rigoureuse ne pouvait être prolongée indéfiniment par une precision toujours croissante des données de l’observation et de la mesure. Quand, en effet, dans le domaine atomique, nous voulons de plus en plus serrer de près l’état actuel des choses pour pouvoir annoncer avec plus de rigoureuse exactitude les phénomènes futurs, nous nous heurtons à l’impossibilité d’augmenter simultanément la précision de toutes les données qui nous seraient nécessaires : c’est là, on le sait, l’une des conséquences essentielles des relations d’incertitude dues à M. Heisenberg. Plus nous orienterons nos observations et nos mesures de façon à nous permettre de préciser certaines données, plus par là même nous perdrons en précision sur d’autres données nécessaires. Les fines et profondes analyses de MM. Bohr et Heisenberg paraissent avoir bien établi ce point en montrant clairement que ces circonstances, tout à fait inattendues pour les physiciens imbus des idées classiques, sont des conséquences nécessaires de l’existence même du quantum d’Action. Puisque le quantum d’Action apparraı̂t aujourd’hui comme l’une des réalités les plus fondamentales de la Physique, il n’est guère douteux que les incertitudes d’Heisenberg n’aient elles-mêmes un caractère tout à fait fondamental. A cause d’elles, le processus de convergence vers une prévisibilité parfaite, qui nous permettait dans l’ancienne physique d’affirmer le déterminisme des phénomènes par un passage à la limite, se trouve interrompu quand on arrive à l’échelle du monde atomique, c’est-à-dire à l’échelle où le quantum d’Action, cessant d’être négligeable, commence à intervenir. Il est facile de prendre des exemples de cas où, d’après les conceptions aujourd’hui bien établies de la mécanique ondulatoire, la prévisibilité des phénomènes est diminuée, sinon perdue. Considérons comme exemple simple un « canon à électrons », c’est-à-dire un dispositif émettant des électrons d’énergie connue, qui bombarde la surface d’un cristal devant lequel est disposé un écran comme l’indique la figure 3.1. Si l’écran est recouvert d’une substance fluorescente où l’arrivée de chaque 35 Ecran Canon à électrons Cristal Figure 3.1 – électron diffusé par le cristal donne lieu à une scintillation instantannée, on devra observer, si le canon tire lentement, des scintillations s’égrenant dans le temps et se produisant en diverses régions de l’écran. D’après, les principes actuellement admit de la mécanique ondulatoire, il est impossible du prévoir exactement à un instant déterminé en quel point de l’écran se produira la prochaine scintillation : tout ce que l’on peut calculer, c’est la probabilité pour que la prochaine scintillation se produise en tel ou tel point à la surface de l’écran. Il y a des régions de l’écran où la probabilité d’arrivée d’un électron est nulle et où l’on peut affirmer qu’il ne se produira pas de scintillations, mais il y a aussi des régions étendues de l’écran où cette probabilité d’impact n’est pas nulle et l’on ne peut dire en quel point de ces dernières régions se produira la prochaine scintillation. Il y a là véritablement imprévisibilité des scintillations individuelles et, par suite, absence de déterminisme, au seul sens que le physicien puisse légitimement, nous semble-t-il, donner à ce mot. Il importe d’ailleurs de remarquer que l’existence de lois de probabilité permet de retrouver la prévibilité et le déterminisme pour les phénomènes statistiques où interviennent un grand nombre d’unités physiques. Ainsi, si dans l’exemple précédent, le canon à électrons, au lieu de tirer lentement, tire très rapidement de manière que le cristal soit constamment atteint par un flot d’électrons, on obtiendra à chaque instant sur l’écran un très grand nombre de scintillations et la répartition de ces scintillations à la surface de l’écran y dessinera les figures de diffraction qui peuvent se prévoir en calculant la diffraction, par le milieu cristallin, de l’onde associée aux électrons. On pourra donc en ce cas annoncer exactement quel va être l’aspect de l’écran fluorescent quand on mettra en action le canon à tir rapide. Ainsi il y a présibilité exacte, c’est-à-dire déterminisme au sens des physiciens, pour le phénomène statistique, bien qu’il n’y ait pas prévisibilité exacte pour les phénomènes élémentaires . L’imprévisibilité, qui se manifeste en physique quantique pour le phénomène élémentaire, ne nous paraı̂t pas liée, comme on l’a parfois prétendu, à un emploi 36 CHAPITRE 3. L’INDÉTERMINISME EN PHYSIQUE QUANTIQUE abusif du concept de corpuscule. Dans l’expérience sur laquelle nous avons raisonné, on peut définir le canon à électrons uniquement par ses caractéristiques expérimentales : on dira, par exemple, que c’est un dispositif contenant un filament de telle substance porté à l’incandescence et relié au sol devant lequel se trouve à une certaine distance une électrode portée à un certain potentiel, etc. De même, on notera des scintillations sur l’écran sans être obligé de parler de l’impact d’un électron sur cet écran. Or, même en employant ce langage purement « expérimental » où interviennent seuls des faits observables, on sera obligé de constater l’imprévisibilité des scintillations individuelles qui se succèdent sur l’écran. II ne nous semble donc pas que cette imprévisibilité soit en aucune façon la conséquence d’une certaine conception théorique de l’électron, par exemple de l’emploi plus ou moins justifié de l’image corpusculaire. Dans l’état actuel de la Physique, il n’y a plus dans le cas des phénomènes élémentaires individuels prévisibilité rigoureuse des faits qui seront observables à partir des faits qui ont été observés. Cette imprévisibilité nous paraı̂t due à l’existence du quantum d’Action et non à l’usage du concept de corpuscule. C’est plutôt, nous le verrons plus loin, les idées même d’espace et de temps dont la validité paraı̂t mise en question par l’existence du quantum d’Action. Disons maintenant quelques mots du rapport entre la notion de déterminisme et celle de causalité. La relation entre ces deux notions ne paraı̂t pas être toujours bien précisée et dépend d’ailleurs, dans une large mesure, des définitions que l’on admet pour l’une et pour l’autre. Ainsi certains auteurs, considérant le concept de causalité comme plus étroit que celui de déterminisme, ont dit qu’en Physique quantique, il y avait encore déterminisme, mais qu’il n’y avait plus causalité. Il nous paraı̂t, au contraire, plus naturel de dire qu’en Physique quantique, il n’y a plus de déterminisme au sens précisé plus haut, mais qu’il y a encore causalité en donnant à ce terme un sens un peu large que nous allons expliquer. Considérons un phénomène A auquel succède toujours l’un quelconques des phénomènes B1 , B2 , B3 , . . . . Si , de plus, aucun des phénomènes B1 , B2 , B3 , . . . ne se produit si A ne s’est pas produit, on pourra dire, en adoptént une définition large de la causalité, que A est la cause des phénomènes B1 , B2 , B3 , . . . et cette définition sera en accord avec le viel adage : « Sublata causa, tollitur effectus ». Avec cette définition, il y aura donc un lien de causalité entre le phénomène A et les phénomènes B1 , B2 , B3 , . . . , mais il n’y aura plus de déterminisme, au sens que nous avons précédemment donnée à ce mot, si nous ne pouvons aucunement prévoir lequel des phénomènes B1 , B2 , B3 , . . . va se produire lorque A s’est produit. Le déterminisme ne réapparaı̂t que dans le cas limite où il y a un seul phénomène B. Or il nous semble bien que nous ayons en Physique quantique une telle causalité sans déterminisme où la prévisibilité exacte ne réapparaı̂t que dans des cas exceptionnels, ceux que les théoriciens de la nouvelle mécanique appellent des « cas purs ». 37 Reprenons comme exemple notre canon à électrons bombardant la surface d’un cristal. Si le canon entre en fonctionnement, nous verrons paraı̂tre une scintillation en un certain point de l’écran placé devant le cristal tandis que si 1e canon, ne fonctionne pas, nous ne verrons, bien entendu, aucune scintillation. Nous pouvons donc dire que le fonctionnement du canon à électrons est la cause des scintillations, bien que nous ne puissions prévoir exactement laquelle des scintillations possibles se produira sur la surface de l’écran quand nous mettrons le canon en action. Il semble donc bien qu’il y ait ici causalité au sens large défini plus haut, mais qu’il n’y ait plus déterminisme. Cette conclusion n’est pas, d’ailleurs, particulière au cas envisagé du bombardement d’un cristal par des électrons et elle s’étendrait aisément à tous les problèmes qui se posent en Physique quantique. Le développement de nos connaissances permettra-t-il un jour de rétablir la prévisibilité complète des phénomènes élémentaires individuels, c’est-à-dire le déterminisme physique rigoureux ? Il n’est naturellement pas possible de répondre avec certitude à une question de ce genre ; mais on peut cependant faire quelques réflexions à son sujet. Tout d’abord, il faut bien préciser qu’il s’agit ici du rétablissement éventuel de la prévisibilité exacte des phénomènes élémentaires. L’on peut, en effet, et l’on pourra toujours, supposer qu’il existe un déterminisme fondamental des phénomènes qui nous resterait caché et se trouverait au delà des limites de notre science humaine, mais c’est là une hypothèse métaphysique, un acte de foi, et ce déterminisme ne serait pas celui que le physicien a seul, nous semblent-il, le droit d’envisager et que nous avons défini par la prévisibilité rigoureuse. Il s’agit de savoir si la théorie physique, disposant un jour de connaissances qui nous manquent aujourd’hui, et peut-être aussi de concepts qui ne sont pas encore élaborés, pourra établir des règles permettant de prévoir rigoureusement les phénomènes de l’échelle atomique. Il nous semble que l’intervention du quantum d’Action dans les phénomènes de la Physique microscopique nous fournit quelques indications à ce sujet. La notion même du quantum d’Action implique, en effet, une sortie de liaison entre le cadre de l’espace et du temps et les phénomènes dynamiques que nous cherchons à y localiser, liaison tout à fait insoupçonnée de l’ancienne Physique. Si donc une théorie future nous permettait de voir plus clair dans les questions quantiques, ce ne pourrait être sans doute qu’en modifiant profondément nos idées sur l’espace et sur le temps (y compris les conceptions relativistes sur l’espacetemps) . Mais si un jour ce difficile travail peut être accompli, en résultera-t-il un retour effectif vers la prévisibilité exacte des phénomènes de la microphysique ? Cela ne nous paraı̂t pas probable car la description des observations et des résultats de l’expérience se fait dans le langage courant de l’espace et du temps et il paraı̂t bien difficile de penser qu’il en sera jamais autrement. Pour parvenir à la prévision des faits observables, qui est son but essentiel, la théorie physique devra donc vraisemblablement toujours en revenir, à un certain moment, au cadre usuel 38 CHAPITRE 3. L’INDÉTERMINISME EN PHYSIQUE QUANTIQUE de l’espace et du temps et il nous paraı̂t très probable qu’à ce moment précis réapparaı̂tront les incertitudes quantiques liées à l’existence du quantum d’Action et que la rigueur des prévisions possibles s’en trouvera atténuée. Bref, il n’est peut-être pas interdit de penser qu’un jour, la Physique pourrait retrouver à l’échelle microscopique le déterminisme rigoureux dont l’étude du monde macroscopique lui avait naguère suggéré la notion ; mais, dans l’état actuel de nos connaissances, une telle évolution de la Physique quantique nous paraı̂t personnellement très peu probable. Chapitre 4 Sur certains aspects philosophiques des récents progrès de la physique Lorsque les sciences physiques ont commencé à se développer d’une manière scientifique, les interprétations qu’elles ont proposées des phénomènes de la Nature ont pris naturellement comme points de départ les conceptions et les images que la vie courante nous offre d’elle même et qui, à force d’être habituelles nous paraissent intuitives. Sans doute, au fur et à mesure que la théorie physique se développait avec l’aide de l’analyse mathématique, elles ne conservaient des images suggérées par la vie journalière que des formes abstraites et décolorées. Ainsi l’idée de corpuscule se présente à l’intuition courante comme celle d’un petit objet ayant une forme, une coloration, une structure comme c’est le cas d’une sphérule de plomb ou d’un grain de sable par exemple. De cette image trop concrète, la théorie physique ne devra évidemment conserver que la conception schématique d’un petit objet localisé, d’un point matériel : elle devra écarter les attributs de coloration et souvent même laisser imprécises la forme et la structure. De la notion toute concrète de l’effort exercé par un de nos muscles pour déplacer un objet, est sortie la notion de force représentée par un vecteur et l’on voit sur cet exemple quel progrès dans le sens de l’abstraction s’est effectué dans ce cas. C’est ainsi qu’en extrayant ses conceptions fondamentales de la réalité vécue par des procédés de schématisation et d’abstraction, la Physiquie mathmatique de l’époque classiques depuis la Renaissance jusqu’au XXe siècle, est parvenue à construire le bel édifice que l’on sait. Sans doute, cette Physique mathématique laissait-elle nécessairement dans l’ombre tout l’aspect qualitatif des phénomènes, mais elle était parfaitement adaptée à la prévision exacte des faits physiques se déroulant à notre échelle humaine. En schématisant par abstraction des notions tirées de notre vie courante, on était arrivé à construire une théorie physique qui paraissait apte à 39 40 CHAPITRE 4. PHILOSOPHIE ET PROGRÈS DE LA PHYSIQUE décrire parfaitement les phénomènes dont nous avons la perception directe. Mais un des faits fondamentaux du développement de la Physique depuis un demi-siècle est, on le sait, qu’elle a concentré son attention sur l’étude des phénomènes de l’échelle atomique. Au fur et à mesure qu’une expérimentation raffinée permettait de pénétrer davantage dans ce domaine subtil et d’y mettre en évidence des faits étranges et inattendus, les théoriciens s’eforçaient d’étendre à ce domaine nouveau les idées et les modes de raisonnement qui avaient si bien réussi à plus grande échelle. Il semble même qu’au début, un peu présomptueux sans doute, ils n’aient eu aucun doute sur la possibilité d’opérer un tel prolongement. Même, après 1913 à une époque où déjà la découverte des Quanta et l’évidence de leur extrême importance étaient de nature à inspirer quelque prudence, la plupart des physiciens légitimement enthousiasmés par le modèle atomique de Bohr, paraissent avoir pris ce modèle au pied de la lettre si l’on peut dire : ils pensaient, un peu naı̈vement peut-être, que réellement dans l’atome des électrons ponctuels tournaient autour d’un noyau positif central sur des trajectoires et avec des lois de mouvement bien sagement conformes aux règnes traditionnelles de la Mécanique classique. Evidemment ces électrons intra-atomiques se refusaient, on le savait, à décrire des orbites autres que celles qu’autorisaient les règles de quanta, mais c’était là, croyait-on, une simple restriction des possibilités prévues par la Mécanique classique qui ne comportait aucunement la nécessité de réviser ses lois et ses conceptions. Chose curieuse, M. Bohr est celui qui paraı̂t avoir le premier pressenti qu’il ne fallait pas accorder une confiance aussi absolue au modèle d’atome qu’il avait lui-même proposé. Certaines des particularités de ce modèle lui parurent dès l’abord ůdevoir entraı̂ner une révision complète des conceptions classiques : en particulier, l’existence pour l’atome d’états stationnaires en quelque sorte placés en dehors du temps et l’impossibilité de décrire les transitions brusques qui font passer l’atome d’un état stationnaire à un autre lui suggéraient déjà l’idée profonde qu’une description complète des phénomènes quantiques de l’échelle atomique doit, par certains côtés du moins, transcender le cadre classique de l’espace et du temps. Tout le développement plus récent des théories quantiques est venu confirmer cette intuition et a révélé que les conceptions fondamentales de la Physique classique ne sont pas bien adaptées à la description microscopique des phénomènes de l’échelle atomique. A vrai dire, il était bien téméraire de penser que des conceptions extraites de notre expérience sensible seraient complètement et immédiatement utilisables à une échelle aussi prodigieusement différente. Il était presque évident à priori que la notion de corpuscule conçue comme la limite abstraite d’un grain de sable ou la notion de force conçue comme la limite abstraite de l’effort d’un biceps ou de la tension d’un ressort avait bien peu de chance de représienter quelque chose d’exact à l’intérieur d’un atome. Mais le fait essentiel et inattendu que le développement des théories quantiques a mis en lumière, c’est que les notions d’espace et de temps, 41 tout comme celles de corpuscule et de force, ne sont pas, elles non plus, entièrement adaptées à la description des phénomènes microscopiques. La notion d’un espace physique à trois dimensions formant le cadre naturel où se localisent tous les phénomènes physiques, la notion d’un temps formé par la succession des instants et constituant un continu à une dimension sont des notions extraites de l’expérience sensible par un processus d’abstraction et de schématisation analogue à celui qui conduit du grain de sable au point matériel ou de l’effort musculaire à la force. Sans doute, la théorie de la Relativité nous avait déjà appris que l’espace et le temps ne sont point indépendants et que la notion véritable est mieux représentée par la fusion de l’espace et du temps en un cadre unique à quatre dimensions, l’espace-temps, la décomposition de ce cadre unique en espace et en temps étant relative à chaque observateur. Il n’en reste pas moins que, même avec ce raffinement ultime de la Physique préquantique, les localisations dans l’espace et dans le temps, la position et l’instant conservaient pour chaque observateur un sens parfaitement net. Il n’en est plus de même dans la Physique quantique où le cadre de l’espace-temps paraı̂t lui-même à l’échelle atomique perdre une partie de sa valeur. Ce cadre, nous l’avions construit dans notre esprit en partant de l’étude des phénomènes que nous observons directement autour de nous, des objets qui, étant à notre échelle, nous sont familiers : c’est à l’aide de certains objets de cette nature, le mètre et l’horloge, que nous mesurons les « coordonnées » d’espace et de temps. Mais, en réalitê, les phénomènes que nous observons directement sont toujours des phénomènes statistiques dont les apparences résultent d’un nombre immense de phénomènes atomiques élémentaires ; les objets qui nous sont familiers sont toujours des corps très lourds par rapport aux corpuscules élémentaires de la matière, des corps ayant une masse si élevée que le quantum d’Action ne compte plus devant elle. Il se trouve (et toute la Physique classique repose implicitement sur cette constatation) que le cadre de l’espace-temps construit par notre esprit pour y loger les phénomènes et les objets à notre échelle se comporte comme s’il était indépendant des phénomènes et des objets qui viennent y trouver leur place. Le cadre de l’espace et du temps nous apparaissait donc finalement comme un cadre idéal indépendant de son contenu et cette indépendance avait fini par sembler si certaine et si naturelle, qu’on en était arrivé à considérer les notions d’espace et de temps comme des notions innées et a priori. Aujourd’hui, à la lumière des théories quantiques, il semble qu’il faille entièrement changer d’opinion. A l’échelle très fine des phénomènes atomiques, où la valeur du quantum d’Action cesse d’être négligeable, la localisation précise d’un objet dans l’espace et dans la durée ne paraı̂t plus inidépendante de ses propriétés dynamiques et en particulier de sa masse. Si l’on pouvait imaginer (mais en réalité on ne le peut pas car que seraient ses organes sensoriels ?) un observateur microscopique poursuivant ses investigations à l’intérieur des systèmes atomiques, 42 CHAPITRE 4. PHILOSOPHIE ET PROGRÈS DE LA PHYSIQUE les notions d’espace et de temps n’auraient peut-être pour lui aucun sens : tout au moins, n’auraient-elles pas du tout le même sens que pour nous. Mais nous, humains, qui ne pouvons observer que le reflet dans les phénomènes à grande échelle de l’activité du monde atomique, nous qui forcément localisons nos observations dans le cadre de l’espace et du temps, nous avons été amenés tout naturellement à tenter de développer nos théories des phénomènes atomiques et quantiques dans ce cadre qui nous est si familier et dont on ne conçoit guère que nous puissions nous passer complètement. A vouloir faire ainsi entrer les phénomènes élémentaires dans ce cadre de l’espace et du temps qui n’est sans doute vraiment adapté qu’à la d’escription statistique moyenne d’un nombre énorme de ces phénomènes, nous sommes venus nous heurter aux fameuses « relations d’incertitude » de M. Heisenberg : comme des bornes indicatrices, elles viennent marquer la limite de validité des conceptions anciennes auxquelles nous étions accoutumés, elles viennent nous empêcher de maintenir entre le cadre de l’espace-temps et les propriétés dyamiques des entités physiques une d’incertitude qui naguère nous paraissait évidente. La véritable Physique quantique ferait sans doute une Physique qui, renonçant aux idées de position, d’instant, d’objet et là tout ce qui constitue notre intuition usuelle, partirait de notions et d’hypothèses purement quantiques et, s’élevant ensuite aux phénomènes statistiques de l’échelle macroscopique, nous montrerait comment de la réalité quantique de l’échelle atomique peut émerger par le jeu des moyennes le cadre de l’espace-temps valable à l’échelle humaine. Mais cette physique-là n’est sans doute pas près de se constituer et elle serait si éloignée de notre intuition sensible qu’on ne voit pas bien comment sa construction pourrait être abordée aujourd’hui avec quelque chance de succès. ∴ L’ébranlement par les théories nouvelles du cadre spatiotemporel utilisé par la Physique classique a entraı̂né nécessairement une « crise du déterminisme ». Comment en effet pourrait-on donner des phénomènes de la nature un dessin rigide quand la toile sur laquelle il faut tracer le dessin a elle-même perdu sa rigidité ? Dans l’ancienne Physique mathématiquement, on se figurait le cadre de l’espacetemps comme donné à priori, en quelque sorte antérieurement aux phénomènes et indépendamment d’eux : dans ce cadre, venaient se placer les entités physiques et leur évolution était considérée comme rigoureusement déterminée, à partir d’un état initial supposé connu, par des équations différentielles ou aux dérivées partielles. Tel était le point de vue de la Physique préquantique : il réalisait, en l’entendant au sens large, la description par figures et par mouvements qu’avait souhaitée Descartes. 43 Tout autre est le point de vue actuel de la théorie quantique. Les relations d’incertitude s’opposent à ce que nous puissions jamais connaı̂tre à la fois la figure et le mouvement. Plus nos observations nous ont permis de préciser exactement la configuration d’un système atomique, plus par là-même son état dynamique exact nous échappe et inversement. Si nous sommes parvenus à localiser exactement les divers éléments d’un système, nous aurons seulement acquis une connaissance statique instantanée de ce système et nous serons dans l’incertitude complète au sujet des tendances dynamiques qui l’animent. Si au contraire nous parvenons à préciser l’aspect dynamique d’un système, nous serons dans l’incertitude quant à la localisation de ses parties : nous pourrons bien alors énoncer des relations à caractère causal telles que la conservation de l’énergie ou celle de la quantité de mouvement, niais ces relations seront sans support spatiotemporel et, suivant une expression de M. Bohr, elles transcenderont le cadre de l’espace-temps. On pourra bien encore trouver une évolution qui peut se prévoir rigoureusement à partir d’un état initial, celle de la fonction d’onde ψ du système ; mais cette évolution détermine seulement comment varie la probabilité des différents résultats possibles d’une observation ultérieure et seule une telle observation effectivement faite peut nous apporter un renseignement nouveau et généralement impossible à prévoir sur l’état du système. Ainsi, il n’y a plus de véritable déterminisme causal au sens ancien du mot. Pour sauver le déterminisme, on pourrait penser à invoquer l’existence de paramètres cachés : les incertitudes qui nous empêchent d’établir un déterminisme causal des phénomènes à l’échelle quantique seraient alors dues seulement à l’ignorance où nous sommes de la valeur exacte de ces paramètres cachés. C’est un fait très curieux qu’il soit possible de démontrer l’impossibilité d’accepter une telle échappatoire. La forme même des incertitudes quantiques s’oppose en effet à ce que l’on puisse attribuer leur origine à notre ignorance des valeurs de certains paramètres cachés. La raison profonde nous paraı̂t en être que les incertitudes quantiques dérivant de l’existence même du quantum d’Action, expriment en dernière analyse l’insuffisance de la conception d’un espace-temps indépendant des phénomènes dynamiques qui s’y déroulent. La liaison entre l’aspect géométrique et l’aspect dynamique des entités physiques élémentaires a le caractère d’une limitation réciproque d’un genre tout à fait nouveau : elle est implicitement contenue dans la notion de quantum d’Action et s’exprime d’une façon précise par l’ensemble du formalisme mathématique de la nouvelle Mécanique ondulatoire et quantique et en particulier par les distributions de probabilités que fournit cette théorie nouvelle. C’est en étudiant la forme de ces distributions de probabilités que l’on peut démontrer l’impossibilité d’interpréter les incertitudes quantiques dans le cadre des idées classiques par quelque artifice comme l’hypothèse de l’existence de paramètres cachés. Ces incertitudes paraissent donc bien être irréductibles et 44 CHAPITRE 4. PHILOSOPHIE ET PROGRÈS DE LA PHYSIQUE l’indéterminisme qui en résulte ne paraı̂t pas devoir être levé par le progrès futur de nos connaissances. ∴ Terminons Par quelques mots sur l’importante question de l’indiscernabilité des particules en Mécanique quantique. On dit souvent que les nouvelles théories ont abouti à enlever toute individualité aux particules de l’échelle atomique. Mais que devons-nous entendre par « individualité » ? Bien évidemment pas l’individualité au sens psychologique que personne n’a songé à attribuer aux particules. Dans la vie courante, une petite parcelle de matière, un grain de sable, par exemple, c’est quelque chose qui a une couleur, une forme, des détails de structure et comme ces caractéristiques varient d’un grain à un autre, chaque grain possède ainsi une manière d’individualité. Mais quand schématisant l’image du grain de sable fourni par l’observation courante, notre esprit en est arrivé au concept abstrait et en quelque sorte limite de corpuscule ponctuel ou ide point matériel, ces particularités individuelles ont perdu toute signification ou du moins ont dû être conçues comme rigoureusement identiques pour des corpuscules de même nature. En quoi, alors, peut encore consister l’individualité de ces corpuscules ? En ceci que l’on peut les suivre au cours du temps en suivant leurs positions successives, ce qui permet de leur attribuer une numérotation ayant un caractère permanent ou, si l’on préfère, de leur donner là chacun un « nom ». C’est donc finalement leur localisation ponctuelle à chaque instant, et elle seulement, qui permet d’individualiser constamment ces particules. On conçoit alors très clairement combien va être funeste à la notion d’individualité des particules à l’échelle atomique le fait que les théories quantiques, en ébranlant le cadre Classique de l’espace et du temps, ne permettent pas d’attribuer constamment aux particules une localisation précise. Lorsque chevaucheront les zones de localisation possible de deux particules de même espèce, comment pourra-t-on suivre leur individualité ? On ne le pourra plus et, le fil étant rompu qui pouvait permettre de suivre leur existence, il sera désormais impossible de les numéroter et de leur donner un nom individuel. Et c’est ainsi que l’incertitude quantique entraı̂ne l’indiscernabilité et l’absence d’individualité. Inversement, si l’on admet l’impossibilité de suivre au cours du temps l’individualité des particules, on peut en déduire l’existence d’incertitudes sans pouvoir d’ailleurs préciser l’étendue de ces incertitudes et leur fixer la valeur que la théorie quantique leur attribue en fonction de la constante h de Planck (Paulette Février). Les diverses questions que nous venons de passer rapidement en revue apportent une remarquable preuve des répercussions qu’ont eues les progrès récents de la Physique sur l’ensemble des conceptions de la philosophie naturelle. Chapitre 5 De l’invention dans les sciences théoriques Au premier abord, il peut sembler qu’il y ait une différence fondamentale entre la découverte d’un fait expérimental, dans le monde physico-chimique par exemple, et l’invention d’une théorie nouvelle dans le domaine des mathématiques pures ou dans celui de la philosophie naturelle. Dans le premier cas, en effet, avant la découverte le fait à découvrir a beau être plus ou moins dissimulé sous le rideau des apparences, il est cependant là déjà et sa découverte n’est que la mise au jour d’un trésor caché. Dans l’invention théorique, il semble qu’il y ait vraiment création par la force de l’esprit de quelque chose d’entièrement nouveau, construction d’un édifice intellectuel qui ne préexistait d’aucune façon. Les mots même de « découverte » et « d’invention » qui viennent tout naturellement sur les lèvres quand on veut distinguer l’un et l’autre cas, semblent faits pour marquer la différence qui les sépare. La découverte, c’est l’acte de soulever le voile qui cache la réalité inconnue mais préexistante : l’invention, c’est essentiellement la création par la force de l’imagination à tel point que le terme peut même être pris en mauvaise part et signifier création par l’imagination de chimères et de mensonges. Mais, si tranchée que paraisse à première vue la distinction entre la découverte expérimentale et l’invention théorique, une étude plus attentive ne tarde pas à l’atténuer considérablement : car elle montre que la découverte des faits expérimentaux, du moins dans la science actuelle, est à bien des égards une invention tandis que l’invention théorique est en quelque mesure une découverte. C’est là ce que je voudrais commencer par expliquer en quelques mots. Dans la science d’aujourd’hui qui a depuis longtemps dépassé le stade de la simple observation des phénomènes couramment visibles autour de nous, la découverte expérimentale est constamment guidée par des conceptions théoriques. Si ces conceptions ne sont pas toujours en état de nous faire prévoir exactement les phénomènes à découvrir, ce sont elles cependant qui indiquent à l’expérimentateur 45 46 CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES dans quelle voie il doit orienter ses recherches et comment il doit en interpréter les résultats. La plupart du temps, ce qui fait la valeur d’un résultat expérimentale c’est la manière dont nous l’interprétons. Quel intérêt aurait en lui-même le fait que dans une atmosphère sursaturée d’humidité nous apercevions dans certaines circonstances un alignement de gouttelettes de vapeur condensée dessinant une courbe ? Bien peu évidemment si nous nous bornions à la constatation du phénomène brut. Mais si nous interprétons la courbe dessinée par les gouttelettes de vapeur comme manifestant à nos yeux le trajet suivi par une particule à travers le gaz et si la théorie nous permet de déduire d’après la forme de la trajectoire la charge électrique de la particule ou telle autre indication sur sa nature, ce qui n’était qu’un fait en apparence quelconque peut devenir un renseignement d’une grande valeur scientifique et servir de base à quelque importante découverte. En fait, c’est par des observations de ce genre faites dans des chambres à détente de Wilson qu’ont été établies maintes propriétés importantes de particules antérieurement connues telles qu’électrons et protons, puis qu’a été découverte l’existence de particules jusqu’alors ignorées telles que neutrons ou électrons positifs. Les conceptions théoriques, où l’imagination scientifique intervient toujours plus ou moins sont donc indispensables pour l’interprétation des résultats de l’expérience, mais leur rôle ne se borne pas là, car il est évidemment nécessaire que le dispositif expérimental ait été combiné de façon à pouvoir fournir les apparences dont on pense pouvoir tirer par une judicieuse interprétation de précieux renseignements. L’expérimentateur doit donc, avant d’entreprendre son travail se livrer à un effort d’imagination où, combinant les prévisions suggérées par la théorie et les ressources fournies par la technique des laboratoires, il fait le plan de son expérience et invente ou perfectionne la méthode qu’il va employer. Et voilà pourquoi la découverte expérimentale, au moins dans la science affinée de nos jours, a pour condition l’activité créatrice de notre pensée et possède par là-même les caractères d’une invention. Faisant nécessairement intervenir dans sa préparation et dans son interprétation l’imagination théorique guidée et contrôlée par la raison, elle est loin d’être une passive constatation et porte la marque de notre activité spirituelle. Mais, remarque peut-être plus surprenante, si la découverte expérimentale est en un sens une invention, par contre la création et l’invention dans le domaine de la science théorique possèdent à certains égards les caractères de la découverte. Pour mettre en lumière cette idée un peu subtile, il nous est nécessaire d’analyser la façon dont s’opère la création théorique et les stades successifs que traverse la pensée du théoricien inventeur. Chaque fois que l’on aborde l’étude d’un sujet, on se trouve nécessairement en présence d’un certain « état de la question ». Certains faits sont bien connus, certaines interprétations bien établies, certaines idées généralement admises, certaines difficultés enfin ou franchement reconnues ou, assez souvent, habilement dissimulées. Or parfois il arrive qu’en étudiant un certain domaine de 47 connaissances scientifiques, le théoricien inventeur éprouve une sorte de malaise qui va progressivement en croissant : il a le sentiment peu à peu de plus en plus net qu’il manque dans nos interprétations un élément essentiel, qu’une idée fondamentale a été méconnue sans laquelle une véritable compréhension des faits est impossible. Les difficultés rencontrées par les théories antérieures lui apparaissent alors non plus comme des anomalies qu’une comparaison plus approfondie avec l’ensemble des conceptions reçues fera disparaı̂tre mais au contraire comme des symptômes éclatants de l’insuffisance de ces conceptions. A son attention dès lors éveillée, s’impose une foule de petits faits épars et sans liens apparents entre lesquels il soupçonne maintenant une parenté cachée dont une théorie fondée sur des idées entièrement nouvelles devrait pouvoir rendre compte. Tel le géologue parcourant du regard un vaste contrée formée d’alluvions récentes et y voyant émerger çà et là quelques pointements de granit soupçonne soudain que ces ı̂lots épars sont les affleurements à la surface d’une couche profonde de terrains anciens qui forme le socle de toute la région et en explique la structure. Ainsi les petits faits qui ne semblaient qu’accidents ou anomalies apparaissent tout à coup comme les signes extérieurs d’une unité fondamentale jusqu’alors méconnue. Prenons un exemple dans la Physique théorique. Quel lien un esprit superficiel eût-il pu apercevoir entre les faits que la distribution spectrale du rayonnement d’équilibre thermique n’obéit plus pour les basses températures ou les hautes fréquences aux prévisions des théories classiques, que des écarts par rapport à la loi de Dulong et Petit se manifestent à la température ordinaire pour les corps solides très durs comme le diamant, qu’il existe une limite supérieure très nettement marquée pour le spectre continu émis par l’anti-cathode d’un tube à rayons X alimenté sous tension constante ou enfin qu’une relation linéaire relie l’énergie cinétique des électrons s’échappant d’une substance frappée par une radiation monochromatique à la fréquence de cette radiation ? Et cependant nous savons aujourd’hui que tous ces faits sans rapport apparent sont, comme bien d’autres encore, des aspects d’une seule grande réalité autrefois ignorée : l’existence du quantum d’Action. Supposons donc, pour en revenir à notre sujet, que notre théoricien inventeur ait, grâce à un flair particulier, deviné qu’il y avait dans tel domaine un grand progrès à réaliser et qu’il soit ensuite parvenu à trouver les idées essentielles qui vont permettre ce progrès. Nous reviendrons tout à l’heure sur les circonstances où s’opère le plus souvent cet acte d’invention, mais pour l’instant nous le supposons effectué. Il arrive alors une chose fort remarquable : l’inventeur a tout à coup le sentiment très net que les conceptions auxquelles il vient de parvenir, dans la mesure où elles sont exactes, existaient déjà avant d’avoir jamais été pensées par le cerveau humain. Les difficultés qui l’arrêtaient, les anomalies qui l’intriguaient n’étaient, il s’en aperçoit maintenant que le signe d’une vérité cachée, mais déjà existante. Tout s’est passé comme si en inventant des conceptions nouvelles il n’avait fait 48 CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES que déchirer un voile, comme si ces conceptions enfin atteintes existaient déjà, éternelles et immuables, dans quelque monde Platonicien des Idées pures. Le fait même de les avoir cherchées lui paraı̂t s’expliquer par une sorte de pressentiment de leur existence, pressentiment qui pourrait évoquer la phrase mystique : « Vous ne me chercheriez pas si vous ne m’aviez pas déjà trouvé. » Et voilà pourquoi je disais qu’en un certain sens, l’invention dans la science théorique a le caractère d’une découverte, mais c’est une découverte dans le monde de l’esprit. ∴ Abandonnant maintenant cette comparaison entre découverte et invention, nous allons examiner de plus près comment apparaissent à l’esprit du théoricien inventeur les conceptions nouvelles et originales. Nous l’avons dit plus haut, il y a d’abord une sorte de période d’incubation où progressivement, en approfondissant l’état de la question étudiée, on se rend comptée des difficultés à lever, des lacunes à combler et aussi des analogies à expliquer, des parentés réelles ou apparentes à élucider. Peu à peu, et en grande partie dans les profondeurs du subconscient, se forment les idées directrices et s’organisent les courants de pensée qui vont orienter le travail de création. Puis soudain, généralement avec une grande brusquerie, se produit une sorte de cristallisation : l’esprit du chercheur aperçoit en un instant, avec une grande netteté et d’une manière dès lors parfaitement consciente, les grandes lignes des conceptions nouvelles qui s’étaient formées obscurément en lui et il acquiert d’un seul coup l’absolue certitude que la mise en couvre de ces nouvelles conceptions va permettre de résoudre la plupart des problèmes posés et d’éclairer toute la question en mettant bien en lumière des analogies et des harmonies ignorées jusque-là. Bien souvent cette étape essentielle de la découverte théorique ne se produit point pendant une période de travail. Certes c’est en travaillant à son bureau ou à son tableau noir que le savant théoricien peut scruter à fond les questions qui l’intéressent et en étudier minutieusement les divers aspects, mais il semble que la tension nerveuse provoquée chez lui par cet effort tend plutôt à empêcher cette réorganisation spontanée des idées, cette sorte de tassement psychologique, dont jaillit tout à coup la lumière. C’est plutôt dans une période de repos ou de détente, en se promenant, par exemple, que l’on aperçoit soudain l’idée vainement cherchée dans l’ardeur de l’étude : on l’avait inutilement poursuivie sans pouvoir l’atteindre pendant de longues heures et la voilà qui, sortant du subconscient où elle s’est lentement formée, vient spontanément a vous au moment où on ne la cherchait plus. Ce fait singulier a été plus d’une fois, signalé par des savants illustres : Henri Poincaré notamment, dans son article sur l’invention mathématique (quŠon trouve 49 reproduit dans Science et Méthode) en a donné de curieux exemples tirés de son expérience personnelle. Il ne faudrait évidemment pas en conclure, pour la plus grande joie des paresseux, qu’il est bien inutile de travailler, que les découvertes viennent d’elles-mêmes et que pour les faire il suffit d’aller se promener. Si souvent le fruit de notre effort s’offre à nous pendant une période de repos ou de détente, c’est qu’il a été longuement mûri par l’étude et la méditation. ∴ Continuons notre analyse du développement de l’invention théorique. Nous supposons que le grand pas a été fait, que les principes nouveaux dont la lumière va jaillir ont été clairement aperçus par le théoricien novateur. Malgré la joie que cette découverte lui procure, il s’en faut qu’il soit alors au bout de ses peines. Il lui faut maintenant tirer de ces principes nouveaux tout ce qu’ils peuvent fournir : il lui faut développer les raisonnements et dévider les formules par lesquels s’exprime le contenu, souvent presque inépuisable, de l’idée directrice. Il lui faut patiemment comparer les conséquences déduites des raisonnements et les prévisions extraites des formules avec l’ensemble des faits réels. Labeur ardu, parfois même ingrat, où l’on rencontre mille petites difficultés de détail, où l’on doit éviter maints pièges, où l’on doit vingt fois sur le métier remettre son ouvrage pour le polir et le repolir sans cesse. Au cours de ce travail, le chercheur scrupuleux se fait à lui-même des objections, les examine, les classe, soit comme peu importantes, soit au contraire comme sérieuses. Peu à peu, tout en vérifiant et en précisant ses idées nouvelles, il en aperçoit aussi les limites ; car il n’est pas de grande offensive victorieuse de la science qui, après avoir annexé de vastes territoires, ne vienne tôt ou tard se heurter aux « positions de repli » de l’inconnu. Aucune théorie, si fructueuse soit-elle, ne peut tout expliquer : il reste toujours un certain nombre de faits incompréhensibles ou troublants pour nous avertir qu’au-delà des conquêtes nouvelles il y a encore bien d’autres terres à explorer. Et puis, plus la science progresse, plus ses théories doivent entamer des couches profondes de la réalité : il en résulte que nous sommes forcés d’introduire dans nos théories des conceptions de plus en plus éloignées de celles que nous suggérait l’expérience vulgaire. Alors, tandis que certaines idées radicalement nouvelles nous permettent, nous le constatons d’expliquer des faits naguère incompréhensibles, ce sont ces idées de base elles-mêmes que souvent nous ne sommes plus sûrs de bien comprendre et de maı̂triser dans toute leur étendue. C’est là un point intéressant qu’il me paraı̂t utile d’illustrer par quelques exemples. 50 CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES Quand la Physique de la fin du XIXe siècle a découvert l’électron, bien des phénomènes ont pu être expliqués grâce à l’existence et aux propriétés de ce corpuscule élémentaire : on sait en particulier quels immenses services a rendus la théorie électronique de Lorentz. Mais si l’électron nous a servi à comprendre beaucoup de choses, nous n’avons jamais bien compris l’électron lui-même. Comment en effet cette petite boule d’électricité d’un seul signe n’explose-t-elle pas sous l’action des répulsions électriques mutuelles de ses parties ? Quelle peut être l’origine de cette mystérieuse pression imaginée par Henri Poincaré, qui assurerait sa stabilité ? Si l’électron est ponctuel, comment son énergie interne n’est-elle pas infinie ? Et s’il est étendu, comment nous figurer sa structure interne, car ayant expliqué l’électricité par l’électron, nous ne pouvons plus sans cercle vicieux expliquer l’électron par l’électricité ? Telles sont les questions que la Physique au temps de Lorentz a dû laisser sans réponse et qui le sont encore à l’heure actuelle où elles se posent d’ailleurs un peu différemment. Passons à un autre exemple. Tout à l’heure, nous rappelions comment la merveilleuse hypothèse introduite par Planck, celle de l’existence du Quantum d’Action, nous avait fait comprendre la véritable nature d’un grand nombre de phénomènes inexpliqués et montré leur parenté jusqu’alors cachée. Mais, ici encore, ce quantum d’Action dont la découverte nous a fait comprendre tant de faits mystérieux, nous ne le comprenons guère. Son existence exprime une solidarité entre l’aspect spatio-temporel des phénomènes et leur aspect dynamique, solidarité qui non seulement était ignorée de la science classique, mais qui aussi, il faut bien lŠavouer, est restée à peu près lettre close pour notre raison. Nous ne voyons aucunement, même aujourd’hui pourquoi l’énergie d’un mouvement et sa durée, la quantité de mouvement d’un mobile et l’extension spatiale où il évolue sont des choses si intimement liées que nous n’avons pas le droit de les dissocier et de les considérer isolément. Nous sommes sûrs cependant qu’il en est bien ainsi dans la réalité, nous savons traduire ces circonstances dans nos théories, mais franchement nous ne comprenons pas bien ce que cela veut dire. Plus récemment encore, le développement de la Mécanique ondulatoire nous offre une illustration nouvelle du même fait. En posant à la base de ses explications le dualisme des ondes et des corpuscules, elle nous a ouvert de vastes horizons : elle nous a révélé l’analogie profonde de phénomènes qui paraissaient entièrement différents comme la progression des corpuscules et la propagation des ondes ; elle nous a permis de prévoir et d’interpréter des faits tout à fait inattendus comme la diffraction des électrons par les cristaux : elle a jeté un flot de lumière sur la signification des états quantifiés des édifices atomiques en nous montrant qu’ils peuvent s’interpréter comme analogues aux états stationnaires d’un système vibrant, en un mot elle a entièrement renouvelé la Physique atomique. Et cependant, ici de nouveau, l’idée de base, si fructueuse et si bien vérifiée qu’elle ait été, reste par 51 bien des côtés enveloppée d’une certaine obscurité. Le dualisme des ondes et des corpuscules n’est plus douteux : nous savons l’exprimer en formules précises où apparaı̂t le quantum d’Action et de ces formules nous tirons d’admirables conséquences. Mais les images que nous nous faisons des deux termes de ce dualisme, de l’onde et du corpuscule, sont devenues beaucoup plus floues que par le passé. Le corpuscule n’est plus un petit objet bien défini et son existence ne se manifeste plus pour nous d’après la nouvelle théorie que par le caractère discontinu et localisé de ses manifestations successives. Quant à l’onde, elle n’est plus en Mécanique ondulatoire la vibration de quelque milieu plus ou moins subtil : elle a revêtu un caractère symbolique et mathématique de plus en plus accentué. Ainsi chaque synthèse nouvelle, en nous faisant pénétrer plus avant dans les harmonies du monde physique, nous apprend aussi combien les éléments mêmes de nos interprétations dépassent notre intuition et combien nous parvenons plus aisément à établir des relations entre ces éléments qu’à en comprendre entièrement la nature. Ces quelques exemples permettent d’apercevoir aisément pourquoi, après la réalisation d’une découverte théorique, à l’immense joie de mieux connaı̂tre se mêle toujours chez son auteur un léger sentiment d’amertume : celui de constater enfin de compte le caractère nécessairement fragmentaire et limité du progrès réalisé. Celui qui a créé une théorie nouvelle est aussi le plus souvent celui qui en aperçoit le mieux les lacunes et les obscurités et en connaı̂t le mieux les bornes. C’est pourquoi parfois des disciples imprudents ou aveuglés par un enthousiasme sans discernement transforment en dogme rigide et définitif ce qui, à l’esprit plus critique du maı̂tre, paraissait seulement un des chaı̂nons incomplets et provisoires dans la chaı̂ne sans fin des tentatives et des approximations successives réalisées par la pensée scientifique au cours de sa marche en avant. Peut-être vaut-il mieux d’ailleurs que la joie de découvrir ne soit jamais complète, que le léger sentiment d’amertume dont je parlais tout à l’heure vienne toujours nous rappeler que l’effort doit succéder à l’effort. Voir après une importante progression se dresser devant nous de nouveaux obstacles ne doit pas après tout nous décourager, car si l’obstacle représente pour nous un nouvel et pénible assaut à tenter, il représente aussi la possibilité de victoires futures. ∴ Je ne puis terminer cet exposé sans dire encore quelques mots du rôle que joue souvent le sentiment esthétique dans l’invention des théories. Le but des théories scientifiques est d’interpréter les phénomènes et de traduire leurs relations mutuelles. Au premier abord on ne voit pas bien comment le sentiment esthétique 52 CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES peut intervenir en pareille matière. Néanmoins c’est un fait curieux, mais indéniable, que ce sentiment sert souvent de guide dans l’élaboration des théories de la philosophie naturelle. Une doctrine qui parvient d’un seul coup à réaliser une vaste synthèse en montrant l’analogie profonde de phénomènes en apparence étrangers les uns aux autres produit incontestablement sur l’esprit du théoricien une impression de beauté et l’incline à croire qu’elle renferme une grande part de vérité. Il ne s’agit pas ici de la fameuse « économie de pensée » dont on a, à mon avis, un peu exagéré l’importance. Assurément une large théorie synthétique, en renversant les barrières qui séparent des régions différentes de nos connaissances et en rattachant toute une poussière de faits à une même idée centrale, peut réaliser Une économie de pensée, mais ce point de vue plutôt pratique n’a rien à voir avec le sentiment artistique qui est essentiellement désintéressé. De plus, nombreuses sont aujourd’hui les théories de la Philosophie naturelle qui par leur caractère élevé et leur complexité ne constituent nullement des économies de pensée, mais entraı̂nent au contraire de grandes dépenses de pensée et n’en sont pas moins des œuvres admirables. Leur beauté ne vient pas de ce qu’elles sont simples ou compendieuses, mais de ce qu’elles nous révèlent une harmonie cachée derrière la diversité des apparences, de ce qu’elles nous permettent de ramener la multiplicité des phénomènes à une sorte d’unité organique. Il y aurait ici matière à de nombreuses comparaisons avec les œuvres d’art au sens ordinaire du mot. Ce qui fait la beauté d’une œuvre d’art, ce n’est pas la simplicité de ses parties, c’est plutôt une sorte d’harmonie globale qui donne à l’ensemble un aspect d’unité et d’homogénéité malgré la complication parfois très grande des détails. Les monuments du style gothique ou du style arabe, par exemple, si l’on examine les finesses de leur structure, présentent souvent une extrême complexité, mais de leur ensemble se dégage une impression d’unité organisée qui fait apparaı̂tre l’œuvre entière avec ses innombrables aspects locaux comme un tout solidaire et indivisible, comme une sorte de condensation sous forme matérielle d’un seul élan de la pensée. La beauté des théorbes scientifiques nous paraı̂t essentiellement de la même nature : elle s’impose quand, dominant sans cesse les raisonnements et les calculs, se retrouve partout une même idée centrale qui unifie et vivifie tout le corps de la doctrine. Mais, dans cette question de la beauté propre aux théories, le point le plus curieux me paraı̂t être le suivant : comment peut-il se faire que la beauté ou l’élégance d’une théorie soit souvent un signe de sa valeur et de son exactitude ? Il me paraı̂t, en effet, certain que le travail du théoricien est très souvent orienté et guidé par le sentiment esthétique dont nous parlons. Certes on ne saurait prétendre qu’une belle théorie est nécessairement vraie et ce serait s’exposer à de graves mécomptes que d’adopter systématiquement un tel critérium pour juger les théories. Néanmoins nous avons une certaine tendance instinctive à admettre qu’une théorie dont la 53 beauté nous frappe a des chances d’être vraie et il semble bien que très souvent cette intuition ne soit pas trompeuse. Est-ce là une illusion de notre esprit qui involontairement projette ses propres tendances sur les explications qu’il cherche à construire des phénomènes naturels ? Ou faut-il y voir la preuve de quelque mystérieuse concordance entre notre sentiment esthétique et la nature profonde des choses justifiant l’adage philosophique que le Beau est la splendeur du Vrai ? Je ne veux point tenter de résoudre ces questions, mais je ferai à ce sujet une remarque. Toute l’œuvre de la science, tout au moins de la science théorique, de celle qui ne se borne pas à ]a simple observation des faits, mais cherche à les interpréter - repose sur le postulat suivant : « Il est possible d’obtenir des interprétations, au moins partielles, de la réalité physique en s’appuyant sur les règles de notre raison ». Or ce postulat, que l’on admet généralement sans discussion, est au fond d’une hardiesse extrême. En affirmant ainsi qu’il existe une certaine concordance entre notre raison et les choses, on s’avance peut-être presque autant qu’en admettant la valeur du sentiment esthétique comme guide sur le chemin de la vérité. Et il y a beaucoup plus de mystère qu’on ne le croit souvent dans le simple fait qu’un peu de science est possible. Mais ce serait trop s’avancer pour le physicien que je suis de se mettre à disserter sur les rapports du Vrai et du Beau sans compter que, pour compléter une trinité bien connue de la Philosophie classique, il faudrait y adjoindre le Bien et ceci risquerait vraiment de m’entraı̂ner singulièrement loin de mon sujet. Je m’arrêterai donc ici. Je ne sais si j’ai traité mon sujet comme mon lecteur eût souhaité qu’il fût traité. Si j’ai été inférieur à ma tâche, il m’en excusera en songeant que j’ai plus l’habitude de chercher des traı̂ner scientifiques que d’étudier comment on les cherche. 54 CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES Chapitre 6 Théories abstraites et représentations concrètes dans la physique moderne Depuis l’époque où, grâce aux progrès de l’Analyse mathématique, les théories de la Physique ont pu prendre la forme de doctrines mathématiques cohérentes, deux tendances se sont constamment heurtées au cours de la construction et du renouvellement de ces théories physiques. D’une part, les physiciens à esprit intuitif ont sans cesse cherché à placer à la base des théories certaines représentations concrètes construites à l’aide d’images empruntées à la connaissance que nos sens nous procurent des objets matériels dont nous sommes entourés à notre échelle dans la vie courante. C’est ainsi que les protagonistes de la théorie atomique de la matière n’ont pas hésité à se représenter les atomes, et même ensuite les électrons, comme de petites billes douées de forme, de masse, de dureté, etc. D’autre part, certains autres physiciens à l’esprit plus abstrait se sont méfiés de ce genre de représentations : ils ont pensé que l’apport essentiel d’une théorie physique satisfaisante, ce ne sont pas les images plus ou moins intuitives, souvent plus ou moins naı̈ves, qui ont pu aider les fondateurs de la théorie en faisant participer leur imagination au travail de leur raison ; ce qui est essentiel à leurs yeux, c’est l’ensemble des relations mathématiques obtenues par la théorie, relations qui permettent de relier d’une façon exacte les faits physiques observables les uns aux autres, de prévoir correctement les phénomènes qui pourront être observés à partir de ceux qui ont déjà été observés. Pour ces physiciens, le modèle parfait d’une théorie physique, c’est la thermodynamique classique où, une fois admis les deux principes de la conservation de l’énergie et de l’augmentation de l’entropie, toutes les conséquences s’en obtiennent par voie purement déductive et conduisent à d’innombrables formules susceptibles de représenter et de faire prévoir un nombre énorme de phénomènes. Si les physiciens des deux écoles que nous venons de distinguer sont prati55 56 CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE quement d’accord dans un très grand nombre de cas sur la manière d’utiliser les théories, l’opposition de leurs points de vue n’en est pas moins radicale et mérite d’être analysée. Pour les adeptes de la première école, c’est la représentation concrète placée à la base d’une théorie qui est la chose essentielle : c’est elle qui révèle le sens véritable des formules, c’est elle qui nous fait pénétrer dans la réalité physique profonde. Si des doctrines comme la Thermodynamique classique ont conservé une forme purement abstraite sans placer à leur base de représentation, c’est qu’elles n’ont pas su trouver les images qui représenteraient la véritable nature physique des phénomènes et qu’elles ont dû par suite se contenter de rester « à la surface des choses », se borner a traduire sous forme analytique les relations qui existent entre les faits observables dans leur succession. Mais la thermodynamique n’a trouvé sa véritable interprétation que le jour où les Boltzmann et les Gibbs, adoptant l’hypothèse atomique, ont pu rendre compte des lois thermodynamiques en appliquant aux éléments innombrables dont est fait tout corps matériel pondérable les lois de la Mécanique statistique. Ils nous ont appris que, si nous savions voir les mouvements des éléments matériels à très petite échelle, ces mouvements nous apparaı̂traient comme réglés par les lois rigoureuses de la Mécanique classique, mais comme nos sens grossiers nous permettent seulement de percevoir le résultat global de tous ces mouvements élémentaires, c’est en calculant le résultat statistique moyen de tous les déterminismes élémentaires que nous pouvons obtenir les lois réellement observables à notre échelle ; et en procédant ainsi, on voit, ô merveille ! se dégager de la confusion inextricable des mouvements particulaires les lois simples et générales de la Thermodynamique. Les lois thermodynamiques étaient connues, on pouvait en montrer par voie déductive la cohérence logique et vérifier l’exactitude des prévisions obtenues par le contrôle de l’expérience ; mais la véritable nature de toutes ces lois, leur origine et leur raison d’être ne sont apparues que le jour où la Mécanique statistique, jointe aux conceptions atomiques, est parvenue à montrer comment elles résultent par le jeu des lois du hasard de l’incoordination des mouvements moléculaires. Ce jour-là, le voile s’est déchiré et nous avons enfin aperçu avec soulagement la réalité physique qui se cachait derrière les formes si abstraites d’apparence de la Thermodynamique classique. Tel est, exposé sur cet exemple particulier, le point de vue des physiciens de la première école. Tout autre est celui de leurs antagonistes. Pour eux, le lien intellectuel établi sous forme de relations mathématiques entre les phénomènes observables est le seul résultat d’une théorie qui soit vraiment profond et durable. Assurément les représentations concrètes peuvent aider les chercheurs à développer leurs théories parce que l’infirmité de notre raison nous oblige souvent à passer par l’intermédiaire des images pour pouvoir nous élever ensuite jusqu’à l’abstraction pure, mais ces représentations sont ce qu’il y a d’imparfait et de transitoire dans la théorie qui, si elle 57 est vraiment bonne, doit pouvoir survivre à ces représentations, s’adapter ensuite au besoin à d’autres représentations pour finir, enfin libérée des tares de l’anthropomorphisme, par n’être plus qu’une pure forme abstraite. Comment ne pas penser ici à donner comme exemple les formes successives de la théorie ondulatoire de la Lumière ? Dans une œuvre géniale inspirée par les idées bien antérieures de Christian Huyghens et par la découverte plus récente des phénomènes d’interférences et de diffraction, Augustin Fresnel interprète la lumière comme étant une vibration qui se propage par ondes transversales dans un milieu élastique très subtil, l’éther lumineux, dont tous les corps seraient imprégnés. Puis développant ces idées, Fresnel et ses continuateurs expriment cette théorie de la lumière par des formules qui représentent et permettent de prévoir très exactement un nombre énorme de phénomènes optiques. Dès lors, remarquent les physiciens de l’école abstraite, quel que soit le sort réservé par l’avenir à l’éther lumineux de Fresnel et aux représentations concrètes qui en dérivent, les formules de la théorie ondulatoire devront subsister puisqu’elles représentent les faits : on pourra varier leur interprétation en termes de représentations concrètes, mais leur forme analytique restera immuable. Quarante ans après Fresnel, vient Maxwell qui, en effet, transforme entièrement les représentations concrètes placées par Fresnel à la base de la théorie ondulatoire de la lumière, mais sans modifier appréciablement les équations et les formules qui ont reçu la sanction définitive de l’expérience. Dans une admirable intuition, Maxwell aperçoit que l’ensemble des phénomènes lumineux doit rentrer comme un cas particulier dans le cadre général des phénomènes électromagnétiques : pour lui, la lumière est constituée par certaines perturbations électromagnétiques se propageant par ondes. C’est donc du sein même des formules générales qui représentent les phénomènes électromagnétiques qu’il faut tirer les lois régissant les phénomènes lumineux : c’est ce que fait Maxwell par des raisonnements bien connus de tous les physiciens et dignes de provoquer encore aujourd’hui toute leur admiration. Ainsi englobée dans la théorie générale des phénomènes électromagnétiques, la théorie ondulatoire de la lumière ne repose-t-elle plus, après l’IJuvre de Maxwell, sur aucune représentation concrète ? On ne peut pas encore à cette époque l’affirmer d’une façon absolue. Sans doute, peut-on dès ce moment décrire toutes les propriétés de la lumière, du moins dans le vide, en faisant uniquement appel aux formes analytiques bien connues sous le nom d’équations de Maxwell qui sont à la base de la théorie électromagnétique générale. Mais ni Maxwell, ni ses premiers continuateurs, surtout en Angleterre, ne renoncent à l’espoir de faire reposer ses formes analytiques générales sur des représentations concrètes de nature mécanique. Ils invoquent l’existence d’un éther électromagnétique dont le « champ électrique » et le « champ magnétique » traduiraient en chaque point de l’espace l’état mécanique local et bien entendu, puisque la lumière n’est plus qu’un certain phénomène électromagnétique particulier pouvant être décrit à l’aide de champs électriques et ma- 58 CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE gnétiques, l’éther lumineux de Fresnel se confond avec l’éther électromagnétique. Mais l’interprétation des équations électromagnétiques grâce à l’image mécanique de l’éther s’avère extrêmement pénible et bientôt beaucoup de physiciens en arrivent à se demander si vraiment l’on gagne quelque chose à interpréter, d’une façon qui laisse à désirer, les équations de Maxwell si simples et si claires par les propriétés mécaniques bizarres d’un éther électromagnétique à jamais inaccessible à notre expérience directe. On en arrive, notamment sous l’influence de Hertz, à prendre comme bases de la théorie électromagnétique en général et de la théorie ondulatoire de la lumière en particulier les équations de Maxwell posées a priori et indépendamment de toute représentation concrète. Cette évolution cause naturellement la plus grande joie aux physiciens de l’école abstraite, à Pierre Duhem par exemple. Pour eux, la théorie de la lumière a pris enfin sa forme définitive et durable parce qu’elle n’est plus qu’un système d’équations. S’étant dépouillée de tout élément anthropomorphique, s’étant si l’on peut dire affranchie des faiblesses de la chair, la théorie n’est plus qu’une forme intellectuelle pure dans le monde des idées et c’est là ce qui fait désormais sa force et sa pérennité. On voit combien les deux écoles sont loin l’une de l’autre. Pour la première, on n’a vraiment compris le sens profond des formules d’une théorie physique que quand une représentation concrète a permis de « comprendre » l’origine de ces formules. Pour la seconde, au contraire, une théorie n’a acquis sa forme définitive et durable que quand elle est parvenue à se libérer de toutes les représentations et à se réduire à un système d’équations. Sans prétendre trancher une telle controverse, nous allons chercher maintenant à examiner quelques arguments que l’on peut donner en faveur de l’une ou de l’autre opinion. ∴ L’antagonisme entre les partisans des théories à représentations concrètes et ceux des théories abstraites si bien mis en lumière, il y a un demi-siècle, par la querelle des atomistes et des énergétistes est évidemment en relation avec les tendances réalistes ou idéalistes (au sens philosophique de ces mots) des uns ou des autres. Mais c’est là un aspect de la question que, n’étant pas philosophe, nous voulons laisser de côté. Nous nous bornerons à envisager ce débat sous l’angle de la Physique elle-même. Quand on y réfléchit, il apparaı̂t presque évident qu’en principe les partisans des théories abstraites ont raison. Qu’est-ce, en effet, que ces représentations concrètes que leurs adversaires veulent mettre à la base de nos conceptions physiques ? Ce sont des images extraites de notre perception du monde qui nous entoure. C’est 59 ainsi, nous l’avons déjà dit, que les physiciens intuitifs ont eu tendance à se représenter les atomes, puis les électrons comme de petits corps matériels, de petites billes, dont l’image est obtenue par une sorte de réduction homothétique des objets analogues que nos sens nous permettent de percevoir. A ces objets projetés par notre imagination dans le monde atomique, nous attribuons instinctivement les propriétés de forme, d’inertie, d’impénétrabilité, etc. qui définissent les objets homologues dans le monde de notre sensation. Evidemment le physicien le plus intuitif sentira bien qu’il ne faut pas aller trop loin dans cette voie et qu’il serait ridicule de parler de la couleur ou de l’odeur d’un électron. L’image d’un corpuscule sera donc finalement obtenue par un processus d’abstraction et de schématisation à partir de celle que nos sens nous fournissent d’un petit objet. Mais qui ne sent, en y réfléchissant avec sincérité, que mettre à la base de nos représentations physiques des éléments de la matière des images obtenues de cette façon est en réalité un procédé insoutenable ? Ce sont les petits objets matériels que nous percevons autour de nous qui sont formés d’un nombre énorme d’atomes et d’électrons et cette remarque à elle seule suffit à nous interdire de nous représenter atomes et électrons comme analogue à de tels petits objets. C’est l’élémentaire qui doit servir à expliquer le complexe et non l’inverse : les propriétés des entités élémentaires de la matière peuvent nous permettre d’expliquer les propriétés de forme, d’inertie, d’impénétrabilité des billes matérielles, mais il est illusoire de supposer que les propriétés des billes puissent être attribuées aux entités élémentaires. Pour interpréter les propriétés de la matière, nous devons descendre à des échelles si petites que les perceptions de nos sens correspondant à des phénomènes d’une échelle infiniment supérieure n’ont plus dans ce domaine aucune valeur, ni aucune possibilité d’application. Les représentations concrètes des physiciens intuitifs et ides premiers pionniers de l’atomisme paraissent donc être purement fictives. S’il en est ainsi, comment pourrons-nous encore progresser dans l’étude des domaines de la Physique où les images fournies par nos sens n’ont plus de valeur réelle ? Ce sera en admettant d’abord dans nos raisonnements, en vérifiant ensuite par l’expérience, qu’il existe entre les phénomènes observables des relations susceptibles d’être exprimées dans la langue précise des mathématiques et d’être rattachées les unes aux autres au sein de théories cohérentes. C’est bien là, nous l’avons vu, le point de vue des physiciens de l’école abstraite dont l’opinion apparaı̂t ainsi comme entièrement justifiée. Mais, si en principe le point de vue abstrait des énergétistes et de leurs successeurs apparaı̂t comme le seul qui résiste à la critique, il n’en est pas moins vrai que les représentations concrètes ont joué un rôle des plus utiles dans le développement des théories physiques ; sans elles, le progrès de ces théories aurait été dans beaucoup de cas considérablement ralenti, si ce n’est définitivement entravé. Qu’il nous suffise de rappeler encore le prodigieux éclaircissement des conceptions 60 CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE de la Thermodynamique grâce à l’introduction des hypothèses moléculaires et à l’application de la Mécanique statistique aux particules élémentaires. Mais alors comment se peut-il que des représentations concrètes dont le caractère fallacieux est certain puissent rendre de tels services ? Il faut bien que ces représentations concrètes contiennent quelque part de vérité. Pour aborder cette question, il faut se représenter le mouvement de l’esprit du physicien qui, partant nécessairement des phénomènes perceptibles à nos sens et des données fournies par l’observation du monde à notre échelle cherche à pénétrer dans les mystères des domaines à échelle infiniment plus petite du monde atomique. Nécessairement l’esprit du physicien cherche à extrapoler dans les domaines microscopiques les notions et les conceptions du monde macroscopique que lui fait connaı̂tre l’expérience vécue. Pour expliquer le succès au moins passager des représentations concrètes, il faut admettre que certaines de ces notions et de ces conceptions restent, au moins pendant un certain temps, valables. Et, en employant les mots « pendant un certain temps », nous voulons dire qu’en prolongeant ce travail d’extrapolation vers des échelles de plus en plus fines on doit s’attendre à voir toutes nos conceptions extraites de l’expérience macroscopique devenir, les unes après les autres, de plus en plus inadéquates à la représentation des faits physiques : nous verrons plus loin qu’il paraı̂t bien en être ainsi. Mais dans les premiers stades du processus d’extrapolation progressive que nous envisageons, les images tirées de notre perception macroscopique pourront encore nous rendre d’appréciables services. Cependant c’est seulement en les envisageant sous leurs aspects les plus abstraits et les plus « décolorés » que nous pourrons encore les employer utilement. Ainsi, si nous partons de l’image d’une bille matérielle pour nous représenter les propriétés de l’atome, nous devons tout de suite dans l’image de la bille laisser tomber toute idée de couleur, d’odeur, etc. . . et dans une large mesure les idées de forme, de dureté, etc... Les aspects de la notion de bille que nous pourrons conserver utilement, ce sont, avons-nous déjà -dit, les plus abstraits et les plus décolorés : c’est l’idée d’une unité physique insécable (du moins en première approximation) occupant un très petit domaine de l’espace, c’est l’idée d’un point matériel doué de masse décrivant dans l’espace au cours du temps une trajectoire linéaire. Voilà sous quelle forme abstraite et schématisée l’assimilation d’un atome à une bille a pu rendre de réels services à la théorie physique. Quand les atomistes nous disent que des expériences comme celles de M. Jean Perrin, ont apporté une preuve directe de l’existence des atomes, que veulent-ils dire par là ? Bien entendu ils ne veulent pas dire qu’on a pu voir ou toucher les atomes, les compter un par un comme nous compterions des haricots ou les peser comme on pèse un objet en le plaçant sur le plateau d’une balance. Ils veulent dire que des expériences nombreuses et concordantes ont conduit à attribuer au nombre des atomes contenus par exemple dans un centimètre cube d’un gaz dans les conditions normales de température et de pression une valeur 61 bien déterminée et toujours la même ; ils veulent dire qu’on a pu en partant de ces expériences calculer pour la masse d’un atome d’espèce définie (d’un atome d’hydrogène par exemple) une valeur bien déterminée et toujours la même. Et ceci prouve que les atomes possèdent bien, du moins en première approximation, le caractère d’unités matérielles insécables et qu’il est licite, à cette approximation, de les assimiler à des points matériels doués de masse déterminée. De même, quand les atomistes nous disent que les admirables succès de la théorie cinétique dans l’interprétation des propriétés thermodynamiques des gaz, prouvent l’exactitude de l’hypothèse atomique, qu’est-ce que cela signifie au juste ? Cela signifie qu’en assimilant les atomes ou molécules à des points matériels doués de masse et obéissant aux lois de la Mécanique classique, on parvient à retrouver par voie déductive les lois de la Thermodynamique comme représentant les propriétés globales d’ensembles formés par un nombre immense de telles unités physiques. Ainsi, dans toutes ces vérifications de l’hypothèse atomique, on part de l’assimilation de l’atome à une certaine image fournie par notre intuition sensible, l’image de la bille, et l’on vérifie par l’expérience que certaines des conséquences que ce modèle permet de prévoir sont effectivement exactes. Ces conséquences sont celles qu’on obtient en ne conservant de l’image que certains aspects, les plus abstraits et les plus décolorés. L’extrapolation des images fournies par notre perception du monde macroscopique dans l’interprétation des phénomènes atomiques réussit sans aucun doute mais c’est à condition que cette extrapolation ne prudente et garde un caractère très schématique. Les progrès de la Physique atomique ont amené les physiciens à ne plus se contenter de considérer l’atome comme une unité insécable, mais à se préoccuper de sa constitution interne et à le considérer comme un système complexe formé d’éléments plus petits tels que les électrons. On a ainsi poussé l’analyse de la matière beaucoup plus profondément, passant de l’échelle atomique déjà prodigieusement petite par rapport à ce que nous pouvons directement percevoir à une échelle intra-atomique encore beaucoup plus petite. On ne s’est pas même arrêté à ce stade : tandis que la Physique intra-atomique considère le centre de l’atome, le noyau de l’atome, comme une sorte d’unité impossible à analyser, la Physique nucléaire va plus loin et s’attaque aujourd’hui au problème de la constitution du noyau poursuivant ainsi une description encore plus fine des entrailles de la matière. Ce que nous avons dit plus haut au sujet de l’extrapolation jusqu’à l’échelle atomique des représentations concrètes suggérées par notre perception du monde macroscopique, nous permet de pressentir que ces extrapolations deviendront de plus en plus hasardeuses et incertaines au fur et à mesure que, descendant l’échelle des grandeurs, nous voudrons pénétrer dans des domaines de plus en plus petits. Certains aspects de ces représentations, tels par exemple que la conception de la trajectoire d’une particule par exemple ou celle de sa vitesse, qui étaient encore uti- 62 CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE lisables et nous rendaient de grands services en théorie cinétique des gaz à l’échelle de l’agitation moléculaire, cessent complètement d’être applicables et risquent de nous fourvoyer entièrement à l’échelle des phénomènes atomiques. C’est ce qu’une rapide étude du développement de la Physique quantique va maintenant nous montrer. ∴ Quand les physiciens ont voulu obtenir des théories de la structure interne de l’atome, ils ont tout naturellement cherché à prolonger dans ce domaine les représentations concrètes qui avaient réussi et démontré leur utilité aux échelles supérieures. Ne pouvant plus, pour analyser l’intérieur de l’atome, attribuer à l’atome tout entier le caractère d’une particule insécable, les physiciens ont attribué ce caractère aux électrons contenus dans l’atome et, au moins provisoirement, au noyau centre de l’atome et siège de son individualité. Après quelques tâtonnements, ils sont arrivés à assigner à l’atome une structure analogue à celle du système solaire, le noyau central jouant le rôle de soleil tandis que les électrons périphériques tournent autour de ce sous l’influence de la force de Coulomb et sont en quelque sorte ses planètes. On sait le succès de ce « modèle planétaire » de l’atome. Appliquant aux mouvements des électrons atomiques les lois de la Mécanique classique complétées par certaines règles de quantification suggérées par la théorie des quanta de Planck, M. Bohr est parvenu à rendre compte des lois de la spectroscopie en reliant l’émission des raies spectrales aux modifications de la structure interne des atomes et à rattacher entre elles par des liens jusqu’alors insoupçonnés une foule de propriétés des systèmes atomiques. La carrière triomphale de ce« modèle planétaire » de Rutherford-Bohr semblait alors bien prou ver que, même à l’intérieur des atomes, les images concrètes préconisées par atomistes allaient encore trouver un vaste champ d’application. Sans doute, ce n’était plus l’atome dans son ensemble qu’il fallait ici assimiler à une bille, mais bien les corpuscule élémentaires constituants de l’atome, c’est-à-dire les électrons, mais les conceptions fondamentales de l’atomisme qui avaient si brillamment réussi à l’échelle des atomes eux-mêmes, par exemple en théorie cinétique, paraissaient conserver toute leur valeur une fois convenablement transposées à l’échelle plus finie des phénomènes intra-atomiques. Cette illusion fut de courte durée et M. Bohr paraı̂t lui-même ne l’avoir jamais partagée, car il paraı̂t avoir aperçu dès le début combien il était difficile de prendre « au pied de la lettre » le modèle planétaire dont il avait fait la fortune. L’origine de l’évolution d’idées dont il nous faut maintenant parler a été l’introduction nécessaire des quanta dans l’interprétation des phénomènes atomiques. Le modèle planétaire de l’atome imaginé par Rutherford n’a pu être mis en valeur par 63 M. Bohr qu’en imposant aux mouvements des électrons dans l’atome des conditions quantiques inspirées par les travaux célèbres de Planck sur le rayonnement noir. Or l’introduction de ces conditions quantiques conduit à des notions nouvelles d’états stationnaires de l’atome, de transitions brusques subies par l’atome d’un état stationnaire vers un autre, etc., qui sont (c’est là le point que M. Bohr a tout de suite très bien vu) tout à fait inconciliables avec les représentations concrètes dans le cadre de l’espace et du temps qu’avaient toujours jusque-là utilisées sans aucune hésitation les promoteurs de la Physique théorique. Dès lors, il devenait probable que la théorie des Quanta en se développant et en cherchant à se constituer en doctrine cohérente, allait nécessairement bouleverser un grand nombre des conceptions les plus classiques de la Physique. C’est bien ce qui s’est produit. Les formes perfectionnées de se théorie des Quanta , c’est-à-dire ces nouvelles Mécaniques qu’on nomme Mécanique quantique ou Mécanique ondulatoire, ont montré la nécessité d’une révision complète de toutes les notions fondamentales sur lesquelles reposaient implicitement toutes les théories anciennes. Impossibilité de connaı̂tre à la fois la position et la vitesse d’une particule et, comme conséquence, impossibilité d’attribuer une trajectoire à la particule et de suivre le déterminisme de son mouvement, tels sont les étonnants résultats de la critique à laquelle s’est livrée la théorie quantique contemporaine, résultats qu’il n’est plus guère possible de mettre en doute. Les électrons dans l’atome ne doivent plus être imaginés comme des points matériels décrivant d’une façon continue des trajectoires linéaires, ainsi qu’avait tenté de le faire la théorie primitive de Bohr : il faut les considérer comme pouvant manifester leur présence dans toute l’étendue de l’atome, la répartition de cette présence potentielle étant donnée par une certaine « fonction d’onde » dont le calcul peut se faire rigoureusement, mais dont le caractère est singulièrement abstrait puisque c’est une fonction « complexe » au sens que les mathématiciens donnent à cette expression. La nouvelle théorie de l’atome, et plus généralement la Mécanique quantique dans son ensemble, est donc de nature à dérouter complètement les physiciens de l’école concrète à qui la forme primitive de la théorie de Bohr pouvait paraı̂tre donner tant de satisfactions et d’espérances. Par contre, il ne déçoit aucunement l’attente des physiciens de l’école abstraite, car elle permet de relier les uns aux autres par des algorithmes précis les phénomènes observables. Sans doute, et c’est là un point important, une connaissance aussi complète que possible des phénomènes observables à un instant donné ne conduitelle plus en général à une prévision rigoureuse des phénomènes subséquents : elle permet seulement d’énumérer les phénomènes qui pourront être observés et d’indiquer les probabilités respectives de ces diverses hypothèses. Par là, le lien que les théories nouvelles peuvent établir entre les phénomènes observables est plus lâche que ne l’imaginaient antérieurement les physiciens de l’école abstraite habitués au déterminisme de la Physique classique. Mais qu’importe pour eux ! L’essentiel à 64 CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE leurs yeux est d’établir des liens entre les phénomènes successivement observables à l’aide de formules déduites de théories logiquement cohérentes et à ce point de vue les théories quantiques contemporaines peuvent leur donner toute satisfaction. Si l’on prend la théorie de l’atome dans son état actuel correctement exposée, qu’y reste-t-il des intuitions primitives des atomistes qui cherchaient à déduire toutes les propriétés de la matière à partir des mouvements d’éléments quasiponctuels, plus ou moins assimilables à des billes ? Il en reste peu de chose : assurément les électrons sont encore considérés comme des constituants élémentaires de l’atome, susceptibles à l’occasion de se manifester comme des unités physiques localisées ; mais la description qui nous est fournie des électrons et de leurs mouvements par, la Mécanique ondulatoire et par la théorie de l’atome dans son état actuel ne répond plus du tout à l’image simpliste de la bille ; elle ne correspond même plus à aucune représentation concrète imaginable si l’on entend par là une représentation obtenue par extrapolation à partir des données de notre intuition sensible. On sent qu’on a dépassé la limite au delà de laquelle tout extrapolation de ce genre devient illusoire et ceci, bien entendu, sera encore plus vrai quand on abordera l’étude des domaines encore beaucoup plus petits qui font l’objet de la Physique du Noyau. Ainsi, aujourd’hui, si l’on se place à un point de vue rigoureux, il nŠest plus question d’admettre un modèle planétaire de l’atome obtenu pour ainsi dire grâce, à une réduction homothétique des systèmes planétaires de l’astronomie et aucun modèle du même genre ne peut plus et ne pourra sans aucun doute plus à l’avenir représenter les propriétés des électrons dans l’atome. Aujourd’hui, comme l’a dit M. Goudsmit, l’atome des physiciens théoriciens n’est plus qu’un système d’équations et c’est bien là un triomphe total pour l’école abstraite dont la méfiance à l’égard des représentations concrètes se trouve justifiée. Dans ces conditions, on peut se demander (si étrange que le libellé de cette question puisse paraı̂tre) dans quelle mesure la Physique atomique contemporaine a réellement confirmé les idées des partisans de l’Atomisme. Il est certain qu’à l’heure actuelle les particules élémentaires de la matière ne peuvent plus être caractérisées par presque aucune des propriétés dont les douaient les conceptions un peu simplistes des Philosophes de l’Antiquité ou même les conceptions plus raffinées des physiciens qui au début de notre siècle reprenaient avec tant de succès la défense de l’hypothèse atomique et la vérification de ses conséquences. De toutes les propriétés intuitives attribuées il y a une trentaine d’années aux particules élémentaires, il ne reste plus guère d’intact aujourd’hui que leur caractère d’unités physiques permanentes dont le nombre reste constant au cours du temps : même la possibilité de les discerner constamment les unes des autres et de suivre leur individualité au cours du temps a, on le sait, disparu. Et encore, dans ses théories récentes qui jouent notamment un grand rôle en Physique du noyau, a-t-on dû abandonner l’idée de la constance du nombre des particules élémentaires et 65 admettre que ces particules peuvent apparaı̂tre et disparaı̂tre. Par là, une des dernières conceptions de l’Atomisme qui fut encore debout, celle de la permanence des particules élémentaires, se trouve atteinte à son tour et le contenu de l’hypothèse atomique tend à se réduire à cette simple affirmation arithmétique : le nombre des particules élémentaires d’une espèce déterminée, qui peut être variable, est toujours entier. En toute rigueur, c’est à peu près là tout ce qu’on peut conserver aujourd’hui de l’hypothèse qui, à la suite de Démocrite et de Lucrèce, parut si séduisante à tant de savants modernes. Néanmoins, ce serait fort injuste que de ne pas reconnaı̂tre combien l’hypothèse atomique a été fructueuse en Physique depuis un siècle et à quel point elle a servi de guide aux recherches. A l’échelle des molécules et des atomes où nos représentations concrètes sont encore partiellement valables, les conceptions des atomistes ont orienté tous nos efforts et fourni les cadres des représentations sans lesquelles nous n’aurions pu progresser. Maintenant encore, les théories quantiques actuelles, malgré leur tendance abstraite, admettent ces cadres de façon plus ou moins avouée et utilisent les débris de conceptions dont elles nient par ailleurs l’exactitude. Quand on fait en Mécanique ondulatoire la théorie de l’atome, on commence par rappeler le modèle planétaire de Bohr et c’est à l’aide de cette image qu’on forme l’équation de propagation pour l’onde ψ de l’électron dans l’atome ; cette équation obtenue, il est loisible de se placer au point de vue abstrait, de prendre cette équation pour base et de réduire toute la théorie de l’atome à un système de formules. Mais aurait-on même pu poser le problème si l’on n’avait pas été guidé par le modèle planétaire ? Il est certain que nos représentations concrètes deviennent de plus en plus inexactes au fur et à mesure que nous voulons analyser les phénomènes à une échelle de plus en plus fine. Mais combien ces représentations dans ce qu’elles ont encore d’admissible nous sont utiles ! On peut même se demander ce qui arriverait si, en prolongeant l’étude de l’infiniment petit, nous arrivions à des domaines où nos représentations concrètes habituelles n’auraient plus absolument aucun sens. Pourrions-nous continuer à progresser ? Cela me paraı̂t douteux car, en somme, nous ne pouvons penser qu’à l’aide d’images extraites de notre intuition sensible. Sans doute le raisonnement abstrait nous permet, par schématisation et par généralisation, d’aller au delà de cette intuition, mais nous permet-il de nous en affranchir complètement ? En résumé, les physiciens de l’école abstraite qui rejettent les représentations concrètes et voient dans les formules reliant les phénomènes l’essentiel des théories paraissent bien, en principe, avoir raison et le développement des théories quantiques contemporaines apporte une très forte confirmation de leurs vues. Mais il n’en est pas moins vrai que les représentations concrètes, notamment celle des théories atomiques, ont rendu de très grands services et que sans elles le progrès de la Physique contemporaine aurait été considérablement entravé. Extrapolant 66 CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE hardiment les données de notre expérience sensible dans des domaines où cette extrapolation n’est sûrement pas strictement valable mais où néanmoins elle n’est pas encore entièrement dépourvue de sens, elles ont ouvert les voies où la pensée abstraite, plus dégagée des contingences, a pu s’engager à fond et dépasser de beaucoup les représentations qui lui avaient servi de bases de dé part. En résumant ainsi les phases de cette évolution, il est possible de rendre justice à la fois aux « abstraits » qui dans la controverse ont sans doute raison et aux « intuitifs » sans lesquels le progrès eût été souvent difficile et parfois impossible. Troisième partie LES GRAINS ET LES CHAMPS EN PHYSIQUE QUANTIQUE 67 Chapitre 7 Individualité et intéraction dans le monde physique Moins apte sans doute à bien concevoir le continu et le fluent que le discontinu et le permanent, l’esprit humain paraı̂t avoir toujours éprouvé une certaine satisfaction chaque fois qu’il lui a été possible, en étudiant les phénomènes de la nature, d’y discerner des entités élémentaires présentant des caractères permanents et d’interpréter l’évolution du monde physique par les mouvements et les interactions de ces entités élémentaires. C’est cette tendance naturelle de notre esprit qui a poussé les fondateurs de la Mécanique classique à poser à la base de cette science l’idée de « point matériel », c’est-à-dire l’idée d’une certaine quantité de matière occupant une très petite région de l’espace, douée d’une masse invariable et possédant une individualité que l’on peut suivre au cours du temps. Mais en Mécanique classique le point matériel n’est qu’un être de raison et il restait douteux qu’il y eut dans la nature des entités élémentaires offrant une sorte de réalisation concrète et permanente du point materiel. Or, s’accordant ainsi avec nos désirs secrets, la matière s’est ensuite révélée progressivement à nous comme formée par un petit nombre de genres différents de corpuscules élémentaires tels que les électrons et les protons (auxquels nous avons dû récemment ajouter les neutrons et les positons pour ne point parler des mésotons et des encore hypothétiques neutrinos). Ces corpuscules élémentaires sont caractérisés par des valeurs permanentes de leur masse et de leur charge électrique et ont paru constituer de véritables individus physiques dont l’existence pouvait être suivie au cours des transformations incessantes du monde matériel. Mais le développement des théories quantiques, appuyé sur d’incontestables preuves expérimentales, est venu ensuite nous obliger, comme pour tant d’autres conceptions de la Physique, à un nouvel examen et il nous a conduit finalement à atténuer d’une façon curieuse ce que cette notion avait de trop absolu. Exposer comment se présente aujourd’hui cette très intéressante question, par certains côtés encore bien obscure, de l’individualité des particules en physique 69 70 CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION quantique, tel est le but essentiel que nous nous proposons dans cette étude. Mais avant d’aborder le fond même de notre sujet, il est utile, pensons-nous, d’examiner sur quelles bases reposait dans les anciennes théories mécaniques et physiques la possibilité d’attribuer une individualité persistante aux particules élémentaires et de nous demander si déjà cette possibilité ne s’y heurtait pas à certaines difficultés plus ou moins méconnues. ∴ Dans les théories classiques, préquantiques comme on dit souvent maintenant, on ne mettait pas un instant en doute la possibilité de localiser exactement les objets physiques dans le cadre de l’espace et du temps. On ne doutait pas non plus de l’impossibilité pour deux éléments matériels différents d’occuper simultanément la même place dans l’espace, impossibilité qui résultait, disait-on, de l’impénétrabilité de la matière. Enfin on supposait toujours la permanence au cours du temps des entités physiques élémentaires et la constance de leurs propriétès, hypothèses que l’expérience confirmait. Il est alors faicile de comprendre pourquoi la Physique préquantique parvenait aisément à attribuer une individualité permanente aux corpuscules élémentaires. Tout d’abord, il était évidemment aisé de distinguer deux corpuscules de nature différente puisque, constamment caractérisés par des valeurs différentes de leur masse ou de leur charge électrique, ils possédaient toujours des propriétés permettant de les identifier. Mais il devenait déjà un peu plus délicat de distinguer constamment des corpuscules de même nature car, si l’on observe, par exemple, un système de deux corpuscules de même nature à des instants différents t1 et t2 séparés par un intervalle de temps fini, on doit évidemment trouver au temps t1 deux corpuscules occupant des positions A1 et B1 , puis au temps t2 deux corpuscules occupant des positions A2 et B2 , mais il est impossible de dire si c’est le corpuscule primitivement en A1 qui est venu en A2 et le corpuscule primitivement en B1 , qui est venu en B2 ou si, au contraire, le premier corpuscule s’est rendu de A1 en B2 et le second de B1 en A1 . Toutefois cette difficulté ne paraissait pas bien sérieuse avec les conceptions classiques puisque, d’après ces conceptions, rien n’empêche de suivre d’une façon continue la marche de deux corpuscules entre les instants t1 et t2 et alors on verra bien si le premier corpuscule s’est rendu de A1 en A2 ou en B2 . Il ne pourrait y avoir encore doute que si les deux corpuscules à un instant t intermédiaire entre t1 et t2 se trouvaient passer ensemble au même point de l’espace, mais l’impénétrabilité de la matière nous permettait, pensait-on, d’écarter une telle hypothèse. De cette analyse, il résulte en définitive que l’attribution aux particules matérielles d’une individualité permanente et contrôlable semblait rendue légitime, à l’époque de la Physique classique, par la possibilité de 71 suivre d’une manière précise et continue les localisations successives dans l’espace de la particule au cour du temps, car personne ne mettait alors en doute cette possibilité. Cependant un examen critique des développements de l’ancienne Mécanique, sur lesquels reposaient les théories physiques, laisse apercevoir que l’individualité des points matériels n’y est pas aussi complète qu’on pouvait le penser tout d’abord. Une remarque que l’on peut faire à ce sujet, c’est que le caractère d’unité discontinue attribué par les anciennes conceptions aux points matériels physiques, aux corpuscules, est au fond plus apparent que réel. En Mécanique classique, le mouvement d’un point matériel est, en effet déterminé par le champ de force qui l’entoure dont le point matériel se trouve ainsi en quelque sorte solidaire. La forme même du principe de moindre action nous montre que la trajectoire d’un corpuscule dépend en réalité du champ de force dans tout le voisinage immédiat de cette courbe. La trajectoire résulte, peut-on dire, d’une sorte d’exploration du champ dans la région de l’espace où le mouvement s’opère. Cette remarque prend un sens plus net quand on l’envisage du point de vue actuel de la Mécanique ondulatoire où le principe de moindre action apparaı̂t comme une traduction du principe de Fermat appliqué à l’onde associée au corpuscule car, du point de vue ondulatoire, le principe de Fermat résulte lui-même de ce que les ondes explorent l’espace tout autour du rayon lumineux. Le fait que le point matériel est ainsi solidaire du champ dont il subit l’action, nous fait donc déjà pressentir, même dans le cadre classique, la nécessité de ne pas considérer comme trop absolue l’autonomie individuelle des corpuscules. C’est ce que nous allons mieux voir encore en examinant les concepts si fondamentaux et si mystérieux d’interaction et d’énergie potentielle. C’est qu’en effet, une entité physique élémentaire qui posséderait l’autonomie individuelle dans toute sa plénitude serait nécessairement indépendante de tout le reste de l’univers Physique : petit monde fermé, elle ne subirait aucune action et ne pourrait en exercer aucune. Pour pouvoir expliquer les phénomènes à l’aide d’entités élémentaires, il est donc nécessaire d’admettre qu’elles exercent entre elles des interactions : dès lors, ces entités, étant en quelque mesure solidaires les unes des autres, ne seront plus aussi autonomes qu’on l’avait admis au début et leur individualité s’en trouvera quelque peu atténuée. On conçoit alors combien intéressante du point de vue philosophique est la notion d’interaction parce qu’elle implique une certaine limitation du concept d’individualité physique. Or, pour traduire l’existence de l’interaction, la Physique classique, guidée par la Mécanique rationnelle, a introduit l’idée d’énergie potentielle. Très claire au point de vue mathématique, cette idée reste physiquement assez mystérieuse. Afin de mettre en évidence un de ses caractères les plus profonds, envisageons un ensemble de corpuscules en interaction que nous supposerons isolé du reste du monde. Voici ce que nous apprend à son sujet l’emploi de la notion d’énergie potentielle : tandis 72 CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION qu’il est toujours possible d’attribuer aux divers corpuscules du système une énergie cinétique et une quantité de mouvement individuelles bien définies, l’énergie potentielle ne peut pas être répartie entre les constituants du système : elle appartient à l’ensemble du système et est comme mise en commun par ses constituants. Cette circonstance achève de prendre toute son importance si l’on se placee au point de vue de la théorie de la Relativité. Il existe, en effet, dans cette théorie une proposition aujourd’hui célèbre sous le nom de « principe de l’inertie de l’énergie » suivant laquelle il y a toujours proportionnalité entre la masse totale d’un système et son énergie. Il en résulte que la masse totale d’un ensemble de corpuscules n’est pas en général égale à la somme des masses qu’on peut attribuer individuellement à chaque corpuscule, mais qu’elle contient eu outre une contribution (positive ou négative) apportée par l’énergie potentielle d’interaction mutuelle des divers corpuscules : il n’est donc pas possible de répartir, d’une manière non arbitraire, la masse totale d’un système entre ses divers constituants, dès l’instant où il existe entre eux des interactions. Cette conséquence est très importante car on est habitué à considérer la masse comme la caractéristique essentielle du point matériel, comme l’attribut propre de son individualité. Naturellement, dans beaucoup de cas usuels, l’énergie potentielle d’un ensemble de corpuscules est beaucoup plus petite que les énergies individuelles de chacun d’eux et alors la notion de masse subsiste très approximativement pour chaque constituant. Mais pour des interactions extrêmement intenses, la notion de masse individuelle doit perdre sans doute toute valeur. D’où cette conclusion que l’individualité des corpuscules élémentaires est d’autant plus atténuée qu’ils sont davantage engagés dans les liens de l’interaction. Comme, d’une part, il n’y a pas de corpuscule entièrement isolé et comme, d’autre part, la liaison des corpuscules dans un système n’est pratiquement jamais assez complète pour ne pas laisser subsister quelque trace de leur individualité, on voit que la réalité paraı̂t eu général intermédiaire entre le concept d’individualité entièrement autonome et celui de système totalement fondu. Il serait d’ailleurs aisé de rattacher cette conclusion à des vues générales sur le rapport des idéalisations abstraites et des réalités physiques. Ainsi la Physique classique elle-même, complétée par des considérations de Relativité, nous indique que l’idée de corpuscule doué d’individualité et bien localisé est toujours atténuée par l’existence des interactions et doit même à la limite disparaı̂tre complètement dans le cas des liaisons extrêmement intenses : nous venons de le voir en ce qui concerne la masse, mais il paraı̂t certain que, dans un système où les constituants seraient si énergiquement liés qu’on ne pourrait plus leur attribuer de masses individuelles, il serait aussi impossible de leur attribuer une position, leur énergie se trouvant pour ainsi dire diluée dans l’espace occupé par le système entièrement fondu. La Mécanique ancienne, Newtonienne ou Einsteinienne, ne s’occupe pas de ces cas extrêmes : elle n’envisage que des systèmes où l’énergie 73 potentielle n’est qu’une fraction de l’énergie totale (compte tenu des énergies internes de masse) et alors on peut très approximativement raisonner comme si les corpuscules conservaient une masse, une localisation et par suite une individualité bien définies. Mais si l’on y réfléchit, on voit que, sous la simplicité apparente de la Mécanique classique des systèmes de points matériels, se cachent de graves problèmes au sujet de ce que nous nommons ń interaction » et de la manière dont l’interaction se concilie avec l’individualité. L’on soupçonne déjà qu’individualité et interaction sont au nombre de ces « faces complémentaires de la réalité » que M. Bohr a été amené à considérer dans son interprétation des théories quantiques, faces complémentaires qui, en un certain sens, se complètent en s’opposant. On comprend aussi que la notion d’énergie potentielle, dont l’aspect mystérieux a souvent paru l’un des scandales de la Physique, traduit en réalité sous une forme profonde, bien que peut-être maladroite, la coexistence et la limitation réciproque de l’individualité et de l’interaction dans le monde physique. ∴ Si maintenant, quittant le terrain de la Physique préquantique et des Mécaniques anciennes, nous passons à la Physique quantique et à la Mécanique ondulatoire, la question de l’individualité des particules élémentaires va nous y apparaitre comme soulevant des problèmes plus difficiles encore et se rattachant à des phénomènes tout à fait inattendus. Même quand elle se borne à considérer le mouvement d’un seul corpuscule, la Mécanique ondulatoire a été amenée à introduire des idées tout à fait nouvelles. Elle considère, en effet, qu’on ne peut plus en général assigner à un corpuscule une position bien déterminée dans l’espace à chaque instant. Mis à part quelques cas exceptionnels de probabilité évanouissante, il existe pour la nouvelle Mécanique toute une région étendue de l’espace où le corpuscule peut se trouver, c’est-àdire où il peut manifester sa présence par une action locale à l’instant considéré. Cette région de l’espace est celle où l’onde, que les conceptions de la Mécanique ondulatoire associe au corpuscule, a une amplitude différente de zéro. La localisation imparfaite des corpuscules à chaque instant ne permet plus de leur attribuer constamment une vitesse bien définie, ni par suite une énergie et une quantité de mouvement bien déterminées par les formules classiques qui relient ces grandeurs à la vitesse. Elle s’oppose aussi à ce que l’on puisse représenter par une trajectoire, c’est-à-dire par une courbe continue, la suite des positions d’un corpuscule au cours du temps. Le déterminisme des mouvements, tel qu’il était conçu en Mécanique classique, s’en trouve diminué et les incertitudes d’Heisenberg, où la constante de Planck joue un rôle essentiel, en marquent en quelque sorte les limites. 74 CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION L’impossibilité de localiser constamment avec exactitude les entités physiques élémentaires entraı̂ne des conséquences très graves quand on veut, en Mécanique ondulatoire, traiter le cas d’un système de corpuscules en interaction. En effet, en Mécanique rationnelle classique, on pouvait considérer à chaque instant la figure formée par l’ensemble des points matériels d’un système et exprimer le mouvement de ces points en tenant compte des interactions, par hypothèse fonctions de leurs distances, qu’ils exerçaient entre eux. En Mécanique ondulatoire les choses se présentent beaucoup moins simplement parce que l’on ne peut plus parler de la figure géométrique formée à chaque instant par l’ensemble des corpuscules du système, ces corpuscules ayant une certaine probabilité non nulle de localisation dans toute une région étendue de l’espace. Il est dès lors impossible de considérer le mouvement instantané de l’un des corpuscules sous l’action des forces émanant des autres. Comment d’ailleurs pourrait-on exprimer les forces d’interaction par des fonctions des distances entre les corpuscules puisque ces corpuscules ne sont pas localisés ? La mécanique ondulatoire est néanmoins parvenue à surmonter ces difficultés et à traiter, d’une manière qui donne des résultats entièrement satisfaisants en pratique, les problèmes concernant les systèmes de corpuscules en interaction. Mais, pour le faire, elle a dû employer une méthode assez étrange dont le véritable sens ne nous paraı̂t pas encore aujourd’hui bien éclairci : elle associe au mouvement du système entier la propagation d’une onde dans un espace abstrait, dit « espace de configuration » dont le nombre de dimensions est égal à celui des degrés de liberté du système, c’est-à-dire par exemple à 3 N pour un système formé de N corpuscules susceptibles de se mouvoir librement. Cet espace de configuration, dont le nombre de dimensions généralement supérieur à 3 varie avec le nombre des constituants du système, est visiblement une conception abstraite et il est assez surprenant qu’il forme le cadre nécessaire de notre représentation physique du système. Il n’est cependant pas douteux que les méthodes de la Mécanique ondulatoire des systèmes réussissent et conduisent pratiquement à des prévisions exactes. Sans vouloir discuter ici dans toute son ampleur la question de l’emploi de l’espace de configuration en Mécanique ondulatoire des systèmes, nous devons cependant faire une remarque : cet emploi n’est rendu véritablement inévitable que par l’existence de l’interaction. Considérons, en effet, un ensemble de N corpuscules qui n’exercent entre eux aucune interaction. On peut évidemment, en les envisageant tous à la fois, les considérer comme formant un système mécanique et nous devons alors étudier l’onde de ce système dans son espace de configuration. Mais les corpuscules étant sans actions mutuelles et par suite s’ignorant si l’on peut dire, les uns les autres, il nous est aussi certainement loisible de les considérer isolément et alors nous devrons étudier les ondes individuelles de chaque corpuscule dans l’espace ordinaire. Les deux manières de traiter le problème devant évidemment 75 conduire aux mêmes résultats il doit être possible, dans ce cas particulier, de passer de l’espace de configuration à l’espace ordinaire. Il en est tout autrement si l’on considère un ensemble de corpuscules exerçant entre eux des interactions : alors il faudra nécessairement considérer l’onde associée au système entier dans l’espace de configuration et il ne sera plus permis d’attribuer à chaque corpuscule une onde individuelle. Tout retour à l’espace ordinaire sera donc impossible s’il existe des interactions. Or quelle est la différence des deux cas que noms venons d’envisager ? C’est que, dans le second, les corpuscules étant en interaction ont perdu une fraction de leur individualité en mettant en commun leur énergie potentielle. C’est donc, en définitive, le mystérieux « démembrement de l’individualité » impliqué par l’interaction qui entraı̂ne en Mécanique ondulatoire des systèmes la considération nécessaire de l’espace de configuration ; il est probable que, si l’on parvenait à mieux comprendre l’une de ces deux énigmes, on comprendrait mieux l’autre. Les difficultés que l’on rencontre dans l’interprétation physique des procédés mathématiques employés par la Mécanique ondulatoire des systèmes sont très probablement liées à l’insuffisance de nos conceptions sur l’espace et sur le temps car ces conceptions, même amendées par la théorie relativiste, ne paraissent pas permettre de décrire exactement les propriétés des entités élémentaires que nous appelons « corpuscules », ni les liens d’interactions qui les unissent. Le défaut de localisation permanente des corpuscules dans l’espace est un premier aspect de cette insuffisance ; l’emploi obligatoire de l’espace de configuration pour décrire le résultat des interactions en est un autre. Il est d’ailleurs bien difficile de prévoir aujourd’hui comment on pourra, si un jour on le peut, remplacer les notions traditionnelles d’espace et de temps pour parvenir à une description plus adéquate des unités élémentaires et de leurs liens naturels, d’autant plus qu’il faudra bien toujours revenir, semble-t-il, à nos conceptions ordinaires pour exprimer les prévisions relatives aux résultats possibles des observations et des expériences. ∴ On vient de voir quel problème difficile soulèvent du point de vue conceptuel les méthodes de la Mécanique ondulatoire des systèmes, sans d’ailleurs que cela empêche ces méthodes de se développer d’une façon satisfaisante au point de vue formel et de conduire à des prévisions bien vérifiées. Mais d’autres complications encore, que l’ancienne Mécanique ignorait aussi totalement, se présentent en Mécanique ondulatoire quand on y considère des systèmes contenant deux ou plusieurs constituants de même nature. Il est facile d’apercevoir pourquoi la question des ensembles de corpuscules de même nature doit se présenter sous un autre aspect qu’en Mécanique classique. 76 CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION Nous avons vu, en effet, que ce qui permet en Mécanique classique d’attribuer aux corpuscules de même nature une individualité susceptible d’être suivie, du moins en principe, au cours du temps, c’est la possibilité de déterminer à chaque instant la localisation exacte dans l’espace de ces corpuscules jointe à l’hypothèse que deux d’entre eux ne sauraient occuper simultanément la même place. Les particules de nature identique ont beau être complètement indiscernables quant à leurs propriétés, leur localisation, par hypothèse toujours différente dans l’espace, suffit à permettre de les distinguer. On conçoit alors combien le problème devient plus délicat en Mécanique ondulatoire où il existe en général pour une particule des régions étendues de localisation possible et où rien n’empêche les régions de localisation possible afférentes à divers corpuscules d’empiéter les unes sur les autres. Evidemment si pour les différents corpuscules d’un système, les régions en question n’ont à aucun moment de parties communes, on pourra encore suivre leur individualité : mais si, à un certain instant, il y a superposition, même très partielle, des dites régions, il devient impossible de suivre d’une façon certaine l’individualité des corpuscules, un échange de rôles pouvant alors se produire entre eux sans qu’on puisse aucunement s’en apercevoir ultérieurement. Comme le cas où il y a superposition, au moins partielle et momentanée, des régions de présence possible est le cas général en Mécanique ondulatoire des systèmes, comme il comprend en particulier tous les problèmes si importants concernant les états stationnaires des systèmes quantifiés (atomes ou molécules par exemple), le formalismes général de la Mécanique ondulatoire doit être développé de façon à ne préciser aucunement l’individualité des corpuscules de même nature, puisqu’on ne peut par aucun moyen suivre cette individualité au cours du temps. Sans entrer ici dans des détails trop techniques, contentons-nous de dire que ce but a été atteint par l’emploi exclusif de fonctions d’ondes qui restent invariables ou qui changent seulement de signe quand on y permute le rôle de deux corpuscules de même nature. Cet emploi exclusif est d’ailleurs rendu légitime par certains théorèmes généraux de la nouvelle Mécanique. La perte d’individualité des corpuscules de nature identique en Mécanique ondulatoire est donc liée à l’impossibilité de localiser en général dans notre cadre de lŠespace les entités physiques élémentaires, c’est-à-dire probablement à l’insuffisance ou à l’inexactitude de notre notion d’espace. Quand nous parlons de perte d’individualité, nous ne voulons pas affirmer que les corpuscules n’aient plus d’individualité, mais simplement qu’on ne peut plus suivre leur individualité d’une façon certaine. Prenons un exemple un peu trivial, mais qui parle à l’imagination. Soient deux frères jumeaux qui se ressemblent tellement qu’il est impossible de les distinguer. Tant que nous pouvons suivre chacun de ces deux jumeaux au cours de leurs pérégrinations, dans une ville par exemple, nous pourrons suivre leur individualité par la continuité de notre surveillance et il nous sera possible de les 77 désigner constamment l’un par la lettre A, l’autre par la lettre B. Mais si les jumeaux entrent tous deux dans un édifice où nous ne pouvons pas pénétrer, puis en ressortent l’un et l’autre au bout d’un certain temps, nous ne saurons comment nous devons identifier les deux sortants avec celui que nous appelions A et avec celui que nous nommions B. Et il est bien évident cependant que notre incapacité à suivre le fil de ces deux individualités n’empêche pas nos jumeaux d’être des individus autonomes. Toutefois, il faut ici remarquer que la Physique contemporaine a une tendance nette à adopter une attitude phénoméniste et à considérer comme de pseudo-problèmes les problèmes qui ne peuvent d’aucune façon être tranchés par l’expérience. Si l’on adopte ce point de vue, la question de savoir si l’individualité des particules persiste lorsqu’elle n’est pas susceptible d’être suivie doit être considérée comme un pseudo-problème. Nous avons dit que la Mécanique ondulatoire des systèmes avait dû développer ses formules de manière à ne préciser nullement l’individualité des corpuscules de même nature. Néanmoins, en examinant la question avec soin, on s’aperçoit qu’il y est encore possible de faire les calculs en attribuant à chaque particule une individualité susceptible d’être suivie dans les deux cas suivants : lo Quand les particules sont sans interaction de telle sorte qu’il soit permis de les considérer isolément ; 2o Quand les régions de présence possible des particules restent constamment séparées. Pour qu’il soit vraiment nécessaire dans un problème de Mécanique ondulatoire d’exclure entièrement du formalisme toute possibilité d’individualiser les corpuscules, il faut donc avoir affaire à un ensemble de corpuscules de nature identique, exerçant entre eux des interactions et pouvant se trouver au moins ,à un certain moment, dans une même région de l’espace. Existence simultanée pour des particules identiques d’une interaction et d’un empiètement des régions de présence possible, telle est la condition pour qu’il y ait perte d’individualité. Il y a alors une sorte d’interaction particulièrement intense appartenant à un type qu’ignorait complètement la Mécanique classique. Elle se traduit mathématiquement par l’apparition automatique dans le formalisme de la Mécanique ondulatoire des systèmes de termes d’énergie mutuelle n’ayant aucun analogue dans les théories classiques qu’on nomme termes d’énergie d’échange. Ils correspondent à l’existence pour les particules identiques d’une sorte de possibilité d’échanger leurs rôles au cours de l’union intime qu’elles subissent quand elles occupent en interagissant une même région de l’espace. Le processus de l’échange, bien que n’étant pas directement observable, peut être cependant considéré en un certain sens comme un fait physique, car l’existence de l’énergie d’échange donne lieu à de très importants phénomènes observables. C’est ainsi, on a pu le vérifier, que le choc de deux particules de même nature se fait, à cause de l’énergie d’échange, suivant des lois tout à fait distinctes de celles qui régissent les chocs entre particules de nature différente. D’ailleurs, la si belle 78 CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION et si instructive théorie de la formation des molécules homopolaires, due à MM. Heitler et London, qui a, la première, fourni une interprétation satisfaisante de la notion de valence chimique et du phénomène de la saturation des valences, s’appuie entièrement sur l’existence des énergies d’échange et, par suite, l’on peut dire que presque tous les faits de la Chimie sont des manifestations de cette existence. Le rôle fondamental de l’énergie d’échange dans la nature est donc aujourd’hui indéniable, bien que sa signification profonde soit encore assez obscure. ∴ La Mécanique ondulatoire traduit, nous l’avons vu, la perte d’individualité des particules semblables en n’admettant comme fonctions d’onde que des fonctions symétriques ou antisymétriques. L’expérience a de plus montré que certaines sortes de particules ont toujours des fonctions d’onde symétriques et d’autres des fonctions antisymétriques, fait qui est compatible, on le démontre, avec les lois générales de la nouvelle Mécanique, sans être d’ailleurs imposé par elles. Les systèmes formés de corpuscules élémentaires, tels que protons et électrons, ont toujours des fonctions d’onde antisymétriques. Il en est de même des systèmes formés de particules complexes quand elles sont elles-mêmes constituées par un nombre impair de corpuscules élémentaires tandis que les systèmes formés de particules complexes contenant un nombre pair de constituants élémentaires (particules α par exemple) ont des fonctions d’onde symétriques. Ces propriétés des particules complexes peuvent d’ailleurs s’expliquer aisément si l’on admet comme postulat le caractère antisymétrique des fonctions d’onde pour les corpuscules élémentaires. Les particules à fonctions d’onde antisymétriques, et notamment les électrons, possèdent la très curieuse particularité suivante : deux d’entre elles ne peuvent jamais avoir exactement le même état de mouvement. Si l’une de ces particules possède un certain état de mouvement (caractérisé par un vecteur « quantité de mouvement » bien défini) , la possibilité pour une autre particule de même nature du système d’avoir le même état de mouvement se trouve par là même exclue : d’où le nom de principe d’exclusion donné à l’énoncé de ce fait singulier. L’énoncé mathématique précis du principe d’exclusion dans le cas des électrons, fait d’ailleurs intervenir la considération de la propriété interne de l’électron désignée sous le nom de spin. La perte d’individualité des particules de même espèce en Mécanique ondulatoire a conduit à renouveler entières ment les méthodes de la Mécanique statistique. Tandis que la méthode classique de Boltzmann et de Gibbs comptait le nombre des complexions élémentaires, dont un ensemble de particules semblables était susceptible, en attribuant à chacune dŠelles une individualité reconnaissable, les statis- 79 tiques quantiques actuelles font ce dénombrement en admettant l’indiscernabilité des particules. Mais, ayant admis ce principe général, elles sont encore obligées de procéder différemment suivant qu’il s’agit de particules à fonctions d’onde antisymétriques ou symétriques, c’est-à-dire de particules soumises ou non soumises au principe d’exclusion. La loi de répartition des énergies entre les particules dans un ensemble statistique, loi qui remplace la loi classique de Maxwell-Boltzmann, prend alors dans chacun de ces deux cas une forme différente. Si le principe d’exclusion est valable, on obtient la loi statistique dite de Fermi-Dirac ; dans le cas contraire, la loi statistique de Bose-Einstein. Dans beaucoup de cas usuels, pour les gaz dans les conditions ordinaires par exemple, la différence entre ces lois et la loi classique est si faible qu’il est impossible de la mettre directement en évidence. Mais la loi de Bose-Einstein se vérifie dans le cas des photons pour lesquels il n’y a pas de principe d’exclusion, car elle conduit alors à la loi bien connue et bien vérifiée de Planck pour la composition spectrale du rayonnement noir. Quant à la loi de Fermi-Dirac, elle a pu être soumise à une vérification indirecte, mais très probante, dans le cas des électrons libres de conductibilité dans les métaux (Sommerfeld). Sans entrer dans le détail de tous ces développements, montrons combien le principe d’exclusion traduit par la statistique de Fermi-Dirac, conduit à des conséquences qui paraissent au premier abord tout à fait paradoxales. Envisageons, en effet, un gaz formé de particules obéissant au principe d’exclusion et enfermé dans un récipient de très grandes dimensions. Avec les idées classiques, il est tout à fait inconcevable que, si une particule située à l’une des extrémités du récipient possède un certain état de mouvement, elle puisse empêcher une autre particule située à l’autre extrémité du récipient, donc à une très grande distance, d’avoir le même état de mouvement. En Mécanique ondulatoire, on peut éluder cette difficulté en s’appuyant sur les relations d’incertitude d’Heisenberg : si, en effet, l’on suppose exactement connu le mouvement d’une particule, les relations d’incertitude nous apprennent que la position de cette particule est alors nécessairement tout à fait indéterminée, c’est-à-dire qu’elle peut manifester sa présence n’importe où dans le récipient : autrement dit, sa région de présence possible remplit tout le récipient. Dès lors, on ne peut pas dire que deux particules, dont on suppose les états de mouvement exactement connus, sont éloignées l’un de l’autre : on peut tout aussi bien dire qu’elles sont en contact puisqu’elles occupent toutes deux, en quelque sorte potentiellement, la totalité du récipient. Cet argument subtil nous montre clairement que l’exclusion est étroitement liée à la non-localisation des unités physiques dans l’espace. Son existence nous montre donc une fois de plus combien nos conceptions traditionnelles sur l’espace sont sujettes à caution. On peut d’ailleurs envisager l’exclusion comme une forme nouvelle d’interaction spécifiquement quantique et différente de l’énergie d’échange. En dehors de son intervention dans les statistiques quantiques, cette interaction d’un type nouveau joue un rôle essentiel 80 CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION dans beaucoup de phénomènes et se traduit à l’échelle macroscopique par des faits observables d’une importance capitale : toute la diversité de structure des atomes et la différence de leurs propriétés physiques et chimiques s’expliquent, en dernière analyse, par l’existence de l’exclusion et M. Heisenberg a même pu lui rattacher les propriétés magnétiques si remarquables des corps dits ferromagnétiques. L’existence de l’exclusion est donc à la fois certaine et fondamentale, mais sa véritable signification nous reste encore bien cachée. ∴ En résumé, il existe une certaine antinomie entre l’idée d’individualité autonome et celle de système où toutes les parties agissent les unes sur les autres. La réalité, dans tous ses domaines, paraı̂t être intermédiaire entre ces deux idéalisations extrêmes et, pour la représenter, il nous faut chercher à établir entre elles une sorte de compromis. La Physique n’a pas échappé à cette nécessité et, sous sa forme classique, elle a tenté de réaliser le compromis grâce à la notion d’énergie potentielle d’interaction entre particules. Bien qu’à l’examiner de près ce compromis apparaisse comme assez bâtard, il a permis cependant de représenter un grand nombre de faits à l’échelle macroscopique et a longtemps paru suffisant. La situation s’est beaucoup aggravée quand la Physique quantique, étudiant les faits de l’échelle microscopique s’est aperçue que les entités élémentaires ne pouvaient plus y être exactement localisés dans l’espace. Ce fait, si surprenant au premier abord, entraı̂nait l’impossibilité d’attribuer aux particules une individualité susceptible d’être constamment suivie et reconnue : nous avons étudié les complications qui en résultaient. De plus, la possibilité pour plusieurs corpuscules d’occuper simultanément, du moins d’une manière potentielle, une même région de l’espace, provoque l’apparition de formes nouvelles d’interactions ignorées de la Physique classique : l’interaction d’échange et l’interaction d’exclusion. L’existence de ces interactions est aujourd’hui physiquement certaine, leur importance assurément capitale, mais leur interprétation encore totalement obscure. En Physique quantique, le compromis à réaliser entre l’individualité et l’interaction apparaı̂t donc comme bien plus difficile encore à concevoir qu’en Physique classique : il doit rendre compte de faits complexes et surprenants pour nos habitudes de pensée et il ne pourra certainement pas être développé dans le cadre de nos idées anciennes sur l’espace. En dehors des questions de formalisme mathématique qui sont déjà en partie réglées, il y a là de difficiles problèmes d’interprétation dont la solution demandera encore de longs efforts à ceux dont le principal souci est de comprendre, dans toute la mesure du possible, la nature du monde physique. Chapitre 8 Physique ponctuelle et physique du champ La Physique théorique bénéficie de la puissance créatrice presque indéfinie de l’esprit humain dont elle procède, mais, par contre, elle ne peut s’affranchir entièrement ni de ses tendances instinctives, ni de ses imperfections. Or l’une des tendances instinctives de notre esprit, qui est sans doute aussi l’une de ses imperfections, est de vouloir ramener la réalité à des abstractions nettement définies. En allant alternativement d’une de ces abstractions à l’abstraction opposée, il se trouve souvent ainsi ballotté indéfiniment entre des conceptions extrêmes et antinomiques. Cette circonstance, qui a toujours joué un grand rôle dans tous les domaines de l’activité humaine s’exprime dans l’histoire des doctrines philosophiques et scientifiques par l’antagonisme et les succès alternés de la conception du simple Ű inétendu et la conception antinomique du complexe-étendu. L’idée de l’élément indivisible et sans étendue, nous la retrouvons dans l’atome insécable de Démocrite et de Lucrèce, dans la monade de Leibniz dans le corpuscule élémentaire des physiciens contemporains. Quant à l’idée opposée d’une réalité physique essentiellement étendue dans l’espace et nécessairement sub-divisible au moins par la pensée, nous la voyons suggérer toutes les représentations continues de la matière, toutes les théories qui invoquent l’existence d’un « milieu » siège des phénomènes ; elle se retrouve dans l’éther d’Huyghens et de Fresnel parcouru par le frissonnement des ondes lumineuses ; elle culmine enfin dans la conception Maxwellienne du champ électromagnétique qui, répudiant toute action à distance, tend à représenter l’univers physique en décrivant l’état « local » à chaque instant de toutes les régions de l’espace. Ainsi se sont constitués, conformément aux tendances de notre esprit, deux grands courants de pensée opposés l’un à l’autre qui se sont sans cesse rencontrés et plus ou moins mélangés dans les théories de la Physique moderne. Ils correspondent à deux points de vue antagonistes qu’on peut appeler le point de vue de la « Physique ponctuelle » et celui de la « Physique du champ ». Nous 81 82 CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP voulons examiner dans cette étude comment ces deux points de vue se sont mêlés depuis un siècle dans les théories des physiciens et comment ils se sont aujourd’hui conciliés dans les conceptions quantiques d’une manière très intéressante qui est de nature à nous faire mieux comprendre leurs situations respectives. ∴ La théorie physique qui a été constituée la première et qui a servi, peut-on dire, de modèle aux autres pendant plus de deux siècles est la Mécanique Newtonienne, la Mécanique rationnelle classique. Par son point de départ et par ses tendances, elle appartient à la Physique ponctuelle. Elle part en effet de l’idée de point matériel, c’est-à-dire de corpuscule sans étendue, mais doué de masse, et elle en tire les notions de trajectoire et de vitesse. Sans doute la Mécanique a pu décrire les mouvements des corps étendus, mais c’est essentiellement en les considérant comme des ensembles de points matériels. Dans la Mécanique des milieux continus, dans la théorie de l’Elasticité et dans la Mécanique des fluides, l’idée primitive du point matériel a passé au second plan et la doctrine s’est infléchie dans le sens de la Physique du champ. Néanmoins l’apparente continuité des milieux solides ou fluides est considérée dans ces théories comme due à une sorte d’illusion macroscopique qui voile pour nos sens trop grossiers la structure essentiellement discontinue des milieux matériels. Le caractère essentiellement discontinu et ponctuel de la Mécanique Newtonienne a d’ailleurs reparu avec toute sa force dans les théories de la Physique le jour où les physiciens ayant découvert l’existence de corpuscules élémentaires ont cherché à expliquer les propriétés physiques et chimiques des corps par les mouvements et les interactions de ces corpuscules. Il est à noter que la grosse difficulté rencontrée par les conceptions ponctuelles de la Mécanique, c’est précisément l’existence des interactions. Entre des corpuscules vraiment ponctuels et isolés, les forces d’interaction ne peuvent résulter que d’actions à distance dans l’espace vide et l’on retrouve la même conception difficilement acceptable à une plus grande échelle en Mécanique céleste où elle a soulevé dès le temps de Newton de fortes objections. Tandis donc que la conception ponctuelle de la Mécanique conduit à une représentation nette au sujet du mouvement et de la trajectoire des éléments matériels et satisfait notre tendance à admettre l’existence d’individualités physiques primaires et irréductibles, elle se heurte à d’importantes difficultés pour la représentation des actions entre les corpuscules élémentaires, l’espace qui sépare ces corpuscules devant être absolument vide et sans contenu physique et ne pouvant par suite servir de support ou d’agent transmetteur pour les interactions. 83 Ces difficultés rencontrées par la conception purement ponctuelle de la Mécanique ont conduit à rechercher des formes plus continues de cette science, telles que la théorie de l’élasticité des solides ou la Mécanique des fluides, dans lesquelles on attribue à chaque élément de volume du solide ou du fluide considéré des grandeurs de nature cinématique ou dynamique (vitesse, accélération, quantité de mouvement, énergie, tensions ou pressions internes, etc.) Il est intéressant de rappeler ici la façon dont ces représentations continues ont pu se concilier avec la croyance à une structure discontinue de la matière. Considérons par exemple la notion de densité qui intervient constamment dans ces représentations continues. Dans un fluide homogène de densité ρ, un petit élément de volume ∆υ aura une masse ρ∆υ : si l’on adopte l’hypothèse d’une structure discontinue de la matière, cela ne veut pas dire que l’élément de volume ∆υ examiné microscopiquement soit rempli d’un fluide de densité ρ car par hypothèse cet élément de volume contient en réalité des corpuscules de matière séparés par du vide. La densité réelle à l’intérieur de ∆υ est donc très grande (peut-être même infinie) en certains points, tandis qu’elle est nulle presque partout. La possibilité d’employer la notion d’une densité macroscopique ρ vient de ce que les éléments ρ∆υ envisages par la Mécanique continue sont des « infiniment petits physiques » et contiennent chacun un nombre énorme de particules matérielles. La quantité ρ∆υ représente ainsi le produit par la masse de chacune des particules du nombre probable des particules contenues dans l’élément de volume ∆υ, l’écart relatif entre le nombre réel et le nombre probable de ces particules devant toujours être pratiquement très petit en vertu de la loi des grands nombres. On voit donc que c’est l’intervention des considérations statistiques qui seule, en réalité, permet aux formes continues de la Mécanique d’admettre une continuité apparente à lŠéchelle macroscopique et de satisfaire ainsi à cette échelle aux tendances de la Physique du champ. Mais il faut remarquer que les difficultés signalées précédemment sont ainsi seulement reculées, repoussées à l’échelle inférieure, mais non pas résolues. Tant qu’on examine ces phénomènes avec des moyens assez grossiers pour que les éléments ∆υ paraissent comme infiniment petits, on obtient une Physique du champ douant chaque élément de volume ∆υ de propriétés mécaniques ou physiques et supprimant l’action à distance. Mais, si l’on parvient à analyser ce qui se trouve réellement dans chaque élément de volume ∆υ, on est amené à s’y figurer des corpuscules séparés par d’immenses espaces vides (immenses par rapport aux dimensions des corpuscules) et ne pouvant agir les uns sur les autres que par des actions à distance. Les antinomies que le jeu des moyennes statistiques faisait disparaı̂tre ou masquait à l’échelle grossière de nos observations macroscopiques reparaissent dans toute leur vigueur quand on pousse plus loin l’analyse de la réalité physique. Aussi, ceux que scandalisait l’idée d’action à distance et d’isolement des points matériels au milieu d’un vide dénué de propriétés physiques devaient-ils en arriver logiquement à tenter de construire 84 CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP une véritable Physique du champ qui attribue à chaque élément de volume, si petit soit-il, à l’échelle microscopique des propriétés mécaniques et physiques, tirant ainsi les corpuscules de leur splendide isolement et éliminant toute action à distance. Cette véritable « Physique du champ » fut l’œuvre capitale de Maxwell et de ses continuateurs, notamment de Lorentz. Une des caractéristiques bien connues de la théorie électromagnétique de maxwell est, en effet, de douer chaque élément de volume, même du vide, de propriétés physiques essentiellement représentées par le tenseur de Maxwell qui exprime l’énergie, la quantité de mouvement et les tensions électromagnétiques localisées par unité de volume en chaque point. Le vide, du moins lorsqu’il est le siège d’un champ électromagnétique, cesse ainsi d’être un cadre amorphe et devient le support d’une distribution continue de grandeurs électromagnétiques. Ce point de vue a été ensuite précisé et développé par Lorentz dans sa célèbre théorie des électrons. Cette théorie admet que les corps matériels sont formés en dernière analyse de particules électrisées et, prolongeant dans le microscopique les conceptions macroscopiques de Maxwell elle suppose qu’à l’intérieur des corps matériels, le tenseur de Maxwell (exprimé à l’aide de champs définis par Lorentz) donne pour chaque élément de volume du vide qui sépare les particules électrisées l’énergie, la quantité de mouvement et les tensions électromagnétiques localisées dans cet élément de volume. On arrive ainsi à une Physique du champ qui régnerait même à l’échelle la plus fine dans toutes les régions qui au sein de la matière seraient extérieures aux particules électrisées. Pour les partisans du continu et des actions médiates, il y avait là un grand progrès et les difficultés paraissaient ainsi considérablement réduites. Elles n’étaient cependant encore que reculées car elles se reposaient pour l’intérieur des particules électrisées. On pouvait imaginer les particules électrisées comme de petits objets ayant une certaine extension spatiale et contenant une certaine distribution d’électricité d’un seul signe et tenter d’appliquer à l’intérieur même de cette distribution les conceptions de la Physique du champ. Ce fut la voie suivie par Lorentz. Mais il fallait alors expliquer pourquoi les particules électrisées sont stables malgré la répulsion mutuelle de leurs parties ; il fallait aussi expliquer pourquoi ces particules, par exemple les électrons négatifs, sont insécables et jouent le rôle de constituants élémentaires de la matière, pourquoi il en existe un très petit nombre de types, chaque type étant tiré à un nombre immense d’exemplaires dans Nature. A toutes ces questions, la théorie de Lorentz n’a pu fournir aucune réponse satisfaisante. On pouvait, il est vrai, s’en tirer d’une autre manière, en admettant que les particules élémentaires sont ponctuelles, inétendues, que ce sont des singularités du champ électromagnétique, de sorte que la Physique du champ serait valable partout sauf en un certain nombre de points singuliers. On réaliserait ainsi une sorte de synthèse entre la Physique du champ et la Physique ponctuelle. Malheureusement, avec les conceptions de l’électromagnétisme 85 classique, cette tentative se heurte aussi à d’insurmontables objections. En particulier, une charge électrique rigoureusement ponctuelle devrait, du seul fait de l’existence de son champ électrostatique, posséder une énergie infinie, conclusion physiquement inacceptable. Ainsi, au moment où se terminait dans les premières années du XXe siècle la période classique de la Physique (c’est-à-dire la période antérieure au développement de la théorie des Quanta), on se trouvait dans la situation suivante : d’une part, la Physique du champ était parvenue à donner une représentation des champs électromagnétiques qui paraissait valable même à l’échelle microscopique dans le vide et dans les interstices de la matière, c’est-à-dire dans les espaces qui à l’intérieur de la matière séparent les particules électrisées ; d’autre part, l’existence de corpuscules élémentaires électrisés jouant le rôle de matériaux ultimes des édifices matériels, c’est-à-dire la structure discontinue de la matière et de l’électricité, avait été établie expérimentalement d’une façon certaine, mais il restait impossible de concilier d’une manière satisfaisante l’existence de ces grains élémentaires de matière et d’électricité avec les exigences de la Physique du champ. Cette situation s’est trouvée encore singulièrement aggravée par la découverte d’une structure discontinue de la lumière qui entraı̂ne (car il est impossible de renoncer à la grande synthèse de Maxwell), l’existence d’un aspect granulaire de l’énergie électromagnétique elle-même. Tous les succès de la Physique du champ réalisés par l’œuvre de Maxwell et de Lorentz se sont trouvés remis en question. Jusque-là, on avait pu légitimement penser que la structure granulaire était quelque chose de spécial à la matière et à l’électricité, tandis que la répartition de l’énergie électromagnétique dans le vide paraissait correctement représentée par le tenseur de Maxwell dans chaque élément de volume où règne le champ considéré. Et voilà que la découverte du quantum de lumière, du photon, montrait que la répartition continue des énergies et quantités de mouvement électromagnétiques donnée par le tenseur de Maxwell ne pouvait être, elle aussi, que la représentation statistique d’une structure granulaire jusqu’alors inconnue. La théorie de Maxwell-Lorentz n’apparaissait plus que comme une image globale permettant de représenter en moyenne dans un grand nombre de cas les propriétés de l’énergie électromagnétique, mais masquant la nature réelle essentiellement discontinue de cette énergie ; tout comme la Mécanique des fluides permet de représenter globalement dans beaucoup de cas les propriétés moyennes des corps fluides, mais en masquant la structure atomique de la matière. Cette découverte avait des conséquences particulièrement graves car elle annulait tous les succès remportés par la Physique du champ à l’échelle microscopique sous la forme de la théorie de Lorentz. Dans cette théorie, en effet, on représentait la distribution des énergies et quantités de mouvement électromagnétiques à l’aide du tenseur de Maxwell (exprimé avec les champs microscopiques de Lorentz) même à l’intérieur de la matière entre les particules électrisées, de sorte 86 CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP que la Physique du champ paraissait régner au moins dans tout l’espace extérieur aux particules électrisées : or on s’apercevait tout à coup qu’il ne pouvait s’agir encore ici que d’une statistique, comme dans la Mécanique des fluides microscopiques, et non d’une véritable et définitive Physique du champ. Mais la question s’est trouvée bientôt complètement renouvelée par le développement des théories quantiques dont nous allons maintenant parler. ∴ Le résultat essentiel des théories quantiques, si on les examine du point de vue qui nous occupe, est le suivant : elles ont introduit les idées de probabilité et de statistique dans le cas d’une seule particule élémentaire. Ce faisant, elles nous ont fait entrevoir la possibilité d’une fusion plus complète et très nouvelle entre les conceptions de la Physique ponctuelle et celle de la Physique du champ. Les théories quantiques admettent l’existence de corpuscules élémentaires ponctuels qui se manifestent dans les faits observables par des apparences à caractère discontinu. Mais elles ont été aussi forcées d’admettre que ces corpuscules élémentaires ne sont pas bien localisés dans l’espace à chaque instant, qu’il existe en général toute une région étendue de l’espace où la présence du corpuscule peut se manifester. De même les grandeurs dynamiques d’un corpuscule, énergie et quantité de mouvement, sont susceptibles de se manifester à nous dans les observations avec des valeurs bien définies, mais, à chaque instant, il y a en général toute une série de valeurs possibles pour ces grandeurs de sorte que le point représentatif du corpuscule dans l’extension en moment 1 n’est pas lui non plus bien localisé et qu’il existe en général à chaque instant toute une région étendue de cette extension en moment où la présence du point représentatif de la quantité de mouvement peut se manifester. Les étendues des deux régions de localisation possible dans l’espace des positions et dans l’espace des moments sont d’ailleurs reliées par les relations d’incertitude d’Heisenberg de telle façon que, si l’une est petite, l’autre est nécessairement grande. La théorie quantique, notamment sous la forme de la Mécanique ondulatoire, associe alors au corpuscule ponctuel des fonctions continues représentant la distribution des probabilités de présence dans l’espace et définissant pour chaque grandeur mécanique une densité de répartition. Bref, la théorie quantique en est arrivée à ce résultat très intéressant d’associer à chaque corpuscule, malgré sa nature foncièrement ponctuelle, des grandeurs réparties continûment dans l’espace qui représentent les probabilités des manifestations 1. LŠextension en moment est lŠespace abstrait où sont représentées les quantités de mouvement. 87 discontinues du corpuscule. Ainsi se trouvent réconciliées sous une forme assez inattendue la Physique ponctuelle et la Physique du champ, la seconde apparaissant maintenant comme une représentation statistique des diverses possibilités. On peut même aller plus loin. La Physique du champ est liée à l’emploi de l’espace continu à trois dimensions comme cadre de la réalité physique, tandis que la Physique ponctuelle suggérerait plutôt l’idée d’un espace discontinu et granulaire. Dans la Physique des quanta, les deux notions se rapprochent parce qu’à chaque grain est liée une marge d’incertitude et que, si les grains sont assez voisins pour que les marges d’incertitude empiètent, il en résulte un continu apparent dû à la mauvaise définition des éléments discontinus qui les sous-tendent. De la même manière, en spectroscopie, un fond spectral continu peut être engendré par une accumulation de raies spectrales car, chaque raie spectrale ayant toujours une largeur, quand les raies sont assez serrées pour que leur distance soit inférieure à leur largeur, l’accumulation des raies discontinues donne l’apparence d’un fond continue dû à la définition imprécise des raies discontinues qui le forment. Et cette comparaison n’est pas superficielle car, en théorie quantique, la largeur d’une raie spectrale est la traduction de l’incertitude (au sens d’Heisenberg) qui existe sur la valeur exacte de sa fréquence, de sorte que le fond spectral continu est bien alors une apparence engendrée par l’incertitude, au sens quantique du mot, dont sont affectés les éléments discrets qui le composent. Cette idée du discontinu engendrant le continu par l’incertitude mériterait certainement d’être approfondie. ∴ Dans les formes continues de la Mécanique macroscopique, les grandeurs de champ (telles que les densités, les vitesses d’écoulement, etc.) s’introduisent en somme par suite d’une statistique portant sur un nombre immense de particules, statistique justifiée par le caractère grossier et global de nos observations macroscopiques. En Physique quantique, au contraire, les grandeurs de champ s’introduisent par une statistique portant sur les possibilités relatives à un seul corpuscule et sont par suite rattachées aux « incertitudes » caractéristiques de cette nouvelle Physique. La Mécanique ondulatoire définit les grandeurs de champs associées à un corpuscule à l’aide d’une fonction continue des coordonnées et du temps, la « fonction d’onde Ψ » du corpuscule. Cette fonction d’onde, étant définie en chaque point de l’espace à chaque instant, présente elle-même les caractères d’une grandeur de champ : aussi l’appelle-t-on parfois le champΨ (Ψ-Feld des auteurs allemands). Mais ce champ Ψ n’est pas en lui-même un caractère physique correspondant à des faits observables : ce sont d’autres grandeurs de champ construites à partir du champ Ψ qui ont ce caractère. Ainsi, dans la Mécanique ondulatoire relativiste des 88 CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP électrons à spin, due à M. Dirac, on peut construire toute une série de grandeurs de champ (densités de moment magnétique et de moment électrique propres de l’électron, densité de spin) à partir du champ Ψ, qui d’ailleurs est ici défini par un ensemble de quatre fonctions formant les composantes d’un même être mathématique. Ces grandeurs jouent dans cette théorie de Dirac un rôle très important : ce sont elles en particulier qui y présentent des variances relativistes simples. Nous venons de voir comment la Mécanique ondulatoire des particules matérielles définit les grandeurs de champ associées à une de ces particules. Comment peut-on étendre cette méthode au cas de la lumière ? Une bonne théorie de la lumière doit aujourd’hui rendre compte à la fois de l’existence des photons et de la représentation de l’onde lumineuse par les champs électromagnétiques de Maxwell. Il semble donc bien que, dans une telle théorie, l’on doive poser en principe au départ l’existence de la particule « photon » et chercher à lui associer un champ Ψ permettant de construire des grandeurs de champ parmi lesquelles on retrouve les grandeurs électromagnétiques classiques de l’onde lumineuse Maxwellienne. C’est ce programme que l’auteur du présent ouvrage s’est efforcé de remplir par sa nouvelle théorie du photon. Cette théorie constitue une véritable Mécanique ondulatoire du photon et les résultats qu’elle a pu obtenir paraissent aujourd’hui très satisfaisants à beaucoup d’égards. De toutes façons et quelle que soit la manière dont on la développe, la théorie du photon apparaı̂t presque nécessairement comme le point critique où les conceptions de la Physique ponctuelle représentées par la notion même de photon doivent venir rejoindre la plus parfaite des théories de la Physique du champ, la théorie électromagnétique : là est la raison profonde de l’intérêt tout particulier que présente l’étude théorique de la lumière dans le stade actuel de la Physique. ∴ Il nous paraı̂t impossible de ne pas dire maintenant quelques mots d’une question, à vrai dire très difficile, qui a joué un rôle important dans le développement des théories quantiques contemporaines : celle de la « superquantification » ou « seconde quantification ». Quand on a affaire non pas à une seule particule, mais à un ensemble de particules, la construction des champs associés, à cet ensemble se fait en Mécanique ondulatoire d’une façon assez inattendue. On doit en effet associer à cet ensemble de particules non plus une fonction Ψ représentant une onde qui se propage dans l’espace physique ordinaire à trois dimensions, mais bien une fonction Ψ représentant une onde qui se propage dans un espace abstrait, dit espace de configuration, ayant autant de fois trois dimensions qu’il y a de particules dans le système. Ainsi 89 pour un système contenant N particules, la fonction d’onde et toutes les grandeurs de champ qui en dérivent sont définies dans un espace fictif à 3N dimensions. De plus, si le système contient plusieurs particules de même nature physique (plusieurs électrons ou plusieurs protons par exemple) , la fonction Ψ doit satisfaire, suivant la nature de ces particules, à certaines conditions de symétrie ou d’antisymétrie bien connues de ceux qui ont étudié la Mécanique ondulatoire. Le progrès des méthodes de la Mécanique ondulatoire a montré que, quand l’on étudie un ensemble de N particules de même nature physique, il est possible de représenter l’évolution de tout cet ensemble à l’aide d’une onde se propageant dans l’espace à trois dimensions. On obtient alors ainsi une description ondulatoire du système formé par les N particules identiques dans le cadre de l’espace physique auquel nous sommes accoutumés et qui nous est presque indispensable pour exprimer notre connaissance du monde extérieur. Et ce procédé nous permet d’associer à l’ensemble de particules considéré certaines grandeurs définies en chaque point de l’espace physique, à chaque instant, ce qui nous ramène aux procédés habituels de la physique du champ. Mais la fonction Ψ(x, y, z, t) qui représente l’onde du système des N particules dans l’espace physique à trois dimensions ne peut plus avoir le même caractère que la fonction Ψ associée au mouvement d’un seul corpuscule. Il doit, en effet, y avoir dans sa structure mathématique quelque chose qui traduise l’existence de N particules dans le système considéré et N doit naturellement être un nombre entier. Que le nombre N doive être un entier, c’est là la traduction même de la notion de particule, c’est l’exigence fondamentale de la Physique ponctuelle. Or la découverte de la méthode dite « superquantification » ou « seconde quantification » a permis à la Mécanique ondulatoire d’attribuer à la fonction d’onde Ψ(x, y, z, t) les propriétés nécessaires pour que le caractère entier du nombre N se trouve traduit automatiquement par le formalisme même de la théorie. En définissant convenablement le champ Ψ superquantifié et les grandeurs qui en dérivent à l’aide de fonctions continues dans l’espace physique à trois dimensions, la méthode de seconde quantification parvient à associer ces champs continus à des nombres nécessairement toujours entiers de particules : par là, elle réalise sous une forme entièrement nouvelle la fusion des concepts de la Physique du champ avec ceux de la Physique ponctuelle. Il faut avouer cependant que, si la superquantification concilie très élégamment la continuité du champ Ψ avec la notion de particules discrètes, elle n’y parvient qu’au moyen d’un artifice de caractère assez abstrait : la fonction d’ondeΨ(x, y, z, t) n’est plus en Mécanique ondulatoire superquantifiée une fonction ordinaire ayant une valeur numérique bien définie pour chaque valeur des variables x, y, z, t, mais c’est ce que l’on nomme un « opérateur » fonction de x, y, z, t. La seconde quantification déplace donc en quelque sorte le caractère étrange de la Mécanique ondulatoire des systèmes de particules sans parvenir à l’éliminer. Dans la forme ordinaire, 90 CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP non superquantifiée, de cette Mécanique ondulatoire, on a des grandeurs de champ qui sont des fonctions numériques ordinaires, mais, au lieu de définir des champs dans l’espace physique à trois dimensions, on définit des champs dans un espace visiblement fictif à 3N dimensions. Dans la Mécanique ondulatoire superquantifiée au contraire, nous retrouvons avec soulagement notre espace physique habituel à trois dimensions, mais en revanche la fonction Ψ et les grandeurs de champ qui en dérivent ne s’expriment plus par des fonctions numériques ordinaires, mais par des opérateurs. Ainsi, ce que la représentation intuitive a gagné d’un côté, elle le reperd de l’autre ; cela n’empêche d’ailleurs en rien la seconde quantification d’être une méthode logiquement cohérente. II est intéressant de préciser comment la seconde quantification s’introduit dans la théorie des particules de lumière. Lorsqu’on est parvenu à construire une Mécanique ondulatoire du photon, il est naturel de considérer des assemblées de nombreux photons, car c’est le cas qui se présente habituellement en pratique. Pour représenter un ensemble de N photons dans le cadre de l’espace physique, il sera alors tout indiqué de soumettre la Mécanique ondulatoire du photon à l’opération de seconde quantification. Le champ Ψ du photon ayant été transformé par cette opération, toutes les grandeurs attachées au photon qui se construisent à partir du champ Ψ, et en particulier les grandeurs électromagnétiques Maxwelliennes, se trouveront automatiquement transformées elles aussi. Les champs électromagnétiques liés à l’ensemble des photons se trouvent alors avoir acquis précisément le caractère quantifié que leur avaient attribué, il y a déjà une dizaine d’années, MM. Jordan, Pauli et Heisenberg dans leur théorie quantique des champs. Les formules par lesquelles s’exprime le caractère quantifié des champs électromagnétiques traduisent le fait que les champs Maxwelliens, malgré leur aspect de champs continus, correspondent toujours à des nombres entiers de photons. La Mécanique ondulatoire du photon une fois superquantifiée aboutit donc à la théorie quantique des champs et explique comment la lumière peut être représentée à la fois par une assemblée de photons et par un champ électromagnétique du type de Maxwell. ∴ Dans les lignes qui précèdent, nous espérons avoir montré que la Mécanique ondulatoire et ses prolongements ont apporté des éléments vraiment nouveaux dans la vieille lutte entre la Physique ponctuelle et la Physique du champ, entre la conception continue et la conception discontinue des réalités physiques ultimes. Les éléments derniers de la matière et de la lumière y sont conçus comme étant des corpuscules essentiellement ponctuels. Les coordonnées de ces corpuscules et les grandeurs dynamiques qui leur sont attachées sont susceptibles de se révéler à 91 nous dans les observations avec des valeurs tout à fait précises. Mais l’ensemble des valeurs des coordonnées et des grandeurs dynamiques est constamment affecté par les incertitudes quantiques liées à l’existence du quantum d’Action. Ce sont ces incertitudes qui nécessitent pour leur représentation statistique l’emploi des grandeurs de champ, de sorte que le continu apparaı̂t ici comme sortant du discontinu par l’intermédiaire des incertitudes quantiques dont l’existence rend nécessaire l’intervention des probabilités et du point de vue statistique. Réconciliation du continu avec le discontinu par le jeu des probabilités, le continu semblant surgir de l’application des probabilités à un discontinu incertain, telle paraı̂t être la suggestion que nous fournit l’état actuel des théories quantiques. 92 CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP Chapitre 9 La Théorie quantique du rayonnement La théorie de la Lumière s’est présentée successivement sous des aspects différents : théorie des corpuscules de Newton, théorie des ondes de Huyghens et de Fresnel, théorie des champs électromagnétiques de Maxwell. Il est assez aisé de concilier la conception ondulatoire avec la conception électromagnétique : il suffit, en effet, de supposer que les grandeurs lumineuses qui, d’après Fresnel, doivent se propager par ondes sont de nature électromagnétique. Sans ambiguı̈té pour le vide, sans grandes difficultés pour les milieux matériels on est ainsi parvenu à donner un sens électromagnétique aux grandeurs vectorielles de la théorie ondulatoire de la Lumière. Finalement, la lumière s’est trouvée définie en tout point de l’espace par des grandeurs vectorielles électromagnétiques (champs et inductions électriques et magnétiques) : c’est pourquoi, depuis Maxwell, la théorie de la Lumière se trouve être à la fois une théorie électromagnétique et une théorie du type de la « physique du champ », c’est-à-dire faisant intervenir des champs de grandeurs définies dans une région étendue de l’espace ; mais c’est aussi une théorie du type ondulatoire parce que les grandeurs lumineuses se propagent par ondes (dans le vide avec une vitesse caractéristique constante c) et que toute perturbation lumineuse peut s’analyser, suivant le procédé de Fourier, comme une superposition d’ondes planes monochromatiques. Bien différente est la conception corpusculaire de la lumière : ici plus de grandeurs définies en tout point, plus de phénomènes ondulatoires s’étalant dans l’espace, mais des corpuscules localisés décrivant des trajectoires à une dimension. Ici, le champ fait place à la singularité, le continu au discontinu. La distance apparaı̂t donc très grande entre les deux genres d’images. Aussi, tandis que les conceptions de Fresnel et de Maxwell parvenaient à s’amalgamer aisément, les succès qu’elles remportaient dans l’interprétation des faits expérimentaux semblaient prouver d’une manière irréfutable l’inexactitude fondamentale de toute concep93 94 CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT tion corpusculaire de la Lumière. Cependant, plus récemment, la découverte de phénomènes, tels que l’effet photoélectrique, où se manifeste un aspect nettement corpusculaire de la lumière, et le développement de la théorie des quanta ont montré qu’il était nécessaire de chercher un compromis entre l’image des corpuscules et l’image des champs ondulatoires et électromagnétiques. Comme il est bien connu, le problème consistant à harmoniser le point de vue des ondes et le point de vue des corpuscules a été, en principe, résolu par la Mécanique ondulatoire. Il a été résolu par une association fondamentale entre les notions d’onde et de corpuscule, l’état de tout corpuscule devant toujours être représenté par une onde qui lui est associée. Cette représentation des états d’un corpuscule par une onde associée est d’ailleurs bien différente des représentations employées par l’ancienne Physique antérieure aux Quanta. La fonction d’onde associée au corpuscule, la fonction Ψ comme on la nomme habituellement, ne décrit en aucune façon la structure du corpuscule ou son état précis de localisation ou de mouvement tel qu’il était conçu par la Physique ancienne. Elle représente seulement d’une façon statistique les diverses valeurs qu’une observation comportant mesure peut conduire à attribuer aux grandeurs attachées au corpuscule et les probabilités respectives de ces diverses valeurs. Les diverses grandeurs décrivant un corpuscule, par exemple les trois coordonnées qui fixent sa position dans l’espace, n’ont plus, comme dans les conceptions classiques, des valeurs certaines à tout moment, mais toute une série de valeurs possibles à chaque instant. Ainsi, à tout instant le corpuscule peut se manifester à l’observation en un point quelconque d’une région étendue de l’espace, la probabilité pour que ce soit précisément en un certain point de cette région étant donné par le carré de l’amplitude de la fonction d’onde Ψ en ce point. En Mécanique ondulatoire, le caractère discontinu du corpuscule persiste à exister et se manifeste par le fait que les grandeurs mesurables relatives au corpuscule conservent la nature de grandeurs attachées à une entité discrète, possédant des paramètres caractéristiques propres tels que masse, charge électrique, etc. ; mais l’onde Ψ en donnant une représentation statistique de toutes les valeurs possibles de chacune de ces grandeurs permet de rétablir la continuité. Autrement dit, tandis qu’une mesure précise conduit toujours à un résultat exprimable dans le langage corpusculaire, l’onde Ψ qui est une grandeur de champ définie en chaque point de l’espace à tout instant permet de représenter l’ensemble des possibilités par une image conforme aux habitudes de la Physique classique du champ. Ainsi, le carré de l’amplitude de l’onde Ψ donnant la probabilité de localisation du corpuscule, cette onde représente par son extension dans l’espace l’ensemble des localisations possibles. Ainsi sont trouvées réconciliées d’une manière à la fois fort subtile et très intéressante, les idées de la Physique du champ et celle de la Physique corpusculaire. De plus, c’est l’évolution du champ Ψ au cours du temps, évolution qui dépend 95 naturellement des conditions aux limites auquel le champ Ψ doit s’adapter, qui règle les probabilités des manifestations discontinues du corpuscule : l’histoire du corpuscule est donc inséparable de celle de tout l’ensemble du champ Ψ associé. Toutes ces idées sont indispensables pour parvenir à concilier dans la théorie de la Lumière l’existence des grains d’énergie lumineuse avec l’exactitude mille fois prouvée des prévisions de la théorie ondulatoire. Considérons, par exemple, l’expérience bien connue des trous d’Young. Les possibilités de localisation du photon dans le champ d’interférences dépendent des conditions de propagation de l’onde lumineuse associée, des conditions topologiques qu’elle rencontre en progressant. Néanmoins, le caractère corpusculaire du photon subsiste dans le champ d’interférences, puisqu’il y peut manifester sa présence en un point par un effet photoélectrique local. Ainsi se trouvent juxtaposées dans l’interprétation actuelle de l’expérience des trous d’Young les deux images du corpuscule et de l’onde, mais elles s’y trouvent juxtaposées d’une manière très originale qui les empêchent d’entrer jamais en contradiction directe. Si l’on pouvait, par exemple, obtenir le phénomène d’interférences d’Young et déterminer en même temps par lequel des deux trous le photon a passé, on mettrait en conflit flagrant l’image ondulatoire et l’image corpusculaire : car, comment expliquerait-on que seul un des trous d’Young ait joué un rôle dans le mouvement du corpuscule, alors que le phénomène d’interférence observé dépend d’une façon tout à fait symétrique de chacun des deux trous ? Or ce conflit ne peut pas se produire parce que, comme l’ont montré notamment les fines analyses de M. Bohr, on ne peut à la fois obtenir le phénomène d’interférences et déterminer par lequel des trous a passé le photon. Si on laisse le phénomène d’interférences se produire librement, rien ne peut indiquer le trajet suivi par chaque photon avant de parvenir dans la région où sont détectées les franges d’interférences ; si, au contraire, on place près de l’un des trous d’Young un dispositif permettant de déceler le passage d’un photon à travers ce trou, la présence de ce dispositif, par l’action même qu’il exerce sur le photon, trouble complètement le phénomène et fait totalement disparaı̂tre les franges d’interférences. Deux images, en principe inconciliables, nous sont nécessaires pour décrire les faits, mais jamais nous n’aurons à employer simultanément ces deux images dans des conditions qui nous conduiraient à une véritable contradiction. Les images d’onde et de corpuscule ont des validités qui se limitent mutuellement, toute tentative faite pour préciser l’une des images introduisant des incertitudes sur l’autre. C’est ce qu’expriment en termes mathématiques les fameuses relations d’incertitude d’Heisenberg : δq · δp ≥ h (9.1) (h constante de Planck) où q est une des coordonnées du corpuscule et p le moment conjugué au sens de Lagrange. Toutes ces idées sont bien connues et jouent un rôle essentiel dans toutes les 96 CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT formes de la Mécanique ondulatoire, mais elles ne suffisent pas encore aux besoins de la théorie du rayonnement. Elles nous permettent, certes, de comprendre comment un photon peut manifester un caractère corpusculaire, tout en étant représenté dans son évolution par un champ Ψ à caractère ondulatoire. Mais, en général, une onde lumineuse porte de nombreux photons et il nous faudra étudier encore comment une onde Ψ de la Mécanique ondulatoire peut se prêter à la représentation globale de nombreux corpuscules. C’est là d’ailleurs, une question qui s’est postée en Mécanique ondulatoire tout à fait indépendamment de la théorie de la Lumière et y a donné naissance à un chapitre particulièrement intéressant et difficile de cette science nouvelle : la théorie de la seconde quantification. La question essentielle que se pose la théorie de la seconde quantification est la suivante : Si une même onde Ψ est associée à tout un ensemble de particules de même espèce, comment devrait-on traduire le fait que, dans toute observation ou mensure, on devra toujours trouver des nombres entiers de particules ? Le fait que, dans toute observation conduisant à répartir les particules en un certain nombre de catégories, on doive toujours avoir un nombre entier de particules dans chaque catégorie, est une conséquence nécessaire du caractère d’unités physiques attribué aux particules. La théorie de la seconde quantification est parvenue à construire un formalisme qui est parfaitement satisfaisant à ce point de vue. Sans vouloir insister ici sur ce formalisme d’allure assez abstraite, nous voulons mettre en relief une idée physique qui se dégage très nettement de la théorie de la seconde quantification 1 : c’est qu’il est impossible de déterminer à la fois par une observation les intensités et les phases relatives des composantes de Fourier de l’onde Ψ associée à un ensemble de particules de même nature. La chose est assez aisée à comprendre. Déterminer les intensités des composantes de Fourier d’une onde revient en somme à isoler ces composantes, comme on le fait pour la lumière à l’aide d’un prisme ou d’un réseau ; et c’est, par suite, supprimer l’influence des différences de phase entre ces composantes. Au contraire, si l’on veut avoir des indications sur ces différences de phase, il faut observer un phénomène global où coopèrent plusieurs composantes de Fourier, ce qui interdit évidemment tout isolement de ces composantes. Nous retrouvons ici une de ces idées si profondes qui ont été introduites par les théories physiques nouvelles et dont la portée philosophique est loin d’être encore aperçue dans toute son étendue à l’heure actuelle. De même que la localisation des corpuscules et leur état de mouvement sont des « aspects complémentaires » au sens de Bohr qui ne peuvent être tous deux entièrement précisés à un même instant ; de même que l’existence d’un système formé de corpuscules (atome ou molécule par exemple) en tant qu’organisme autonome et l’individualité de ces constituants sont aussi des aspects complémentaires, toute observation du système dans son 1. Tout au moins ce qui suit, sŠapplique-t-il aux particules qui, comme les photons, obéissent à la statistique de Bose-Einstein. 97 évolution propre devant largement respecter son autonomie tandis qu’une analyse complète du système exige nécessairement sa destruction ; de même ici, la collaboration de plusieurs composantes de Fourier, faisant intervenir la cohérence des phases au sens usuel de 1’Optique, est « complémentaire » de la répartition entre composantes de Fourier des entités physiques individuelles, cette répartition exigeant un isolement des composantes de Fourier qui brise la cohérence des phases, alors que l’observation des phénomènes dus à cette cohérence n’est compatible avec aucun dénombrement des particules attachées à telle ou telle composante de Fourier. Cette nouvelle « complémentarité » au sens de Bohr s’exprime par les nouvelles relations d’incertitude : δN · δφ ≥ h (9.2) où N est le nombre de particules attachées à une certaine composante de Fourier et φ la phase de cette composante. Ce sont les relations d’insertitude de la seconde quantification. Tous ces développements ne sont pas encore suffisants pour obtenir une véritable théorie quantique. Ils montrent bien comment doit se faire le raccord entre le point de vue corpusculaire et le point de vue ondulatoire, entre les grains d’énergie et les champs Ψ ; mais ils ne permettent pas encore de rejoindre le point de vue électromagnétique de Maxwell, ni même l’image des ondes lumineuses transversales et polarisées dont 1’Optique physique ne saurait se passer. Pour aller jusque-là, il faut d’abord, ainsi que je l’ai déjà expliqué dans d’autres exposés, introduire pour le photon une forme de la Mécanique ondulatoire qui contienne les éléments de symétrie nécessaires à la représentation de la polarisation. On peut le faire en partant de la Mécanique ondulatoire relativiste de l’électron magnétique et tournant due à M. Dirac et en supposant de plus que le photon est formé de deux constituants symétriques obéissant à des équations du type de Dirac. On obtient ainsi une véritable Mécanique ondulatoire du photon. Du même coup on arrive aisément à armer le photon d’un champ électromagnétique. Le champ Ψ du photon apparaı̂t, en effet, comme une grandeur à plusieurs composantes (ainsi que l’est déjà le champ Ψ de l’électron magnétique de Dirac) : les grandeurs électromagnétiques de la lumière sont définies comme des combinaisons linéaires de ces composantes et se trouvent coı̈ncider avec les grandeurs de la théorie de Maxwell. Mais, comme dans les phénomènes où intervient le rayonnement, il y a presque toujours de nombreux photons en présence, il est tout naturel, pour représenter les propriétés de ces assemblées de photon, de soumettre l’onde Ψ du photon à l’opération de la seconde quantification, puisqu’un procédé de ce genre a très bien réussi dans le cas des particules matérielles. Or, ici, la seconde quantification de l’onde Ψ du photon entraı̂ne automatiquement l’existence de relations d’incertitude entre les composantes du champ électromagnétique de la lumière. Nous pouvons préciser 98 CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT la forme de ces relations d’incertitude de la manière suivante. Supposons que dans une onde lumineuse de longueur d’onde λ nous disposions un appareil de mesure occupant un volume ν et susceptible de nous fournir la valeur moyenne des champs électromagnétiques dans ce volume ν : les relations d’incertitude dont nous parlons nous apprennent que l’on ne peut mesurer simultanément avec exactitude la valeur d’une des composantes du champ électrique de l’onde lumineuse et celle d’une des composantes perpendiculaires du champ magnétique. Si ∆Ex est l’incertitude sur l’une des composantes du champ électrique et ∆Hν , l’incertitude sur l’une des composantes perpendiculaires à Ex du champ magnétique, on a toujours : ∆Ex · ∆Hν ≥ hc λν (9.3) Ces relations d’incertitude pour les champs électromagnétiques ont été trouvées grâce à un raisonnement direct par M. Heisenberg au début du développement de la théorie quantique du rayonnement. Elles résultent, en effet, très naturellement du fait qu’une mesurée simultanée, aussi précise que possible, des grandeurs électromagnétiques d’une onde lumineuse, si elle est effectuée à l’intérieur d’un volume ν de l’espace parcouru par cette onde, ne doit jamais pouvoir conduire à localiser une fraction de photon dans le domaine ν. Autrement dit, l’existence des incertitudes données par la formule (9.3) est nécessaire pour que la continuité du champ électromagnétique n’entre pas en conflit direct avec le caractère discontinu du photon, tout comme l’existence des incertitudes données par la formule (9.1) est nécessaire pour empêcher l’image des ondes de se trouver jamais en conflit direct avec l’image des corpuscules. On peut, d’ailleurs, aussi montrer qu’en fait, aucun procédé de mesure imaginable ne peut fournir un résultat plus précis que ne le permettent les relations (9.3) : cette démonstration résulte d’une analyse subtile des conditions de la mesure des champs électromagnétiques qui a été faite par MM. Bohr et Rosenfeld. M. Bohr a fait ici une analyse tout à fait analogue à celle qu’il avait développée antérieurement pour les relations (9.1). Sur les formules de la théorie quantique des champs électromagnétiques exposée de la manière formelle qui est usuelle, on peut voir déjà que les relations d’incertitude (9.3) pour les champs correspondent à l’impossibilité de connaı̂tre simultanément le nombre de photons liés à l’une des composantes de Fourier du champ électromagnétique et la phase de cette composante. Mais ceci apparaı̂t plus clairement encore avec la Mécanique ondulatoire du photon qui met immédiatement en relation la quantification des champs et les relations d’incertitude (9.3) avec la méthode générale de seconde quantification appliquée à l’onde du photon. ∴ 99 Dans ce qui précède, nous avons vu comment on pouvait obtenir une bonne théorie d’ensemble du rayonnement quantifié dans le vide. Mais des difficultés plus grandes se présentent quand on passe à l’étude du rayonnement en présence de matière, à la théorie des échanges d’énergie entre matière et radiation. Dans la théorie électromagnétique classique, on représente ces échanges d’énergie d’une façon assez dissymétrique. D’une part, l’action du champ électromagnétique sur les charges est représentée par l’introduction, dans les équations du mouvement des charges, des forces électriques et magnétiques que le champ doit exercer sur ces charges : d’autre part, l’action des charges électriques sur le champ électromagnétique est représentée par le second membre des équations non homogènes qui, d’après Maxwell et Lorentz, règlent l’évolution de ce champ en présence de matière. Dans la théorie quantique du rayonnement, au contraire, les choses se présentent de façon plus symétrique et, par suite, plus satisfaisante. On y considère le système global formé par le rayonnement et les particules matérielles électrisées : on forme l’opérateur qui représente l’énergie de ce système en y faisant figurer des« termes d’interaction » qui correspondent à l’ensemble des échanges d’énergie, par transitions quantiques, entre la matière et le rayonnement. Suivant une voie différente, dans la Mécanique ondulatoire du photon, on peut d’abord écrire l’équation des ondes pour le système formé par un photon et les particules électrisées, puis soumettre l’onde du photon à la seconde quantification : on retrouve ainsi pour l’énergie du système l’opérateur obtenu par la théorie quantique des champs. Quand on a ainsi formé l’opérateur qui correspond à l’énergie d’un système constitué de photons et de particules électrisées, l’application d’une méthode générale bien connue en Mécanique ondulatoire, la méthode des perturbations, conduit à étudier par approximations successives les divers phénomènes d’interaction qui peuvent se produire entre la matière et le rayonnement. On trouve ainsi d’abord des phénomènes de première approximation dont la probabilité est proportionnelle au carré de la charge électrique des particules : ils correspondent soit au phénomène primaire où il y a cession totale de son énergie par le photon à la matière (effet photoélectrique au sens large du mot comprenant l’absorption du rayonnement par les systèmes atomiques ou moléculaires et l’effet photoélectrique au sens étroit du mot), soit au phénomène primaire inverse du précédent où il y a émission d’un photon par la matière. En deuxième approximation (phénomènes dont les probabilités sont proportionnelles à la quatrième puissance de la charge des particules), on trouve les diverses sortes de diffusion : diffusion cohérente de Rayleigh et de Thomson, diffusions avec changement de fréquence de Raman et de Compton. On peut les concevoir comme des processus complexes comportant la succession de deux phénomènes primaires d’émission et d’absorption (avec retour à l’état initial dans le cas de la diffusion cohérente, avec passage à un état final différent de l’état initial dans le cas de la diffusion avec changement de fréquence). 100 CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT En troisième approximation, on trouve le rayonnement dit d’accélération et divers effets multiples, etc. Tous les résultats obtenus par ces calculs, où le point de vue de la théorie quantique des champs et celui de la Mécanique ondulatoire du photon se rejoignent entièrement, sont très satisfaisants et tout à fait en accord avec ce que pouvait faire attendre l’application du principe de correspondance de Bohr. Dans ces théories, on n’admet pas l’existence d’actions directes des charges électriques les unes sur les autres : le seul phénomène primaire est l’échange d’énergie et de quantité de mouvement entre une particule électrisée d’une part et le rayonnement d’autre part. Il faut pourtant expliquer pourquoi tout se passe comme s’il existait entre deux particules électrisées une force d’attraction ou de répulsion Coulombienne. On y parvient par l’analyse suivante. Considérons deux charges électriques A et B. La charge A peut céder de l’énergie et de la quantité de mouvement au rayonnement ambiant qui, ainsi modifié, peut à son tour réagir sur la charge B ; le processus inverse (action de la charge B sur le rayonnement ambiant suivi de l’action de ce rayonnement sur la charge A) pouvant d’ailleurs se produire également. Or le résultat final de ces deux processus inverses est une action apparente des deux charges l’une sur l’autre. Comme le rayonnement électromagnétique peut se décomposer en ondes longitudinales et en ondes transversales, ces dernières constituant la lumière, il est naturel de faire le calcul successivement pour ces deux catégories d’ondes. Pour les ondes longitudinales, on obtient ainsi le potentiel Coulombien électrostatique habituel : pour les ondes transversales, on obtient des termes correctifs représentant des effets de « retardement » bien connus dans la théorie des potentiels électromagnétiques. Ces corrections sont représentées en première approximation par les formules aujourd’hui classiques de Breit et de Möller. Jusqu’ici tout va bien. Mais les choses se gâtent lorsqu’on cherche à évaluer la réaction de la particule sur elle-même, ce qui devrait conduire à trouver la valeur de l’énergie propre de la particule. Le schéma du calcul est toujours le même : la particule électrisée agit sur le rayonnement qui à son tour réagit sur la particule elle-même. Or, ici, aussi bien pour les ondes longitudinales que pour les ondes transversales, on trouve des énergies infinies. C’est là une difficulté qui est tout à fait caractéristique de la théorie quantique de la radiation dans son état actuel. Il est, d’ailleurs, facile de voir d’où elle provient. Dans la théorie classique, pour pouvoir attribuer à l’électron une énergie finie, il est nécessaire de supposer que l’électron a un rayon fini r0 de façon que l’énergie de son champ électrostatique e2 soit finie. On trouve ainsi que le rayon r0 doit avoir une valeur de la forme η m0 c2 où e et m0 sont la charge électrique et la masse propre de l’électron, c la vitesse de la lumière dans le vide, η étant un coefficient de l’ordre de l’unité dont la valeur exacte dépend des hypothèses faites sur la répartition de l’électricité à l’intérieur ou à la surface de l’électron, c’est-à-dire d’hypothèses sur la structure interne de 101 l’électron. On trouve ainsi pour r0 une valeur de l’ordre de 10−13 centimètre, ce qui dans le cadre des idées classiques est très acceptable. Dans les théories quantiques, la question ne peut pas être posée de la même manière, car ces théories, à cause des incertitudes qu’elles comportent, ne peuvent pas décrire des structures comme le faisaient les théories antérieures. Pour elles, une distribution continue dans l’espace ne peut jamais apparaı̂tre que comme la représentation statistique d’une incertitude sur la localisation spatiale d’un élément ponctuel. Ne pouvant introduire une structure de l’électron au sens classique, les auteurs de la description quantique des champs électromagnétiques ont admis implicitement le caractère ponctuel de l’électron et c’est là ce qui a conduit à des valeurs infinies pour les énergies propres des électrons et pour leurs interactions avec le rayonnement. Plusieurs tentatives ont été faites, naturellement, pour éviter ces valeurs infinies qui sont physiquement inadmissibles. Aucune d’elles jusqu’à présent n’a remporté un succès assez complet pour qu’on puisse la considérer comme levant la difficulté. La question reste ouverte. D’autres difficultés se dressent d’ailleurs devant la théorie quantique du rayonnement dans le domaine des très hautes fréquences dont l’importance est si grande pour l’étude des rayons cosmiques. Dès que la fréquence d’une radiation est assez élevée pour que son quantum dépasse le double de l’énergie propre de l’électron, cette radiation est susceptible de donner naissance, même dans le vide, à l’apparition d’une paire de corpuscules formée d’un électron positif et d’un électron négatif, paire qui est créée, peut-on dire, aux dépens de l’énergie de la radiation. La possibilité d’un tel phénomène a pour résultat que ces rayonnements de très haute fréquence ne doivent plus obéir à des équations du type « linéaire » analogues à celles qu’on avait toujours rencontrées jusqu’ici dans les théories de la Lumière. Il doit en résulter de grandes complications dont l’étude est à peine amorcée. Nous arrivons ainsi à des questions qui sont, pour ainsi dire, à l’extrême limite de nos connaissances actuelles : la théorie quantique du rayonnement a encore là beaucoup de progrès à accomplir. 102 CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT Chapitre 10 Récent progrès dans la théorie des photons et autres particules Pour bien se rendre compte des progrès accomplis dans ces dernières années par la théorie générale des particules, il convient de prendre un peu de recul et de se reporter par la pensée à l’époque des débuts de la Mécanique ondulatoire. Un tel retour vers le passé est presque nécessaire. Quand, en effet, on voit chaque jour un être humain, on s’aperçoit à peine des modifications que le temps lui fait subir, mais, si au bout de plusieurs années l’on évoque dans sa mémoire les images du passé, on constate soudain que l’enfant est devenu homme ou l’homme vieillard et l’on prend conscience des changements survenus. De même, en suivant constamment l’évolution graduelle de ces « êtres de raison » que sont les théories physiques, on ne ressuent pas toujours nettement l’étendue de leurs progrès : c’est en reportant sa pensée de quelques années en arrière que l’on peut mesurer le chemin parcouru. A l’époque des débuts de la Mécanique ondulatoire, vers 1926 ou 1927, par exemple, on était parvenu à caractériser l’état d’un corpuscule par une fonction d’onde la fonction Ψ, à caractère scalaire dont M. Schrödinger venait de préciser la détermination mathématique. On savait qu’on exprimait ainsi pour les entités élémentaires l’existence d’un dualisme onde-corpuscule analogue à celui que les découvertes expérimentales avaient contraint d’admettre pour la lumière et qui avait remis en question l’immense et magnifique synthèse ondulatoire et électromagnétique réalisée en deux étapes par Fresnel et Maxwell au cours du XIXe siècle. On savait aussi depuis le printemps de 1927 que cette dualité onde-corpuscule des entités physiques élémentaires n’était pas une simple vue de l’esprit, mais correspondait à des propriétés réelles et longtemps insoupçonnées des électrons (diffraction par les cristaux). Cependant, dans ce brillant développement de la Mécanique ondulatoire, une circonstance étrange se présentait : dans cette Mécanique ondulatoire sous la forme 103 104 CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE initiale non-relativiste issue des travaux de M. Schrödinger, rien ne permettait d’apercevoir comment le dualisme onde-corpuscule pour la lumière viendrait trouver sa place dans le cadre de cette doctrine nouvelle. Pour l’auteur du présent article, en particulier, cette situation paraissait bien étrange et décevante. Dans les recherches qui nous avaient antérieurement permis de dégager l’idée fondamentale de la Mécanique ondulatoire, deux préoccupations nous avaient constamment guidé : d’abord celle d’établir une dualité onde-corpuscule susceptible de s’appliquer d’une façon générale aussi bien à la lumière qu’à la matière ; ensuite celle de déduire les formules liant les deux termes de la dualité onde-corpuscule à l’aide de raisonnements fondés essentiellement sur les conceptions relativistes et sur la transformation de Lorentz. Et voilà qu’on aboutissait à une Mécanique ondulatoire non-relativiste et inapplicable à la lumière ! La fonction Ψ de la Mécanique ondulatoire avec son caractère scalaire ne fournissait aucun élément permettant de définir quelque chose d’analogue à une onde électromagnétique avec son caractère vectoriel et sa polarisation. Pour comble de malheur, l’interprétation probabiliste de la Mécanique ondulatoire, qui bientôt s’avérait la seule possible et à laquelle presque tous les théoriciens se ralliaient l’un après l’autre, enlevait à l’onde toute signification physique au sens classique du mot et semblait la rendre définitivement inutilisable pour la représentation de grandeurs à sens physique bien net comme les champs électromagnétiques. Cette fonction Ψ n’était-elle pas d’ailleurs par essence une fonction complexe alors que, quand on voit la trajectoire d’un électron s’incurver sous l’action d’un champ électrique ou magnétique, on ne peut pas douter que la force subie par l’électron et par suite le champ dont cette force dérive ne soient des grandeurs nécessairement réelles ? Aussi, lorsque Lorentz, l’illustre promoteur de la théorie classique des électrons presque parvenu alors au terme de sa vie, posait avec une certaine anxiété au Congrès Solvay d’octobre 1927 la question suivante : « Quel rapport y a-t-il entre l’onde Ψ d’un photon et l’onde électromagnétique de Maxwell ? » aucun des physiciens présents ne put-il faire la moindre réponse satisfaisante. Dans les années qui suivirent 1927, la situation ne parut pas s’améliorer. M. Dirac avait pourtant donné une forme relativiste à la Mécanique ondulatoire de l’électron grâce à sa belle et justement célèbre théorie de l’électron magnétique. Cette théorie introduisait automatiquement le « spin » de l’électron, c’est-à-dire ces propriétés de moment magnétique et de moment cinétique propres que l’expérience avait montré devoir être attribuées à l’électron si l’on voulait parvenir à une interprétation correcte de nombreux phénomènes. De plus, de cette théorie de Dirac, la fonction d’onde Ψ cesse d’être une grandeur unique et invariante : elle devient une grandeur à quatre composantes, ces quatre composantes se transformant linéairement quand on change de système de référence Galiléen. Il y a donc des traits qui rapprochent cette nouvelle Mécanique ondulatoire de la théorie 105 de la Lumière : caractère relativiste, symétries nouvelles introduites par le spin, multiplicité des composantes de la fonction d’onde analogue à la multiplicité des composantes de la vibration lumineuse de Fresnel ou du champ électromagnétique lumineux de Maxwell. Il n’en restait pas moins des différences profondes entre les deux théories : le spin n’a pas la même symétrie que la polarisation ; la fonction Ψ de Dirac malgré ses quatre composantes n’est pas un vecteur d’espace-temps et n’a aucun caractère tensoriel ; enfin l’électron de Dirac est un corpuscule qui suit la statistique de Fermi et, en liaison avec ce fait, sa fonction d’onde Ψ conserve le caractère d’une grandeur inobservable et sans signification physique directe. ∴ Tandis que Dirac introduisait ainsi la relativité et le spin dans la Mécanique ondulatoire de l’électron, divers théoriciens, notamment MM. Jordan, Pauli, Heisenberg et Dirac lui-même, esquissaient une théorie quantique du rayonnement. Par un raisonnement aujourd’hui classique, M. Heisenberg a montré qu’on ne peut concilier les formules usuelles pour la densité de l’énergie et de l’impulsion électromagnétiques avec l’existence des photons qu’à condition de considérer les grandeurs électromagnétiques comme des grandeurs quantiques soumises, à des relations de non-commutation. Cette idée nouvelle a pu être développée sous une forme générale et précise en partant de l’équivalence bien connue en théorie classique entre le rayonnement électromagnétique et un ensemble d’oscillateurs harmoniques ; cette assimilation qui repose essentiellement sur l’idée que les grandeurs électromagnétiques sont nécessairement des quantités réelles conduit à certaines règles de commutation. Les règles ainsi obtenues ont été utiles et ont souvent donné des résultats intéressants, mais elles soulèvent aussi de graves difficultés et conduisent notamment à une conséquence très fâcheuse : une onde électromagnétique de fréquence ν 1 transporterait toujours un nombre de photons hν égal à n + , n étant un nombre 2 entier, résultat tout à fait contraire à la notion même du photon conçu comme une unité indivisible d’énergie radiante. Malgré Ces difficultés qui n’étaient pas négligeables, la théorie quantique des champs électromagnétiques établie sur cette base est parvenue à une description satisfaisante des interactions entre matière et rayonnement, c’est-à-dire des phénomènes d’émission, d’absorption, de diffusion avec ou sans conservation de la fréquence, d’effet photoélectrique, etc. Elle permet aussi d’interpréter rai actions électromagnétiques entre particules électrisées en admettant que les particules n’exercent pas d’actions directes les unes sur les autres, mais que, chacune agissant sur un champ de rayonnement ambiant et subissant sa réaction, elles se 106 CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE trouvent couplées entre elles par l’intermédiaire de ce champ : c’est là une idée très intéressante et importante sur laquelle nous reviendrons plus loin. Néanmoins la théorie quantique des champs, malgré son intérêt et ses succès, ne pouvait pas donner toute satisfaction au point de vue de la résorption de la théorie du rayonnement dans le cadre de la Mécanique ondulatoire. Nulle part, dans l’exposé de cette théorie, il n’était question d’une onde du photon, ni d’une équation de propagation pour le photon. On sentait bien, il est vrai, que les relations de commutation entre les grandeurs électromagnétiques correspondaient à une opération bien connue en Mécanique ondulatoire, l’opération de seconde quantification, mais on ne pouvait pas préciser cette intuition puisqu’il eût fallu pour cela connaı̂tre la Mécanique ondulatoire du photon et sa fonction Ψ. On sentait bien aussi que les grandeurs électromagnétiques jouaient en théorie du rayonnement le rôle de composantes due la fonction Ψ du photon, mais on ne parvenait pas non plus à préciser nettement cette analogie. On en était d’autant plus empêché que l’on voulait toujours employer systématiquement des expressions réelles pour les grandeurs électromagnétiques, alors que les composantes d’une fonction Ψ en Mécanique ondulatoire sont des grandeurs essentiellement complexes. C’était également d’ailleurs l’emploi des grandeurs électromagnétiques réelles qui conduisait à assimiler le rayonnement à un ensemble d’oscillateurs, assimilation dont nous avons vu plus haut la conséquence fâcheuse, et à donner à la densité de l’énergie une forme difficilement conciliable avec la théorie correcte de la seconde quantification. La théorie quantique des champs, ne parvenant pas à établir une Mécanique ondulatoire du photon, avait aussi l’inconvénient de masquer complètement la question du spin du photon et de ne permettre sans liaison nette entre la polarisation et le spin. Nous verrons cependant que ce sont là des liaisons essentielles. La manière, certainement très fructueuse, mais à notre avis un peu contestable, dont la question de la quantification du rayonnement avait été abordée par la théorie quantique des champs avait conduit beaucoup de physiciens à penser que l’aspect corpusculaire du rayonnement symbolisé par le photon est beaucoup moins réel que l’aspect corpusculaire de la matière. On en arrivait à considérer comme presque accidentelle l’analogie entre la dualité onde-corpuscule pour la matière et cette même dualité pour la lumière, alors que cependant c’était à cette analogie fondamentale que la Mécanique ondulatoire avait dû de pouvoir construire ses premières assises. Pour soutenir cette opinion, on faisait valoir que dans une assemblée de photons en présence de matière le nombre des photons peut varier par suite des phénomènes d’absorption ou d’émission du rayonnement par la matière, circonstance qui jouer même un rôle essentiel dans la déduction de la loi de Planck pour la répartition spectrale des énergies dans le rayonnement d’équilibre thermique par application de la statistique de Bose-Einstein aux photons : rien de semblable, disait-on, n’existait pour les particules matérielles, les électrons par 107 exemple, pour lesquelles on ne constatait jamais ni apparition, ni disparition et cette « permanence » des particules matérielles paraissait les distinguer entièrement des photons. On faisait aussi remarquer une autre différence entre le photon et l’électron : tandis que pour l’électron, même dans la théorie relativiste de Dirac, on peut attribuer à la probabilité de présence du corpuscule en chaque point de l’espace une expression toujours positive ou nulle, on avait pu démontrer que pour le photon il n’existait pas de probabilité de présence jouissant de cette propriété et on répétait que cette circonstance, à elle seule, suffisait à empêcher de considérer le photon comme une véritable particule même au sens (moins concret que le sens classique) que les théories quantiques actuelles attribuent à ce mot. Enfin, on faisait encore remarquer que les champs électromagnétiques doivent, on l’admettait comme évident, se décrire à l’aide de fonctions réelles alors que, d’après la Mécanique ondulatoire, les particules matérielles doivent se décrire à l’aide de fonction Ψ essentiellement complexes. Il faut bien dire que toutes ces raisons se sont aujourd’hui beaucoup affaiblies. D’abord nous savons maintenant que les électrons peuvent dans certaines circonstances apparaı̂tre et disparaı̂tre par paires formées d’un électron négatif et d’un électron positif de sorte que le caractère de permanence des particules matérielles n’a plus rien d’absolu : l’opposition entre photon et particule matérielle se trouve donc à ce point de vue très atténuée. Il est vrai que les électrons apparaissent ou disparaissent par paires d’électrons de signe contraire, tandis que les photons sont susceptibles d’apparaı̂tre ou de disparaı̂tre unité par unité. Ceci crée évidemment une différence entre photon et électron, mais on peut très bien l’interpréter, nous le verrons, en la liant à la différence de la valeur du spin pour les deux genres de particules. D’ailleurs, on a aujourd’hui découvert dans les Rayons cosmiques des particules matérielles d’un genre nouveau, les électrons lourds ou mésotons, particules qui tout comme les photons sont susceptibles d’apparaı̂tre ou de disparaı̂tre unité par unité. Quant à la question de la probabilité de présence, elle apparaı̂t actuellement sous un jour nouveau grâce au dévelopement progressif de la théorie générale des particules de spin quelconque : cette théorie montre en effet que pour toute par1 h ticule de spin supérieur à en unité quantiques , par exemple pour le mé2 2π soton auquel on est d’accord pour attribuer le spin 1, il est impossible de définir une probabilité de présence qui soit partout positive ou nulle ; alors que cela est 1 possible pour les particules du spin comme l’électron. Si le photon présente à ce 2 point de vue une différence avec l’électron, ce n’est pas parce que le photon n’est pas une « véritable » particule, c’est parce qu’il est une particule de spin supérieur 1 à , en l’espèce de spin 1 comme beaucoup de raison le prouvent. 2 Quant au caractère réel des fonctions qui décrivent le champ électromagné- 108 CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE tique, il semble bien, à notre avis, qu’il est seulement valable pour les phénomènes macroscopiques où interviennent un nombre très élevé de quanta et que la description microscopique des photons et de leurs interactions individuelles avec la matière doivent se faire à l’aide de fonctions complexes considérées comme les composantes d’une fonction Ψ. Il nous paraı̂t donc raisonnable de ne pas séparer d’une manière absolue la théorie du photon de celle des particules matérielles et de la faire rentrer dans les cadres de la Mécanique ondulatoire générale. C’est à ce désir que répond la Mécanique ondulatoire du photon que nous avons développée dans ces dernières annêes et dont nous allons maintenant dire quelques mots. ∴ Le point de départ de la Mécanique ondulatoire du photon consiste à admettre que la perticule « photon » se comporte comme une particule complexe de spin 1 dont on peut obtenir les propriétés en la considérant comme formée par deux 1 1 corpuscules de spin . En opérant la « fusion » de deux corpuscules de spin , fusion 2 2 qui se traduit par une opération mathématique tout à fait déterminée, on obtient les équations d’ondes de la particule « photon ». L’étude de ces équations montre d’ailleurs qu’elles se composent en deux groupes indépendants décrivant des états distincts de la particule, un état « singulet » et un état « triplet » pour leur donner une dénomination aujourd’hui d’usage courant chez les physiciens. L’état singulet doit être considéré comme ne pouvant se réaliser physiquement ou tout au moins comme ne jouant aucun rôle effectif dans le rayonnement car on ne connaı̂t aucun phénomène observable qui lui corresponde. L’état triplet au contraire est celui qui correspond aux propriétés réelles du photon : il est caractérisé par dix grandeurs qui ne sont autres que les quatre composantes de potentiel et les six composantes de champ classiques en théorie électromagnétique de la lumière. Ces dix grandeurs obéissent à quinze équations qui sont des équations bien connues de la théorie électromagnétique, quelques-unes d’entre elles pouvant se trouver complétées par de petits termes de masse si l’on admet que la masse propre du photon n’est pas rigoureusement nulle. Avec cette théorie, la polarisation de la lumière se trouve mise en relation étroite sous une forme très claire avec le « spin » de la particule « photon » dans l’état triplet, les ondes transversales à polarisation gauche et droite et les ondes longitudinales correspondant respectivement aux trois valeurs h 2h ,− et 0 qui sont possible pour la composante du spin dans la direction de π 2π propagation pour une particule dans un état triplet. En Mécanique ondulatoire du 109 photon, on peut arriver à définir une sorte de probabilité de présence, mais cette grandeur n’est pas partout positive ou nulle, comme, nous l’avons déjà dit, on devait s’y attendre ; par contre, l’énergie totale reste toujours positive. Toutes les grandeurs attachées au photon, telles que densités de présence, d’énergie, de spin, etc. peuvent s’exprimer élégamment à l’aide des grandeurs électromagnétiques par des formules dues pour la plupart à M. Géhéniau. Un des points importants de la Mécanique ondulatoire du photon est le suivant : assimilant les grandeurs électromagnétiques, champs et potentiels, à certaines composantes d’une fonction Ψ du photon, elle est amenée à supposer que les grandeurs électromagnétiques décrivant les propriétés de la lumière à l’échelle microscopique sont essentiellement des grandeurs complexes. Ce point de vue cadre très bien avec le schéma des interactions entre matière et rayonnement tel qu’il était implicitement admis par le principe de correspondance de Bohr sous sa forme primitive. Il conduit de plus à éviter l’assimilation du rayonnement à un ensemble d’oscillateurs quantifiés et les conséquences fâcheuses que cette assimilation entraı̂ne ; il attribue à la densité d’énergie électromagnétique une forme qui permet de ramener immédiatement et naturellement la quantification des champs à la seconde quantification de l’onde du photon. Enfin, la Mécanique ondulatoire du photon permet, en étudiant les interactions entre matière et rayonnement, de retrouver les résultats de la théorie quantique des champs : elle ouvre même quelques perspectives nouvelles en ce qui concerne le rôle des ondes longitudinales et le calcul des interactions entre particules électrisées par l’intermédiaire de ces ondes, mais par contre, elle ne permet pas sous sa forme actuelle de lever les difficultés qui se rencontrent déjà en théorie quantique des champs quant aux énergies propres des particules et au caractère divergent des intégrales qui les représentent. Il y a là des difficultés dont on n’aperçoit pas encore la solution à l’heure actuelle. ∴ Si les conceptions développées ci-dessus sont exactes, le photon étant simplement une certaine particule de spin 1, sa Mécanique ondulatoire doit venir trouver sa place dans le cadre général de la Mécanique ondulatoire des particules de spin quelconque. Or il y a, depuis quelque temps, un grand mouvement d’idées ayant pour but de constituer cette Mécanique ondulatoire générale des particules de spin quelconque. Ce mouvement d’idées a sa principale origine dans la découverte de l’électron lourd ou mésoton au sein des rayons cosmiques (1936-37). L’existence de cette particule avait été prévue, avec une perspicacité vraiment remarquable, par un physicien japonais, M. Yukawa, dès 1935. Pour décrire les propriétés de 110 CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE la particule dont il imaginait l’existence, M. Yukawa lui attribua implicitement tout d’abord un spin nul. Mais, après la découverte expérimentale du mésoton, il fut amené en 1937 à transformer sa théorie en décrivant le mésoton comme une particule de spin 1 et pour cela à faire usage d’équations proposées en 1936 par M. Proca, équations qui peuvent être considérées (bien que M. Proca les ait obtenues d’une façon tout à fait différente et indépendante de la théorie du photon) comme une généralisation des équations Maxwelliennes de la Mécanique ondulatoire du photon. Tous les théoriciens paraissent aujourd’hui d’accord pour décrire le mésoton comme une particule de spin 1. L’analogie entre les équations du mésoton et celles du photon permet de les considérer comme deux genres différents de particules de spin 1. Le développement de la théorie du mésoton a alors attiré l’attention sur l’intérêt que présente la théorie générale des particules du spin quelconque. Après un premier mémoire sur ce sujet dû à M. Dirac où le problème est abordé par une méthode qui ne nous semble pas être la plus directe, des articles de M. Kemmer et un travail récent de Fierz ont fait progresser la question. En réfléchissant aux résultats de ce travail, nous nous sommes aperçus qu’on pouvait les retrouver si l’on cherche à construire les particules de spins supérieurs en « fondant » un nombre 1 progressivement croissant de corpuscule de spin , c’est-à-dire en poursuivant le 2 1 processus qui nous avait permis en théorie du photon de passer du spin au spin 2 1 1. En fondant n corpuscules de spin , on peut ainsi obtenir une particule dont 2 n h le spin total maximum est égal à en unités . Si n est un nombre pair, 2 2π on obtient donc anisi une particule de spin entier : si n est un nombre impair, on obtient au contraire une parlicule de spin demi-entier. Dans le premier cas, les propriétés de la particule peuvent se représenter en attribuant aux composantes de son onde Ψ des caractères tensoriels : dans le second cas, ces composantes n’ont pas le caractère tensiorel et gardent le caractère spinoriel ou semi-vectoriel des composantes du Ψ de l’électron de Dirac. Pour la particule complexe du spin total n n maximum on aura un état de spin total maximum et de multiplicité n + 1, 2 2 n un état de spin total − 1et de multiplicité n − 1, ect., jusqu’à un état de spin 2 total 0 ou 1/2 suivant que n est pair ou impair et de multiplicité 1 ou 2. De cette façon, la cas n = 1 nous ramène à l’électron de Dirac, la cas n = 2 à la théorie du photon et à celle du mésoton ; le cas n = 4 paraı̂t convenir, selon M. Pauli, aux quanta de gravitation ou « graviton ». Pour isoler les cas de spin maximum, il faut s’imposer certaines conditions précisées par M. Fierz dans son mémoire et qui reviennent à choisir nulles des constantes arbitraires figurant dans la théorie 111 des particules obtenues par fusion. Pour les particules de spin entier, cet isolement du spin total maximum, ainsi d’ailleurs que l’isolement des autres valeurs du spin total, présente un caractère tensoriel. Dans le cas des théories du photon et du mésoton, on est ainsi amené pour isoler la valeur 1 du spin maximum à annuler les grandeurs non Maxwelliennes et à ne garder que les grandeurs Maxwelliennes et les équations Maxwelliennes, c’est-à-dire les équations de Maxwell pour le photon et les équations de Proca pour le mésoton. En résumé, la théorie des particules de spin quelconque que l’on peut obtenir par la fusion d’un certain nombre de 1 corpuscules de spin , paraı̂t avoir une grande généralité et contenir comme cas 2 particulier la théorie des états de spin total maximum donnée par M. Fierz. M. Fierz a d’ailleurs montré que pour toute partiicule de spin maximum supérieur ou égal à 1, la densité de probabilité de présence n’est plus nécessairement positive ou nulle en tout point de l’espace et qu’il en est de même pour la densité 3 de l’énergie quand le spin maximum est supérieur ou égal à Il en résulte que 2 le fait d’avoir une densité de probabilité de présence qui peut devenir négative n’empêche ni le photon, ni le mésoton qui partage avec lui cette disgrâce, d’être de véritables particules : il signifie simplement que ce sont là des particules de spin 1 supérieur à . Le photon est donc un cas particulier de particule de spin 1, cas 2 particulier qui devient d’ailleurs un cas singulier si l’on admet que sa masse propre est nulle. De toute façon, il nous paraı̂t aujourd’hui certain que le photon trouve sa place dans la théorie générale des particules et ce fait, en tirant la théorie du rayonnement du splendide isolement où l’on avait tenté de la reléguer, fait disparaı̂tre la contradiction paradoxale qui avait pesé sur le développement primitif de la Mécanique ondulatoire quand, fille de la théorie de la lumière, elle ne parvenait plus à prouver ses liens de parenté avec sa mère. ∴ Il est intéressant de mettre les considérations qui précèdent en relation avec diverses autres théories physiques récentes. La découverte des neutrons et des électrons positifs, le développement consécutif de la Physique du noyau ont conduit à supposer (Heisenberg) que les noyaux des atomes sont toujours formées de protons et de neutrons liés entre eux par des forces ayant la nature des forces d’échange. Ce point de vue conduit à considérer le neutron et le proton comme étant en quelque sorte deux états différents d’une même particule lourde, le neutron étant susceptible de se transformer en proton avec émission d’un électron négatif et le proton de se transformer en neutron avec 112 CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE émission d’un électron positif. Dans les phénomènes de transmutation où il y a émission d’électrons positifs ou négatifs, ces électrons seraient, peut-on dire, créés lors d’un changement d’état de la particule proton-neutron. D’autre part, on sait que dans les transformations radioactives où il y a émission de rayons β, ces électrons β sont émis avec des énergies variables et forment un véritable spectre continu. Comme l’état antérieur à la désintégration et l’état postérieur paraissent avoir des énergies bien déterminées, le fait que les rayons β émis aient des énergies variables paraı̂t en contradiction avec la conservation de l’énergie. Pour sauver le grand principe de conservation, M. Pauli a imaginé que l’émission d’un rayon β dans une désintégration radioactive s’accompagnerait toujours de la projection d’une particule légère et non chargée, le neutrino, qui précisément parce qu’elle n’est pas chargée ne laisserait aucune trace de son passage à travers la matière et échapperait ainsi à toute observation. L’énergie disponible lors de la désintégration se partagerait alors d’une façon variable suivant le cas entre l’électron et le neutrino émis simultanément ; l’énergie emportée par le neutrino échappant à l’observation, on aurait l’impression d’un défaut dans la conservation de l’énergie. Cette hypothèse est fortement étayée par le fait que l’énergie maximum des rayons β c’est-à-dire la limite supérieure de leur spectre continu, paraı̂t bien correspondre à la différence d’énergie du noyau radioactif avant et après le processus de désintégration : on comprend en effet que, dans le cas particulier où le neutrino ne prend aucune énergie, l’électron β doit être projeté avec une énergie égale à l’énergie disponible au moment de la désintégration et ce doit être là la plus grande valeur possible de son énergie. De plus, en attribuant au neutrino le spin 1 , on satisfait aussi au principe de la conservation du moment d’impulsion qui se 2 trouverait, lui aussi en défaut si le neutrino n’existait pas. Bien que le neutrino ait obstinément refusé de manifester expérimentalement son existence d’une manière quelconque, les théoriciens ont généralement admis cette existence et M. Fermi s’est servi du neutrino pour développer une théorie qui a paru un moment non seulement interpréter l’émission des spectres β, mais fournir une image particulièrement intéressante de l’interaction entre particules lourdes (protons et neutrons). Nous voulons dire quelques mots maintenant de la tentative de M. Fermi. Comme nous l’avons déjà dit, l’interaction électrostatique et électromagnétique entre deux électrons s’interprète dans la théorie quantique des champs en admettant que les deux électrons n’agissent pas directement l’un sur l’autre mais que chacun est seulement couplé avec le champ de rayonnement ambiant. Les échanges virtuels d’énergie et d’impulsion entre les deux charges sont équivalents à l’existence d’une énergie potentielle correspondant à la loi de Coulomb et à la loi de Laplace. Voici alors l’idée essentielle de Fermi : si les interactions entre deux particules légères telles que des électrons ont lieu par l’intermédiaire des particules formant le champ électromagnétique (photons), on peut penser que l’interaction 113 entre deux particules lourdes (interaction proton-neutron par exemple) a lieu par l’intermédiaire d’un champ, le champ nucléaire, correspondant à des particules légères telles qu’électrons et neutrinos. On peut préciser cette idée : lorsqu’un neutron se transforme en proton, la conservation de la charge et du spin conduit à penser qu’il y a émission non seulement d’un électron négatif, mais aussi d’un neutrino, ce qui permet, nous l’avons vu, de sauveur 1a conservation de l’énergie dans le phénomène de l’émission des rayons β par les corps radioactifs. Inversement, la transformation d’un proton en neutron s’accompagnera de l’émission d’un électron positif et d’un antineutrino, en appelant antineutrino le corpuscule complémentaire du neutrino jouant par rapport à celui-ci le rôle que joue l’électron positif par rapport au négatif. Ceci explique l’émission d’un spectre β positif par de nombreux radioéléments artificiels obtenus par des transmutations nucléaires. Maintenant à ces couples de particules émises simultanément (électron-neutrino et antiélectronantineutrino), on peut chercher à faire correspondre un champ, le champ nucléaire de Fermi, analogue au champ électromagnétique, mais transportant une charge électrique négative ou positive. Puis, en appliquant à l’ensemble formé par un proton, un neutron et ce champ nucléaire le même genre de raisonnements qui sert à ramener l’action Coulombienne entre deux électrons à un échange d’énergie et d’impulsion par l’intermédiaire du champ électromagnétique ambiant, on pourra expliquer les actions s’exerçant entre proton et neutron (action d’une grande importance puisqu’elles assurent la stabilité des noyaux atomiques) comme dues à des échanges d’énergie et d’impulsion entre les deux particules par l’intermédiaire du champ nucléaire. Telle est la conception très originale et d’un haut intérêt qui fut proposée par M. Fermi. Malheureusement le développement de cette belle idée n’a pas conduit à un succès complet. La théorie des spectres β continus à laquelle elle conduit naturellement n’est pas eu bon accord avec l’expérience : il a fallu pour l’améliorer avoir recours (Uhlenbeck et Konopinski) à des hypothèses un peu artificielles et prêtant à la critique. D’autre part, le calcul des forces d’interaction entre proton et neutron par la méthode de Fermi a conduit à prévoir des champs beaucoup plus faibles que ceux qui sont réellement nécessaires pour assurer la stabilité des noyaux atomiques. En présence de ces échecs, M. Yukawa a proposé en 1935 d’admettre que l’interaction entre particules lourdes s’opérait non pas par l’intermédiaire d’un champ 1 nucléaire lié à des couples de particules légères de spin (électron et neutrino), 2 mais par l’intermédiaire d’un champ d’un type nouveau, le champ de Yukawa, qui serait lié à des particules de spin 1 susceptibles d’être émises et absorbées par unités ou non par paires comme les particules du champ de Fermi : il a montré qu’en attribuant à ces particules une masse de l’ordre de 100 fois celle de l’électron, on pouvait trouver des valeurs satisfaisantes pour les interactions proton-neutron. Nous avons déjà dit comment la découverte dans les rayons cosmiques de l’élec- 114 CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE tron lourd ou mésoton avait apporté bientôt une belle confirmation expérimentale des idées de Yukawa. Dans le cas de la transformation du neutron en proton, le mésoton émis doit avoir la charge de l’électron pour que le principe de la conservation de l’électricité soit sauf : ce mésoton est donc un électron négatif lourd. Par contre, dans la transformation du proton en neutron, il doit y avoir une émission d’un mésoton positif analogue à un électron positif lourd. Mais si au point de vue de leur charge, les mésotons chargés méritent le nom d’électrons lourds, par contre au point de vue de leur spin ce sont plutôt des photons lourds et cette analogie est confirmée par le fait que leurs équations d’onde paraissent bien être les équations de Proca à la forme Maxwellienne. Enfin le développement de la Physique nucléaire semblant indiquer que les interactions proton-proton et neutron-neutron sont du même ordre d’intensité que les interactions proton-neutron, il est devenu nécessaire d’admettre l’existence de « mésotons neutres » ou « neutrettos » qui auraient même spin et probablement même masse que les mésotons chargés, mais seraient dénués de charge électrique : ceux-là seraient vraiment des photons lourds, de la lumière lourde. Les propriétés des mésotons sont du reste encore bien mal connues : on ne sait même pas encore d’une façon certaine s’il y a une ou plusieurs sortes de mésoton. Mais, sans nous arrêter sur ces questions encore controversées, nous pouvons affirmer, semble-t-il, que le principal progrès accompli pendant ces dernières années dans la théorie du champ nucléaire a consisté à remplacer le champ nucléaire de 1 Fermi lié à des couples de particules indépendantes de spin , susceptibles d’ap2 paraı̂tre et de disparaı̂tre par paire, par le champ nucléaire de Yukawa lié à des particules de spin 1 susceptibles d’apparaı̂tre ou de disparaı̂tre une par une. Il est alors curieux de comparer cette évolution de la théorie du champ nucléaire à l’évolution simultanée de la théorie du rayonnement. Certainement influencé par les idées de Fermi et s’inspirant aussi (ou plutôt croyant s’inspirer) de nos idées, M. Pascual Jordan a développé en 1935 une « théorie neutrinienne de la lumière », théorie dans laquelle le champ électromagnétique est supposé lié à des couples de 1 particules indépendantes électriquement neutres et de spin qui seraient des neu2 trinos et des antineutrinos susceptibles d’apparaı̂tre et de disparaitre par paire. Le développement de cette théorie, d’ailleurs ingénieuse, conduit à des conceptions assez compliquées et plutôt artificielles et paraı̂t se heurter à dŠimportantes objections. Il nous semble qu’on parvient à des idées beaucoup plus satisfaisantes en conservant le point de vue (qui en réalité a toujours été le nôtre) d’après lequel le rayonnement électromagnétique lumineux doit être lié à des particules de spin 1 susceptibles d’apparaı̂tre et de disparaı̂tre une par une. On obtient alors, noms l’avons vu, la Mécanique ondulatoire du photon. Ainsi, en théorie du rayonnement, passer du point de vue de Jordan à celui de la Mécanique ondulatoire du photon 115 nous paraı̂t constituer un grand progrès analogue et parallèle, à celui qu’on a réalisé dans la théorie du champ nucléaire en passant du point de vue de Fermi à celui de Yukawa. On peut d’ailleurs ramener la disparition ou l’apparition unité par unité des mésotons et des photons à une disparition ou une apparition par paire si l’on admet que ce sont là en réalité des particules formées par la « fusion » de deux 1 corpuscules élémentaires de spin . Cette idée, qui nous a constamment guidé 2 dans nos recherches sur le photon, paraı̂t aussi, nous l’avons vu, très utile pour le développement de la théorie générale des particules de spin quelconque. L’esquisse des théories toutes récentes de la Physique particulaire que nous avons tenté de faire dans cet exposé permet de juger combien ces théories en plein épanouissement nous apportent chaque jour de belles perspectives nouvelles. 116 CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE Quatrième partie SUR DEUX IMPORTANTES QUESTIONS DE PHYSIQUE THÉORIQUE 117 Chapitre 11 Les rapports entre la théorie des quanta et la relativité Je n’ai aucunement la prétention dans cet exposé d’étudier dans toute son ampleur la question des rapports de la théorie des Quanta et de la théorie de la Relativité, ni de chercher à donner une solution à un problème très difficile dont l’examen complet exigera encore de nombreux efforts. Je me limiterai ici à la Relativité restreinte, estimant qu’il faudrait d’abord bien voir comment les conceptions quantiques peuvent se raccorder avec la théorie de la Relativité restreinte, avant de pouvoir aborder avec quelque chance de succès le problème beaucoup plus ardu et beaucoup plus étendu de la réconciliation des Quanta avec la Relativité généralisée. Même dans le domaine de la Relativité restreinte, je ne chercherai pas à faire un exposé systématique d’ensemble : je veux seulement présenter quelques remarques et réflexions destinées à préparer une discussion plus approfondie de la question. ∴ Avant de parler de l’espace-temps relativiste, il me paraı̂t utile de dire quelques mots de la façon dont les théories de la Physique classique représentaient les phénomènes physiques dans le cadre de l’espace Euclidien à trois dimensions. A l’intérieur de ce cadre considéré a priori comme étant « l’espace physique », on représentait la réalité physique à l’aide d’êtres mathématiques (scalaires, vecteurs ou tenseurs) ayant à chaque instant une valeur que l’on supposait être, au moins en principe, toujours exactement déterminable à l’aide de certaines observations ou de certaines mesures. Ainsi il paraissait évident que l’on devait en principe pouvoir mesurer exactement et simultanément les trois coordonnées d’un corpuscule 119 120 CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ ponctuel (c’est-à-dire les composantes du vecteur joignant la position de ce corpuscule à l’origine arbitrairement choisie des coordonnées) et les trois composantes de la vitesse de ce corpuscule. Il paraissait encore plus évident que la mesure d’une composante de vecteur devait dans le cas général pouvoir fournir n’importe quelle valeur. Supposer par exemple que la mesure des composantes d’une grandeur vectorielle ne puisse donner que des valeurs égales à un nombre entier de fois une certaine unité semblait absurde, car la mesure simultanée des trois composantes d’un vecteur ne peut pas donner un semblable résultat dans n’importe quel système de référence Cartésien. On sait que ces postulats implicitement admis par 1a Physique classique ont été complètement renversés par le développement des théories quantiques. Au fond, ce que les théories classiques admettaient, c’était non seulement la possibilité de décrire la réalité physique à l’aide d’êtres mathématiques scalaires, vectoriels ou tensoriels dans le cadre de l’espace à trois dimensions, mais c’était aussi la possibilité de déterminer par l’observation et par la mesure tous les éléments de cette description sans troubler appréciablement la réalité à étudier. Or les profondes analyses de certains fondateurs des théories quantiques contemporaines, notamment de MM. Bohr et Heisenberg, ont montré comment l’existence du quantum d’Action ne permet plus d’admettre une telle indépendance complète entre le contenu du monde physique et les constatations qui nous permettent de le connaı̂tre. Alors, il cesse d’être certain que nous puissions déterminer simultanément avec précision les diverses caractéristiques des êtres mathématiques qui nous servent à la description des phénomènes physiques, car l’opération qui nous permet de connaı̂tre l’une de ces caractéristiques peut très bien troubler complètement la valeur d’une autre de ces caractéristiques, de telle façon que la mesure précise des deux caractéristiques à la fois ne soit pas réalisable. C’est ce qui se passe pour l’une des coordonnées d’un corpuscule et la composante correspondante de quantité de mouvement comme l’expriment quantitativement les fameuses relations d’incertitude de M. Heisenberg : ∆q · ∆p ≥ h De même, deux composantes rectangulaires d’un moment de quantité de mouvement ne sont pas en général simultanément mesurables. C’est la raison pour laquelle la théorie quantique peut, sans contradiction, affirmer que la mesure exacte d’une des composantes du moment de quantité de mouvement doit toujours fournir h , alors qu’une telle affirmation serain incompréhenun multiple entier de l’unité 2π sible sil es trois composantes de ce moment étaient simultanément mesurables. Mais, une fois admise l’idée que les grandeurs élémentaires observables ont toujours des valeurs quantifiées et ne sont pas d’une façon générale simultanément mesurables, nous sommes nécessairement amenés à modifier très profondément la conception que nous nous faisions de l’espace à trois dimensions comme cadre des 121 phénomènes physiques. C’est ce que nous allons chercher à montrer en examinant de plus près le cas du moment cinétique. En théorie quantique, on fait correspondre à toute grandeur « observable », c’est-à-dire susceptible de mesure, un opérateur dont les valeurs propres sont les valeurs qu’une mesure peut fournir pour cette grandeur. Ainsi aux composantes Mx , My , Mz du moement cinétique d’un corpuscule par rapport à l’origine des coordonnées, correspondent les opérateurs : d d h y −z (Mx )op = − 2π i dz dy d d (My )op z −x dx dz h d d (Mz )op = − x −y 2π i dy dx h =− 2π i h (m entier). La mesure d’une de ces 2π h . Les opérateurs Mx , My , composantes doit donc fournir un multiple entier de 2π Mz n’étant pas commutables entre eux, la mesure simultanée de deux composantes ~ est impossible, ce qui lève toute contradiction. Mais, si l’on admet ainsi avec de M les conceptions actuelles que les seules valeurs possibles des grandeurs Mx , My , h Mz sont de la forme m , ces trois grandeurs ne paraissent plus aucunement avoir 2π le caractère des composantes d’un vecteur dans l’espace à trois dimensions. Comment alors parvient-on à conserver au moment de rotation le caractère d’un vecteur dans l’espace à trois dimensions ? C’est uniquement par la considération des valeurs moyennes. C’est, en effet, une des caractéristiques essentielles des théories quantiques nouvelles d’admettre que la valeur d’une grandeur observable A n’est pas en général bien déterminée, mais que cette grandeur a à chaque instant toute une série de valeurs possibles dont chacune a une certaine probabilité d’être trouvée lors d’une observation ou d’une mesure. Les valeurs possibles de la grandeur considérée dont les valeurs propres ak de l’opérateur correspondant. Quant à leurs diverses probabilités, on peut les évaluer de la façon suivante : soit Ψ la fonction d’onde (supposée normée) du corpuscule ou du système considéré ; si ϕ1 · · · ϕi · · · sont les fonctions propres de l’opérateur correspondant à la grandeur envisagée et X ck ϕ k si Ψ se développe suivant le système complet des ϕk sous la forme Ψ = et les valeurs propres sont de la forme m k la propabilité de la valeur propre ai correspondat à la fonction propre ϕi est |ci |2 . Cet énoncé doit d’ailleur être quelque peu modifié dans le cas des valeurs propres multiples et dans celui des spectres continus. 122 CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ Ainsi pour un système se trouvant dans l’état défini par la fonction Ψ, la grandeur observable A a toute une série de valeurs possibles, cahcune affectée d’une certaine probabilité. On peut aisément définir la « valeur moyenne » de la grandeur A comme étant l’espérance mathématique du résultat de sa mesure. Cette valeur moyenne a évidemment pour définition : X A= |ck |2 ak k et l’on démontre que l’on a aussi A= Ainsi, on aura : Mx = Z Z Φ∗ Aop Φ dτ Φ∗ (Mx )op Φ dτ etc. . . Or les valeurs moyennes ainsi définies possèdent le caractère (scalaire, vectoriel et tensoriel) des entité géométriques définies par les conceptions classiques dans le cadre de l’espace-temps. Par exemple, Mx , My et Mz forment les trois composantes rectangulaires d’un vecteur. C’est donc par l’intermédiaire des valeurs moyennes (ou plus généralement des éléments de matrice qui sont des sortent de valeurs moyennes prises pour des paires d’états), que l’on retrouve les représentations géométriques usuelles. La conclusion qui paraı̂t se dégager de ces constatations est la suivante. Les propriétés observables d’un système quantifié ne peuvent pas être directement représentées par des grandeurs à caractère géométrique dans le cadre de l’espace Euclidien à trois dimensions. Ce sont seulement les valeurs moyennes de ces propriétés observables, prises sur un grand nombre de systèmes identiques, qui sont représentables de cette façon. Ceci fait déjà apparaı̂tre le caractère statistique et macroscopique de l’espace physique à trois dimensions. Comme les phénomènes étudiés par la Physique macroscopique font toujours intervenir un nombre énorme de systèmes élémentaires quantifiés, les observations macroscopiques ne peuvent nous faire connaı̂tre que des moyennes : elles peuvent par suite être représentées à la façon classique. Ainsi s’explique le fait que la représentation classique des phénomènes physiques par des êtres géométriques dans le cadre de l’espace à trois dimensions ait été parfaitement suffisante, tant que les investigations de la Physique n’avaient pas pu pénétrer trop profondément dans la structure élémentaire de la matière. Nous comprenons du même coup pourquoi, malgré le caractère discontinu des phénomènes quantiques élémentaires, l’espace tridimensionnel continu est le cadre bien adapté à toutes nos représentations du monde physique dans la vie quotidienne, puisque notre connaissance courante du monde extérieur est fondée sur des observations macroscopiques. 123 Il importe aussi de remarquer que l’exactitude du cadre de l’espace en Physique quantique n’est plus indépendante des propriétés dynamiques des entités qu’on cherche à y localiser et dépend pour chacune d’elles de la valeur du paramètre dynamique « masse » qui lui correspond. Pour des systèmes de très grande masse les incertitudes d’Heisenberg deviennent négligeables et la localisation de tels systèmes dans le cadre de l’espace peut conserver une entière précision. Mais, pour des unités très légères comme le sont les particules de la Physique atomique, l’incertitude devient grande et le cadre de l’espace s’estompe en ne conservant plus qu’une signification moyenne. Ainsi, tandis que dans les idées classiques le cadre géométrique de l’espace à trois dimensions est donné a priori et est tout à fait indépendant de son contenu physique, dans la théorie quantique (comme d’ailleurs en Relativité généralisée, mais d’une façon très différente) l’espace n’est plus définissable indépendamment de son contenu. L’existence du quantum d’Action crée une liaison très étroite et d’une nature très nouvelle entre la localisation géométrique des unités physiques dans l’espace et leurs propriétés dynamiques. Il est temps d’aborder maintenant les questions touchant la Relativité. Avant de le faire, il nous a paru nécessaire de souligner que, même en dehors de toute idée relativiste, l’espace physique à trois dimensions apparaı̂t déjà aux yeux du physicien quantiste comme n’étant plus valable qu’en moyenne et n’étant pas bien adapté à une véritable description des processus élémentaires. L’espace-temps relativiste, étant une sorte d’extension à quatre dimensions du cadre classique à trois dimensions, devra nécessairement être soumis à une critique analogue : pour la théorie quantique, c’est seulement « en moyenne » que les processus élémentaires pourront venir se loger dans le cadre de l’espace-temps. ∴ Le développement de la théorie de Relativité et, en particulier, la critique si pénétrante qu’elle a effectuée des mesures de distance et de durée opérées dans différents systèmes de référence Galiléens en mouvement relatif, a conduit à représenter les phénomènes physiques non plus comme s’effectuant au cours d’un temps absolu et uniforme dans le cadre de l’espace à trois dimensions, mais comme représentables dans leur ensemble dans le cadre de l’espace-temps à quatre dimensions dont la métrique pseudo-Euclidienne est définie par le ds2 bien connu : ds2 = c2 dt2 − dx2 − dy 2 − dz 2 (c est la vitesse de la lumière dans le vide). L’évolution d’un objet matériel supposé ponctuel est représentée dans cet espace quadridimensionnel par une courbe, la ligne d’Univers de l’objet ponctuel, 124 CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ dont la continuité représente géométriquement le fait que l’existence de l’objet ponctuel persiste au cours du temps. La ligne d’Univers définit la position dans l’espace à chaque instant de l’élément ponctuel dans un système de référence quelconque. La tangente à la ligne d’Univers définit la vitesse instantanée du mouvement et, en multipliant la longueur d’un vecteur unité porté sur cette tangente par un facteur proportionnel à la masse propre du point matériel considéré, on obtient un vecteur, 1’Impulsion d’Univers, dont les quatre composantes dans tout système de référence donnent l’énergie divisée par c et l’impulsion du mobile ponctuel dans ce système. D’une manière plus précise, le vecteur unité porté le long de la ligne d’Univers (dit vitesse d’Univers) a pour composantes : ux = √ vx 2 1−β uy = √ vy 2 v 1−β avec β = v z uz = √ 2 c 1−β ut = √ c 1−β 2 et le vecteur « Impulsion d’Univers » s’obtient en multipliant la vitesse d’Univers par la masse m du mobile ponctuel. Ainsi, dans la conception même de l’espace-temps relativiste, on admet la possibilité, au moins théorique, de connaı̂tre simultanément tous les éléments qui fixent la position et le mouvement instantané et de les représenter géométriquement : la notion même de la ligne d’Univers prise dans toute sa rigueur exclut toute incertitude au sens d’Heisenberg. On peut donc voir déjà que l’introduction des théories quantiques et des « incertitudes » qu’elles comportent devait nécessairement ébranler le cadre même de l’espace-temps et qu’un certain conflit était inévitable entre ces théories et la théorie relativiste, même sous sa forme restreinte. Des relations d’incertitude : ∆xi · ∆pi ≥ h on tire en effet : h −m0 et l’on voit qu’il est impossible de connaı̂tre simultanément avec précision un point de la ligne d’Univers d’un mobile ponctuel et la tangente en ce point à cette ligne d’Univers. La représentation des phénomènes physiques ne peut donc plus se faire dans le cadre de l’espace-temps avec une entière précision, mais seulement avec un certain « flou ». L’existence de ce flou est due, les inégalités d’Heisenberg le montrent, à la valeur non nulle de la constante de Planck, c’est-à-dire à l’intervention quantum d’Action ; son importance dépend non seulement de h, mais de ∆xi · ∆ui ≥ 125 m0 . Nous voyons ainsi (et ce point peut être précisé davantage par une étude des relations d’incertitude pour les ensembles de points matériels) que la représentation dans le cadre de l’espace-temps est susceptible d’autant plus d’exactitude que le système est plus lourd. Le cadre de l’espace-temps se montre donc parfaitement adapté à la représentation des objets matériels ayant des masses de l’ordre macroscopique, mais par contre très mal adapté à la représentation des éléments matériels ayant des masses de l’ordre de celle des particules élémentaires. L’espacetemps est une notion senti de l’expérience à grande échelle dont l’utilisation dans le cas des processus élémentaires de la physique atomique est en principe sujette à caution. Laissant de côté pour l’instant la difficulté de concilier les incertitudes quantiques avec l’emploi de l’espace-temps, étudions dans quelle mesure la relativité restreinte est parvenue à assimiler la coordonnée « temps » aux coordonnées d’espace. Il est certain que la Relativité a établi entre le temps et l’espace un lien étroit qui n’existait aucunement dans les théories antérieures. Ce lien s’exprime par les formules bien connues de la transformation de Lorentz et il est en quelque sorte représenté géométriquement par la considération du continuum « espace-temps » à quatre dimensions et à métrique pseudo-Euclidienne. Néanmoins, il ne serait pas exact de dire que la théorie relativiste a aboli toute différence entre le temps et l’espace : non seulement cela serait évidemment contraire à toute notre expérience vécue, mais même au point de vue de la théorie abstraite des différences essentielles subsistent entre le temps et l’espace. D’abord dans le ds2 pseudo-Euclidien le carré dt2 a le signe contraire à celui des carrés des différentielles des variables spatiales : c’est ce que l’on peut exprimer également en disant que, pour donner au continuum spatio-temporel une métrique Euclidienne, il faut adjoindre aux trois √ coordonnées d’espace non pas la variable t, mais la variable −1t et cette introduction nécessaire de l’unité imaginaire montre déjà une grande différence de nature entre le temps et l’espace. C’est là une remarque très connue, mais on peut arriver à la même conclusion par d’autres considérations. L’existence des particules et leur persistance dans le temps se traduit en théorie de la Relativité par la présence dans l’espace-temps de lignes d’Univers qui sont toutes inclinées de moins de 45o sur l’axe du temps (quand on prend c = 1), cette dernière circonstance traduisant le fait qu’aucun corps matériel ne peut se déplacer avec une vitesse supérieure à la vitesse c. Le contenu de l’espace- temps présente donc une sorte de structure fibreuse dans le sens du temps. Cette structure suffirait à elle seule pour rompre la symétrie entre l’espace et le temps : elle a, de plus, d’importantes conséquences sur la façon de poser les problèmes comportant des conditions aux limites. Considérons par exemple une enceinte à l’intérieur de laquelle se passent certains phénomènes que l’on veut étudier : les lignes d’Univers des éléments matériels formant les parois de l’enceinte délimitent dans l’espace-temps une sorte de 126 CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ tube dont l’intérieur représente l’enceinte considérée à toutes les époques successives et dont l’axe est orienté dans le sens du temps. Si l’étude des phénomènes considérés donne lieu à un problème mathématique comportant des conditions aux limites sur les connu de l’enceinte, dans l’espace-temps ces conditions aux limites ne sont pas symétriques en espace et en temps. De même on peut définir le champ Coulombien d’une charge ponctuelle en écrivant que le potentiel correspondant obéit à l’équation de Laplace et est nul à l’infini : mais cette dernière condition comporte aussi une certaine dissymétrie entre l’espace et le temps, car, en raison de la persistance de la charge ponctuelle au courts du temps, on ne peut pas dire que le potentiel Coulombien doive être nul à l’infini dans le sens du temps. Ces remarques nous paraissent avoir une certaine importance pour la comparaison avec la Relativité des problèmes aux limites qu’envisage la nouvelle Mécanique dans la détermination des états stationnaires. ∴ En étudiant les théories quantiques à l’approximation non relativiste qui emploie le cadre de l’espace à trois dimensions et admet le caractère absolu du temps, nous avons vu que ce sont seulement les valeurs moyennes qui sont représentables par des êtres géométriques dans l’espace à trois dimensions. Si nous voulons maintenant passer au point de vue relativiste, nous devons nous attendre à trouver quelque chose d’analogue : et en effet, l’étude de la théorie de l’électron magnétique de M. Dirac, qui nous fournit un exemple précis d’une théorie à la fois quantique et relativiste, conduit bien à attribuer le caractère de grandeurs représentables par des êtres géométriques (scalaires, vecteurs ou tenseurs) dans l’espace-temps non pas aux grandeurs elles-mêmes telles qu’elles sont individuellement observables, mais à leurs valeurs moyennes probables, ou plus précisément aux « densités » de ces valeurs moyennes. Nous allons préciser ce point. Dans la théorie de l’électron de Dirac, la fonction d’onde de l’électron est une grandeur mathématique à quatre composantes Ψ1 , Ψ2 , Ψ3 , Ψ4 , obéissant à une équation aux dérivées partielles simultanées qui s’écrit symboliquement en l’absence de champ extérieur : d d d 2π i 1 dΨi = α1 + α2 + α3 + m0 c α4 Ψi i = 1, 2, 3, 4 c dt dx dy dz h où les αi sont des matrices hermitiennes à quatre lignes et quatre colonnes satisfaisant aux relations : αi αj + αj αi = 2δij (i, j = 1, 2, 3, 4) 127 δij étant le symbole bien connu de Kronecker. Si l’électron considéré est soumis à un champ électromagnétique extérieur, il faut introduire dans l’équation des ondes des termes dépendant des potentiels électromagnétiques : nous n’insisterons pas ici sur ce point. Les équations de Dirac possèdent l’invariance relativiste quant à leur forme : si l’on a écrit ces équations avec un certain choix de matrices dans un premier système de référence Galiléen et si Ψ de composantes Ψ1 , Ψ2 , Ψ3 , Ψ4 est une solution des équations ainsi écrites, dans un second système de référence Galiléen, la fonction d’onde Ψ′ sera solution d’équations ayant la même forme avec le même choix des αi et les composantes Ψ′i de Ψ′ seront des combinaisons linéaires des Ψi , les coefficients de ces combinaisons linéaires dépendant naturellement de la transformation de Lorentz qu’il faut effectuer pour passer du premier système de référence au second. Au point de vue de la forme des équations d’onde, la théorie de M. Dirac est donc bien relativistiquement invariante. Nous saurons à examiner plus loin dans quelle mesure cette invariance est complète. Le formalisme de la théorie de Dirac et son interprétation physique sont voisins de ceux de la théorie quantique non relativiste. A chaque grandeur physique mesurable, à chaque « observable » on y fait correspondre un opérateur A linéaire et hermitique et l’on admet que les seules valeurs qu’une mesure exacte de la grandeur puisse fournir sont les valeurs propres de l’opérateur A. A chaque grandeur observable, est donc associée une liste de valeurs possibles pour cette grandeur et il n’y a rien là à priori qui permette de donner aux grandeurs physiques une représentation géométrique dans l’espace-temps. Comme en Mécanique quantique non relativiste, c’est seulement quand on passe au point de vue des valeurs moyennes que l’on peut parvenir à classer les grandeurs observables de façon à pouvoir les représenter par des êtres géométriques dans l’espace-temps. Dans la théorie de M. Dirac, la valeur moyenne d’une grandeur observable A pour un électron dans l’état Ψ est donnée par la formule : Z X 4 A= Φ∗i A Φi dxdydz 1 Ce sont les densités de ces valeurs moyennes, c’est-à-dire les quantité de la 4 X forme Ψ∗i A Ψi qui possèdent un caractère tensoriel dans l’espace-temps. C’est 1 par de telles « densités » que sont définis par exemple le quadrivecteur densitéflux, le quadrivecteur correspondant au spin, le tenseur antisymétrique du second rang donnant les moments électrique et magnétique propres de l’électron, etc. Le raccord avec le cadre de l’espace-temps se fait donc en théorie de Dirac par l’intermédiaire de ces densités de moyenne. Ce fait est assez remarquable, car il semble bien qu’au point de vue purement quantique, les densités de moyenne 128 CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ n’aient pas une signification physique très nette. A ce point de vue, c’est l’intégrale A de la précédente formule, fonction seulement du temps, qui a un sens physique : elle représente l’espérance mathématique pour la valeur de la grandeur A dans l’état défini par la fonction Ψ . Les densités de moyenne ne sont définies qu’à une divergence d’espace près et souvent il faut profiter de cette indétermination si l’on veut avoir pour les densités de moyenne des expressions réelles. Ainsi ces densités ne paraissent pas avoir au point de vue quantique d’interprétation directe ; mais, par contre, elles présentent des variances relativistes déterminées et, de plus, elles ont le caractère de « grandeurs de champ » c’est-à-dire de grandeurs fonctions de x, y, z, t définies en chaque point de l’espace-temps. Donc, et cette remarque nous paraı̂t très importante, ce sont les densités die moyenne qui permettent de réconcilier, autant qu’il est possible, le point de vue corpusculaire quantique avec le point de vue de la Physique du champ servant de base à toutes les conceptions relativistes. Le rôle des densités de moyenne en Mécanique ondulatoire relativiste paraı̂t donc fondamental et à certains égards assez singulier. ∴ D’après ce que nous venons de dire, il est visible que la Mécanique ondulatoire relativiste de l’électron due à M. Dirac n’est en accord avec la Relativité que dans la mesure où une théorie quantique peut être en accord avec les conceptions continues de l’ancienne Physique, c’est-à-dire en ce qui concerne les vapeurs moyennes. Pour cette raison déjà, la théorie de Dirac n’est conforme à la Relativité que si on l’envisage sous certains aspects. Tout d’abord, nous l’avons vu, c’est seulement par l’intermédiaire des valeurs moyennes que la nature essentiellement discontinue des Quanta peut se concilier avec le caractère continu de la Physique relativiste qui est essentiellement une Physique du champ. D’autre part, il faut bien reconnaı̂tre que, dans la Mécanique ondulatoire relativiste, comme dans les autres formes de la Mécanique quantique, la variable « temps » joue un rôle très différent de celui des variables d’espace, contrairement à l’une des tendances fondamentales des conceptions relativistes. Les problèmes de détermination des valeurs propres qui jouent un rôle essentiel en Mécanique quantique sont en effet, posés dans un domaine d’espace et une telle définition paraı̂t peu en accord avec l’esprit des conceptions relativistes. Et cependant on ne peut guère songer à définir les valeurs propres dans des domaines de l’espace-temps, car on obtiendrait alors, nous semble-t-il, une Physique entièrement statique dont toute évolution dans le temps serait bannie. Comme l’a très justement remarqué M. Schrödinger dans ses conférences sur ce sujet à l’Institut Henri-Poincaré, il faut à la théorie quantique un paramètre 129 d’évolution ayant un rôle tout à fait différent des variables de configuration auxquelles correspondent des opérateurs. La théorie quantique actuelle, sous toutes ces formes, prend comme paramètre d’évolution le temps et brise ainsi la symétrie entre espace et temps. Peut-être trouvera-t-on une manière de tourner cette difficulté, mais pour l’instant elle n’apparaı̂t pas. Il est intéressant de préciser un peu davantage la difficulté que nous venons de signaler. Quand avec les principes actuels de la Mécanique nouvelle, nous « quantifions » un système, un atome d’hydrogène par exemple, en calculant les valeurs propres de son énergie, nous isolons par la pensée ce système du reste de l’univers. Rigoureusement parlant, cela n’est pas permis : pour déterminer les valeurs propres de l’Hamiltonien, il faudrait en principe tenir compte dans cet Hamiltonien de toutes les forces existant dans tout l’univers. Fort heureusement, l’influence des champs de force extérieurs à un atome sur la forme des ondes Ψ de l’atome est négligeable parce que ces ondes Ψ tendent très rapidement vers zéro dès qu’on s’éloigne hors du domaine atomique. Bref, en principe, la détermination des valeurs propres et des fonctions propres exigerait la considération de l’univers tout entier, mais en pratique la structure du monde matériel se prête assez bien à ce que nous y découpions des systèmes suffisamment indépendants pour pouvoir être considérés isolément. Mais, si nous voulions définir les valeurs propres et les fonctions propres dans des domaines d’espace-temps, nous ne pourrions guère, semble-t-il, chercher à découper l’existence d’une unité physique, telle qu’un atome, en tranches indépendantes les unes des autres. Or, au cours du temps, un atome subit des actions très diverses, est le siège d’effets Stark et d’effets Zeeman, etc. Si nous voulions définir les valeurs propres dans un domaine d’espace-temps, nous serions obligés de prendre un domaine indéfini dans le sens du temps et contenant toute l’histoire de l’atome : cela nous conduirait à définir des valeurs propres dépendant de toute l’existence de l’atome, mais invariable au cours du temps, ce qui paraı̂t inacceptable. Cette difficulté semble se rattacher par un lien étroit à cette sorte de structure fibreuse de l’espace-temps dans le sens du temps due, nous l’avons vu, à ce que la persistance des unités matérielles se traduit dans l’espace-temps par l’existence de faisceaux de lignes d’univers inclinées de moins de 45o sur l’axe du temps. Dans la conception relativiste usuelle, un observateur Galiléen A considère comme simultanés les points-événements de l’espace-temps qui sont contenus dans une section tridimensionnelle de cet espace normale à l’axe de son temps propre. En raison de la structurée fibreuse de l’espace-temps, cette section coupe les lignes d’Univers de toutes les unités matérielles et c’est ce qui permet à l’observateur A de découper dans le cadre de son espace propre des systèmes permanents presque indépendants : c’est ce qui permet également au physicien quantiste de poser ses problèmes de valeurs propres dans des domaines bien définis de l’espace. Mais un 130 CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ tel découpement en sections presque indépendantes, qui est pratiquement possible transversalement aux lignes d’univers, ne le serait pas dans le sens de ces lignes. De là l’impossibilité de définir pour les problèmes de valeurs propres des domaines d’espace-temps ayant des limites précises dans le sens du temps. L’impossibilité de poser les problèmes quantiques de valeurs propres dans des domaines d’espacetemps d’une façon symétrique en espace et en temps nous paraı̂t donc être lié au fait fondamental de l’existence et de la persistance dans le temps des unités matérielles. L’absence de symétrie que le formalisme quantique laisse subsister même dans les formes relativistes de la nouvelle Mécanique se montre d’ailleurs clairement dans le fait qu’à chaque coordonnée x, d’espace y correspond un opérateur xi et qu’à chaque coordonnée xi d’un corpuscule correspond en général non pas une valeur déterminée, mais une répartition de probabilité, tandis qu’au contraire la coordonnée de temps garde le caractère classique d’une coordonnée à valeur numérique à laquelle ne correspond aucune statistique. Pour employer la terminologie de M. Dirac, les coordonnées d’espace sont dans la théorie quantique des nombres q, alors que la coordonnée de temps reste un nombre c. De là découle la différence d’interprétation que l’on doit admettre entre les relations d’incertitude habituelles : ∆xi · ∆pi ≥ h et la relation analogue qui, du point de vue relativiste, complète les trois précédentes : ∆E · ∆t ≥ h Dans cette dernière relation, ∆t ne doit pas être considérée comme une incertitude sur la coordonnée temps du corpuscule envisagé, mais comme la durée de l’expérience qui permet d’attribuer à l’énergie du corpuscule une valeur affectée d’une incertitude minima égale à ∆E . Il est évident qu’il serait souhaitable d’introduire dans la théorie quantique l’idée que la coordonnée t est, elle aussi, associée à une distribution de probabilité, mais il faudrait or faire en gardant dans la théorie une variable d’évolution et, comme nous l’avons déjà dit, cela ne paraı̂t pas très facile. ∴ Nous signalerons ici, sans vouloir insister sur cette très délicate question, les difficultés qui se présentent quand on veut construire une Mécanique à la fois quantique et relativiste des systèmes de corpuscules en interaction, ce qui est en particulier nécessaire pour arriver à une théorie vraiment claire des interactions 131 entre la matière et le rayonnement. L’étude du mouvement d’un ensemble de corpuscules en interaction présente déjà de grandes difficultés dans la Mécanique relativiste non quantique. En particulier, on ne peut plus y définir, ni y utiliser d’une manière simple la notion de centre de gravité qui rend de si grands services dans la Mécanique non relativiste classique des systèmes de points matériels. Il faut aussi y tenir compte de la vitesse finie de propagation des interactions, ce qui est une grande complication. Les difficultés sont plus grandes encore si l’on veut faire une Mécanique relativiste des systèmes de corpuscules qui soit aussi quantique. II semble qu’alors il faille attribuer à chaque constituant du système non seulement ses coordonnées d’espace, mais aussi son temps individuel et écrire les équations d’onde de la Mécanique ondulatoire en posant égaux entre eux les temps individuels des divers constituants. Telle est, du moins, la voie qui a été indiquée notamment dans un mémoire bien connu de MM. Dirac, Fock et Podolsky. Mais la question paraı̂t présenter une assez grande difficulté si on veut l’étudier systématiquement dans toute son étendue et nous nous contenterons d’y avoir fait allusion. Dans un ordre d’idées voisin, Schrödinger a démontré que, même en se plaçant au point de vue de la Mécanique ondulatoire ordinaire (non relativiste) , il paraissait impossible d’imaginer l’existence d’une horloge permettant de mesurer le temps avec une précision absolue, c’est-à-dire d’attacher à chaque événement une coordonnée t de valeur tout à fait précise. Il semble en résulter, même indépendamment des conceptions relativistes sur la symétrie de l’espace et du temps, la nécessité d’introduire une statistique sur la coordonnée temps comme sur les coordonnées d’espace. Enfin il convient de noter le rôle essentiel que devra sans doute jouer dans une théorie réconciliant les Quanta et la Relativité la fameuse constante de la structure 2πe2 fine . Cette constante est, en effet, apparue dans la Physique dès que M. hc Sommerfeld a tenté naguère de faire entrer pour la première fois les idées quantiques et les idées relativistes dans une même construction théorique et elle doit avoir à ce point de vue une signification profonde. D’ailleurs comme elle contient dans sa définition la charge e de l’électron, son véritable sens ne pourrait sans doute être donné que par une théorie où la structure discontinue de l’électricité trouverait son explication. ∴ Nous nous bornerons à ces indications et nous allons chercher à résumer en quelques mots les remarques qui précèdent. 132 CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ Les notions d’espace et de temps, et celle d’espace-temps que la théorie relativiste en a déduite par une fusion hardie, sont en définitive construites à partir des observations du monde physique à glande échelle. Depuis le développement de la théorie des Quanta, les réalités physiques à très petite échelle ne paraissent plus pouvoir être représentées individuellement dans le cadre de l’espace-temps. Elles ne peuvent plus y être localisées que d’une manière « floue » et c’est seulement par le jeu des moyennes que l’on parvient, en Physique quantique, à définir des grandeurs ayant un caractère géométrique quadridimensionnel. L’espace-temps apparait ainsi comme n’ayant plus qu’une valeur moyenne et macroscopique. Comme les corpuscules de la Physique atomique apparaissent actuellement comme constituant la réalité ultime, il semblerait logique de partir de l’existence de ces entités élémentaires pour s’élever par la statistique jusqu’à la Physique des phénomènes à grande échelle. Partant de quelque conception discontinue (peut-être de quelque espace discret), on devrait parvenir à retrouver la notion d’espace-temps continu par le jeu des moyennes et à expliquer ainsi pourquoi l’espace-temps est un cadre parfaitement adapté à la représentation des phénomènes macroscopiques. Ce ne serait pas là un travail très facile d’autant plus qu’il faudrait presque certainement introduire des statistiques non seulement pour définir les coordonnées d’espace, mais aussi pour définir la coordonnée de temps, et nous avons vu que cela entraı̂ne des difficultés particulières. Quoi qu’il en soit, il semble bien que les discontinuités et les incertitudes révélées par les théories quantiques nous permettent de pénétrer dans les profondeurs de la réalité physique bien au delà de ce que les conceptions relativistes anciennes nous permettaient de faire. A ce point de vue, les idées quantiques paraissent primer les idées relativistes. Cependant il faut ajouter que les idées quantiques doivent se développer de façon à rejoindre la représentation relativiste chaque fois que l’on considère des phénomènes mettant en jeu un très grand nombre d’entités élémentaires. Ainsi, par une sorte d’extension de l’idée si féconde de « correspondance » que nous devons à M. Bohr, se trouve nettement posé le problème de la réconciliation des Quanta et de la Relativité. Chapitre 12 Le Photon 12.1 Considérations générales Nous n’avons pas à rappeler ici comment se sont manifestées dans la Physique contemporaine la dualité d’aspect de la lumière et la nécessité de faire appel, pour interpréter les phénomènes qu’elle produit, tantôt à des images du type ondulatoire, tantôt à d’autres images du type corpusculaire. Entre les deux termes de cette dualité d’aspect, fut jeté en 1905 un premier pont grâce à l’hypothèse des « quanta de lumière ». Dans cette hypothèse, on admet qu’à toute onde lumineuse plane monochromatique de fréquence ν, on doit associer des corpuscules, les photons, progressant dans la direction de propagation de la lumière et possédant une énergie W et une quantité de mouvement p données par les relations : W = hν p= hν c (12.1) Quand on compare ces relations (12.1) avec les formules bien connues de la Dynamique relativiste, on est conduit à considérer le photon comme une particule de masse propre nulle qui se déplace toujours avec la vitesse c. Les relations (12.1) qui établissent un lien entre l’image ondulatoire (caractérisée par la fréquence et la direction de propagation d’une onde plane monochromatique) et l’image corpusculaire (caractérisée par l’énergie et la quantité de mouvement d’une particule en mouvement uniforme) suggèrent que, du moins dans le cas des photons, il y a lieu de construire une théorie synthétique où les images d’ondes et de corpuscules viennent, dans la limite où elles sont exactes, trouver leur place. Et, en généralisant, on arrive à l’idée qu’il pourrait en être de même pour tous les genres de particules que la Physique atomique noue a appris à connaı̂tre. Cette idée a été la base sur laquelle s’est édifiée la Mécanique ondulatoire. On sait que la Mécanique ondulatoire associe au mouvement rectiligne et uniforme d’une particule ayant l’énergie W et l’impulsion p une onde progressant dans la 133 134 CHAPITRE 12. LE PHOTON direction du mouvement dont la fréquence ν et la longueur d’onde λ sont données par les formules : h W λ= (12.2) ν= h p c Appliquées à un photon associé à une onde lumineuse pour laquelle λ = les ν formules (12.2) coincident avec les formules (12.1). Au premier abord, on pouvait donc penser que les formules générales de la Mécanique ondulatoire conduiraient immédiatement à unie théorie d’ensemble de la Lumière et des radiations. En réalité, il n’en était rien et l’on s’est trouvé dans la situation paradoxale suivante : la nature dualistique de la Lumière avait servi de modèle et de guide pour le développement de la Mécanique ondulatoire et, néanmoins, la théorie de la Lumière ne parvenait pas à entrer dans le cadre de cette Mécanique. Il faut chercher à analyser les causes des difficultés qui ont été rencontrées ici. Une première de ces causes est que la Mécanique ondulatoire, dans la forme où elle a pris d’abord sa rapide extension, n’est pas relativiste. Or il est bien évident que pour le photon dont la vitesse est toujours égale à la vitesse limite c (ou tout au moins toujours pratiquement indiscernable de cette vitesse c), on doit employer une Mécanique relativiste et que la Mécanique ondulatoire ne pourra réussir à fournir une théorie satisfaisante de la Lumière que si on l’emploie sous une forme relativiste. Une seconde cause de difficulté est que la Mécanique ondulatoire sous sa forme primitive ne contient aucun élément de symétrie susceptible de conduire à une interprétation de la polarisation des ondes lumineuses, ni aucun élément de nature électromagnétique permettant de définir une onde lumineuse du type de Maxwell. Nous verrons d’ailleurs que toutes ces difficultés peuvent être levées d’un seul coup. Une autre cause de difficultés dans l’édification d’une Mécanique ondulatoire du photon, c’est que le photon possède des propriétés qui le distinguent nettement des corpuscules matériels tels que l’électron. D’abord les photons en assemblée obéissent à la statistique de Bose-Einstein, alors que les électrons obéissent à la statistique de Fermi-Dirac : c’est là une première différence très importante. De plus, dans l’effet photoélectrique, le photon disparaı̂t, s’annihile, et il ne paraissait exister, du moins avant la découverte de la dématérialisation des paires d’électrons de signes opposés, aucun phénomène analogue pour les particules matérielles. D’autres raisons encore, par exemple l’impossibilité d’obtenir pour le photon une probabilité de présence donnée par une expression définie positive, montraient clairement la nécessité d’admettre une différence de nature assez profonde entre le photon et les autres corpuscules élémentaires. Voyons maintenant comment on peut chercher à lever ces diverses difficultés. Il faut tout d’abord mettre à la base de la théorie de la particule « photon » une mécanique ondulatoire relativiste introduisant des éléments de symétrie analogues 12.1. CONSIDÉRATIONS GÉNÉRALES 135 à la polarisation et permettant de définir des champs électromagnétiques attachés à la particule. La Mécanique ondulatoire de l’électron magnétique et doué de spin due à M. Dirac remplit en partie ces conditions : d’abord parce qu’elle est relativiste et applicable à des particules ayant toutes les vitesses jusqu’à la valeur c, ensuite parce qu’elle introduit le spin dont l’existence est expérimentalement démontrée pour l’électron et que le spin a une certaine analogie avec la polarisation, enfin parce qu’elle définit un moment magnétique et un moment électrique propres de la particule, moments dont les densités de volume ont respectivement les dimensions d’un champ magnétique et d’un champ électrique. La première idée que l’on pourrait avoir serait d’admettre que le photon est un corpuscule de charge électrique nulle et de masse propre nulle ou évanouissante obéissant à des équations du type de Dirac. Mais on se trouve rapidement complètement arrêté dans cette voie. Les raisons de cet échec sont les suivantes : d’abord le spin d’un corpuscule de Dirac a bien un certaine parenté (au point de vue de la symétrie) avec la polarisation de la lumière, mais ne peut pas lui être identifié ; ensuite, on peut bien arriver à définir un champ électromagnétique, mais ce champ n’a pas les caractères nécessaires pour représenter la lumière. Insistons sur ce dernier point. Si on définit le champ comme attache à un état du photon, il ne peut pas représenter l’action du photon sur la matière, car toute action de ce genre fait nécessairement varier l’état du photon : en suivant cette idée, on est amené à définir les champs électromagnétiques de la lumière comme des grandeurs (en fait des densités d’éléments de matrice) liées au changement d’état subi par le photon quand il agit sur la matière, et c’est là une conception essentielle parfaitement confirmée par la théorie des interactions entre matière et rayonnement. Mais alors pour pouvoir préciser la valeur du champ électromagnétique associé à un photon, il faudra connaı̂tre à la fois et l’état initial et l’état final du photon, de sorte que le photon, considéré dans son état initial supposé donné, aura une infinité de champs électromagnétiques suivant l’état final qu’on lui attribuera. Or, en fait, une onde lumineuse, correspondant à un état donné du photon, possède toujours un champ électromagnétique parfaitement déterminé : dans le cas général, ce champ n’est pas monochromatique et doit être représenté par un développement de Fourier, mais les coefficients de ce développement de Fourier ont en fait toujours des valeurs parfaitement déterminées. Il en résulte que l’identification du photon avec un seul corpuscule obéissant aux équations de Dirac se heurte à des difficultés insurmontables quant à la définition du champ électromagnétique qui l’accompagne. Après cette tentative infructueuse, on peut considérer comme établis les deux points essentiels suivants : 1o le champ électromagnétique du photon traduisant la manière dont il peut agir sur la matière doit être lié au changement d’état, à la transition quantique, que subit le photon quand il agit sur la matière ; 2o le champ électromagnétique d’une onde lumineuse étant toujours unique et bien déterminé, il faut 136 CHAPITRE 12. LE PHOTON que l’état final du photon soit déterminé par son état initial, qu’il soit impliqué en quelque sorte dans la définition de cet état initial. Le problème étant ainsi posé, on peut faire immédiatement un rapprochement avec un fait physique très remarquable. Ce fait physique, c’est le caractère tout à fait particulier que présentent, dans l’ensemble des phénomènes d’interaction entre particules, les phénomènes d’absorption de la lumière et l’effet photoélectrique, où un photon cède son énergie à la matière. Il y a toujours cession totale de son énergie par le photon à l’électron ou à l’atome avec disparition, annihilation, du photon. Il n’y a jamais d’effet partiel où le photon céderait une partie de son énergie sans la céder toute, car, on le sait, l’effet Compton ne doit pas être considéré comme un processus simple, mais plutôt comme la succession d’un processus d’absorption et d’un processus d’émission. Les seuls modes directs d’action de la lumière sur la matière, les seuls processus élémentaires dans lesquels la lumière puisse produire des effets observables paraissent bien être ceux où il y a cession totale de l’énergie du photon à la matière. La conséquence nécessaire de cette constatation est alors qu’il doit y avoir dans la structure du photon une particularité qui lui permet, quand il en a l’occasion au contact de la matière, de s’annihiler complètement au point de vue énergétique en cédant toute son énergie à l’extérieur. Or une telle structure est aujourd’hui assez facile à concevoir, depuis que le développement de la théorie de Dirac nous a suggéré l’idée de « paires de corpuscules complémentaires »et surtout depuis que l’expérience a prouvé l’existence réelle du corpuscule complémentaire de l’électron : le positon ou électron positif. Comme on le sait, les équations de la théorie de Dirac admettent des solutions à énergie négative et M. Dirac a été amené à concevoir l’existence d’électrons positifs qui seraient équivalents à une « lacune », à une place inoccupée, dans la distribution des électrons à énergie négative. L’électron positif conçu de cette façon doit posséder la propriété de pouvoir être neutralisé par un électron négatif ordinaire si celui-ci vient à combler la lacune, la place vide, dont l’électron positif n’est, d’après Dirac, que la manifestation observable : il y a alors annihilation réciproque et simultanée des deux électrons avec mise en liberté de leur énergie totale. De plus, on sait par l’expérience qu’il existe bien réellement des électrons positifs et tout porte à croire qu’ils possèdent les propriétés prévues pour eux par M. Dirac. En particulier, il est très vraisemblable qu’un couple formé d’un électron positif et d’un électron négatif est réellement susceptible, conformément aux prévisions théoriques, de se dématérialiser en cédant la totalité de son énergie à l’extérieur. Nous dirons que l’électron positif est le « corpuscule complémentaire »de l’électron négatif et qu’une paire de corpuscules complémentaires est susceptible d’annihilation totale. Plus généralement, à tout corpuscule, quelles que soient sa charge électrique et sa masse propre, qui obéit à des équations de la forme de Dirac et possède par h suite comme l’électron un spin doit correspondre un corpuscule complémen4π 12.1. CONSIDÉRATIONS GÉNÉRALES 137 taire : une paire formée par ce corpuscule et un corpuscule complémentaire debra être susceptible d’annihilation. Dès lors, il apparaı̂t comme probable que nous pourrons retrouver les propriétés du photon en l’assimilant à un système formé par une paire de corpuscules complémentaires obéissant l’un et l’autre à des équations du type de Dirac.Cette paire possédera, en effet, la propriété très remarquable de pouvoir s’annihiler quand, se trouvant en présence de la matière, elle pourra lui céder la totalité de son énergie et ceci expliquera complètement le caractère si particulier des processus simples d’interactions entre le photon et les éléments matériels. Cette hypothèse apparaı̂t aussi comme très séduisante à d’autres points de vue. D’abord, chacun des deux corpuscules élémentaires constituants (que nous nommerons pour ne rien préjuh , le ger sur leur nature des demi-photons) ayant par hypothèse un spin égal à 4π h photon aura pour chaque composant de son spin trois valeurs possibles + , 0 et 4π h − . Or, il y a des raisons connues depuis longtemps pour attribuer au photon 4π h un spin égal à ± . Quant à la valeur 0 du spin, elle correspond à l’existence 4π des ondes longitudinales de potentiel qui sont compatibles avec les équations de Maxwell même sous leur forme classique. Un autre avantage de l’hypothèse qui assimile le photon à un système formé de corpuscules complémentaires est d’expliquer pourquoi la statistique de Bose-Einstein est valable pour les photons comme le montre d’une façon irréfutable la forme de la loi de Planck pour le rayonnement noir. En effet, si l’on admet que tous les corpuscules élémentaires ont un spin égal à h et satisfont à la statistique de Fermi-Dirac, un théorème général de Mécanique 4π ondulatoire nous apprend que toute particule complexe formée d’un nombre pair de corpuscules élémentaires doit obéir à la statistique de Bose. L’hypothèse que le photon est une particule complexe formée de deux corpuscules complémentaires h de spin entraı̂ne donc le photon obéit à la statistique de Bose et le passage de 4π la statistique de Fermi valable par hypothèse pour le demi-photon à la statistique de Bose valable pour le photon, considéré comme une unité, se fait ici exactement comme pour toute particule complexe formée par un nombre pair de corpuscules h élémentaires de spin , comme par exemple les particules α. Il y a d’ailleurs 4π une différence essentielle entre la théorie que nous développons ici et la théorie, en réalité tout à fait différente, développée par M. Pascual Jordan sous le nom de « théorie neutrinienne de la lumière ». Dans la théorie de M. Jordan, la lumière est assimilée à un ensemble de neutrinos indépendants, le neutrino étant défini comme un corpuscule de charge et de masse propre nulle obéissant aux équations de Dirac. Le photon serait alors seulement en quels que sorte une apparence due à la façon 138 CHAPITRE 12. LE PHOTON dont agit sur la matière une assemblée de neutrinos. Le passage de la statistique de Fermi supposée valable pour les neutrinos à celle de Bose pour les photons s’opère dans les calculs de M. Jordan d’une manière qui paraı̂t, du moins dès l’abord, tout à fait différente de celle qui permet, en Mécanique ondulatoire générales dans le h de passer cas d’une molécule normée par un nombre pair de corpuscules de spin 4π de la statistique de Fermi valable pour les corpuscules constituants à la statistique de Bose valable pour la molécule considérée dans son ensemble. Sans discuter ici certaines difficultés physiques que la théorie de M. Jordan nous paraı̂t soulever, il nous semble plus satisfaisant d’admettre que le passage de l’une à l’autre statistique doit s’opérer toujours de la même façon, dans le cas du photon comme dans le cas d’une particule matérielle à nombre pair de constituants. Maintenant, quelle hypothèse peut-on faire sur la nature du demi-photon ? Il est tentant d’admettre (et c’est une hypothèse que nous avons nous-même mise en avant il y a quelques années) que le demi-photon est un neutrino ou plus exactement que le photon est formé par un neutrino et par un anti-neutrino. C’est là une hypothèse séduisante qui paraı̂t avoir aiguillé M. Jordan vers sa théorie neutrinienne de la lumière. Mais cette hypothèse n’est nullement essentielle pour la théorie que nous développons. Celle-ci repose, en effet, sur l’idée de définir le champ électromagnétique de la lumière grâce aux propriétés d’une particule h de spin assimilable à une particule complexe formée par deux corpuscules 2π complémentaires du type de Dirac et de relier ainsi la polarisation au spin : elle est donc en particulier, tout à fait indépendante de l’existence réelle des neutrinos dans les émissions radios actives. Pour développer la Mécanique ondulatoire du photon, une fois admises l’hypothèse que tout se passe comme si le photon était un système formé de deux corpuscules complémentaires, il faut parvenir à définir le champ électromagnétique associé à un photon dont l’état est représenté par une certaine fonction d’onde que nous désignerons par φ. Après divers tâtonnements sur lesquels nous n’insisterons pas ici, nous sommes arrivés à la conclusion suivante : à chaque grandeur électromagnétique associée au photon (composante de potentiel ou de champ électromagnétique), on doit faire correspondre un certain opérateur linéaire, disons Fop , et la valeur de la grandeur considérée quand l’état du photon est représenté par la fonction d’onde φ, est donnée par une expression de la forme φ0 Fop φ où φ0 est une fonction d’onde représentant l’état d’annihilation qu’on peut considérer comme unique. Avec cette définition, le principe de superposition est visiblement satisfait. De plus, comme il y a tout lieu d’admettre que la fonction φ0 est indépendante des coordonnées d’espace et de temps, les expressions φ0 Fop φ représentent certaines combinaisons linéaires des composantes de la fonction d’onde φ du photon. La fonction d’onde φ du photon devant être essentiellement complexe comme 12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE 139 toutes les fonctions d’onde de la Mécanique ondulatoire, les grandeurs F = φ0 Fop φ seront elles-mêmes complexes et l’on pourra définir les grandeurs électromagnétiques réelles par la formule : Fr = F + F ∗ (12.3) Cette manière de faire correspondre aux grandeurs réelles classiques une grandeur complexe est d’ailleurs très connue aujourd’hui dans la théorie quantique des champs électromagnétiques et la formule (12.3) est usuellement employée dans cette théorie. 12.2 La mécanique ondulatoire du photon dans le vide Quand on a admis l’ensemble des idées exposées plus haut, on doit chercher à représenter le mouvement global de la particule « photon » par une certaine fonction d’onde obéissant à des équations aux dérivées partielles analogues à celles qu’on rencontre en théorie de Dirac. En d’autre termes, on représentera à l’aide d’une fonction d’onde φ(x, y, z, t) le mouvement d’ensemble du photon ou, si l’on préfère, le mouvement du « centre de gravité » de la particule « photon »,centre de gravité dont les variables x, y, z, représenteront les coordonnées. Diverses considérations que nous ne reprendrons pas en détail nous ont conduit à décrire le mouvement d’ensemblee du photon à l’aide de deux groupes d’équations (12.6) et (12.7) que nous admettrons ici en les considérant comme justifiées par leurs conséquences 1 . Nous allons exposer la théorie fondée sur ces équations, théorie à laquelle on peut donner le nom de « Mécanique ondulatoire du photon dans le vide ». Tout d’abord, le photon étant par hypothèse formé de deux corpuscules complémentaires de Dirac, il est naturel d’admettre que le mouvement d’ensemble du photon doit être décrit par une fonction d’onde φ à 16 composantes φik , les indices i et k variant de 1 à 4 ; l’indice i se rapporte au premier demi-photon et l’indice k au second. On sait qu’en théorie de Dirac on introduit quatre matrices hermitiennes anticommutantes que l’on désigne habituellement par αr avec r = 1, 2, 3, 4. Ici nous allons avoir besoin de quatre matrices agissant sur le second indice. J’ai été 1. En considérant le photon comme un système formé par deux corpuscules de Dirac, on peut chercher à déduire la forme que doivent avoir les équations d’ondes représentant le mouvement du centre de gravité de ce système. C’est là une étude difficile parce qu’il faut employer une Mécanique ondulatoire relativiste des systèmes, mais on se trouve dans un cas simple par le fait que les deux demi-photons sont supposés avoir la même masse. L’examen de ce problème a conduit l’auteur, par des raisonnements qui auraient besoin d’être complétés, à retrouver les équations (12.6) et même à interpréter certaines particularités de la présente théorie. 140 CHAPITRE 12. LE PHOTON amené à définir ces huits matrices à seize lignes et seize colonnes de la façon suivante 2 : (αr )km δil pour r = 1, 3 (Ar )ik′ lm = (αr )il δkm ; (Br )ik′ lm = (12.4) (−αr )km δil pour r = 2, 4 Enfin, en s’inspirant d’une notation classique dans la théorie de Dirac on est amené à poser : X Ar φik = (Ar )ik′ lm φlm (12.5) lm Ces remarques préliminaires étant faite, nous pouvons maintenant écrire les deux groupes de 16 équations que nous considérons désormais comme les équations de base de la Mécanique ondulatoire du photon dans le vide. Ce sont : d A2 + B2 d A3 + B3 A4 + B4 d A1 + B1 1 dφik φik (12.6) = + + + χµ0 c c dt dx 2 dy 2 dz 2 2 d A2 − B2 d A3 − B3 A4 − B4 d A1 − B1 φik (12.7) + + + χµ0 c 0= dx 2 dy 2 dz 2 2 √ 2π −1 avec χ = . Dans ces équations, µ0 désigne la masse propre de la particule h dφik déterphoton. Les 16 équations (12.6) contenant chacune une des dérivées dt minent entièrement l’évolution de la fonction d’onde au cours du temps à partir d’une forme initiale donnée. Ce sont donc des « équations d’évolution » tout à → − → − dH dE et de la théorie électromagnétique. fait comparables aux équations en dt dt Au contraire, les 16 équations (12.7) ne contiennent pas de dérivées par rapport au temps et expriment 16 conditions auxquelles doivent satisfaire les φik à tout → − → − instant : elles sont entièrement comparables aux équations en div E et div H de la théorie électromagnétique. On peut démontrer, tout comme en théorie électromagnétique, que les deux systèmes (12.6) et (12.7) sont compatibles en ce sens que, si l’on se donne, à un instant initial quelconque, une forme initiale des fonctions φik , satisfaisant aux conditions (12.7), ces équations (12.7) resteront ensuite satisfaites pour toute valeur ultérieure du temps en vertu même des équations (12.6) qui règlent l’évolution des φik . On peut aussi démontrer que pour les composantes spectrales de fréquence non nulle, les équations (12.6) entraı̂nent les équations (12.7). Il existe d’ailleurs d’autres manières intéressantes de répartir les 32 équations (12.6) et (12.7) en deux groupes de 16 équations, mais nous ne les étudierons pas ici. 2. Ce n’est là naturellement qu’une représentation particulière, mais cette représentation est commode et correspond à la façon dont les équations ont été obtenues. 12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE 141 Enfin, on peut également démontrer qu’en vertu des équations (12.6) et (12.7) chacun des seize φik satisfait à l’équation du second ordre : 1 d2 φik − ∆φik = χ2 µ20 c2 φik 2 2 c dt (12.8) qui se réduit à φik = 0 si les termes en µ20 sont nuls ou négligeables. Nous trouvons ici un passage des équations du premier ordre (12.6) et (12.7) aux équations du second ordre (12.8) qui est tout à fait comparable à celui que l’on effectue en théorie de Maxwell quand on démontre que les composantes du champ électromagnétique vérifiant les équations du premier ordre de Maxwell pour le vide satisfont toutes individuellement à une équation de type f = 0. Nous voyons ainsi déjà qu’en Mécanique ondulatoire du photon la théorie de Maxwell correspondra au cas limite µ0 → 0. Indiquons maintenant rapidement comment les équations (12.6) et (12.7) permettent de retrouver d’une façon qui paraı̂t satisfaisante, le champ électromagnétique Maxwellien du photon. Nous avons dit déjà qu’il fallait définir les grandeurs électromagnétiques liées au photon par certaines combinaisons linéaires 3 des composantes de la fonction φ. Nous avons besoin de dix telles combinaisons linéaires indépendantes que nous nommerons Ex , Ey , Ez , Hx , Hy , Hz , Ax , Ay , Az , V , pour représenter les six composantes du champ électromagnétique et les quatre composantes du potentiel. Comme il y a seize φik indépendants nous pourrons encore trouver six autres combinaisons linéaires indépendantes de ces φik Nous aurons ainsi seize combinaisons linéaires indépendantes des φik dont dix seulement auront un sens dans la théorie électromagnétique de la lumière de Maxwell (nous les appellerons les grandeurs Maxwelliennes) et dont six n’auront pas de sens connu dans cette théorie (nous les appellerons les grandeurs non Maxwelliennes). Ces 16 grandeurs obéissent à 32 équations qu’on peut obtenir à partir des 32 équations (12.6) et (12.7) par des combinaisons linéaires et dont l’une, d’ailleurs, se réduit à une identité. Sur les 31 équations non identiques ainsi obtenues, quinze contiennent uniquement les grandeurs Maxwelliennes et ont la forme suivante : → − → − → − − 1c ddtH = rot E div H = 0 − → − → −−−−→ → − → − → − − 1c ddtE = rot H − χ2 µ20 c2 A E = −grad V − 1c ddtA (12.9) → − → − → − 2 2 2 H = rot A div E − χ µ0 c V → − 1 dV + div A = 0 c dt Ces équations 4 sont des équations bien connues de la théorie de Maxwell, deux 3. Le choix effectif de ces combinaisons linéaires est directement suggéré par les formules de la théorie de Dirac. 4. Les équations (12.9) que l’auteur du rapport a données dès 1934, rentrent comme cas 142 CHAPITRE 12. LE PHOTON d’entre elles étant complétées au second membre par des termes de l’ordre de µ20 . Si les termes en µ20 sont supposés nuls ou négligeables, on retombe exactement sur la théorie de Maxwell. Les seize autres équations non identiques que l’on obtient par combinaisons linéaires de (12.6) et de (12.7) contiennent uniquement les grandeurs non Maxwelliennes et n’ont pas de sens électromagnétique connu. On voit ainsi que dans cette Mécanique ondulatoire du photon, les équations de Maxwell pour la lumière dans le vide apparaissent comme contenues en tant que partie autonome dans un ensemble plus vaste d’équations. Ce fait pourrait avoir une certaine importance soit pour un élargissement futur possible de la théorie électromagnétique, soit pour h autres que le le développement des théories concernant des particules de spin 2π photon (par exemple le mésoton). Mais les grandeurs non Maxwelliennes se trouvant indépendantes des grandeurs Maxwelliennes et n’intervenant pas dans l’étude des phénomènes lumineux, il est plus simple de les supposer systématiquement nulles 5 . On obtient ainsi des résultats qui, en réalité, reposent uniquement sur les équations (12.9). Tous les résultats que nous avons maintenant énoncer peuvent donc être considérés soit comme dérivant des équations (12.9), soit comme formant la partie relative aux grandeurs Maxwelliennes de la théorie générale fondée sur les équations (12.6) et (12.7). Si l’on fait le calcul de l’onde φ du photon dans le cas simple du mouvement rectiligne et uniforme (onde plane monochromatique), on trouve (en supposant nulles les grandeurs non Maxwelliennes) que cette onde φ dépend de trois constantes complexes indépendantes C1 , C2 et C3 . Quand la constante C1 est seule différente h dans la direction de propagade zéro, on a un mouvement avec spin égal à − 2π tion ; quand la constante C2 est seule différente de zéro, on a un mouvement avec h spin égal à + dans la direction de propagation ; enfin, quand la constante C3 2π est seule différente de zéro, on a un état de mouvement avec spin égal à 0 dans h et la direction de propagation. Nous retrouvons bien ainsi les trois valeurs ± 2π 0 prévues par les composantes du spin du photon. Dans le cas général, on a une superposition des trois cas précédents avec des valeurs quelconques de C1 , C2 et C3 . particulier dans un type général d’équations proposées ensuite par M. Alexandre Proca pour les h particules chargées de spin . 2π 5. On peut dire que les grandeurs Maxwelliennes décrivent un état du photon où celui-ci possède un spin total égal à un, c’est-à-dire correspondent à un « état triplet » du photon. Les grandeurs non Maxwelliennes décrivent au contraire un « état simplet » du photon où son spin total est égal à zéro. Laisser systématiquement de côté les grandeurs non Maxwelliennes revient donc à supposer que l’état singulet du photon est physiquement irréalisable. 12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE 143 Il est ensuite facile de calculer les valeurs des grandeurs électromagnétiques de l’onde plane. On constate alors, comme on devait s’y attendre, que, si les termes en µ20 sont nuls ou négligeables, le champ magnétique et le champ électrique sont égaux, perpendiculaires entre eux et perpendiculaires à la direction de propagation. De plus, les deux champs ne dépendent alors que des constantes C1 et C3 : si c1 = 0, on a une onde circulaire lévogyre, si C3 = 0, une onde circulaire dextrogyre, de sorte que les ondes électromagnétiques à polarisations circulaires inverses correspondent respectivement aux deux cas où le spin dans la direction de propagation a la valeur h h − ou la valeur + . Ainsi est clairement mise en évidence la relation entre le 2π 2π spin du photon et la polarisation de l’onde électromagnétique associée et c’est là un des résultats les plus satisfaisants de la théorie. Si les constantes C1 et C2 sont toutes deux différentes de zéro, il y a superposition des deux cas de spin et l’onde électromagnétique est la superposition de deux vibrations de sens inverses, c’est-à-dire une vibration elliptique dont la forme est déterminée par le rapport des modules et par la différence des arguments des constantes complexes C1 et C2 . Dans le cas particulier où le rapport des modules est 1, on a la polarisation rectiligne, l’azimut de la vibration étant déterminée par la différence des arguments de C1 et de C2 . Bref, on voit que la Mécanique ondulatoire du photon permet de représenter une onde lumineuse quelconque. Restant toujours dans le cas du mouvement rectiligne uniforme, examinons → − encore les valeurs que d’on obtient pour les potentiels A et V . On trouve, en dehors des potentiels transversaux correspondant aux champs étudiés à l’instant et qui dépendent des constantes C1 et C2 d’autres potentiels correspondant à une onde → − longitudinale (dont le potentiel vecteur A est dirigé dans le sens de la propagation) et qui dépendent de la constante C2 . Quand on suppose nuls ou négligeables les termes en µ20 , on trouve qu’a ces potentiels longitudinaux correspondent des champs nuls. Ce sont les potentiels longitudinaux qu’on connaı̂t bien en théorie de Maxwell en tant que solutions analytiquement possibles, mais qui n’y jouent aucun rôle réel, car les champs correspondants sont nuls et l’on suppose que seuls les champs donnent lieu à des phénomènes observables. Les états de spin 0 sont donc ici liés aux potentiels longitudinaux inobservables de la théorie de Maxwell, potentiels qui jouent cependant un rôle important dans la théorie quantique des champs, notamment pour l’interprétation du potentiel Coulombien. Notons enfin que, si l’on tient compte des termes en µ20 on trouve pour le champ électrique de l’onde plane une petite composante longitudinale qui est de l’ordre de µ20 par rapport à ses composantes transversales. Ainsi, la Mécanique ondulatoire du photon fondée sur les équations (12.6) et (12.7) paraı̂t bien rendre compte des propriétés essentielles de la lumière dans le vide et conduire ainsi à des résultats encourageants. Partant également des équations (12.6) et (12.7), il est possible de construire 144 CHAPITRE 12. LE PHOTON un formalisme général de la Mécanique ondulatoire du photon analogue à celui que l’on rencontre dans les autres formes de la Mécanique ondulatoire, notamment en théorie de Dirac. On rencontre cependant en Mécanique ondulatoire du photon une circonstance tout à fait particulière : il n’est pas possible d’y trouver, pour représenter la densité de probabilité de présence de la particule, une expression partout définie positive comme l’est l’expression ρ = |Ψ|2 des autres formes de la mécanique ondulatoire. C’est là, d’ailleurs, une circonstance à laquelle on devait s’attendre car elle avait déjà été annoncée dans les études antérieures sur la théorie quantique de la lumière. Il existe néanmoins en Mécanique ondulatoire du photon une expression A4 + B4 φ (12.10) ρ = φ∗ 2 qui peut jouer le rôle de densité de normalisation en ce sens que l’on peut normaliser l’onde φ par la formule Z ρ dτ = 1 (12.11) D D étant le domaine où est contenu le photon. Mais l’expression (12.10) n’a pas en général en tout point une valeur définie positive, ce qui ne permet pas de la considérer comme une densité de probabilité de présence. Dans le cas particulier d’une onde φ plane et monochromatique de fréquence ν, on trouve avec la définition (12.10) µ 0 c2 2 ρ= |φ| (12.12) hν ce qui est d’accord avec le fait que la quantité µ0 c2 |φ|2 peut être considérée d’une façon générale (même si phi n’est pas monochromatique) comme la densité d’énergie électromagnétique. Si l’onde φ est une superposition d’ondes monochromatique P de la forme φ = φν , on a encore la formule intégrale : Z X Z µ 0 c2 ρ dτ = |φ|2 dτ hν D (12.13) mais on n’a plus localement de relation simple entre l’expression (6) et la densité d’énergie et le ρ défini par (6) ne paraı̂t plus avoir une signification locale nette. Tout ceci est conforme à ce qu’on pouvait attendre 6 . En adoptant l’expression (12.10) comme densité de normalisation, on peut, sans rencontrer de trop grandes difficultés, constituer un formalisme général de la Mécanique ondulatoire du photon. A chaque grandeur attachée au photon, on fait correspondre un opérateur linéaire et hermitique, les valeurs propres de cet 6. Peut-être les complications que l’on rencontre ici sont-elles en relation avec la structure interne du photon. 12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE 145 opérateur donnant les valeurs possibles de la grandeur considérée dans un état du photon défini par une certaine fonction φ, les carrés des modules des coefficients figurant dans le développement de la fonction d’onde φ suivant les fonctions propres de l’opérateur donnent les probabilités des diverses valeurs possibles de la grandeur dans l’état envisagé, etc. On définit ainsi pour chaque grandeur des éléments de matrice, une valeur moyenne et des densités d’éléments de matrice et de valeur moyenne. Par exemple, on définit aisément les densités de valeur moyenne des composantes du spin pour un état caractérisé par une certaine fonction φ. Il est également aisé de définir en Mécanique ondulatoire du photon un tenseur symétrique du second rang qui représente les densités et les flux de l’énergie et de l’impulsion de la particule « photon » : il est tout à fait analogue à celui qu’on introduit pour le corpuscule « électron » en théorie de Dirac. M. J. Géhéniau a montré qu’a côté de ce tenseur « corpusculaire » d’énergie-quantité de mouvement, il en existe un second, également symétrique et de rang deux, qu’on peut appeler le tenseur électromagnétique ; c’est lui, en effet, qui correspond exactement au tenseur bien connu de la théorie de Maxwell. Si l’on désigne par Tik les composantes du tenseur corpusculaire et par Mik celles du tenseur électromagnétique, on a toujours l’égalité intégrale Z Z Tik dτ = Mik dτ (12.14) D D mais, sauf dans le cas de l’onde plane monochromatique, on n’a pas égalité locale des deux tenseurs. Les tenseurs T et M sont donc intégralement équivalents sans être identiques. Le tenseur T est celui qui a la forme normale d’un tenseur énergie-impulsion en Mécanique ondulatoire, tandis que le tenseur M est celui qui correspond aux conceptions électromagnétiques habituelles. Cette dualité de tenseurs énergie-impulsion parait être une des causes qui ont retardé la constitution d’une mécanique ondulatoire du photon. Les grandeurs dont nous venons de parler sont toutes définies par des expressions bilinéaires en φ et φ∗ . Comme les seize grandeurs Maxwelliennes et non Maxwelliennes sont des combinaisons linéaires des seize φik , inversement chacun des seize φik peut s’exprimer à l’aide des seize grandeurs Maxwelliennes et non Maxwelliennes. C’est encore M. Céhéniau qui a donné ces formules d’inversion. Elles permettent d’exprimer toutes les densités de ha Mécanique ondulatoire du photon par des fonctions bilinéaires des grandeurs Maxwelliennes et non Maxwelliennes et de leurs conjuguées. Si l’on suppose nulles les grandeurs non Maxwelliennes, on obtient ainsi, par exemple pour le tenseur M d’énergie-impulsion électromagnétique, des expressions qui sont la transposition dans le langage des champs complexes des expressions classiques de la théorie de Maxwell. Dans le cas des densités de spin, on obtient des expressions curieuses qui sont apparentées à celles que M. Henriot, restant dans le cadre de la théorie électromagnétique classique, avait proposées, il y a 146 CHAPITRE 12. LE PHOTON quelques années, pour le moment d’impulsion propre du champ électromagnétique. Pour terminer ce paragraphe, nous voulons faire quelques remarques 7 . Une première remarque sera relative au rôle des potentiels en Mécanique ondulatoire du photon. Pour un état du photon représenté par une certaine fonction φ nous → − trouvons ici des valeurs parfaitement déterminées pour les potentiels A et V . Au premier abord, ceci peut paraı̂tre difficile à concilier avec ce que l’on nomme « l’invariance de jauge ». Mais, en réalité, la raison qui conduit à admettre l’invariance de jauge est la suivante : si l’on suppose que seuls les champs électromagnétiques (et non les potentiels) ont un sens physique, les valeurs des potentiels ne sont déterminées qu’aux composantes près du gradient d’univers d’une fonction dérivable quelconque des variables d’espace-temps. Naturellement, en théorie du photon, si l’on ne veut s’occuper que des champs et non des potentiels ou bien si l’on ne s’intéresse qu’aux actions de la lumière sur la matière (qui, dans l’état actuel de nos connaissances, paraissent ne dépendre que des champs et non des potentiels), → − on pourra ajouter aux potentiels A et V fournis par la Mécanique ondulatoire du photon les composantes du gradient d’Univers d’une fonction quelconque de x, y, z, t. Mais cela ne nous paraı̂t pas entraı̂ner qu’il n’y ait pas, pour un état donné du photon, de véritables valeurs des potentiels et qu’une description complète du photon ne doive pas faire intervenir ces valeurs. D’autres remarques sont relatives à valeur de la constante µ0 , masse propre du photon. Si l’on développe la Mécanique ondulatoire du photon comme nous l’avons indiqué plus haut sans préciser la valeur numérique de µ0 et si, ensuite on fait tendre µ0 vers zéro, toutes les formules obtenues varient d’une façon continue jusqu’à la limite µ0 = 0 incluse et pour cette limite on retrouve exactement la théorie de Maxwell avec la vitesse c des ondes lumineuses dans le vide pour toutes les fréquences. Il est donc assez tentant de supposer que µ0 est rigoureusement nulle. Néanmoins le passage à la limite µ0 → 0 n’est pas sans être un peu artificiel (il faut supposer que β tend vers 1 en même temps que µ0 tend vers 0 de façon que µ 0 c2 p garde une valeur finie, etc.) . De plus, nous verrons dans le prochain pa1 − β2 ragraphe que, lorsqu’on superquantifie la Mécanique ondulatoire du photon pour obtenir la quantification des champs, on obtient des formules qui ne sont plus continues pour µ0 tendant vers zéro, limite incluse, mais qui présente une discontinuité quand µ0 devient rigoureusement nulle. Or, tant que µ0 est supposée différente de zéro, si petite soit-elle, les formules de quantification sont satisfaisantes et ne conduisent à aucune difficulté, mais si l’on pose µ0 = 0, on se trouve en présence 7. Les remarques qui suivent s’appliquent aussi bien à une théorie du photon fondée uniquement sur les équations (12.9) qu’à la théorie fondée sur l’ensemble des équations (12.6) et (12.7). 12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE 147 d’une difficulté très connue en théorie quantique des champs et cette difficulté apparaı̂t ainsi comme liée au fait qu’en théorie quantique des champs usuelles (comme en théorie de Maxwell), on suppose implicitement nulle la constante µ0 . Il semble donc intéressant d’examiner l’hypothèse µ0 6= 0 L’hypothèse µ0 6= 0 semble se heurter à l’objection suivante : si, dans un certain système de référence galiléen, la vitesse d’un photon est assez voisine de la vitesse c pour ne pouvoir en être distinguée, il suffira de faire une transformation de Lorentz avec une vitesse relative voisine de c pour obtenir un photon dont la vitesse serait très sensiblement inférieure à c, ce qui paraı̂t contraire aux propriétés connues de la lumière. Il semble qu’on puisse écarter cette objection par le raisonnement qui suit. D’abord il est naturel d’admettre qu’un observateur humain ne peut déceler l’existence d’un corpuscule que si ce corpuscule a, par rapport à lui, une énergie au moins égale à une valeur minima ε0 . La constante ε0 dépend de l’état actuel de la technique et a la même valeur dans tous les systèmes de référence galiléens puisqu’un observateur humain dispose dans ces systèmes des mêmes moyens d’investigation expérimentale. De même, il est naturel d’admettre que la vitesse βc d’un corpuscule pour un observateur ne peut pour lui être discernable de la vitesse c si β ≥ 1 − η0 (12.15) où η0 est une constante dont la valeur dépend de l’état de la technique expérimentale et qui, pour la même raison que plus haut, a la même valeur dans tous les systèmes de référence. Soit alors un photon, qui dans un certain système de référence possède une énergie suffisante pour pouvoir y être décelé. On a donc : s µ 0 c2 µ 2 c4 p (12.16) ≥ ε0 ou β ≥ 1 − 0 2 ε0 1 − β2 Pour que ce photon ait dans ce même système une vitesse indiscernable de c, il faut de plus que l’inégalité (12.15) soit vérifiée. Or pour que (12.15) soit une conséquence de (12.16), il faut et suffit que l’on ait : ε0 p µ0 ≤ 2 1 − (1 − η0 )2 (12.17) c Donc, si µ0 (qui est une constante de la Nature) est assez petite pour que (12.17) soit vérifiée, tout photon qui, dans un système de référence galiléen quelconque, possède une énergie suffisante pour que sa présence y soit décelable, a dans ce système une vitesse indiscernable de c. Ce résultat permet, nous semble-t-il, de supposer µ0 6= 0, à condition de la supposer assez petite. Dans l’état actuel de la précision expérimentale, l’inégalité (12.17) paraı̂t devoir être certainement réalisée si µ0 est inférieur à 10−45 gramme, mais naturellement 148 CHAPITRE 12. LE PHOTON ce n’est là qu’une limite supérieure de la valeur de µ0 qui pourrait être encore beaucoup plus petite. Si notre théorie est exacte et si µ0 n’est pas par trop petite, comme ε0 et η0 dépendent de la perfection de la technique expérimentale, il ne serait pas à priori complètement interdit d’espérer que l’on puisse un jour déceler des photons dont la vitesse différerait sensiblement de c et, par suite, de mesurer la valeur de la masse propre µ0 . 12.3 Seconde quantification de l’onde du photon et quantification du champ electromagnétique Jusqu’ici, nous avons considéré le mouvement d’un photon isolé dans le vide. Cette hypothèse a quelque chose d’un peu artificiel parce qu’en fait on a toujours affaire à des assemblées de photons en présence de matière et que le nombre des photons est alors constamment variable par suite des processus d’émission et d’absorption. Pour obtenir une théorie satisfaisante, il est donc nécessaire de transformer la Mécanique ondulatoire du photon, telle qu’elle a été exposée plus haut, en y introduisant la seconde quantification. Les photons obéissant à la statistique de Bose-Einstein, il est très facile de trouver les relations de non commutation qui expriment que le nombre de photons correspondant à chaque composante spectrale est un nombre entier. Considérons − → l’onde φ plane monochromatique correspondant au vecteur de propagation k : nous savons déjà que cette onde plane dépend de trois constantes C1 , C2 , C3 . Il est facile de montrer que la superquantification de l’onde φ s’exprimera par les formules de non-commutation : → → − → − − h ∆2 [Ci∗ (k ′ ), Cj ( k )] = − δij · δ( k − k ′ ) 8πkµ0 c → − → − → − → − → − → − [Ci∗ ( k ′ ), Cj ( k )] = Ci∗ ( k ′ ) Cj ( k ) − Cj ( k ) Ci∗ ( k ′ ) → − 2 µ20 c2 k 2 = | k |2 + 4π h2 ∆=k+ 2π h (12.18) (12.19) µ0 c − → → − où | k | désigne la longueur du vecteur k La seconde quantification nous conduit ainsi à certaines relations de noncommutation entre les composantes φik d’une même onde plane monochromatique. Mais alors, il nous apparaı̂t immédiatement que cette seconde quantification de l’onde φ du photon conduit à une quantification des grandeurs électromagnétiques. Nous avons vu en effet qu’en Mécanique ondulatoire du photon, les grandeurs 12.3. SECONDE QUANTIFICATION 149 électromagnétiques associées au photon sont données par certaines combinaisons linéaires des φik . Si les φik sont soumis à des relations de non-commutation, il en résultera automatiquement des relations de non-commutation entre grandeurs électromagnétiques et l’on devra obtenir une théorie quantique des champs électromagnétiques. On voit bien ici comment la quantification des champs est équivalente à une onde quantification de l’onde du photon ; cette équivalence était implicitement contenue dans lis formes antérieures de la théorie des champs, mais n’y apparaissait pas aussi clairement qu’ici. En partant des relations (12.18), il est facile de trouver des relations de noncommutation des potentiels en Mécanique ondulatoire du photon 8 . Pour simplifier, considérons une onde φ plane monochromatique correspondant au vecteur de pro→ − → − pagation k et supposons que l’on prenne l’axe des z dans la direction du vecteur k . On obtient alors aisément pour les deux composantes transversales Ax = A1 et Ay = A2 du potentiel vecteur les relations de non-commutation. → → − → − − → − hc δij · δ( k − k ′ ) (12.20) [A∗i ( k ′ ), A′j ( k )] = − 4πk et l’on montre que chacune des composantes Ax et Ay commute avec Az et avec V . Ces relations sont exactement celles que l’on admet habituellement dans la théorie quantique des champs quand on y utilise les grandeurs électromagnétiques complexes. Le raccord est ici complet. Il en est différeremment pour les potentiels « longitudinaux » Az et V pour lequels on trouve : → − → → − → − → − − 3 hc [A∗z ( k ′ ), Az ( k )] = − 4πk − 16πh3 µ2 ck | k |2 δ( k − k ′ ) 0 − → − →′ − → → − hc h3 ∗ (12.21) [V ( k ), V ( k )] = 4πk − 16π3 µ2 ck k δ( k ′ − k ) 0 → − → → − → − − → − 3 [A∗z ( k ′ ), V ( k )] = − 16πh3 µ2 ck | k |δ( k − k ′ ) 0 car les relations habituellement admises sont : → → − → − − − → hc δ( k − k ′ ) [A∗z ( k ′ ), Az ( k )] = − 4πk → − → − − → − → hc [V ∗ ( k ′ ), V ( k )] = 4πk δ( k ′ − k ) → − → − [A∗z ( k ′ ), V ( k )] = 0 (12.22) c’est-à-dire celles qu’on obtient à partir de (12.21) en posant nuls les termes en µ20 . Ici, par conséquence, nous n’obtenons plus les formules usuelles en théorie quantique des champs quand nous faisons tendre µ0 vers zéro, comme on s’y serait 8. Toutes les relations qui suivent sont écrites en exprimant toutes les grandeurs électromagnétiques en unité d’Heaviside. 150 CHAPITRE 12. LE PHOTON peut-être attendu, puisque la théorie de Maxwell nous est apparue au paragraphe précédent comme correspondant au cas limite µ0 = 0. Les termes en µ20 devenant infinis pour µ0 = 0, il y a ici une discontinuité pour cette valeur limite de µ0 qui n’apparaissait pas du tout dfans les formules du paragraphe précédent. Les relations de non-commutation (12.20) et (12.21) sont écrites dans un système d’axes particuliers. II est aisé de trouver une forme de ces relations qui est valable dans un système cartésien quelconque et qui possède l’invariance relativiste. Nous ne nous arrêterons pas sur ce point. A partir des relations de non-commutation entre composantes de potentiel, on obtient facilement des relations de non-commutation entre une composante de potentiel et une composante de champ ou encore entre deux composantes de champ. Par exemple, on obtient : → → − − → − → − hc δij · δ( k − k ′ ) [A∗i ( k ), Ej ( k )] = − 4πi (12.23) relation bien connue dans la théorie quantique des champs. Toutes ces relations de non-commutation sont des relations entre composantes « spectrales » des grandeurs électromagnétiques. Suivant une méthode usuellement employée en théorie quantique des champs, il est aisé de passer de là à des relations de non-commutation entre les valeurs « locales » des grandeurs électromagnétiques. Comme exemple, en partant de la troisième relation (12.21), on montre facilement − → → que le commutateur de A∗i ( r ′ ) et de V (− r ) a la valeur : → − → [A∗i ( r ′ ), V (− r )] = →′ − h3 d → − δ( r − r ) 2 16π 3 µ0 c dxi i = 1, 2, 3 (12.24) alors que ce commutateur est égal à zéro par la théorie quantique des champs habituelle puisque cette théorie néglige nos termes en µ20 . On trouverait des relations analogues à (12.24) pour les autres composantes de potentiel et d’autres relations pour la commutation entre comosantes de champ et composantes de potentiel. L’une de celles-ci est la suivante : → − → − hc → → [A∗i ( r ′ ), Ej (− r )] = − δij · δ(− r − r′ ) 4πi (12.25) Cette relation est, aussi connue en théorie quatique des champs habituelle et elle y soulève une difficulté qui a été signalée par MM. Heisenberg et Pauli dès leur premier mémoire sur cette question. Si en effet, on applique aux deux membres de 3 X d , on obtient : la relation (12.25) l’opération dx j j=1 → − → − →→ − hc d − [A∗i ( r ′ ), div E (− r )] = − δ(→ r − r′ ) 4πi dxi (12.26) 12.4. INTERACTIONS MATIÈRE-RAYONNEMENT 151 et la relation (12.26) est incompatible avec la théorie de Maxwell car celle-ci pose → − dans le vide div E = 0. En mécanique ondulatoire du photon, cette difficulté disparaı̂t, tout au moins dans l’hypothèse µ0 6= 0. En effet, en Mécanique ondulatoire du photon, on a (voir plus haut équations 12.9) : → − 4π 2 µ20 c2 div E = − V h2 (12.27) →→ − et, en substituant cette valeur de div E (− r ) dans (12.26), on retombe simplement sur la relation (12.24), de sorte qu’il n’y a plus ici aucune contradiction. Ainsi si µ0 est différent de zéro et quelque petite que soit sa valeur, la difficulté tencontrée par la théorie des champs se trouve levée : elle reparaı̂t brusquement pour µ0 = 0. On peut voir là un argument en faveur de l’hypothèse µ0 6= 0. Pour la non-commutation entre composantes de champ, on retrouve ainsi la relation bien connue dans la théorie quantique des champs complexes : → − →′ − d d hc → → − ∗ δkj − δlj δ(− r − r′ ) (12.28) [Hi ( r ), Ej ( r )] = − 4πi dxl dxk où i k l est une permutation paire des trois nombres 1, 2, 3. Les relations de non-commutation entre champs permettent, rappelons-le, de retrouver les « relations d’incertitude » pour les composantes du champ électromagnétique dues à M. Heisenberg ainsi que la loi des fluctuations de l’énergie dans le rayonnement noir (Jordan, Wigner, Solomon). 12.4 Les interactions entre matière et rayonnement en mécanique ondulatoire du photon Pour calculer les phénomènes résultant d’interactions entre la matière et le rayonnement, la théorie quantique des champs considère le système formé par le rayonnement quantifié et une particule électrisée (électron de Dirac). Pour ce système, elle emploie un Hamiltonien obtenu en faisant la somme de l’Hamiltonien du rayonnement quantifié, de l’Hamiltonien de la particule (Hamiltonien de la théorie de Dirac) et d’un terme d’interaction choisi de façon à être d’accord, par « correspondance », avec l’expression classique de la force de Lorentz. On peut alors, par des procédés d’approximations successives, calculer les probabilités des transitions quantiques que peut subir le système rayonnement + particule et obtenir ainsi une théorie satisfaisante des phénomènes d’émission, d’absorption, de diffusion, etc. Néanmoins, comme il est bien connu, cette théorie quantique des interactions entre matière et rayonnement se heurte à des difficultés essentielles parce qu’elle 152 CHAPITRE 12. LE PHOTON conduit à trouver une valeur infinie pour l’énergie propre des électrons et que la convergence des approximations successives y est incertaine. Il est très aisé de transposer la théorie précédente en Mécanique ondulatoire du photon où elle prend un aspect plus symétrique parce que le photon et l’électron y interviennent de la même façon. La Mécanique ondulatoire du photon fournissant un Hamiltonien du photon, on formera l’Hamiltonien du système total photon + électron en ajoutant à l’Hamiltonien du photon celui de l’électron augmenté → d’un terme d’interaction. Si nous désignons par − r l’ensemble des variables x, y, z relatives au photon (c’est-à-dire celles qui figurent dans les équations (12.6) et → − (12.7) du photon) et par R l’ensemble des coordonnées de l’électron, l’opérateur (l) d’interaction Hop qui a ici la forme d’un opérateur agissant à la fois sur les variables de spin du photon et de l’électron, sera : h −→ i − → → → (l) Hop = −e l · Vop + (− α · Aop ) δ( R − − r) (12.29) −→ Dans cette formule, Vop et Aop sont les opérateurs qui, en théorie du photon, correspondent au potentiel scalaire et au potentiel vecteur et qui sont exprimés → par des matrices à 16 lignes et 16 colonnes ; l et − α représentent respectivement la matrice unité à 4 lignes et 4 colonnes et la matrice vecteur dont les composantes sont les matrices α1 , α2 , α3 de la théorie de Dirac, l’ensemble des matrices l et → − α , multipliées par la charge −e de l’électron, représente le vecteur densité-flux de → → − l’électricité pour l’électron de Dirac. Enfin, le facteur δ( R − − r ) dans (12.29) sert → à exprimer que le champ électromagnétique existant au point − r agit sur la charge → − − → électrique qui se trouve en ce point R = r ey que ceci a lieu avec un eprécision rigoureuse puisque la fonction δ de Dirac est une foncion en aiguille infiniment fine. La théorie des phénomènes d’émission, d’absorption, de diffusion, etc. fondée sur l’étude du système photon + électron quand on a adopté la forme (12.29) pour l’Hamiltonien d’interaction, conduit exactement aux mêmes résultats que la théorie quantique des champs habituelle et ne présente par suite aucun intérêt particulier. La raison de cet accord est que le calcul des phénomènes en question ne fait intervenir que les ondes transversales : or les relations (12.20) de noncommutation pour les potentiels transversaux sont également variables dans la théorie usuelle et en Mécanique ondulatoire du photon. Par contre, comme les relations (12.21) de non-commutation entre les potentiels longitudinaux ont une forme particulière, on peut s’attendre à trouver ici quelque chose de nouveau dans les calculs qui font intervenir les ondes longitudinales. En effet, c’est bien ce qui se produit, notamment quand on cherche à calculer l’interaction entre deux particules électrisées par la méthode développée par MM. Dirac et Fock. Dans cette méthode, on parvient à interpréter le potentiel Coulombien existant entre deux particules électrisées comme étant dû à l’interaction indirecte des deux particules par l’intermédiaire des ondes longitudinales du 12.4. INTERACTIONS MATIÈRE-RAYONNEMENT 153 rayonnement ambiant (échanges virtuels de quanta). Quand on développe ce calcul en s’appuyant sur les relations (12.22), on retrouve (Fock) la forme habituelle du potentiel Coulombien créé par une charge ε à la distance r soit : V = ε 4πr (en unité d’Heaviside). (12.30) Mais, si l’on reprend ce calcul en s’appuyant sur les relations (12.21) fournies par la Mécanique ondulatoire du photon, on trouve : V = h2 ε − 2πµ0 c r e h − ε 2 2 2 δ(r) 4πr 4π µ0 c (12.31) On peut d’ailleur contrôler l’exactitude de ce calcul en remarquant que pour un champ électrostatique, la formule (12.27) nous donne : ∆V = 4π 2 µ20 c2 V h2 (12.32) et que, pour un champ radial, le premier terme de l’expression (12.31) est bien l’intégrale de (12.32) qui tend vers zéro quand r tend vers l’infini. Pour justifier de plus la présence du second terme dans (12.31), on remarquera qu’en appliquant la théorie de Green-Gauss à une sphère Σ ayant l’origine pour centre et un rayon R, on obtient la condition Z Z → − 1 4π 2 µ20 c2 R 2 E(R) = (−grad V )r=R = div E dτ = − 2 2 V r dr (12.33) 4πR2 Σ hR 0 et cette condition n’est remplie que si l’on ajoute dans l’expression de V au premier terme de (12.31) le second terme en δ. Examinon l’expression (12.31). Le premier terme ne diffère du potentiel Coulombien ordinaire que par la présence de l’exponentielle. Comme nous avons vu que h est certainement µ0 est certainement inférieur à 10−45 gramme, la quantité 2πµ0c au moins de l’ordre de 100 à 1000 kilomètres : c’est au moins à cette distance de la charge électrique qu’il faudrait se placer pour pouvoir observer un écart par rapport à la loi de Coulomb, ce qui semble écarter toute idée de vérification expérimentale de cet écart 9 . Quant au second terme de l’expression (12.31) , il est caractéristique de la Mécanique ondulatoire du photon et représente une sorte d’impénétrabilité de la particule ponctuelle, si l’on peut s’exprimer ainsi. 9. La présence de l’exponentielle dans le terme Coulombien de (12.31) a pour effet de rendre convergentes certaines intégrales qui sont divergentes quand on emploie l’expression (12.30) classique : ceci lève, au moins théoriquement, quelques difficultés de convergence des théories usuelles. 154 CHAPITRE 12. LE PHOTON Comme ce second terme est en µ20 , l’expression (12.31) ne tend pas vers l’expression (12.30) quand µ0 tend vers zéro : nous avons ici encore un exemple de discontinuité analogue à ceux que nous avons rencontrés au paragraphe précédent. Comme le potentiel en δ est nul à toute distance finie de l’électron, sa présence ne doit pas troubler le résultat des calculs habituels, par exemple pour la diffusion d’une particule électrisée par une autre. Ce potentiel en δ se rencontre dans h pour lesquelles on sait que la masse d’autres théories de particules de spin 2π propre n’est pas nulle (mésotons). La Mécanique ondulatoire du photon ne paraı̂t jusqu’ici conduire à aucune amélioration en ce qui concerne les valeurs infinies trouvées par la théorie quantique pour les énergies propres des électrons. On y voit seulement que ces valeurs sont dues à la forme en aiguille infiniment fine de la fonction δ qui figure dans l’expression (12.29) du terme d’interaction. Si l’on pouvait remplacer cette fonction δ par une fonction en aiguille extrêmement fine, mais non infiniment fine, on pourrait peut-être obtenir des valeurs finies ; malheureusement ce procédé soulève de grandes difficultés au point de vue de l’invariance relativiste et c’est dans une autre voie sans doute qu’il faut chercher la solution du problème. Notons, pour terminer ce paragraphe, que l’analyse des transitions quantiques dues à l’action du rayonnement sur la matière ou inversement montre très nettement pourquoi il faut employer les champs électromagnétiques complexes pour représenter ces interactions et comment cet emploi correspond à la conservation de l’impulsion et de l’énergie lors de ces transitions. 12.5 Résumé La théorie du photon que nous avons exposée dans Ce rapport à l’avantage de rentrer comme cas particulier dans le cadre de la Mécanique ondulatoire générale et est étroitement apparentée à la théorie de l’électron de M. Dirac. Partant de l’hypothèse que le photon se comporte comme une particule formée par deux corh puscules complémentaires de spin elle représente le mouvement d’ensemble de 2π la particule « photon » et ses propriétés de spin à l’aide d’une fonction d’onde à 16 composantes obéissant à deux systèmes compatibles de 16 équations chacune. En définissant les grandeurs électromagnétiques associées au photon par des combinaisons linéaires des composantes de l’onde (combinaisons directement suggérées par la théorie de Dirac), on obtient entre ces grandeurs des relations qui tendent asymptotiquement vers les équations classiques de la Théorie de Maxwell quand on fait tendre vers zéro la masse propre du photon. On établit ainsi une liaison tout à fait précise et satisfaisante entre le spin du photon et la polarisation de l’onde électromagnétique associée. On peut développer le formalisme de cette Mé- 12.5. RÉSUMÉ 155 canique ondulatoire du photon, formalisme qui diffère du formalisme usuel dans les autres branches de la Mécanique ondulatoire en ce qu’il n’existe pas d’expression définie positive permettant de représenter la probabilité de présence locale du photon. Dans cette étude, on obtient plusieurs formules intéressantes, notamment d’élégantes expressions pour les composantes du tenseur de Maxwell. Pour donner à la théorie une forme moins schématique, il convient de soumettre l’onde du photon à la seconde quantification. On obtient alors immédiatement la quantification des grandeurs électromagnétiques mettant ainsi en évidence d’une façon particulièrement claire le fait que la quantification des champs est équivalente à la superquantification. Pour les ondes transversales, on retrouve les formules de non-commutation usuelles mais pour les ondes longitudinales ces formules contiennent des termes supplémentaires en µ20 et par suite ne tendent pas vers les formules usuelles quand µ0 tend vers zéro. Cette différence entraı̂ne la conséquence suivante : en Mécanique ondulatoire du photon, quelque petite que l’on suppose la masse propre du photon, à condition qu’elle ne soit pas rigoureusement nulle, on ne rencontre pas les difficultés auxquelles se heurtent d’autres formes de la théorie quantique des champs : on peut voir là un argument en faveur de l’hypothèse µ0 6= 0. Enfin, l’analyse des interactions entre le rayonnement et les particules électrisées se fait d’une façon tout à fait symétrique en adoptant un Hamiltonien d’interaction approprié et montre que, dans cette analyse, ce sont les champs électromagnétiques complexes qui doivent intervenir. Tous les résultats obtenus en considérant les ondes transversales sont les mêmes que dans les théories habituelles. Les calculs faisant intervenir les ondes longitudinales sont au contraire différents : ainsi, non seulement le potentiel Coulombien est affecté (si µ0 6= 0) d’un facteur exponentiel dont l’existence réelle ne paraı̂t d’ailleurs pas vérifiable, mais il s’y ajoute un autre potentiel exprimé par une fonction δ et caractéristique de la théorie. Dans son état actuel, la Mécanique ondulatoire du photon ne paraı̂t pas permettre d’écarter les difficultés bien connues dues aux valeurs infinies obtenues pour les énergies propres. 156 CHAPITRE 12. LE PHOTON Cinquième partie UNE PAGE D’HISTOIRE DES SCIENCES 157 Chapitre 13 Un génie tourmenté : André-Marie Ampère 1 La science française a derrière elle une longue et glorieuse histoire. A tous les stades du développement de la civilisation moderne, les savants français ont apporté des contributions importantes et souvent géniales. Par l’originalité de leurs conceptions, la clarté de leur esprit ou l’habileté de leur technique expérimentale, ils ont constamment ouvert des voies nouvelles et on trouve toujours certains de leurs noms, à l’origine de tous les grands progrès et de toutes les grandes découvertes. Aussi, si l’on désire parler de l’une des grandes figures de la science française, n’at-on que l’embarras du choix. Mais dans la nombreuse galerie de portraits entre lesquels il faut alors choisir, aucune figure n’est peut-être plus attrayante que celle d’André-Marie Ampère. Tout est curieux, émouvant, grandiose en cet homme extraordinaire. Enfant prodige donnant dès l’âge le plus tendre les marques de facultés aussi exceptionnelles que précoces ; adolescent frappé par un deuil cruel lors d’une des plus grandes crises de notre histoire ; cIJur passionné soumis dans sa vie privée à de douloureuses épreuves successives comme si la destinée s’acharnait à faire souffrir ce pauvre grand homme ; esprit d’une immense envergure s’intégrant à la fois à toutes les branches de la science et de la philosophie et réussissant, malgré l’énorme dispersion d’efforts que sa trop grande curiosité lui impose, à réaliser dans des domaines très différents des œuvres capitales ; homme indécis et timide, aussi faible et désarmé devant les petites difficultés de la vie quotidienne qu’il était vaillant et acharné dans les tentatives ardues où se complaisait sa vaste intelligence ; âme inquiète sans cesse préoccupée de problèmes moraux et métaphysiques, souvent éprise de mysticisme et trouvant enfin dans les consolations de la foi l’apaisement de ses souffrances et l’assouvissement de ses aspirations. Tel fut ce savant de génie 1. Conférence faite en Sorbonne le mercredi 18 septembre 1940 159 160 CHAPITRE 13. ANDRÉ-MARIE AMPÈRE qui, en quelques semaines de sa vie orageuse, a jeté les bases de la science des phénomènes électromagnétiques et ouvert la voie à toutes les applications actuelles de l’Electricité et qui cependant, malgré hommages dont il fut l’objet à certains moments de sa carrière, mourut obscurément au cours d’un voyage d’inspection administrative sans que les hommes de son temps aient paru se rendre compte de tout ce que la France perdait en lui. La vie des savants prête en général assez peu aux développements qui attirent l’attention des biographes et qui intéressent le public, car leur existence est souvent paisible, parfois solitaire, et leur œuvre reste fréquemment confinée dans une région étroite et particulière du savoir humain. Il n’en fut pas ainsi pour AndréMarie Ampère ; sa vie et son œuvre sont si étrangement attrayantes à la fois pour l’historien et pour le savant qu’elles ont déjà fait l’objet de nombreuses études et qu’elles méritent d’être connues de tous les hommes cultivés. ∴ André-Marie Ampère est né à Lyon le 20 janvier 1775. Sa famille appartenait à la bourgeoisie lyonnaise. Son père, Jean-Jacques Ampère, après s’être occupé du commerce des soieries, grande source de richesses de la cité Rhodanienne, n’avait pas tardé à profiter de l’aisance que lui procurait sa fortune pour se retirer des affaires ; dès lors, il avait passé la plus grande partie de l’année dans sa maison de campagne de Poleymieux et c’est là que fut surtout élevé le jeune André-Marie. Jean-Jacques Ampère était un homme cultivé, fort bon connaisseur des lettres classiques et assez attiré par les idées nouvelles dont la diffusion dans ce crépuscule de la Monarchie annonçait les convulsions prochaines de la Révolution. Peut-être influencé par l’Emile de Rousseau, il laissa l’intelligence de son jeune fils se développer librement et ne le soumit à aucune contrainte scolaire. Ainsi quelque peu abandonné à lui-même, le jeune André-Marie ne tarda pas à se montrer ce qu’on est convenu d’appeler un « enfant-prodige ». Non seulement encore presque enfant, la littérature classique n’a pas de secret pour lui, mais il s’initie de bonne heure aux éléments des Mathématiques, de la Physique, de la Chimie sans oublier la Botanique et la Philosophie ; il invente une langue universelle et écrit des poèmes. Et ainsi, dans cette précoce exubérance, il montre déjà, presque au sortir de l’enfance, cette supériorité d’intelligence, cette puissance de travail, cette avidité de connaissances et aussi, il faut bien le dire, cette tendance un peu fâcheuse à la dispersion des efforts qui caractériseront le reste de sa vie. Dès cette époque, sa mémoire est aussi prodigieuse que sa capacité de travail. Non seulement, vert 12 ou 13 ans, il lit, article par article, les vingt gros volumes de l’Encyclopédie, mais cinquante 161 années plus tard, parvenu à la vieillesse, il sera encore capable d’en répéter mot à mot des pages entières sans les avoir jamais relues. Tout annonce donc en lui un homme doué de facultés extraordinaires. Mais le rapide épanouissement de cette jeune intelligence avait été favorisée par la vie calme et paisible que l’enfant menait alors dans sa famille. Ce calme n’allait pas durer. Ampère venait d’accomplir sa quatorzième année quand commença d’éclater l’orage qui, depuis tant d’années montait lentement à l’horizon politique de la France et l’adolescent, à l’intelligence si précocement éveillée, allait bientôt en ressentir le terrible contrecoup. Son père, depuis longtemps attiré par les idées nouvelles qui avaient peu à peu ébranlé l’ancien ordre politique et social, vit dans le début de la Révolution l’occasion d’entrer dans la politique, comme nous dirions aujourd’hui. Dans des périodes aussi troublées, faire de la politique est un jeu très dangereux et Jean-Jacques Ampère n’allait pas tarder à s’en apercevoir. Elu juge de paix du quartier de la Halle aux blés à Lyon, il se rattacha par ses tendances au parti Girondin. Les Girondins, on le sait, furent considérés au début de la Révolution comme des gens d’opinion fort avancée, mais par une mésaventure assez fréquente en pareille matière, ils ne tardèrent pas, quand la Montagne eut assuré sa domination sur la Convention, à faire figure de réactionnaires et à paraı̂tre suspects à ce titre. Jean-Jacques Ampère, dépassé comme bien d’autres par le mouvement qu’il avait encouragé, fut bientôt effrayé par les excès de la Révolution et fit alors à Lyon une forte opposition à la dictature du délégué de la Convention, le redoutable Challier ; il contribua à le faire arrêter et exécuter. A la suite de cette exécution, la Convention entra en lutte ouverte avec la ville de Lyon : après un siège de deux mois, elle parvint à faire occuper Lyon par son armée, puis elle vengea par de terribles représailles la mort de Challier. Jean-Jacques rendu responsable de cette mort fut exécuté après un jugement sommaire. André-Marie, qui était resté à Poleymieux pendant la carrière politique de son père à Lyon, fut si brutalement frappé par la nouvelle de sa mort tragique qu’il tomba dans un état de complète prostration et l’on éprouva même des craintes pour sa raison. Ainsi la fureur révolutionnaire qui allait bientôt faire tomber la tête du créateur de la Chimie moderne, Lavoisier, rendait orphelin et écrasait sous le poids de la douleur celui qui allait être le fondateur de l’Electrodynamique et l’une des plus pures gloires de la science Française ! Cependant, peu à peu, André-Marie Ampère se remit de cette dure épreuve et, la jeunesse reprenant le dessus, son activité intellectuelle toujours intense et toujours un peu éparpillée reprit son cours. C’est à ce moment de sa vie que se placent ses fiançailles, puis son mariage avec Julie Carron. On a souvent raconté d’Ampère ayant eu l’occasion en avril 1796 de rencontrer une jeune fille de la bourgeoisie lyonnaise Julie Carron, alors accompagnée de sa sœur Elise, avait été si ému par sa douceur et sa beauté qu’il avait sur-le-champ 162 CHAPITRE 13. ANDRÉ-MARIE AMPÈRE décidé de l’épouser. Si la décision du jeune savant fut extraordinairement prompte, celle eu la partie adverse le fut moins. Le soupirant était timide et gauche et ne paraı̂t pas avoir au premier abord séduit particulièrement la douce Julie Carron. Elle finit néanmoins par consentir à ce mariage peut-être plus par bonté que par inclination et ses fiançailles avec Ampère furent célébrées en juillet 1797. Mais la crise révolutionnaire avait lourdement éprouvé la fortune de la famille Ampère et, de plus, le jeune homme n’avait pas de situation : ces circonstances firent retarder la célébration du mariage jusqu’au 2 août 1799. Après son mariage avec Julie Carron, Ampère qui parvenait à boucler son budget en donnant à Lyon quelques leçons particulières, paraı̂t avoir connu plusieurs mois de vrai bonheur qui furent peut-être les seuls de sa vie. Mais la naissance en août 1800 de son fils Jean-Jacques qui devait être plus tard un littérateur de renom, membre de l’Académie française, ainsi que l’état de santé de plus en plus précaire de sa jeune femme qui exigeait beaucoup de soins, l’obligèrent à chercher une situation régulièrement rémunérée et, en février 1802, il obtenait le poste de Professeur de Physique à l’Ecole Centrale de Bourg, entrant ainsi à 27 ans dans l’enseignement public qu’il ne devait plus quitter. Laissant sa famille à Lyon, il va s’installer à Bourg : il ne revient plus voir sa famille que de loin en loin, étant souvent obligé par raison d’économie de faire à pied le long trajet qui mène du chef-lieu de l’Ain à celui du Rhône. Dans sa solitude, il entreprend ses premiers travaux vraiment originaux sur l’algèbre, l’analyse mathématique et aussi le calcul des Probabilités, la théorie du jeu comme on disait alors. Ces recherches originales sont remarquées par un certain nombre de savants illustres, l’astronome Lalande, les géomètres Laplace et Delambre. Ces maı̂tres s’intéressent à la carrière du jeune homme et comme à cette époque le gouvernement consulaire organise dans toute la France l’enseignement des lycées, ils obtiennent pour lui la place de professeur des 3e et 4e classes de Mathématiques au lycée de Lyon. Le voici donc se réinstallant à Lyon au mois d’avril 1803 : il y retrouve sa femme et son enfant et l’on pourrait croire qu’il y va retrouver aussi son bonheur familial. Hélas ! la santé de sa jeune femme décline chaque jour davantage et elle meurt au mois de juillet de cette même année, le laissant dans un désespoir affreux que les consolations de sa foi chrétienne lui permettent difficilement de surmonter. Extrêmement découragé, il songe à se rendre à Paris pour y devenir maı̂tre de pension, fabricant de produits chimiques ou n’importe quoi d’autre, car il ne peut plus supporter cette ville de Lyon qui a vu s’effondrer si prématurément son bonheur. Sa famine le détourne de ces projets aventureux et lui persuade de chercher l’oubli de ses peines dons l’étude et les mathématiques. Ces nouveaux travaux attirent alors une seconde fois sur lui l’attention des maı̂tres de Paris et, en octobre 1804, ils lui valent sa nomination comme répétiteur d’Analyse à l’Ecole Polytechnique. Cette nomination, bien loin de le faire se consacrer davantage aux Mathéma- 163 tiques comme il eût été naturel, l’en éloigne plutôt, tant son esprit impétueux et changeant savait peu suivre les voies tracées. Sans doute on le voit encore écrire quels mémoires de Mathématiques, mais c’est surtout la Philosophie, la Psychologie et la Métaphysique qui semblent alors particulièrement l’attirer. Il discute avec Maine de Birau, il correspond avec ceux de ses amis restés à Lyon qui forment là-bas l’école mystique dont Ballanche est le chef. II oscille par moments entre la foi et le doute et parfois se dégoûte des Mathématiques pour y revenir ensuite, tout en continuant d’ailleurs régulièrement son enseignement d’analyse à l’Ecole Polytechnique. C’est dans cette période trouble de son existence où le pauvre Ampère paraı̂t chercher sa voie sans parvenir à la trouver que se place le navrant épisode de son second mariage. Croyant sans doute retrouver le bonheur que la mort lui a une première fois ravi, il épouse en avril 1806 une certaine demoiselle Potot d’une honorable famille parisienne. Mais cette jeune femme est une mégère et sa famille ne vaut pas mieux qu’elle : dès la fin de l’année, le malheureux Ampère persécuté et désespéré doit se séparer de sa nouvelle épouse et, comme sa femme refuse de s’occuper de la petite Albine qui naı̂t ensuite de cette union malheureuse, il doit la prendre entièrement à sa charge et s’occuper seul de l’élever. Ce fut pour Ampère une nouvelle et très dure épreuve morale. Il eut beaucoup de peine à la surmonter, mais il semble cependant qu’après ce nouveau coup du sort, il parvint à retrouver un peu plus de sérénité. Sa mère et sa sœur vinrent habiter à Paris avec lui : elles l’aidèrent à élever ses deux enfants Jean-Jacques et Albine. Les années qui suivirent furent pour Ampère sinon pleinement heureuses, du moins plus calmes. Nommé professeur d’Analyse et examinateur d’entrée à l’Ecole Polytechnique, appelé en 1808 aux importantes fonctions d’Inspecteur général de l’Université, sa situation matérielle est désormais assurée et, bien que ses nouvelles fonctions et quelques menues autres lui imposent d’assez nombreuses obligations administratives, elles lui laissent cependant assez de temps pour lui permettre de revenir à l’étude. Mais ici se montre à nouveau la grande mobilité d’esprit d’Ampère. Ce n’est plus en effet vers les Mathématiques auxquelles il est officiellement affecté, ce n’est même plus vers la Métaphysique pour laquelle il conserve un certain penchant, c’est vers la Chimie et la théorie atomique qu’il tourne tout à coup sa curiosité et ses efforts. Et tout de suite, dans ce domaine où jusqu’alors il n’a jamais travaillé, il va émettre des idées profondes et originales et se montrer à plus d’un point de vue un grand précurseur. Depuis une trentaine d’années, rénovée par les travaux de Lavoisier et de ses continuateurs, la Chimie était alors eu plein développement. En particulier, les expériences de Davy, de Gay-Lussac et de Thénard sur la potasse et sur les acides chlorhydrique et fluorhydrique attiraient l’attention des savants. Ampère se passionne pour ces questions : il soutient l’opinion de Davy suivant laquelle la potasse est un corps composé et dans les expériences de Gay-Lussac et de Thénard, il 164 CHAPITRE 13. ANDRÉ-MARIE AMPÈRE aperçoit avec une lucidité merveilleuse la certitude qu’il existe deux corps simples de propriétés analogues, le Chlore et le Fluor. Ses idées furent facilement admises en ce qui concerne le Chlore, mais pour le Fluor dont l’isolement effectif n’eut lieu que quatre-vingts ans plus tard, elles se heurtèrent a une forte opposition et il fut loin de convaincre tous les chimistes. Dans ces discussions qui furent souvent passionnées, Ampère apparut comme un puissant théoricien de la Chimie ; sans être lui-même en cette matière un homme de laboratoire, il sut par la vigueur de son imagination et la pénétration de son intelligence apercevoir dans des faits que l’on n’avait pas su encore bien interpréter des vérités que l’avenir devait pleinement confirmer. Et son œuvre à ce point de vue fut importante. Plus importantes peut-être encore furent les idées générales auxquelles s’éleva bientôt Ampère en réfléchissant à l’ensemble des récentes découvertes des chimistes, découvertes qu’il suivait alors avec un intérêt passionné. Les lois de la Chimie générale commençaient à cette époque à se dégager avec netteté et les travaux des Dalton, des Berthollet et des Gay-Lussac en avaient fixé les grandes lignes. Ampère aperçu comment ces lois peuvent être interprétées en adoptant l’hypothèse de la structure atomique des corps matériels. Il éprouvait depuis longtemps une grande inclination en faveur de cette hypothèse millénaire qui avait charmé les rêves des philosophes de l’Antiquité et il voulut l’exploiter à fond. Jetant hardiment un pont entre les propriétés chimiques et les propriétés physiques des gaz, il vit clairement le lien que l’hypothèse atomique établissait entre les lois de combinaison récemment découvertes par les chimistes et la relation de proportionnalité d’aspect purement physique que Mariotte avait, dès le XVIIe siècle, établi entre la pression et la densité d’un gaz à température constante. Dès 1809, Ampère approfondit ce problème, se tenant à ce sujet en relations constantes avec les chimistes les plus qualifiés de son temps. Il fut cependant à plusieurs reprises distrait de ce travail, notamment par de fréquentes crises morales (car l’âme et le cœur de ce génie tourmenté sont toujours en état de tempête) et aussi par une candidature, d’ailleurs infructueuse, à la place laissée libre dans la section des Mathématiques de l’Académie des Sciences par la mort de l’illustre Lagrange, candidature qui l’oblige ,à revenir momentanément à des travaux d’analyse. Enfin, en janvier 1814, il résume l’ensemble de ses recherches dans un mémoire intitulé : « Démonstration de la relation découverte par Mariotte entre les volumes des gaz et les pressions qu’ils supportent à la même température. » Lancé dans cette voie, il ne s’arrête plus et fait toute une série de recherches sur les lois mathématiques des combinaisons chimiques, sur la mesure des poids atomiques, sur la prévision des réactions. Il fait des rapprochements entre la Chimie et la Cristallographie alors en plein développement grâce aux travaux d’Haüy. Et, chemin faisant, il énonce la célèbre hypothèse qui est connue aujourd’hui dans tous les traités de Chimie sous le nom d’Avogadro parce qu’elle fut énoncée par le chimiste italien à peu près en même temps que par Ampère, mais à laquelle 165 Ampère était parvenu en suivant une voie tout à fait indépendante. Toutes ces idées d’une originalité profonde, dont certaines ne devaient trouver leur véritable expression que bien plus tard dans le cadre de la théorie cinétique des gaz, se trouvent rassemblées un peu en désordre dans un volumineux mémoire de 1814, mémoire qui constitue pour Ampère un de ses plus beaux titres de gloire. La même année, il entre enfin à l’Académie des Sciences en remplacement de l’abbé Bossut et toujours en qualité de mathématicien, car il fallut bien faire rentrer dans le cadre rigide d’une section académique ce génie fougueux dont l’activité intellectuelle était si variée qu’il aurait presque pu figurer dans toutes les sections à la fois. Puis, comme si chez lui, chaque fois qu’il a entrepris et mené à bien une œuvre remarquable, le succès provoquait la lassitude, il se détache de la Chimie comme il s’est détaché des Mathématiques et, pendant cinq années, ce sera de nouveau la Psychologie, la Morale, la Métaphysique qui le préoccuperont. On le voit même en 1819 chargé d’un cours de Logique à la Faculté des Lettres car il est aussi difficile, dans l’Université que dans les Académies, de maintenir un tel homme dans un compartiment bien déterminé. ∴ Les années passent. Nous voici en 1820. 1820 ! Ampère a 45 ans ; il est professeur à l’Ecole Polytechnique, Inspecteur général de l’Université, membre de l’Académie des Sciences. Ses travaux font autorité en Mathématiques et en Chimie, on le sait un profond philosophe. On pourrait croire que la carrière scientifique de cet homme déjà en pleine maturité est sinon achevée, car il est jeune encore, du moins définitivement orientée. Mais quelle erreur avec un homme semblable ! Sa carrière scientifique, elle est à peine commencée, car c’est maintenant seulement qu’abordant une science dont il ne s’est jamais occupé, la Physique, qu’explorant un sujet qu’hier encore il ignorait totalement, les lois de l’Electricité et du Magnétisme, il va en quelques semaines accomplir une œuvre grandiose qui rendra son nom définitivement impérissable. Dans les quarante années si fécondes en découvertes scientifiques qui s’étaient écoulées entre 1780 et 1820, la connaissance des phénomènes électriques et magnétiques avait fait de considérables progrès. Grâce notamment aux travaux de Cavendish et de Coulomb, l’électricité statique, dont on connaissait depuis longtemps certains aspects, avait été soumise à une étude quantitative. Il en avait été de même pour le magnétisme tel qu’il se manifeste dans les aimants permanents. D’autre part, prenant naissance dans les mémorables recherches de Galvani et stimulée par la découverte de la pile par Volta, l’étude des phénomènes liés au mouvement de 166 CHAPITRE 13. ANDRÉ-MARIE AMPÈRE l’électricité, c’est-à-dire aux courants électriques, s’était grandement développée, mais le lien entre ces divers aspects de l’électricité et du magnétisme n’était pas encore nettement précisé, bien que son existence fût déjà fortement soupçonnée. La démonstration par Coulomb du fait que les actions à distance entre pôles d’aimants suivent la même loi que les actions à distance entre charges électriques avait même orienté les esprits dans une mauvaise direction en inspirant la conviction d’un parallélisme complet entre les actions électriques et les actions magnétiques. Cette conviction avait par exemple conduit à tenter des expériences qui nous paraissent aujourd’hui presque absurdes, comme d’approcher le pôle d’une pile d’une aiguille aimantée pour voir si cette aiguille dévie, ou encore de faire flotter librement une petite pile à la surface d’une cuve remplie d’eau et de soumettre l’ensemble à l’action du champ magnétique d’un aimant pour voir si la ligne des pôles de la pile s’oriente dans le champ magnétique. Inutile de dire que ces tentatives étaient restées vaines et que le lien entre l’électricité et le magnétisme avait obstinément refusé de se manifester de cette façon. C’est, dit-on, par hasard qu’en 1819, le physicien danois Oerstedt, montrant à ses élèves quelques expériences sur les courants électriques, s’aperçut qu’une boussole placée à proximité déviait au moment de l’établissement du courant dans un circuit. Soumettant ce phénomène fortuitement observé à une étude méthodique, Oersted parvint à établir qu’une aiguille aimantée, placée au voisinage d’un fil métallique, tend à se mettre en croix avec ce fil quand on y lance un courant électrique. Les sensationnelles expériences d’Oersted attitrent naturellement tout de suite l’attention de tous les physiciens de l’Europe et furent répétées un peu partout dans les laboratoires. Au cours d’un voyage effectué à Genève dans l’été de 1820, Arago eut l’occasion d’assister à quelques-unes de ces expériences et sa vive imagination en fut très frappée. De retour à Paris, il fit le lundi 11 septembre 1820 devant l’Académie des Sciences (qui à cette époque siégeait déjà le lundi comme elle le fait aujourd’hui encore) une relation de ce qu’il avait vu dans les laboratoires genevois. Tous les membres de l’Académie écoutèrent sans doute avec un grand intérêt la communication de leur illustre confrère, mais l’un d’eux, Ampère, dut la Suivre avec une attention particulièrement passionnée, car dès les séances suivantes, celles des lundis 18 et 25 septembre, il présentait à l’Académie deux mémoires où, montrant à nouveau, mais cette fois avec toute l’ampleur d’un incontestable génie, ses puissantes facultés de théoricien, il apercevait d’un seul coup d’œil dans les résultat des expériences d’Oersted et de ses émules le lien exact, enfin découvert, qui relie les actions magnétiques non pas à l’électricité elle-même, mais aux mouvements de l’électricité : l’électrodynamique, avec toutes les conséquences qu’elle allait avoir pour le développement de la Physique et indirectement par ses applications pour la civilisation des hommes, était née en quelques jours grâce à l’admirable effort d’un esprit créateur. 167 Du seul fait de l’action exercée par un courant sur une aiguille aimantée, Ampère déduit que deux courants fermés doivent agir l’un sur l’autre et précise la loi de cette action. Il aperçoit avec une netteté parfaite que l’action des courants sur les aimants et des aimants sur les courants n’a rien à voir avec les actions électrostatiques ordinaires. Il affirme, se montrant par là de nouveau un grand précurseur, que les propriétés des aimants doivent pouvoir se ramener à l’existence de courants électriques fermés existant dans la masse de la substance aimantée. Non seulement, il se montre par là le génial annonciateur des futures théories électroniques qui admettent que la matière est formée d’un nombre immense de particules électrisées et cherchent à expliquer toutes ses propriétés par le mouvement de telles particules ; mais encore il montre toute sa perspicacité en rejetant définitivement la fausse analogie qui portait à traiter symétriquement les phénomènes du magnétisme et ceux de l’électricité et en faisant découler les phénomènes électromagnétiques de l’existence et du mouvement des seules charges électriques. Tandis que la charge électrique est une réalité fondamentale, il n’existe pas de charges magnétiques, de magnétisme vrai. Sans doute, le champ magnétique créé par un aimant peut-il se représenter en admettant que les pôles de l’aimant portent des charges magnétiques de signes contraires, mais l’existence des champs magnétiques créés par les courants électriques mise en évidence par les expériences d’Oersted incite, pour donner une origine unique aux actions magnétiques, à considérer tous les champs magnétiques comme dérivant des mouvements de l’électricité. La conception du pôle d’aimant portant une charge magnétique n’est plus alors qu’un artifice commode pour représenter schématiquement la structure du champ magnétique qui entoure l’aimant ; mais ce n’est qu’une fiction mathématique, la véritable origine physique du champ qui entoure l’aimant devant être cherchée dans les courants électriques élémentaires qui parcourent sa masse. Et alors les actions magnétiques entre deux aimants ou entre deux courants ou entre un aimant et un courant apparaı̂tront comme des aspects divers d’un même processus fondamental d’interaction. Telles sont les idées qu’énonçait Ampère et qui ramenaient l’origine du magnétisme des aimants aux courants électriques particulaires cachés dans la masse de la matière aimantée. Idées admirables que devait confirmer tout le développement ultérieur de l’électromagnétisme ! Cette période de découvertes fut pour Ampère l’occasion d’une véritable exaltation. On a conservé de lui une lettre où il exprime à son fils, Jean-Jacques, alors en voyage, toute la joie et tout l’enthousiasme que lui procure le sentiment de la découverte. Durant le mois d’octobre 1820, il présente mémoires sur mémoires à l’Académie des Sciences pour préciser ses idées. Voulant vérifier lui-même les conséquences nouvelles de ses conceptions, il entreprend des expériences avec des moyens de fortune. Ampère depuis 1818 habitait avec sa sœur et ses enfants une petite maison de la rue des Fossés-Saint-Victor. C’est dans le cadre modeste de cette 168 CHAPITRE 13. ANDRÉ-MARIE AMPÈRE de meure qu’il se monte un laboratoire et avec un appareillage dont la pauvreté étonne aujourd’hui, il réalise des expériences cruciales montrant le bien-fondé de ses intuitions. Il travaille avec tant d’acharnement que ses amis s’inquiètent de son état de fatigue et de surmenage et c’est à juste titre car dans le courant de 1821 il ressentira les premières atteintes assez légères du mal, la phtysie laryngée, qui l’emportera quinze années plus tard. Mais son activité ne se dément pas un seul instant et pendant les six années qui vont de 1820 à 1826, Ampère avec une continuité dans l’effort qui lui avait souvent fait défaut auparavant se consacre à l’étude de l’électrodynamique. Non seulement il se révèle un expérimentateur hors pair, mais il montre aussi de véritables qualités d’inventeur dans le domaine pratique. Dès son mémoire du 25 septembre 1820, il avait indiqué que les actions magnétiques des courants devaient permettre la réalisation du télégraphe électrique et, si le système qu’il imagine comportant une ligne électrique pour chaque lettre de l’alphabet est trop complique pour entrer dans la pratique, il n’en fournit pas moine le principe qui servira de base à tout le développement futur du télégraphe électrique. En 1822, il invente le solénoı̈de où un fil métallique enroulé en spirale fournit, quand il est parcouru par un courant électrique, le véritable équivalent d’un aimant et, par cette invention, Ampère matérialise pour ainsi dire ses conceptions sur le rapport du magnétisme des aimants avec les actions magnétiques des courants électriques. Mais ce n’est pas tout : comme, depuis le début de ses travaux, il a remarqué la possibilité d’aimanter le fer doux par l’action du champ magnétique des courants, Ampère va bientôt avoir l’idée d’associer un solénoı̈de avec un noyau de fer doux et il réalisera ainsi, avec le concours d’Arago, le premier électro-aimant. C’est là une découverte capitale qui a joué ensuite dans le développement des applications de l’électricité un rôle si essentiel que sans elle, peut-on dire, tout le développement de l’électrotechnique eût été impossible Si j’ajoute qu’Ampère eut le premier l’idée du montage astatique des aiguilles aimantées et qu’en proposant d’utiliser l’action d’un courant sur une aiguille aimantée pour mesurer l’intensité de ce courant, il inventa le principe du galvanomètre, on voit combien dans cette partie de son œuvre Ampère sut joindre à d’exceptionnelles qualités de théoricien une remarquable ingéniosité dans l’agencement des dispositifs pratiques. Mais Ampère n’oubliait pas cependant qu’il était mathématicien et son esprit ne cessa pas de chercher à établir la coordination théorique de tous les phénomènes qu’il avait étudiés ou découverts : cet effort le conduisit à écrire un livre qui est resté un des classiques de la Physique. « La théorie analytique des phénomènes électrodynamiques uniquement déduite de l’expérience ». Ampère y a rassemblé tous les calculs et toutes les formules qui lui avaient permis de représenter l’ensemble des faits électrodynamiques. Un grand nombre de ces résultats se retrouvent encore aujourd’hui dans les livres d’enseignement : tous les candidats au baccalauréat connaissent ou doivent connaı̂tre la règle du bonhomme d’Ampère et les 169 étudiants plus avances en Physique savent que le théorème d’Ampère donnant la circulation du champ magnétique le long d’une courbe fermée entourant un courant électrique conduit, avec l’aide d’une remarquable addition faite par Maxwell, à la première des équations fondamentales de circulation sur lesquelles repose aujourd’hui la théorie mathématique générale des phénomènes électromagnétiques. Mettant en œuvre le principe de l’équivalence d’un courant fermé et d’un feuillet magnétique grâce auquel il avait pu d’une façon si brillante ramener dès le début de ses réflexions sur ce sujet tout le magnétisme aux mouvements de l’électricité, Ampère parvint à représenter très exactement en formules mathématiques toutes les actions réciproques des aimants et des courants. Il a notamment exprimé l’action d’un élément de courant sur un autre élément de courant à l’aide d’une formule célèbre qui porte son nom. L’exactitude de cette formule ne s’impose d’ailleurs pas autant que son auteur le pensait : quand on l’applique au calcul de l’action d’un courant électrique fermé sur un élément de courant, seul cas accessible à la vérification expérimentale, la formule d’Ampère conduit bien à un résultat correct, mais il y a une infinité d’autres formules qui conduisent au même résultat. J’ai dit plus haut que le théorème d’Ampère conduisait à la première des équations de circulation qui servent de base à la théorie électromagnétique. Pour parvenir à la seconde de ces équations, il eût fallu découvrir les phénomènes d’induction et ceci fut fait par Faraday peu d’années avant la mort d’Ampère. Mais on peut dire que, si Ampère n’a pas ajouté cette glorieuse découverte à toutes celles dont il était l’auteur, il s’en fallut de peu. Il a en effet écrit dans l’un de ses mémoires : « Le courant électrique a une tendance à mettre l’électricité en mouvement dans les conducteurs près desquels il passe. » et cette phrase contient, sous une forme un peu imprécise il est vrai, le principe de l’induction électromagnétique. De plus, Ampère a eu l’occasion vers la fin de sa vie d’étudier un phénomène d’induction et cette étude l’a amené à imaginer le premier de ces dispositifs de commutation dont le rôle est si important en électrotechnique. C’était en 1832. Le physicien Hachette, avec l’aide du constructeur Pixii, avait réalisé une machine dans laquelle un aimant tournait devant un noyau de fer doux sur lequel était enroulée une bobine de fil métallique faisant partie d’un circuit fermé : on constatait la production de courants électriques dans le circuit fermé. On était là évidemment en présence d’un phénomène d’induction donnant naissance dans le circuit fermé à un courant alternatif, mais faute de connaissances précises sur l’induction et les courants alternatifs, tout cela paraissait peu clair. Ampère se rendit très bien compte du caractère alternatif du courant produit et il eut l’idée remarquable de transformer ce courant alternatif en un courant continu, de le « redresser » comme nous dirions aujourd’hui, à l’aide d’une »bascule » c’est-à-dire d’un dispositif qui en basculant inversait les connexions de la bobine avec le circuit extérieur fermé à chaque demi-tour effectué par l’aimant inducteur. Il avait ainsi réalisé une véritable « commutation » au sens 170 CHAPITRE 13. ANDRÉ-MARIE AMPÈRE que les électriciens donnent aujourd’hui à ce mot et obtenu pour la première fois un courant continu qui n’était pas produit par une pile, mais résultait d’un mouvement de rotation : le principe de la dynamo était trouvé. Ce n’est là, peut-on dire, qu’une miette dans l’œuvre si copieuse et si variée d’Ampère, mais l’on voit que dans cette IJuvre les miettes elles-mêmes ont une valeur inestimable. ∴ Revenons un peu eu arrière. Nous avions laissé Ampère dans la période 18201826 explorant tous les domaines de l’électrodynamique et préparant son grand ouvrage sur la théorie mathématique des phénomènes qui s’y rattachent. Peut-être n’est-il pas déplacé de faire ici un court tableau de l’admirable spectacle qu’offrait alors la science française. Jamais sans doute autant qu’à cette époque elle n’a été à la tête du mouvement scientifique européen. Dans les rang de notre Académie des Sciences, on voyait alors siéger côte à côte la plus brillante réunion de savants qui fut jamais. Dans la section de Géométrie, Ampère avait pour collègue l’illustre Laplace, mathématicien sans égal, fondateur de la Mécanique céleste et du Calcul des Probabilités et près d’eux se trouvaient Legendre, Biot et Poinsot. La section de Mécanique était dominée par la puissante figure du créateur de l’Analyse moderne, Augustin Cauchy, génie multiforme à qui tant de branches des Mathématiques et de la Physique théorique sont redevables de découvertes admirables : Dupin et Prony, malgré leur grande valeur, paraissaient près de lui noyés dans les rayons de sa gloire. La section d’Astronomie n’avait alors qu’un seul très grand nom à fournir, mais c’était celui d’Arago. Quant à la section de Physique générale, la présence d’un Poisson, d’un Gay-Lussac et d’un Dulong aurait suffi à lui donner un éclat remarquable même s’ils n’avaient pas eu pour collègue le mélancolique et maladif Augustin Fresnel dont l’œuvre incomparable nous a révélé la nature ondulatoire de la Lumière, Augustin Fresnel dont le nom n’est pas assez connu en France car il est l’une de nos plus pures gloires. Le premier poste de secrétaire perpétuel était tenu par Fourier, le baron Joseph Fourier qu’il ne faut pas confondre avec son contemporain Charles Fourier le fondateur du Fouriérisme, Fourier qui dans sa théorie analytique de la propagation de la chaleur a non seulement élucidé toute une série de problèmes physiques très importants, mais a aussi fourni aux théoriciens de la Physique, par sa découverte des séries et intégrales de Fourier des armes dont il se sont ensuite constamment servis et dont ils se servent chaque jour davantage à l’heure actuelle. Je ne veux pas continuer plus loin cette énumération et je laisserai de côté la liste des chimistes, naturalistes et médecins, fort illustres aussi cependant, qui complétaient cette assemblée. Qu’il me suffise de dire que le titulaire du second 171 poste de secrétaire perpétuel s’appelait Cuvier ! Si nous ajoutons enfin que, vers en même époque, un jeune Français qui ne devait pas atteindre ha célébrité de son vivant, Sadi Carnot, allait jeter une des bases de la Thermodynamique en énonçant le principe qui porte aujourd’hui son nom, il nous apparaı̂t que toutes les grandes branches de ce que nous appelons maintenant la Physique classique, je veux dire l’Electromagnétisme, l’Optique ondulatoire et la Thermodynamique, ont eu leur origine dans les travaux de savants de génie dont la floraison simultanée assurait en matière scientifique à la France de ce temps une incontestable primauté. Il n’est pas surprenant que des hommes de cette valeur placés en contact permanent aient souvent collaboré entre eux et ceci m’amène à dire quelques mots de la collaboration d’Ampère avec Fresnel. C’est peu avant les grands travaux d’Ampère sur l’électrodynamique que se placent le début des travaux de Fresnel sur la lumière et cette joute où, luttant presque seul contre les plus hautes autorités scientifiques de son temps, l’intrépide jeune homme entreprenait de défendre la conception ondulatoire de la lumière contre les adeptes de la conception corpusculaire alors en faveur. Ampère fut de ceux, peu nombreux, qui sentirent dès l’abord la profondeur des conceptions de Fresnel et l’aidèrent à triompher peu à peu de ses adversaires. Il est donc bien naturel qu’ensuite Ampère ait toujours suivi avec l’enthousiasme le plus ardent l’admirable développement de l’œuvre de Fresnel qui, après avoir complètement élucidé les phénomènes d’interférences et de diffraction, interpréta la polarisation de la lumière par l’hypothèse du caractère transversal des vibrations lumineuses et créa toute l’optique cristalline. De cet intérêt porté par Ampère aux travaux de Fresnel, il nous est resté comme témoignage un mémoire daté de 1828, année qui suivit la mort prématurée du jeune savant ; dans ce mémoire, Ampère complétant et précisant certaines parties inachevées de l’optique cristalline, donnait la théorie rigoureuse des surfaces d’onde dans la propagation de la lumière à travers les cristaux biaxes. Comme on l’a vu, à partir de 1820, Ampère après avoir été tour à tour mathématicien, philosophe et chimiste, s’était surtout consacré à la Physique. En 1826, il obtint, en échange de son poste de professeur d’Analyse à l’Ecole Polytechnique, une chaire de Physique au Collège de France, enseignement qui correspondait mieux à sa nouvelle orientation. Cette nomination eut d’ailleurs pour lui l’inconvénient de lui faire perdre, au grand dam de sa situation matérielle, son emploi d’Inspecteur général de l’Université : ce poste lui fut cependant rendu deux ans plus tard en 1828. Mais une fois de plus nous voyons Ampère qui ne parvient pas à se maintenir dans la voie où il est maintenant officiellement engagé. A partir de ce moment ses travaux de Physique deviennent plus rares : il revient à la Philosophie et à la Logique et même, car il faut décidément qu’il ait au moins effleuré toutes les branches des sciences, il s’intéresse à la Biologie et à l’anatomie comparée. A cette dernière science, il a consacré deux mémoires anonymes et fort 172 CHAPITRE 13. ANDRÉ-MARIE AMPÈRE peu connus. Mais sa grande préoccupation va être désormais d’établir une classification générale des sciences et c’est à ce travail, selon nous un peu décevant, qu’il consacrera surtout ses dernières forces. Malgré la profondeur de pensée qu’il manifeste là comme ailleurs, ce ne fut pas, semble-t-il, la partie la plus durable de son œuvre. Le soir de sa vie fut d’ailleurs assombri par bien des préoccupations et il termina tristement une existence dont la mélancolie avait toujours été la note dominante. A partir de 1829, sa santé s’altère progressivement et l’oblige à des séjours dans le Midi et à des périodes d’inaction qui sont très pénibles à sa débordante activité intellectuelle. Si son fils Jean-Jacques lui donne des satisfactions par les succès qu’il remporte dans la carrière littéraire, sa fille Albine mal mariée à un homme brutal et dépensier est pour lui la source de nombreux chagrins, car après de longues souffrances elle sombre dans la folie. Le pauvre grand homme vieilli, malade, souvent gêné dans sa situation matérielle, voit sa vie s’achever tristement. En 1836, au cours d’une tournée d’inspection universitaire dans les départements du Midi, il tombe malade d’une pneumonie à Marseille et y meurt, presque abandonné de tous, le 11 juin, à l’âge de 61 ans. ∴ Ampère ne fut pas seulement un homme de génie : il fut aussi un homme simple et bon qui conquit la sympathie de tous ceux qui le connurent. Bien souvent éprouvé dans ses affections les plus chères au cours de sa vie, i1 eut un caractère mélancolique et ressentit toujours une certaine défiance envers lui-même qui augmentait sa timidité et son indécision naturelle. Fréquemment absorbé dans ses hautes pensées, cet homme à l’intense vie intérieure était peu attentif aux choses de la vie courante. Sa distraction était proverbiale et a donné naissance à de nombreuses petites anecdotes dont beaucoup sont sans doute inventées ou tout au moins enjolivées. Mais on ne prête qu’aux riches et il est très probable qu’il fut réellement fort distrait. Un des traits caractéristiques de la physionomie d’Ampère, que l’on ne saurait passer sous silence sans la déformer, fut son goût inné pour les spéculations métaphysiques et le sentiment religieux sincère et profond qui l’anima pendant la plus grande partie de sa vie. Il ne fut pas de ceux qui, emportés par une admiration certainement légitime mais peut-être excessive pour les progrès de la science, attendent d’elle la solution de tous les problèmes et pensent qu’elle permettra un jour de remplacer par des affirmations positives les inquiétudes métaphysiques qui depuis tant de siècles troublent le cœur des hommes. Esprit profond, Ampère ne 173 chercha jamais à se dissimuler sous le voile de conceptions trop simplistes le mystère qui est au fond des choses et sans doute pour lui la science elle-même, quand on l’envisage sous son aspect théorique indépendamment es ses applications, lui apparaissait-elle comme l’éclatant reflet d’un ordre qui nous est supérieur. Cette tendance spiritualiste prit chez lui la forme précise d’un attachement profond à la foi chrétienne vers laquelle il revint toujours à travers toutes les vicissitudes de son existence. A son lit de mort, comme un ami lui proposait de lui lire quelques pages de l’Imitation de Jésus-Christ, Ampère répondit : « C’est inutile, je la connais tout entière par cœur » et il donna ainsi une ultime preuve à la fois de sa prodigieuse mémoire et de sa foi profonde. ∴ Dans cette rapide esquisse, j’ai cherché à donner une idée de ce que furent la vie troublée et mélancolique et l’œuvre géniale et diverse d’André-Marie Ampère. Quand on étudie une figure aussi haute et aussi complexe que celle-là, on peut se placer à deux points de vue. On peut l’envisager sous son aspect humain en cherchant dans les détails de sa vie et de sa carrière, dans les particularités de son caractère ou dans les formes extérieures de son intelligence, ce qui fait d’un tel homme un personnage exceptionnel sans doute, mais vivant tout de même dans le cadre de son époque au milieu de toutes les petites contingences de la vie quotidienne auxquelles nul d’entre nous ne saurait échapper. On obtient ainsi une image vivante où les tristesses et les faiblesses inhérentes à la condition humaine ont nécessairement leur place, quelles que puissent être la beauté du caractère et la grandeur de l’œuvre. Mais on peut aussi, pour juger un tel héros de la pensée, adopter un point de vue en quelque sorte plus abstrait, négliger les caractères particuliers physiques ou moraux de l’être individuel, laisser s’estomper les détails ou les accidents de son existence ainsi que les conditions de l’époque et de l’ambiance où le cours de l’histoire et le hasard des destinées humaines l’avaient placé, pour ne plus voir en lui que la splendeur de l’œuvre et la grandeur de l’exemple. Alors le ment homme parait se dresser comme un symbole dans la claire lumière de l’histoire. Il nous montre ce que le talent peut réaliser dans le court espace d’une vie humaine quand il est soutenu par la conscience et par le travail - oui, par la conscience et par le travail, car il n’est point d’homme, si supérieur soit-il, qui ne risque un jour ou l’autre de s’enliser dans les faiblesses de la nature humaine s’il n’est soutenu par quelque grand idéal et il n’est point de génie, si complet soit-il, qui ait pu produire de grandes IJuvres sans de longs et pénibles efforts. Et voilà pourquoi les grands 174 CHAPITRE 13. ANDRÉ-MARIE AMPÈRE hommes, quand ils atteignent à la taille d’Ampère, laissent à la postérité de grands exemples. Dans les conjonctures présentes où tout invite les Français au recueillement, il leur est salutaire de méditer sur de tels exemples. En y attachant notre pensée, nous verrons tout à coup surgir devant nous, comme pour nous inviter à l’espérance et au renouveau par le travail, toutes les grandes figures du glorieux passé de la France. Table des matières Préface I i LA LUMIÈRE ET LES ÉLECTRONS 1 Le secret de la lumière 1 3 2 Les propriétés ondulatoires de l’électron 21 II SUR CERAINS ASPECTS PHILOSOPHIQUES DE LA PHYSIQUE CONTEMPORAINE 31 3 L’indéterminisme en physique quantique 33 4 Philosophie et progrès de la physique 39 5 Invention en sciences théoriques 45 6 La théorie et le concrèt en physique 55 III LES GRAINS ET LES CHAMPS EN PHYSIQUE QUANTIQUE 67 7 Individualité et intéraction 69 8 Physique ponctuelle et physique du champ 81 9 La Théorie quantique du rayonnement 93 10 Récent progrès de la théorie quantique 103 175 176 TABLE DES MATIÈRES IV SUR DEUX IMPORTANTES QUESTIONS DE PHYSIQUE THÉORIQUE 117 11 Théorie des quanta et relativité 12 Le Photon 12.1 Considérations générales . . . . . . . . . . . . . . 12.2 La mécanique ondulatoire du photon dans le vide 12.3 Seconde quantification . . . . . . . . . . . . . . . 12.4 Interactions matière-rayonnement . . . . . . . . . 12.5 Résumé . . . . . . . . . . . . . . . . . . . . . . . V 119 . . . . . . . . . . . . . . . . . . . . UNE PAGE D’HISTOIRE DES SCIENCES 13 André-Marie Ampère . . . . . . . . . . . . . . . . . . . . . . . . . 133 . 133 . 139 . 148 . 151 . 154 157 159