CONTINU ET DISCONTINU en Physique moderne

publicité
CONTINU ET DISCONTINU
en
Physique moderne
Louis de Broglie
Membre de l’institut, Prix Nobel
Professeur à la Faculté des Sciences de Paris
1941
2
i
Préface
Dans un précédent volume de cette collection 1 , nous avions réuni un certain
nombre d’ études sur la Physique contemporaine dans l’intention de mettre en
évidence l’ originalité des conceptions nouvelles qui y ont été récemment introduites
et l’importance des conséquences philosophiques qui en découlent. L’idée centrale
de ce premier volume était de montrer comment les théories corpusculaires et les
théories ondulatoires de la Physique classique étaient venues se rejoindre et se
fondre au sein de la Mécanique ondulatoire. Grâce à cette fusion, toute différence
essentielle s’était trouuée abolie entre la Matière et la Lumière, toutes deux douées
d’un double aspect corpusculaire et ondulatoire : ainsi se trouvait justifié le titre
sous lequel cette première série d’études avait été rassemblée.
Dans le present ouvrage, nous offrons aux lecteurs une nouvelle série de monographies consacrées, elles aussi, presque toutes à diverses questions de Physique
quantique et de Mécanique ondulatoire. Ici l’idée centrale à laquelle se peut rattacher cet ensenible d’essais, c’est l’aspect vraiment nouveau que prennent dans
la Physique d’aujourd’hui le traditionnel dilemme « continu ou discontinu », la
classique opposition de l’élément simple et indivisible avec le continu étendu et disible. Dans la science moderne, l’élément simple et indivisible, c’est le grain, grain
de matière ou grain de lumière, neutron, électron ou photon. Ce grain se manifeste à nous comme une entité physique indivisible, susceptible de produire tantôt
une action localisée en une région quasi ponctuelle de l’espace, tantôt un échange
d’énergie ou d’impulsion où apparaı̂t son caractère d’unite dynamique autonome :
il est l’élément discontinu qui dans les profondeurs de l’infiniment petit paraı̂t bien
constituer la réalité ultime. Par contre, dans les théories nouvelles comme dans les
anciennes, l’ étendue continue et divisible, c’ est essentiellement le champ, c’està-dire l’ensemble des propiriétés physiques qui caracterisent à chaque instant les
divers points de l’espace et qui s’expriment par des jonctions généralement continues des coordonnées d’espace et de temps. Au premier abord, on pourrait être
tenté de considérer l’espace et le temps (ou l’espace-temps relativiste) comme un
cadre donné à priori : le champ viendrait remplir ce cadre vide en exprimant ses
propriétés locales. Cependant, il paraı̂t plus juste (la relativité généralisée nous a
d’ailleurs habitués à cette idée) de renverser l’ordre des préséances et de dire au
contraire : c’est le champ qui est la réalité première et c’est lui qui crée et qui
modèle l’espace et le temps en leur donnant un contenu physique.
Mais les conceptions antinomiques de grain et de champ doivent nécessairement
1. Matière et Lumière, Albin Michel, 1937
ii
en fin de compte venir à la rencontre l’une de l’autre puisqu’ elles doivent trouver
leur place côte a côte dans le cadre de la Physique totale. Comment les concilier ?
Longtemps on a pensé que les grains devaient se décrire comme des objets ponctuels ou quasi ponctuels ayant à chaque instant une position dans l’espace. Eux
aussi ils se trouveraient insérés dans le cadre de l’espace et du temps et viendraient
se situer au sein du « champ ». Il était alors tout naturel de considérer les grains
comme des sortes de points singuliers du champ. Il ne semble pas que les tentatives faites pour préciser cette séduisante conception aient été très heureuses et les
théories quantiques actuelles nous font entrevoir une solution de ce problème bien
autrement profonde et intéressante. Esquissons la rapidement.
La discontinuité symbolisée par le grain est sans doute la réalité ultime. Mais
les grains ne sont pas véritablement localisables dans le cadre de l’espace et du
temps comme on le supposait autrefois. C’est le développement de la théorie des
quanta qui nous a amenés a cette surprenante conclusion : les incertitudes d’Heisenberg s’opposent en effet a ce que nous puissions leur attribuer constamment une
position et une vitesse bien déterminêes dans l’espace. Nous ne devons pas trop
nous en étonner. Qu’est-ce, en effet, que l’espace et le temps ? Ce sont des cadres
qui nous sont suggéres par l’interprétation de nos perceptions usuelles, c’ est-à-dire
des cadres où peuvent se loger les phénomènes essentiellement statistiques et macroscopiques que nos perceptions nous révèlent. Pourquoi alors être surpris de voir
le grain, réalité discontinue essentiellement élémentaire et microscopique, refuser
de s’insérer exactement dans ce cadre grossier bon seulement pour représenter des
moyennes ? Ce n’est pas l’ espace et le temps, concepts statistiques, qui peuvent
nous permettre de décrire les propriétés des entités êlémentaires, des grains ; c’est
au contraire à partir de moyennes statistiques faites sur les manifestations des
entités élémentaires qu’une théorie suffisamment habile devrait pouvoir dégager
ce cadre de nos perceptions macroscopique que forment l’espace et le temps. Les
nouvelles théories quantiques semblent nous indiquer assez nettement la voie dans
laquelle il faudrait s’ engager pour réaliser ce programme. Elles nous montrent, en
effet, que si les grains ne sont pas constamment localisables dans notre cadre usuel
de l’espace et du temps, par contre les probabilités de leurs localisations possibles
dans ce cadre sont representées par des fonctions généralement continues ayant le
caractère de grandeurs de champ : ces « champs de probabilité » sont les ondes de
la Mécanique ondulatoire ou du moins des grandeurs se calculant à partir de ces
ondes. La dualité corpuscule-onde, qui avait été le leitmotiv de Matière et Lumière,
nous apparaı̂t ici sous un autre jour : l’onde étendue de la Mécanique ondulatoire,
onde ψ associée à l’ électron ou onde électro-magnétique associée au photon, c’est
comme le reflet dans notre espace et notre temps macroscopiques de l’impossibilité
de localiser les corpuscules élémentaires, les grains, dans un cadre moyen qui n’ est
pas adapté à leur description exacte. Mais, comme précédemment, on peut aussi
iii
renverser l’ordre des préséances et considérer le cadre continu constitué par notre
espace et notre temps comme engendré en quelque sorte par l’incertitude d’Heisenbeg, la continuité macroscopique résultant alors d’ une statistique opérée sur des
éléments discontinus affectés d’incertudes . Il n’ est probablement pas facile de de
développer ces idées sous une forme précise et logiquement satisfaisante. Mais il est
certain qu’ en nous montrant comment l’existence des champs correspond à la non
localisation des grains, la Mécanique ondulatoire et les théories quantiques nous
ouvrent de remarquables perspectives nouvelles sur le vieux problème du continu
et du discontinu.
∴
Passons rapidement en revue les diverses études réunies dans ce livre.
Les deux premières ont un caractère d’introduction : elles ont pour but de
bien préciser l’une dans le cas de la Lumière, l’autre dans le cas des électrons, le
sens très nouveau que l’on doit en, Mécanique ondulatoire attribuer à la notion
de corpuscule et le lien subtil qu’il y faut établir entre ce corpuscule et son onde
associée. Viennent ensuite quatre etudes à caractère philosophique général. Dans
l’ une on trouvera énoncé sous la Iorme la plus objective possible ce que l’on doit
appeler l’indéterminisme de la Physique quantique. Dans une autre sont exposés
certains aspects philosophiques des progrès récents de la Physique et on y trouvera déjà le développement de quelques-unes des idées qui ont été esquissées plus
haut. Une troisième étude plus psychologique que proprement scientifique porte
sur les conditions de l’invention dans les théories physiques. Enfin, la quatrième
et dernière étude expose le long duel qui a mis aux prises dans le développement
de la Physique moderne les physiciens à esprit abstrait et formel et les intuitifs
amateurs de représentations concrètes et s’efforce de rendre justice à tous.
Dans une troisième partie dont le contenu correspond au titre même de l’ouvrage, nous avons rassemblé quatre exposés qui, bien qu’écrits sans faire usage
d’algorithmes mathématiques, ont déjà un caractère un peu plus technique. Après
avoir attiré l’attention sur l’aspect si original et si suggestif qu’ont prises dans la
Physique contemporaine les notions d’individualité physique et d’interaction, nous
avons abordé de front le problèmes des grains et des champs en traitant d’abord la
question sous une forme générale, puis en prenant comme exemple la théorie quantique du rayonnement. Prolongeant cette dernière étude, nous avons été amené à
parler de la théorie générale des particules élémentaires actuellement en plein développement et des récentes théories du noyau de l’atome où l’électron lourd ou
« mésoton » découvert dans les rayons cosmiques joue un rôle essentiel .
iv
Enfin, on trouvera reproduite à la fin de l’ouvrage une conférence faite à la
Sorbonne par l’auteur le 18 septembre 1940. Elle est consacrée à résumer la vie et
à célébrer l’œuvre d’un de nos plus grands savants français, André-Marie Ampère,
mathématicien éminent, initiateur des théories atomiques modernes, génial fondateur de l’Electrodynamique et remarquable précurseur de tous ceux qui ont, après
lui, réalisé les grandes applications de l’électricité. Cette conférence faisant partie d’une série intitulée « Grandes Figures Françaises ». La grande et noble figure
d’André-Marie Ampère était bien digne de trouver sa place da,s cette glorieuse galerie de portraits et son évocation dans les circonstances où elle était faite prenait
une signification particulière. Quel que soit en effet le rôle que l’avenir réserve à
la France dans l’Europe de demain, elle devra l’aborder la tête haute, fière d’une
histoire glorieuse, soutenue par le souvenir des grands hommes qu’elle a produits
au cours des siècles et clairement conciente de l’immense contribution qu’elle a
apportée à la civilisation spirituelle et matérielle du monde moderne.
Janvier 1941.
Première partie
LA LUMIÈRE ET LES
ÉLECTRONS
1
Chapitre 1
Le secret de la lumière
La lumière joue dans notre vie un rôle essentiel : elle intervient dans la plupart
de nos activités. Les Grecs de l’Antiquité le savaient bien déjà, eux qui pour dire
« mourir » disaient « perdre la lumière ». Aussi l’étude de la Lumière s’est-elle depuis longtemps imposée à l’attention des hommes. Néanmoins, cette étude ne fut
que faiblement esquissée dans l’Antiquitê et au Moyen Age et elle ne s’est réellement developpée qu’à partir du XVIIe siècle. A dater de ce moment, la découverte
d’un nombre croissant de phénomènes lumineux de plus en plus dêlicats à observer
a permis de constituer une vaste science de la lumière, 1’Optique, dont le domaine
a êté sans cesse en s’élargissant.
Ce qui rend particulièrement intéressante l’histoire de 1’Optique, c’est qu’au
cours de cette histoire, deux conceptions antagonistes sur la nature de la lumière
se sont constamment affrontée avec des succès alternés. Les phénomènes lumineux
qui, successivement, étaient découverts et étudiés paraissaient tour à tour apporter des arguments en faveur de ces deux conceptions rivales en apparence inconciliables. On eût dit que la lumière en se montrant à nous sous des aspects différents,
cherchait à nous cacher sa véritable nature. C’est en ce sens qu’on peut parler du
secret de la lumière. Aujourd’hui, nous avons commencé à soulever le voile et à
entrevoir le mot de l’énigme : nous comprenons maintenant que les conceptions
antagonistes de la lumière contiennent toutes les deux une part de vériité et qu ’il
est possible de les concilier en acceptant, il est vrai, des idées très nouvelles dont
la portée est très grande. En nous dévoilant partiellement son secret, la Lumière
nous a forcés à modifier considérablement certaines de nos habitudes de pensée,
ce qui nous a rendu de grands services non seulement en optique proprement dite,
mais dans beaucoup d’autres branches de la Physique, notamment en Physique
atomique. De ce secret de la Lumière, je voudrais m’efforcer de donner une idée
générale sans entrer naturellement dans les développements mathématiques qui
seraient nécessaires pour traiter ce sujet d’une façon tout à fait précise.
Et d’abord, disons quelles sont les deux conceptions antagonistes sur la nature
3
4
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
de la Lumière dont j’ai parlé tout à l’heure. L’une d’elles veut que la lumière soit
formêe par des corpuscules en mouvement, que les phénomènes lumineux soient
dus au transport à travers l’espace de petits projectiles animés de grandes vitesses.
L’autre théorie se forme de la Lumière une idée bien différente : ce serait la propagation à travers l’espace d’un ébranlement, d’une onde analogue à celles que l’on
voit courir à la surface des nappes d’eau ou encore à celles qui, en se propageant
dans l’air ou les milieux matériels donnent lieu aux phénomènes sonores. Cette
seconde conception paraissait impliquer l’existence d’un milieu très subtil, l’éther,
qui pénétrerait même dans les corps transparents les plus durs et qui servirait de
support aux vibrations lumineuses. Le développement de 1’Optique, après avoir
semblé d’abord favorisé plutôt la première conception, la conception corpusculaire,
a amené au début du XIXe siècle, un triomphe, en apparence définitif, de la seconde conception, la conception ondulatoire. Mais, il y a une quarantaine d’années,
des faits nouveaux ont ramené l’attention vers la théorie corpusculaire et montré
que la théorie ondulatoire ne peut pas suffire à elle seule pour expliquer la totalité
des phénomènes produits par la Lumière. Cette nécesité d’invoquer successivement
des conceptions en apparence contradictoires suivant la nature des phénomènes à
interpréter a provoqué une grave crise dans la science de 1’Optique. Il n’a été
possible de sortir de cette crise qu’en conciliant l’image des ondes et celle des corpuscules à l’aide des idées à la fois nouvelles et hardies auxquelles j ’ai fait tout à
l’heure allusion . Avant d’expliquer comment ces idées nouvelles nous permettent
d’entrevoir aujourd’hui le secret de la Lumière, je dois d’abord donner un aperçu
des péripéties de la longue lutte entre ondes et corpuscules telles qu’elles se sont
déroulées au cours de l’histoire de 1’Optique.
∴
Les phénomènes optiques les plus simples, ceux qui ont été connus dès l’Antiquité et étudiés avec précision dès le XVIIe siècle, sont la propagation rectiligne
des rayons lumineux, leur réflexion et leur réfraction.
La propagation rectiligne du la lumière consiste en ceci que dans la plupart
des cas usuels, la lumière se propage en ligne droite : tout se passe comme si elle
suivait dans l’espace des trajectoires rectilignes qu’on nomme des rayons lumineux.
Dans la conception granulaire, ce fait s’explique immédiatement d’une manière bien
simple : toute source de lumière projetterait tout autour d’elle des corpuscules qui
s’éloigneraient en ligne droite ; ces lignes droites seraient les trajectoires des grains
de luniière, les rayons lumineux. Au contraire, la théorie ondulatoire ne peut pas
rendre compte d’une manière aussi simple de ce fait fondamental puisque les ondes
ont toujours tendance à s’épanouir en se propageant.
5
Il en est de même pour le phénomène de la réflexion. Quand de la lumière
tombe sur un miroir plan, elle est renvoyée en arrière de telle façon que l’angle
des rayons réfléchis avec la normale au miroir soit égal à l’angle de cette même
normale avec les rayons incidents : c’est la loi de réflexion de Descartes. Cette loi
est la même que la loi mécanique qui règle le rebondissement d’une bille contre un
obstacle. L’interprétation de la rêflexion de la lumière par la théorie corpusculaire
est donc immédiate tandis qu’elle paraı̂t beaucoup plus difficile par la théorie des
ondes.
Le phénomène de la réfraction de la lumière consiste en ceci, qu’un rayon lumineux en passant d’un milieu matériel dans un autre, subit en général une inflexion,
une brisure. C’est encore Descartes qui a donné la loi exacte du phénomène. La
réfraction de la lumière est moins aisée à interpréter avec la conception granulaire
que les deux phénomènes précédents : cependant on parvient encore à l’interpréter
en faisant des hypothèses simples sur la vitesse des corpuscules de lumière dans les
divers milieux matériels.
Tels étaient les principaux faits optiques connus vers 1670 et l’on voit que dans
l’ensemble ils semblaient fortement suggérer l’exactitude de la conception corpusculaire. Néanmoins, dès cette époque, un savant hollandais d’un esprit très pénétrant,
Christian Huyghens, avait affirmé sa préférence pour la théorie ondulatoire et il
appuyait son opinion sur de très solides arguments. Grâce à des raisonnements qui
sont aujourd’hui encore utilisés pour l’enseignement classique de l’optique et qui
conduisent au principe et à la construction d’Huyghens, il parvenait à montrer que
la conception des ondes permettait, elle aussi, de retrouver les lois de la réflexion
et de la réfraction, d’une façon assurément moins directe que la théorie corpusculaire, mais tout aussi logiquement satisfaisante. Huyghens avait aussi découvert les
remarquables phénomènes de double réfraction qui se produisent quand la lumière
traverse certaine cristaux tels que le spath d’Islande et il en avait donné une interprétation ondulatoire. Mais cette œuvre admirable d’Huyghens en optique ne fut
pas appréciée à sa juste valeur parce qu’elle était venue prématurément.
Vers la fin du XVIIe siècle, Isaac Newton, le génial inventeur de la loi de la
gravitation, découvrit de nouveaux faits optiques très importants. Tout d’abord il
montra par l’expérience que la lumière blanche n’est pas simple et qu’on peut la
décomposer à l’aide d’un prisme de verre en une infinité de lumières colorées dont
les couleurs vont par gradations insensibles du rouge au violet et constituent ce que
l’on nomme le « spectre ». Chaque lumière du spectre est simple et indécomposable.
A cette découverte, Newton en ajouta une autre. Il montra que quand la lumière
blanche tombe sur une lame tres mince, par exemple une couche d’huile répandue
à la surface de l’eau ou une mince couche d’air limitée par deux morceaux de verre,
on aperçoit en général des anneaux colorés. C’est là un phénomène capital, appartenant à la catégorie des phénomènes d’interférences dont la véritable explication
6
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
ne devait être donnée que plus tard par la théorie ondulatoire.
Chose curieuse ! Les phénomènes découverts par Newton étaient des phénomènes où se manifeste nettement l’aspect ondulatoire de la Lumière et dont l’interprétation par l’image des corpuscules est impossible, et cependant Newton paraı̂t
lui-même être toujours resté partisan de la théorie corpusculaire. Il chercha, il est
vrai, pour essayer d’interpréter l’origine des anneaux colorés qu’il avait découverts,
à compléter d’une façon très ingénieuse la conception corpusculaire et, dans cette
très intéressante tentative, fut réalisé pour la première fois un effort pour combiner les images d’ondes et de corpuscules. Mais, après la mort de Newton, l’optique
fit assez peu de progrès et pendant toute la fin du XVIIIe siècle la plupart des
physiciens tendaient à admettre la théorie des corpuscules de Lumière, si bien que
dans la lutte entre onde et corpuscules, ceux-ci paraissaient avoir gagné la première
manche.
Néanmoins, au début du XIXe siècle, toute une série de découvertes expérimentales et de travaux théoriques amenèrent le triomphe de la théorie des ondes. C’est
en effet à cette époque que furent mis en doute, puis correctement interprétés grâce
surtout aux recherches expérimentales de Thomas Young et à l’œuvre capitale expérimentales et théorique de notre compatriote Augustin Fresnel, les phénomènes
d’interférences et de diffraction de la lumière. Ces phénomènes avaient été soupçonné dès le milieu du XVIIe siècle par Grimaldi et nous avons vu que Newton
en avait découvert quelques-uns. Dans un moment, je vais expliquer ce qu’est un
phénomène d’interférence ; pour l’instant, j’achève l’histoire de cette période de
l’histoire de l’optique. Fresnel, après avoir achevé la découverte et l’étude des phénomènes signalés par Young, eut le grand mérite d’en donner une interprétation
complète par la théorie des ondes. Il repris et compléta l’œuvre commencée par
Huyghens. Huyghens avait montré que les lois de la réflexion et de la réfraction
pouvaient s’expliquer par l’hypothèse des ondes, mais il n’avait pas prouvé que
cette hypothèse pouvait se concilier avec le fait si simple et si fondamental de la
propsgation rectiligne. Fresnel comble cette lacune en montrant que la propagation rectiligne, dans les conditions où on l’observe est aussi une conséquence de
la propagation des ondes, puis il donne une interprétation ondulatoire détaillée
des apparences observées dans les phénomènes d’interférences et de diffraction,
interprétation dont les grandes lignes se retrouvent aujourd’hui sans changement
dans tous les traités d’optique. Enfin, Fresnel couronne son œuvre en interprétant l’ensemble des phénomènes où la polarisation intervient par l’hypothèse de la
transversalité des ondes lumineuses. Mais mon intention n’est pas d’analyser en
détail l’œuvre de Fresnel et je me contenterai de dire que, quand Fresnel mourut
prématurément à l’âge de 39 ans, en 1827, non seulement la théorie ondulatoire se
trouvait avoir expliqué tous les faits qui, au premier abord paraissaient indiquer
une constitution granulaire de la lumière, mais, de plus, elle seule parvenait à ex-
7
pliquer les interférences, la diffraction, la polarisation, la double réfraction, etc . . .
Elle sortait donc triomphante de la lutte et peu de temps après la mort de Fresnel,
personne ne doutait plus de son exactitude.
Après Fresnel et durant tout le cours du siècle dernier, les physiciens ont accompli en Optique un énorme travail que l’on peut résumer en disant : toutes les
prévisions de la théorie ondulatoire ont été vérifiées avec une extrême précission
et jusque dans les moindres détails. Vers 1900, le fait que la lumière est formée
d’ondes paraissait inébranlablement démontré et au-dessus de toute discussion.
Une seule chose pouvait encore prèter controverse : la nature physique exacte de
ces ondes. Fresnel les avait considérées comme des ondes élastiques transversales se
propageant dans un milieu hypothétique, l’éther, qui imprégnerait tous les corps.
Le physicien anglais, Maxwell avait ensuite montré que l’on pouvait regarder la
vibration lumineuse comme de nature électromagnétique et avait ainsi, dans une
remarquable synthèse, réuni les domaines de l’Optique et de l’Electricité. Il restait
cependant difficile de préciser exactement ce qui vibre dans une onde luinineuse,
mais ceci n’affectait en rien la solidité de la théorie des ondes, car les équations mathématiques conduisaient toujours sans ambiguité à des prévisions que l’expérience
vérifiait. La nature ondulatoire de la Lumière paraissait alors si bien établie que la
découverte d’ un phénomène en contradiction avec l’image des ondes lumineuses
paraissait absolument invraisemblable. Et cependant l’invraisemblable s’est réalisé
et la découverte de faits inexplicables par la simple conception ondulatoire a ouvert,
il y a une quarantaine d’années, une période nouvelle dans l’histoire des théories
de la Lumière. Nous allons avoir à l’étidier, mais auparavant il est nécessaire que je
donne quelques explications sur la théorie des ondes et sur l’interprétation qu’elle
fournit des phénomènes d’interférences.
∴
Lorsqu’une onde se propage librement dans l’espace, on peut la concevoir
comme une suite de vagues dont les crêtes successives sont séparées par une distance constante appelée « longueur d’onde ». L’ensemble des vagues se propage
dans la direction de propagation de l’onde, de sorte qu’en un point fixe de l’espace
les différentes vagues avec eurs crêtes et leurs creux passent l’une après l’autre régulièrement. Par définition, on appelle « fréquence de l’onde » le nombre des crêtes
de l’onde qui passent en un point fixe en une seconde.
Nous nous figurons ainsi aisément comment progresse régulièrement une onde
dans une région où rien ne vient entraver sa propagation. Mais les choses vont se
passer tout différemment si l’onde en progressant vient se heurter à des obstacles.
Alors, en effet, l’onde pourra être comme déformée ou repliée sur elle-même, de
8
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
sorte qu’au lieu d’avoir affaire a une onde simple du type précédent, on a maintienant affaire à une superposition de telles ondes simples. L’état vibratoire résultant
en chaque point dépendra alors de la façon dont les effets des diverses ondes se renforcent ou se contrarient. Si les diverses ondes simples qui se croisent en un point
ajoutent leurs effets, la vibration résultante sera très intense. Si, au contraire, ces
ondes se contrarient, la vibration résultante sera très faible ou même nulle : dans
ce cas, suivant une formule célèbre, de la lumière ajoutée à de la lumière pourra
engendrer l’obscurité. Ce sont là les phénomènes d’interférences dont la théorie
des ondes est apte à prévoir l’apparition d’une façon détaillée et quantitative dans
chaque cas particulier.
Si donc on adopte l’idée que la lumière est formée d’ondes, on sera amené à prévoir que, quand des obstacles s’opposeront à la libre progression d’un faisceau de
lumière, des phénomènes d’interférences devront apparaı̂tre. Dans la région d’interférences, la répartition de la lumière sera compliquée : on y observera des franges
brillantes et des franges obscures. Ces prévisions sont tout à fait caractéristiques
de la théorie ondulatoire et rien de semblable ne peut être annoncé par la théorie
corpusculaire. Donc, si l’on parvient à mettre en évidence avec de la lumière des
phénomènes d’interférences, on sera, semble-t-il, forcé d’admettre que la Lumière
est formée d’ondes. C’est précisément ce qui arriva à l’époque où Thomas Young
et Augustin Fresnel mirent hors de doute l’existence des interférences.
Et maintenant, pour préciser les caractéristiques essentielles de la conception
ondulatoire de la Lumière, nous allons analyser un phénomène d’interférences particulier. Nous n’avons que l’embarras du choix, car ces phénomènes sont très nombreux et très variés : nous choisirons un des plus simples, un de ceux précisément
qui ont été découverts par Young un peu avant les travaux de Fresnel. Nous considérerons un écran formé d’une matière opaque, mais percé d’un certain nombre
d’ouvertures, par exemple circulaires et régulièrement distribuées. (Dans l’expérience classique des trous d’Young, il y avait seulement deux de ces ouvertures).
Une source de lumière que nous supposerons ponctuelle envoie une onde lumineuse
sur l’une des faces de cet écran. L’onde vient heurter toute la surface de l’écran et
elle est arrêtée par toutes les régions non perforées de l’écran. Au contraire, dans
les régions perforées de l’écran, l’onde incidente fuse en quelque sorte au travers
des ouvertures qui lui sont offertes et pénètre ainsi dans la partie de l’espace postérieure à l’écran. De ce côté de l’écran, chaque ouverture devient le centre d’une
petite onde sphérique et la superposition de toutes ces ondelettes donne lieu à un
phénomène d’interférence conformément au schéma exposé plus haut. Le calcul
de ce phénomène d’interférences peut se faire d’une façon très précise en tenant
compte de la distribution des ouvertures sur l’écran et conduit à des résultats
entièrement vérifiés par l’expérience.
Il nous faut dégager quelques caractères importants de cette expérience telle
9
que nous l’interprétons en utilisant l’image ondulatoire de la lumière. L’onde lumineuse émise par la source se répand uniformément autour de cette source et vient
frapper toute la surface antérieure de l’écran ; elle tâte, pourrait-on dire en langage
imagé, toute la surface de cet ecran et c’est ce qui lui rend possible de trouver les
ouvertures qui lui permettent de s’infiltrer dans la région située au delà. En raison
de l’homogénéité de l’écran, toutes les ouvertures jouent un rôle parfaitement symétrique et contribuent toutes symétriquement au phénomène d’interférences qui
se produit derrière l’écran. Le calcul tient compte de ce rôle identique de toutes
les ouvertures. J’insiste sur ces points car c’est là, nous le verrons, ce qui a rendu
si difficile de concilier une structure granulaire de la lumière avec l’existence des
phénomènes d’interférences.
∴
Comme nous l’avons dit tout à l’heure, il y a une quarantaine d’années, la théorie qui représente la lumière comme formée d’ondes en propagation semblait l’avoir
définitivement emporté sur la conception adverse qui assimile un faisceau de lumière à un flot de corpuscules en mouvement rapide. Et cependant, à l’étonnement
général, la découverte et l’étude d’un phénomène en apparence un peu secondaire,
l’effet photoélectrique, sont venues montrer les limites de l’hypothèse ondulatoire
et ramener l’attention des physiciens vers la conception corpusculaire. Comment
se peut-il que la découverte d’un unique phénomène ait pu être, à elle seule, le
point de départ d’un tel reflux de la pensée scientifique ? Pour le comprendre, nous
devons examiner avec quelque attention une différence essentielle qui existe entre
les prévisions possibles des deux théories antagonistes de la Lumière.
Si nous adoptons l’hypothèse corpusculaire, nous devons considérer une source
de lumière comme envoyant dans toutes les directions un grand nombre de petits
projectiles se déplaçant en ligne droite. Un écran placé à une certaine distance de
la source recueillera par seconde un certain nombre de ces projectiles et ce nombre
mesurera la quantité de lumière reçue par l’écran en une seconde. Or il suffit de se
representer par l’imagination cette salve de projectiles partant de la source pour se
rendre compte que ces projectiles s’écartent les uns des autres au fur et à mesure
de leur progression. Donc, plus nous placerons l’écran loin de la source, plus faible
sera le nombre des projectiles recueillis sur l’écran : plus précisément, ce nombre
variera en raison inverse du carré de la distance de la source à l’écran.
Supposons maintenant que la lumière soit formée d’ondes. Alors nous devons
imaginer que la source est un centre d’ébranlement à partir duquel une ondulation
se répand dans tout l’espace environnant ; l’onde lumineuse émise aura la forme
d’une onde sphérique dont la source sera le centre. Si nous plaçons alors un écran
10
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
à une certaine distance de la source nous pourrons recueillir par seconde toute
1’énergie vibratoire que l’onde apportera en une seconde sur la surface de cet
écran . On peut montrer aisément que, pour une distance donnée de l’écran à la
source, 1’énergie ainsi recueillie par seconde est la même dans la théorie ondulatoire
que dans la théorie corpusculaire : ce qui est profondément différent dans l’une ou
l’autre hypothèse, c’est la manière dont l’énergie lumineuse est répartie sur l’écran.
En effet, si la lumière est granulaire, certains points privilégiés de l’écran auront
reçu pendant la durée de l’illumination un corpuscule de lumière, c’est-à-dire une
quantité finie et relativement grande d’énergie, tandis que les autres points de
l’écran n’auront rien reçu du tout. Si au contraire, la lumière émise par la source
forme une onde sphérique, toutes les régions de l’écran reçoivent continuellement
de l’énergie lumineuse pendant la durée de l’illumination, se sorte qu’à la fin tous
les points de l’écran ont reçu la même quantité de lumière, d’ailleur très faible.
La différence que nous venons de signaler entraı̂ne une conséquence d’une extrême importance. Imaginons, en effet, un mécanisme qui ne puisse fonctionner que
si on lui appported’un seul coup une quantité d’énergie au moins égale à un certain
minimum. Si ce mécanisine est placé très près de la source de lumière, il pourra
dans les deux hypothèses être mis en action par la lumière, mais s’il est placé
loin de la source, alors dans l’hypothèse des ondes, il ne pourra jamais être mis
en action par la lumière qu’il reçoit, car l’onde lumineuse sur le front de laquelle
l’énergie est uniformément répartie ne lui apportera jamais assez d’énergie à la
fois pour le déclencher. Au contraire, dans l’hypothèse corpusculaire, le mécanisme
placé très loin de la source aura évidemment peu de chance à chaque instant d’être
atteint par un corpuscule de lumière, mais, soit dès le début de l’illumination, soit
au bout d’un temps plus ou moins long, il finira bien tout de même par en recevoir
un et, si ce corpuscule transporte une quantité d’énergie égale ou supérieure au
minimum nécessaire, le mécanisme fonctionnera. Si donc on parvient à prouver
que, même très loin de sa source, la lumière possède la possibilité de produire, parfois même dès le début de l’irradiation, des déclenchements exigeant une certaine
quantité d’énergie minimum, on aura obtenu une preuve en apparence irréfutable
de la constitution granulaire de la lumière.
L’importance fondamentale de l’effet photoélectrique vient précisément du fait
qu’il constitue un phénomène à déclenchement du type dont nous venons de parler.
La matière contient en son sein un nombre énorme de petites charges électriques
pnctuelles qu’on nomme les électrons. A l’état normal, les électrons ne peuvent pas
sortir de la matière. Pour leur permettre d’en sortir, il faut leur fournir une quantité d’énergie bien déterminée qui dépend d’ailleur de la nature du corps considéré
et de la position occupée par les électrons dans la structure de ce corps. L’expulsion d’un de ces électrons hors de la matière est donc précisément l’un de ces
mécanismes à déclenchements dont nous avons parlé, qui exigent pour leur mise
11
en action, l’apport instantané d’une certaine quantité d’énergie. Or l’expérience a
prouvé qu’en éclairant un morceau de matière, on peut dès le début de l’irradiation déclencher l’expulsion des électrons hors de la matière à condition toutefois
que la fréquence de la lumière utilisée soit suffisamment élevée ; c’est là l’effet
photoélectrique. Mais le point essentiel est le suivant : l’effet photoélectrique est
indépendant de l’intensité de la lumière et, si l’on place le morceau de matière
irradié très loin de la source, il y a toujours des électrons expulsés pourvu que
la fréquence soit suffisamment élevée. Plus on sera loin de la source, moins il y
aura d’électrons expulsés de la matière par seconde, mais si loin qu’on soit, il y
aura toujours quelques-un de temps en temps. Donc la lumière, même quand sont
intensité est très faible, reste toujours capable, si sa fréquence est assez élevée, de
déclencher le mécanisme photoélectrique. Comme nous l’avons vu plus haut, cela
ne peut s’expliquer qu’en admettant une structure granulaire de la Lumière et,
puisqu’il faut pour déclencher l’effet photoélectrique que la fréquence ait au moins
une certaine valeur minima, on est ammené à penser que chaque corpuscule de
lumière transporte une quantité d’énergie d’autant plus grande que sa fréquence
est plus élevée.
Ces conclusions dérivent en quelque sorte directement de l’expérience mais, en
y réfléchissant, les physiciens se sont aperçus qu’elles se rattachent intimement
à des fait déjà rencontrés dans d’autres domaines de la Physique. En effet, les
physiciens ne se sont pas bornés à étudier la lumière en elle-même : ils ont aussi
cherché comment elle est émise et absorbée par la matière et comment il peut
s’établir des équilibres d’énergie entre la lumière et la matière. Examinant ces
difficiles questions, l’illustre savant Max Planck fut amené vers 1900, pour obtenir
des résultats satisfaisant et en accord avec les faits, à énoncer l’hypothèse suivante :
« Si nous désignons suivant l’usage par la lettre grecque ν la fréquence d’une
certaine lumière, la matière ne peut émettre et absorber cette lumière que par
quantités d’énergie finies et égale à hν ou, comme on dit souvent, par « quanta »
d’énergie hν ». Dans cet énoncé, la lettre h désigne une constante dont M. Planck
a su évaluer la valeur numérique dès le début de ses travaux sur cette question et
qu’on nomme aujourd’hui« la constante de Planck ».
Tous les développements ultérieurs des théories sur l’émission ou l’absorption
de la lumière par la matière ont confirmé la géniale hypothèse de Planck. En
1905, M. Einstein a précisé et interprété cette hypothèse en admettant que toute
lumière de fréquence ν est formée de corpuscules d’énergie hν. Les corpuscules
ainsi réintroduits dans la théorie de la Lumière ont été d’abord appelés « quanta
de lumière » et sont généralement aujourd’hui désignés sous le nom de photons. Ce
retour vers une conception corpusculaire de la lumière a permis d’interpréter avec
précision les particularités de l’effet photoélectrique. Soit, en effet, une lumière
de fréquence ν tombant sur un morceau de matière qui contient des électrons
12
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
auxquels il faut fournir au moins une certaine énergie E pour qu’ils puissent sortir
de la matière. Si la fréquence de la lumière est assez faible pour que sont quantum
hν soit inférieur à E, il n’y aura pas d’effet photoélectrique ; mais, si le quantum
hν est supérieur à E, l’un des électrons de la matière pourra absorber l’énergie
hν apportée par l’un des corpuscules de la lumière incidente et on le verra sortir
de la matière avec l’énergie hν − E. Cette théorie de l’effet photoélectrique a été
vérifiée avec une grande précision. L’effet photoélectrique et d’autres phénomènes
plus récemment découverts, effet Compton et effet Raman, paraissent bien établir
l’existence des corpuscules de lumière, des photons, nous ramenant ainsi, dans une
certaine mesure vers les coneptions antérieures à Fresnel.
Ainsi l’effet photoélectrique, l’effet Compton et tout un ensemble de raisons
progressivement tirées de l’expérience et,de la théorie ont paru militer depuis 1905
en faveur d’une structure granulaire de la Lumière. Mais un retour pur et simple
vers les anciennes conceptions granulaires étaient évidemment interdit puisque tout
l’ensemble si longuement etudié, si minutieusement vérifié, des phènomènes d’interférence et de diffraction exigeait pour son interprêtation l’emploi de la théorie
ondulatoire. Comment parvenir à concilier des théories qui paraissaient inconciliables et à déchiffrer une énigme qui paraissait insoluble ? On y est parvenu cependant mais seulement à l’aide d’idées très nouvelles et très hardies. Pour faire
comprendre pourquoi on a dû, bon gré mal gré, adopter ces idées, il faut que je
cherche d’abord à montrer en détail combien le problème était difficile à résoudre.
∴
La conception classique des corpuscules consiste à se les representer comme de
petits objets se déplaçant dans l’espace en décrivant une trajectoire. Le mouvementdu corpuscule dépend alors uniquement des circonstances qu’il rencontre le
long de sa trajectoire. En langage imagé, on peut dire que le corpuscule « explore »
l’espace seulement le long de la trajectoire qu’il décrit et ignore ce qui se passe au
dehors de cette trajectoire. Si nous appliquons cette conception du corpuscule aux
photons constituant la lumière, nous nous heurtons à de très graves difficultés pour
l’interprêtation des interférences. Reprenons en effet le phénomène d’interférences
que nous avons précédemment étudié ; représentons-nous la lumière émise par une
source tombant sur la face antérieure de l’écran percé de trous et cherchons à
suivre, par la pensée la trajectoire d’un des photons de cette lumière. Le photon
parti en ligne droite de la source arrive sur l’écran : en général, il tombera sur une
région pleine de l’écran et ne pourra poursuivre son chemin. Il pourra cependant
arriver que le photon parvenant sur l’écran trouve devant lui un des trous qui y
13
sont perforés et puisse continuer son chemin au delà de l’écran. Mais il est presque
inimaginable que le photon ayant traversé un des trous percés dans l’écran puisse,
en quelque sorte, savoir que d’autres trous sont percés dans cet écran et subir
l’infuence de ces autres trous. Aucune tentative théorique permettant d ’expliquer
l’action sur ce photon de la présence des trous par lesquels il n’a pas passé n’a pu
aboutir à un résultat satisfaisant. De ce fait l’interprétation des interférences qui
effectivement se produisent derrière l’écran devient impossible : cette interprétation
est essentiellement fondée, nous l’avons déjà dit, sur une participation symétrique
de toutes les ouvertures percées dans l’écran au phénomène global d’interférences.
Mais ici s’offre en apparence une échappatoire. En effet, les sources de lumière
d’intensité usuelle envoient constamment autour d’elles un nombre énorme de photons. On pourra donc admettre que toutes les ouvertures percées dans l’écran sont
traversées presque simultanément par des photons. Ne pourrait-on pas imaginer
que tous ces photons en pénétrant simultanément dans la région postérieure à
l’écran exercent entre eux des actions réciproques provoquant une répartition de
ces photons correspondant aux phénomènes d’interférences ? En d’autres termes,
ces photons ne pourraient-ils pas, par suite de leurs interactions, se répartir dans
l’espace de façon à être nombreux dans les régions où l’on voit des franges brillantes
et au contraire peu nombreux (ou même absents) dans les régions où se trouvent
des franges obscures ? Une telle explication serait certainement très difficile à préciser d’une façon satisfaisante, mais il est inutile de chercher à le faire car il existe
de très importantes expériences qui s’opposent absolument à l’adoption d’un semblable point de vue.
Ces expériences sont celles où l’on a obtenu des franges d’interférences avec une
source de lumière extrêmement faible. Quand on veut inscrire d’une façon précise
et durable les franges qui se produisent dans un phénomène d’interférences, on emploie souvent des films photographiques. L’emploi de la méthode photographique
a un avantage important : si la source de lumière employée est peu intense et si par
suite les franges brillantes du phénomène d’interferences à étudier sont peu lumineuses, il suffira d’attendre suffisamment longtemps pour que les franges finissent
par s’inscrire sur la plaque photographique, la longueur de la pose compensant la
faiblesse de la lumière. Mais alors une question se présente à l’esprit : si l’on emploie
des sources de lumière de plus en plus faibles et corrélativement des temps de pose
de plus en plus long, continuera-t-on indéfiniment à obtenir des franges d’interférences ? La reponse que la théorie donne à cette question dépend du point de vue
que l’on adopte. Si l’on admet qu’un seul photon arrivant dans l’appareil peut y
produire un phènomène d’interférences, alors on devra obtenir des franges, si faible
que soit la lumière utilisée, puisque les photons bien qu’arrivant les uns après les
autres à des intervalles de temps assez longs provoqueront des interférences. Si, au
contraire, on admet que les phénomènes d’interférences sont dû à l’interaction de
14
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
nombreux photons arrivant simultanément sur l’appareil d’interférences (c’est-àdire sur l’écran percé de trous dans notre exemple), alors les interférences devraient
disparaı̂tre quand la lumière utilisée devient assez faible pour qu’il ne puisse pas
arriver beaucoup de photons à la fois sur l’appareil. L’expérience a répondu d’une
façon nette : les franges d’interférences sont obtenues quelque faible que soit la
lumière utilisée, même quand il ne peut pas y avoir plus d’un photon à la fois
dans l’appareil d’interférences. En nous obligeant à admettre que, même quand
les photons arrivent un à un sur l’appareil, les franges finissent par s’inscrire sur
la plaque photographique ces expériences capitales nous contraignent à rejeter la
théorie qui cherchait à expliquer les interferences par l’interaction de nombreux
photons.
Et voici alors la crise de 1’Optique portée à son point le plus aigu. D’une part,
en effet, il nous faut admettre que lors de l’arrivée d’un seul photon sur notre
écran percé de trous, il se produit un phénomène d’interférences où tous les trous
jouent un rôle symétrique sans qu’on puisse dire que le photon ait passé par l’un
ou par l’autre : tout se passe comme si le photon avait couvert uniformément toute
la surface de l’écran, ce qui conduirait à lui donner des dimensions inacceptables.
D’autre part, l’effet photoélectrique nous montre le photon apportant toute son
énergie dans une très petite région de l’espace et y produisant un effet tout à fait
localisé. Comment sortir de cette impasse et concilier le caractère d’être étendu et
homogène de l’onde lumineuse, sans laquelle on ne peut expliquer les interférences,
avec le caractère ponctuel et localisé des effets, tels que l’effet photoélectrique, où
se manifeste le photon ? Pour cela, nous l’avons déjà dit, il a fallu introduire des
idées très nouvelles et très hardies. Pour bien montrer que l’introduction de telles
idées est inévitable et pour nous guider dans leur choix, nous devons analyser de
plus près le phénomène de la production des franges d’interférences en lumière
très faible. Nous avons vu que même en lumière extrêmement faible, quand les
photons arrivent un à un sur l’appareil d’interférences, on peut obtenir avec un
temps de pose suffisamment long l’enregistrement des franges brillantes dues aux
interférences et prévues par la théorie ondulatoire de la lumière. Or comment se
produit l’action de Ia lumière sur la gélatine de la plaque photographique ? Sur ce
point, il n’y a plus aucun doute aujourd’hui : elle se produit par une série d’effets
photoélectriques dus à l’action des photons qui arrivent en pluie sur la plaque
photographique soumise à l’illumination. L’arrivée de chaque photon se traduira
donc par une action localisée dans la gélatine de la plaque photographique, action
localisée qui se traduira par un grain noir sur le négatif. Considérons alors une
plaque photographique placée dans une région où se produisent des interférences
en lumière très faible. La plaque reçoit un par un des photons qui produisent des
impressions ponctuelles et quand au bout d’un temps très long on développera
la plaque, on verra sur le négatif des plages sombres correspondant aux franges
15
brillantes d’interférences prévues par la théorie ondulatoire : les franges ont donc
été tracées point par point par les nombreux photons arrivés sur la plaque au cours
de sa longue exposition. Nous sommes ainsi conduits à la conclusion suivante :
la théorie ondulatoire prévoit d’une façon exacte la répartition des photons qui
sont parvenus dans la région d’interférences, elle prédit exactement les régions où
arriveront beaucoup de photons (franges brillantes) et les régions où arriveront
peu ou pas de photons (franges obscures). Mais les photons, dans notre expérience
à faible intensité, arrivent un par un : à chacun d’eux il faut associer une onde
lumineusie qui interfère et dont on peut calculer l’intensité résultante à l’arrière de
l’écran dans la région des interférences ; et cependant le photon considéré produira
un seul effet ponctuel dans la couche sensible de la plaque photographique. La
seule manière de mettre tous ces faits en accord est d’admettre que la répartition
des intensités aux divers points de l’espace dans l’onde lumineuse associée à un
photon détermine la probabilité pour que le photon se manifeste par une action
observable (par exemple un effet photoélectrique) en tel ou tel point de l’espace.
On peut exprimer ceci un peu autrement en disant : là où l’onde associée au
photon possède une forte intensité résultante, il y a une grande probabilité que le
photon manifeste sa présence par un effet observable et là où l’onde associée au
photon possède une amplitude résultante faible (ou nulle) , il y a peu (ou pas)
de chance que le photon se manifeste par un effet observable. On comprend alors
très bien pourquoi au bout d’un temps très long, un grand nombre de photons
auront produit des actions photoélectriques sur la plaque photographique là où
l’amplitude de leurs ondes associées est très grande (franges brillantes) tandis que
peu ou pas de photons auront produit un effet sur la plaque là où l’amplitude de
leurs ondes associées est faible ou nulle (franges obscures) . Ainsi en établissant
une relation de probabilité entre chaque photon et son onde associée, on parvient
à comprendre comment la théorie ondulatoire peut prévoir la forme exacte des
franges brillantes ou obscures inscrites à la fin de l’expérience d’interférences sur
la plaque photographique, bien que chaque photon ait produit seulement un effet
ponctuel et localisé dans la couche sensible de la plaque.
Mais il faut bien voir maintenant combien l’idée à laquelle nous parvenons
ainsi nous conduit à modifier profondément nos anciennes représentations. Tout
d’abord, pendant que le photon sera en train de se propager entre la source de
lumière et la plaque photographique avant d’avoir produit aucun effet observable,
on ne pourra aucunement lui attribuer une trajectoire et seule la propagation
de l’onde lumineuse associée nous permettra de représenter le déplacement du
photon. Nous nous apercevons alors que l’idée de corpuscule, telle qu’elle était
admise traditionnellement, contient deux aspects différents dont l’un peut être
conservé, mais dont l’autre doit être abandonné. Le premier aspect de la notion
de corpuscule est celui d’un agent indécomposable susceptible de produire des
16
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
effets observables bien localisés où se manifeste la totalité de son énergie (et de
sa quantité de mouvement). Cet aspect correspond bien aux actions de la lumière
sur la matière quand on les analyse d’une manière suffisamment fine, car ils se
ramènent alors tous à l’effet photoélectrique et aux effets analogues. Le deuxième
aspect de la notion de corpuscule est celui d’un petit objet ayant à chaque instant
dans l’espace une position et une vitesse bien déterminées et décrivant par suite
une trajectoire linéaire : c’est ce second aspect de l’idée de corpuscule qu’il nous
est nécessaire de laisser tomber. Nous pouvons considérer le photon comme un
corpulscule en ce sens qu’il est susceptible de produire des actions localisées où
se manifeste la totalité de son énergie et de sa quantité de mouvement, mais en
dehors de ces actions nous n’avons aucunement le droit d’une façon générale de
le considérer comme un petit objet décrivant une trajectoire dans l’espace. La
question de savoir, dans l’expérience de l’écran percé de trous, par quel trou a
passé le photon n’a aucun sens parce que le photon ne se manifeste par aucune
action qui serait exercée lors de son passage à travers l’écran et n’exerce finalement
une action que sur le dispositif (plaque photographique) qui enregistre les franges.
On pourrait évidemment chercher à mettre en évidence le passage du photon par
l’un des trous, mais alors il faudrait monter Un dispositif sur lequel agirait le
photon lors de son passage par le trou en question ; or, si le photon agissait sur ce
dispositif, il deviendrait incapable de participer au phénomène d’interférences. On
ne peut donc obtenir le phénomène d’interférences que quand il est impossible de
dire par quel trou le photon a passé. Ceci permet d’entrevoir comment l’existence
d’un effet localisé du photon dans une frange brillante est conciliable avec le rôle
tout à fait symétrique joué par les trous percés dans l’écran pour la production du
phénomène global d’interférences.
Nous pouvons encore présenter ces idées délicates sous une autre forme. Pendant la propagation du photon, son mouvement est représenté par l’onde qui lui
est associée, sans qu’il soit possible de lui attribuer une position déterminée à l’intérieur de cette onde. Il y a en quelque sorte une « présence potentielle » du corpuscule en tous les points de la région, de l’espace occupée par l’onde, le corpuscule
pouvant manifester sa présence par une action localisée en un point de cette région
avec une probabilité proportionnelle à l’intensité de l’onde en ce point. Quand l’action localisée du photon se produit, la présence potentielle du photon dans l’onde
disparaı̂t et l’onde s’évanouit. On peut dire que quand le photon manifeste son aspect corpusculaire en se localisant, son aspect ondulatoire disparaı̂t, tandis qu’au
contraire, quand son aspect ondulatoire s’affirme, toute localisation traduisant sa
nature corpusculaire est impossible. C’est là un des aspects du fameux principe
d’incertitude de M. Heisenberg.
Avec ces conceptions nouvelles appliquées à notre écran percé de trous, on voit
que l’onde lumineuse explore toute la surface antérieure de l’écran et, passant par
17
toutes les ouvertures qui y sont pratiquées et qui jouent toutes un rôle symétrique,
produit à l’arrière de l’écran des interférences ; mais le photon associé à l’onde ne
se localise qu’au moment où se produit un phénomène observable (une impression
photographique élémentaire par exemple) et cette localisation peut se produire en
n’importe quel point du champ d’interférences avec une probabilité proportionnelle
à l’intensité de l’onde en ce point. Alors on ne peut calculer d’une façon exacte
que la propagation de l’onde et ses interférences et ce calcul ne fournira que des
probabilités pour les manifestations observables du photon. Nous sommes donc
ainsi ammenés à abandonner l’idée traditionnelle d’un déterminisme rigoureux des
phénomènes physiques observables pour lui substituer l’idée beaucoup plus souple
d’un simple lien de probabilité entre ces phénomènes. On voit maintenant comment
en cherchant à résoudre l’énigme que leur posait 1a double nature ondulatoire et
corpusculaire de Lumière, les physiciens ont été amenés, par des raisonnements
auxquels il semble qu’on ne puisse guère échapper, non seulement à modifier profondément les conceptions usuelles de la Physique théorique, mais même à adopter
des points de vue nouveaux dont l’importance philosophique est très grande.
Je dois encore insister sur un point. Nous avons vu, au début de cet exposé, que
les phénomènes de l’optique géométrique, propagation rectiligne, réflexion, rêfraction, phénomènes qui peuvent tous s’exprimer à l’aide de la notion de « rayon de
lumière », s’interprètent immédiatement par l’hypothèse corpusculaire classique.
Pour pouvoir comprendre la valeur que possèdent dans ce domaine de l’optique
géométrique les conceptions granulaires anciennes, il faut montrer que dans les
limites de ce domaine les nouvelles conceptions vont rejoindre les conceptions corpusculaires classiques. Il en est bien ainsi et pour le comprendre, il nous faut dire
quelques mots due la façon dont la théorie des ondes expliquait depuis Fresnel la
validité de la notion de rayons lumineux dans le domaine de l’optique géométrique.
On peut en effet démontrer en théorie des ondes qu’une onde lumineuse est susceptible de se propager en restant contenue à l’intérieur d’un tube très fin, à condition
cependant que le diamètre de ce tube soit très grand par rapport à la longueur
d’onde. Comme les longueurs d’ondes des ondes lumineuses sont très petites, de
l’ordre du dix-millième de millimètre, les ondes lumineuses pourront se propager à
1’intérieur de petits tubes dont le diamètre sera négligeable à notre échelle (mettons par exemple die l’ordre de 1/10 ou 1/100 de millimètre), mais sera cependant
très grand par rapport à la longueur d’onde. Ceci permet à la théorie des ondes de
considérer la notion de « rayon lumineux » comme étant approximativement valable, bien que n’étant pas rigoureusement valable puisqu’elle disparaı̂t à l’échelle
de la longueur d’onde. Le domaine de l’optique géométrique est constitué au point
de vue ondulatoire par l’ensemble des phénomènes pour la description desquels
cette approximation est suffisante. Mais ce domaine a des limites. Si l’on cherche
à étrangler un rayon de lumière de façon à lui donner des dimensions transversales
18
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
comparables à la longueur d’onde, il apparaı̂t des phénomènes de diffraction et la
notion de rayon lumineux perd toute valeur. De même si l’on superpose des rayons
lumineux, par exemple à l’aide de réflexions appropriées, on verra paraı̂tre des phénomènes d’interférences dont la description à l’aide de l’optique géométrique dans
le langage des rayons de lumière sera totallement impossible. On aura dans ces
cas-là dépassé les limites de l’approximation constituée par l’optique géométrique,
on sera entré dans le domaine propre de l’optique ondulatoire.
Ceci rappelé, il est aisé de comprendre comment la nouvelle conception de la
lumière va permettre d’interpréter la validité de la notion de rayon en optique géométrique et 1’aspect corpusculaire des phénomènes dans cette branche de l’optique.
Nous savons qu’une onde lumineuse est susceptible, à l’approximation de l’optique
géométrique, de se propager à l’intérieur d’un tube très délié qui à notre échelle
nous apparaı̂t comme filiforme et constitue pour nous un rayon de lumière. Avec
nos conceptions nouvelles, le photon ne peut pas à chaque instant être localisé en un
point précis de ce tube ; nous savons seulement que, s’il nous manifeste sa présence
par un phénomène observable, ce sera forcément à l’intérieur du tube. Comme le
tube nous apparaı̂t à notre échelle comme une simple ligne de l’espace, nous savons que le photon ne pourra se manifester à nous qu’en un point de cette ligne :
pratiquement, nous pourrons donc admettre que le photon est un corpuscule conçu
à la manière ancienne qui décrit une ligne de l’espace : par suite, pratiquement,
le rayon de lumière sera pour nous la trajectoire au sens classique du corpuscule
« photon » et ainsi nous retrouverons toute l’interprétation corpusculaire ancienne
des phénomènes de l’optique géométrique.
Mais dès que nous sortirons du domaine de l’Optique géométrique, dès que
nous considérerons des phénomènes d’interférences ou de diffraction, la notion du
rayon lumineux deviendra sans valeur : alors nous nous apercevrons que nous ne
pouvons plus à chaque instant localiser le photon en un point de l’espace bien que
ses manifestations observables soient localisées. Nous en reviendrons ainsi aux idées
nouvelles que nous avons précédemment étudiées, mais nous verrons bien maintenant comment ces idées nouvelles sont compatibles avec l’aspect corpusculaire des
phénomènes de l’optique géométrique.
Il me reste encore à faire voir à quel point les physiciens, en soulevant un coin
du voile qui leur dérobait le secret de la Lumière, ont accompli un progrès encore
bien plus considérable qu’on ne pourrait le croire au premier abord, car ce progrès
a dépassé et de beaucoup les limites de l’Optique. Depuis une cinquantaine d’années, en effet, nous savons que la matière est formée de corpuscules élémentaires,
électrons, protons, etc. , et cette découverte a porté tout d’abord les physiciens
à chercher une explication des phénomènes matériels en les ramenant à des mouvements de telles particules élémentaires, mouvements qui devaient, pensait-on,
s’accomplir suivant les lois classiques de la Mécanique. Mais on ne tarda pas à
19
s’apercevoir que pour rendre compte des propriétés de la matière à une échelle très
fine, pour obtenir par exemple une théorie des phénomènes dont les atomes de la
matière sont le siège, il est nécessaire d’introduire le quantum h de Planck dans la
mécanique des particules élémentaires : on s’aperçut ainsi que les particules éléméntaires secomportent à l’échelle des atomes d’une façon qui n’est pas du tout
conforme à l’image classique des particules. La manière dont avait évolué la théorie
de la Lumière a alors suggéré une modification fondamentale de notre image des
particules matérielles telles que les électrons. Le déplacement de ces particules,
tout comme celui des photons, devrait être associé à une onde en propagation :
tout comme les photons, les particules matérielles ne se manifesteraient que de
temps à autre par des effets localisés et dans l’intervalle, leur déplacement serait
représenté par la propagation de leur onde associée sans qu’on puisse leur attribuer à chaque instant une localisation dans l’espace. L’intensité de l’onde associée
à une particule matérielle représenterait en chaque point la probabilité pour que
la particule se manifeste par une action observable localisée en ce point. Quand la
propagation de l’onde associée s’opère dans des conditions où l’approximation de
l’optique géométriquie est valable, il devient pratiquement exact de considérer la
particule matérielle suivant l’image ancienne comme un point matériel dêcrivant
une trajectoire et cette circonstance permet d’interpréter les expériences où s’affirme l’aspect corpusculaire des particules matérielles, comme par exemple celles
où l’on voit un pinceau d’électrons se courber en suivant les lois classiques due
de la Mécanique sous l’action d’un champ électrique ou d’un champ magnétique.
Mais dans les phénomènes où la propagation de l’onde associée à la particule ne
peut plus être décrite par l’approximation de l’optique géométrique, quand cette
onde par exemple subit de la dif’raction ou donne lieu à des interférences, alors la
particule matérielle ne peut plus être considérée comme un point matériel écrivant
une trajectoire et la probabilité pour qu’elle produise en un point un effet localisé
s’obtient en calculant l’intensité de son onde associée en ce point, tout comme cela
a lieu pour le photon. Pour les particules matérielles comme pour le photon, il n’y
a plus de déterminisme rigoureux. On arrive ainsi à une belle théorie synthétique
connue sous le nom de Mécanique ondulatoire. Elle seule permet d’interpréter correctement le comportement des particules matérielles dans les édifices atomiques :
c’est sur elle que repose aujourd’hui tout l’ensemble de notre représentation théorique des phénomènes dont l’atome est le siège. De plus, cette conception nouvelle
des particules matérielles a reçu la confirmation directe de l’expérience depuis
qu’on est parvenu (pour la première fois en 1927) à obtenir avec ces particules des
phénomènes entièrement analogues aux phénomènes de diffraction de la lumière ;
je veux parler ici de la diffraction des électron :s par les cristaux. Ainsi il est aujourd’hui certain que pour les particules matérielles comme pour les photons, on
doit combiner les images d’onde et de corpuscule, et cela précisément de la manière
20
CHAPITRE 1. LE SECRET DE LA LUMIÈRE
qui a été imposée par l’ensemble du développement de nos connaissances sur la
Lumière.
Pour représenter l’ensemble des propriétés de la Lumière dans le cadre général
de la Mécanique ondulatoire, il est d’ailleurs nécessaire de développer une mécanique ondulatoire des photons d’une manière qui rende compte non seullement des
phénomènes d’optique géométrique, d’interférences et de diffraction, mais aussi des
phénomènes de polarisation déjà interprétés par Fresnel et du caractère électromagnétique des ondes lumineuses découvert par Maxwell. Cette œuvre difficile peut
être considérée comme réalisée du moins dans ses grandes lignes, et l’ensemble
des propriétés des photons et des particules matérielles a trouvé aujourd’hui une
représentation satisfaisante dans le cadre général de la Mécanique ondulatoire.
En résumé, les théories de la Physique atomique contemporaine reposent essentiellement sur les conceptions nouvelles relatives aux corpuscules et à leurs ondes
associées que j’ai exposées tout à l’heure sur l’exemple particulier de Ia Lumière
et du photon. Ces conceptions nouvelles ont été peu à peu imposées par la découverte du double caractère de la Lumière ; transposées ensuite pour les particules
matérielles, les mêmes conceptions ont entièrement transformé l’idée que nous faisions de ces particules et, en introduisant dans la théorie de la matière la dualité
onde-corpuscule telle qu’elle s’était révélée pour la Lumière, elles nous ont enfin
permis de construire des théories exactes des phénomènes atomiques. L’on voit
alors pourquoi je disais, au début de cet exposé, qu’en leur dévoilant partiellement
son secret, la Lumière avait rendu aux physiciens un immense service.
Chapitre 2
Les propriétés ondulatoires de
l’électron
Lorsque la notion d’Électron a pénétré dans la Physique, elle s’est présentée tout d’abord sous une forme strictement corpusculaire. L’Électron était conçu
commue un petit grain d’électricité négative doué d’inertie : c’était un point matériel, au sens de la Mécanique rationnelle, portant une charge électrique. Soumis
à l’action de champs électriques ou de champs magnétiques, ce grain d’électricité
décrivait des trajectoires que les lois de la Dynamique permettaient de prévoir et
que l’observation mettait en évidence. Tout un ensemble de mémorables travaux
expérimentaux auxquels restent attachés les noms de J.-J. Thomson, Lénard, Villard, Jean Perrin. . . ont établi sur des bases solides notre croyance à l’existence et
aux propriétés corpusculaires de l’électron.
Tâchons d’abord de bien préciser les conclusions auxquelles une première et
longue série d’études avait ainsi amené au sujet de l’Electron. D’abord tous les
électrons sont semblables entre eux ; ils se manifestent toujours avec les mêmes
propriétés, avec la même charge et la même masse dont les valeurs extraordinairement petites ont été connues peu à peu avec une précision très grande. Ensuite
l’électron se manifeste toujours d’une façon discontinue et totale, ce qui est un
premier aspect de sa nature corpusculaire ; ainsi, avec un compteur à pointes ou
d’autres dispositifs, on peut mettre en évidence les arrivées successives des divers
électrons quand on envoie un faisceau d’électrons sur le dispositif, de telle sorte
qu’on assiste, pourrait-on dire, à la série discrète de ces arrivées. De même, dans
la célèbre expérience de la goutte électrisée en équilibre qui a permis à M. Millikan
la mesure prêcise de la charge électronique, on constate les variations discontinues
de la charge de la goutte quand elle capte ou quand elle perd un électron et ceci
encore met clairement en évidence le caractère granulaire de l’électron.
Un deuxième aspect de la nature corpusculaire de l’électron était le caractère
local des circonstances qui agissent sur son mouvement. Ceci demande un peu d’ex21
22
CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON
plication. Considérons un électron se déplaçant dans un champ électromagnétique :
avec la conception corpusculaire de l’électron, nous devons penser que l’électron,
en progressant dans le champ, rencontre en chaque point un certain état du champ
électromagnétique qui détermine la suite de son mouvement, tout comme cela a
lieu dans la théorie classique du mouvement d’un point matériel dans un champ en
Mécanique rationnelle. Or c’est bien ce qui se passe dans des expériences comme
celles que fit naguère M. Villard sur le mouvement des corpuscules cathodiques
ou dans les expériences très nombreuses et très variées qui ont permis, depuis, de
suivre le mouvement des électrons, par exemple dans cet admirable instrument
qu’est la chambre à détente de Wilson. On comprend alors pourquoi j’ai parlé du
caractère local des circonstances qui agissent sur le mouvement de l’électron. Ce
doit être uniquement les champs de force (ou éventuellement les obstacles, qu’on
peut du reste représenter par des champs de force) existant dans une « petite région » de l’espace, celle où se trouve l’électron à l’instant considéré, qui peuvent
agir sur le mouvement du grain d’électricité. Evidemment, bien que la structure de
l’électron n’ait jamais pu être précisée d’une façon satisfaisante, on imagine facilement que l’électron puisse avoir une certaine extension, qu’il ne se réduise pas à
un point géométrique ; on imagine donc bien que la « petite région » dont je viens
de parler puisse avoir des dimensions non nulles. Mais les dimensions de l’électron,
s’il en a, sont en tous cas extrêmement petites : on admet qu’elles sont de l’ordre
de 10−13 cm et, de toutes façons, elles doivent être énormément plus petites que les
dimensions des atomes, c’est-à-dire que l’unité Angström (10−8 cm). Ce sont donc
les champs ou les obstacles présents à l’intérieur d’une région ayant, mettons, des
dimensions de l’ordre de 10−12 cm qui peuvent agir sur l’électron présent dans cette
région : d’où le caractère extrêmement local des circonstances qui déterminent le
mouvement si l’on admet l’image corpusculaire classique de l’électron.
Telles sont les raisons qui paraissaient établir, il y a une vingtaine d’années,
la nature strictement corpusculaire de l’électron sur des bases inébranlables. Mais,
dans la période qui suivit (1923-1928) , les efforts conjugués de la théorie et de l’expérience ont profondément modifié nos idées sur l’électron en nous montrant que,
si sa nature corpusculaire et discontinue reste assurée et fondamentale, certaines de
ses propriétés ne peuvent être décrites qu’en introduisant des images ondulatoires.
En particulier, il existe des phénomènes électroniques à aspect ondulatoire pour
lesquels il ne peut plus être question d’une détermination par des causes uniquement locales du mouvement des électrons. Ceci apporte d’importantes limitations
à notre conception granulaire, un peu simpliste, de l’électron et nous oblige, pour
interpréter l’ensemble de ses propriétés, à introduire côte à côte l’image corpusculaire et l’image ondulatoire.
Cherchons à dégager en quoi l’image des ondes s’oppose à l’image du grain.
Une première différence tient au caractère périodique de l’onde : tandis que la no-
23
tion de grain ne comporte en elle-même aucune idée de rythme ou de vibration,
l’onde est essentiellement formée par une vibration rythmée qui se propage, ou plus
généralement par une superposition de vibrations rythmées qui se propagent. De
plus, le grain est une singularité ponctuelle ou quasi-ponctuelle étroitement localisé dont le déplacement au cours du temps n’intéresse qu’une ligne (ou qu’un tube
extrêmement délié) de l’espace, tandis qu’au contraire l’onde intéresse en général
une région étendue de l’espace à chaque instant et l’ensemble de sa propagation
est déterminée par les circonstances ou les accidents qu’elle rencontre sur toute
l’étendue qu’elle explore. Les exemples en sont bien connus en optique et dans les
autres branches de la théorie des ondes : ainsi la répartition des intensités lumineuses dans un champ d’interférences dépend de la forme des écrans placés sur le
trajet de l’onde, des ouvertures qui y sont découpées ou encore des parois réfléchissantes qui la forcent à refluer ; ainsi en Acoustique, les sons renforcés par un
résonateur dépendent de la forme des parois de ce résonateur, de tous les détails de
sa topologie. Mathématiquement, tandis que le mouvement d’un « grain » dépend,
d’après la Mécanique classique, d’équations différentielles donnant la variation en
fonction du temps des coordonnées du grain, la propagation d’une onde dépend
d’une équation aux dérivêes partielles (ou d’un système de telles équations) dont
les solutions doivent être choisies de façon à satisfaire certaines conditions topologiques dans une région étendue de l’espace. L’onde est essentiellement définie par
une ou plusieurs grandeurs formant un « champ » c’est-à-dire ayant des valeurs
déterminées dans tout un domaine en chaque point et à chaque instant.
Puisque les conceptions de grain et d’onde paraissent au premier abord si opposées, comment a-t-on pu être amené à chercher la manière de les rapprocher, pour
obtenir une prévision complète des propriétés de l’électron ? Pour bien le comprendre, il faut se rapporter à l’évolution de la théorie de la Lumière depuis une
quarantaine d’années. Depuis Fresnel, l’interprétation théorique des phénomènes
lumineux était l’exemple typique d’une interprétation ondulatoire. On sait avec
quelle admirable précision, elle permettait de présvoir les apparences observables.
Néanmoins, après les travaux de M. Planck sur le rayonnement noir où pour la
première fois la notion de quanta faisait son apparition en Physique, l’interprétation des lois de l’effet photoélectrique par l’hypothèse des « quanta de lumière »
(1905) a montré la nécessité de revenir vers des conceptions plus anciennes, en
admettant l’existence d’un certain aspect granulaire de la lumière. La réalité des
« grains de lumière » ou « photons » a été ensuite confirmée directement par la
découverte des effets Compton et Raman et indirectement par les développements
théoriques dont la théorie de l’atome de M. Bohr a été le point de départ. Cette
réalité des grains de lumière consiste essentiellement en ce que l’énergie lumineuse
est toujours cédée ou empruntée à la matière d’une manière discontinue mettant
en jeu la totalité d’un quantum d’énergie lumineuse. Pour chaque grain de lumière,
24
CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON
le quantum d’énergie lumineuse qu’il transporte est proportionnel à la fréquence
ν de la lumière considérée et égal à hν, h étant la célèbre constante d’action de
Planck. La dynamique relativiste permet d’ailleurs d’ajouter que la quantité de
hν
(c étant la vitesse de
mouvement du grain de lumière de fréquence ν doit être
c
la Lumière dans le vide) et cette conclusion est bien vérifiée par l’étude des lois de
l’effet Compton.
L’existence des photons se traduit donc par le caractère total et discontinu des
phénomènes où ils se manifestent. Dans les phénomènes de l’optique géométrique,
on peut aussi considérer un rayon de lumière comme la trajectoire d’un photon et
parler du caractère « local » des circonstances qui déterminent la forme du rayon
de lumière. Ainsi la forme courbée des rayons de lumière dans un milieu réfringent
à indice variable est analogue à la forme courbe de la trajectoire d’un électron
dans un champ électromagnétique. Mais dès que l’on considière les phénomènes
d’interférences et de diffraction, il ne peut plus être question de trajectoires, ni de
circonstances locales déterminant le mouvement en chaque point : les phénomènes
sont déterminés par l’ensemble des conditions qui règnent dans tout le champ
d’interférences et la notion d’ondes étendues explorant tout un domaine devient
nécessaire pour l’interprétation des faits observables.
La découverte de l’existence des grains de lumière a mis en évidence la nécessité de concilier la notion de « grain » ou de « corpuscule » avec celle d’ondes
périodiques occupant un champ étendu. Elle a fait soupçonner peu à peu que la
propriété essentielle d’un corpuscule physique est le caractère discontinu et total
de ses manifestations dans les phénomènes observables et non pas la possibilité de
le localiser dans l’espace et de lui attribuer au cours du temps une trajectoire déterminée par une succession de circonstances locales. Dès ses premiers travaux sur
les « quanta » de lumière M. Einstein a vu que la conciliation des notions d’onde et
de corpuscule en Optique exigeait l’intervention d’une sorte d’interprétation probabiliste des ondes. La nature granulaire de la lumière se manifeste au moment
où un grain de lumière produit localement une action sur la matière : pour pouvoir conserver, ce qui est indispensable, la théorie ondulatoire de la lumière pour
l’explication des phénomènes d’interférences et de diffraction, il faut admettre que
l’intensité de l’onde lumineuse donne la probabilité des manifestations discontinues et granulaires de l’énergie radiante. Cette idée, précisée et généralisée, forme
aujourd’hui la base de toute l’interprétation physique de la Mécanique ondulatoire.
Revenons aux électrons. La nécessité de faire cohabiter dans le cadre de la
théorie de la Lumière les concepts d’ondes et de corpuscules convenablement interprétés devait amener à se poser la question suivante : « Pour les électrons comme
pour la lumière, n’existe-t-il pas, à côté de l’aspect granulaire déjà bien connu, un
aspect ondulatoire se traduisant par l’existence pour les électrons de phénomènes
analogues à ceux de l’optique ondulatoire ? » Il était très hardi de se poser, il y
25
a une quinzaine d’années, une telle question, car rien alors ne semblait justifier
l’idée que l’électron eût un aspect ondulatoire. Cependant, en réfléchissant aux
conceptions nouvelles introduites par la thêorie des quanta, on pouvait apercevoir
quelques indications en faveur de cette idée. M. Planck dans sa théorie du rayonnement noir avait admis le caractère quantifié des mouvements des oscillateurs
électroniques contenus dans la matière : M. Bohr, dans sa théorie de l’atome, avait
montré que le mouvement des électrons dans l’atome est également quantifié. Peu
à peu, s’était imposée cette idée que le mouvement des électrons à petite échelle
était toujours soumis à des lois de quanta. Or cette quantification des mouvements
électroniques fait intervenir des conditions « globales » portant sur tout l’ensemble
du mouvement stationnaire de l’électron : ceci paraissait déjà indiquer que le mouvement de l’électron ne peut être prévu exactement sans faire intervenir une sorte
de « champ », probablement ondulatoire, lié au mouvement de cet électron et explorant tout le domaine atomique. Je dois rappeler ici que M. Marcel Brillouin
avait, dans un curieux mémoire publié avant l’éclosion de la Mécanique ondulatoire, envisagé une conception de ce genre. D’autre part, les conditions de quanta
introduites par MM. Planck, Bohr et Sommerfeld contiennent des nombres entiers,
circonstance qui ne s’était jamais présentée dans la dynamique du point matériel,
mais qui au contraire est tout à fait habituelle dans les problèmes où interviennent
les ondes (interférences, résonance, etc.).
Enfin l’esprit une fois lancé dans cette direction, il était difficile de ne pas être
frappé par l’analogie si étendue qui existe entre les théories les plus générales de
la Mécanique analytique et celle de la propagation des ondes, et en particulier
entre le principe de Fermat et celui de moindre action. L’idée se présentait alors
que la représentation du mouvement des corpuscules par la Mécanique classique,
avec son image de description progressive d’une trajectoire sousl’influence de circonstances locales, doit être une approximation correspondant à celle de l’optique
géométrique en théorie de la Lumière où l’on décrit la progression de la lumière
comme s’effectuant le long de rayons lumineux qui s’incurvent suivant les conditions locales de la propagation. Alors, de même que l’Optique géométrique apparaı̂t
seulement dans l’ensemble de l’Optique ondulatoire comme une approximation à
domaine d’application limité et cesse d’être valable dès qu’apparaissent les phénomènes spécifiquement ondulatoires d’interférences et de diffraction, de même, la
Mécanique classique des corpuscules avec sa notion de corpuscule constamment
localisé en un point d’une trajectoire doit aussi être une approximation à domaine
d’application limité et doit cesser d’être valable dans des cas que les anciennes
théories ne pouvaient prévoir, où apparaı̂traient des phénomènes analogues aux
interférences et à la diffraction de la lumière. Dans de tels cas, l’existence des
corpuscules matériels, comme celle des photons, ne se traduirait plus que par le
caractère discontinu et ponctuel de leurs manifestations, et non par une constante
26
CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON
localisation le long d’une trajectoire déterminée par des circonstances locales. La
répartition dans l’espace des manifestations possibles d’un corpuscule matériel doit
alors être régie par la propagation d’une certaine onde associée au corpuscule, tout
comme la répartition dans l’espace des manifestations possibles d’un photon est
régie par la propagation de l’onde lumineuse associée au photon. Ce sont là en
somme, exposées sous une forme qualitative, les idées fondamentales qui servent
de base à la Mécanique ondulatoire.
Je ne puis exposer ici la façon dont s’est développée sous une forme mathématique de plus en plus précise cette nouvelle Mécanique ondulatoire. Qu’il me suffise
de rappeler qu’au mouvement rectiligne et uniforme d’un corpuscule dont l’énergie
est E et la quantité de mouvement p~, elle a été conduite à associer la propagation
d’une onde plane monochromatique de fréquence :
ν=
et de longueur d’onde
E
h
h
p
De plus, elle admet que, si l’onde associée à un corpuscule donne lieu à des phénomènes d’interférences ou de diffraction, l’intensité de cette onde en chaque point
du champ d’interférences donne la probabilité pour que le corpuscule manifeste sa
présence en ce point. Cette correspondance statistique entre l’aspect onde et l’aspect corpuscule, qui était déjà nécessaire en théorie de la Lumière, s’est également
imposée dans la théorie ondulatoire de l’électron.
Une première preuve de l’exactitude de la Mécanique ondulatoire de l’électron,
c’est-à-dire de la conception qui attribue à l’électron un aspect ondulatoire, est le
fait qu’elle fournit immédiatement une interprétation des « conditions de quanta »
qui se présentent dans la théorie des mouvements électroniques de l’échelle atomique. Elle montre que les mouvements stationnaires quantifiés des électrons, mis
en évidence par les travaux de MM. Planck, Bohr, Sommerfeld et leurs continuateurs, sont ceux dont l’onde associée a le caractère d’une onde stationnaire. Le
caractère « stationnaire » d’une onde est toujours, en théorie des ondes, déterminé par l’ensemble des conditions qui règnent dans toute la région occupée par
l’onde stationnaire : ceci nous explique immédiatement le caractère global et non
local des conditions qui déterminent les mouvements quantifiés. De plus, l’intervention des nombres entiers dans les formules qui expriment les conditions de quanta
apparaı̂t alors comme tout aussi naturelle que l’apparition de nombres entiers dans
les formules permettant de prévoir les phénomènes d’interférences ou de résonance,
en Optique ou en Acoustique par exemple. Le calcul des états stationnaires des
êlectrons dans les systèmes atomiques effectués par les méthodes de la Mécanique
ondulatoire a conduit à des résultats si importants pour la Microphysique et si
λ=
27
bien vérifiés par l’expérience que l’on peut considérer les idées fondamentales de
la conception ondulatoire de l’électron comme ayant ainsi reçu une confirmation
complète.
Néanmoins, cette confirmation, si probante soit-elle, n’est qu’indirecte ; mais il
existe une preuve directe de l’aspect ondulatoire des électrons : c’est le phénomène
de la diffraction des électrons par les cristaux.
Si l’on admet que le mouvement des électrons est liê à la propagation d’une
onde, on doit se demander s’ils ne peuvent pas donner lieu à des phénomènes d’interférences ou de diffraction observables, analogues à ceux de l’optique ondulatoire.
Or les formules de la Mécanique ondulatoire montrent que la longueur de l’onde
associée aux électrons dans les conditions usuelles est toujours très petite, toujours
de l’ordre de celle des rayons X. Ce qu’on peut donc espérer d’obtenir avec des électrons, ce sont des phénomènes analogues à ceux que l’on obtient avec des rayons X.
Mais on sait que le phénomène ondulatoire fondamental de la Physique des rayons
X est le phénomène de leur diffraction par les cristaux. L’extrême petitesse de la
longueur d’onde des rayons X rend presque impossible d’employer des dispositifs
fabriqués de main d’homme pour obtenir leur diffraction.
Fort heureusement, la nature nous offre des réseaux à trois dimensions qui sont
adaptés à cette diffraction : ce sont les milieux cristallisés. Dans ces milieux, en
effet, les atomes ou les molécules sont régulièrement distribués suivant un réseau
à trois dimensions et il se trouve que les distances mutuelles des centres matériels
dans ce réseau sont de l’ordre de grandeur des longueurs d’onde X. En envoyant
un faisceau de rayons X sur un cristal, on doit donc obtenir un phénomène de
diffraction analogue à celui qu’on pourrait obtenir avec la lumière en employant
un réseau ponctuel à trois dimensions. On sait que ce phénomène de la diffraction
des rayons X par les cristaux a été effectivement découvert en 1912 par MM.
von Laue, Friedrich et Knipping et qu’il sert de base à tout le développement
aujourd’Ihui considérable de la spectroscopie des rayons X. D’après tout ce que
nous venons de dire, on doit s’attendre à pouvoir obtenir un phénomène tout à fait
analogue avec des électrons. En envoyant sur un cristal un faisceau d’électrons,
ayant tous une même énergie cinétique connue (ce qu’on obtiendra aisément en
employant des électrons qui ont tous subi la même chute de potentiel connue),
on doit pouvoir observer un phénomène de diffraction analogue au phénomène de
Laue. La structure des différents cristaux qu’on peut employer pour une expérience
de ce genre étant aujourd’hui bien connue, notamment par l’étude des spectres
Röntgen, on pourra déduire des figures de diffraction obtenues la longueur d’onde
de l’onde associée aux électrons que l’on a employés et on pourra ainsi vérifier
l’exactituide de la relation proposée par la mécanique ondulatoire pour relier la
longueur d’onde de l’onde associée à l’énergie de l’électron.
C’est à MM. Davisson et Germer travaillant au laboratoire Bell à New-York
28
CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON
qu’est revenu l’honneur d’avoir en 1927 decouvert l’existence de la diffraction des
électrons par les cristaux. En bombardant un cristal de nickel à l’aide d’un faisceau
d’électrons monocinétiques, ils mirent nettement en évidence que ces électrons se
répartissaient suivant les figures de diffraction correspondant à une onde de longueur d’onde déterminée et ils montrèrent que cette longueur d’onde est bien celle
que prévoient les formules de la Mécanique ondulatoire. Ainsi se trouva établie
l’existence de ce beau phénomène dont la simple annonce aurait, quelques années auparavant, provoqué l’incrédulité des physiciens : ainsi a été apportée une
magnifique confirmation directe de l’existence d’un double aspect corpusculaire et
ondulatoire de l’électron et de l’exactitude des formules quantitatives proposées par
la Mécanique ondulatoire pour exprimer le lien entre les deux faces de ce double
aspect.
Depuis la découverte de Davisson et Germer, le phénomène de la diffraction des
électrons a été étudié de bien des façons et toutes les difficultés qui pouvaient exister
dans l’interprétation des apparences observées ont été l’une après l’autre écartées.
Aujourd’hui, la diffraction des électron est un phénomène très facile à obtenir et qui
commence même à avoir des applications d’ordre presque technique pour l’étude de
la structure des couches superficielles de certains corps. Mais je ne veux pas entrer
ici dans des questions de détail et, restant au point de vue général que j’ai adopté,
je vais, en terminant, chercher à montrer comment l’aspect ondulatoire et l’aspect
corpusculaire de l’électron se manifestent dans le phénomène de la diffraction par
les cristaux.
Si nous représentons à l’aide de l’image granulaire classique un électron suivant
d’abord une trajectoire rectiligne et venant frapper en un point bien déterminé
la surface d’un cristal, cet électron rebondira sur le cristal d’une manière qui sera
déterminée par les conditions locales existant dans le cristal au point d’impact et
il sera totalement impossible de prévoir ainsi l’existence d’un phénomène de diffraction. Pour rendre compte de la diffraction réellement observée, il est nécessaire
de conserver seulement de l’image granulaire de l’électron l’idée que l’électron est
susceptible de manifester localement sa présence d’une façon discontinue et totale,
mais il faut abandonner l’idée d’un grain décrivant une trajectoire d’une façon
continue. Ce qui arrive sur la surface du cristal, ce n’est pas un grain bien localisé
courant le long d’une droite, c’est tout un champ de possibilité de localisation,
représenté par l’onde de la Mécanique ondulatoire, champ qui explore, qui tâte
pour ainsi dire, toute la surface et toutes les couches superficielles du cristal. Ce
contact du champ ondulatoire incident avec une partie étendue de la structure du
cristal donne lieu à un phénomène de diffraction tout à fait semblable à celui que
l’on considère dans la théorie de l’effet Laue pour les rayons X. Dans certaines
directions privilégiées, l’onde sera diffusiée avec beaucoup d’intensité et, si nous
disposons une plaque photographique à une certaine distance du cristal, il y aura
29
sur cette plaque des plages où l’intensité de l’onde sera très forte. L’électron aura
beaucoup plus de probabilitê de manifester sa présence sur une de ces plages qu’en
dehors. Au point où l’électron impressionnera la plaque photographique, il exercera
une action tout à fait locale en un point de la gélatine de la plaque en y dépensant
toute son énergie. C’est ce caractère localisê, discontinu et total de l’action exercée par l’électron qui permet de dire que l’électron est bien un « grain » malgré
l’impossibilité de le localiser constamment et de lui attribuer une trajectoire.
Si, au lieu d’un seul électron, on a un flot d’électrons arrivant sur le cristal
(ce qui est le cas expérimental usuel) , les localisations ponctuelles des électrons
dans la gélatine de la plaque photographique se répartiront statistiquement en
proportion des intensités de l’onde en chaque point de la plaque : ces localisations
se concentreront donc dans les plages de grande intensité et leur effet d’ensemble
dessinera sur la plaque les taches de Laue prévues par le raisonnement ondulatoire.
Ainsi l’onde paraı̂tra être la réalité physique, alors qu’elle n’est qu’un champ de
probabilité.
En résumé, on voit que l’électron est bien un « grain », mais seulement dans la
mesure où il est susceptible, à l’occasion, de se manifester localement avec toute
son énergie. On voit aussi que l’onde associée à l’électron permet bien de prévoir
la répartition statistique des actions d’un flot d’électrons : mais elle n’est pas la
vibration physique de quelque chose, elle n’est qu’un champ de probabilité. Finalement l’aspect ondulatoire et l’aspect granulaire de l’électron sont compatibles,
parce qu’on doit apporter aux concepts d’onde et de corpuscule des limitations
permettant de les concilier.
30
CHAPITRE 2. LES PROPRIÉTÉS ONDULATOIRES DE L’ÉLECTRON
Deuxième partie
SUR CERAINS ASPECTS
PHILOSOPHIQUES DE LA
PHYSIQUE CONTEMPORAINE
31
Chapitre 3
Réflexions sur l’indéterminisme
en physique quantique
La question du déterminisme ne se pose pas pour le physicien de la même façon
que pour le philosophe. Le physicien n’a pas, en effet, à l’envisager sous son aspect
général et métaphysique : il a à en chercher une définition précise dans le cadre
des faits qu’il étudie. Or cette définition précise ne peut, nous semble-t-il, reposer
que sur la possibilité d’une prévision rigoureuse des phénomènes à venir : pour le
physicien, il y a déterminisme lorsque la connaissance d’un certain nombre de faits
observés à l’instant présent ou aux instants antérieurs, jointe à la connaissance de
certaines lois de la Nature, lui permet de prévoir rigoureusement que tel ou tel
phénomène observable aura lieu, à telle époque postérieure. Cette définition du
déterminisme par la prévisibilité rigoureuse des phénomènes paraı̂t la seule que le
physicien puisse accepter parce qu’elle est la seule qui soit réellement vérifiable. Il
ne faut pas néanmoins se dissimuler que cette définition du déterminisme physique
soulève quelques difficultés. Tout d’abord, comme dans la Nature il y a interaction
universelle et que le mouvement du moindre atome peut être influencé par celui
de l’astre le plus éloigné, la prévision tout à fait rigoureuse d’un phénomène futur
quelconque exigerait en principe la connaissance intégrale de l’état présent de l’univers et ne serait donc pas réalisable. Mais c’est là évidemment une objection plutôt
théorique car, en général, la prévision d’un phénomène à venir peut être obtenue
pratiquement à l’aide d’un nombre fini de données sur l’état présent. Plus importante est l’objection que l’on peut tirer du caractère nécessairement approximatif
de nos observations et de nos mesures. Les données fournies par l’observation ou
la mesure étant toujours affectées d’erreurs expérimentales, les prévisions que nous
pouvons effectuer à partir de ces données imparfaites sont elles-mêmes affectées
d’une certaine imprécision, de sorte que la vérification de la prévisibilité rigoureuse des phénomènes, et par suite du déterminisme défini comme nous l’avons
fait plus haut, est toujours approximative. Néanmoins, cette nouvelle objection
33
34
CHAPITRE 3. L’INDÉTERMINISME EN PHYSIQUE QUANTIQUE
ne paraı̂t pas encore insurmontable parce que la précision de nos observations et
de nos mesures peut être améliorée soit par l’affinement des méthodes, soit par
le perfectionnement des prociédiés expérimentaux. Si, au fur et à mesure que la
précision de nos observations s’améliore, nous obtenons toujours une prévisibilité
plus rigoureuse, nous pourrons considérer le déterminisme comme établi par une
sorte de convergence à la limite. Dans la physique classique, rien ne semblait s’opposer à l’idée d’une prévisibilité des phénomènes futurs d’autant plus parfaite que
nos procédés d’observation et de mesure devenaient plus exacts. C’est en ce sens
que le déterminisme physique paraissait devoir être admis avant le développement
de nos connaiances sur les phénomènes quantiques. Mais, lorsqu’en descendant
l’échelle des grandeurs, les physiciens en sont arrivés à étudier les phénomènes du
monde atomique où les quanta manifestent leur existence, ils se sont aperçus que
la convergence vers une prévisibilité rigoureuse ne pouvait être prolongée indéfiniment par une precision toujours croissante des données de l’observation et de
la mesure. Quand, en effet, dans le domaine atomique, nous voulons de plus en
plus serrer de près l’état actuel des choses pour pouvoir annoncer avec plus de
rigoureuse exactitude les phénomènes futurs, nous nous heurtons à l’impossibilité
d’augmenter simultanément la précision de toutes les données qui nous seraient
nécessaires : c’est là, on le sait, l’une des conséquences essentielles des relations
d’incertitude dues à M. Heisenberg. Plus nous orienterons nos observations et nos
mesures de façon à nous permettre de préciser certaines données, plus par là même
nous perdrons en précision sur d’autres données nécessaires. Les fines et profondes
analyses de MM. Bohr et Heisenberg paraissent avoir bien établi ce point en montrant clairement que ces circonstances, tout à fait inattendues pour les physiciens
imbus des idées classiques, sont des conséquences nécessaires de l’existence même
du quantum d’Action. Puisque le quantum d’Action apparraı̂t aujourd’hui comme
l’une des réalités les plus fondamentales de la Physique, il n’est guère douteux que
les incertitudes d’Heisenberg n’aient elles-mêmes un caractère tout à fait fondamental. A cause d’elles, le processus de convergence vers une prévisibilité parfaite,
qui nous permettait dans l’ancienne physique d’affirmer le déterminisme des phénomènes par un passage à la limite, se trouve interrompu quand on arrive à l’échelle
du monde atomique, c’est-à-dire à l’échelle où le quantum d’Action, cessant d’être
négligeable, commence à intervenir.
Il est facile de prendre des exemples de cas où, d’après les conceptions aujourd’hui bien établies de la mécanique ondulatoire, la prévisibilité des phénomènes
est diminuée, sinon perdue. Considérons comme exemple simple un « canon à électrons », c’est-à-dire un dispositif émettant des électrons d’énergie connue, qui bombarde la surface d’un cristal devant lequel est disposé un écran comme l’indique la
figure 3.1.
Si l’écran est recouvert d’une substance fluorescente où l’arrivée de chaque
35
Ecran
Canon
à électrons
Cristal
Figure 3.1 –
électron diffusé par le cristal donne lieu à une scintillation instantannée, on devra
observer, si le canon tire lentement, des scintillations s’égrenant dans le temps et se
produisant en diverses régions de l’écran. D’après, les principes actuellement admit
de la mécanique ondulatoire, il est impossible du prévoir exactement à un instant
déterminé en quel point de l’écran se produira la prochaine scintillation : tout ce
que l’on peut calculer, c’est la probabilité pour que la prochaine scintillation se
produise en tel ou tel point à la surface de l’écran. Il y a des régions de l’écran où
la probabilité d’arrivée d’un électron est nulle et où l’on peut affirmer qu’il ne se
produira pas de scintillations, mais il y a aussi des régions étendues de l’écran où
cette probabilité d’impact n’est pas nulle et l’on ne peut dire en quel point de ces
dernières régions se produira la prochaine scintillation. Il y a là véritablement imprévisibilité des scintillations individuelles et, par suite, absence de déterminisme,
au seul sens que le physicien puisse légitimement, nous semble-t-il, donner à ce
mot.
Il importe d’ailleurs de remarquer que l’existence de lois de probabilité permet
de retrouver la prévibilité et le déterminisme pour les phénomènes statistiques
où interviennent un grand nombre d’unités physiques. Ainsi, si dans l’exemple
précédent, le canon à électrons, au lieu de tirer lentement, tire très rapidement de
manière que le cristal soit constamment atteint par un flot d’électrons, on obtiendra
à chaque instant sur l’écran un très grand nombre de scintillations et la répartition
de ces scintillations à la surface de l’écran y dessinera les figures de diffraction
qui peuvent se prévoir en calculant la diffraction, par le milieu cristallin, de l’onde
associée aux électrons. On pourra donc en ce cas annoncer exactement quel va être
l’aspect de l’écran fluorescent quand on mettra en action le canon à tir rapide.
Ainsi il y a présibilité exacte, c’est-à-dire déterminisme au sens des physiciens,
pour le phénomène statistique, bien qu’il n’y ait pas prévisibilité exacte pour les
phénomènes élémentaires .
L’imprévisibilité, qui se manifeste en physique quantique pour le phénomène
élémentaire, ne nous paraı̂t pas liée, comme on l’a parfois prétendu, à un emploi
36
CHAPITRE 3. L’INDÉTERMINISME EN PHYSIQUE QUANTIQUE
abusif du concept de corpuscule. Dans l’expérience sur laquelle nous avons raisonné, on peut définir le canon à électrons uniquement par ses caractéristiques
expérimentales : on dira, par exemple, que c’est un dispositif contenant un filament de telle substance porté à l’incandescence et relié au sol devant lequel se
trouve à une certaine distance une électrode portée à un certain potentiel, etc. De
même, on notera des scintillations sur l’écran sans être obligé de parler de l’impact
d’un électron sur cet écran. Or, même en employant ce langage purement « expérimental » où interviennent seuls des faits observables, on sera obligé de constater
l’imprévisibilité des scintillations individuelles qui se succèdent sur l’écran. II ne
nous semble donc pas que cette imprévisibilité soit en aucune façon la conséquence
d’une certaine conception théorique de l’électron, par exemple de l’emploi plus ou
moins justifié de l’image corpusculaire. Dans l’état actuel de la Physique, il n’y a
plus dans le cas des phénomènes élémentaires individuels prévisibilité rigoureuse
des faits qui seront observables à partir des faits qui ont été observés. Cette imprévisibilité nous paraı̂t due à l’existence du quantum d’Action et non à l’usage
du concept de corpuscule. C’est plutôt, nous le verrons plus loin, les idées même
d’espace et de temps dont la validité paraı̂t mise en question par l’existence du
quantum d’Action.
Disons maintenant quelques mots du rapport entre la notion de déterminisme
et celle de causalité. La relation entre ces deux notions ne paraı̂t pas être toujours
bien précisée et dépend d’ailleurs, dans une large mesure, des définitions que l’on
admet pour l’une et pour l’autre. Ainsi certains auteurs, considérant le concept
de causalité comme plus étroit que celui de déterminisme, ont dit qu’en Physique
quantique, il y avait encore déterminisme, mais qu’il n’y avait plus causalité. Il
nous paraı̂t, au contraire, plus naturel de dire qu’en Physique quantique, il n’y a
plus de déterminisme au sens précisé plus haut, mais qu’il y a encore causalité en
donnant à ce terme un sens un peu large que nous allons expliquer. Considérons un
phénomène A auquel succède toujours l’un quelconques des phénomènes B1 , B2 ,
B3 , . . . . Si , de plus, aucun des phénomènes B1 , B2 , B3 , . . . ne se produit si A ne
s’est pas produit, on pourra dire, en adoptént une définition large de la causalité,
que A est la cause des phénomènes B1 , B2 , B3 , . . . et cette définition sera en accord
avec le viel adage : « Sublata causa, tollitur effectus ». Avec cette définition, il y
aura donc un lien de causalité entre le phénomène A et les phénomènes B1 , B2 , B3 ,
. . . , mais il n’y aura plus de déterminisme, au sens que nous avons précédemment
donnée à ce mot, si nous ne pouvons aucunement prévoir lequel des phénomènes B1 ,
B2 , B3 , . . . va se produire lorque A s’est produit. Le déterminisme ne réapparaı̂t
que dans le cas limite où il y a un seul phénomène B. Or il nous semble bien
que nous ayons en Physique quantique une telle causalité sans déterminisme où
la prévisibilité exacte ne réapparaı̂t que dans des cas exceptionnels, ceux que les
théoriciens de la nouvelle mécanique appellent des « cas purs ».
37
Reprenons comme exemple notre canon à électrons bombardant la surface d’un
cristal. Si le canon entre en fonctionnement, nous verrons paraı̂tre une scintillation
en un certain point de l’écran placé devant le cristal tandis que si 1e canon, ne
fonctionne pas, nous ne verrons, bien entendu, aucune scintillation. Nous pouvons
donc dire que le fonctionnement du canon à électrons est la cause des scintillations,
bien que nous ne puissions prévoir exactement laquelle des scintillations possibles
se produira sur la surface de l’écran quand nous mettrons le canon en action. Il
semble donc bien qu’il y ait ici causalité au sens large défini plus haut, mais qu’il
n’y ait plus déterminisme. Cette conclusion n’est pas, d’ailleurs, particulière au
cas envisagé du bombardement d’un cristal par des électrons et elle s’étendrait
aisément à tous les problèmes qui se posent en Physique quantique.
Le développement de nos connaissances permettra-t-il un jour de rétablir la
prévisibilité complète des phénomènes élémentaires individuels, c’est-à-dire le déterminisme physique rigoureux ? Il n’est naturellement pas possible de répondre
avec certitude à une question de ce genre ; mais on peut cependant faire quelques
réflexions à son sujet. Tout d’abord, il faut bien préciser qu’il s’agit ici du rétablissement éventuel de la prévisibilité exacte des phénomènes élémentaires. L’on peut,
en effet, et l’on pourra toujours, supposer qu’il existe un déterminisme fondamental des phénomènes qui nous resterait caché et se trouverait au delà des limites de
notre science humaine, mais c’est là une hypothèse métaphysique, un acte de foi,
et ce déterminisme ne serait pas celui que le physicien a seul, nous semblent-il, le
droit d’envisager et que nous avons défini par la prévisibilité rigoureuse. Il s’agit de
savoir si la théorie physique, disposant un jour de connaissances qui nous manquent
aujourd’hui, et peut-être aussi de concepts qui ne sont pas encore élaborés, pourra
établir des règles permettant de prévoir rigoureusement les phénomènes de l’échelle
atomique. Il nous semble que l’intervention du quantum d’Action dans les phénomènes de la Physique microscopique nous fournit quelques indications à ce sujet.
La notion même du quantum d’Action implique, en effet, une sortie de liaison entre
le cadre de l’espace et du temps et les phénomènes dynamiques que nous cherchons
à y localiser, liaison tout à fait insoupçonnée de l’ancienne Physique.
Si donc une théorie future nous permettait de voir plus clair dans les questions
quantiques, ce ne pourrait être sans doute qu’en modifiant profondément nos idées
sur l’espace et sur le temps (y compris les conceptions relativistes sur l’espacetemps) . Mais si un jour ce difficile travail peut être accompli, en résultera-t-il un
retour effectif vers la prévisibilité exacte des phénomènes de la microphysique ?
Cela ne nous paraı̂t pas probable car la description des observations et des résultats de l’expérience se fait dans le langage courant de l’espace et du temps et il
paraı̂t bien difficile de penser qu’il en sera jamais autrement. Pour parvenir à la
prévision des faits observables, qui est son but essentiel, la théorie physique devra
donc vraisemblablement toujours en revenir, à un certain moment, au cadre usuel
38
CHAPITRE 3. L’INDÉTERMINISME EN PHYSIQUE QUANTIQUE
de l’espace et du temps et il nous paraı̂t très probable qu’à ce moment précis réapparaı̂tront les incertitudes quantiques liées à l’existence du quantum d’Action et
que la rigueur des prévisions possibles s’en trouvera atténuée.
Bref, il n’est peut-être pas interdit de penser qu’un jour, la Physique pourrait retrouver à l’échelle microscopique le déterminisme rigoureux dont l’étude du
monde macroscopique lui avait naguère suggéré la notion ; mais, dans l’état actuel
de nos connaissances, une telle évolution de la Physique quantique nous paraı̂t
personnellement très peu probable.
Chapitre 4
Sur certains aspects
philosophiques des récents
progrès de la physique
Lorsque les sciences physiques ont commencé à se développer d’une manière
scientifique, les interprétations qu’elles ont proposées des phénomènes de la Nature ont pris naturellement comme points de départ les conceptions et les images
que la vie courante nous offre d’elle même et qui, à force d’être habituelles nous
paraissent intuitives. Sans doute, au fur et à mesure que la théorie physique se développait avec l’aide de l’analyse mathématique, elles ne conservaient des images
suggérées par la vie journalière que des formes abstraites et décolorées. Ainsi l’idée
de corpuscule se présente à l’intuition courante comme celle d’un petit objet ayant
une forme, une coloration, une structure comme c’est le cas d’une sphérule de
plomb ou d’un grain de sable par exemple. De cette image trop concrète, la théorie physique ne devra évidemment conserver que la conception schématique d’un
petit objet localisé, d’un point matériel : elle devra écarter les attributs de coloration et souvent même laisser imprécises la forme et la structure. De la notion
toute concrète de l’effort exercé par un de nos muscles pour déplacer un objet, est
sortie la notion de force représentée par un vecteur et l’on voit sur cet exemple
quel progrès dans le sens de l’abstraction s’est effectué dans ce cas. C’est ainsi
qu’en extrayant ses conceptions fondamentales de la réalité vécue par des procédés de schématisation et d’abstraction, la Physiquie mathmatique de l’époque
classiques depuis la Renaissance jusqu’au XXe siècle, est parvenue à construire le
bel édifice que l’on sait. Sans doute, cette Physique mathématique laissait-elle nécessairement dans l’ombre tout l’aspect qualitatif des phénomènes, mais elle était
parfaitement adaptée à la prévision exacte des faits physiques se déroulant à notre
échelle humaine. En schématisant par abstraction des notions tirées de notre vie
courante, on était arrivé à construire une théorie physique qui paraissait apte à
39
40
CHAPITRE 4. PHILOSOPHIE ET PROGRÈS DE LA PHYSIQUE
décrire parfaitement les phénomènes dont nous avons la perception directe.
Mais un des faits fondamentaux du développement de la Physique depuis un
demi-siècle est, on le sait, qu’elle a concentré son attention sur l’étude des phénomènes de l’échelle atomique. Au fur et à mesure qu’une expérimentation raffinée
permettait de pénétrer davantage dans ce domaine subtil et d’y mettre en évidence
des faits étranges et inattendus, les théoriciens s’eforçaient d’étendre à ce domaine
nouveau les idées et les modes de raisonnement qui avaient si bien réussi à plus
grande échelle. Il semble même qu’au début, un peu présomptueux sans doute, ils
n’aient eu aucun doute sur la possibilité d’opérer un tel prolongement. Même, après
1913 à une époque où déjà la découverte des Quanta et l’évidence de leur extrême
importance étaient de nature à inspirer quelque prudence, la plupart des physiciens
légitimement enthousiasmés par le modèle atomique de Bohr, paraissent avoir pris
ce modèle au pied de la lettre si l’on peut dire : ils pensaient, un peu naı̈vement
peut-être, que réellement dans l’atome des électrons ponctuels tournaient autour
d’un noyau positif central sur des trajectoires et avec des lois de mouvement bien
sagement conformes aux règnes traditionnelles de la Mécanique classique. Evidemment ces électrons intra-atomiques se refusaient, on le savait, à décrire des orbites
autres que celles qu’autorisaient les règles de quanta, mais c’était là, croyait-on,
une simple restriction des possibilités prévues par la Mécanique classique qui ne
comportait aucunement la nécessité de réviser ses lois et ses conceptions. Chose
curieuse, M. Bohr est celui qui paraı̂t avoir le premier pressenti qu’il ne fallait
pas accorder une confiance aussi absolue au modèle d’atome qu’il avait lui-même
proposé. Certaines des particularités de ce modèle lui parurent dès l’abord ůdevoir
entraı̂ner une révision complète des conceptions classiques : en particulier, l’existence pour l’atome d’états stationnaires en quelque sorte placés en dehors du temps
et l’impossibilité de décrire les transitions brusques qui font passer l’atome d’un
état stationnaire à un autre lui suggéraient déjà l’idée profonde qu’une description
complète des phénomènes quantiques de l’échelle atomique doit, par certains côtés
du moins, transcender le cadre classique de l’espace et du temps. Tout le développement plus récent des théories quantiques est venu confirmer cette intuition et a
révélé que les conceptions fondamentales de la Physique classique ne sont pas bien
adaptées à la description microscopique des phénomènes de l’échelle atomique.
A vrai dire, il était bien téméraire de penser que des conceptions extraites de
notre expérience sensible seraient complètement et immédiatement utilisables à
une échelle aussi prodigieusement différente. Il était presque évident à priori que
la notion de corpuscule conçue comme la limite abstraite d’un grain de sable ou la
notion de force conçue comme la limite abstraite de l’effort d’un biceps ou de la
tension d’un ressort avait bien peu de chance de représienter quelque chose d’exact
à l’intérieur d’un atome. Mais le fait essentiel et inattendu que le développement
des théories quantiques a mis en lumière, c’est que les notions d’espace et de temps,
41
tout comme celles de corpuscule et de force, ne sont pas, elles non plus, entièrement
adaptées à la description des phénomènes microscopiques.
La notion d’un espace physique à trois dimensions formant le cadre naturel où
se localisent tous les phénomènes physiques, la notion d’un temps formé par la
succession des instants et constituant un continu à une dimension sont des notions
extraites de l’expérience sensible par un processus d’abstraction et de schématisation analogue à celui qui conduit du grain de sable au point matériel ou de l’effort
musculaire à la force. Sans doute, la théorie de la Relativité nous avait déjà appris
que l’espace et le temps ne sont point indépendants et que la notion véritable est
mieux représentée par la fusion de l’espace et du temps en un cadre unique à quatre
dimensions, l’espace-temps, la décomposition de ce cadre unique en espace et en
temps étant relative à chaque observateur. Il n’en reste pas moins que, même avec
ce raffinement ultime de la Physique préquantique, les localisations dans l’espace
et dans le temps, la position et l’instant conservaient pour chaque observateur un
sens parfaitement net. Il n’en est plus de même dans la Physique quantique où le
cadre de l’espace-temps paraı̂t lui-même à l’échelle atomique perdre une partie de
sa valeur. Ce cadre, nous l’avions construit dans notre esprit en partant de l’étude
des phénomènes que nous observons directement autour de nous, des objets qui,
étant à notre échelle, nous sont familiers : c’est à l’aide de certains objets de cette
nature, le mètre et l’horloge, que nous mesurons les « coordonnées » d’espace et
de temps. Mais, en réalitê, les phénomènes que nous observons directement sont
toujours des phénomènes statistiques dont les apparences résultent d’un nombre
immense de phénomènes atomiques élémentaires ; les objets qui nous sont familiers
sont toujours des corps très lourds par rapport aux corpuscules élémentaires de la
matière, des corps ayant une masse si élevée que le quantum d’Action ne compte
plus devant elle. Il se trouve (et toute la Physique classique repose implicitement
sur cette constatation) que le cadre de l’espace-temps construit par notre esprit
pour y loger les phénomènes et les objets à notre échelle se comporte comme s’il
était indépendant des phénomènes et des objets qui viennent y trouver leur place.
Le cadre de l’espace et du temps nous apparaissait donc finalement comme un
cadre idéal indépendant de son contenu et cette indépendance avait fini par sembler si certaine et si naturelle, qu’on en était arrivé à considérer les notions d’espace
et de temps comme des notions innées et a priori.
Aujourd’hui, à la lumière des théories quantiques, il semble qu’il faille entièrement changer d’opinion. A l’échelle très fine des phénomènes atomiques, où la
valeur du quantum d’Action cesse d’être négligeable, la localisation précise d’un
objet dans l’espace et dans la durée ne paraı̂t plus inidépendante de ses propriétés dynamiques et en particulier de sa masse. Si l’on pouvait imaginer (mais en
réalité on ne le peut pas car que seraient ses organes sensoriels ?) un observateur
microscopique poursuivant ses investigations à l’intérieur des systèmes atomiques,
42
CHAPITRE 4. PHILOSOPHIE ET PROGRÈS DE LA PHYSIQUE
les notions d’espace et de temps n’auraient peut-être pour lui aucun sens : tout au
moins, n’auraient-elles pas du tout le même sens que pour nous. Mais nous, humains, qui ne pouvons observer que le reflet dans les phénomènes à grande échelle
de l’activité du monde atomique, nous qui forcément localisons nos observations
dans le cadre de l’espace et du temps, nous avons été amenés tout naturellement
à tenter de développer nos théories des phénomènes atomiques et quantiques dans
ce cadre qui nous est si familier et dont on ne conçoit guère que nous puissions
nous passer complètement. A vouloir faire ainsi entrer les phénomènes élémentaires
dans ce cadre de l’espace et du temps qui n’est sans doute vraiment adapté qu’à
la d’escription statistique moyenne d’un nombre énorme de ces phénomènes, nous
sommes venus nous heurter aux fameuses « relations d’incertitude » de M. Heisenberg : comme des bornes indicatrices, elles viennent marquer la limite de validité
des conceptions anciennes auxquelles nous étions accoutumés, elles viennent nous
empêcher de maintenir entre le cadre de l’espace-temps et les propriétés dyamiques
des entités physiques une d’incertitude qui naguère nous paraissait évidente. La véritable Physique quantique ferait sans doute une Physique qui, renonçant aux idées
de position, d’instant, d’objet et là tout ce qui constitue notre intuition usuelle,
partirait de notions et d’hypothèses purement quantiques et, s’élevant ensuite aux
phénomènes statistiques de l’échelle macroscopique, nous montrerait comment de
la réalité quantique de l’échelle atomique peut émerger par le jeu des moyennes le
cadre de l’espace-temps valable à l’échelle humaine. Mais cette physique-là n’est
sans doute pas près de se constituer et elle serait si éloignée de notre intuition
sensible qu’on ne voit pas bien comment sa construction pourrait être abordée
aujourd’hui avec quelque chance de succès.
∴
L’ébranlement par les théories nouvelles du cadre spatiotemporel utilisé par la
Physique classique a entraı̂né nécessairement une « crise du déterminisme ». Comment en effet pourrait-on donner des phénomènes de la nature un dessin rigide
quand la toile sur laquelle il faut tracer le dessin a elle-même perdu sa rigidité ?
Dans l’ancienne Physique mathématiquement, on se figurait le cadre de l’espacetemps comme donné à priori, en quelque sorte antérieurement aux phénomènes et
indépendamment d’eux : dans ce cadre, venaient se placer les entités physiques et
leur évolution était considérée comme rigoureusement déterminée, à partir d’un
état initial supposé connu, par des équations différentielles ou aux dérivées partielles. Tel était le point de vue de la Physique préquantique : il réalisait, en l’entendant au sens large, la description par figures et par mouvements qu’avait souhaitée
Descartes.
43
Tout autre est le point de vue actuel de la théorie quantique. Les relations
d’incertitude s’opposent à ce que nous puissions jamais connaı̂tre à la fois la figure
et le mouvement. Plus nos observations nous ont permis de préciser exactement la
configuration d’un système atomique, plus par là-même son état dynamique exact
nous échappe et inversement. Si nous sommes parvenus à localiser exactement
les divers éléments d’un système, nous aurons seulement acquis une connaissance
statique instantanée de ce système et nous serons dans l’incertitude complète au
sujet des tendances dynamiques qui l’animent. Si au contraire nous parvenons à
préciser l’aspect dynamique d’un système, nous serons dans l’incertitude quant à
la localisation de ses parties : nous pourrons bien alors énoncer des relations à
caractère causal telles que la conservation de l’énergie ou celle de la quantité de
mouvement, niais ces relations seront sans support spatiotemporel et, suivant une
expression de M. Bohr, elles transcenderont le cadre de l’espace-temps. On pourra
bien encore trouver une évolution qui peut se prévoir rigoureusement à partir
d’un état initial, celle de la fonction d’onde ψ du système ; mais cette évolution
détermine seulement comment varie la probabilité des différents résultats possibles
d’une observation ultérieure et seule une telle observation effectivement faite peut
nous apporter un renseignement nouveau et généralement impossible à prévoir sur
l’état du système. Ainsi, il n’y a plus de véritable déterminisme causal au sens
ancien du mot.
Pour sauver le déterminisme, on pourrait penser à invoquer l’existence de paramètres cachés : les incertitudes qui nous empêchent d’établir un déterminisme
causal des phénomènes à l’échelle quantique seraient alors dues seulement à l’ignorance où nous sommes de la valeur exacte de ces paramètres cachés. C’est un fait
très curieux qu’il soit possible de démontrer l’impossibilité d’accepter une telle
échappatoire. La forme même des incertitudes quantiques s’oppose en effet à ce
que l’on puisse attribuer leur origine à notre ignorance des valeurs de certains
paramètres cachés. La raison profonde nous paraı̂t en être que les incertitudes
quantiques dérivant de l’existence même du quantum d’Action, expriment en dernière analyse l’insuffisance de la conception d’un espace-temps indépendant des
phénomènes dynamiques qui s’y déroulent. La liaison entre l’aspect géométrique
et l’aspect dynamique des entités physiques élémentaires a le caractère d’une limitation réciproque d’un genre tout à fait nouveau : elle est implicitement contenue dans la notion de quantum d’Action et s’exprime d’une façon précise par
l’ensemble du formalisme mathématique de la nouvelle Mécanique ondulatoire et
quantique et en particulier par les distributions de probabilités que fournit cette
théorie nouvelle. C’est en étudiant la forme de ces distributions de probabilités que
l’on peut démontrer l’impossibilité d’interpréter les incertitudes quantiques dans
le cadre des idées classiques par quelque artifice comme l’hypothèse de l’existence
de paramètres cachés. Ces incertitudes paraissent donc bien être irréductibles et
44
CHAPITRE 4. PHILOSOPHIE ET PROGRÈS DE LA PHYSIQUE
l’indéterminisme qui en résulte ne paraı̂t pas devoir être levé par le progrès futur
de nos connaissances.
∴
Terminons Par quelques mots sur l’importante question de l’indiscernabilité des
particules en Mécanique quantique. On dit souvent que les nouvelles théories ont
abouti à enlever toute individualité aux particules de l’échelle atomique. Mais que
devons-nous entendre par « individualité » ? Bien évidemment pas l’individualité
au sens psychologique que personne n’a songé à attribuer aux particules. Dans la
vie courante, une petite parcelle de matière, un grain de sable, par exemple, c’est
quelque chose qui a une couleur, une forme, des détails de structure et comme ces
caractéristiques varient d’un grain à un autre, chaque grain possède ainsi une manière d’individualité. Mais quand schématisant l’image du grain de sable fourni par
l’observation courante, notre esprit en est arrivé au concept abstrait et en quelque
sorte limite de corpuscule ponctuel ou ide point matériel, ces particularités individuelles ont perdu toute signification ou du moins ont dû être conçues comme
rigoureusement identiques pour des corpuscules de même nature. En quoi, alors,
peut encore consister l’individualité de ces corpuscules ? En ceci que l’on peut les
suivre au cours du temps en suivant leurs positions successives, ce qui permet de
leur attribuer une numérotation ayant un caractère permanent ou, si l’on préfère,
de leur donner là chacun un « nom ». C’est donc finalement leur localisation ponctuelle à chaque instant, et elle seulement, qui permet d’individualiser constamment
ces particules. On conçoit alors très clairement combien va être funeste à la notion
d’individualité des particules à l’échelle atomique le fait que les théories quantiques, en ébranlant le cadre Classique de l’espace et du temps, ne permettent
pas d’attribuer constamment aux particules une localisation précise. Lorsque chevaucheront les zones de localisation possible de deux particules de même espèce,
comment pourra-t-on suivre leur individualité ? On ne le pourra plus et, le fil étant
rompu qui pouvait permettre de suivre leur existence, il sera désormais impossible
de les numéroter et de leur donner un nom individuel. Et c’est ainsi que l’incertitude quantique entraı̂ne l’indiscernabilité et l’absence d’individualité. Inversement,
si l’on admet l’impossibilité de suivre au cours du temps l’individualité des particules, on peut en déduire l’existence d’incertitudes sans pouvoir d’ailleurs préciser
l’étendue de ces incertitudes et leur fixer la valeur que la théorie quantique leur
attribue en fonction de la constante h de Planck (Paulette Février).
Les diverses questions que nous venons de passer rapidement en revue apportent
une remarquable preuve des répercussions qu’ont eues les progrès récents de la
Physique sur l’ensemble des conceptions de la philosophie naturelle.
Chapitre 5
De l’invention dans les sciences
théoriques
Au premier abord, il peut sembler qu’il y ait une différence fondamentale entre
la découverte d’un fait expérimental, dans le monde physico-chimique par exemple,
et l’invention d’une théorie nouvelle dans le domaine des mathématiques pures ou
dans celui de la philosophie naturelle. Dans le premier cas, en effet, avant la découverte le fait à découvrir a beau être plus ou moins dissimulé sous le rideau des
apparences, il est cependant là déjà et sa découverte n’est que la mise au jour d’un
trésor caché. Dans l’invention théorique, il semble qu’il y ait vraiment création
par la force de l’esprit de quelque chose d’entièrement nouveau, construction d’un
édifice intellectuel qui ne préexistait d’aucune façon. Les mots même de « découverte » et « d’invention » qui viennent tout naturellement sur les lèvres quand on
veut distinguer l’un et l’autre cas, semblent faits pour marquer la différence qui
les sépare. La découverte, c’est l’acte de soulever le voile qui cache la réalité inconnue mais préexistante : l’invention, c’est essentiellement la création par la force
de l’imagination à tel point que le terme peut même être pris en mauvaise part et
signifier création par l’imagination de chimères et de mensonges.
Mais, si tranchée que paraisse à première vue la distinction entre la découverte
expérimentale et l’invention théorique, une étude plus attentive ne tarde pas à
l’atténuer considérablement : car elle montre que la découverte des faits expérimentaux, du moins dans la science actuelle, est à bien des égards une invention
tandis que l’invention théorique est en quelque mesure une découverte. C’est là ce
que je voudrais commencer par expliquer en quelques mots.
Dans la science d’aujourd’hui qui a depuis longtemps dépassé le stade de la
simple observation des phénomènes couramment visibles autour de nous, la découverte expérimentale est constamment guidée par des conceptions théoriques. Si
ces conceptions ne sont pas toujours en état de nous faire prévoir exactement les
phénomènes à découvrir, ce sont elles cependant qui indiquent à l’expérimentateur
45
46
CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES
dans quelle voie il doit orienter ses recherches et comment il doit en interpréter les
résultats. La plupart du temps, ce qui fait la valeur d’un résultat expérimentale
c’est la manière dont nous l’interprétons. Quel intérêt aurait en lui-même le fait
que dans une atmosphère sursaturée d’humidité nous apercevions dans certaines
circonstances un alignement de gouttelettes de vapeur condensée dessinant une
courbe ? Bien peu évidemment si nous nous bornions à la constatation du phénomène brut. Mais si nous interprétons la courbe dessinée par les gouttelettes de
vapeur comme manifestant à nos yeux le trajet suivi par une particule à travers
le gaz et si la théorie nous permet de déduire d’après la forme de la trajectoire
la charge électrique de la particule ou telle autre indication sur sa nature, ce qui
n’était qu’un fait en apparence quelconque peut devenir un renseignement d’une
grande valeur scientifique et servir de base à quelque importante découverte. En
fait, c’est par des observations de ce genre faites dans des chambres à détente de
Wilson qu’ont été établies maintes propriétés importantes de particules antérieurement connues telles qu’électrons et protons, puis qu’a été découverte l’existence
de particules jusqu’alors ignorées telles que neutrons ou électrons positifs.
Les conceptions théoriques, où l’imagination scientifique intervient toujours
plus ou moins sont donc indispensables pour l’interprétation des résultats de l’expérience, mais leur rôle ne se borne pas là, car il est évidemment nécessaire que le
dispositif expérimental ait été combiné de façon à pouvoir fournir les apparences
dont on pense pouvoir tirer par une judicieuse interprétation de précieux renseignements. L’expérimentateur doit donc, avant d’entreprendre son travail se livrer
à un effort d’imagination où, combinant les prévisions suggérées par la théorie et
les ressources fournies par la technique des laboratoires, il fait le plan de son expérience et invente ou perfectionne la méthode qu’il va employer. Et voilà pourquoi
la découverte expérimentale, au moins dans la science affinée de nos jours, a pour
condition l’activité créatrice de notre pensée et possède par là-même les caractères
d’une invention. Faisant nécessairement intervenir dans sa préparation et dans son
interprétation l’imagination théorique guidée et contrôlée par la raison, elle est loin
d’être une passive constatation et porte la marque de notre activité spirituelle.
Mais, remarque peut-être plus surprenante, si la découverte expérimentale est
en un sens une invention, par contre la création et l’invention dans le domaine de la
science théorique possèdent à certains égards les caractères de la découverte. Pour
mettre en lumière cette idée un peu subtile, il nous est nécessaire d’analyser la façon
dont s’opère la création théorique et les stades successifs que traverse la pensée du
théoricien inventeur. Chaque fois que l’on aborde l’étude d’un sujet, on se trouve
nécessairement en présence d’un certain « état de la question ». Certains faits sont
bien connus, certaines interprétations bien établies, certaines idées généralement
admises, certaines difficultés enfin ou franchement reconnues ou, assez souvent,
habilement dissimulées. Or parfois il arrive qu’en étudiant un certain domaine de
47
connaissances scientifiques, le théoricien inventeur éprouve une sorte de malaise qui
va progressivement en croissant : il a le sentiment peu à peu de plus en plus net qu’il
manque dans nos interprétations un élément essentiel, qu’une idée fondamentale a
été méconnue sans laquelle une véritable compréhension des faits est impossible.
Les difficultés rencontrées par les théories antérieures lui apparaissent alors non
plus comme des anomalies qu’une comparaison plus approfondie avec l’ensemble
des conceptions reçues fera disparaı̂tre mais au contraire comme des symptômes
éclatants de l’insuffisance de ces conceptions. A son attention dès lors éveillée,
s’impose une foule de petits faits épars et sans liens apparents entre lesquels il
soupçonne maintenant une parenté cachée dont une théorie fondée sur des idées
entièrement nouvelles devrait pouvoir rendre compte. Tel le géologue parcourant
du regard un vaste contrée formée d’alluvions récentes et y voyant émerger çà et
là quelques pointements de granit soupçonne soudain que ces ı̂lots épars sont les
affleurements à la surface d’une couche profonde de terrains anciens qui forme le
socle de toute la région et en explique la structure. Ainsi les petits faits qui ne
semblaient qu’accidents ou anomalies apparaissent tout à coup comme les signes
extérieurs d’une unité fondamentale jusqu’alors méconnue.
Prenons un exemple dans la Physique théorique. Quel lien un esprit superficiel
eût-il pu apercevoir entre les faits que la distribution spectrale du rayonnement
d’équilibre thermique n’obéit plus pour les basses températures ou les hautes fréquences aux prévisions des théories classiques, que des écarts par rapport à la loi
de Dulong et Petit se manifestent à la température ordinaire pour les corps solides
très durs comme le diamant, qu’il existe une limite supérieure très nettement marquée pour le spectre continu émis par l’anti-cathode d’un tube à rayons X alimenté
sous tension constante ou enfin qu’une relation linéaire relie l’énergie cinétique des
électrons s’échappant d’une substance frappée par une radiation monochromatique
à la fréquence de cette radiation ? Et cependant nous savons aujourd’hui que tous
ces faits sans rapport apparent sont, comme bien d’autres encore, des aspects d’une
seule grande réalité autrefois ignorée : l’existence du quantum d’Action. Supposons
donc, pour en revenir à notre sujet, que notre théoricien inventeur ait, grâce à un
flair particulier, deviné qu’il y avait dans tel domaine un grand progrès à réaliser
et qu’il soit ensuite parvenu à trouver les idées essentielles qui vont permettre ce
progrès. Nous reviendrons tout à l’heure sur les circonstances où s’opère le plus
souvent cet acte d’invention, mais pour l’instant nous le supposons effectué. Il
arrive alors une chose fort remarquable : l’inventeur a tout à coup le sentiment
très net que les conceptions auxquelles il vient de parvenir, dans la mesure où
elles sont exactes, existaient déjà avant d’avoir jamais été pensées par le cerveau
humain. Les difficultés qui l’arrêtaient, les anomalies qui l’intriguaient n’étaient,
il s’en aperçoit maintenant que le signe d’une vérité cachée, mais déjà existante.
Tout s’est passé comme si en inventant des conceptions nouvelles il n’avait fait
48
CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES
que déchirer un voile, comme si ces conceptions enfin atteintes existaient déjà,
éternelles et immuables, dans quelque monde Platonicien des Idées pures. Le fait
même de les avoir cherchées lui paraı̂t s’expliquer par une sorte de pressentiment
de leur existence, pressentiment qui pourrait évoquer la phrase mystique : « Vous
ne me chercheriez pas si vous ne m’aviez pas déjà trouvé. » Et voilà pourquoi je
disais qu’en un certain sens, l’invention dans la science théorique a le caractère
d’une découverte, mais c’est une découverte dans le monde de l’esprit.
∴
Abandonnant maintenant cette comparaison entre découverte et invention,
nous allons examiner de plus près comment apparaissent à l’esprit du théoricien
inventeur les conceptions nouvelles et originales. Nous l’avons dit plus haut, il y a
d’abord une sorte de période d’incubation où progressivement, en approfondissant
l’état de la question étudiée, on se rend comptée des difficultés à lever, des lacunes
à combler et aussi des analogies à expliquer, des parentés réelles ou apparentes à
élucider. Peu à peu, et en grande partie dans les profondeurs du subconscient, se
forment les idées directrices et s’organisent les courants de pensée qui vont orienter le travail de création. Puis soudain, généralement avec une grande brusquerie,
se produit une sorte de cristallisation : l’esprit du chercheur aperçoit en un instant, avec une grande netteté et d’une manière dès lors parfaitement consciente, les
grandes lignes des conceptions nouvelles qui s’étaient formées obscurément en lui et
il acquiert d’un seul coup l’absolue certitude que la mise en couvre de ces nouvelles
conceptions va permettre de résoudre la plupart des problèmes posés et d’éclairer
toute la question en mettant bien en lumière des analogies et des harmonies ignorées jusque-là. Bien souvent cette étape essentielle de la découverte théorique ne se
produit point pendant une période de travail. Certes c’est en travaillant à son bureau ou à son tableau noir que le savant théoricien peut scruter à fond les questions
qui l’intéressent et en étudier minutieusement les divers aspects, mais il semble que
la tension nerveuse provoquée chez lui par cet effort tend plutôt à empêcher cette
réorganisation spontanée des idées, cette sorte de tassement psychologique, dont
jaillit tout à coup la lumière. C’est plutôt dans une période de repos ou de détente,
en se promenant, par exemple, que l’on aperçoit soudain l’idée vainement cherchée
dans l’ardeur de l’étude : on l’avait inutilement poursuivie sans pouvoir l’atteindre
pendant de longues heures et la voilà qui, sortant du subconscient où elle s’est
lentement formée, vient spontanément a vous au moment où on ne la cherchait
plus. Ce fait singulier a été plus d’une fois, signalé par des savants illustres : Henri
Poincaré notamment, dans son article sur l’invention mathématique (quŠon trouve
49
reproduit dans Science et Méthode) en a donné de curieux exemples tirés de son
expérience personnelle.
Il ne faudrait évidemment pas en conclure, pour la plus grande joie des paresseux, qu’il est bien inutile de travailler, que les découvertes viennent d’elles-mêmes
et que pour les faire il suffit d’aller se promener. Si souvent le fruit de notre effort s’offre à nous pendant une période de repos ou de détente, c’est qu’il a été
longuement mûri par l’étude et la méditation.
∴
Continuons notre analyse du développement de l’invention théorique. Nous
supposons que le grand pas a été fait, que les principes nouveaux dont la lumière
va jaillir ont été clairement aperçus par le théoricien novateur. Malgré la joie que
cette découverte lui procure, il s’en faut qu’il soit alors au bout de ses peines. Il lui
faut maintenant tirer de ces principes nouveaux tout ce qu’ils peuvent fournir : il
lui faut développer les raisonnements et dévider les formules par lesquels s’exprime
le contenu, souvent presque inépuisable, de l’idée directrice. Il lui faut patiemment
comparer les conséquences déduites des raisonnements et les prévisions extraites
des formules avec l’ensemble des faits réels. Labeur ardu, parfois même ingrat, où
l’on rencontre mille petites difficultés de détail, où l’on doit éviter maints pièges,
où l’on doit vingt fois sur le métier remettre son ouvrage pour le polir et le repolir
sans cesse. Au cours de ce travail, le chercheur scrupuleux se fait à lui-même des
objections, les examine, les classe, soit comme peu importantes, soit au contraire
comme sérieuses. Peu à peu, tout en vérifiant et en précisant ses idées nouvelles, il
en aperçoit aussi les limites ; car il n’est pas de grande offensive victorieuse de la
science qui, après avoir annexé de vastes territoires, ne vienne tôt ou tard se heurter
aux « positions de repli » de l’inconnu. Aucune théorie, si fructueuse soit-elle, ne
peut tout expliquer : il reste toujours un certain nombre de faits incompréhensibles
ou troublants pour nous avertir qu’au-delà des conquêtes nouvelles il y a encore
bien d’autres terres à explorer.
Et puis, plus la science progresse, plus ses théories doivent entamer des couches
profondes de la réalité : il en résulte que nous sommes forcés d’introduire dans nos
théories des conceptions de plus en plus éloignées de celles que nous suggérait
l’expérience vulgaire. Alors, tandis que certaines idées radicalement nouvelles nous
permettent, nous le constatons d’expliquer des faits naguère incompréhensibles, ce
sont ces idées de base elles-mêmes que souvent nous ne sommes plus sûrs de bien
comprendre et de maı̂triser dans toute leur étendue. C’est là un point intéressant
qu’il me paraı̂t utile d’illustrer par quelques exemples.
50
CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES
Quand la Physique de la fin du XIXe siècle a découvert l’électron, bien des
phénomènes ont pu être expliqués grâce à l’existence et aux propriétés de ce corpuscule élémentaire : on sait en particulier quels immenses services a rendus la
théorie électronique de Lorentz. Mais si l’électron nous a servi à comprendre beaucoup de choses, nous n’avons jamais bien compris l’électron lui-même. Comment en
effet cette petite boule d’électricité d’un seul signe n’explose-t-elle pas sous l’action
des répulsions électriques mutuelles de ses parties ? Quelle peut être l’origine de
cette mystérieuse pression imaginée par Henri Poincaré, qui assurerait sa stabilité ?
Si l’électron est ponctuel, comment son énergie interne n’est-elle pas infinie ? Et
s’il est étendu, comment nous figurer sa structure interne, car ayant expliqué l’électricité par l’électron, nous ne pouvons plus sans cercle vicieux expliquer l’électron
par l’électricité ? Telles sont les questions que la Physique au temps de Lorentz a
dû laisser sans réponse et qui le sont encore à l’heure actuelle où elles se posent
d’ailleurs un peu différemment.
Passons à un autre exemple. Tout à l’heure, nous rappelions comment la merveilleuse hypothèse introduite par Planck, celle de l’existence du Quantum d’Action, nous avait fait comprendre la véritable nature d’un grand nombre de phénomènes inexpliqués et montré leur parenté jusqu’alors cachée. Mais, ici encore, ce
quantum d’Action dont la découverte nous a fait comprendre tant de faits mystérieux, nous ne le comprenons guère. Son existence exprime une solidarité entre
l’aspect spatio-temporel des phénomènes et leur aspect dynamique, solidarité qui
non seulement était ignorée de la science classique, mais qui aussi, il faut bien
lŠavouer, est restée à peu près lettre close pour notre raison. Nous ne voyons aucunement, même aujourd’hui pourquoi l’énergie d’un mouvement et sa durée, la
quantité de mouvement d’un mobile et l’extension spatiale où il évolue sont des
choses si intimement liées que nous n’avons pas le droit de les dissocier et de les
considérer isolément. Nous sommes sûrs cependant qu’il en est bien ainsi dans la
réalité, nous savons traduire ces circonstances dans nos théories, mais franchement
nous ne comprenons pas bien ce que cela veut dire.
Plus récemment encore, le développement de la Mécanique ondulatoire nous
offre une illustration nouvelle du même fait. En posant à la base de ses explications le dualisme des ondes et des corpuscules, elle nous a ouvert de vastes horizons :
elle nous a révélé l’analogie profonde de phénomènes qui paraissaient entièrement
différents comme la progression des corpuscules et la propagation des ondes ; elle
nous a permis de prévoir et d’interpréter des faits tout à fait inattendus comme la
diffraction des électrons par les cristaux : elle a jeté un flot de lumière sur la signification des états quantifiés des édifices atomiques en nous montrant qu’ils peuvent
s’interpréter comme analogues aux états stationnaires d’un système vibrant, en
un mot elle a entièrement renouvelé la Physique atomique. Et cependant, ici de
nouveau, l’idée de base, si fructueuse et si bien vérifiée qu’elle ait été, reste par
51
bien des côtés enveloppée d’une certaine obscurité. Le dualisme des ondes et des
corpuscules n’est plus douteux : nous savons l’exprimer en formules précises où
apparaı̂t le quantum d’Action et de ces formules nous tirons d’admirables conséquences. Mais les images que nous nous faisons des deux termes de ce dualisme,
de l’onde et du corpuscule, sont devenues beaucoup plus floues que par le passé.
Le corpuscule n’est plus un petit objet bien défini et son existence ne se manifeste
plus pour nous d’après la nouvelle théorie que par le caractère discontinu et localisé de ses manifestations successives. Quant à l’onde, elle n’est plus en Mécanique
ondulatoire la vibration de quelque milieu plus ou moins subtil : elle a revêtu un
caractère symbolique et mathématique de plus en plus accentué. Ainsi chaque synthèse nouvelle, en nous faisant pénétrer plus avant dans les harmonies du monde
physique, nous apprend aussi combien les éléments mêmes de nos interprétations
dépassent notre intuition et combien nous parvenons plus aisément à établir des
relations entre ces éléments qu’à en comprendre entièrement la nature.
Ces quelques exemples permettent d’apercevoir aisément pourquoi, après la
réalisation d’une découverte théorique, à l’immense joie de mieux connaı̂tre se mêle
toujours chez son auteur un léger sentiment d’amertume : celui de constater enfin
de compte le caractère nécessairement fragmentaire et limité du progrès réalisé.
Celui qui a créé une théorie nouvelle est aussi le plus souvent celui qui en aperçoit
le mieux les lacunes et les obscurités et en connaı̂t le mieux les bornes. C’est
pourquoi parfois des disciples imprudents ou aveuglés par un enthousiasme sans
discernement transforment en dogme rigide et définitif ce qui, à l’esprit plus critique
du maı̂tre, paraissait seulement un des chaı̂nons incomplets et provisoires dans la
chaı̂ne sans fin des tentatives et des approximations successives réalisées par la
pensée scientifique au cours de sa marche en avant.
Peut-être vaut-il mieux d’ailleurs que la joie de découvrir ne soit jamais complète, que le léger sentiment d’amertume dont je parlais tout à l’heure vienne
toujours nous rappeler que l’effort doit succéder à l’effort. Voir après une importante progression se dresser devant nous de nouveaux obstacles ne doit pas après
tout nous décourager, car si l’obstacle représente pour nous un nouvel et pénible
assaut à tenter, il représente aussi la possibilité de victoires futures.
∴
Je ne puis terminer cet exposé sans dire encore quelques mots du rôle que joue
souvent le sentiment esthétique dans l’invention des théories. Le but des théories
scientifiques est d’interpréter les phénomènes et de traduire leurs relations mutuelles. Au premier abord on ne voit pas bien comment le sentiment esthétique
52
CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES
peut intervenir en pareille matière. Néanmoins c’est un fait curieux, mais indéniable, que ce sentiment sert souvent de guide dans l’élaboration des théories de la
philosophie naturelle. Une doctrine qui parvient d’un seul coup à réaliser une vaste
synthèse en montrant l’analogie profonde de phénomènes en apparence étrangers
les uns aux autres produit incontestablement sur l’esprit du théoricien une impression de beauté et l’incline à croire qu’elle renferme une grande part de vérité. Il ne
s’agit pas ici de la fameuse « économie de pensée » dont on a, à mon avis, un peu
exagéré l’importance. Assurément une large théorie synthétique, en renversant les
barrières qui séparent des régions différentes de nos connaissances et en rattachant
toute une poussière de faits à une même idée centrale, peut réaliser Une économie
de pensée, mais ce point de vue plutôt pratique n’a rien à voir avec le sentiment
artistique qui est essentiellement désintéressé. De plus, nombreuses sont aujourd’hui les théories de la Philosophie naturelle qui par leur caractère élevé et leur
complexité ne constituent nullement des économies de pensée, mais entraı̂nent au
contraire de grandes dépenses de pensée et n’en sont pas moins des œuvres admirables. Leur beauté ne vient pas de ce qu’elles sont simples ou compendieuses,
mais de ce qu’elles nous révèlent une harmonie cachée derrière la diversité des apparences, de ce qu’elles nous permettent de ramener la multiplicité des phénomènes
à une sorte d’unité organique.
Il y aurait ici matière à de nombreuses comparaisons avec les œuvres d’art
au sens ordinaire du mot. Ce qui fait la beauté d’une œuvre d’art, ce n’est pas
la simplicité de ses parties, c’est plutôt une sorte d’harmonie globale qui donne
à l’ensemble un aspect d’unité et d’homogénéité malgré la complication parfois
très grande des détails. Les monuments du style gothique ou du style arabe, par
exemple, si l’on examine les finesses de leur structure, présentent souvent une extrême complexité, mais de leur ensemble se dégage une impression d’unité organisée
qui fait apparaı̂tre l’œuvre entière avec ses innombrables aspects locaux comme un
tout solidaire et indivisible, comme une sorte de condensation sous forme matérielle d’un seul élan de la pensée. La beauté des théorbes scientifiques nous paraı̂t
essentiellement de la même nature : elle s’impose quand, dominant sans cesse les
raisonnements et les calculs, se retrouve partout une même idée centrale qui unifie
et vivifie tout le corps de la doctrine.
Mais, dans cette question de la beauté propre aux théories, le point le plus curieux me paraı̂t être le suivant : comment peut-il se faire que la beauté ou l’élégance
d’une théorie soit souvent un signe de sa valeur et de son exactitude ? Il me paraı̂t,
en effet, certain que le travail du théoricien est très souvent orienté et guidé par le
sentiment esthétique dont nous parlons. Certes on ne saurait prétendre qu’une belle
théorie est nécessairement vraie et ce serait s’exposer à de graves mécomptes que
d’adopter systématiquement un tel critérium pour juger les théories. Néanmoins
nous avons une certaine tendance instinctive à admettre qu’une théorie dont la
53
beauté nous frappe a des chances d’être vraie et il semble bien que très souvent
cette intuition ne soit pas trompeuse. Est-ce là une illusion de notre esprit qui
involontairement projette ses propres tendances sur les explications qu’il cherche à
construire des phénomènes naturels ? Ou faut-il y voir la preuve de quelque mystérieuse concordance entre notre sentiment esthétique et la nature profonde des
choses justifiant l’adage philosophique que le Beau est la splendeur du Vrai ? Je ne
veux point tenter de résoudre ces questions, mais je ferai à ce sujet une remarque.
Toute l’œuvre de la science, tout au moins de la science théorique, de celle qui ne se
borne pas à ]a simple observation des faits, mais cherche à les interpréter - repose
sur le postulat suivant : « Il est possible d’obtenir des interprétations, au moins
partielles, de la réalité physique en s’appuyant sur les règles de notre raison ».
Or ce postulat, que l’on admet généralement sans discussion, est au fond d’une
hardiesse extrême. En affirmant ainsi qu’il existe une certaine concordance entre
notre raison et les choses, on s’avance peut-être presque autant qu’en admettant
la valeur du sentiment esthétique comme guide sur le chemin de la vérité. Et il y a
beaucoup plus de mystère qu’on ne le croit souvent dans le simple fait qu’un peu
de science est possible.
Mais ce serait trop s’avancer pour le physicien que je suis de se mettre à disserter
sur les rapports du Vrai et du Beau sans compter que, pour compléter une trinité
bien connue de la Philosophie classique, il faudrait y adjoindre le Bien et ceci
risquerait vraiment de m’entraı̂ner singulièrement loin de mon sujet. Je m’arrêterai
donc ici. Je ne sais si j’ai traité mon sujet comme mon lecteur eût souhaité qu’il
fût traité. Si j’ai été inférieur à ma tâche, il m’en excusera en songeant que j’ai
plus l’habitude de chercher des traı̂ner scientifiques que d’étudier comment on les
cherche.
54
CHAPITRE 5. INVENTION EN SCIENCES THÉORIQUES
Chapitre 6
Théories abstraites et
représentations concrètes dans la
physique moderne
Depuis l’époque où, grâce aux progrès de l’Analyse mathématique, les théories
de la Physique ont pu prendre la forme de doctrines mathématiques cohérentes,
deux tendances se sont constamment heurtées au cours de la construction et du
renouvellement de ces théories physiques. D’une part, les physiciens à esprit intuitif ont sans cesse cherché à placer à la base des théories certaines représentations
concrètes construites à l’aide d’images empruntées à la connaissance que nos sens
nous procurent des objets matériels dont nous sommes entourés à notre échelle
dans la vie courante. C’est ainsi que les protagonistes de la théorie atomique de la
matière n’ont pas hésité à se représenter les atomes, et même ensuite les électrons,
comme de petites billes douées de forme, de masse, de dureté, etc. D’autre part,
certains autres physiciens à l’esprit plus abstrait se sont méfiés de ce genre de représentations : ils ont pensé que l’apport essentiel d’une théorie physique satisfaisante,
ce ne sont pas les images plus ou moins intuitives, souvent plus ou moins naı̈ves, qui
ont pu aider les fondateurs de la théorie en faisant participer leur imagination au
travail de leur raison ; ce qui est essentiel à leurs yeux, c’est l’ensemble des relations
mathématiques obtenues par la théorie, relations qui permettent de relier d’une
façon exacte les faits physiques observables les uns aux autres, de prévoir correctement les phénomènes qui pourront être observés à partir de ceux qui ont déjà
été observés. Pour ces physiciens, le modèle parfait d’une théorie physique, c’est
la thermodynamique classique où, une fois admis les deux principes de la conservation de l’énergie et de l’augmentation de l’entropie, toutes les conséquences s’en
obtiennent par voie purement déductive et conduisent à d’innombrables formules
susceptibles de représenter et de faire prévoir un nombre énorme de phénomènes.
Si les physiciens des deux écoles que nous venons de distinguer sont prati55
56
CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE
quement d’accord dans un très grand nombre de cas sur la manière d’utiliser les
théories, l’opposition de leurs points de vue n’en est pas moins radicale et mérite
d’être analysée.
Pour les adeptes de la première école, c’est la représentation concrète placée
à la base d’une théorie qui est la chose essentielle : c’est elle qui révèle le sens
véritable des formules, c’est elle qui nous fait pénétrer dans la réalité physique
profonde. Si des doctrines comme la Thermodynamique classique ont conservé une
forme purement abstraite sans placer à leur base de représentation, c’est qu’elles
n’ont pas su trouver les images qui représenteraient la véritable nature physique
des phénomènes et qu’elles ont dû par suite se contenter de rester « à la surface des
choses », se borner a traduire sous forme analytique les relations qui existent entre
les faits observables dans leur succession. Mais la thermodynamique n’a trouvé sa
véritable interprétation que le jour où les Boltzmann et les Gibbs, adoptant l’hypothèse atomique, ont pu rendre compte des lois thermodynamiques en appliquant
aux éléments innombrables dont est fait tout corps matériel pondérable les lois de la
Mécanique statistique. Ils nous ont appris que, si nous savions voir les mouvements
des éléments matériels à très petite échelle, ces mouvements nous apparaı̂traient
comme réglés par les lois rigoureuses de la Mécanique classique, mais comme nos
sens grossiers nous permettent seulement de percevoir le résultat global de tous
ces mouvements élémentaires, c’est en calculant le résultat statistique moyen de
tous les déterminismes élémentaires que nous pouvons obtenir les lois réellement
observables à notre échelle ; et en procédant ainsi, on voit, ô merveille ! se dégager
de la confusion inextricable des mouvements particulaires les lois simples et générales de la Thermodynamique. Les lois thermodynamiques étaient connues, on
pouvait en montrer par voie déductive la cohérence logique et vérifier l’exactitude
des prévisions obtenues par le contrôle de l’expérience ; mais la véritable nature de
toutes ces lois, leur origine et leur raison d’être ne sont apparues que le jour où la
Mécanique statistique, jointe aux conceptions atomiques, est parvenue à montrer
comment elles résultent par le jeu des lois du hasard de l’incoordination des mouvements moléculaires. Ce jour-là, le voile s’est déchiré et nous avons enfin aperçu
avec soulagement la réalité physique qui se cachait derrière les formes si abstraites
d’apparence de la Thermodynamique classique. Tel est, exposé sur cet exemple
particulier, le point de vue des physiciens de la première école.
Tout autre est celui de leurs antagonistes. Pour eux, le lien intellectuel établi
sous forme de relations mathématiques entre les phénomènes observables est le seul
résultat d’une théorie qui soit vraiment profond et durable. Assurément les représentations concrètes peuvent aider les chercheurs à développer leurs théories parce
que l’infirmité de notre raison nous oblige souvent à passer par l’intermédiaire des
images pour pouvoir nous élever ensuite jusqu’à l’abstraction pure, mais ces représentations sont ce qu’il y a d’imparfait et de transitoire dans la théorie qui, si elle
57
est vraiment bonne, doit pouvoir survivre à ces représentations, s’adapter ensuite
au besoin à d’autres représentations pour finir, enfin libérée des tares de l’anthropomorphisme, par n’être plus qu’une pure forme abstraite. Comment ne pas penser
ici à donner comme exemple les formes successives de la théorie ondulatoire de la
Lumière ? Dans une œuvre géniale inspirée par les idées bien antérieures de Christian Huyghens et par la découverte plus récente des phénomènes d’interférences et
de diffraction, Augustin Fresnel interprète la lumière comme étant une vibration
qui se propage par ondes transversales dans un milieu élastique très subtil, l’éther
lumineux, dont tous les corps seraient imprégnés. Puis développant ces idées, Fresnel et ses continuateurs expriment cette théorie de la lumière par des formules
qui représentent et permettent de prévoir très exactement un nombre énorme de
phénomènes optiques. Dès lors, remarquent les physiciens de l’école abstraite, quel
que soit le sort réservé par l’avenir à l’éther lumineux de Fresnel et aux représentations concrètes qui en dérivent, les formules de la théorie ondulatoire devront
subsister puisqu’elles représentent les faits : on pourra varier leur interprétation en
termes de représentations concrètes, mais leur forme analytique restera immuable.
Quarante ans après Fresnel, vient Maxwell qui, en effet, transforme entièrement
les représentations concrètes placées par Fresnel à la base de la théorie ondulatoire
de la lumière, mais sans modifier appréciablement les équations et les formules
qui ont reçu la sanction définitive de l’expérience. Dans une admirable intuition,
Maxwell aperçoit que l’ensemble des phénomènes lumineux doit rentrer comme un
cas particulier dans le cadre général des phénomènes électromagnétiques : pour lui,
la lumière est constituée par certaines perturbations électromagnétiques se propageant par ondes. C’est donc du sein même des formules générales qui représentent
les phénomènes électromagnétiques qu’il faut tirer les lois régissant les phénomènes
lumineux : c’est ce que fait Maxwell par des raisonnements bien connus de tous les
physiciens et dignes de provoquer encore aujourd’hui toute leur admiration. Ainsi
englobée dans la théorie générale des phénomènes électromagnétiques, la théorie
ondulatoire de la lumière ne repose-t-elle plus, après l’IJuvre de Maxwell, sur aucune représentation concrète ? On ne peut pas encore à cette époque l’affirmer
d’une façon absolue. Sans doute, peut-on dès ce moment décrire toutes les propriétés de la lumière, du moins dans le vide, en faisant uniquement appel aux formes
analytiques bien connues sous le nom d’équations de Maxwell qui sont à la base
de la théorie électromagnétique générale. Mais ni Maxwell, ni ses premiers continuateurs, surtout en Angleterre, ne renoncent à l’espoir de faire reposer ses formes
analytiques générales sur des représentations concrètes de nature mécanique. Ils
invoquent l’existence d’un éther électromagnétique dont le « champ électrique » et
le « champ magnétique » traduiraient en chaque point de l’espace l’état mécanique
local et bien entendu, puisque la lumière n’est plus qu’un certain phénomène électromagnétique particulier pouvant être décrit à l’aide de champs électriques et ma-
58
CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE
gnétiques, l’éther lumineux de Fresnel se confond avec l’éther électromagnétique.
Mais l’interprétation des équations électromagnétiques grâce à l’image mécanique
de l’éther s’avère extrêmement pénible et bientôt beaucoup de physiciens en arrivent à se demander si vraiment l’on gagne quelque chose à interpréter, d’une
façon qui laisse à désirer, les équations de Maxwell si simples et si claires par les
propriétés mécaniques bizarres d’un éther électromagnétique à jamais inaccessible
à notre expérience directe. On en arrive, notamment sous l’influence de Hertz, à
prendre comme bases de la théorie électromagnétique en général et de la théorie
ondulatoire de la lumière en particulier les équations de Maxwell posées a priori
et indépendamment de toute représentation concrète. Cette évolution cause naturellement la plus grande joie aux physiciens de l’école abstraite, à Pierre Duhem
par exemple. Pour eux, la théorie de la lumière a pris enfin sa forme définitive et
durable parce qu’elle n’est plus qu’un système d’équations. S’étant dépouillée de
tout élément anthropomorphique, s’étant si l’on peut dire affranchie des faiblesses
de la chair, la théorie n’est plus qu’une forme intellectuelle pure dans le monde des
idées et c’est là ce qui fait désormais sa force et sa pérennité.
On voit combien les deux écoles sont loin l’une de l’autre. Pour la première,
on n’a vraiment compris le sens profond des formules d’une théorie physique que
quand une représentation concrète a permis de « comprendre » l’origine de ces
formules. Pour la seconde, au contraire, une théorie n’a acquis sa forme définitive
et durable que quand elle est parvenue à se libérer de toutes les représentations et à
se réduire à un système d’équations. Sans prétendre trancher une telle controverse,
nous allons chercher maintenant à examiner quelques arguments que l’on peut
donner en faveur de l’une ou de l’autre opinion.
∴
L’antagonisme entre les partisans des théories à représentations concrètes et
ceux des théories abstraites si bien mis en lumière, il y a un demi-siècle, par
la querelle des atomistes et des énergétistes est évidemment en relation avec les
tendances réalistes ou idéalistes (au sens philosophique de ces mots) des uns ou
des autres. Mais c’est là un aspect de la question que, n’étant pas philosophe, nous
voulons laisser de côté. Nous nous bornerons à envisager ce débat sous l’angle de
la Physique elle-même.
Quand on y réfléchit, il apparaı̂t presque évident qu’en principe les partisans des
théories abstraites ont raison. Qu’est-ce, en effet, que ces représentations concrètes
que leurs adversaires veulent mettre à la base de nos conceptions physiques ? Ce
sont des images extraites de notre perception du monde qui nous entoure. C’est
59
ainsi, nous l’avons déjà dit, que les physiciens intuitifs ont eu tendance à se représenter les atomes, puis les électrons comme de petits corps matériels, de petites
billes, dont l’image est obtenue par une sorte de réduction homothétique des objets analogues que nos sens nous permettent de percevoir. A ces objets projetés
par notre imagination dans le monde atomique, nous attribuons instinctivement
les propriétés de forme, d’inertie, d’impénétrabilité, etc. qui définissent les objets
homologues dans le monde de notre sensation. Evidemment le physicien le plus
intuitif sentira bien qu’il ne faut pas aller trop loin dans cette voie et qu’il serait ridicule de parler de la couleur ou de l’odeur d’un électron. L’image d’un corpuscule
sera donc finalement obtenue par un processus d’abstraction et de schématisation
à partir de celle que nos sens nous fournissent d’un petit objet. Mais qui ne sent,
en y réfléchissant avec sincérité, que mettre à la base de nos représentations physiques des éléments de la matière des images obtenues de cette façon est en réalité
un procédé insoutenable ? Ce sont les petits objets matériels que nous percevons
autour de nous qui sont formés d’un nombre énorme d’atomes et d’électrons et
cette remarque à elle seule suffit à nous interdire de nous représenter atomes et
électrons comme analogue à de tels petits objets. C’est l’élémentaire qui doit servir
à expliquer le complexe et non l’inverse : les propriétés des entités élémentaires de
la matière peuvent nous permettre d’expliquer les propriétés de forme, d’inertie,
d’impénétrabilité des billes matérielles, mais il est illusoire de supposer que les propriétés des billes puissent être attribuées aux entités élémentaires. Pour interpréter
les propriétés de la matière, nous devons descendre à des échelles si petites que les
perceptions de nos sens correspondant à des phénomènes d’une échelle infiniment
supérieure n’ont plus dans ce domaine aucune valeur, ni aucune possibilité d’application. Les représentations concrètes des physiciens intuitifs et ides premiers
pionniers de l’atomisme paraissent donc être purement fictives.
S’il en est ainsi, comment pourrons-nous encore progresser dans l’étude des
domaines de la Physique où les images fournies par nos sens n’ont plus de valeur réelle ? Ce sera en admettant d’abord dans nos raisonnements, en vérifiant
ensuite par l’expérience, qu’il existe entre les phénomènes observables des relations susceptibles d’être exprimées dans la langue précise des mathématiques et
d’être rattachées les unes aux autres au sein de théories cohérentes. C’est bien là,
nous l’avons vu, le point de vue des physiciens de l’école abstraite dont l’opinion
apparaı̂t ainsi comme entièrement justifiée.
Mais, si en principe le point de vue abstrait des énergétistes et de leurs successeurs apparaı̂t comme le seul qui résiste à la critique, il n’en est pas moins vrai
que les représentations concrètes ont joué un rôle des plus utiles dans le développement des théories physiques ; sans elles, le progrès de ces théories aurait été
dans beaucoup de cas considérablement ralenti, si ce n’est définitivement entravé.
Qu’il nous suffise de rappeler encore le prodigieux éclaircissement des conceptions
60
CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE
de la Thermodynamique grâce à l’introduction des hypothèses moléculaires et à
l’application de la Mécanique statistique aux particules élémentaires. Mais alors
comment se peut-il que des représentations concrètes dont le caractère fallacieux
est certain puissent rendre de tels services ? Il faut bien que ces représentations
concrètes contiennent quelque part de vérité. Pour aborder cette question, il faut
se représenter le mouvement de l’esprit du physicien qui, partant nécessairement
des phénomènes perceptibles à nos sens et des données fournies par l’observation du
monde à notre échelle cherche à pénétrer dans les mystères des domaines à échelle
infiniment plus petite du monde atomique. Nécessairement l’esprit du physicien
cherche à extrapoler dans les domaines microscopiques les notions et les conceptions du monde macroscopique que lui fait connaı̂tre l’expérience vécue. Pour expliquer le succès au moins passager des représentations concrètes, il faut admettre
que certaines de ces notions et de ces conceptions restent, au moins pendant un
certain temps, valables. Et, en employant les mots « pendant un certain temps »,
nous voulons dire qu’en prolongeant ce travail d’extrapolation vers des échelles
de plus en plus fines on doit s’attendre à voir toutes nos conceptions extraites de
l’expérience macroscopique devenir, les unes après les autres, de plus en plus inadéquates à la représentation des faits physiques : nous verrons plus loin qu’il paraı̂t
bien en être ainsi. Mais dans les premiers stades du processus d’extrapolation progressive que nous envisageons, les images tirées de notre perception macroscopique
pourront encore nous rendre d’appréciables services. Cependant c’est seulement en
les envisageant sous leurs aspects les plus abstraits et les plus « décolorés » que
nous pourrons encore les employer utilement. Ainsi, si nous partons de l’image
d’une bille matérielle pour nous représenter les propriétés de l’atome, nous devons
tout de suite dans l’image de la bille laisser tomber toute idée de couleur, d’odeur,
etc. . . et dans une large mesure les idées de forme, de dureté, etc... Les aspects
de la notion de bille que nous pourrons conserver utilement, ce sont, avons-nous
déjà -dit, les plus abstraits et les plus décolorés : c’est l’idée d’une unité physique
insécable (du moins en première approximation) occupant un très petit domaine
de l’espace, c’est l’idée d’un point matériel doué de masse décrivant dans l’espace
au cours du temps une trajectoire linéaire. Voilà sous quelle forme abstraite et
schématisée l’assimilation d’un atome à une bille a pu rendre de réels services à
la théorie physique. Quand les atomistes nous disent que des expériences comme
celles de M. Jean Perrin, ont apporté une preuve directe de l’existence des atomes,
que veulent-ils dire par là ? Bien entendu ils ne veulent pas dire qu’on a pu voir ou
toucher les atomes, les compter un par un comme nous compterions des haricots
ou les peser comme on pèse un objet en le plaçant sur le plateau d’une balance.
Ils veulent dire que des expériences nombreuses et concordantes ont conduit à
attribuer au nombre des atomes contenus par exemple dans un centimètre cube
d’un gaz dans les conditions normales de température et de pression une valeur
61
bien déterminée et toujours la même ; ils veulent dire qu’on a pu en partant de
ces expériences calculer pour la masse d’un atome d’espèce définie (d’un atome
d’hydrogène par exemple) une valeur bien déterminée et toujours la même. Et
ceci prouve que les atomes possèdent bien, du moins en première approximation,
le caractère d’unités matérielles insécables et qu’il est licite, à cette approximation, de les assimiler à des points matériels doués de masse déterminée. De même,
quand les atomistes nous disent que les admirables succès de la théorie cinétique
dans l’interprétation des propriétés thermodynamiques des gaz, prouvent l’exactitude de l’hypothèse atomique, qu’est-ce que cela signifie au juste ? Cela signifie
qu’en assimilant les atomes ou molécules à des points matériels doués de masse
et obéissant aux lois de la Mécanique classique, on parvient à retrouver par voie
déductive les lois de la Thermodynamique comme représentant les propriétés globales d’ensembles formés par un nombre immense de telles unités physiques. Ainsi,
dans toutes ces vérifications de l’hypothèse atomique, on part de l’assimilation de
l’atome à une certaine image fournie par notre intuition sensible, l’image de la
bille, et l’on vérifie par l’expérience que certaines des conséquences que ce modèle
permet de prévoir sont effectivement exactes. Ces conséquences sont celles qu’on
obtient en ne conservant de l’image que certains aspects, les plus abstraits et les
plus décolorés. L’extrapolation des images fournies par notre perception du monde
macroscopique dans l’interprétation des phénomènes atomiques réussit sans aucun doute mais c’est à condition que cette extrapolation ne prudente et garde un
caractère très schématique.
Les progrès de la Physique atomique ont amené les physiciens à ne plus se
contenter de considérer l’atome comme une unité insécable, mais à se préoccuper
de sa constitution interne et à le considérer comme un système complexe formé
d’éléments plus petits tels que les électrons. On a ainsi poussé l’analyse de la
matière beaucoup plus profondément, passant de l’échelle atomique déjà prodigieusement petite par rapport à ce que nous pouvons directement percevoir à une
échelle intra-atomique encore beaucoup plus petite. On ne s’est pas même arrêté
à ce stade : tandis que la Physique intra-atomique considère le centre de l’atome,
le noyau de l’atome, comme une sorte d’unité impossible à analyser, la Physique
nucléaire va plus loin et s’attaque aujourd’hui au problème de la constitution du
noyau poursuivant ainsi une description encore plus fine des entrailles de la matière. Ce que nous avons dit plus haut au sujet de l’extrapolation jusqu’à l’échelle
atomique des représentations concrètes suggérées par notre perception du monde
macroscopique, nous permet de pressentir que ces extrapolations deviendront de
plus en plus hasardeuses et incertaines au fur et à mesure que, descendant l’échelle
des grandeurs, nous voudrons pénétrer dans des domaines de plus en plus petits.
Certains aspects de ces représentations, tels par exemple que la conception de la
trajectoire d’une particule par exemple ou celle de sa vitesse, qui étaient encore uti-
62
CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE
lisables et nous rendaient de grands services en théorie cinétique des gaz à l’échelle
de l’agitation moléculaire, cessent complètement d’être applicables et risquent de
nous fourvoyer entièrement à l’échelle des phénomènes atomiques. C’est ce qu’une
rapide étude du développement de la Physique quantique va maintenant nous montrer.
∴
Quand les physiciens ont voulu obtenir des théories de la structure interne de
l’atome, ils ont tout naturellement cherché à prolonger dans ce domaine les représentations concrètes qui avaient réussi et démontré leur utilité aux échelles supérieures. Ne pouvant plus, pour analyser l’intérieur de l’atome, attribuer à l’atome
tout entier le caractère d’une particule insécable, les physiciens ont attribué ce caractère aux électrons contenus dans l’atome et, au moins provisoirement, au noyau
centre de l’atome et siège de son individualité. Après quelques tâtonnements, ils
sont arrivés à assigner à l’atome une structure analogue à celle du système solaire, le noyau central jouant le rôle de soleil tandis que les électrons périphériques
tournent autour de ce sous l’influence de la force de Coulomb et sont en quelque
sorte ses planètes. On sait le succès de ce « modèle planétaire » de l’atome. Appliquant aux mouvements des électrons atomiques les lois de la Mécanique classique
complétées par certaines règles de quantification suggérées par la théorie des quanta
de Planck, M. Bohr est parvenu à rendre compte des lois de la spectroscopie en
reliant l’émission des raies spectrales aux modifications de la structure interne des
atomes et à rattacher entre elles par des liens jusqu’alors insoupçonnés une foule
de propriétés des systèmes atomiques. La carrière triomphale de ce« modèle planétaire » de Rutherford-Bohr semblait alors bien prou ver que, même à l’intérieur des
atomes, les images concrètes préconisées par atomistes allaient encore trouver un
vaste champ d’application. Sans doute, ce n’était plus l’atome dans son ensemble
qu’il fallait ici assimiler à une bille, mais bien les corpuscule élémentaires constituants de l’atome, c’est-à-dire les électrons, mais les conceptions fondamentales
de l’atomisme qui avaient si brillamment réussi à l’échelle des atomes eux-mêmes,
par exemple en théorie cinétique, paraissaient conserver toute leur valeur une fois
convenablement transposées à l’échelle plus finie des phénomènes intra-atomiques.
Cette illusion fut de courte durée et M. Bohr paraı̂t lui-même ne l’avoir jamais
partagée, car il paraı̂t avoir aperçu dès le début combien il était difficile de prendre
« au pied de la lettre » le modèle planétaire dont il avait fait la fortune.
L’origine de l’évolution d’idées dont il nous faut maintenant parler a été l’introduction nécessaire des quanta dans l’interprétation des phénomènes atomiques. Le
modèle planétaire de l’atome imaginé par Rutherford n’a pu être mis en valeur par
63
M. Bohr qu’en imposant aux mouvements des électrons dans l’atome des conditions quantiques inspirées par les travaux célèbres de Planck sur le rayonnement
noir. Or l’introduction de ces conditions quantiques conduit à des notions nouvelles d’états stationnaires de l’atome, de transitions brusques subies par l’atome
d’un état stationnaire vers un autre, etc., qui sont (c’est là le point que M. Bohr
a tout de suite très bien vu) tout à fait inconciliables avec les représentations
concrètes dans le cadre de l’espace et du temps qu’avaient toujours jusque-là utilisées sans aucune hésitation les promoteurs de la Physique théorique. Dès lors,
il devenait probable que la théorie des Quanta en se développant et en cherchant
à se constituer en doctrine cohérente, allait nécessairement bouleverser un grand
nombre des conceptions les plus classiques de la Physique. C’est bien ce qui s’est
produit. Les formes perfectionnées de se théorie des Quanta , c’est-à-dire ces nouvelles Mécaniques qu’on nomme Mécanique quantique ou Mécanique ondulatoire,
ont montré la nécessité d’une révision complète de toutes les notions fondamentales sur lesquelles reposaient implicitement toutes les théories anciennes. Impossibilité de connaı̂tre à la fois la position et la vitesse d’une particule et, comme
conséquence, impossibilité d’attribuer une trajectoire à la particule et de suivre le
déterminisme de son mouvement, tels sont les étonnants résultats de la critique à
laquelle s’est livrée la théorie quantique contemporaine, résultats qu’il n’est plus
guère possible de mettre en doute. Les électrons dans l’atome ne doivent plus être
imaginés comme des points matériels décrivant d’une façon continue des trajectoires linéaires, ainsi qu’avait tenté de le faire la théorie primitive de Bohr : il faut
les considérer comme pouvant manifester leur présence dans toute l’étendue de
l’atome, la répartition de cette présence potentielle étant donnée par une certaine
« fonction d’onde » dont le calcul peut se faire rigoureusement, mais dont le caractère est singulièrement abstrait puisque c’est une fonction « complexe » au sens que
les mathématiciens donnent à cette expression. La nouvelle théorie de l’atome, et
plus généralement la Mécanique quantique dans son ensemble, est donc de nature
à dérouter complètement les physiciens de l’école concrète à qui la forme primitive
de la théorie de Bohr pouvait paraı̂tre donner tant de satisfactions et d’espérances.
Par contre, il ne déçoit aucunement l’attente des physiciens de l’école abstraite, car
elle permet de relier les uns aux autres par des algorithmes précis les phénomènes
observables. Sans doute, et c’est là un point important, une connaissance aussi
complète que possible des phénomènes observables à un instant donné ne conduitelle plus en général à une prévision rigoureuse des phénomènes subséquents : elle
permet seulement d’énumérer les phénomènes qui pourront être observés et d’indiquer les probabilités respectives de ces diverses hypothèses. Par là, le lien que les
théories nouvelles peuvent établir entre les phénomènes observables est plus lâche
que ne l’imaginaient antérieurement les physiciens de l’école abstraite habitués au
déterminisme de la Physique classique. Mais qu’importe pour eux ! L’essentiel à
64
CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE
leurs yeux est d’établir des liens entre les phénomènes successivement observables
à l’aide de formules déduites de théories logiquement cohérentes et à ce point de
vue les théories quantiques contemporaines peuvent leur donner toute satisfaction.
Si l’on prend la théorie de l’atome dans son état actuel correctement exposée,
qu’y reste-t-il des intuitions primitives des atomistes qui cherchaient à déduire
toutes les propriétés de la matière à partir des mouvements d’éléments quasiponctuels, plus ou moins assimilables à des billes ? Il en reste peu de chose : assurément les électrons sont encore considérés comme des constituants élémentaires
de l’atome, susceptibles à l’occasion de se manifester comme des unités physiques
localisées ; mais la description qui nous est fournie des électrons et de leurs mouvements par, la Mécanique ondulatoire et par la théorie de l’atome dans son état
actuel ne répond plus du tout à l’image simpliste de la bille ; elle ne correspond
même plus à aucune représentation concrète imaginable si l’on entend par là une
représentation obtenue par extrapolation à partir des données de notre intuition
sensible. On sent qu’on a dépassé la limite au delà de laquelle tout extrapolation
de ce genre devient illusoire et ceci, bien entendu, sera encore plus vrai quand on
abordera l’étude des domaines encore beaucoup plus petits qui font l’objet de la
Physique du Noyau. Ainsi, aujourd’hui, si l’on se place à un point de vue rigoureux, il nŠest plus question d’admettre un modèle planétaire de l’atome obtenu
pour ainsi dire grâce, à une réduction homothétique des systèmes planétaires de
l’astronomie et aucun modèle du même genre ne peut plus et ne pourra sans aucun
doute plus à l’avenir représenter les propriétés des électrons dans l’atome. Aujourd’hui, comme l’a dit M. Goudsmit, l’atome des physiciens théoriciens n’est plus
qu’un système d’équations et c’est bien là un triomphe total pour l’école abstraite
dont la méfiance à l’égard des représentations concrètes se trouve justifiée.
Dans ces conditions, on peut se demander (si étrange que le libellé de cette
question puisse paraı̂tre) dans quelle mesure la Physique atomique contemporaine
a réellement confirmé les idées des partisans de l’Atomisme. Il est certain qu’à
l’heure actuelle les particules élémentaires de la matière ne peuvent plus être caractérisées par presque aucune des propriétés dont les douaient les conceptions un
peu simplistes des Philosophes de l’Antiquité ou même les conceptions plus raffinées des physiciens qui au début de notre siècle reprenaient avec tant de succès la
défense de l’hypothèse atomique et la vérification de ses conséquences. De toutes
les propriétés intuitives attribuées il y a une trentaine d’années aux particules élémentaires, il ne reste plus guère d’intact aujourd’hui que leur caractère d’unités
physiques permanentes dont le nombre reste constant au cours du temps : même
la possibilité de les discerner constamment les unes des autres et de suivre leur
individualité au cours du temps a, on le sait, disparu. Et encore, dans ses théories récentes qui jouent notamment un grand rôle en Physique du noyau, a-t-on
dû abandonner l’idée de la constance du nombre des particules élémentaires et
65
admettre que ces particules peuvent apparaı̂tre et disparaı̂tre. Par là, une des dernières conceptions de l’Atomisme qui fut encore debout, celle de la permanence des
particules élémentaires, se trouve atteinte à son tour et le contenu de l’hypothèse
atomique tend à se réduire à cette simple affirmation arithmétique : le nombre
des particules élémentaires d’une espèce déterminée, qui peut être variable, est
toujours entier. En toute rigueur, c’est à peu près là tout ce qu’on peut conserver
aujourd’hui de l’hypothèse qui, à la suite de Démocrite et de Lucrèce, parut si
séduisante à tant de savants modernes.
Néanmoins, ce serait fort injuste que de ne pas reconnaı̂tre combien l’hypothèse
atomique a été fructueuse en Physique depuis un siècle et à quel point elle a servi
de guide aux recherches. A l’échelle des molécules et des atomes où nos représentations concrètes sont encore partiellement valables, les conceptions des atomistes ont
orienté tous nos efforts et fourni les cadres des représentations sans lesquelles nous
n’aurions pu progresser. Maintenant encore, les théories quantiques actuelles, malgré leur tendance abstraite, admettent ces cadres de façon plus ou moins avouée et
utilisent les débris de conceptions dont elles nient par ailleurs l’exactitude. Quand
on fait en Mécanique ondulatoire la théorie de l’atome, on commence par rappeler
le modèle planétaire de Bohr et c’est à l’aide de cette image qu’on forme l’équation
de propagation pour l’onde ψ de l’électron dans l’atome ; cette équation obtenue,
il est loisible de se placer au point de vue abstrait, de prendre cette équation pour
base et de réduire toute la théorie de l’atome à un système de formules. Mais
aurait-on même pu poser le problème si l’on n’avait pas été guidé par le modèle
planétaire ? Il est certain que nos représentations concrètes deviennent de plus en
plus inexactes au fur et à mesure que nous voulons analyser les phénomènes à une
échelle de plus en plus fine. Mais combien ces représentations dans ce qu’elles ont
encore d’admissible nous sont utiles ! On peut même se demander ce qui arriverait
si, en prolongeant l’étude de l’infiniment petit, nous arrivions à des domaines où
nos représentations concrètes habituelles n’auraient plus absolument aucun sens.
Pourrions-nous continuer à progresser ? Cela me paraı̂t douteux car, en somme,
nous ne pouvons penser qu’à l’aide d’images extraites de notre intuition sensible.
Sans doute le raisonnement abstrait nous permet, par schématisation et par généralisation, d’aller au delà de cette intuition, mais nous permet-il de nous en
affranchir complètement ?
En résumé, les physiciens de l’école abstraite qui rejettent les représentations
concrètes et voient dans les formules reliant les phénomènes l’essentiel des théories
paraissent bien, en principe, avoir raison et le développement des théories quantiques contemporaines apporte une très forte confirmation de leurs vues. Mais il
n’en est pas moins vrai que les représentations concrètes, notamment celle des
théories atomiques, ont rendu de très grands services et que sans elles le progrès
de la Physique contemporaine aurait été considérablement entravé. Extrapolant
66
CHAPITRE 6. LA THÉORIE ET LE CONCRÈT EN PHYSIQUE
hardiment les données de notre expérience sensible dans des domaines où cette
extrapolation n’est sûrement pas strictement valable mais où néanmoins elle n’est
pas encore entièrement dépourvue de sens, elles ont ouvert les voies où la pensée abstraite, plus dégagée des contingences, a pu s’engager à fond et dépasser de
beaucoup les représentations qui lui avaient servi de bases de dé part. En résumant
ainsi les phases de cette évolution, il est possible de rendre justice à la fois aux
« abstraits » qui dans la controverse ont sans doute raison et aux « intuitifs » sans
lesquels le progrès eût été souvent difficile et parfois impossible.
Troisième partie
LES GRAINS ET LES CHAMPS
EN PHYSIQUE QUANTIQUE
67
Chapitre 7
Individualité et intéraction dans
le monde physique
Moins apte sans doute à bien concevoir le continu et le fluent que le discontinu et le permanent, l’esprit humain paraı̂t avoir toujours éprouvé une certaine
satisfaction chaque fois qu’il lui a été possible, en étudiant les phénomènes de la
nature, d’y discerner des entités élémentaires présentant des caractères permanents
et d’interpréter l’évolution du monde physique par les mouvements et les interactions de ces entités élémentaires. C’est cette tendance naturelle de notre esprit qui
a poussé les fondateurs de la Mécanique classique à poser à la base de cette science
l’idée de « point matériel », c’est-à-dire l’idée d’une certaine quantité de matière
occupant une très petite région de l’espace, douée d’une masse invariable et possédant une individualité que l’on peut suivre au cours du temps. Mais en Mécanique
classique le point matériel n’est qu’un être de raison et il restait douteux qu’il y
eut dans la nature des entités élémentaires offrant une sorte de réalisation concrète
et permanente du point materiel. Or, s’accordant ainsi avec nos désirs secrets, la
matière s’est ensuite révélée progressivement à nous comme formée par un petit
nombre de genres différents de corpuscules élémentaires tels que les électrons et
les protons (auxquels nous avons dû récemment ajouter les neutrons et les positons pour ne point parler des mésotons et des encore hypothétiques neutrinos).
Ces corpuscules élémentaires sont caractérisés par des valeurs permanentes de leur
masse et de leur charge électrique et ont paru constituer de véritables individus
physiques dont l’existence pouvait être suivie au cours des transformations incessantes du monde matériel. Mais le développement des théories quantiques, appuyé
sur d’incontestables preuves expérimentales, est venu ensuite nous obliger, comme
pour tant d’autres conceptions de la Physique, à un nouvel examen et il nous a
conduit finalement à atténuer d’une façon curieuse ce que cette notion avait de trop
absolu. Exposer comment se présente aujourd’hui cette très intéressante question,
par certains côtés encore bien obscure, de l’individualité des particules en physique
69
70
CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION
quantique, tel est le but essentiel que nous nous proposons dans cette étude. Mais
avant d’aborder le fond même de notre sujet, il est utile, pensons-nous, d’examiner
sur quelles bases reposait dans les anciennes théories mécaniques et physiques la
possibilité d’attribuer une individualité persistante aux particules élémentaires et
de nous demander si déjà cette possibilité ne s’y heurtait pas à certaines difficultés
plus ou moins méconnues.
∴
Dans les théories classiques, préquantiques comme on dit souvent maintenant,
on ne mettait pas un instant en doute la possibilité de localiser exactement les
objets physiques dans le cadre de l’espace et du temps. On ne doutait pas non plus
de l’impossibilité pour deux éléments matériels différents d’occuper simultanément
la même place dans l’espace, impossibilité qui résultait, disait-on, de l’impénétrabilité de la matière. Enfin on supposait toujours la permanence au cours du temps
des entités physiques élémentaires et la constance de leurs propriétès, hypothèses
que l’expérience confirmait. Il est alors faicile de comprendre pourquoi la Physique
préquantique parvenait aisément à attribuer une individualité permanente aux corpuscules élémentaires. Tout d’abord, il était évidemment aisé de distinguer deux
corpuscules de nature différente puisque, constamment caractérisés par des valeurs
différentes de leur masse ou de leur charge électrique, ils possédaient toujours des
propriétés permettant de les identifier. Mais il devenait déjà un peu plus délicat de
distinguer constamment des corpuscules de même nature car, si l’on observe, par
exemple, un système de deux corpuscules de même nature à des instants différents
t1 et t2 séparés par un intervalle de temps fini, on doit évidemment trouver au
temps t1 deux corpuscules occupant des positions A1 et B1 , puis au temps t2 deux
corpuscules occupant des positions A2 et B2 , mais il est impossible de dire si c’est
le corpuscule primitivement en A1 qui est venu en A2 et le corpuscule primitivement en B1 , qui est venu en B2 ou si, au contraire, le premier corpuscule s’est
rendu de A1 en B2 et le second de B1 en A1 . Toutefois cette difficulté ne paraissait
pas bien sérieuse avec les conceptions classiques puisque, d’après ces conceptions,
rien n’empêche de suivre d’une façon continue la marche de deux corpuscules entre
les instants t1 et t2 et alors on verra bien si le premier corpuscule s’est rendu de
A1 en A2 ou en B2 . Il ne pourrait y avoir encore doute que si les deux corpuscules
à un instant t intermédiaire entre t1 et t2 se trouvaient passer ensemble au même
point de l’espace, mais l’impénétrabilité de la matière nous permettait, pensait-on,
d’écarter une telle hypothèse. De cette analyse, il résulte en définitive que l’attribution aux particules matérielles d’une individualité permanente et contrôlable
semblait rendue légitime, à l’époque de la Physique classique, par la possibilité de
71
suivre d’une manière précise et continue les localisations successives dans l’espace
de la particule au cour du temps, car personne ne mettait alors en doute cette
possibilité.
Cependant un examen critique des développements de l’ancienne Mécanique,
sur lesquels reposaient les théories physiques, laisse apercevoir que l’individualité des points matériels n’y est pas aussi complète qu’on pouvait le penser tout
d’abord. Une remarque que l’on peut faire à ce sujet, c’est que le caractère d’unité
discontinue attribué par les anciennes conceptions aux points matériels physiques,
aux corpuscules, est au fond plus apparent que réel. En Mécanique classique, le
mouvement d’un point matériel est, en effet déterminé par le champ de force qui
l’entoure dont le point matériel se trouve ainsi en quelque sorte solidaire. La forme
même du principe de moindre action nous montre que la trajectoire d’un corpuscule dépend en réalité du champ de force dans tout le voisinage immédiat de cette
courbe. La trajectoire résulte, peut-on dire, d’une sorte d’exploration du champ
dans la région de l’espace où le mouvement s’opère. Cette remarque prend un sens
plus net quand on l’envisage du point de vue actuel de la Mécanique ondulatoire
où le principe de moindre action apparaı̂t comme une traduction du principe de
Fermat appliqué à l’onde associée au corpuscule car, du point de vue ondulatoire,
le principe de Fermat résulte lui-même de ce que les ondes explorent l’espace tout
autour du rayon lumineux. Le fait que le point matériel est ainsi solidaire du champ
dont il subit l’action, nous fait donc déjà pressentir, même dans le cadre classique,
la nécessité de ne pas considérer comme trop absolue l’autonomie individuelle des
corpuscules. C’est ce que nous allons mieux voir encore en examinant les concepts
si fondamentaux et si mystérieux d’interaction et d’énergie potentielle.
C’est qu’en effet, une entité physique élémentaire qui posséderait l’autonomie
individuelle dans toute sa plénitude serait nécessairement indépendante de tout
le reste de l’univers Physique : petit monde fermé, elle ne subirait aucune action
et ne pourrait en exercer aucune. Pour pouvoir expliquer les phénomènes à l’aide
d’entités élémentaires, il est donc nécessaire d’admettre qu’elles exercent entre
elles des interactions : dès lors, ces entités, étant en quelque mesure solidaires les
unes des autres, ne seront plus aussi autonomes qu’on l’avait admis au début et
leur individualité s’en trouvera quelque peu atténuée. On conçoit alors combien
intéressante du point de vue philosophique est la notion d’interaction parce qu’elle
implique une certaine limitation du concept d’individualité physique. Or, pour traduire l’existence de l’interaction, la Physique classique, guidée par la Mécanique
rationnelle, a introduit l’idée d’énergie potentielle. Très claire au point de vue mathématique, cette idée reste physiquement assez mystérieuse. Afin de mettre en
évidence un de ses caractères les plus profonds, envisageons un ensemble de corpuscules en interaction que nous supposerons isolé du reste du monde. Voici ce
que nous apprend à son sujet l’emploi de la notion d’énergie potentielle : tandis
72
CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION
qu’il est toujours possible d’attribuer aux divers corpuscules du système une énergie cinétique et une quantité de mouvement individuelles bien définies, l’énergie
potentielle ne peut pas être répartie entre les constituants du système : elle appartient à l’ensemble du système et est comme mise en commun par ses constituants.
Cette circonstance achève de prendre toute son importance si l’on se placee au
point de vue de la théorie de la Relativité. Il existe, en effet, dans cette théorie une
proposition aujourd’hui célèbre sous le nom de « principe de l’inertie de l’énergie »
suivant laquelle il y a toujours proportionnalité entre la masse totale d’un système
et son énergie. Il en résulte que la masse totale d’un ensemble de corpuscules n’est
pas en général égale à la somme des masses qu’on peut attribuer individuellement
à chaque corpuscule, mais qu’elle contient eu outre une contribution (positive ou
négative) apportée par l’énergie potentielle d’interaction mutuelle des divers corpuscules : il n’est donc pas possible de répartir, d’une manière non arbitraire, la
masse totale d’un système entre ses divers constituants, dès l’instant où il existe
entre eux des interactions. Cette conséquence est très importante car on est habitué à considérer la masse comme la caractéristique essentielle du point matériel,
comme l’attribut propre de son individualité. Naturellement, dans beaucoup de cas
usuels, l’énergie potentielle d’un ensemble de corpuscules est beaucoup plus petite
que les énergies individuelles de chacun d’eux et alors la notion de masse subsiste
très approximativement pour chaque constituant. Mais pour des interactions extrêmement intenses, la notion de masse individuelle doit perdre sans doute toute
valeur. D’où cette conclusion que l’individualité des corpuscules élémentaires est
d’autant plus atténuée qu’ils sont davantage engagés dans les liens de l’interaction.
Comme, d’une part, il n’y a pas de corpuscule entièrement isolé et comme, d’autre
part, la liaison des corpuscules dans un système n’est pratiquement jamais assez
complète pour ne pas laisser subsister quelque trace de leur individualité, on voit
que la réalité paraı̂t eu général intermédiaire entre le concept d’individualité entièrement autonome et celui de système totalement fondu. Il serait d’ailleurs aisé
de rattacher cette conclusion à des vues générales sur le rapport des idéalisations
abstraites et des réalités physiques.
Ainsi la Physique classique elle-même, complétée par des considérations de Relativité, nous indique que l’idée de corpuscule doué d’individualité et bien localisé
est toujours atténuée par l’existence des interactions et doit même à la limite disparaı̂tre complètement dans le cas des liaisons extrêmement intenses : nous venons de
le voir en ce qui concerne la masse, mais il paraı̂t certain que, dans un système où
les constituants seraient si énergiquement liés qu’on ne pourrait plus leur attribuer
de masses individuelles, il serait aussi impossible de leur attribuer une position,
leur énergie se trouvant pour ainsi dire diluée dans l’espace occupé par le système entièrement fondu. La Mécanique ancienne, Newtonienne ou Einsteinienne,
ne s’occupe pas de ces cas extrêmes : elle n’envisage que des systèmes où l’énergie
73
potentielle n’est qu’une fraction de l’énergie totale (compte tenu des énergies internes de masse) et alors on peut très approximativement raisonner comme si les
corpuscules conservaient une masse, une localisation et par suite une individualité bien définies. Mais si l’on y réfléchit, on voit que, sous la simplicité apparente
de la Mécanique classique des systèmes de points matériels, se cachent de graves
problèmes au sujet de ce que nous nommons ń interaction » et de la manière dont
l’interaction se concilie avec l’individualité. L’on soupçonne déjà qu’individualité
et interaction sont au nombre de ces « faces complémentaires de la réalité » que
M. Bohr a été amené à considérer dans son interprétation des théories quantiques,
faces complémentaires qui, en un certain sens, se complètent en s’opposant. On
comprend aussi que la notion d’énergie potentielle, dont l’aspect mystérieux a souvent paru l’un des scandales de la Physique, traduit en réalité sous une forme
profonde, bien que peut-être maladroite, la coexistence et la limitation réciproque
de l’individualité et de l’interaction dans le monde physique.
∴
Si maintenant, quittant le terrain de la Physique préquantique et des Mécaniques anciennes, nous passons à la Physique quantique et à la Mécanique ondulatoire, la question de l’individualité des particules élémentaires va nous y apparaitre
comme soulevant des problèmes plus difficiles encore et se rattachant à des phénomènes tout à fait inattendus.
Même quand elle se borne à considérer le mouvement d’un seul corpuscule, la
Mécanique ondulatoire a été amenée à introduire des idées tout à fait nouvelles.
Elle considère, en effet, qu’on ne peut plus en général assigner à un corpuscule une
position bien déterminée dans l’espace à chaque instant. Mis à part quelques cas
exceptionnels de probabilité évanouissante, il existe pour la nouvelle Mécanique
toute une région étendue de l’espace où le corpuscule peut se trouver, c’est-àdire où il peut manifester sa présence par une action locale à l’instant considéré.
Cette région de l’espace est celle où l’onde, que les conceptions de la Mécanique
ondulatoire associe au corpuscule, a une amplitude différente de zéro. La localisation imparfaite des corpuscules à chaque instant ne permet plus de leur attribuer
constamment une vitesse bien définie, ni par suite une énergie et une quantité de
mouvement bien déterminées par les formules classiques qui relient ces grandeurs
à la vitesse. Elle s’oppose aussi à ce que l’on puisse représenter par une trajectoire,
c’est-à-dire par une courbe continue, la suite des positions d’un corpuscule au cours
du temps. Le déterminisme des mouvements, tel qu’il était conçu en Mécanique
classique, s’en trouve diminué et les incertitudes d’Heisenberg, où la constante de
Planck joue un rôle essentiel, en marquent en quelque sorte les limites.
74
CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION
L’impossibilité de localiser constamment avec exactitude les entités physiques
élémentaires entraı̂ne des conséquences très graves quand on veut, en Mécanique
ondulatoire, traiter le cas d’un système de corpuscules en interaction. En effet, en
Mécanique rationnelle classique, on pouvait considérer à chaque instant la figure
formée par l’ensemble des points matériels d’un système et exprimer le mouvement de ces points en tenant compte des interactions, par hypothèse fonctions de
leurs distances, qu’ils exerçaient entre eux. En Mécanique ondulatoire les choses
se présentent beaucoup moins simplement parce que l’on ne peut plus parler de
la figure géométrique formée à chaque instant par l’ensemble des corpuscules du
système, ces corpuscules ayant une certaine probabilité non nulle de localisation
dans toute une région étendue de l’espace. Il est dès lors impossible de considérer
le mouvement instantané de l’un des corpuscules sous l’action des forces émanant
des autres. Comment d’ailleurs pourrait-on exprimer les forces d’interaction par
des fonctions des distances entre les corpuscules puisque ces corpuscules ne sont
pas localisés ?
La mécanique ondulatoire est néanmoins parvenue à surmonter ces difficultés
et à traiter, d’une manière qui donne des résultats entièrement satisfaisants en
pratique, les problèmes concernant les systèmes de corpuscules en interaction. Mais,
pour le faire, elle a dû employer une méthode assez étrange dont le véritable sens
ne nous paraı̂t pas encore aujourd’hui bien éclairci : elle associe au mouvement du
système entier la propagation d’une onde dans un espace abstrait, dit « espace de
configuration » dont le nombre de dimensions est égal à celui des degrés de liberté
du système, c’est-à-dire par exemple à 3 N pour un système formé de N corpuscules
susceptibles de se mouvoir librement. Cet espace de configuration, dont le nombre
de dimensions généralement supérieur à 3 varie avec le nombre des constituants
du système, est visiblement une conception abstraite et il est assez surprenant
qu’il forme le cadre nécessaire de notre représentation physique du système. Il
n’est cependant pas douteux que les méthodes de la Mécanique ondulatoire des
systèmes réussissent et conduisent pratiquement à des prévisions exactes.
Sans vouloir discuter ici dans toute son ampleur la question de l’emploi de
l’espace de configuration en Mécanique ondulatoire des systèmes, nous devons cependant faire une remarque : cet emploi n’est rendu véritablement inévitable que
par l’existence de l’interaction. Considérons, en effet, un ensemble de N corpuscules
qui n’exercent entre eux aucune interaction. On peut évidemment, en les envisageant tous à la fois, les considérer comme formant un système mécanique et nous
devons alors étudier l’onde de ce système dans son espace de configuration. Mais
les corpuscules étant sans actions mutuelles et par suite s’ignorant si l’on peut dire,
les uns les autres, il nous est aussi certainement loisible de les considérer isolément
et alors nous devrons étudier les ondes individuelles de chaque corpuscule dans
l’espace ordinaire. Les deux manières de traiter le problème devant évidemment
75
conduire aux mêmes résultats il doit être possible, dans ce cas particulier, de passer
de l’espace de configuration à l’espace ordinaire. Il en est tout autrement si l’on
considère un ensemble de corpuscules exerçant entre eux des interactions : alors il
faudra nécessairement considérer l’onde associée au système entier dans l’espace
de configuration et il ne sera plus permis d’attribuer à chaque corpuscule une onde
individuelle. Tout retour à l’espace ordinaire sera donc impossible s’il existe des
interactions. Or quelle est la différence des deux cas que noms venons d’envisager ? C’est que, dans le second, les corpuscules étant en interaction ont perdu une
fraction de leur individualité en mettant en commun leur énergie potentielle. C’est
donc, en définitive, le mystérieux « démembrement de l’individualité » impliqué
par l’interaction qui entraı̂ne en Mécanique ondulatoire des systèmes la considération nécessaire de l’espace de configuration ; il est probable que, si l’on parvenait
à mieux comprendre l’une de ces deux énigmes, on comprendrait mieux l’autre.
Les difficultés que l’on rencontre dans l’interprétation physique des procédés
mathématiques employés par la Mécanique ondulatoire des systèmes sont très probablement liées à l’insuffisance de nos conceptions sur l’espace et sur le temps
car ces conceptions, même amendées par la théorie relativiste, ne paraissent pas
permettre de décrire exactement les propriétés des entités élémentaires que nous
appelons « corpuscules », ni les liens d’interactions qui les unissent. Le défaut de
localisation permanente des corpuscules dans l’espace est un premier aspect de
cette insuffisance ; l’emploi obligatoire de l’espace de configuration pour décrire le
résultat des interactions en est un autre. Il est d’ailleurs bien difficile de prévoir
aujourd’hui comment on pourra, si un jour on le peut, remplacer les notions traditionnelles d’espace et de temps pour parvenir à une description plus adéquate des
unités élémentaires et de leurs liens naturels, d’autant plus qu’il faudra bien toujours revenir, semble-t-il, à nos conceptions ordinaires pour exprimer les prévisions
relatives aux résultats possibles des observations et des expériences.
∴
On vient de voir quel problème difficile soulèvent du point de vue conceptuel
les méthodes de la Mécanique ondulatoire des systèmes, sans d’ailleurs que cela
empêche ces méthodes de se développer d’une façon satisfaisante au point de vue
formel et de conduire à des prévisions bien vérifiées. Mais d’autres complications
encore, que l’ancienne Mécanique ignorait aussi totalement, se présentent en Mécanique ondulatoire quand on y considère des systèmes contenant deux ou plusieurs
constituants de même nature.
Il est facile d’apercevoir pourquoi la question des ensembles de corpuscules de
même nature doit se présenter sous un autre aspect qu’en Mécanique classique.
76
CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION
Nous avons vu, en effet, que ce qui permet en Mécanique classique d’attribuer aux
corpuscules de même nature une individualité susceptible d’être suivie, du moins
en principe, au cours du temps, c’est la possibilité de déterminer à chaque instant la localisation exacte dans l’espace de ces corpuscules jointe à l’hypothèse que
deux d’entre eux ne sauraient occuper simultanément la même place. Les particules de nature identique ont beau être complètement indiscernables quant à leurs
propriétés, leur localisation, par hypothèse toujours différente dans l’espace, suffit
à permettre de les distinguer. On conçoit alors combien le problème devient plus
délicat en Mécanique ondulatoire où il existe en général pour une particule des
régions étendues de localisation possible et où rien n’empêche les régions de localisation possible afférentes à divers corpuscules d’empiéter les unes sur les autres.
Evidemment si pour les différents corpuscules d’un système, les régions en question
n’ont à aucun moment de parties communes, on pourra encore suivre leur individualité : mais si, à un certain instant, il y a superposition, même très partielle,
des dites régions, il devient impossible de suivre d’une façon certaine l’individualité des corpuscules, un échange de rôles pouvant alors se produire entre eux sans
qu’on puisse aucunement s’en apercevoir ultérieurement. Comme le cas où il y a
superposition, au moins partielle et momentanée, des régions de présence possible
est le cas général en Mécanique ondulatoire des systèmes, comme il comprend en
particulier tous les problèmes si importants concernant les états stationnaires des
systèmes quantifiés (atomes ou molécules par exemple), le formalismes général de
la Mécanique ondulatoire doit être développé de façon à ne préciser aucunement
l’individualité des corpuscules de même nature, puisqu’on ne peut par aucun moyen
suivre cette individualité au cours du temps. Sans entrer ici dans des détails trop
techniques, contentons-nous de dire que ce but a été atteint par l’emploi exclusif
de fonctions d’ondes qui restent invariables ou qui changent seulement de signe
quand on y permute le rôle de deux corpuscules de même nature. Cet emploi exclusif est d’ailleurs rendu légitime par certains théorèmes généraux de la nouvelle
Mécanique.
La perte d’individualité des corpuscules de nature identique en Mécanique ondulatoire est donc liée à l’impossibilité de localiser en général dans notre cadre de
lŠespace les entités physiques élémentaires, c’est-à-dire probablement à l’insuffisance ou à l’inexactitude de notre notion d’espace. Quand nous parlons de perte
d’individualité, nous ne voulons pas affirmer que les corpuscules n’aient plus d’individualité, mais simplement qu’on ne peut plus suivre leur individualité d’une
façon certaine. Prenons un exemple un peu trivial, mais qui parle à l’imagination.
Soient deux frères jumeaux qui se ressemblent tellement qu’il est impossible de les
distinguer. Tant que nous pouvons suivre chacun de ces deux jumeaux au cours
de leurs pérégrinations, dans une ville par exemple, nous pourrons suivre leur individualité par la continuité de notre surveillance et il nous sera possible de les
77
désigner constamment l’un par la lettre A, l’autre par la lettre B. Mais si les jumeaux entrent tous deux dans un édifice où nous ne pouvons pas pénétrer, puis
en ressortent l’un et l’autre au bout d’un certain temps, nous ne saurons comment
nous devons identifier les deux sortants avec celui que nous appelions A et avec
celui que nous nommions B. Et il est bien évident cependant que notre incapacité
à suivre le fil de ces deux individualités n’empêche pas nos jumeaux d’être des individus autonomes. Toutefois, il faut ici remarquer que la Physique contemporaine
a une tendance nette à adopter une attitude phénoméniste et à considérer comme
de pseudo-problèmes les problèmes qui ne peuvent d’aucune façon être tranchés
par l’expérience. Si l’on adopte ce point de vue, la question de savoir si l’individualité des particules persiste lorsqu’elle n’est pas susceptible d’être suivie doit être
considérée comme un pseudo-problème.
Nous avons dit que la Mécanique ondulatoire des systèmes avait dû développer ses formules de manière à ne préciser nullement l’individualité des corpuscules
de même nature. Néanmoins, en examinant la question avec soin, on s’aperçoit
qu’il y est encore possible de faire les calculs en attribuant à chaque particule une
individualité susceptible d’être suivie dans les deux cas suivants : lo Quand les
particules sont sans interaction de telle sorte qu’il soit permis de les considérer isolément ; 2o Quand les régions de présence possible des particules restent constamment séparées. Pour qu’il soit vraiment nécessaire dans un problème de Mécanique
ondulatoire d’exclure entièrement du formalisme toute possibilité d’individualiser
les corpuscules, il faut donc avoir affaire à un ensemble de corpuscules de nature
identique, exerçant entre eux des interactions et pouvant se trouver au moins ,à
un certain moment, dans une même région de l’espace. Existence simultanée pour
des particules identiques d’une interaction et d’un empiètement des régions de présence possible, telle est la condition pour qu’il y ait perte d’individualité. Il y a alors
une sorte d’interaction particulièrement intense appartenant à un type qu’ignorait
complètement la Mécanique classique. Elle se traduit mathématiquement par l’apparition automatique dans le formalisme de la Mécanique ondulatoire des systèmes
de termes d’énergie mutuelle n’ayant aucun analogue dans les théories classiques
qu’on nomme termes d’énergie d’échange. Ils correspondent à l’existence pour les
particules identiques d’une sorte de possibilité d’échanger leurs rôles au cours de
l’union intime qu’elles subissent quand elles occupent en interagissant une même
région de l’espace.
Le processus de l’échange, bien que n’étant pas directement observable, peut
être cependant considéré en un certain sens comme un fait physique, car l’existence
de l’énergie d’échange donne lieu à de très importants phénomènes observables.
C’est ainsi, on a pu le vérifier, que le choc de deux particules de même nature se
fait, à cause de l’énergie d’échange, suivant des lois tout à fait distinctes de celles
qui régissent les chocs entre particules de nature différente. D’ailleurs, la si belle
78
CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION
et si instructive théorie de la formation des molécules homopolaires, due à MM.
Heitler et London, qui a, la première, fourni une interprétation satisfaisante de la
notion de valence chimique et du phénomène de la saturation des valences, s’appuie
entièrement sur l’existence des énergies d’échange et, par suite, l’on peut dire que
presque tous les faits de la Chimie sont des manifestations de cette existence.
Le rôle fondamental de l’énergie d’échange dans la nature est donc aujourd’hui
indéniable, bien que sa signification profonde soit encore assez obscure.
∴
La Mécanique ondulatoire traduit, nous l’avons vu, la perte d’individualité
des particules semblables en n’admettant comme fonctions d’onde que des fonctions symétriques ou antisymétriques. L’expérience a de plus montré que certaines
sortes de particules ont toujours des fonctions d’onde symétriques et d’autres des
fonctions antisymétriques, fait qui est compatible, on le démontre, avec les lois
générales de la nouvelle Mécanique, sans être d’ailleurs imposé par elles. Les systèmes formés de corpuscules élémentaires, tels que protons et électrons, ont toujours des fonctions d’onde antisymétriques. Il en est de même des systèmes formés
de particules complexes quand elles sont elles-mêmes constituées par un nombre
impair de corpuscules élémentaires tandis que les systèmes formés de particules
complexes contenant un nombre pair de constituants élémentaires (particules α
par exemple) ont des fonctions d’onde symétriques. Ces propriétés des particules
complexes peuvent d’ailleurs s’expliquer aisément si l’on admet comme postulat le
caractère antisymétrique des fonctions d’onde pour les corpuscules élémentaires.
Les particules à fonctions d’onde antisymétriques, et notamment les électrons,
possèdent la très curieuse particularité suivante : deux d’entre elles ne peuvent
jamais avoir exactement le même état de mouvement. Si l’une de ces particules
possède un certain état de mouvement (caractérisé par un vecteur « quantité de
mouvement » bien défini) , la possibilité pour une autre particule de même nature
du système d’avoir le même état de mouvement se trouve par là même exclue : d’où
le nom de principe d’exclusion donné à l’énoncé de ce fait singulier. L’énoncé mathématique précis du principe d’exclusion dans le cas des électrons, fait d’ailleurs
intervenir la considération de la propriété interne de l’électron désignée sous le nom
de spin.
La perte d’individualité des particules de même espèce en Mécanique ondulatoire a conduit à renouveler entières ment les méthodes de la Mécanique statistique.
Tandis que la méthode classique de Boltzmann et de Gibbs comptait le nombre des
complexions élémentaires, dont un ensemble de particules semblables était susceptible, en attribuant à chacune dŠelles une individualité reconnaissable, les statis-
79
tiques quantiques actuelles font ce dénombrement en admettant l’indiscernabilité
des particules. Mais, ayant admis ce principe général, elles sont encore obligées de
procéder différemment suivant qu’il s’agit de particules à fonctions d’onde antisymétriques ou symétriques, c’est-à-dire de particules soumises ou non soumises au
principe d’exclusion. La loi de répartition des énergies entre les particules dans un
ensemble statistique, loi qui remplace la loi classique de Maxwell-Boltzmann, prend
alors dans chacun de ces deux cas une forme différente. Si le principe d’exclusion
est valable, on obtient la loi statistique dite de Fermi-Dirac ; dans le cas contraire,
la loi statistique de Bose-Einstein. Dans beaucoup de cas usuels, pour les gaz dans
les conditions ordinaires par exemple, la différence entre ces lois et la loi classique
est si faible qu’il est impossible de la mettre directement en évidence. Mais la loi
de Bose-Einstein se vérifie dans le cas des photons pour lesquels il n’y a pas de
principe d’exclusion, car elle conduit alors à la loi bien connue et bien vérifiée
de Planck pour la composition spectrale du rayonnement noir. Quant à la loi de
Fermi-Dirac, elle a pu être soumise à une vérification indirecte, mais très probante,
dans le cas des électrons libres de conductibilité dans les métaux (Sommerfeld).
Sans entrer dans le détail de tous ces développements, montrons combien le
principe d’exclusion traduit par la statistique de Fermi-Dirac, conduit à des conséquences qui paraissent au premier abord tout à fait paradoxales. Envisageons, en
effet, un gaz formé de particules obéissant au principe d’exclusion et enfermé dans
un récipient de très grandes dimensions. Avec les idées classiques, il est tout à fait
inconcevable que, si une particule située à l’une des extrémités du récipient possède
un certain état de mouvement, elle puisse empêcher une autre particule située à
l’autre extrémité du récipient, donc à une très grande distance, d’avoir le même
état de mouvement. En Mécanique ondulatoire, on peut éluder cette difficulté en
s’appuyant sur les relations d’incertitude d’Heisenberg : si, en effet, l’on suppose
exactement connu le mouvement d’une particule, les relations d’incertitude nous
apprennent que la position de cette particule est alors nécessairement tout à fait
indéterminée, c’est-à-dire qu’elle peut manifester sa présence n’importe où dans le
récipient : autrement dit, sa région de présence possible remplit tout le récipient.
Dès lors, on ne peut pas dire que deux particules, dont on suppose les états de
mouvement exactement connus, sont éloignées l’un de l’autre : on peut tout aussi
bien dire qu’elles sont en contact puisqu’elles occupent toutes deux, en quelque
sorte potentiellement, la totalité du récipient. Cet argument subtil nous montre
clairement que l’exclusion est étroitement liée à la non-localisation des unités physiques dans l’espace. Son existence nous montre donc une fois de plus combien nos
conceptions traditionnelles sur l’espace sont sujettes à caution. On peut d’ailleurs
envisager l’exclusion comme une forme nouvelle d’interaction spécifiquement quantique et différente de l’énergie d’échange. En dehors de son intervention dans les
statistiques quantiques, cette interaction d’un type nouveau joue un rôle essentiel
80
CHAPITRE 7. INDIVIDUALITÉ ET INTÉRACTION
dans beaucoup de phénomènes et se traduit à l’échelle macroscopique par des faits
observables d’une importance capitale : toute la diversité de structure des atomes
et la différence de leurs propriétés physiques et chimiques s’expliquent, en dernière
analyse, par l’existence de l’exclusion et M. Heisenberg a même pu lui rattacher
les propriétés magnétiques si remarquables des corps dits ferromagnétiques. L’existence de l’exclusion est donc à la fois certaine et fondamentale, mais sa véritable
signification nous reste encore bien cachée.
∴
En résumé, il existe une certaine antinomie entre l’idée d’individualité autonome et celle de système où toutes les parties agissent les unes sur les autres. La
réalité, dans tous ses domaines, paraı̂t être intermédiaire entre ces deux idéalisations extrêmes et, pour la représenter, il nous faut chercher à établir entre elles
une sorte de compromis. La Physique n’a pas échappé à cette nécessité et, sous sa
forme classique, elle a tenté de réaliser le compromis grâce à la notion d’énergie
potentielle d’interaction entre particules. Bien qu’à l’examiner de près ce compromis apparaisse comme assez bâtard, il a permis cependant de représenter un grand
nombre de faits à l’échelle macroscopique et a longtemps paru suffisant. La situation s’est beaucoup aggravée quand la Physique quantique, étudiant les faits de
l’échelle microscopique s’est aperçue que les entités élémentaires ne pouvaient plus
y être exactement localisés dans l’espace. Ce fait, si surprenant au premier abord,
entraı̂nait l’impossibilité d’attribuer aux particules une individualité susceptible
d’être constamment suivie et reconnue : nous avons étudié les complications qui en
résultaient. De plus, la possibilité pour plusieurs corpuscules d’occuper simultanément, du moins d’une manière potentielle, une même région de l’espace, provoque
l’apparition de formes nouvelles d’interactions ignorées de la Physique classique :
l’interaction d’échange et l’interaction d’exclusion. L’existence de ces interactions
est aujourd’hui physiquement certaine, leur importance assurément capitale, mais
leur interprétation encore totalement obscure. En Physique quantique, le compromis à réaliser entre l’individualité et l’interaction apparaı̂t donc comme bien plus
difficile encore à concevoir qu’en Physique classique : il doit rendre compte de
faits complexes et surprenants pour nos habitudes de pensée et il ne pourra certainement pas être développé dans le cadre de nos idées anciennes sur l’espace. En
dehors des questions de formalisme mathématique qui sont déjà en partie réglées,
il y a là de difficiles problèmes d’interprétation dont la solution demandera encore
de longs efforts à ceux dont le principal souci est de comprendre, dans toute la
mesure du possible, la nature du monde physique.
Chapitre 8
Physique ponctuelle et physique
du champ
La Physique théorique bénéficie de la puissance créatrice presque indéfinie de
l’esprit humain dont elle procède, mais, par contre, elle ne peut s’affranchir entièrement ni de ses tendances instinctives, ni de ses imperfections. Or l’une des
tendances instinctives de notre esprit, qui est sans doute aussi l’une de ses imperfections, est de vouloir ramener la réalité à des abstractions nettement définies.
En allant alternativement d’une de ces abstractions à l’abstraction opposée, il se
trouve souvent ainsi ballotté indéfiniment entre des conceptions extrêmes et antinomiques. Cette circonstance, qui a toujours joué un grand rôle dans tous les
domaines de l’activité humaine s’exprime dans l’histoire des doctrines philosophiques et scientifiques par l’antagonisme et les succès alternés de la conception
du simple Ű inétendu et la conception antinomique du complexe-étendu. L’idée de
l’élément indivisible et sans étendue, nous la retrouvons dans l’atome insécable de
Démocrite et de Lucrèce, dans la monade de Leibniz dans le corpuscule élémentaire
des physiciens contemporains. Quant à l’idée opposée d’une réalité physique essentiellement étendue dans l’espace et nécessairement sub-divisible au moins par la
pensée, nous la voyons suggérer toutes les représentations continues de la matière,
toutes les théories qui invoquent l’existence d’un « milieu » siège des phénomènes ;
elle se retrouve dans l’éther d’Huyghens et de Fresnel parcouru par le frissonnement des ondes lumineuses ; elle culmine enfin dans la conception Maxwellienne
du champ électromagnétique qui, répudiant toute action à distance, tend à représenter l’univers physique en décrivant l’état « local » à chaque instant de toutes les
régions de l’espace. Ainsi se sont constitués, conformément aux tendances de notre
esprit, deux grands courants de pensée opposés l’un à l’autre qui se sont sans cesse
rencontrés et plus ou moins mélangés dans les théories de la Physique moderne.
Ils correspondent à deux points de vue antagonistes qu’on peut appeler le point
de vue de la « Physique ponctuelle » et celui de la « Physique du champ ». Nous
81
82
CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP
voulons examiner dans cette étude comment ces deux points de vue se sont mêlés
depuis un siècle dans les théories des physiciens et comment ils se sont aujourd’hui
conciliés dans les conceptions quantiques d’une manière très intéressante qui est
de nature à nous faire mieux comprendre leurs situations respectives.
∴
La théorie physique qui a été constituée la première et qui a servi, peut-on dire,
de modèle aux autres pendant plus de deux siècles est la Mécanique Newtonienne,
la Mécanique rationnelle classique. Par son point de départ et par ses tendances,
elle appartient à la Physique ponctuelle. Elle part en effet de l’idée de point matériel, c’est-à-dire de corpuscule sans étendue, mais doué de masse, et elle en tire les
notions de trajectoire et de vitesse. Sans doute la Mécanique a pu décrire les mouvements des corps étendus, mais c’est essentiellement en les considérant comme
des ensembles de points matériels. Dans la Mécanique des milieux continus, dans
la théorie de l’Elasticité et dans la Mécanique des fluides, l’idée primitive du point
matériel a passé au second plan et la doctrine s’est infléchie dans le sens de la Physique du champ. Néanmoins l’apparente continuité des milieux solides ou fluides
est considérée dans ces théories comme due à une sorte d’illusion macroscopique
qui voile pour nos sens trop grossiers la structure essentiellement discontinue des
milieux matériels. Le caractère essentiellement discontinu et ponctuel de la Mécanique Newtonienne a d’ailleurs reparu avec toute sa force dans les théories de la
Physique le jour où les physiciens ayant découvert l’existence de corpuscules élémentaires ont cherché à expliquer les propriétés physiques et chimiques des corps
par les mouvements et les interactions de ces corpuscules.
Il est à noter que la grosse difficulté rencontrée par les conceptions ponctuelles
de la Mécanique, c’est précisément l’existence des interactions. Entre des corpuscules vraiment ponctuels et isolés, les forces d’interaction ne peuvent résulter que
d’actions à distance dans l’espace vide et l’on retrouve la même conception difficilement acceptable à une plus grande échelle en Mécanique céleste où elle a
soulevé dès le temps de Newton de fortes objections. Tandis donc que la conception ponctuelle de la Mécanique conduit à une représentation nette au sujet du
mouvement et de la trajectoire des éléments matériels et satisfait notre tendance
à admettre l’existence d’individualités physiques primaires et irréductibles, elle se
heurte à d’importantes difficultés pour la représentation des actions entre les corpuscules élémentaires, l’espace qui sépare ces corpuscules devant être absolument
vide et sans contenu physique et ne pouvant par suite servir de support ou d’agent
transmetteur pour les interactions.
83
Ces difficultés rencontrées par la conception purement ponctuelle de la Mécanique ont conduit à rechercher des formes plus continues de cette science, telles que
la théorie de l’élasticité des solides ou la Mécanique des fluides, dans lesquelles on
attribue à chaque élément de volume du solide ou du fluide considéré des grandeurs
de nature cinématique ou dynamique (vitesse, accélération, quantité de mouvement, énergie, tensions ou pressions internes, etc.) Il est intéressant de rappeler
ici la façon dont ces représentations continues ont pu se concilier avec la croyance
à une structure discontinue de la matière. Considérons par exemple la notion de
densité qui intervient constamment dans ces représentations continues. Dans un
fluide homogène de densité ρ, un petit élément de volume ∆υ aura une masse ρ∆υ :
si l’on adopte l’hypothèse d’une structure discontinue de la matière, cela ne veut
pas dire que l’élément de volume ∆υ examiné microscopiquement soit rempli d’un
fluide de densité ρ car par hypothèse cet élément de volume contient en réalité des
corpuscules de matière séparés par du vide. La densité réelle à l’intérieur de ∆υ
est donc très grande (peut-être même infinie) en certains points, tandis qu’elle est
nulle presque partout. La possibilité d’employer la notion d’une densité macroscopique ρ vient de ce que les éléments ρ∆υ envisages par la Mécanique continue sont
des « infiniment petits physiques » et contiennent chacun un nombre énorme de
particules matérielles. La quantité ρ∆υ représente ainsi le produit par la masse de
chacune des particules du nombre probable des particules contenues dans l’élément
de volume ∆υ, l’écart relatif entre le nombre réel et le nombre probable de ces particules devant toujours être pratiquement très petit en vertu de la loi des grands
nombres. On voit donc que c’est l’intervention des considérations statistiques qui
seule, en réalité, permet aux formes continues de la Mécanique d’admettre une
continuité apparente à lŠéchelle macroscopique et de satisfaire ainsi à cette échelle
aux tendances de la Physique du champ. Mais il faut remarquer que les difficultés
signalées précédemment sont ainsi seulement reculées, repoussées à l’échelle inférieure, mais non pas résolues. Tant qu’on examine ces phénomènes avec des moyens
assez grossiers pour que les éléments ∆υ paraissent comme infiniment petits, on
obtient une Physique du champ douant chaque élément de volume ∆υ de propriétés mécaniques ou physiques et supprimant l’action à distance. Mais, si l’on
parvient à analyser ce qui se trouve réellement dans chaque élément de volume
∆υ, on est amené à s’y figurer des corpuscules séparés par d’immenses espaces
vides (immenses par rapport aux dimensions des corpuscules) et ne pouvant agir
les uns sur les autres que par des actions à distance. Les antinomies que le jeu
des moyennes statistiques faisait disparaı̂tre ou masquait à l’échelle grossière de
nos observations macroscopiques reparaissent dans toute leur vigueur quand on
pousse plus loin l’analyse de la réalité physique. Aussi, ceux que scandalisait l’idée
d’action à distance et d’isolement des points matériels au milieu d’un vide dénué
de propriétés physiques devaient-ils en arriver logiquement à tenter de construire
84
CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP
une véritable Physique du champ qui attribue à chaque élément de volume, si petit soit-il, à l’échelle microscopique des propriétés mécaniques et physiques, tirant
ainsi les corpuscules de leur splendide isolement et éliminant toute action à distance. Cette véritable « Physique du champ » fut l’œuvre capitale de Maxwell et
de ses continuateurs, notamment de Lorentz.
Une des caractéristiques bien connues de la théorie électromagnétique de maxwell est, en effet, de douer chaque élément de volume, même du vide, de propriétés physiques essentiellement représentées par le tenseur de Maxwell qui exprime
l’énergie, la quantité de mouvement et les tensions électromagnétiques localisées
par unité de volume en chaque point. Le vide, du moins lorsqu’il est le siège d’un
champ électromagnétique, cesse ainsi d’être un cadre amorphe et devient le support
d’une distribution continue de grandeurs électromagnétiques. Ce point de vue a
été ensuite précisé et développé par Lorentz dans sa célèbre théorie des électrons.
Cette théorie admet que les corps matériels sont formés en dernière analyse de
particules électrisées et, prolongeant dans le microscopique les conceptions macroscopiques de Maxwell elle suppose qu’à l’intérieur des corps matériels, le tenseur
de Maxwell (exprimé à l’aide de champs définis par Lorentz) donne pour chaque
élément de volume du vide qui sépare les particules électrisées l’énergie, la quantité de mouvement et les tensions électromagnétiques localisées dans cet élément
de volume. On arrive ainsi à une Physique du champ qui régnerait même à l’échelle
la plus fine dans toutes les régions qui au sein de la matière seraient extérieures
aux particules électrisées. Pour les partisans du continu et des actions médiates,
il y avait là un grand progrès et les difficultés paraissaient ainsi considérablement
réduites. Elles n’étaient cependant encore que reculées car elles se reposaient pour
l’intérieur des particules électrisées. On pouvait imaginer les particules électrisées
comme de petits objets ayant une certaine extension spatiale et contenant une
certaine distribution d’électricité d’un seul signe et tenter d’appliquer à l’intérieur
même de cette distribution les conceptions de la Physique du champ. Ce fut la
voie suivie par Lorentz. Mais il fallait alors expliquer pourquoi les particules électrisées sont stables malgré la répulsion mutuelle de leurs parties ; il fallait aussi
expliquer pourquoi ces particules, par exemple les électrons négatifs, sont insécables et jouent le rôle de constituants élémentaires de la matière, pourquoi il en
existe un très petit nombre de types, chaque type étant tiré à un nombre immense
d’exemplaires dans Nature. A toutes ces questions, la théorie de Lorentz n’a pu
fournir aucune réponse satisfaisante. On pouvait, il est vrai, s’en tirer d’une autre
manière, en admettant que les particules élémentaires sont ponctuelles, inétendues,
que ce sont des singularités du champ électromagnétique, de sorte que la Physique
du champ serait valable partout sauf en un certain nombre de points singuliers.
On réaliserait ainsi une sorte de synthèse entre la Physique du champ et la Physique ponctuelle. Malheureusement, avec les conceptions de l’électromagnétisme
85
classique, cette tentative se heurte aussi à d’insurmontables objections. En particulier, une charge électrique rigoureusement ponctuelle devrait, du seul fait de
l’existence de son champ électrostatique, posséder une énergie infinie, conclusion
physiquement inacceptable.
Ainsi, au moment où se terminait dans les premières années du XXe siècle la
période classique de la Physique (c’est-à-dire la période antérieure au développement de la théorie des Quanta), on se trouvait dans la situation suivante : d’une
part, la Physique du champ était parvenue à donner une représentation des champs
électromagnétiques qui paraissait valable même à l’échelle microscopique dans le
vide et dans les interstices de la matière, c’est-à-dire dans les espaces qui à l’intérieur de la matière séparent les particules électrisées ; d’autre part, l’existence de
corpuscules élémentaires électrisés jouant le rôle de matériaux ultimes des édifices
matériels, c’est-à-dire la structure discontinue de la matière et de l’électricité, avait
été établie expérimentalement d’une façon certaine, mais il restait impossible de
concilier d’une manière satisfaisante l’existence de ces grains élémentaires de matière et d’électricité avec les exigences de la Physique du champ. Cette situation
s’est trouvée encore singulièrement aggravée par la découverte d’une structure discontinue de la lumière qui entraı̂ne (car il est impossible de renoncer à la grande
synthèse de Maxwell), l’existence d’un aspect granulaire de l’énergie électromagnétique elle-même. Tous les succès de la Physique du champ réalisés par l’œuvre de
Maxwell et de Lorentz se sont trouvés remis en question. Jusque-là, on avait pu
légitimement penser que la structure granulaire était quelque chose de spécial à la
matière et à l’électricité, tandis que la répartition de l’énergie électromagnétique
dans le vide paraissait correctement représentée par le tenseur de Maxwell dans
chaque élément de volume où règne le champ considéré. Et voilà que la découverte du quantum de lumière, du photon, montrait que la répartition continue des
énergies et quantités de mouvement électromagnétiques donnée par le tenseur de
Maxwell ne pouvait être, elle aussi, que la représentation statistique d’une structure granulaire jusqu’alors inconnue. La théorie de Maxwell-Lorentz n’apparaissait
plus que comme une image globale permettant de représenter en moyenne dans un
grand nombre de cas les propriétés de l’énergie électromagnétique, mais masquant
la nature réelle essentiellement discontinue de cette énergie ; tout comme la Mécanique des fluides permet de représenter globalement dans beaucoup de cas les
propriétés moyennes des corps fluides, mais en masquant la structure atomique de
la matière. Cette découverte avait des conséquences particulièrement graves car
elle annulait tous les succès remportés par la Physique du champ à l’échelle microscopique sous la forme de la théorie de Lorentz. Dans cette théorie, en effet, on
représentait la distribution des énergies et quantités de mouvement électromagnétiques à l’aide du tenseur de Maxwell (exprimé avec les champs microscopiques de
Lorentz) même à l’intérieur de la matière entre les particules électrisées, de sorte
86
CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP
que la Physique du champ paraissait régner au moins dans tout l’espace extérieur
aux particules électrisées : or on s’apercevait tout à coup qu’il ne pouvait s’agir
encore ici que d’une statistique, comme dans la Mécanique des fluides microscopiques, et non d’une véritable et définitive Physique du champ. Mais la question
s’est trouvée bientôt complètement renouvelée par le développement des théories
quantiques dont nous allons maintenant parler.
∴
Le résultat essentiel des théories quantiques, si on les examine du point de vue
qui nous occupe, est le suivant : elles ont introduit les idées de probabilité et de
statistique dans le cas d’une seule particule élémentaire. Ce faisant, elles nous ont
fait entrevoir la possibilité d’une fusion plus complète et très nouvelle entre les
conceptions de la Physique ponctuelle et celle de la Physique du champ. Les théories quantiques admettent l’existence de corpuscules élémentaires ponctuels qui se
manifestent dans les faits observables par des apparences à caractère discontinu.
Mais elles ont été aussi forcées d’admettre que ces corpuscules élémentaires ne
sont pas bien localisés dans l’espace à chaque instant, qu’il existe en général toute
une région étendue de l’espace où la présence du corpuscule peut se manifester.
De même les grandeurs dynamiques d’un corpuscule, énergie et quantité de mouvement, sont susceptibles de se manifester à nous dans les observations avec des
valeurs bien définies, mais, à chaque instant, il y a en général toute une série de
valeurs possibles pour ces grandeurs de sorte que le point représentatif du corpuscule dans l’extension en moment 1 n’est pas lui non plus bien localisé et qu’il
existe en général à chaque instant toute une région étendue de cette extension en
moment où la présence du point représentatif de la quantité de mouvement peut
se manifester. Les étendues des deux régions de localisation possible dans l’espace
des positions et dans l’espace des moments sont d’ailleurs reliées par les relations
d’incertitude d’Heisenberg de telle façon que, si l’une est petite, l’autre est nécessairement grande. La théorie quantique, notamment sous la forme de la Mécanique
ondulatoire, associe alors au corpuscule ponctuel des fonctions continues représentant la distribution des probabilités de présence dans l’espace et définissant pour
chaque grandeur mécanique une densité de répartition.
Bref, la théorie quantique en est arrivée à ce résultat très intéressant d’associer à
chaque corpuscule, malgré sa nature foncièrement ponctuelle, des grandeurs réparties continûment dans l’espace qui représentent les probabilités des manifestations
1. LŠextension en moment est lŠespace abstrait où sont représentées les quantités de mouvement.
87
discontinues du corpuscule. Ainsi se trouvent réconciliées sous une forme assez inattendue la Physique ponctuelle et la Physique du champ, la seconde apparaissant
maintenant comme une représentation statistique des diverses possibilités.
On peut même aller plus loin. La Physique du champ est liée à l’emploi de
l’espace continu à trois dimensions comme cadre de la réalité physique, tandis que
la Physique ponctuelle suggérerait plutôt l’idée d’un espace discontinu et granulaire. Dans la Physique des quanta, les deux notions se rapprochent parce qu’à
chaque grain est liée une marge d’incertitude et que, si les grains sont assez voisins pour que les marges d’incertitude empiètent, il en résulte un continu apparent
dû à la mauvaise définition des éléments discontinus qui les sous-tendent. De la
même manière, en spectroscopie, un fond spectral continu peut être engendré par
une accumulation de raies spectrales car, chaque raie spectrale ayant toujours une
largeur, quand les raies sont assez serrées pour que leur distance soit inférieure
à leur largeur, l’accumulation des raies discontinues donne l’apparence d’un fond
continue dû à la définition imprécise des raies discontinues qui le forment. Et cette
comparaison n’est pas superficielle car, en théorie quantique, la largeur d’une raie
spectrale est la traduction de l’incertitude (au sens d’Heisenberg) qui existe sur la
valeur exacte de sa fréquence, de sorte que le fond spectral continu est bien alors
une apparence engendrée par l’incertitude, au sens quantique du mot, dont sont
affectés les éléments discrets qui le composent. Cette idée du discontinu engendrant
le continu par l’incertitude mériterait certainement d’être approfondie.
∴
Dans les formes continues de la Mécanique macroscopique, les grandeurs de
champ (telles que les densités, les vitesses d’écoulement, etc.) s’introduisent en
somme par suite d’une statistique portant sur un nombre immense de particules,
statistique justifiée par le caractère grossier et global de nos observations macroscopiques. En Physique quantique, au contraire, les grandeurs de champ s’introduisent par une statistique portant sur les possibilités relatives à un seul corpuscule
et sont par suite rattachées aux « incertitudes » caractéristiques de cette nouvelle
Physique. La Mécanique ondulatoire définit les grandeurs de champs associées à un
corpuscule à l’aide d’une fonction continue des coordonnées et du temps, la « fonction d’onde Ψ » du corpuscule. Cette fonction d’onde, étant définie en chaque point
de l’espace à chaque instant, présente elle-même les caractères d’une grandeur de
champ : aussi l’appelle-t-on parfois le champΨ (Ψ-Feld des auteurs allemands).
Mais ce champ Ψ n’est pas en lui-même un caractère physique correspondant à
des faits observables : ce sont d’autres grandeurs de champ construites à partir du
champ Ψ qui ont ce caractère. Ainsi, dans la Mécanique ondulatoire relativiste des
88
CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP
électrons à spin, due à M. Dirac, on peut construire toute une série de grandeurs
de champ (densités de moment magnétique et de moment électrique propres de
l’électron, densité de spin) à partir du champ Ψ, qui d’ailleurs est ici défini par un
ensemble de quatre fonctions formant les composantes d’un même être mathématique. Ces grandeurs jouent dans cette théorie de Dirac un rôle très important : ce
sont elles en particulier qui y présentent des variances relativistes simples.
Nous venons de voir comment la Mécanique ondulatoire des particules matérielles définit les grandeurs de champ associées à une de ces particules. Comment
peut-on étendre cette méthode au cas de la lumière ? Une bonne théorie de la
lumière doit aujourd’hui rendre compte à la fois de l’existence des photons et
de la représentation de l’onde lumineuse par les champs électromagnétiques de
Maxwell. Il semble donc bien que, dans une telle théorie, l’on doive poser en principe au départ l’existence de la particule « photon » et chercher à lui associer un
champ Ψ permettant de construire des grandeurs de champ parmi lesquelles on
retrouve les grandeurs électromagnétiques classiques de l’onde lumineuse Maxwellienne. C’est ce programme que l’auteur du présent ouvrage s’est efforcé de remplir
par sa nouvelle théorie du photon. Cette théorie constitue une véritable Mécanique
ondulatoire du photon et les résultats qu’elle a pu obtenir paraissent aujourd’hui
très satisfaisants à beaucoup d’égards. De toutes façons et quelle que soit la manière dont on la développe, la théorie du photon apparaı̂t presque nécessairement
comme le point critique où les conceptions de la Physique ponctuelle représentées
par la notion même de photon doivent venir rejoindre la plus parfaite des théories
de la Physique du champ, la théorie électromagnétique : là est la raison profonde
de l’intérêt tout particulier que présente l’étude théorique de la lumière dans le
stade actuel de la Physique.
∴
Il nous paraı̂t impossible de ne pas dire maintenant quelques mots d’une question, à vrai dire très difficile, qui a joué un rôle important dans le développement
des théories quantiques contemporaines : celle de la « superquantification » ou
« seconde quantification ».
Quand on a affaire non pas à une seule particule, mais à un ensemble de particules, la construction des champs associés, à cet ensemble se fait en Mécanique
ondulatoire d’une façon assez inattendue. On doit en effet associer à cet ensemble
de particules non plus une fonction Ψ représentant une onde qui se propage dans
l’espace physique ordinaire à trois dimensions, mais bien une fonction Ψ représentant une onde qui se propage dans un espace abstrait, dit espace de configuration,
ayant autant de fois trois dimensions qu’il y a de particules dans le système. Ainsi
89
pour un système contenant N particules, la fonction d’onde et toutes les grandeurs
de champ qui en dérivent sont définies dans un espace fictif à 3N dimensions. De
plus, si le système contient plusieurs particules de même nature physique (plusieurs
électrons ou plusieurs protons par exemple) , la fonction Ψ doit satisfaire, suivant
la nature de ces particules, à certaines conditions de symétrie ou d’antisymétrie
bien connues de ceux qui ont étudié la Mécanique ondulatoire.
Le progrès des méthodes de la Mécanique ondulatoire a montré que, quand
l’on étudie un ensemble de N particules de même nature physique, il est possible
de représenter l’évolution de tout cet ensemble à l’aide d’une onde se propageant
dans l’espace à trois dimensions. On obtient alors ainsi une description ondulatoire
du système formé par les N particules identiques dans le cadre de l’espace physique auquel nous sommes accoutumés et qui nous est presque indispensable pour
exprimer notre connaissance du monde extérieur. Et ce procédé nous permet d’associer à l’ensemble de particules considéré certaines grandeurs définies en chaque
point de l’espace physique, à chaque instant, ce qui nous ramène aux procédés
habituels de la physique du champ. Mais la fonction Ψ(x, y, z, t) qui représente
l’onde du système des N particules dans l’espace physique à trois dimensions ne
peut plus avoir le même caractère que la fonction Ψ associée au mouvement d’un
seul corpuscule. Il doit, en effet, y avoir dans sa structure mathématique quelque
chose qui traduise l’existence de N particules dans le système considéré et N doit
naturellement être un nombre entier. Que le nombre N doive être un entier, c’est
là la traduction même de la notion de particule, c’est l’exigence fondamentale de la
Physique ponctuelle. Or la découverte de la méthode dite « superquantification »
ou « seconde quantification » a permis à la Mécanique ondulatoire d’attribuer à la
fonction d’onde Ψ(x, y, z, t) les propriétés nécessaires pour que le caractère entier
du nombre N se trouve traduit automatiquement par le formalisme même de la
théorie. En définissant convenablement le champ Ψ superquantifié et les grandeurs
qui en dérivent à l’aide de fonctions continues dans l’espace physique à trois dimensions, la méthode de seconde quantification parvient à associer ces champs
continus à des nombres nécessairement toujours entiers de particules : par là, elle
réalise sous une forme entièrement nouvelle la fusion des concepts de la Physique
du champ avec ceux de la Physique ponctuelle.
Il faut avouer cependant que, si la superquantification concilie très élégamment
la continuité du champ Ψ avec la notion de particules discrètes, elle n’y parvient
qu’au moyen d’un artifice de caractère assez abstrait : la fonction d’ondeΨ(x, y, z, t)
n’est plus en Mécanique ondulatoire superquantifiée une fonction ordinaire ayant
une valeur numérique bien définie pour chaque valeur des variables x, y, z, t, mais
c’est ce que l’on nomme un « opérateur » fonction de x, y, z, t. La seconde quantification déplace donc en quelque sorte le caractère étrange de la Mécanique ondulatoire des systèmes de particules sans parvenir à l’éliminer. Dans la forme ordinaire,
90
CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP
non superquantifiée, de cette Mécanique ondulatoire, on a des grandeurs de champ
qui sont des fonctions numériques ordinaires, mais, au lieu de définir des champs
dans l’espace physique à trois dimensions, on définit des champs dans un espace
visiblement fictif à 3N dimensions. Dans la Mécanique ondulatoire superquantifiée
au contraire, nous retrouvons avec soulagement notre espace physique habituel à
trois dimensions, mais en revanche la fonction Ψ et les grandeurs de champ qui
en dérivent ne s’expriment plus par des fonctions numériques ordinaires, mais par
des opérateurs. Ainsi, ce que la représentation intuitive a gagné d’un côté, elle le
reperd de l’autre ; cela n’empêche d’ailleurs en rien la seconde quantification d’être
une méthode logiquement cohérente.
II est intéressant de préciser comment la seconde quantification s’introduit dans
la théorie des particules de lumière. Lorsqu’on est parvenu à construire une Mécanique ondulatoire du photon, il est naturel de considérer des assemblées de nombreux photons, car c’est le cas qui se présente habituellement en pratique. Pour
représenter un ensemble de N photons dans le cadre de l’espace physique, il sera
alors tout indiqué de soumettre la Mécanique ondulatoire du photon à l’opération
de seconde quantification. Le champ Ψ du photon ayant été transformé par cette
opération, toutes les grandeurs attachées au photon qui se construisent à partir
du champ Ψ, et en particulier les grandeurs électromagnétiques Maxwelliennes, se
trouveront automatiquement transformées elles aussi. Les champs électromagnétiques liés à l’ensemble des photons se trouvent alors avoir acquis précisément le
caractère quantifié que leur avaient attribué, il y a déjà une dizaine d’années, MM.
Jordan, Pauli et Heisenberg dans leur théorie quantique des champs. Les formules
par lesquelles s’exprime le caractère quantifié des champs électromagnétiques traduisent le fait que les champs Maxwelliens, malgré leur aspect de champs continus,
correspondent toujours à des nombres entiers de photons. La Mécanique ondulatoire du photon une fois superquantifiée aboutit donc à la théorie quantique des
champs et explique comment la lumière peut être représentée à la fois par une
assemblée de photons et par un champ électromagnétique du type de Maxwell.
∴
Dans les lignes qui précèdent, nous espérons avoir montré que la Mécanique
ondulatoire et ses prolongements ont apporté des éléments vraiment nouveaux
dans la vieille lutte entre la Physique ponctuelle et la Physique du champ, entre
la conception continue et la conception discontinue des réalités physiques ultimes.
Les éléments derniers de la matière et de la lumière y sont conçus comme étant
des corpuscules essentiellement ponctuels. Les coordonnées de ces corpuscules et
les grandeurs dynamiques qui leur sont attachées sont susceptibles de se révéler à
91
nous dans les observations avec des valeurs tout à fait précises. Mais l’ensemble
des valeurs des coordonnées et des grandeurs dynamiques est constamment affecté
par les incertitudes quantiques liées à l’existence du quantum d’Action. Ce sont ces
incertitudes qui nécessitent pour leur représentation statistique l’emploi des grandeurs de champ, de sorte que le continu apparaı̂t ici comme sortant du discontinu
par l’intermédiaire des incertitudes quantiques dont l’existence rend nécessaire l’intervention des probabilités et du point de vue statistique. Réconciliation du continu
avec le discontinu par le jeu des probabilités, le continu semblant surgir de l’application des probabilités à un discontinu incertain, telle paraı̂t être la suggestion
que nous fournit l’état actuel des théories quantiques.
92
CHAPITRE 8. PHYSIQUE PONCTUELLE ET PHYSIQUE DU CHAMP
Chapitre 9
La Théorie quantique du
rayonnement
La théorie de la Lumière s’est présentée successivement sous des aspects différents : théorie des corpuscules de Newton, théorie des ondes de Huyghens et de
Fresnel, théorie des champs électromagnétiques de Maxwell. Il est assez aisé de
concilier la conception ondulatoire avec la conception électromagnétique : il suffit,
en effet, de supposer que les grandeurs lumineuses qui, d’après Fresnel, doivent se
propager par ondes sont de nature électromagnétique. Sans ambiguı̈té pour le vide,
sans grandes difficultés pour les milieux matériels on est ainsi parvenu à donner un
sens électromagnétique aux grandeurs vectorielles de la théorie ondulatoire de la
Lumière. Finalement, la lumière s’est trouvée définie en tout point de l’espace par
des grandeurs vectorielles électromagnétiques (champs et inductions électriques et
magnétiques) : c’est pourquoi, depuis Maxwell, la théorie de la Lumière se trouve
être à la fois une théorie électromagnétique et une théorie du type de la « physique du champ », c’est-à-dire faisant intervenir des champs de grandeurs définies
dans une région étendue de l’espace ; mais c’est aussi une théorie du type ondulatoire parce que les grandeurs lumineuses se propagent par ondes (dans le vide avec
une vitesse caractéristique constante c) et que toute perturbation lumineuse peut
s’analyser, suivant le procédé de Fourier, comme une superposition d’ondes planes
monochromatiques.
Bien différente est la conception corpusculaire de la lumière : ici plus de grandeurs définies en tout point, plus de phénomènes ondulatoires s’étalant dans l’espace, mais des corpuscules localisés décrivant des trajectoires à une dimension.
Ici, le champ fait place à la singularité, le continu au discontinu. La distance
apparaı̂t donc très grande entre les deux genres d’images. Aussi, tandis que les
conceptions de Fresnel et de Maxwell parvenaient à s’amalgamer aisément, les succès qu’elles remportaient dans l’interprétation des faits expérimentaux semblaient
prouver d’une manière irréfutable l’inexactitude fondamentale de toute concep93
94
CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT
tion corpusculaire de la Lumière. Cependant, plus récemment, la découverte de
phénomènes, tels que l’effet photoélectrique, où se manifeste un aspect nettement
corpusculaire de la lumière, et le développement de la théorie des quanta ont montré qu’il était nécessaire de chercher un compromis entre l’image des corpuscules
et l’image des champs ondulatoires et électromagnétiques.
Comme il est bien connu, le problème consistant à harmoniser le point de vue
des ondes et le point de vue des corpuscules a été, en principe, résolu par la Mécanique ondulatoire. Il a été résolu par une association fondamentale entre les notions
d’onde et de corpuscule, l’état de tout corpuscule devant toujours être représenté
par une onde qui lui est associée. Cette représentation des états d’un corpuscule
par une onde associée est d’ailleurs bien différente des représentations employées
par l’ancienne Physique antérieure aux Quanta. La fonction d’onde associée au
corpuscule, la fonction Ψ comme on la nomme habituellement, ne décrit en aucune
façon la structure du corpuscule ou son état précis de localisation ou de mouvement tel qu’il était conçu par la Physique ancienne. Elle représente seulement
d’une façon statistique les diverses valeurs qu’une observation comportant mesure
peut conduire à attribuer aux grandeurs attachées au corpuscule et les probabilités
respectives de ces diverses valeurs. Les diverses grandeurs décrivant un corpuscule,
par exemple les trois coordonnées qui fixent sa position dans l’espace, n’ont plus,
comme dans les conceptions classiques, des valeurs certaines à tout moment, mais
toute une série de valeurs possibles à chaque instant. Ainsi, à tout instant le corpuscule peut se manifester à l’observation en un point quelconque d’une région étendue
de l’espace, la probabilité pour que ce soit précisément en un certain point de cette
région étant donné par le carré de l’amplitude de la fonction d’onde Ψ en ce point.
En Mécanique ondulatoire, le caractère discontinu du corpuscule persiste à exister
et se manifeste par le fait que les grandeurs mesurables relatives au corpuscule
conservent la nature de grandeurs attachées à une entité discrète, possédant des
paramètres caractéristiques propres tels que masse, charge électrique, etc. ; mais
l’onde Ψ en donnant une représentation statistique de toutes les valeurs possibles
de chacune de ces grandeurs permet de rétablir la continuité. Autrement dit, tandis
qu’une mesure précise conduit toujours à un résultat exprimable dans le langage
corpusculaire, l’onde Ψ qui est une grandeur de champ définie en chaque point de
l’espace à tout instant permet de représenter l’ensemble des possibilités par une
image conforme aux habitudes de la Physique classique du champ. Ainsi, le carré
de l’amplitude de l’onde Ψ donnant la probabilité de localisation du corpuscule,
cette onde représente par son extension dans l’espace l’ensemble des localisations
possibles.
Ainsi sont trouvées réconciliées d’une manière à la fois fort subtile et très intéressante, les idées de la Physique du champ et celle de la Physique corpusculaire.
De plus, c’est l’évolution du champ Ψ au cours du temps, évolution qui dépend
95
naturellement des conditions aux limites auquel le champ Ψ doit s’adapter, qui
règle les probabilités des manifestations discontinues du corpuscule : l’histoire du
corpuscule est donc inséparable de celle de tout l’ensemble du champ Ψ associé.
Toutes ces idées sont indispensables pour parvenir à concilier dans la théorie de
la Lumière l’existence des grains d’énergie lumineuse avec l’exactitude mille fois
prouvée des prévisions de la théorie ondulatoire.
Considérons, par exemple, l’expérience bien connue des trous d’Young. Les
possibilités de localisation du photon dans le champ d’interférences dépendent des
conditions de propagation de l’onde lumineuse associée, des conditions topologiques qu’elle rencontre en progressant. Néanmoins, le caractère corpusculaire du
photon subsiste dans le champ d’interférences, puisqu’il y peut manifester sa présence en un point par un effet photoélectrique local. Ainsi se trouvent juxtaposées
dans l’interprétation actuelle de l’expérience des trous d’Young les deux images
du corpuscule et de l’onde, mais elles s’y trouvent juxtaposées d’une manière très
originale qui les empêchent d’entrer jamais en contradiction directe. Si l’on pouvait, par exemple, obtenir le phénomène d’interférences d’Young et déterminer en
même temps par lequel des deux trous le photon a passé, on mettrait en conflit flagrant l’image ondulatoire et l’image corpusculaire : car, comment expliquerait-on
que seul un des trous d’Young ait joué un rôle dans le mouvement du corpuscule,
alors que le phénomène d’interférence observé dépend d’une façon tout à fait symétrique de chacun des deux trous ? Or ce conflit ne peut pas se produire parce
que, comme l’ont montré notamment les fines analyses de M. Bohr, on ne peut à la
fois obtenir le phénomène d’interférences et déterminer par lequel des trous a passé
le photon. Si on laisse le phénomène d’interférences se produire librement, rien ne
peut indiquer le trajet suivi par chaque photon avant de parvenir dans la région où
sont détectées les franges d’interférences ; si, au contraire, on place près de l’un des
trous d’Young un dispositif permettant de déceler le passage d’un photon à travers
ce trou, la présence de ce dispositif, par l’action même qu’il exerce sur le photon,
trouble complètement le phénomène et fait totalement disparaı̂tre les franges d’interférences. Deux images, en principe inconciliables, nous sont nécessaires pour
décrire les faits, mais jamais nous n’aurons à employer simultanément ces deux
images dans des conditions qui nous conduiraient à une véritable contradiction.
Les images d’onde et de corpuscule ont des validités qui se limitent mutuellement,
toute tentative faite pour préciser l’une des images introduisant des incertitudes
sur l’autre. C’est ce qu’expriment en termes mathématiques les fameuses relations
d’incertitude d’Heisenberg :
δq · δp ≥ h
(9.1)
(h constante de Planck) où q est une des coordonnées du corpuscule et p le moment
conjugué au sens de Lagrange.
Toutes ces idées sont bien connues et jouent un rôle essentiel dans toutes les
96
CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT
formes de la Mécanique ondulatoire, mais elles ne suffisent pas encore aux besoins de la théorie du rayonnement. Elles nous permettent, certes, de comprendre
comment un photon peut manifester un caractère corpusculaire, tout en étant représenté dans son évolution par un champ Ψ à caractère ondulatoire. Mais, en
général, une onde lumineuse porte de nombreux photons et il nous faudra étudier
encore comment une onde Ψ de la Mécanique ondulatoire peut se prêter à la représentation globale de nombreux corpuscules. C’est là d’ailleurs, une question qui
s’est postée en Mécanique ondulatoire tout à fait indépendamment de la théorie
de la Lumière et y a donné naissance à un chapitre particulièrement intéressant et
difficile de cette science nouvelle : la théorie de la seconde quantification.
La question essentielle que se pose la théorie de la seconde quantification est
la suivante : Si une même onde Ψ est associée à tout un ensemble de particules de
même espèce, comment devrait-on traduire le fait que, dans toute observation ou
mensure, on devra toujours trouver des nombres entiers de particules ? Le fait que,
dans toute observation conduisant à répartir les particules en un certain nombre
de catégories, on doive toujours avoir un nombre entier de particules dans chaque
catégorie, est une conséquence nécessaire du caractère d’unités physiques attribué
aux particules. La théorie de la seconde quantification est parvenue à construire un
formalisme qui est parfaitement satisfaisant à ce point de vue. Sans vouloir insister
ici sur ce formalisme d’allure assez abstraite, nous voulons mettre en relief une idée
physique qui se dégage très nettement de la théorie de la seconde quantification 1 :
c’est qu’il est impossible de déterminer à la fois par une observation les intensités et
les phases relatives des composantes de Fourier de l’onde Ψ associée à un ensemble
de particules de même nature. La chose est assez aisée à comprendre. Déterminer
les intensités des composantes de Fourier d’une onde revient en somme à isoler
ces composantes, comme on le fait pour la lumière à l’aide d’un prisme ou d’un
réseau ; et c’est, par suite, supprimer l’influence des différences de phase entre ces
composantes. Au contraire, si l’on veut avoir des indications sur ces différences de
phase, il faut observer un phénomène global où coopèrent plusieurs composantes
de Fourier, ce qui interdit évidemment tout isolement de ces composantes. Nous
retrouvons ici une de ces idées si profondes qui ont été introduites par les théories
physiques nouvelles et dont la portée philosophique est loin d’être encore aperçue
dans toute son étendue à l’heure actuelle. De même que la localisation des corpuscules et leur état de mouvement sont des « aspects complémentaires » au sens
de Bohr qui ne peuvent être tous deux entièrement précisés à un même instant ;
de même que l’existence d’un système formé de corpuscules (atome ou molécule
par exemple) en tant qu’organisme autonome et l’individualité de ces constituants
sont aussi des aspects complémentaires, toute observation du système dans son
1. Tout au moins ce qui suit, sŠapplique-t-il aux particules qui, comme les photons, obéissent
à la statistique de Bose-Einstein.
97
évolution propre devant largement respecter son autonomie tandis qu’une analyse
complète du système exige nécessairement sa destruction ; de même ici, la collaboration de plusieurs composantes de Fourier, faisant intervenir la cohérence des
phases au sens usuel de 1’Optique, est « complémentaire » de la répartition entre
composantes de Fourier des entités physiques individuelles, cette répartition exigeant un isolement des composantes de Fourier qui brise la cohérence des phases,
alors que l’observation des phénomènes dus à cette cohérence n’est compatible
avec aucun dénombrement des particules attachées à telle ou telle composante de
Fourier. Cette nouvelle « complémentarité » au sens de Bohr s’exprime par les
nouvelles relations d’incertitude :
δN · δφ ≥ h
(9.2)
où N est le nombre de particules attachées à une certaine composante de Fourier
et φ la phase de cette composante. Ce sont les relations d’insertitude de la seconde
quantification.
Tous ces développements ne sont pas encore suffisants pour obtenir une véritable théorie quantique. Ils montrent bien comment doit se faire le raccord entre le
point de vue corpusculaire et le point de vue ondulatoire, entre les grains d’énergie
et les champs Ψ ; mais ils ne permettent pas encore de rejoindre le point de vue
électromagnétique de Maxwell, ni même l’image des ondes lumineuses transversales
et polarisées dont 1’Optique physique ne saurait se passer. Pour aller jusque-là, il
faut d’abord, ainsi que je l’ai déjà expliqué dans d’autres exposés, introduire pour
le photon une forme de la Mécanique ondulatoire qui contienne les éléments de
symétrie nécessaires à la représentation de la polarisation. On peut le faire en partant de la Mécanique ondulatoire relativiste de l’électron magnétique et tournant
due à M. Dirac et en supposant de plus que le photon est formé de deux constituants symétriques obéissant à des équations du type de Dirac. On obtient ainsi
une véritable Mécanique ondulatoire du photon. Du même coup on arrive aisément
à armer le photon d’un champ électromagnétique. Le champ Ψ du photon apparaı̂t, en effet, comme une grandeur à plusieurs composantes (ainsi que l’est déjà
le champ Ψ de l’électron magnétique de Dirac) : les grandeurs électromagnétiques
de la lumière sont définies comme des combinaisons linéaires de ces composantes
et se trouvent coı̈ncider avec les grandeurs de la théorie de Maxwell.
Mais, comme dans les phénomènes où intervient le rayonnement, il y a presque
toujours de nombreux photons en présence, il est tout naturel, pour représenter les
propriétés de ces assemblées de photon, de soumettre l’onde Ψ du photon à l’opération de la seconde quantification, puisqu’un procédé de ce genre a très bien réussi
dans le cas des particules matérielles. Or, ici, la seconde quantification de l’onde
Ψ du photon entraı̂ne automatiquement l’existence de relations d’incertitude entre
les composantes du champ électromagnétique de la lumière. Nous pouvons préciser
98
CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT
la forme de ces relations d’incertitude de la manière suivante. Supposons que dans
une onde lumineuse de longueur d’onde λ nous disposions un appareil de mesure
occupant un volume ν et susceptible de nous fournir la valeur moyenne des champs
électromagnétiques dans ce volume ν : les relations d’incertitude dont nous parlons
nous apprennent que l’on ne peut mesurer simultanément avec exactitude la valeur d’une des composantes du champ électrique de l’onde lumineuse et celle d’une
des composantes perpendiculaires du champ magnétique. Si ∆Ex est l’incertitude
sur l’une des composantes du champ électrique et ∆Hν , l’incertitude sur l’une des
composantes perpendiculaires à Ex du champ magnétique, on a toujours :
∆Ex · ∆Hν ≥
hc
λν
(9.3)
Ces relations d’incertitude pour les champs électromagnétiques ont été trouvées grâce à un raisonnement direct par M. Heisenberg au début du développement
de la théorie quantique du rayonnement. Elles résultent, en effet, très naturellement du fait qu’une mesurée simultanée, aussi précise que possible, des grandeurs
électromagnétiques d’une onde lumineuse, si elle est effectuée à l’intérieur d’un
volume ν de l’espace parcouru par cette onde, ne doit jamais pouvoir conduire à
localiser une fraction de photon dans le domaine ν. Autrement dit, l’existence des
incertitudes données par la formule (9.3) est nécessaire pour que la continuité du
champ électromagnétique n’entre pas en conflit direct avec le caractère discontinu
du photon, tout comme l’existence des incertitudes données par la formule (9.1) est
nécessaire pour empêcher l’image des ondes de se trouver jamais en conflit direct
avec l’image des corpuscules. On peut, d’ailleurs, aussi montrer qu’en fait, aucun
procédé de mesure imaginable ne peut fournir un résultat plus précis que ne le
permettent les relations (9.3) : cette démonstration résulte d’une analyse subtile
des conditions de la mesure des champs électromagnétiques qui a été faite par MM.
Bohr et Rosenfeld. M. Bohr a fait ici une analyse tout à fait analogue à celle qu’il
avait développée antérieurement pour les relations (9.1).
Sur les formules de la théorie quantique des champs électromagnétiques exposée de la manière formelle qui est usuelle, on peut voir déjà que les relations
d’incertitude (9.3) pour les champs correspondent à l’impossibilité de connaı̂tre
simultanément le nombre de photons liés à l’une des composantes de Fourier du
champ électromagnétique et la phase de cette composante. Mais ceci apparaı̂t plus
clairement encore avec la Mécanique ondulatoire du photon qui met immédiatement en relation la quantification des champs et les relations d’incertitude (9.3)
avec la méthode générale de seconde quantification appliquée à l’onde du photon.
∴
99
Dans ce qui précède, nous avons vu comment on pouvait obtenir une bonne
théorie d’ensemble du rayonnement quantifié dans le vide. Mais des difficultés plus
grandes se présentent quand on passe à l’étude du rayonnement en présence de
matière, à la théorie des échanges d’énergie entre matière et radiation. Dans la
théorie électromagnétique classique, on représente ces échanges d’énergie d’une
façon assez dissymétrique. D’une part, l’action du champ électromagnétique sur
les charges est représentée par l’introduction, dans les équations du mouvement
des charges, des forces électriques et magnétiques que le champ doit exercer sur
ces charges : d’autre part, l’action des charges électriques sur le champ électromagnétique est représentée par le second membre des équations non homogènes
qui, d’après Maxwell et Lorentz, règlent l’évolution de ce champ en présence de
matière. Dans la théorie quantique du rayonnement, au contraire, les choses se présentent de façon plus symétrique et, par suite, plus satisfaisante. On y considère le
système global formé par le rayonnement et les particules matérielles électrisées :
on forme l’opérateur qui représente l’énergie de ce système en y faisant figurer
des« termes d’interaction » qui correspondent à l’ensemble des échanges d’énergie,
par transitions quantiques, entre la matière et le rayonnement. Suivant une voie
différente, dans la Mécanique ondulatoire du photon, on peut d’abord écrire l’équation des ondes pour le système formé par un photon et les particules électrisées,
puis soumettre l’onde du photon à la seconde quantification : on retrouve ainsi
pour l’énergie du système l’opérateur obtenu par la théorie quantique des champs.
Quand on a ainsi formé l’opérateur qui correspond à l’énergie d’un système
constitué de photons et de particules électrisées, l’application d’une méthode générale bien connue en Mécanique ondulatoire, la méthode des perturbations, conduit
à étudier par approximations successives les divers phénomènes d’interaction qui
peuvent se produire entre la matière et le rayonnement. On trouve ainsi d’abord
des phénomènes de première approximation dont la probabilité est proportionnelle
au carré de la charge électrique des particules : ils correspondent soit au phénomène primaire où il y a cession totale de son énergie par le photon à la matière
(effet photoélectrique au sens large du mot comprenant l’absorption du rayonnement par les systèmes atomiques ou moléculaires et l’effet photoélectrique au
sens étroit du mot), soit au phénomène primaire inverse du précédent où il y a
émission d’un photon par la matière. En deuxième approximation (phénomènes
dont les probabilités sont proportionnelles à la quatrième puissance de la charge
des particules), on trouve les diverses sortes de diffusion : diffusion cohérente de
Rayleigh et de Thomson, diffusions avec changement de fréquence de Raman et de
Compton. On peut les concevoir comme des processus complexes comportant la
succession de deux phénomènes primaires d’émission et d’absorption (avec retour
à l’état initial dans le cas de la diffusion cohérente, avec passage à un état final
différent de l’état initial dans le cas de la diffusion avec changement de fréquence).
100
CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT
En troisième approximation, on trouve le rayonnement dit d’accélération et divers
effets multiples, etc. Tous les résultats obtenus par ces calculs, où le point de vue
de la théorie quantique des champs et celui de la Mécanique ondulatoire du photon
se rejoignent entièrement, sont très satisfaisants et tout à fait en accord avec ce
que pouvait faire attendre l’application du principe de correspondance de Bohr.
Dans ces théories, on n’admet pas l’existence d’actions directes des charges électriques les unes sur les autres : le seul phénomène primaire est l’échange d’énergie
et de quantité de mouvement entre une particule électrisée d’une part et le rayonnement d’autre part. Il faut pourtant expliquer pourquoi tout se passe comme
s’il existait entre deux particules électrisées une force d’attraction ou de répulsion
Coulombienne. On y parvient par l’analyse suivante. Considérons deux charges
électriques A et B. La charge A peut céder de l’énergie et de la quantité de mouvement au rayonnement ambiant qui, ainsi modifié, peut à son tour réagir sur la
charge B ; le processus inverse (action de la charge B sur le rayonnement ambiant
suivi de l’action de ce rayonnement sur la charge A) pouvant d’ailleurs se produire également. Or le résultat final de ces deux processus inverses est une action
apparente des deux charges l’une sur l’autre. Comme le rayonnement électromagnétique peut se décomposer en ondes longitudinales et en ondes transversales,
ces dernières constituant la lumière, il est naturel de faire le calcul successivement
pour ces deux catégories d’ondes. Pour les ondes longitudinales, on obtient ainsi
le potentiel Coulombien électrostatique habituel : pour les ondes transversales, on
obtient des termes correctifs représentant des effets de « retardement » bien connus
dans la théorie des potentiels électromagnétiques. Ces corrections sont représentées
en première approximation par les formules aujourd’hui classiques de Breit et de
Möller.
Jusqu’ici tout va bien. Mais les choses se gâtent lorsqu’on cherche à évaluer la
réaction de la particule sur elle-même, ce qui devrait conduire à trouver la valeur
de l’énergie propre de la particule. Le schéma du calcul est toujours le même : la
particule électrisée agit sur le rayonnement qui à son tour réagit sur la particule
elle-même. Or, ici, aussi bien pour les ondes longitudinales que pour les ondes
transversales, on trouve des énergies infinies. C’est là une difficulté qui est tout à
fait caractéristique de la théorie quantique de la radiation dans son état actuel.
Il est, d’ailleurs, facile de voir d’où elle provient. Dans la théorie classique, pour
pouvoir attribuer à l’électron une énergie finie, il est nécessaire de supposer que
l’électron a un rayon fini r0 de façon que l’énergie de son champ électrostatique
e2
soit finie. On trouve ainsi que le rayon r0 doit avoir une valeur de la forme η
m0 c2
où e et m0 sont la charge électrique et la masse propre de l’électron, c la vitesse de
la lumière dans le vide, η étant un coefficient de l’ordre de l’unité dont la valeur
exacte dépend des hypothèses faites sur la répartition de l’électricité à l’intérieur
ou à la surface de l’électron, c’est-à-dire d’hypothèses sur la structure interne de
101
l’électron. On trouve ainsi pour r0 une valeur de l’ordre de 10−13 centimètre, ce qui
dans le cadre des idées classiques est très acceptable. Dans les théories quantiques,
la question ne peut pas être posée de la même manière, car ces théories, à cause des
incertitudes qu’elles comportent, ne peuvent pas décrire des structures comme le
faisaient les théories antérieures. Pour elles, une distribution continue dans l’espace
ne peut jamais apparaı̂tre que comme la représentation statistique d’une incertitude sur la localisation spatiale d’un élément ponctuel. Ne pouvant introduire une
structure de l’électron au sens classique, les auteurs de la description quantique
des champs électromagnétiques ont admis implicitement le caractère ponctuel de
l’électron et c’est là ce qui a conduit à des valeurs infinies pour les énergies propres
des électrons et pour leurs interactions avec le rayonnement.
Plusieurs tentatives ont été faites, naturellement, pour éviter ces valeurs infinies
qui sont physiquement inadmissibles. Aucune d’elles jusqu’à présent n’a remporté
un succès assez complet pour qu’on puisse la considérer comme levant la difficulté. La question reste ouverte. D’autres difficultés se dressent d’ailleurs devant
la théorie quantique du rayonnement dans le domaine des très hautes fréquences
dont l’importance est si grande pour l’étude des rayons cosmiques. Dès que la fréquence d’une radiation est assez élevée pour que son quantum dépasse le double de
l’énergie propre de l’électron, cette radiation est susceptible de donner naissance,
même dans le vide, à l’apparition d’une paire de corpuscules formée d’un électron
positif et d’un électron négatif, paire qui est créée, peut-on dire, aux dépens de
l’énergie de la radiation. La possibilité d’un tel phénomène a pour résultat que
ces rayonnements de très haute fréquence ne doivent plus obéir à des équations
du type « linéaire » analogues à celles qu’on avait toujours rencontrées jusqu’ici
dans les théories de la Lumière. Il doit en résulter de grandes complications dont
l’étude est à peine amorcée. Nous arrivons ainsi à des questions qui sont, pour
ainsi dire, à l’extrême limite de nos connaissances actuelles : la théorie quantique
du rayonnement a encore là beaucoup de progrès à accomplir.
102
CHAPITRE 9. LA THÉORIE QUANTIQUE DU RAYONNEMENT
Chapitre 10
Récent progrès dans la théorie
des photons et autres particules
Pour bien se rendre compte des progrès accomplis dans ces dernières années
par la théorie générale des particules, il convient de prendre un peu de recul et
de se reporter par la pensée à l’époque des débuts de la Mécanique ondulatoire.
Un tel retour vers le passé est presque nécessaire. Quand, en effet, on voit chaque
jour un être humain, on s’aperçoit à peine des modifications que le temps lui
fait subir, mais, si au bout de plusieurs années l’on évoque dans sa mémoire les
images du passé, on constate soudain que l’enfant est devenu homme ou l’homme
vieillard et l’on prend conscience des changements survenus. De même, en suivant
constamment l’évolution graduelle de ces « êtres de raison » que sont les théories
physiques, on ne ressuent pas toujours nettement l’étendue de leurs progrès : c’est
en reportant sa pensée de quelques années en arrière que l’on peut mesurer le
chemin parcouru.
A l’époque des débuts de la Mécanique ondulatoire, vers 1926 ou 1927, par
exemple, on était parvenu à caractériser l’état d’un corpuscule par une fonction
d’onde la fonction Ψ, à caractère scalaire dont M. Schrödinger venait de préciser
la détermination mathématique. On savait qu’on exprimait ainsi pour les entités
élémentaires l’existence d’un dualisme onde-corpuscule analogue à celui que les découvertes expérimentales avaient contraint d’admettre pour la lumière et qui avait
remis en question l’immense et magnifique synthèse ondulatoire et électromagnétique réalisée en deux étapes par Fresnel et Maxwell au cours du XIXe siècle. On
savait aussi depuis le printemps de 1927 que cette dualité onde-corpuscule des entités physiques élémentaires n’était pas une simple vue de l’esprit, mais correspondait
à des propriétés réelles et longtemps insoupçonnées des électrons (diffraction par
les cristaux).
Cependant, dans ce brillant développement de la Mécanique ondulatoire, une
circonstance étrange se présentait : dans cette Mécanique ondulatoire sous la forme
103
104
CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE
initiale non-relativiste issue des travaux de M. Schrödinger, rien ne permettait
d’apercevoir comment le dualisme onde-corpuscule pour la lumière viendrait trouver sa place dans le cadre de cette doctrine nouvelle. Pour l’auteur du présent
article, en particulier, cette situation paraissait bien étrange et décevante. Dans
les recherches qui nous avaient antérieurement permis de dégager l’idée fondamentale de la Mécanique ondulatoire, deux préoccupations nous avaient constamment
guidé : d’abord celle d’établir une dualité onde-corpuscule susceptible de s’appliquer d’une façon générale aussi bien à la lumière qu’à la matière ; ensuite celle de
déduire les formules liant les deux termes de la dualité onde-corpuscule à l’aide
de raisonnements fondés essentiellement sur les conceptions relativistes et sur la
transformation de Lorentz. Et voilà qu’on aboutissait à une Mécanique ondulatoire non-relativiste et inapplicable à la lumière ! La fonction Ψ de la Mécanique
ondulatoire avec son caractère scalaire ne fournissait aucun élément permettant de
définir quelque chose d’analogue à une onde électromagnétique avec son caractère
vectoriel et sa polarisation. Pour comble de malheur, l’interprétation probabiliste
de la Mécanique ondulatoire, qui bientôt s’avérait la seule possible et à laquelle
presque tous les théoriciens se ralliaient l’un après l’autre, enlevait à l’onde toute
signification physique au sens classique du mot et semblait la rendre définitivement
inutilisable pour la représentation de grandeurs à sens physique bien net comme
les champs électromagnétiques. Cette fonction Ψ n’était-elle pas d’ailleurs par essence une fonction complexe alors que, quand on voit la trajectoire d’un électron
s’incurver sous l’action d’un champ électrique ou magnétique, on ne peut pas douter que la force subie par l’électron et par suite le champ dont cette force dérive
ne soient des grandeurs nécessairement réelles ? Aussi, lorsque Lorentz, l’illustre
promoteur de la théorie classique des électrons presque parvenu alors au terme
de sa vie, posait avec une certaine anxiété au Congrès Solvay d’octobre 1927 la
question suivante : « Quel rapport y a-t-il entre l’onde Ψ d’un photon et l’onde
électromagnétique de Maxwell ? » aucun des physiciens présents ne put-il faire la
moindre réponse satisfaisante.
Dans les années qui suivirent 1927, la situation ne parut pas s’améliorer. M.
Dirac avait pourtant donné une forme relativiste à la Mécanique ondulatoire de
l’électron grâce à sa belle et justement célèbre théorie de l’électron magnétique.
Cette théorie introduisait automatiquement le « spin » de l’électron, c’est-à-dire
ces propriétés de moment magnétique et de moment cinétique propres que l’expérience avait montré devoir être attribuées à l’électron si l’on voulait parvenir à
une interprétation correcte de nombreux phénomènes. De plus, de cette théorie
de Dirac, la fonction d’onde Ψ cesse d’être une grandeur unique et invariante :
elle devient une grandeur à quatre composantes, ces quatre composantes se transformant linéairement quand on change de système de référence Galiléen. Il y a
donc des traits qui rapprochent cette nouvelle Mécanique ondulatoire de la théorie
105
de la Lumière : caractère relativiste, symétries nouvelles introduites par le spin,
multiplicité des composantes de la fonction d’onde analogue à la multiplicité des
composantes de la vibration lumineuse de Fresnel ou du champ électromagnétique
lumineux de Maxwell. Il n’en restait pas moins des différences profondes entre les
deux théories : le spin n’a pas la même symétrie que la polarisation ; la fonction
Ψ de Dirac malgré ses quatre composantes n’est pas un vecteur d’espace-temps et
n’a aucun caractère tensoriel ; enfin l’électron de Dirac est un corpuscule qui suit
la statistique de Fermi et, en liaison avec ce fait, sa fonction d’onde Ψ conserve le
caractère d’une grandeur inobservable et sans signification physique directe.
∴
Tandis que Dirac introduisait ainsi la relativité et le spin dans la Mécanique
ondulatoire de l’électron, divers théoriciens, notamment MM. Jordan, Pauli, Heisenberg et Dirac lui-même, esquissaient une théorie quantique du rayonnement.
Par un raisonnement aujourd’hui classique, M. Heisenberg a montré qu’on ne peut
concilier les formules usuelles pour la densité de l’énergie et de l’impulsion électromagnétiques avec l’existence des photons qu’à condition de considérer les grandeurs
électromagnétiques comme des grandeurs quantiques soumises, à des relations de
non-commutation. Cette idée nouvelle a pu être développée sous une forme générale et précise en partant de l’équivalence bien connue en théorie classique entre le
rayonnement électromagnétique et un ensemble d’oscillateurs harmoniques ; cette
assimilation qui repose essentiellement sur l’idée que les grandeurs électromagnétiques sont nécessairement des quantités réelles conduit à certaines règles de commutation. Les règles ainsi obtenues ont été utiles et ont souvent donné des résultats
intéressants, mais elles soulèvent aussi de graves difficultés et conduisent notamment à une conséquence très fâcheuse : une onde électromagnétique de fréquence ν
1
transporterait toujours un nombre de photons hν égal à n + , n étant un nombre
2
entier, résultat tout à fait contraire à la notion même du photon conçu comme une
unité indivisible d’énergie radiante.
Malgré Ces difficultés qui n’étaient pas négligeables, la théorie quantique des
champs électromagnétiques établie sur cette base est parvenue à une description satisfaisante des interactions entre matière et rayonnement, c’est-à-dire des
phénomènes d’émission, d’absorption, de diffusion avec ou sans conservation de
la fréquence, d’effet photoélectrique, etc. Elle permet aussi d’interpréter rai actions électromagnétiques entre particules électrisées en admettant que les particules n’exercent pas d’actions directes les unes sur les autres, mais que, chacune
agissant sur un champ de rayonnement ambiant et subissant sa réaction, elles se
106
CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE
trouvent couplées entre elles par l’intermédiaire de ce champ : c’est là une idée très
intéressante et importante sur laquelle nous reviendrons plus loin.
Néanmoins la théorie quantique des champs, malgré son intérêt et ses succès,
ne pouvait pas donner toute satisfaction au point de vue de la résorption de la
théorie du rayonnement dans le cadre de la Mécanique ondulatoire. Nulle part,
dans l’exposé de cette théorie, il n’était question d’une onde du photon, ni d’une
équation de propagation pour le photon. On sentait bien, il est vrai, que les relations de commutation entre les grandeurs électromagnétiques correspondaient à
une opération bien connue en Mécanique ondulatoire, l’opération de seconde quantification, mais on ne pouvait pas préciser cette intuition puisqu’il eût fallu pour
cela connaı̂tre la Mécanique ondulatoire du photon et sa fonction Ψ. On sentait
bien aussi que les grandeurs électromagnétiques jouaient en théorie du rayonnement le rôle de composantes due la fonction Ψ du photon, mais on ne parvenait
pas non plus à préciser nettement cette analogie. On en était d’autant plus empêché que l’on voulait toujours employer systématiquement des expressions réelles
pour les grandeurs électromagnétiques, alors que les composantes d’une fonction
Ψ en Mécanique ondulatoire sont des grandeurs essentiellement complexes. C’était
également d’ailleurs l’emploi des grandeurs électromagnétiques réelles qui conduisait à assimiler le rayonnement à un ensemble d’oscillateurs, assimilation dont nous
avons vu plus haut la conséquence fâcheuse, et à donner à la densité de l’énergie une
forme difficilement conciliable avec la théorie correcte de la seconde quantification.
La théorie quantique des champs, ne parvenant pas à établir une Mécanique ondulatoire du photon, avait aussi l’inconvénient de masquer complètement la question
du spin du photon et de ne permettre sans liaison nette entre la polarisation et le
spin. Nous verrons cependant que ce sont là des liaisons essentielles.
La manière, certainement très fructueuse, mais à notre avis un peu contestable, dont la question de la quantification du rayonnement avait été abordée par
la théorie quantique des champs avait conduit beaucoup de physiciens à penser que
l’aspect corpusculaire du rayonnement symbolisé par le photon est beaucoup moins
réel que l’aspect corpusculaire de la matière. On en arrivait à considérer comme
presque accidentelle l’analogie entre la dualité onde-corpuscule pour la matière
et cette même dualité pour la lumière, alors que cependant c’était à cette analogie fondamentale que la Mécanique ondulatoire avait dû de pouvoir construire
ses premières assises. Pour soutenir cette opinion, on faisait valoir que dans une
assemblée de photons en présence de matière le nombre des photons peut varier
par suite des phénomènes d’absorption ou d’émission du rayonnement par la matière, circonstance qui jouer même un rôle essentiel dans la déduction de la loi de
Planck pour la répartition spectrale des énergies dans le rayonnement d’équilibre
thermique par application de la statistique de Bose-Einstein aux photons : rien
de semblable, disait-on, n’existait pour les particules matérielles, les électrons par
107
exemple, pour lesquelles on ne constatait jamais ni apparition, ni disparition et
cette « permanence » des particules matérielles paraissait les distinguer entièrement des photons. On faisait aussi remarquer une autre différence entre le photon
et l’électron : tandis que pour l’électron, même dans la théorie relativiste de Dirac,
on peut attribuer à la probabilité de présence du corpuscule en chaque point de
l’espace une expression toujours positive ou nulle, on avait pu démontrer que pour
le photon il n’existait pas de probabilité de présence jouissant de cette propriété et
on répétait que cette circonstance, à elle seule, suffisait à empêcher de considérer
le photon comme une véritable particule même au sens (moins concret que le sens
classique) que les théories quantiques actuelles attribuent à ce mot. Enfin, on faisait encore remarquer que les champs électromagnétiques doivent, on l’admettait
comme évident, se décrire à l’aide de fonctions réelles alors que, d’après la Mécanique ondulatoire, les particules matérielles doivent se décrire à l’aide de fonction
Ψ essentiellement complexes.
Il faut bien dire que toutes ces raisons se sont aujourd’hui beaucoup affaiblies.
D’abord nous savons maintenant que les électrons peuvent dans certaines circonstances apparaı̂tre et disparaı̂tre par paires formées d’un électron négatif et d’un
électron positif de sorte que le caractère de permanence des particules matérielles
n’a plus rien d’absolu : l’opposition entre photon et particule matérielle se trouve
donc à ce point de vue très atténuée. Il est vrai que les électrons apparaissent ou
disparaissent par paires d’électrons de signe contraire, tandis que les photons sont
susceptibles d’apparaı̂tre ou de disparaı̂tre unité par unité. Ceci crée évidemment
une différence entre photon et électron, mais on peut très bien l’interpréter, nous
le verrons, en la liant à la différence de la valeur du spin pour les deux genres de
particules. D’ailleurs, on a aujourd’hui découvert dans les Rayons cosmiques des
particules matérielles d’un genre nouveau, les électrons lourds ou mésotons, particules qui tout comme les photons sont susceptibles d’apparaı̂tre ou de disparaı̂tre
unité par unité.
Quant à la question de la probabilité de présence, elle apparaı̂t actuellement
sous un jour nouveau grâce au dévelopement progressif de la théorie générale des
particules de spin quelconque : cette théorie montre en
effet que pour toute par1
h
ticule de spin supérieur à
en unité quantiques
, par exemple pour le mé2
2π
soton auquel on est d’accord pour attribuer le spin 1, il est impossible de définir
une probabilité de présence qui soit partout positive ou nulle ; alors que cela est
1
possible pour les particules du spin comme l’électron. Si le photon présente à ce
2
point de vue une différence avec l’électron, ce n’est pas parce que le photon n’est
pas une « véritable » particule, c’est parce qu’il est une particule de spin supérieur
1
à , en l’espèce de spin 1 comme beaucoup de raison le prouvent.
2
Quant au caractère réel des fonctions qui décrivent le champ électromagné-
108
CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE
tique, il semble bien, à notre avis, qu’il est seulement valable pour les phénomènes
macroscopiques où interviennent un nombre très élevé de quanta et que la description microscopique des photons et de leurs interactions individuelles avec la
matière doivent se faire à l’aide de fonctions complexes considérées comme les
composantes d’une fonction Ψ.
Il nous paraı̂t donc raisonnable de ne pas séparer d’une manière absolue la
théorie du photon de celle des particules matérielles et de la faire rentrer dans
les cadres de la Mécanique ondulatoire générale. C’est à ce désir que répond la
Mécanique ondulatoire du photon que nous avons développée dans ces dernières
annêes et dont nous allons maintenant dire quelques mots.
∴
Le point de départ de la Mécanique ondulatoire du photon consiste à admettre
que la perticule « photon » se comporte comme une particule complexe de spin
1 dont on peut obtenir les propriétés en la considérant comme formée par deux
1
1
corpuscules de spin . En opérant la « fusion » de deux corpuscules de spin , fusion
2
2
qui se traduit par une opération mathématique tout à fait déterminée, on obtient
les équations d’ondes de la particule « photon ». L’étude de ces équations montre
d’ailleurs qu’elles se composent en deux groupes indépendants décrivant des états
distincts de la particule, un état « singulet » et un état « triplet » pour leur donner
une dénomination aujourd’hui d’usage courant chez les physiciens. L’état singulet
doit être considéré comme ne pouvant se réaliser physiquement ou tout au moins
comme ne jouant aucun rôle effectif dans le rayonnement car on ne connaı̂t aucun
phénomène observable qui lui corresponde. L’état triplet au contraire est celui qui
correspond aux propriétés réelles du photon : il est caractérisé par dix grandeurs
qui ne sont autres que les quatre composantes de potentiel et les six composantes
de champ classiques en théorie électromagnétique de la lumière. Ces dix grandeurs
obéissent à quinze équations qui sont des équations bien connues de la théorie
électromagnétique, quelques-unes d’entre elles pouvant se trouver complétées par
de petits termes de masse si l’on admet que la masse propre du photon n’est pas
rigoureusement nulle. Avec cette théorie, la polarisation de la lumière se trouve
mise en relation étroite sous une forme très claire avec le « spin » de la particule
« photon » dans l’état triplet, les ondes transversales à polarisation gauche et
droite
et les ondes
longitudinales correspondant respectivement aux trois valeurs
h
2h
,−
et 0 qui sont possible pour la composante du spin dans la direction de
π
2π
propagation pour une particule dans un état triplet. En Mécanique ondulatoire du
109
photon, on peut arriver à définir une sorte de probabilité de présence, mais cette
grandeur n’est pas partout positive ou nulle, comme, nous l’avons déjà dit, on
devait s’y attendre ; par contre, l’énergie totale reste toujours positive. Toutes les
grandeurs attachées au photon, telles que densités de présence, d’énergie, de spin,
etc. peuvent s’exprimer élégamment à l’aide des grandeurs électromagnétiques par
des formules dues pour la plupart à M. Géhéniau.
Un des points importants de la Mécanique ondulatoire du photon est le suivant :
assimilant les grandeurs électromagnétiques, champs et potentiels, à certaines composantes d’une fonction Ψ du photon, elle est amenée à supposer que les grandeurs
électromagnétiques décrivant les propriétés de la lumière à l’échelle microscopique
sont essentiellement des grandeurs complexes. Ce point de vue cadre très bien avec
le schéma des interactions entre matière et rayonnement tel qu’il était implicitement admis par le principe de correspondance de Bohr sous sa forme primitive.
Il conduit de plus à éviter l’assimilation du rayonnement à un ensemble d’oscillateurs quantifiés et les conséquences fâcheuses que cette assimilation entraı̂ne ;
il attribue à la densité d’énergie électromagnétique une forme qui permet de ramener immédiatement et naturellement la quantification des champs à la seconde
quantification de l’onde du photon.
Enfin, la Mécanique ondulatoire du photon permet, en étudiant les interactions
entre matière et rayonnement, de retrouver les résultats de la théorie quantique
des champs : elle ouvre même quelques perspectives nouvelles en ce qui concerne le
rôle des ondes longitudinales et le calcul des interactions entre particules électrisées
par l’intermédiaire de ces ondes, mais par contre, elle ne permet pas sous sa forme
actuelle de lever les difficultés qui se rencontrent déjà en théorie quantique des
champs quant aux énergies propres des particules et au caractère divergent des
intégrales qui les représentent. Il y a là des difficultés dont on n’aperçoit pas encore
la solution à l’heure actuelle.
∴
Si les conceptions développées ci-dessus sont exactes, le photon étant simplement
une certaine particule de spin 1, sa Mécanique ondulatoire doit venir trouver sa
place dans le cadre général de la Mécanique ondulatoire des particules de spin
quelconque. Or il y a, depuis quelque temps, un grand mouvement d’idées ayant
pour but de constituer cette Mécanique ondulatoire générale des particules de spin
quelconque. Ce mouvement d’idées a sa principale origine dans la découverte de
l’électron lourd ou mésoton au sein des rayons cosmiques (1936-37). L’existence
de cette particule avait été prévue, avec une perspicacité vraiment remarquable,
par un physicien japonais, M. Yukawa, dès 1935. Pour décrire les propriétés de
110
CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE
la particule dont il imaginait l’existence, M. Yukawa lui attribua implicitement
tout d’abord un spin nul. Mais, après la découverte expérimentale du mésoton, il
fut amené en 1937 à transformer sa théorie en décrivant le mésoton comme une
particule de spin 1 et pour cela à faire usage d’équations proposées en 1936 par
M. Proca, équations qui peuvent être considérées (bien que M. Proca les ait obtenues d’une façon tout à fait différente et indépendante de la théorie du photon)
comme une généralisation des équations Maxwelliennes de la Mécanique ondulatoire du photon. Tous les théoriciens paraissent aujourd’hui d’accord pour décrire
le mésoton comme une particule de spin 1. L’analogie entre les équations du mésoton et celles du photon permet de les considérer comme deux genres différents
de particules de spin 1.
Le développement de la théorie du mésoton a alors attiré l’attention sur l’intérêt que présente la théorie générale des particules du spin quelconque. Après un
premier mémoire sur ce sujet dû à M. Dirac où le problème est abordé par une
méthode qui ne nous semble pas être la plus directe, des articles de M. Kemmer et
un travail récent de Fierz ont fait progresser la question. En réfléchissant aux résultats de ce travail, nous nous sommes aperçus qu’on pouvait les retrouver si l’on
cherche à construire les particules de spins supérieurs en « fondant » un nombre
1
progressivement croissant de corpuscule de spin , c’est-à-dire en poursuivant le
2
1
processus qui nous avait permis en théorie du photon de passer du spin au spin
2
1
1. En fondant n corpuscules de spin , on peut ainsi obtenir une particule dont
2
n
h
le spin total maximum est égal à
en unités
. Si n est un nombre pair,
2
2π
on obtient donc anisi une particule de spin entier : si n est un nombre impair,
on obtient au contraire une parlicule de spin demi-entier. Dans le premier cas, les
propriétés de la particule peuvent se représenter en attribuant aux composantes
de son onde Ψ des caractères tensoriels : dans le second cas, ces composantes n’ont
pas le caractère tensiorel et gardent le caractère spinoriel ou semi-vectoriel des
composantes du Ψ de l’électron de Dirac. Pour la particule complexe du spin total
n
n
maximum
on aura un état de spin total maximum
et de multiplicité n + 1,
2
2
n
un état de spin total − 1et de multiplicité n − 1, ect., jusqu’à un état de spin
2
total 0 ou 1/2 suivant que n est pair ou impair et de multiplicité 1 ou 2. De cette
façon, la cas n = 1 nous ramène à l’électron de Dirac, la cas n = 2 à la théorie
du photon et à celle du mésoton ; le cas n = 4 paraı̂t convenir, selon M. Pauli,
aux quanta de gravitation ou « graviton ». Pour isoler les cas de spin maximum,
il faut s’imposer certaines conditions précisées par M. Fierz dans son mémoire et
qui reviennent à choisir nulles des constantes arbitraires figurant dans la théorie
111
des particules obtenues par fusion. Pour les particules de spin entier, cet isolement
du spin total maximum, ainsi d’ailleurs que l’isolement des autres valeurs du spin
total, présente un caractère tensoriel. Dans le cas des théories du photon et du
mésoton, on est ainsi amené pour isoler la valeur 1 du spin maximum à annuler les
grandeurs non Maxwelliennes et à ne garder que les grandeurs Maxwelliennes et
les équations Maxwelliennes, c’est-à-dire les équations de Maxwell pour le photon
et les équations de Proca pour le mésoton. En résumé, la théorie des particules
de spin quelconque que l’on peut obtenir par la fusion d’un certain nombre de
1
corpuscules de spin , paraı̂t avoir une grande généralité et contenir comme cas
2
particulier la théorie des états de spin total maximum donnée par M. Fierz.
M. Fierz a d’ailleurs montré que pour toute partiicule de spin maximum supérieur ou égal à 1, la densité de probabilité de présence n’est plus nécessairement
positive ou nulle en tout point de l’espace et qu’il en est de même pour la densité
3
de l’énergie quand le spin maximum est supérieur ou égal à Il en résulte que
2
le fait d’avoir une densité de probabilité de présence qui peut devenir négative
n’empêche ni le photon, ni le mésoton qui partage avec lui cette disgrâce, d’être de
véritables particules : il signifie simplement que ce sont là des particules de spin
1
supérieur à . Le photon est donc un cas particulier de particule de spin 1, cas
2
particulier qui devient d’ailleurs un cas singulier si l’on admet que sa masse propre
est nulle. De toute façon, il nous paraı̂t aujourd’hui certain que le photon trouve
sa place dans la théorie générale des particules et ce fait, en tirant la théorie du
rayonnement du splendide isolement où l’on avait tenté de la reléguer, fait disparaı̂tre la contradiction paradoxale qui avait pesé sur le développement primitif de
la Mécanique ondulatoire quand, fille de la théorie de la lumière, elle ne parvenait
plus à prouver ses liens de parenté avec sa mère.
∴
Il est intéressant de mettre les considérations qui précèdent en relation avec
diverses autres théories physiques récentes.
La découverte des neutrons et des électrons positifs, le développement consécutif de la Physique du noyau ont conduit à supposer (Heisenberg) que les noyaux
des atomes sont toujours formées de protons et de neutrons liés entre eux par des
forces ayant la nature des forces d’échange. Ce point de vue conduit à considérer
le neutron et le proton comme étant en quelque sorte deux états différents d’une
même particule lourde, le neutron étant susceptible de se transformer en proton
avec émission d’un électron négatif et le proton de se transformer en neutron avec
112
CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE
émission d’un électron positif. Dans les phénomènes de transmutation où il y a
émission d’électrons positifs ou négatifs, ces électrons seraient, peut-on dire, créés
lors d’un changement d’état de la particule proton-neutron.
D’autre part, on sait que dans les transformations radioactives où il y a émission de rayons β, ces électrons β sont émis avec des énergies variables et forment
un véritable spectre continu. Comme l’état antérieur à la désintégration et l’état
postérieur paraissent avoir des énergies bien déterminées, le fait que les rayons
β émis aient des énergies variables paraı̂t en contradiction avec la conservation
de l’énergie. Pour sauver le grand principe de conservation, M. Pauli a imaginé
que l’émission d’un rayon β dans une désintégration radioactive s’accompagnerait
toujours de la projection d’une particule légère et non chargée, le neutrino, qui précisément parce qu’elle n’est pas chargée ne laisserait aucune trace de son passage à
travers la matière et échapperait ainsi à toute observation. L’énergie disponible lors
de la désintégration se partagerait alors d’une façon variable suivant le cas entre
l’électron et le neutrino émis simultanément ; l’énergie emportée par le neutrino
échappant à l’observation, on aurait l’impression d’un défaut dans la conservation
de l’énergie. Cette hypothèse est fortement étayée par le fait que l’énergie maximum des rayons β c’est-à-dire la limite supérieure de leur spectre continu, paraı̂t
bien correspondre à la différence d’énergie du noyau radioactif avant et après le
processus de désintégration : on comprend en effet que, dans le cas particulier où
le neutrino ne prend aucune énergie, l’électron β doit être projeté avec une énergie
égale à l’énergie disponible au moment de la désintégration et ce doit être là la plus
grande valeur possible de son énergie. De plus, en attribuant au neutrino le spin
1
, on satisfait aussi au principe de la conservation du moment d’impulsion qui se
2
trouverait, lui aussi en défaut si le neutrino n’existait pas. Bien que le neutrino ait
obstinément refusé de manifester expérimentalement son existence d’une manière
quelconque, les théoriciens ont généralement admis cette existence et M. Fermi
s’est servi du neutrino pour développer une théorie qui a paru un moment non
seulement interpréter l’émission des spectres β, mais fournir une image particulièrement intéressante de l’interaction entre particules lourdes (protons et neutrons).
Nous voulons dire quelques mots maintenant de la tentative de M. Fermi.
Comme nous l’avons déjà dit, l’interaction électrostatique et électromagnétique
entre deux électrons s’interprète dans la théorie quantique des champs en admettant que les deux électrons n’agissent pas directement l’un sur l’autre mais que
chacun est seulement couplé avec le champ de rayonnement ambiant. Les échanges
virtuels d’énergie et d’impulsion entre les deux charges sont équivalents à l’existence d’une énergie potentielle correspondant à la loi de Coulomb et à la loi de
Laplace. Voici alors l’idée essentielle de Fermi : si les interactions entre deux particules légères telles que des électrons ont lieu par l’intermédiaire des particules
formant le champ électromagnétique (photons), on peut penser que l’interaction
113
entre deux particules lourdes (interaction proton-neutron par exemple) a lieu par
l’intermédiaire d’un champ, le champ nucléaire, correspondant à des particules
légères telles qu’électrons et neutrinos. On peut préciser cette idée : lorsqu’un neutron se transforme en proton, la conservation de la charge et du spin conduit à
penser qu’il y a émission non seulement d’un électron négatif, mais aussi d’un neutrino, ce qui permet, nous l’avons vu, de sauveur 1a conservation de l’énergie dans
le phénomène de l’émission des rayons β par les corps radioactifs. Inversement, la
transformation d’un proton en neutron s’accompagnera de l’émission d’un électron
positif et d’un antineutrino, en appelant antineutrino le corpuscule complémentaire
du neutrino jouant par rapport à celui-ci le rôle que joue l’électron positif par rapport au négatif. Ceci explique l’émission d’un spectre β positif par de nombreux
radioéléments artificiels obtenus par des transmutations nucléaires. Maintenant à
ces couples de particules émises simultanément (électron-neutrino et antiélectronantineutrino), on peut chercher à faire correspondre un champ, le champ nucléaire
de Fermi, analogue au champ électromagnétique, mais transportant une charge
électrique négative ou positive. Puis, en appliquant à l’ensemble formé par un proton, un neutron et ce champ nucléaire le même genre de raisonnements qui sert
à ramener l’action Coulombienne entre deux électrons à un échange d’énergie et
d’impulsion par l’intermédiaire du champ électromagnétique ambiant, on pourra
expliquer les actions s’exerçant entre proton et neutron (action d’une grande importance puisqu’elles assurent la stabilité des noyaux atomiques) comme dues à
des échanges d’énergie et d’impulsion entre les deux particules par l’intermédiaire
du champ nucléaire. Telle est la conception très originale et d’un haut intérêt qui
fut proposée par M. Fermi.
Malheureusement le développement de cette belle idée n’a pas conduit à un
succès complet. La théorie des spectres β continus à laquelle elle conduit naturellement n’est pas eu bon accord avec l’expérience : il a fallu pour l’améliorer avoir
recours (Uhlenbeck et Konopinski) à des hypothèses un peu artificielles et prêtant
à la critique. D’autre part, le calcul des forces d’interaction entre proton et neutron
par la méthode de Fermi a conduit à prévoir des champs beaucoup plus faibles que
ceux qui sont réellement nécessaires pour assurer la stabilité des noyaux atomiques.
En présence de ces échecs, M. Yukawa a proposé en 1935 d’admettre que l’interaction entre particules lourdes s’opérait non pas par l’intermédiaire d’un champ
1
nucléaire lié à des couples de particules légères de spin (électron et neutrino),
2
mais par l’intermédiaire d’un champ d’un type nouveau, le champ de Yukawa, qui
serait lié à des particules de spin 1 susceptibles d’être émises et absorbées par
unités ou non par paires comme les particules du champ de Fermi : il a montré
qu’en attribuant à ces particules une masse de l’ordre de 100 fois celle de l’électron,
on pouvait trouver des valeurs satisfaisantes pour les interactions proton-neutron.
Nous avons déjà dit comment la découverte dans les rayons cosmiques de l’élec-
114
CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE
tron lourd ou mésoton avait apporté bientôt une belle confirmation expérimentale
des idées de Yukawa. Dans le cas de la transformation du neutron en proton, le
mésoton émis doit avoir la charge de l’électron pour que le principe de la conservation de l’électricité soit sauf : ce mésoton est donc un électron négatif lourd. Par
contre, dans la transformation du proton en neutron, il doit y avoir une émission
d’un mésoton positif analogue à un électron positif lourd. Mais si au point de vue
de leur charge, les mésotons chargés méritent le nom d’électrons lourds, par contre
au point de vue de leur spin ce sont plutôt des photons lourds et cette analogie
est confirmée par le fait que leurs équations d’onde paraissent bien être les équations de Proca à la forme Maxwellienne. Enfin le développement de la Physique
nucléaire semblant indiquer que les interactions proton-proton et neutron-neutron
sont du même ordre d’intensité que les interactions proton-neutron, il est devenu
nécessaire d’admettre l’existence de « mésotons neutres » ou « neutrettos » qui
auraient même spin et probablement même masse que les mésotons chargés, mais
seraient dénués de charge électrique : ceux-là seraient vraiment des photons lourds,
de la lumière lourde.
Les propriétés des mésotons sont du reste encore bien mal connues : on ne sait
même pas encore d’une façon certaine s’il y a une ou plusieurs sortes de mésoton.
Mais, sans nous arrêter sur ces questions encore controversées, nous pouvons affirmer, semble-t-il, que le principal progrès accompli pendant ces dernières années
dans la théorie du champ nucléaire a consisté à remplacer le champ nucléaire de
1
Fermi lié à des couples de particules indépendantes de spin , susceptibles d’ap2
paraı̂tre et de disparaı̂tre par paire, par le champ nucléaire de Yukawa lié à des
particules de spin 1 susceptibles d’apparaı̂tre ou de disparaı̂tre une par une.
Il est alors curieux de comparer cette évolution de la théorie du champ nucléaire
à l’évolution simultanée de la théorie du rayonnement. Certainement influencé par
les idées de Fermi et s’inspirant aussi (ou plutôt croyant s’inspirer) de nos idées,
M. Pascual Jordan a développé en 1935 une « théorie neutrinienne de la lumière »,
théorie dans laquelle le champ électromagnétique est supposé lié à des couples de
1
particules indépendantes électriquement neutres et de spin qui seraient des neu2
trinos et des antineutrinos susceptibles d’apparaı̂tre et de disparaitre par paire. Le
développement de cette théorie, d’ailleurs ingénieuse, conduit à des conceptions
assez compliquées et plutôt artificielles et paraı̂t se heurter à dŠimportantes objections. Il nous semble qu’on parvient à des idées beaucoup plus satisfaisantes en
conservant le point de vue (qui en réalité a toujours été le nôtre) d’après lequel
le rayonnement électromagnétique lumineux doit être lié à des particules de spin
1 susceptibles d’apparaı̂tre et de disparaı̂tre une par une. On obtient alors, noms
l’avons vu, la Mécanique ondulatoire du photon. Ainsi, en théorie du rayonnement,
passer du point de vue de Jordan à celui de la Mécanique ondulatoire du photon
115
nous paraı̂t constituer un grand progrès analogue et parallèle, à celui qu’on a réalisé dans la théorie du champ nucléaire en passant du point de vue de Fermi à celui
de Yukawa.
On peut d’ailleurs ramener la disparition ou l’apparition unité par unité des
mésotons et des photons à une disparition ou une apparition par paire si l’on
admet que ce sont là en réalité des particules formées par la « fusion » de deux
1
corpuscules élémentaires de spin . Cette idée, qui nous a constamment guidé
2
dans nos recherches sur le photon, paraı̂t aussi, nous l’avons vu, très utile pour le
développement de la théorie générale des particules de spin quelconque.
L’esquisse des théories toutes récentes de la Physique particulaire que nous
avons tenté de faire dans cet exposé permet de juger combien ces théories en plein
épanouissement nous apportent chaque jour de belles perspectives nouvelles.
116
CHAPITRE 10. RÉCENT PROGRÈS DE LA THÉORIE QUANTIQUE
Quatrième partie
SUR DEUX IMPORTANTES
QUESTIONS DE PHYSIQUE
THÉORIQUE
117
Chapitre 11
Les rapports entre la théorie des
quanta et la relativité
Je n’ai aucunement la prétention dans cet exposé d’étudier dans toute son
ampleur la question des rapports de la théorie des Quanta et de la théorie de la
Relativité, ni de chercher à donner une solution à un problème très difficile dont
l’examen complet exigera encore de nombreux efforts.
Je me limiterai ici à la Relativité restreinte, estimant qu’il faudrait d’abord
bien voir comment les conceptions quantiques peuvent se raccorder avec la théorie
de la Relativité restreinte, avant de pouvoir aborder avec quelque chance de succès
le problème beaucoup plus ardu et beaucoup plus étendu de la réconciliation des
Quanta avec la Relativité généralisée. Même dans le domaine de la Relativité
restreinte, je ne chercherai pas à faire un exposé systématique d’ensemble : je
veux seulement présenter quelques remarques et réflexions destinées à préparer
une discussion plus approfondie de la question.
∴
Avant de parler de l’espace-temps relativiste, il me paraı̂t utile de dire quelques
mots de la façon dont les théories de la Physique classique représentaient les phénomènes physiques dans le cadre de l’espace Euclidien à trois dimensions. A l’intérieur de ce cadre considéré a priori comme étant « l’espace physique », on représentait la réalité physique à l’aide d’êtres mathématiques (scalaires, vecteurs ou
tenseurs) ayant à chaque instant une valeur que l’on supposait être, au moins en
principe, toujours exactement déterminable à l’aide de certaines observations ou
de certaines mesures. Ainsi il paraissait évident que l’on devait en principe pouvoir mesurer exactement et simultanément les trois coordonnées d’un corpuscule
119
120
CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ
ponctuel (c’est-à-dire les composantes du vecteur joignant la position de ce corpuscule à l’origine arbitrairement choisie des coordonnées) et les trois composantes
de la vitesse de ce corpuscule. Il paraissait encore plus évident que la mesure d’une
composante de vecteur devait dans le cas général pouvoir fournir n’importe quelle
valeur. Supposer par exemple que la mesure des composantes d’une grandeur vectorielle ne puisse donner que des valeurs égales à un nombre entier de fois une
certaine unité semblait absurde, car la mesure simultanée des trois composantes
d’un vecteur ne peut pas donner un semblable résultat dans n’importe quel système
de référence Cartésien.
On sait que ces postulats implicitement admis par 1a Physique classique ont été
complètement renversés par le développement des théories quantiques. Au fond,
ce que les théories classiques admettaient, c’était non seulement la possibilité de
décrire la réalité physique à l’aide d’êtres mathématiques scalaires, vectoriels ou
tensoriels dans le cadre de l’espace à trois dimensions, mais c’était aussi la possibilité de déterminer par l’observation et par la mesure tous les éléments de cette
description sans troubler appréciablement la réalité à étudier. Or les profondes analyses de certains fondateurs des théories quantiques contemporaines, notamment
de MM. Bohr et Heisenberg, ont montré comment l’existence du quantum d’Action
ne permet plus d’admettre une telle indépendance complète entre le contenu du
monde physique et les constatations qui nous permettent de le connaı̂tre. Alors,
il cesse d’être certain que nous puissions déterminer simultanément avec précision
les diverses caractéristiques des êtres mathématiques qui nous servent à la description des phénomènes physiques, car l’opération qui nous permet de connaı̂tre
l’une de ces caractéristiques peut très bien troubler complètement la valeur d’une
autre de ces caractéristiques, de telle façon que la mesure précise des deux caractéristiques à la fois ne soit pas réalisable. C’est ce qui se passe pour l’une des
coordonnées d’un corpuscule et la composante correspondante de quantité de mouvement comme l’expriment quantitativement les fameuses relations d’incertitude
de M. Heisenberg :
∆q · ∆p ≥ h
De même, deux composantes rectangulaires d’un moment de quantité de mouvement ne sont pas en général simultanément mesurables. C’est la raison pour laquelle la théorie quantique peut, sans contradiction, affirmer que la mesure exacte
d’une des composantes du moment de quantité de mouvement doit toujours fournir
h
, alors qu’une telle affirmation serain incompréhenun multiple entier de l’unité
2π
sible sil es trois composantes de ce moment étaient simultanément mesurables.
Mais, une fois admise l’idée que les grandeurs élémentaires observables ont toujours des valeurs quantifiées et ne sont pas d’une façon générale simultanément
mesurables, nous sommes nécessairement amenés à modifier très profondément la
conception que nous nous faisions de l’espace à trois dimensions comme cadre des
121
phénomènes physiques. C’est ce que nous allons chercher à montrer en examinant
de plus près le cas du moment cinétique.
En théorie quantique, on fait correspondre à toute grandeur « observable »,
c’est-à-dire susceptible de mesure, un opérateur dont les valeurs propres sont les
valeurs qu’une mesure peut fournir pour cette grandeur. Ainsi aux composantes
Mx , My , Mz du moement cinétique d’un corpuscule par rapport à l’origine des
coordonnées, correspondent les opérateurs :
d
d
h
y
−z
(Mx )op = −
2π i
dz
dy
d
d
(My )op
z
−x
dx
dz
h
d
d
(Mz )op = −
x −y
2π i
dy
dx
h
=−
2π i
h
(m entier). La mesure d’une de ces
2π
h
. Les opérateurs Mx , My ,
composantes doit donc fournir un multiple entier de
2π
Mz n’étant pas commutables entre eux, la mesure simultanée de deux composantes
~ est impossible, ce qui lève toute contradiction. Mais, si l’on admet ainsi avec
de M
les conceptions actuelles que les seules valeurs possibles des grandeurs Mx , My ,
h
Mz sont de la forme m , ces trois grandeurs ne paraissent plus aucunement avoir
2π
le caractère des composantes d’un vecteur dans l’espace à trois dimensions. Comment alors parvient-on à conserver au moment de rotation le caractère d’un vecteur
dans l’espace à trois dimensions ? C’est uniquement par la considération des valeurs moyennes. C’est, en effet, une des caractéristiques essentielles des théories
quantiques nouvelles d’admettre que la valeur d’une grandeur observable A n’est
pas en général bien déterminée, mais que cette grandeur a à chaque instant toute
une série de valeurs possibles dont chacune a une certaine probabilité d’être trouvée lors d’une observation ou d’une mesure. Les valeurs possibles de la grandeur
considérée dont les valeurs propres ak de l’opérateur correspondant. Quant à leurs
diverses probabilités, on peut les évaluer de la façon suivante : soit Ψ la fonction
d’onde (supposée normée) du corpuscule ou du système considéré ; si ϕ1 · · · ϕi · · ·
sont les fonctions propres de l’opérateur correspondant à la grandeur envisagée
et
X
ck ϕ k
si Ψ se développe suivant le système complet des ϕk sous la forme Ψ =
et les valeurs propres sont de la forme m
k
la propabilité de la valeur propre ai correspondat à la fonction propre ϕi est |ci |2 .
Cet énoncé doit d’ailleur être quelque peu modifié dans le cas des valeurs propres
multiples et dans celui des spectres continus.
122
CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ
Ainsi pour un système se trouvant dans l’état défini par la fonction Ψ, la grandeur observable A a toute une série de valeurs possibles, cahcune affectée d’une
certaine probabilité. On peut aisément définir la « valeur moyenne » de la grandeur
A comme étant l’espérance mathématique du résultat de sa mesure. Cette valeur
moyenne a évidemment pour définition :
X
A=
|ck |2 ak
k
et l’on démontre que l’on a aussi
A=
Ainsi, on aura :
Mx =
Z
Z
Φ∗ Aop Φ dτ
Φ∗ (Mx )op Φ dτ
etc. . .
Or les valeurs moyennes ainsi définies possèdent le caractère (scalaire, vectoriel
et tensoriel) des entité géométriques définies par les conceptions classiques dans le
cadre de l’espace-temps. Par exemple, Mx , My et Mz forment les trois composantes
rectangulaires d’un vecteur. C’est donc par l’intermédiaire des valeurs moyennes
(ou plus généralement des éléments de matrice qui sont des sortent de valeurs
moyennes prises pour des paires d’états), que l’on retrouve les représentations
géométriques usuelles.
La conclusion qui paraı̂t se dégager de ces constatations est la suivante. Les
propriétés observables d’un système quantifié ne peuvent pas être directement représentées par des grandeurs à caractère géométrique dans le cadre de l’espace
Euclidien à trois dimensions. Ce sont seulement les valeurs moyennes de ces propriétés observables, prises sur un grand nombre de systèmes identiques, qui sont
représentables de cette façon. Ceci fait déjà apparaı̂tre le caractère statistique et
macroscopique de l’espace physique à trois dimensions. Comme les phénomènes
étudiés par la Physique macroscopique font toujours intervenir un nombre énorme
de systèmes élémentaires quantifiés, les observations macroscopiques ne peuvent
nous faire connaı̂tre que des moyennes : elles peuvent par suite être représentées
à la façon classique. Ainsi s’explique le fait que la représentation classique des
phénomènes physiques par des êtres géométriques dans le cadre de l’espace à trois
dimensions ait été parfaitement suffisante, tant que les investigations de la Physique n’avaient pas pu pénétrer trop profondément dans la structure élémentaire de
la matière. Nous comprenons du même coup pourquoi, malgré le caractère discontinu des phénomènes quantiques élémentaires, l’espace tridimensionnel continu est
le cadre bien adapté à toutes nos représentations du monde physique dans la vie
quotidienne, puisque notre connaissance courante du monde extérieur est fondée
sur des observations macroscopiques.
123
Il importe aussi de remarquer que l’exactitude du cadre de l’espace en Physique quantique n’est plus indépendante des propriétés dynamiques des entités
qu’on cherche à y localiser et dépend pour chacune d’elles de la valeur du paramètre dynamique « masse » qui lui correspond. Pour des systèmes de très grande
masse les incertitudes d’Heisenberg deviennent négligeables et la localisation de
tels systèmes dans le cadre de l’espace peut conserver une entière précision. Mais,
pour des unités très légères comme le sont les particules de la Physique atomique,
l’incertitude devient grande et le cadre de l’espace s’estompe en ne conservant plus
qu’une signification moyenne. Ainsi, tandis que dans les idées classiques le cadre
géométrique de l’espace à trois dimensions est donné a priori et est tout à fait indépendant de son contenu physique, dans la théorie quantique (comme d’ailleurs en
Relativité généralisée, mais d’une façon très différente) l’espace n’est plus définissable indépendamment de son contenu. L’existence du quantum d’Action crée une
liaison très étroite et d’une nature très nouvelle entre la localisation géométrique
des unités physiques dans l’espace et leurs propriétés dynamiques.
Il est temps d’aborder maintenant les questions touchant la Relativité. Avant
de le faire, il nous a paru nécessaire de souligner que, même en dehors de toute
idée relativiste, l’espace physique à trois dimensions apparaı̂t déjà aux yeux du
physicien quantiste comme n’étant plus valable qu’en moyenne et n’étant pas bien
adapté à une véritable description des processus élémentaires. L’espace-temps relativiste, étant une sorte d’extension à quatre dimensions du cadre classique à trois
dimensions, devra nécessairement être soumis à une critique analogue : pour la
théorie quantique, c’est seulement « en moyenne » que les processus élémentaires
pourront venir se loger dans le cadre de l’espace-temps.
∴
Le développement de la théorie de Relativité et, en particulier, la critique si
pénétrante qu’elle a effectuée des mesures de distance et de durée opérées dans
différents systèmes de référence Galiléens en mouvement relatif, a conduit à représenter les phénomènes physiques non plus comme s’effectuant au cours d’un temps
absolu et uniforme dans le cadre de l’espace à trois dimensions, mais comme représentables dans leur ensemble dans le cadre de l’espace-temps à quatre dimensions
dont la métrique pseudo-Euclidienne est définie par le ds2 bien connu :
ds2 = c2 dt2 − dx2 − dy 2 − dz 2
(c est la vitesse de la lumière dans le vide).
L’évolution d’un objet matériel supposé ponctuel est représentée dans cet espace quadridimensionnel par une courbe, la ligne d’Univers de l’objet ponctuel,
124
CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ
dont la continuité représente géométriquement le fait que l’existence de l’objet
ponctuel persiste au cours du temps. La ligne d’Univers définit la position dans
l’espace à chaque instant de l’élément ponctuel dans un système de référence quelconque. La tangente à la ligne d’Univers définit la vitesse instantanée du mouvement et, en multipliant la longueur d’un vecteur unité porté sur cette tangente par
un facteur proportionnel à la masse propre du point matériel considéré, on obtient
un vecteur, 1’Impulsion d’Univers, dont les quatre composantes dans tout système
de référence donnent l’énergie divisée par c et l’impulsion du mobile ponctuel dans
ce système. D’une manière plus précise, le vecteur unité porté le long de la ligne
d’Univers (dit vitesse d’Univers) a pour composantes :

ux = √ vx 2 
1−β 



uy = √ vy 2 
v
1−β
avec
β
=
v
z
uz = √ 2 
c
1−β 




ut = √ c
1−β 2
et le vecteur « Impulsion d’Univers » s’obtient en multipliant la vitesse d’Univers
par la masse m du mobile ponctuel.
Ainsi, dans la conception même de l’espace-temps relativiste, on admet la possibilité, au moins théorique, de connaı̂tre simultanément tous les éléments qui fixent
la position et le mouvement instantané et de les représenter géométriquement : la
notion même de la ligne d’Univers prise dans toute sa rigueur exclut toute incertitude au sens d’Heisenberg.
On peut donc voir déjà que l’introduction des théories quantiques et des « incertitudes » qu’elles comportent devait nécessairement ébranler le cadre même de
l’espace-temps et qu’un certain conflit était inévitable entre ces théories et la théorie relativiste, même sous sa forme restreinte. Des relations d’incertitude :
∆xi · ∆pi ≥ h
on tire en effet :
h
−m0
et l’on voit qu’il est impossible de connaı̂tre simultanément avec précision un point
de la ligne d’Univers d’un mobile ponctuel et la tangente en ce point à cette ligne
d’Univers. La représentation des phénomènes physiques ne peut donc plus se faire
dans le cadre de l’espace-temps avec une entière précision, mais seulement avec
un certain « flou ». L’existence de ce flou est due, les inégalités d’Heisenberg le
montrent, à la valeur non nulle de la constante de Planck, c’est-à-dire à l’intervention quantum d’Action ; son importance dépend non seulement de h, mais de
∆xi · ∆ui ≥
125
m0 . Nous voyons ainsi (et ce point peut être précisé davantage par une étude des
relations d’incertitude pour les ensembles de points matériels) que la représentation dans le cadre de l’espace-temps est susceptible d’autant plus d’exactitude
que le système est plus lourd. Le cadre de l’espace-temps se montre donc parfaitement adapté à la représentation des objets matériels ayant des masses de l’ordre
macroscopique, mais par contre très mal adapté à la représentation des éléments
matériels ayant des masses de l’ordre de celle des particules élémentaires. L’espacetemps est une notion senti de l’expérience à grande échelle dont l’utilisation dans
le cas des processus élémentaires de la physique atomique est en principe sujette
à caution.
Laissant de côté pour l’instant la difficulté de concilier les incertitudes quantiques avec l’emploi de l’espace-temps, étudions dans quelle mesure la relativité
restreinte est parvenue à assimiler la coordonnée « temps » aux coordonnées d’espace. Il est certain que la Relativité a établi entre le temps et l’espace un lien étroit
qui n’existait aucunement dans les théories antérieures. Ce lien s’exprime par les
formules bien connues de la transformation de Lorentz et il est en quelque sorte
représenté géométriquement par la considération du continuum « espace-temps »
à quatre dimensions et à métrique pseudo-Euclidienne. Néanmoins, il ne serait pas
exact de dire que la théorie relativiste a aboli toute différence entre le temps et
l’espace : non seulement cela serait évidemment contraire à toute notre expérience
vécue, mais même au point de vue de la théorie abstraite des différences essentielles subsistent entre le temps et l’espace. D’abord dans le ds2 pseudo-Euclidien
le carré dt2 a le signe contraire à celui des carrés des différentielles des variables
spatiales : c’est ce que l’on peut exprimer également en disant que, pour donner au
continuum spatio-temporel une métrique Euclidienne, il faut adjoindre
aux trois
√
coordonnées d’espace non pas la variable t, mais la variable −1t et cette introduction nécessaire de l’unité imaginaire montre déjà une grande différence de
nature entre le temps et l’espace. C’est là une remarque très connue, mais on peut
arriver à la même conclusion par d’autres considérations. L’existence des particules
et leur persistance dans le temps se traduit en théorie de la Relativité par la présence dans l’espace-temps de lignes d’Univers qui sont toutes inclinées de moins
de 45o sur l’axe du temps (quand on prend c = 1), cette dernière circonstance
traduisant le fait qu’aucun corps matériel ne peut se déplacer avec une vitesse
supérieure à la vitesse c. Le contenu de l’espace- temps présente donc une sorte
de structure fibreuse dans le sens du temps. Cette structure suffirait à elle seule
pour rompre la symétrie entre l’espace et le temps : elle a, de plus, d’importantes
conséquences sur la façon de poser les problèmes comportant des conditions aux
limites. Considérons par exemple une enceinte à l’intérieur de laquelle se passent
certains phénomènes que l’on veut étudier : les lignes d’Univers des éléments matériels formant les parois de l’enceinte délimitent dans l’espace-temps une sorte de
126
CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ
tube dont l’intérieur représente l’enceinte considérée à toutes les époques successives et dont l’axe est orienté dans le sens du temps. Si l’étude des phénomènes
considérés donne lieu à un problème mathématique comportant des conditions aux
limites sur les connu de l’enceinte, dans l’espace-temps ces conditions aux limites
ne sont pas symétriques en espace et en temps. De même on peut définir le champ
Coulombien d’une charge ponctuelle en écrivant que le potentiel correspondant
obéit à l’équation de Laplace et est nul à l’infini : mais cette dernière condition
comporte aussi une certaine dissymétrie entre l’espace et le temps, car, en raison
de la persistance de la charge ponctuelle au courts du temps, on ne peut pas dire
que le potentiel Coulombien doive être nul à l’infini dans le sens du temps. Ces
remarques nous paraissent avoir une certaine importance pour la comparaison avec
la Relativité des problèmes aux limites qu’envisage la nouvelle Mécanique dans la
détermination des états stationnaires.
∴
En étudiant les théories quantiques à l’approximation non relativiste qui emploie le cadre de l’espace à trois dimensions et admet le caractère absolu du temps,
nous avons vu que ce sont seulement les valeurs moyennes qui sont représentables
par des êtres géométriques dans l’espace à trois dimensions. Si nous voulons maintenant passer au point de vue relativiste, nous devons nous attendre à trouver
quelque chose d’analogue : et en effet, l’étude de la théorie de l’électron magnétique
de M. Dirac, qui nous fournit un exemple précis d’une théorie à la fois quantique
et relativiste, conduit bien à attribuer le caractère de grandeurs représentables par
des êtres géométriques (scalaires, vecteurs ou tenseurs) dans l’espace-temps non
pas aux grandeurs elles-mêmes telles qu’elles sont individuellement observables,
mais à leurs valeurs moyennes probables, ou plus précisément aux « densités » de
ces valeurs moyennes. Nous allons préciser ce point.
Dans la théorie de l’électron de Dirac, la fonction d’onde de l’électron est une
grandeur mathématique à quatre composantes Ψ1 , Ψ2 , Ψ3 , Ψ4 , obéissant à une
équation aux dérivées partielles simultanées qui s’écrit symboliquement en l’absence de champ extérieur :
d
d
d
2π i
1 dΨi
= α1
+ α2
+ α3
+
m0 c α4 Ψi i = 1, 2, 3, 4
c dt
dx
dy
dz
h
où les αi sont des matrices hermitiennes à quatre lignes et quatre colonnes satisfaisant aux relations :
αi αj + αj αi = 2δij
(i, j = 1, 2, 3, 4)
127
δij étant le symbole bien connu de Kronecker. Si l’électron considéré est soumis à
un champ électromagnétique extérieur, il faut introduire dans l’équation des ondes
des termes dépendant des potentiels électromagnétiques : nous n’insisterons pas
ici sur ce point.
Les équations de Dirac possèdent l’invariance relativiste quant à leur forme :
si l’on a écrit ces équations avec un certain choix de matrices dans un premier
système de référence Galiléen et si Ψ de composantes Ψ1 , Ψ2 , Ψ3 , Ψ4 est une
solution des équations ainsi écrites, dans un second système de référence Galiléen,
la fonction d’onde Ψ′ sera solution d’équations ayant la même forme avec le même
choix des αi et les composantes Ψ′i de Ψ′ seront des combinaisons linéaires des
Ψi , les coefficients de ces combinaisons linéaires dépendant naturellement de la
transformation de Lorentz qu’il faut effectuer pour passer du premier système de
référence au second. Au point de vue de la forme des équations d’onde, la théorie
de M. Dirac est donc bien relativistiquement invariante. Nous saurons à examiner
plus loin dans quelle mesure cette invariance est complète.
Le formalisme de la théorie de Dirac et son interprétation physique sont voisins de ceux de la théorie quantique non relativiste. A chaque grandeur physique
mesurable, à chaque « observable » on y fait correspondre un opérateur A linéaire
et hermitique et l’on admet que les seules valeurs qu’une mesure exacte de la grandeur puisse fournir sont les valeurs propres de l’opérateur A. A chaque grandeur
observable, est donc associée une liste de valeurs possibles pour cette grandeur et
il n’y a rien là à priori qui permette de donner aux grandeurs physiques une représentation géométrique dans l’espace-temps. Comme en Mécanique quantique non
relativiste, c’est seulement quand on passe au point de vue des valeurs moyennes
que l’on peut parvenir à classer les grandeurs observables de façon à pouvoir les
représenter par des êtres géométriques dans l’espace-temps. Dans la théorie de M.
Dirac, la valeur moyenne d’une grandeur observable A pour un électron dans l’état
Ψ est donnée par la formule :
Z X
4
A=
Φ∗i A Φi dxdydz
1
Ce sont les densités de ces valeurs moyennes, c’est-à-dire les quantité de la
4
X
forme
Ψ∗i A Ψi qui possèdent un caractère tensoriel dans l’espace-temps. C’est
1
par de telles « densités » que sont définis par exemple le quadrivecteur densitéflux, le quadrivecteur correspondant au spin, le tenseur antisymétrique du second
rang donnant les moments électrique et magnétique propres de l’électron, etc.
Le raccord avec le cadre de l’espace-temps se fait donc en théorie de Dirac par
l’intermédiaire de ces densités de moyenne. Ce fait est assez remarquable, car
il semble bien qu’au point de vue purement quantique, les densités de moyenne
128
CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ
n’aient pas une signification physique très nette. A ce point de vue, c’est l’intégrale
A de la précédente formule, fonction seulement du temps, qui a un sens physique :
elle représente l’espérance mathématique pour la valeur de la grandeur A dans
l’état défini par la fonction Ψ . Les densités de moyenne ne sont définies qu’à une
divergence d’espace près et souvent il faut profiter de cette indétermination si l’on
veut avoir pour les densités de moyenne des expressions réelles. Ainsi ces densités
ne paraissent pas avoir au point de vue quantique d’interprétation directe ; mais,
par contre, elles présentent des variances relativistes déterminées et, de plus, elles
ont le caractère de « grandeurs de champ » c’est-à-dire de grandeurs fonctions
de x, y, z, t définies en chaque point de l’espace-temps. Donc, et cette remarque
nous paraı̂t très importante, ce sont les densités die moyenne qui permettent de
réconcilier, autant qu’il est possible, le point de vue corpusculaire quantique avec
le point de vue de la Physique du champ servant de base à toutes les conceptions
relativistes. Le rôle des densités de moyenne en Mécanique ondulatoire relativiste
paraı̂t donc fondamental et à certains égards assez singulier.
∴
D’après ce que nous venons de dire, il est visible que la Mécanique ondulatoire
relativiste de l’électron due à M. Dirac n’est en accord avec la Relativité que dans
la mesure où une théorie quantique peut être en accord avec les conceptions continues de l’ancienne Physique, c’est-à-dire en ce qui concerne les vapeurs moyennes.
Pour cette raison déjà, la théorie de Dirac n’est conforme à la Relativité que si on
l’envisage sous certains aspects. Tout d’abord, nous l’avons vu, c’est seulement par
l’intermédiaire des valeurs moyennes que la nature essentiellement discontinue des
Quanta peut se concilier avec le caractère continu de la Physique relativiste qui
est essentiellement une Physique du champ. D’autre part, il faut bien reconnaı̂tre
que, dans la Mécanique ondulatoire relativiste, comme dans les autres formes de la
Mécanique quantique, la variable « temps » joue un rôle très différent de celui des
variables d’espace, contrairement à l’une des tendances fondamentales des conceptions relativistes. Les problèmes de détermination des valeurs propres qui jouent
un rôle essentiel en Mécanique quantique sont en effet, posés dans un domaine
d’espace et une telle définition paraı̂t peu en accord avec l’esprit des conceptions
relativistes. Et cependant on ne peut guère songer à définir les valeurs propres
dans des domaines de l’espace-temps, car on obtiendrait alors, nous semble-t-il,
une Physique entièrement statique dont toute évolution dans le temps serait bannie. Comme l’a très justement remarqué M. Schrödinger dans ses conférences sur
ce sujet à l’Institut Henri-Poincaré, il faut à la théorie quantique un paramètre
129
d’évolution ayant un rôle tout à fait différent des variables de configuration auxquelles correspondent des opérateurs. La théorie quantique actuelle, sous toutes
ces formes, prend comme paramètre d’évolution le temps et brise ainsi la symétrie entre espace et temps. Peut-être trouvera-t-on une manière de tourner cette
difficulté, mais pour l’instant elle n’apparaı̂t pas.
Il est intéressant de préciser un peu davantage la difficulté que nous venons de
signaler. Quand avec les principes actuels de la Mécanique nouvelle, nous « quantifions » un système, un atome d’hydrogène par exemple, en calculant les valeurs
propres de son énergie, nous isolons par la pensée ce système du reste de l’univers. Rigoureusement parlant, cela n’est pas permis : pour déterminer les valeurs
propres de l’Hamiltonien, il faudrait en principe tenir compte dans cet Hamiltonien de toutes les forces existant dans tout l’univers. Fort heureusement, l’influence
des champs de force extérieurs à un atome sur la forme des ondes Ψ de l’atome
est négligeable parce que ces ondes Ψ tendent très rapidement vers zéro dès qu’on
s’éloigne hors du domaine atomique. Bref, en principe, la détermination des valeurs
propres et des fonctions propres exigerait la considération de l’univers tout entier,
mais en pratique la structure du monde matériel se prête assez bien à ce que nous y
découpions des systèmes suffisamment indépendants pour pouvoir être considérés
isolément. Mais, si nous voulions définir les valeurs propres et les fonctions propres
dans des domaines d’espace-temps, nous ne pourrions guère, semble-t-il, chercher
à découper l’existence d’une unité physique, telle qu’un atome, en tranches indépendantes les unes des autres. Or, au cours du temps, un atome subit des actions
très diverses, est le siège d’effets Stark et d’effets Zeeman, etc. Si nous voulions
définir les valeurs propres dans un domaine d’espace-temps, nous serions obligés
de prendre un domaine indéfini dans le sens du temps et contenant toute l’histoire de l’atome : cela nous conduirait à définir des valeurs propres dépendant
de toute l’existence de l’atome, mais invariable au cours du temps, ce qui paraı̂t
inacceptable.
Cette difficulté semble se rattacher par un lien étroit à cette sorte de structure
fibreuse de l’espace-temps dans le sens du temps due, nous l’avons vu, à ce que
la persistance des unités matérielles se traduit dans l’espace-temps par l’existence
de faisceaux de lignes d’univers inclinées de moins de 45o sur l’axe du temps.
Dans la conception relativiste usuelle, un observateur Galiléen A considère comme
simultanés les points-événements de l’espace-temps qui sont contenus dans une
section tridimensionnelle de cet espace normale à l’axe de son temps propre. En
raison de la structurée fibreuse de l’espace-temps, cette section coupe les lignes
d’Univers de toutes les unités matérielles et c’est ce qui permet à l’observateur A
de découper dans le cadre de son espace propre des systèmes permanents presque
indépendants : c’est ce qui permet également au physicien quantiste de poser ses
problèmes de valeurs propres dans des domaines bien définis de l’espace. Mais un
130
CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ
tel découpement en sections presque indépendantes, qui est pratiquement possible
transversalement aux lignes d’univers, ne le serait pas dans le sens de ces lignes.
De là l’impossibilité de définir pour les problèmes de valeurs propres des domaines
d’espace-temps ayant des limites précises dans le sens du temps. L’impossibilité
de poser les problèmes quantiques de valeurs propres dans des domaines d’espacetemps d’une façon symétrique en espace et en temps nous paraı̂t donc être lié
au fait fondamental de l’existence et de la persistance dans le temps des unités
matérielles.
L’absence de symétrie que le formalisme quantique laisse subsister même dans
les formes relativistes de la nouvelle Mécanique se montre d’ailleurs clairement
dans le fait qu’à chaque coordonnée x, d’espace y correspond un opérateur xi et
qu’à chaque coordonnée xi d’un corpuscule correspond en général non pas une
valeur déterminée, mais une répartition de probabilité, tandis qu’au contraire la
coordonnée de temps garde le caractère classique d’une coordonnée à valeur numérique à laquelle ne correspond aucune statistique. Pour employer la terminologie
de M. Dirac, les coordonnées d’espace sont dans la théorie quantique des nombres
q, alors que la coordonnée de temps reste un nombre c. De là découle la différence
d’interprétation que l’on doit admettre entre les relations d’incertitude habituelles :
∆xi · ∆pi ≥ h
et la relation analogue qui, du point de vue relativiste, complète les trois précédentes :
∆E · ∆t ≥ h
Dans cette dernière relation, ∆t ne doit pas être considérée comme une incertitude sur la coordonnée temps du corpuscule envisagé, mais comme la durée
de l’expérience qui permet d’attribuer à l’énergie du corpuscule une valeur affectée d’une incertitude minima égale à ∆E . Il est évident qu’il serait souhaitable
d’introduire dans la théorie quantique l’idée que la coordonnée t est, elle aussi,
associée à une distribution de probabilité, mais il faudrait or faire en gardant dans
la théorie une variable d’évolution et, comme nous l’avons déjà dit, cela ne paraı̂t
pas très facile.
∴
Nous signalerons ici, sans vouloir insister sur cette très délicate question, les
difficultés qui se présentent quand on veut construire une Mécanique à la fois
quantique et relativiste des systèmes de corpuscules en interaction, ce qui est en
particulier nécessaire pour arriver à une théorie vraiment claire des interactions
131
entre la matière et le rayonnement. L’étude du mouvement d’un ensemble de corpuscules en interaction présente déjà de grandes difficultés dans la Mécanique
relativiste non quantique. En particulier, on ne peut plus y définir, ni y utiliser
d’une manière simple la notion de centre de gravité qui rend de si grands services
dans la Mécanique non relativiste classique des systèmes de points matériels. Il
faut aussi y tenir compte de la vitesse finie de propagation des interactions, ce
qui est une grande complication. Les difficultés sont plus grandes encore si l’on
veut faire une Mécanique relativiste des systèmes de corpuscules qui soit aussi
quantique. II semble qu’alors il faille attribuer à chaque constituant du système
non seulement ses coordonnées d’espace, mais aussi son temps individuel et écrire
les équations d’onde de la Mécanique ondulatoire en posant égaux entre eux les
temps individuels des divers constituants. Telle est, du moins, la voie qui a été indiquée notamment dans un mémoire bien connu de MM. Dirac, Fock et Podolsky.
Mais la question paraı̂t présenter une assez grande difficulté si on veut l’étudier
systématiquement dans toute son étendue et nous nous contenterons d’y avoir fait
allusion.
Dans un ordre d’idées voisin, Schrödinger a démontré que, même en se plaçant au point de vue de la Mécanique ondulatoire ordinaire (non relativiste) , il
paraissait impossible d’imaginer l’existence d’une horloge permettant de mesurer
le temps avec une précision absolue, c’est-à-dire d’attacher à chaque événement
une coordonnée t de valeur tout à fait précise. Il semble en résulter, même indépendamment des conceptions relativistes sur la symétrie de l’espace et du temps,
la nécessité d’introduire une statistique sur la coordonnée temps comme sur les
coordonnées d’espace.
Enfin il convient de noter le rôle essentiel que devra sans doute jouer dans une
théorie réconciliant les Quanta et la Relativité la fameuse constante de la structure
2πe2
fine
. Cette constante est, en effet, apparue dans la Physique dès que M.
hc
Sommerfeld a tenté naguère de faire entrer pour la première fois les idées quantiques
et les idées relativistes dans une même construction théorique et elle doit avoir à
ce point de vue une signification profonde. D’ailleurs comme elle contient dans sa
définition la charge e de l’électron, son véritable sens ne pourrait sans doute être
donné que par une théorie où la structure discontinue de l’électricité trouverait son
explication.
∴
Nous nous bornerons à ces indications et nous allons chercher à résumer en
quelques mots les remarques qui précèdent.
132
CHAPITRE 11. THÉORIE DES QUANTA ET RELATIVITÉ
Les notions d’espace et de temps, et celle d’espace-temps que la théorie relativiste en a déduite par une fusion hardie, sont en définitive construites à partir des
observations du monde physique à glande échelle. Depuis le développement de la
théorie des Quanta, les réalités physiques à très petite échelle ne paraissent plus
pouvoir être représentées individuellement dans le cadre de l’espace-temps. Elles ne
peuvent plus y être localisées que d’une manière « floue » et c’est seulement par le
jeu des moyennes que l’on parvient, en Physique quantique, à définir des grandeurs
ayant un caractère géométrique quadridimensionnel. L’espace-temps apparait ainsi
comme n’ayant plus qu’une valeur moyenne et macroscopique.
Comme les corpuscules de la Physique atomique apparaissent actuellement
comme constituant la réalité ultime, il semblerait logique de partir de l’existence de
ces entités élémentaires pour s’élever par la statistique jusqu’à la Physique des phénomènes à grande échelle. Partant de quelque conception discontinue (peut-être de
quelque espace discret), on devrait parvenir à retrouver la notion d’espace-temps
continu par le jeu des moyennes et à expliquer ainsi pourquoi l’espace-temps est
un cadre parfaitement adapté à la représentation des phénomènes macroscopiques.
Ce ne serait pas là un travail très facile d’autant plus qu’il faudrait presque certainement introduire des statistiques non seulement pour définir les coordonnées
d’espace, mais aussi pour définir la coordonnée de temps, et nous avons vu que
cela entraı̂ne des difficultés particulières.
Quoi qu’il en soit, il semble bien que les discontinuités et les incertitudes révélées par les théories quantiques nous permettent de pénétrer dans les profondeurs
de la réalité physique bien au delà de ce que les conceptions relativistes anciennes
nous permettaient de faire. A ce point de vue, les idées quantiques paraissent
primer les idées relativistes. Cependant il faut ajouter que les idées quantiques
doivent se développer de façon à rejoindre la représentation relativiste chaque fois
que l’on considère des phénomènes mettant en jeu un très grand nombre d’entités
élémentaires. Ainsi, par une sorte d’extension de l’idée si féconde de « correspondance » que nous devons à M. Bohr, se trouve nettement posé le problème de la
réconciliation des Quanta et de la Relativité.
Chapitre 12
Le Photon
12.1
Considérations générales
Nous n’avons pas à rappeler ici comment se sont manifestées dans la Physique
contemporaine la dualité d’aspect de la lumière et la nécessité de faire appel, pour
interpréter les phénomènes qu’elle produit, tantôt à des images du type ondulatoire,
tantôt à d’autres images du type corpusculaire. Entre les deux termes de cette
dualité d’aspect, fut jeté en 1905 un premier pont grâce à l’hypothèse des « quanta
de lumière ». Dans cette hypothèse, on admet qu’à toute onde lumineuse plane
monochromatique de fréquence ν, on doit associer des corpuscules, les photons,
progressant dans la direction de propagation de la lumière et possédant une énergie
W et une quantité de mouvement p données par les relations :
W = hν
p=
hν
c
(12.1)
Quand on compare ces relations (12.1) avec les formules bien connues de la Dynamique relativiste, on est conduit à considérer le photon comme une particule de
masse propre nulle qui se déplace toujours avec la vitesse c.
Les relations (12.1) qui établissent un lien entre l’image ondulatoire (caractérisée par la fréquence et la direction de propagation d’une onde plane monochromatique) et l’image corpusculaire (caractérisée par l’énergie et la quantité de
mouvement d’une particule en mouvement uniforme) suggèrent que, du moins dans
le cas des photons, il y a lieu de construire une théorie synthétique où les images
d’ondes et de corpuscules viennent, dans la limite où elles sont exactes, trouver leur
place. Et, en généralisant, on arrive à l’idée qu’il pourrait en être de même pour
tous les genres de particules que la Physique atomique noue a appris à connaı̂tre.
Cette idée a été la base sur laquelle s’est édifiée la Mécanique ondulatoire. On
sait que la Mécanique ondulatoire associe au mouvement rectiligne et uniforme
d’une particule ayant l’énergie W et l’impulsion p une onde progressant dans la
133
134
CHAPITRE 12. LE PHOTON
direction du mouvement dont la fréquence ν et la longueur d’onde λ sont données
par les formules :
h
W
λ=
(12.2)
ν=
h
p
c
Appliquées à un photon associé à une onde lumineuse pour laquelle λ =
les
ν
formules (12.2) coincident avec les formules (12.1). Au premier abord, on pouvait
donc penser que les formules générales de la Mécanique ondulatoire conduiraient
immédiatement à unie théorie d’ensemble de la Lumière et des radiations. En
réalité, il n’en était rien et l’on s’est trouvé dans la situation paradoxale suivante :
la nature dualistique de la Lumière avait servi de modèle et de guide pour le
développement de la Mécanique ondulatoire et, néanmoins, la théorie de la Lumière
ne parvenait pas à entrer dans le cadre de cette Mécanique. Il faut chercher à
analyser les causes des difficultés qui ont été rencontrées ici.
Une première de ces causes est que la Mécanique ondulatoire, dans la forme où
elle a pris d’abord sa rapide extension, n’est pas relativiste. Or il est bien évident
que pour le photon dont la vitesse est toujours égale à la vitesse limite c (ou tout
au moins toujours pratiquement indiscernable de cette vitesse c), on doit employer
une Mécanique relativiste et que la Mécanique ondulatoire ne pourra réussir à
fournir une théorie satisfaisante de la Lumière que si on l’emploie sous une forme
relativiste. Une seconde cause de difficulté est que la Mécanique ondulatoire sous
sa forme primitive ne contient aucun élément de symétrie susceptible de conduire
à une interprétation de la polarisation des ondes lumineuses, ni aucun élément de
nature électromagnétique permettant de définir une onde lumineuse du type de
Maxwell. Nous verrons d’ailleurs que toutes ces difficultés peuvent être levées d’un
seul coup.
Une autre cause de difficultés dans l’édification d’une Mécanique ondulatoire
du photon, c’est que le photon possède des propriétés qui le distinguent nettement
des corpuscules matériels tels que l’électron. D’abord les photons en assemblée
obéissent à la statistique de Bose-Einstein, alors que les électrons obéissent à la
statistique de Fermi-Dirac : c’est là une première différence très importante. De
plus, dans l’effet photoélectrique, le photon disparaı̂t, s’annihile, et il ne paraissait
exister, du moins avant la découverte de la dématérialisation des paires d’électrons de signes opposés, aucun phénomène analogue pour les particules matérielles.
D’autres raisons encore, par exemple l’impossibilité d’obtenir pour le photon une
probabilité de présence donnée par une expression définie positive, montraient
clairement la nécessité d’admettre une différence de nature assez profonde entre le
photon et les autres corpuscules élémentaires.
Voyons maintenant comment on peut chercher à lever ces diverses difficultés.
Il faut tout d’abord mettre à la base de la théorie de la particule « photon » une
mécanique ondulatoire relativiste introduisant des éléments de symétrie analogues
12.1. CONSIDÉRATIONS GÉNÉRALES
135
à la polarisation et permettant de définir des champs électromagnétiques attachés
à la particule. La Mécanique ondulatoire de l’électron magnétique et doué de spin
due à M. Dirac remplit en partie ces conditions : d’abord parce qu’elle est relativiste
et applicable à des particules ayant toutes les vitesses jusqu’à la valeur c, ensuite
parce qu’elle introduit le spin dont l’existence est expérimentalement démontrée
pour l’électron et que le spin a une certaine analogie avec la polarisation, enfin
parce qu’elle définit un moment magnétique et un moment électrique propres de la
particule, moments dont les densités de volume ont respectivement les dimensions
d’un champ magnétique et d’un champ électrique.
La première idée que l’on pourrait avoir serait d’admettre que le photon est
un corpuscule de charge électrique nulle et de masse propre nulle ou évanouissante
obéissant à des équations du type de Dirac. Mais on se trouve rapidement complètement arrêté dans cette voie. Les raisons de cet échec sont les suivantes : d’abord
le spin d’un corpuscule de Dirac a bien un certaine parenté (au point de vue de
la symétrie) avec la polarisation de la lumière, mais ne peut pas lui être identifié ; ensuite, on peut bien arriver à définir un champ électromagnétique, mais ce
champ n’a pas les caractères nécessaires pour représenter la lumière. Insistons sur
ce dernier point. Si on définit le champ comme attache à un état du photon, il ne
peut pas représenter l’action du photon sur la matière, car toute action de ce genre
fait nécessairement varier l’état du photon : en suivant cette idée, on est amené à
définir les champs électromagnétiques de la lumière comme des grandeurs (en fait
des densités d’éléments de matrice) liées au changement d’état subi par le photon
quand il agit sur la matière, et c’est là une conception essentielle parfaitement
confirmée par la théorie des interactions entre matière et rayonnement. Mais alors
pour pouvoir préciser la valeur du champ électromagnétique associé à un photon,
il faudra connaı̂tre à la fois et l’état initial et l’état final du photon, de sorte que le
photon, considéré dans son état initial supposé donné, aura une infinité de champs
électromagnétiques suivant l’état final qu’on lui attribuera. Or, en fait, une onde
lumineuse, correspondant à un état donné du photon, possède toujours un champ
électromagnétique parfaitement déterminé : dans le cas général, ce champ n’est pas
monochromatique et doit être représenté par un développement de Fourier, mais
les coefficients de ce développement de Fourier ont en fait toujours des valeurs
parfaitement déterminées. Il en résulte que l’identification du photon avec un seul
corpuscule obéissant aux équations de Dirac se heurte à des difficultés insurmontables quant à la définition du champ électromagnétique qui l’accompagne. Après
cette tentative infructueuse, on peut considérer comme établis les deux points essentiels suivants : 1o le champ électromagnétique du photon traduisant la manière
dont il peut agir sur la matière doit être lié au changement d’état, à la transition
quantique, que subit le photon quand il agit sur la matière ; 2o le champ électromagnétique d’une onde lumineuse étant toujours unique et bien déterminé, il faut
136
CHAPITRE 12. LE PHOTON
que l’état final du photon soit déterminé par son état initial, qu’il soit impliqué en
quelque sorte dans la définition de cet état initial.
Le problème étant ainsi posé, on peut faire immédiatement un rapprochement
avec un fait physique très remarquable. Ce fait physique, c’est le caractère tout à
fait particulier que présentent, dans l’ensemble des phénomènes d’interaction entre
particules, les phénomènes d’absorption de la lumière et l’effet photoélectrique, où
un photon cède son énergie à la matière. Il y a toujours cession totale de son énergie
par le photon à l’électron ou à l’atome avec disparition, annihilation, du photon.
Il n’y a jamais d’effet partiel où le photon céderait une partie de son énergie sans
la céder toute, car, on le sait, l’effet Compton ne doit pas être considéré comme
un processus simple, mais plutôt comme la succession d’un processus d’absorption
et d’un processus d’émission. Les seuls modes directs d’action de la lumière sur la
matière, les seuls processus élémentaires dans lesquels la lumière puisse produire
des effets observables paraissent bien être ceux où il y a cession totale de l’énergie du
photon à la matière. La conséquence nécessaire de cette constatation est alors qu’il
doit y avoir dans la structure du photon une particularité qui lui permet, quand il
en a l’occasion au contact de la matière, de s’annihiler complètement au point de
vue énergétique en cédant toute son énergie à l’extérieur. Or une telle structure est
aujourd’hui assez facile à concevoir, depuis que le développement de la théorie de
Dirac nous a suggéré l’idée de « paires de corpuscules complémentaires »et surtout
depuis que l’expérience a prouvé l’existence réelle du corpuscule complémentaire
de l’électron : le positon ou électron positif.
Comme on le sait, les équations de la théorie de Dirac admettent des solutions à
énergie négative et M. Dirac a été amené à concevoir l’existence d’électrons positifs
qui seraient équivalents à une « lacune », à une place inoccupée, dans la distribution des électrons à énergie négative. L’électron positif conçu de cette façon doit
posséder la propriété de pouvoir être neutralisé par un électron négatif ordinaire
si celui-ci vient à combler la lacune, la place vide, dont l’électron positif n’est,
d’après Dirac, que la manifestation observable : il y a alors annihilation réciproque
et simultanée des deux électrons avec mise en liberté de leur énergie totale. De
plus, on sait par l’expérience qu’il existe bien réellement des électrons positifs et
tout porte à croire qu’ils possèdent les propriétés prévues pour eux par M. Dirac.
En particulier, il est très vraisemblable qu’un couple formé d’un électron positif et
d’un électron négatif est réellement susceptible, conformément aux prévisions théoriques, de se dématérialiser en cédant la totalité de son énergie à l’extérieur. Nous
dirons que l’électron positif est le « corpuscule complémentaire »de l’électron négatif et qu’une paire de corpuscules complémentaires est susceptible d’annihilation
totale. Plus généralement, à tout corpuscule, quelles que soient sa charge électrique
et sa masse propre, qui obéit à des équations de la forme de Dirac et possède par
h
suite comme l’électron un spin
doit correspondre un corpuscule complémen4π
12.1. CONSIDÉRATIONS GÉNÉRALES
137
taire : une paire formée par ce corpuscule et un corpuscule complémentaire debra
être susceptible d’annihilation.
Dès lors, il apparaı̂t comme probable que nous pourrons retrouver les propriétés
du photon en l’assimilant à un système formé par une paire de corpuscules complémentaires obéissant l’un et l’autre à des équations du type de Dirac.Cette paire
possédera, en effet, la propriété très remarquable de pouvoir s’annihiler quand, se
trouvant en présence de la matière, elle pourra lui céder la totalité de son énergie
et ceci expliquera complètement le caractère si particulier des processus simples
d’interactions entre le photon et les éléments matériels. Cette hypothèse apparaı̂t
aussi comme très séduisante à d’autres points de vue. D’abord, chacun des deux
corpuscules élémentaires constituants (que nous nommerons pour ne rien préjuh
, le
ger sur leur nature des demi-photons) ayant par hypothèse un spin égal à
4π
h
photon aura pour chaque composant de son spin trois valeurs possibles + , 0 et
4π
h
− . Or, il y a des raisons connues depuis longtemps pour attribuer au photon
4π
h
un spin égal à ± . Quant à la valeur 0 du spin, elle correspond à l’existence
4π
des ondes longitudinales de potentiel qui sont compatibles avec les équations de
Maxwell même sous leur forme classique. Un autre avantage de l’hypothèse qui
assimile le photon à un système formé de corpuscules complémentaires est d’expliquer pourquoi la statistique de Bose-Einstein est valable pour les photons comme
le montre d’une façon irréfutable la forme de la loi de Planck pour le rayonnement
noir. En effet, si l’on admet que tous les corpuscules élémentaires ont un spin égal à
h
et satisfont à la statistique de Fermi-Dirac, un théorème général de Mécanique
4π
ondulatoire nous apprend que toute particule complexe formée d’un nombre pair
de corpuscules élémentaires doit obéir à la statistique de Bose. L’hypothèse que
le photon est une particule complexe formée de deux corpuscules complémentaires
h
de spin
entraı̂ne donc le photon obéit à la statistique de Bose et le passage de
4π
la statistique de Fermi valable par hypothèse pour le demi-photon à la statistique
de Bose valable pour le photon, considéré comme une unité, se fait ici exactement
comme pour toute particule complexe formée par un nombre pair de corpuscules
h
élémentaires de spin
, comme par exemple les particules α. Il y a d’ailleurs
4π
une différence essentielle entre la théorie que nous développons ici et la théorie,
en réalité tout à fait différente, développée par M. Pascual Jordan sous le nom de
« théorie neutrinienne de la lumière ». Dans la théorie de M. Jordan, la lumière est
assimilée à un ensemble de neutrinos indépendants, le neutrino étant défini comme
un corpuscule de charge et de masse propre nulle obéissant aux équations de Dirac.
Le photon serait alors seulement en quels que sorte une apparence due à la façon
138
CHAPITRE 12. LE PHOTON
dont agit sur la matière une assemblée de neutrinos. Le passage de la statistique de
Fermi supposée valable pour les neutrinos à celle de Bose pour les photons s’opère
dans les calculs de M. Jordan d’une manière qui paraı̂t, du moins dès l’abord, tout
à fait différente de celle qui permet, en Mécanique ondulatoire générales dans le
h
de passer
cas d’une molécule normée par un nombre pair de corpuscules de spin
4π
de la statistique de Fermi valable pour les corpuscules constituants à la statistique
de Bose valable pour la molécule considérée dans son ensemble. Sans discuter ici
certaines difficultés physiques que la théorie de M. Jordan nous paraı̂t soulever, il
nous semble plus satisfaisant d’admettre que le passage de l’une à l’autre statistique doit s’opérer toujours de la même façon, dans le cas du photon comme dans
le cas d’une particule matérielle à nombre pair de constituants.
Maintenant, quelle hypothèse peut-on faire sur la nature du demi-photon ?
Il est tentant d’admettre (et c’est une hypothèse que nous avons nous-même
mise en avant il y a quelques années) que le demi-photon est un neutrino ou plus
exactement que le photon est formé par un neutrino et par un anti-neutrino. C’est
là une hypothèse séduisante qui paraı̂t avoir aiguillé M. Jordan vers sa théorie
neutrinienne de la lumière. Mais cette hypothèse n’est nullement essentielle pour
la théorie que nous développons. Celle-ci repose, en effet, sur l’idée de définir
le champ électromagnétique de la lumière grâce aux propriétés d’une particule
h
de spin
assimilable à une particule complexe formée par deux corpuscules
2π
complémentaires du type de Dirac et de relier ainsi la polarisation au spin : elle
est donc en particulier, tout à fait indépendante de l’existence réelle des neutrinos
dans les émissions radios actives.
Pour développer la Mécanique ondulatoire du photon, une fois admises l’hypothèse que tout se passe comme si le photon était un système formé de deux corpuscules complémentaires, il faut parvenir à définir le champ électromagnétique
associé à un photon dont l’état est représenté par une certaine fonction d’onde
que nous désignerons par φ. Après divers tâtonnements sur lesquels nous n’insisterons pas ici, nous sommes arrivés à la conclusion suivante : à chaque grandeur
électromagnétique associée au photon (composante de potentiel ou de champ électromagnétique), on doit faire correspondre un certain opérateur linéaire, disons
Fop , et la valeur de la grandeur considérée quand l’état du photon est représenté
par la fonction d’onde φ, est donnée par une expression de la forme φ0 Fop φ où
φ0 est une fonction d’onde représentant l’état d’annihilation qu’on peut considérer
comme unique. Avec cette définition, le principe de superposition est visiblement
satisfait. De plus, comme il y a tout lieu d’admettre que la fonction φ0 est indépendante des coordonnées d’espace et de temps, les expressions φ0 Fop φ représentent
certaines combinaisons linéaires des composantes de la fonction d’onde φ du photon. La fonction d’onde φ du photon devant être essentiellement complexe comme
12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE
139
toutes les fonctions d’onde de la Mécanique ondulatoire, les grandeurs F = φ0 Fop φ
seront elles-mêmes complexes et l’on pourra définir les grandeurs électromagnétiques réelles par la formule :
Fr = F + F ∗
(12.3)
Cette manière de faire correspondre aux grandeurs réelles classiques une grandeur complexe est d’ailleurs très connue aujourd’hui dans la théorie quantique des
champs électromagnétiques et la formule (12.3) est usuellement employée dans
cette théorie.
12.2
La mécanique ondulatoire du photon dans
le vide
Quand on a admis l’ensemble des idées exposées plus haut, on doit chercher
à représenter le mouvement global de la particule « photon » par une certaine
fonction d’onde obéissant à des équations aux dérivées partielles analogues à celles
qu’on rencontre en théorie de Dirac. En d’autre termes, on représentera à l’aide
d’une fonction d’onde φ(x, y, z, t) le mouvement d’ensemble du photon ou, si l’on
préfère, le mouvement du « centre de gravité » de la particule « photon »,centre de
gravité dont les variables x, y, z, représenteront les coordonnées. Diverses considérations que nous ne reprendrons pas en détail nous ont conduit à décrire le
mouvement d’ensemblee du photon à l’aide de deux groupes d’équations (12.6)
et (12.7) que nous admettrons ici en les considérant comme justifiées par leurs
conséquences 1 . Nous allons exposer la théorie fondée sur ces équations, théorie à
laquelle on peut donner le nom de « Mécanique ondulatoire du photon dans le
vide ».
Tout d’abord, le photon étant par hypothèse formé de deux corpuscules complémentaires de Dirac, il est naturel d’admettre que le mouvement d’ensemble du
photon doit être décrit par une fonction d’onde φ à 16 composantes φik , les indices i
et k variant de 1 à 4 ; l’indice i se rapporte au premier demi-photon et l’indice k au
second. On sait qu’en théorie de Dirac on introduit quatre matrices hermitiennes
anticommutantes que l’on désigne habituellement par αr avec r = 1, 2, 3, 4. Ici
nous allons avoir besoin de quatre matrices agissant sur le second indice. J’ai été
1. En considérant le photon comme un système formé par deux corpuscules de Dirac, on peut
chercher à déduire la forme que doivent avoir les équations d’ondes représentant le mouvement
du centre de gravité de ce système. C’est là une étude difficile parce qu’il faut employer une
Mécanique ondulatoire relativiste des systèmes, mais on se trouve dans un cas simple par le
fait que les deux demi-photons sont supposés avoir la même masse. L’examen de ce problème
a conduit l’auteur, par des raisonnements qui auraient besoin d’être complétés, à retrouver les
équations (12.6) et même à interpréter certaines particularités de la présente théorie.
140
CHAPITRE 12. LE PHOTON
amené à définir ces huits matrices à seize lignes et seize colonnes de la façon suivante 2 :
(αr )km δil pour r = 1, 3
(Ar )ik′ lm = (αr )il δkm ; (Br )ik′ lm =
(12.4)
(−αr )km δil pour r = 2, 4
Enfin, en s’inspirant d’une notation classique dans la théorie de Dirac on est
amené à poser :
X
Ar φik =
(Ar )ik′ lm φlm
(12.5)
lm
Ces remarques préliminaires étant faite, nous pouvons maintenant écrire les
deux groupes de 16 équations que nous considérons désormais comme les équations
de base de la Mécanique ondulatoire du photon dans le vide. Ce sont :
d A2 + B2
d A3 + B3
A4 + B4
d A1 + B1
1 dφik
φik (12.6)
=
+
+
+ χµ0 c
c dt
dx
2
dy
2
dz
2
2
d A2 − B2
d A3 − B3
A4 − B4
d A1 − B1
φik
(12.7)
+
+
+ χµ0 c
0=
dx
2
dy
2
dz
2
2
√
2π −1
avec χ =
. Dans ces équations, µ0 désigne la masse propre de la particule
h
dφik
déterphoton. Les 16 équations (12.6) contenant chacune une des dérivées
dt
minent entièrement l’évolution de la fonction d’onde au cours du temps à partir
d’une forme initiale donnée. Ce sont donc des « équations d’évolution » tout à
→
−
→
−
dH
dE
et
de la théorie électromagnétique.
fait comparables aux équations en
dt
dt
Au contraire, les 16 équations (12.7) ne contiennent pas de dérivées par rapport
au temps et expriment 16 conditions auxquelles doivent satisfaire les φik à tout
→
−
→
−
instant : elles sont entièrement comparables aux équations en div E et div H de la
théorie électromagnétique. On peut démontrer, tout comme en théorie électromagnétique, que les deux systèmes (12.6) et (12.7) sont compatibles en ce sens que,
si l’on se donne, à un instant initial quelconque, une forme initiale des fonctions
φik , satisfaisant aux conditions (12.7), ces équations (12.7) resteront ensuite satisfaites pour toute valeur ultérieure du temps en vertu même des équations (12.6)
qui règlent l’évolution des φik .
On peut aussi démontrer que pour les composantes spectrales de fréquence
non nulle, les équations (12.6) entraı̂nent les équations (12.7). Il existe d’ailleurs
d’autres manières intéressantes de répartir les 32 équations (12.6) et (12.7) en deux
groupes de 16 équations, mais nous ne les étudierons pas ici.
2. Ce n’est là naturellement qu’une représentation particulière, mais cette représentation est
commode et correspond à la façon dont les équations ont été obtenues.
12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE
141
Enfin, on peut également démontrer qu’en vertu des équations (12.6) et (12.7)
chacun des seize φik satisfait à l’équation du second ordre :
1 d2 φik
− ∆φik = χ2 µ20 c2 φik
2
2
c dt
(12.8)
qui se réduit à φik = 0 si les termes en µ20 sont nuls ou négligeables. Nous trouvons
ici un passage des équations du premier ordre (12.6) et (12.7) aux équations du
second ordre (12.8) qui est tout à fait comparable à celui que l’on effectue en théorie
de Maxwell quand on démontre que les composantes du champ électromagnétique
vérifiant les équations du premier ordre de Maxwell pour le vide satisfont toutes
individuellement à une équation de type f = 0. Nous voyons ainsi déjà qu’en
Mécanique ondulatoire du photon la théorie de Maxwell correspondra au cas limite
µ0 → 0.
Indiquons maintenant rapidement comment les équations (12.6) et (12.7) permettent de retrouver d’une façon qui paraı̂t satisfaisante, le champ électromagnétique Maxwellien du photon. Nous avons dit déjà qu’il fallait définir les grandeurs
électromagnétiques liées au photon par certaines combinaisons linéaires 3 des composantes de la fonction φ. Nous avons besoin de dix telles combinaisons linéaires
indépendantes que nous nommerons Ex , Ey , Ez , Hx , Hy , Hz , Ax , Ay , Az , V , pour
représenter les six composantes du champ électromagnétique et les quatre composantes du potentiel. Comme il y a seize φik indépendants nous pourrons encore
trouver six autres combinaisons linéaires indépendantes de ces φik Nous aurons
ainsi seize combinaisons linéaires indépendantes des φik dont dix seulement auront un sens dans la théorie électromagnétique de la lumière de Maxwell (nous les
appellerons les grandeurs Maxwelliennes) et dont six n’auront pas de sens connu
dans cette théorie (nous les appellerons les grandeurs non Maxwelliennes). Ces 16
grandeurs obéissent à 32 équations qu’on peut obtenir à partir des 32 équations
(12.6) et (12.7) par des combinaisons linéaires et dont l’une, d’ailleurs, se réduit à
une identité. Sur les 31 équations non identiques ainsi obtenues, quinze contiennent
uniquement les grandeurs Maxwelliennes et ont la forme suivante :
→
−
→
−
→
−
− 1c ddtH = rot E
div H = 0
−
→
−
→
−−−−→
→
−
→
−
→
−
− 1c ddtE = rot H − χ2 µ20 c2 A
E = −grad V − 1c ddtA
(12.9)
→
−
→
−
→
−
2 2 2
H = rot A
div E − χ µ0 c V
→
−
1 dV
+ div A = 0
c dt
Ces équations 4 sont des équations bien connues de la théorie de Maxwell, deux
3. Le choix effectif de ces combinaisons linéaires est directement suggéré par les formules de
la théorie de Dirac.
4. Les équations (12.9) que l’auteur du rapport a données dès 1934, rentrent comme cas
142
CHAPITRE 12. LE PHOTON
d’entre elles étant complétées au second membre par des termes de l’ordre de µ20 .
Si les termes en µ20 sont supposés nuls ou négligeables, on retombe exactement sur
la théorie de Maxwell.
Les seize autres équations non identiques que l’on obtient par combinaisons
linéaires de (12.6) et de (12.7) contiennent uniquement les grandeurs non Maxwelliennes et n’ont pas de sens électromagnétique connu. On voit ainsi que dans cette
Mécanique ondulatoire du photon, les équations de Maxwell pour la lumière dans
le vide apparaissent comme contenues en tant que partie autonome dans un ensemble plus vaste d’équations. Ce fait pourrait avoir une certaine importance soit
pour un élargissement futur possible de la théorie électromagnétique, soit pour
h
autres que le
le développement des théories concernant des particules de spin
2π
photon (par exemple le mésoton). Mais les grandeurs non Maxwelliennes se trouvant indépendantes des grandeurs Maxwelliennes et n’intervenant pas dans l’étude
des phénomènes lumineux, il est plus simple de les supposer systématiquement
nulles 5 . On obtient ainsi des résultats qui, en réalité, reposent uniquement sur les
équations (12.9). Tous les résultats que nous avons maintenant énoncer peuvent
donc être considérés soit comme dérivant des équations (12.9), soit comme formant
la partie relative aux grandeurs Maxwelliennes de la théorie générale fondée sur
les équations (12.6) et (12.7).
Si l’on fait le calcul de l’onde φ du photon dans le cas simple du mouvement rectiligne et uniforme (onde plane monochromatique), on trouve (en supposant nulles
les grandeurs non Maxwelliennes) que cette onde φ dépend de trois constantes
complexes indépendantes C1 , C2 et C3 . Quand la constante C1 est seule différente
h
dans la direction de propagade zéro, on a un mouvement avec spin égal à −
2π
tion ; quand la constante C2 est seule différente de zéro, on a un mouvement avec
h
spin égal à +
dans la direction de propagation ; enfin, quand la constante C3
2π
est seule différente de zéro, on a un état de mouvement avec spin égal à 0 dans
h
et
la direction de propagation. Nous retrouvons bien ainsi les trois valeurs ±
2π
0 prévues par les composantes du spin du photon. Dans le cas général, on a une
superposition des trois cas précédents avec des valeurs quelconques de C1 , C2 et
C3 .
particulier dans un type général d’équations proposées ensuite par M. Alexandre Proca pour les
h
particules chargées de spin
.
2π
5. On peut dire que les grandeurs Maxwelliennes décrivent un état du photon où celui-ci
possède un spin total égal à un, c’est-à-dire correspondent à un « état triplet » du photon. Les
grandeurs non Maxwelliennes décrivent au contraire un « état simplet » du photon où son spin
total est égal à zéro. Laisser systématiquement de côté les grandeurs non Maxwelliennes revient
donc à supposer que l’état singulet du photon est physiquement irréalisable.
12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE
143
Il est ensuite facile de calculer les valeurs des grandeurs électromagnétiques de
l’onde plane. On constate alors, comme on devait s’y attendre, que, si les termes
en µ20 sont nuls ou négligeables, le champ magnétique et le champ électrique sont
égaux, perpendiculaires entre eux et perpendiculaires à la direction de propagation.
De plus, les deux champs ne dépendent alors que des constantes C1 et C3 : si c1 = 0,
on a une onde circulaire lévogyre, si C3 = 0, une onde circulaire dextrogyre, de sorte
que les ondes électromagnétiques à polarisations circulaires inverses correspondent
respectivement aux deux cas où le spin dans la direction de propagation a la valeur
h
h
−
ou la valeur + . Ainsi est clairement mise en évidence la relation entre le
2π
2π
spin du photon et la polarisation de l’onde électromagnétique associée et c’est
là un des résultats les plus satisfaisants de la théorie. Si les constantes C1 et C2
sont toutes deux différentes de zéro, il y a superposition des deux cas de spin et
l’onde électromagnétique est la superposition de deux vibrations de sens inverses,
c’est-à-dire une vibration elliptique dont la forme est déterminée par le rapport
des modules et par la différence des arguments des constantes complexes C1 et
C2 . Dans le cas particulier où le rapport des modules est 1, on a la polarisation
rectiligne, l’azimut de la vibration étant déterminée par la différence des arguments
de C1 et de C2 . Bref, on voit que la Mécanique ondulatoire du photon permet de
représenter une onde lumineuse quelconque.
Restant toujours dans le cas du mouvement rectiligne uniforme, examinons
→
−
encore les valeurs que d’on obtient pour les potentiels A et V . On trouve, en dehors
des potentiels transversaux correspondant aux champs étudiés à l’instant et qui
dépendent des constantes C1 et C2 d’autres potentiels correspondant à une onde
→
−
longitudinale (dont le potentiel vecteur A est dirigé dans le sens de la propagation)
et qui dépendent de la constante C2 . Quand on suppose nuls ou négligeables les
termes en µ20 , on trouve qu’a ces potentiels longitudinaux correspondent des champs
nuls. Ce sont les potentiels longitudinaux qu’on connaı̂t bien en théorie de Maxwell
en tant que solutions analytiquement possibles, mais qui n’y jouent aucun rôle
réel, car les champs correspondants sont nuls et l’on suppose que seuls les champs
donnent lieu à des phénomènes observables. Les états de spin 0 sont donc ici liés
aux potentiels longitudinaux inobservables de la théorie de Maxwell, potentiels
qui jouent cependant un rôle important dans la théorie quantique des champs,
notamment pour l’interprétation du potentiel Coulombien. Notons enfin que, si
l’on tient compte des termes en µ20 on trouve pour le champ électrique de l’onde
plane une petite composante longitudinale qui est de l’ordre de µ20 par rapport à
ses composantes transversales.
Ainsi, la Mécanique ondulatoire du photon fondée sur les équations (12.6) et
(12.7) paraı̂t bien rendre compte des propriétés essentielles de la lumière dans le
vide et conduire ainsi à des résultats encourageants.
Partant également des équations (12.6) et (12.7), il est possible de construire
144
CHAPITRE 12. LE PHOTON
un formalisme général de la Mécanique ondulatoire du photon analogue à celui
que l’on rencontre dans les autres formes de la Mécanique ondulatoire, notamment
en théorie de Dirac. On rencontre cependant en Mécanique ondulatoire du photon
une circonstance tout à fait particulière : il n’est pas possible d’y trouver, pour
représenter la densité de probabilité de présence de la particule, une expression
partout définie positive comme l’est l’expression ρ = |Ψ|2 des autres formes de la
mécanique ondulatoire. C’est là, d’ailleurs, une circonstance à laquelle on devait
s’attendre car elle avait déjà été annoncée dans les études antérieures sur la théorie
quantique de la lumière. Il existe néanmoins en Mécanique ondulatoire du photon
une expression
A4 + B4
φ
(12.10)
ρ = φ∗
2
qui peut jouer le rôle de densité de normalisation en ce sens que l’on peut normaliser
l’onde φ par la formule
Z
ρ dτ = 1
(12.11)
D
D étant le domaine où est contenu le photon. Mais l’expression (12.10) n’a pas
en général en tout point une valeur définie positive, ce qui ne permet pas de la
considérer comme une densité de probabilité de présence. Dans le cas particulier
d’une onde φ plane et monochromatique de fréquence ν, on trouve avec la définition
(12.10)
µ 0 c2 2
ρ=
|φ|
(12.12)
hν
ce qui est d’accord avec le fait que la quantité µ0 c2 |φ|2 peut être considérée d’une
façon générale (même si phi n’est pas monochromatique) comme la densité d’énergie électromagnétique.
Si l’onde φ est une superposition d’ondes monochromatique
P
de la forme φ = φν , on a encore la formule intégrale :
Z
X Z µ 0 c2
ρ dτ =
|φ|2 dτ
hν
D
(12.13)
mais on n’a plus localement de relation simple entre l’expression (6) et la densité
d’énergie et le ρ défini par (6) ne paraı̂t plus avoir une signification locale nette.
Tout ceci est conforme à ce qu’on pouvait attendre 6 .
En adoptant l’expression (12.10) comme densité de normalisation, on peut,
sans rencontrer de trop grandes difficultés, constituer un formalisme général de
la Mécanique ondulatoire du photon. A chaque grandeur attachée au photon, on
fait correspondre un opérateur linéaire et hermitique, les valeurs propres de cet
6. Peut-être les complications que l’on rencontre ici sont-elles en relation avec la structure
interne du photon.
12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE
145
opérateur donnant les valeurs possibles de la grandeur considérée dans un état du
photon défini par une certaine fonction φ, les carrés des modules des coefficients
figurant dans le développement de la fonction d’onde φ suivant les fonctions propres
de l’opérateur donnent les probabilités des diverses valeurs possibles de la grandeur
dans l’état envisagé, etc. On définit ainsi pour chaque grandeur des éléments de
matrice, une valeur moyenne et des densités d’éléments de matrice et de valeur
moyenne. Par exemple, on définit aisément les densités de valeur moyenne des
composantes du spin pour un état caractérisé par une certaine fonction φ.
Il est également aisé de définir en Mécanique ondulatoire du photon un tenseur
symétrique du second rang qui représente les densités et les flux de l’énergie et de
l’impulsion de la particule « photon » : il est tout à fait analogue à celui qu’on
introduit pour le corpuscule « électron » en théorie de Dirac. M. J. Géhéniau a
montré qu’a côté de ce tenseur « corpusculaire » d’énergie-quantité de mouvement,
il en existe un second, également symétrique et de rang deux, qu’on peut appeler le
tenseur électromagnétique ; c’est lui, en effet, qui correspond exactement au tenseur
bien connu de la théorie de Maxwell. Si l’on désigne par Tik les composantes du
tenseur corpusculaire et par Mik celles du tenseur électromagnétique, on a toujours
l’égalité intégrale
Z
Z
Tik dτ =
Mik dτ
(12.14)
D
D
mais, sauf dans le cas de l’onde plane monochromatique, on n’a pas égalité locale des deux tenseurs. Les tenseurs T et M sont donc intégralement équivalents
sans être identiques. Le tenseur T est celui qui a la forme normale d’un tenseur
énergie-impulsion en Mécanique ondulatoire, tandis que le tenseur M est celui qui
correspond aux conceptions électromagnétiques habituelles. Cette dualité de tenseurs énergie-impulsion parait être une des causes qui ont retardé la constitution
d’une mécanique ondulatoire du photon.
Les grandeurs dont nous venons de parler sont toutes définies par des expressions bilinéaires en φ et φ∗ . Comme les seize grandeurs Maxwelliennes et non Maxwelliennes sont des combinaisons linéaires des seize φik , inversement chacun des
seize φik peut s’exprimer à l’aide des seize grandeurs Maxwelliennes et non Maxwelliennes. C’est encore M. Céhéniau qui a donné ces formules d’inversion. Elles
permettent d’exprimer toutes les densités de ha Mécanique ondulatoire du photon
par des fonctions bilinéaires des grandeurs Maxwelliennes et non Maxwelliennes et
de leurs conjuguées. Si l’on suppose nulles les grandeurs non Maxwelliennes, on obtient ainsi, par exemple pour le tenseur M d’énergie-impulsion électromagnétique,
des expressions qui sont la transposition dans le langage des champs complexes des
expressions classiques de la théorie de Maxwell. Dans le cas des densités de spin, on
obtient des expressions curieuses qui sont apparentées à celles que M. Henriot, restant dans le cadre de la théorie électromagnétique classique, avait proposées, il y a
146
CHAPITRE 12. LE PHOTON
quelques années, pour le moment d’impulsion propre du champ électromagnétique.
Pour terminer ce paragraphe, nous voulons faire quelques remarques 7 . Une
première remarque sera relative au rôle des potentiels en Mécanique ondulatoire
du photon. Pour un état du photon représenté par une certaine fonction φ nous
→
−
trouvons ici des valeurs parfaitement déterminées pour les potentiels A et V . Au
premier abord, ceci peut paraı̂tre difficile à concilier avec ce que l’on nomme « l’invariance de jauge ». Mais, en réalité, la raison qui conduit à admettre l’invariance
de jauge est la suivante : si l’on suppose que seuls les champs électromagnétiques
(et non les potentiels) ont un sens physique, les valeurs des potentiels ne sont déterminées qu’aux composantes près du gradient d’univers d’une fonction dérivable
quelconque des variables d’espace-temps. Naturellement, en théorie du photon, si
l’on ne veut s’occuper que des champs et non des potentiels ou bien si l’on ne
s’intéresse qu’aux actions de la lumière sur la matière (qui, dans l’état actuel de
nos connaissances, paraissent ne dépendre que des champs et non des potentiels),
→
−
on pourra ajouter aux potentiels A et V fournis par la Mécanique ondulatoire du
photon les composantes du gradient d’Univers d’une fonction quelconque de x, y,
z, t. Mais cela ne nous paraı̂t pas entraı̂ner qu’il n’y ait pas, pour un état donné
du photon, de véritables valeurs des potentiels et qu’une description complète du
photon ne doive pas faire intervenir ces valeurs.
D’autres remarques sont relatives à valeur de la constante µ0 , masse propre
du photon. Si l’on développe la Mécanique ondulatoire du photon comme nous
l’avons indiqué plus haut sans préciser la valeur numérique de µ0 et si, ensuite on
fait tendre µ0 vers zéro, toutes les formules obtenues varient d’une façon continue
jusqu’à la limite µ0 = 0 incluse et pour cette limite on retrouve exactement la
théorie de Maxwell avec la vitesse c des ondes lumineuses dans le vide pour toutes
les fréquences. Il est donc assez tentant de supposer que µ0 est rigoureusement
nulle.
Néanmoins le passage à la limite µ0 → 0 n’est pas sans être un peu artificiel (il
faut supposer que β tend vers 1 en même temps que µ0 tend vers 0 de façon que
µ 0 c2
p
garde une valeur finie, etc.) . De plus, nous verrons dans le prochain pa1 − β2
ragraphe que, lorsqu’on superquantifie la Mécanique ondulatoire du photon pour
obtenir la quantification des champs, on obtient des formules qui ne sont plus continues pour µ0 tendant vers zéro, limite incluse, mais qui présente une discontinuité
quand µ0 devient rigoureusement nulle. Or, tant que µ0 est supposée différente
de zéro, si petite soit-elle, les formules de quantification sont satisfaisantes et ne
conduisent à aucune difficulté, mais si l’on pose µ0 = 0, on se trouve en présence
7. Les remarques qui suivent s’appliquent aussi bien à une théorie du photon fondée uniquement sur les équations (12.9) qu’à la théorie fondée sur l’ensemble des équations (12.6) et
(12.7).
12.2. LA MÉCANIQUE ONDULATOIRE DU PHOTON DANS LE VIDE
147
d’une difficulté très connue en théorie quantique des champs et cette difficulté apparaı̂t ainsi comme liée au fait qu’en théorie quantique des champs usuelles (comme
en théorie de Maxwell), on suppose implicitement nulle la constante µ0 . Il semble
donc intéressant d’examiner l’hypothèse µ0 6= 0
L’hypothèse µ0 6= 0 semble se heurter à l’objection suivante : si, dans un certain
système de référence galiléen, la vitesse d’un photon est assez voisine de la vitesse c
pour ne pouvoir en être distinguée, il suffira de faire une transformation de Lorentz
avec une vitesse relative voisine de c pour obtenir un photon dont la vitesse serait
très sensiblement inférieure à c, ce qui paraı̂t contraire aux propriétés connues de
la lumière. Il semble qu’on puisse écarter cette objection par le raisonnement qui
suit.
D’abord il est naturel d’admettre qu’un observateur humain ne peut déceler
l’existence d’un corpuscule que si ce corpuscule a, par rapport à lui, une énergie
au moins égale à une valeur minima ε0 . La constante ε0 dépend de l’état actuel
de la technique et a la même valeur dans tous les systèmes de référence galiléens
puisqu’un observateur humain dispose dans ces systèmes des mêmes moyens d’investigation expérimentale. De même, il est naturel d’admettre que la vitesse βc
d’un corpuscule pour un observateur ne peut pour lui être discernable de la vitesse
c si
β ≥ 1 − η0
(12.15)
où η0 est une constante dont la valeur dépend de l’état de la technique expérimentale et qui, pour la même raison que plus haut, a la même valeur dans tous
les systèmes de référence. Soit alors un photon, qui dans un certain système de
référence possède une énergie suffisante pour pouvoir y être décelé. On a donc :
s
µ 0 c2
µ 2 c4
p
(12.16)
≥ ε0 ou β ≥ 1 − 0 2
ε0
1 − β2
Pour que ce photon ait dans ce même système une vitesse indiscernable de c,
il faut de plus que l’inégalité (12.15) soit vérifiée. Or pour que (12.15) soit une
conséquence de (12.16), il faut et suffit que l’on ait :
ε0 p
µ0 ≤ 2 1 − (1 − η0 )2
(12.17)
c
Donc, si µ0 (qui est une constante de la Nature) est assez petite pour que (12.17)
soit vérifiée, tout photon qui, dans un système de référence galiléen quelconque,
possède une énergie suffisante pour que sa présence y soit décelable, a dans ce
système une vitesse indiscernable de c. Ce résultat permet, nous semble-t-il, de
supposer µ0 6= 0, à condition de la supposer assez petite.
Dans l’état actuel de la précision expérimentale, l’inégalité (12.17) paraı̂t devoir
être certainement réalisée si µ0 est inférieur à 10−45 gramme, mais naturellement
148
CHAPITRE 12. LE PHOTON
ce n’est là qu’une limite supérieure de la valeur de µ0 qui pourrait être encore
beaucoup plus petite. Si notre théorie est exacte et si µ0 n’est pas par trop petite,
comme ε0 et η0 dépendent de la perfection de la technique expérimentale, il ne
serait pas à priori complètement interdit d’espérer que l’on puisse un jour déceler
des photons dont la vitesse différerait sensiblement de c et, par suite, de mesurer
la valeur de la masse propre µ0 .
12.3
Seconde quantification de l’onde du photon
et quantification du champ electromagnétique
Jusqu’ici, nous avons considéré le mouvement d’un photon isolé dans le vide.
Cette hypothèse a quelque chose d’un peu artificiel parce qu’en fait on a toujours affaire à des assemblées de photons en présence de matière et que le nombre
des photons est alors constamment variable par suite des processus d’émission et
d’absorption. Pour obtenir une théorie satisfaisante, il est donc nécessaire de transformer la Mécanique ondulatoire du photon, telle qu’elle a été exposée plus haut,
en y introduisant la seconde quantification.
Les photons obéissant à la statistique de Bose-Einstein, il est très facile de
trouver les relations de non commutation qui expriment que le nombre de photons
correspondant à chaque composante spectrale est un nombre entier. Considérons
−
→
l’onde φ plane monochromatique correspondant au vecteur de propagation k :
nous savons déjà que cette onde plane dépend de trois constantes C1 , C2 , C3 . Il
est facile de montrer que la superquantification de l’onde φ s’exprimera par les
formules de non-commutation :
→
→
−
→ −
−
h ∆2
[Ci∗ (k ′ ), Cj ( k )] = −
δij · δ( k − k ′ )
8πkµ0 c
→
−
→
−
→
−
→
−
→
−
→
−
[Ci∗ ( k ′ ), Cj ( k )] = Ci∗ ( k ′ ) Cj ( k ) − Cj ( k ) Ci∗ ( k ′ )
→
−
2
µ20 c2
k 2 = | k |2 + 4π
h2
∆=k+
2π
h
(12.18)
(12.19)
µ0 c
−
→
→
−
où | k | désigne la longueur du vecteur k
La seconde quantification nous conduit ainsi à certaines relations de noncommutation entre les composantes φik d’une même onde plane monochromatique.
Mais alors, il nous apparaı̂t immédiatement que cette seconde quantification de
l’onde φ du photon conduit à une quantification des grandeurs électromagnétiques.
Nous avons vu en effet qu’en Mécanique ondulatoire du photon, les grandeurs
12.3. SECONDE QUANTIFICATION
149
électromagnétiques associées au photon sont données par certaines combinaisons
linéaires des φik . Si les φik sont soumis à des relations de non-commutation, il
en résultera automatiquement des relations de non-commutation entre grandeurs
électromagnétiques et l’on devra obtenir une théorie quantique des champs électromagnétiques. On voit bien ici comment la quantification des champs est équivalente à une onde quantification de l’onde du photon ; cette équivalence était
implicitement contenue dans lis formes antérieures de la théorie des champs, mais
n’y apparaissait pas aussi clairement qu’ici.
En partant des relations (12.18), il est facile de trouver des relations de noncommutation des potentiels en Mécanique ondulatoire du photon 8 . Pour simplifier,
considérons une onde φ plane monochromatique correspondant au vecteur de pro→
−
→
−
pagation k et supposons que l’on prenne l’axe des z dans la direction du vecteur k .
On obtient alors aisément pour les deux composantes transversales Ax = A1 et
Ay = A2 du potentiel vecteur les relations de non-commutation.
→
→
−
→ −
−
→
−
hc
δij · δ( k − k ′ )
(12.20)
[A∗i ( k ′ ), A′j ( k )] = −
4πk
et l’on montre que chacune des composantes Ax et Ay commute avec Az et avec
V . Ces relations sont exactement celles que l’on admet habituellement dans la
théorie quantique des champs quand on y utilise les grandeurs électromagnétiques
complexes. Le raccord est ici complet.
Il en est différeremment pour les potentiels « longitudinaux » Az et V pour
lequels on trouve :
→
−
→
→
−
→ −
→ −
−
3
hc
[A∗z ( k ′ ), Az ( k )] = − 4πk
− 16πh3 µ2 ck | k |2 δ( k − k ′ )
0
−
→ −
→′
−
→
→
−
hc
h3
∗
(12.21)
[V ( k ), V ( k )] = 4πk − 16π3 µ2 ck k δ( k ′ − k )
0
→
−
→
→
−
→ −
−
→ −
3
[A∗z ( k ′ ), V ( k )] = − 16πh3 µ2 ck | k |δ( k − k ′ )
0
car les relations habituellement admises sont :
→
→
−
→ −
−
−
→
hc
δ( k − k ′ )
[A∗z ( k ′ ), Az ( k )] = − 4πk
→
−
→ −
−
→
−
→
hc
[V ∗ ( k ′ ), V ( k )] = 4πk
δ( k ′ − k )
→
−
→
−
[A∗z ( k ′ ), V ( k )] = 0
(12.22)
c’est-à-dire celles qu’on obtient à partir de (12.21) en posant nuls les termes en
µ20 . Ici, par conséquence, nous n’obtenons plus les formules usuelles en théorie
quantique des champs quand nous faisons tendre µ0 vers zéro, comme on s’y serait
8. Toutes les relations qui suivent sont écrites en exprimant toutes les grandeurs électromagnétiques en unité d’Heaviside.
150
CHAPITRE 12. LE PHOTON
peut-être attendu, puisque la théorie de Maxwell nous est apparue au paragraphe
précédent comme correspondant au cas limite µ0 = 0. Les termes en µ20 devenant
infinis pour µ0 = 0, il y a ici une discontinuité pour cette valeur limite de µ0 qui
n’apparaissait pas du tout dfans les formules du paragraphe précédent.
Les relations de non-commutation (12.20) et (12.21) sont écrites dans un système d’axes particuliers. II est aisé de trouver une forme de ces relations qui est
valable dans un système cartésien quelconque et qui possède l’invariance relativiste.
Nous ne nous arrêterons pas sur ce point.
A partir des relations de non-commutation entre composantes de potentiel,
on obtient facilement des relations de non-commutation entre une composante
de potentiel et une composante de champ ou encore entre deux composantes de
champ. Par exemple, on obtient :
→
→ −
−
→
−
→
−
hc
δij · δ( k − k ′ )
[A∗i ( k ), Ej ( k )] = −
4πi
(12.23)
relation bien connue dans la théorie quantique des champs.
Toutes ces relations de non-commutation sont des relations entre composantes
« spectrales » des grandeurs électromagnétiques. Suivant une méthode usuellement
employée en théorie quantique des champs, il est aisé de passer de là à des relations
de non-commutation entre les valeurs « locales » des grandeurs électromagnétiques.
Comme exemple, en partant de la troisième relation (12.21), on montre facilement
−
→
→
que le commutateur de A∗i ( r ′ ) et de V (−
r ) a la valeur :
→
−
→
[A∗i ( r ′ ), V (−
r )] =
→′
−
h3
d
→
−
δ(
r
−
r )
2
16π 3 µ0 c dxi
i = 1, 2, 3
(12.24)
alors que ce commutateur est égal à zéro par la théorie quantique des champs
habituelle puisque cette théorie néglige nos termes en µ20 .
On trouverait des relations analogues à (12.24) pour les autres composantes de
potentiel et d’autres relations pour la commutation entre comosantes de champ et
composantes de potentiel. L’une de celles-ci est la suivante :
→
−
→
−
hc
→
→
[A∗i ( r ′ ), Ej (−
r )] = −
δij · δ(−
r − r′ )
4πi
(12.25)
Cette relation est, aussi connue en théorie quatique des champs habituelle et elle
y soulève une difficulté qui a été signalée par MM. Heisenberg et Pauli dès leur
premier mémoire sur cette question. Si en effet, on applique aux deux membres de
3
X
d
, on obtient :
la relation (12.25) l’opération
dx
j
j=1
→
−
→
−
→→
−
hc d −
[A∗i ( r ′ ), div E (−
r )] = −
δ(→
r − r′ )
4πi dxi
(12.26)
12.4. INTERACTIONS MATIÈRE-RAYONNEMENT
151
et la relation (12.26) est incompatible avec la théorie de Maxwell car celle-ci pose
→
−
dans le vide div E = 0. En mécanique ondulatoire du photon, cette difficulté disparaı̂t, tout au moins dans l’hypothèse µ0 6= 0. En effet, en Mécanique ondulatoire
du photon, on a (voir plus haut équations 12.9) :
→
−
4π 2 µ20 c2
div E = −
V
h2
(12.27)
→→
−
et, en substituant cette valeur de div E (−
r ) dans (12.26), on retombe simplement
sur la relation (12.24), de sorte qu’il n’y a plus ici aucune contradiction. Ainsi si
µ0 est différent de zéro et quelque petite que soit sa valeur, la difficulté tencontrée
par la théorie des champs se trouve levée : elle reparaı̂t brusquement pour µ0 = 0.
On peut voir là un argument en faveur de l’hypothèse µ0 6= 0.
Pour la non-commutation entre composantes de champ, on retrouve ainsi la
relation bien connue dans la théorie quantique des champs complexes :
→
−
→′
−
d
d
hc
→
→
−
∗
δkj −
δlj δ(−
r − r′ )
(12.28)
[Hi ( r ), Ej ( r )] = −
4πi dxl
dxk
où i k l est une permutation paire des trois nombres 1, 2, 3.
Les relations de non-commutation entre champs permettent, rappelons-le, de
retrouver les « relations d’incertitude » pour les composantes du champ électromagnétique dues à M. Heisenberg ainsi que la loi des fluctuations de l’énergie dans le
rayonnement noir (Jordan, Wigner, Solomon).
12.4
Les interactions entre matière et rayonnement en mécanique ondulatoire du photon
Pour calculer les phénomènes résultant d’interactions entre la matière et le
rayonnement, la théorie quantique des champs considère le système formé par le
rayonnement quantifié et une particule électrisée (électron de Dirac). Pour ce système, elle emploie un Hamiltonien obtenu en faisant la somme de l’Hamiltonien du
rayonnement quantifié, de l’Hamiltonien de la particule (Hamiltonien de la théorie
de Dirac) et d’un terme d’interaction choisi de façon à être d’accord, par « correspondance », avec l’expression classique de la force de Lorentz. On peut alors, par
des procédés d’approximations successives, calculer les probabilités des transitions
quantiques que peut subir le système rayonnement + particule et obtenir ainsi
une théorie satisfaisante des phénomènes d’émission, d’absorption, de diffusion,
etc. Néanmoins, comme il est bien connu, cette théorie quantique des interactions
entre matière et rayonnement se heurte à des difficultés essentielles parce qu’elle
152
CHAPITRE 12. LE PHOTON
conduit à trouver une valeur infinie pour l’énergie propre des électrons et que la
convergence des approximations successives y est incertaine.
Il est très aisé de transposer la théorie précédente en Mécanique ondulatoire du
photon où elle prend un aspect plus symétrique parce que le photon et l’électron y
interviennent de la même façon. La Mécanique ondulatoire du photon fournissant
un Hamiltonien du photon, on formera l’Hamiltonien du système total photon
+ électron en ajoutant à l’Hamiltonien du photon celui de l’électron augmenté
→
d’un terme d’interaction. Si nous désignons par −
r l’ensemble des variables x, y,
z relatives au photon (c’est-à-dire celles qui figurent dans les équations (12.6) et
→
−
(12.7) du photon) et par R l’ensemble des coordonnées de l’électron, l’opérateur
(l)
d’interaction Hop qui a ici la forme d’un opérateur agissant à la fois sur les variables
de spin du photon et de l’électron, sera :
h
−→ i −
→ →
→
(l)
Hop
= −e l · Vop + (−
α · Aop ) δ( R − −
r)
(12.29)
−→
Dans cette formule, Vop et Aop sont les opérateurs qui, en théorie du photon,
correspondent au potentiel scalaire et au potentiel vecteur et qui sont exprimés
→
par des matrices à 16 lignes et 16 colonnes ; l et −
α représentent respectivement la
matrice unité à 4 lignes et 4 colonnes et la matrice vecteur dont les composantes
sont les matrices α1 , α2 , α3 de la théorie de Dirac, l’ensemble des matrices l et
→
−
α , multipliées par la charge −e de l’électron, représente le vecteur densité-flux de
→ →
−
l’électricité pour l’électron de Dirac. Enfin, le facteur δ( R − −
r ) dans (12.29) sert
→
à exprimer que le champ électromagnétique existant au point −
r agit sur la charge
→ −
−
→
électrique qui se trouve en ce point R = r ey que ceci a lieu avec un eprécision
rigoureuse puisque la fonction δ de Dirac est une foncion en aiguille infiniment fine.
La théorie des phénomènes d’émission, d’absorption, de diffusion, etc. fondée
sur l’étude du système photon + électron quand on a adopté la forme (12.29)
pour l’Hamiltonien d’interaction, conduit exactement aux mêmes résultats que la
théorie quantique des champs habituelle et ne présente par suite aucun intérêt
particulier. La raison de cet accord est que le calcul des phénomènes en question
ne fait intervenir que les ondes transversales : or les relations (12.20) de noncommutation pour les potentiels transversaux sont également variables dans la
théorie usuelle et en Mécanique ondulatoire du photon.
Par contre, comme les relations (12.21) de non-commutation entre les potentiels longitudinaux ont une forme particulière, on peut s’attendre à trouver ici
quelque chose de nouveau dans les calculs qui font intervenir les ondes longitudinales. En effet, c’est bien ce qui se produit, notamment quand on cherche à
calculer l’interaction entre deux particules électrisées par la méthode développée
par MM. Dirac et Fock. Dans cette méthode, on parvient à interpréter le potentiel
Coulombien existant entre deux particules électrisées comme étant dû à l’interaction indirecte des deux particules par l’intermédiaire des ondes longitudinales du
12.4. INTERACTIONS MATIÈRE-RAYONNEMENT
153
rayonnement ambiant (échanges virtuels de quanta). Quand on développe ce calcul
en s’appuyant sur les relations (12.22), on retrouve (Fock) la forme habituelle du
potentiel Coulombien créé par une charge ε à la distance r soit :
V =
ε
4πr
(en unité d’Heaviside).
(12.30)
Mais, si l’on reprend ce calcul en s’appuyant sur les relations (12.21) fournies
par la Mécanique ondulatoire du photon, on trouve :
V =
h2
ε − 2πµ0 c r
e h − ε 2 2 2 δ(r)
4πr
4π µ0 c
(12.31)
On peut d’ailleur contrôler l’exactitude de ce calcul en remarquant que pour
un champ électrostatique, la formule (12.27) nous donne :
∆V =
4π 2 µ20 c2
V
h2
(12.32)
et que, pour un champ radial, le premier terme de l’expression (12.31) est bien
l’intégrale de (12.32) qui tend vers zéro quand r tend vers l’infini. Pour justifier de
plus la présence du second terme dans (12.31), on remarquera qu’en appliquant la
théorie de Green-Gauss à une sphère Σ ayant l’origine pour centre et un rayon R,
on obtient la condition
Z
Z
→
−
1
4π 2 µ20 c2 R 2
E(R) = (−grad V )r=R =
div E dτ = − 2 2
V r dr (12.33)
4πR2 Σ
hR
0
et cette condition n’est remplie que si l’on ajoute dans l’expression de V au premier
terme de (12.31) le second terme en δ.
Examinon l’expression (12.31). Le premier terme ne diffère du potentiel Coulombien ordinaire que par la présence de l’exponentielle. Comme nous avons vu que
h
est certainement
µ0 est certainement inférieur à 10−45 gramme, la quantité
2πµ0c
au moins de l’ordre de 100 à 1000 kilomètres : c’est au moins à cette distance de la
charge électrique qu’il faudrait se placer pour pouvoir observer un écart par rapport
à la loi de Coulomb, ce qui semble écarter toute idée de vérification expérimentale
de cet écart 9 . Quant au second terme de l’expression (12.31) , il est caractéristique
de la Mécanique ondulatoire du photon et représente une sorte d’impénétrabilité
de la particule ponctuelle, si l’on peut s’exprimer ainsi.
9. La présence de l’exponentielle dans le terme Coulombien de (12.31) a pour effet de rendre
convergentes certaines intégrales qui sont divergentes quand on emploie l’expression (12.30) classique : ceci lève, au moins théoriquement, quelques difficultés de convergence des théories usuelles.
154
CHAPITRE 12. LE PHOTON
Comme ce second terme est en µ20 , l’expression (12.31) ne tend pas vers l’expression (12.30) quand µ0 tend vers zéro : nous avons ici encore un exemple de
discontinuité analogue à ceux que nous avons rencontrés au paragraphe précédent.
Comme le potentiel en δ est nul à toute distance finie de l’électron, sa présence
ne doit pas troubler le résultat des calculs habituels, par exemple pour la diffusion d’une particule électrisée par une autre. Ce potentiel en δ se rencontre dans
h
pour lesquelles on sait que la masse
d’autres théories de particules de spin
2π
propre n’est pas nulle (mésotons).
La Mécanique ondulatoire du photon ne paraı̂t jusqu’ici conduire à aucune
amélioration en ce qui concerne les valeurs infinies trouvées par la théorie quantique pour les énergies propres des électrons. On y voit seulement que ces valeurs
sont dues à la forme en aiguille infiniment fine de la fonction δ qui figure dans
l’expression (12.29) du terme d’interaction. Si l’on pouvait remplacer cette fonction δ par une fonction en aiguille extrêmement fine, mais non infiniment fine, on
pourrait peut-être obtenir des valeurs finies ; malheureusement ce procédé soulève
de grandes difficultés au point de vue de l’invariance relativiste et c’est dans une
autre voie sans doute qu’il faut chercher la solution du problème.
Notons, pour terminer ce paragraphe, que l’analyse des transitions quantiques
dues à l’action du rayonnement sur la matière ou inversement montre très nettement pourquoi il faut employer les champs électromagnétiques complexes pour
représenter ces interactions et comment cet emploi correspond à la conservation
de l’impulsion et de l’énergie lors de ces transitions.
12.5
Résumé
La théorie du photon que nous avons exposée dans Ce rapport à l’avantage de
rentrer comme cas particulier dans le cadre de la Mécanique ondulatoire générale
et est étroitement apparentée à la théorie de l’électron de M. Dirac. Partant de
l’hypothèse que le photon se comporte comme une particule formée par deux corh
puscules complémentaires de spin
elle représente le mouvement d’ensemble de
2π
la particule « photon » et ses propriétés de spin à l’aide d’une fonction d’onde à 16
composantes obéissant à deux systèmes compatibles de 16 équations chacune. En
définissant les grandeurs électromagnétiques associées au photon par des combinaisons linéaires des composantes de l’onde (combinaisons directement suggérées
par la théorie de Dirac), on obtient entre ces grandeurs des relations qui tendent
asymptotiquement vers les équations classiques de la Théorie de Maxwell quand
on fait tendre vers zéro la masse propre du photon. On établit ainsi une liaison
tout à fait précise et satisfaisante entre le spin du photon et la polarisation de
l’onde électromagnétique associée. On peut développer le formalisme de cette Mé-
12.5. RÉSUMÉ
155
canique ondulatoire du photon, formalisme qui diffère du formalisme usuel dans
les autres branches de la Mécanique ondulatoire en ce qu’il n’existe pas d’expression définie positive permettant de représenter la probabilité de présence locale du
photon. Dans cette étude, on obtient plusieurs formules intéressantes, notamment
d’élégantes expressions pour les composantes du tenseur de Maxwell.
Pour donner à la théorie une forme moins schématique, il convient de soumettre
l’onde du photon à la seconde quantification. On obtient alors immédiatement la
quantification des grandeurs électromagnétiques mettant ainsi en évidence d’une
façon particulièrement claire le fait que la quantification des champs est équivalente à la superquantification. Pour les ondes transversales, on retrouve les formules de non-commutation usuelles mais pour les ondes longitudinales ces formules
contiennent des termes supplémentaires en µ20 et par suite ne tendent pas vers les
formules usuelles quand µ0 tend vers zéro. Cette différence entraı̂ne la conséquence
suivante : en Mécanique ondulatoire du photon, quelque petite que l’on suppose la
masse propre du photon, à condition qu’elle ne soit pas rigoureusement nulle, on
ne rencontre pas les difficultés auxquelles se heurtent d’autres formes de la théorie quantique des champs : on peut voir là un argument en faveur de l’hypothèse
µ0 6= 0.
Enfin, l’analyse des interactions entre le rayonnement et les particules électrisées
se fait d’une façon tout à fait symétrique en adoptant un Hamiltonien d’interaction
approprié et montre que, dans cette analyse, ce sont les champs électromagnétiques
complexes qui doivent intervenir. Tous les résultats obtenus en considérant les
ondes transversales sont les mêmes que dans les théories habituelles. Les calculs
faisant intervenir les ondes longitudinales sont au contraire différents : ainsi, non
seulement le potentiel Coulombien est affecté (si µ0 6= 0) d’un facteur exponentiel
dont l’existence réelle ne paraı̂t d’ailleurs pas vérifiable, mais il s’y ajoute un autre
potentiel exprimé par une fonction δ et caractéristique de la théorie. Dans son état
actuel, la Mécanique ondulatoire du photon ne paraı̂t pas permettre d’écarter les
difficultés bien connues dues aux valeurs infinies obtenues pour les énergies propres.
156
CHAPITRE 12. LE PHOTON
Cinquième partie
UNE PAGE D’HISTOIRE DES
SCIENCES
157
Chapitre 13
Un génie tourmenté :
André-Marie Ampère 1
La science française a derrière elle une longue et glorieuse histoire. A tous
les stades du développement de la civilisation moderne, les savants français ont
apporté des contributions importantes et souvent géniales. Par l’originalité de leurs
conceptions, la clarté de leur esprit ou l’habileté de leur technique expérimentale, ils
ont constamment ouvert des voies nouvelles et on trouve toujours certains de leurs
noms, à l’origine de tous les grands progrès et de toutes les grandes découvertes.
Aussi, si l’on désire parler de l’une des grandes figures de la science française, n’at-on que l’embarras du choix. Mais dans la nombreuse galerie de portraits entre
lesquels il faut alors choisir, aucune figure n’est peut-être plus attrayante que celle
d’André-Marie Ampère.
Tout est curieux, émouvant, grandiose en cet homme extraordinaire. Enfant
prodige donnant dès l’âge le plus tendre les marques de facultés aussi exceptionnelles que précoces ; adolescent frappé par un deuil cruel lors d’une des plus
grandes crises de notre histoire ; cIJur passionné soumis dans sa vie privée à de
douloureuses épreuves successives comme si la destinée s’acharnait à faire souffrir
ce pauvre grand homme ; esprit d’une immense envergure s’intégrant à la fois à
toutes les branches de la science et de la philosophie et réussissant, malgré l’énorme
dispersion d’efforts que sa trop grande curiosité lui impose, à réaliser dans des domaines très différents des œuvres capitales ; homme indécis et timide, aussi faible
et désarmé devant les petites difficultés de la vie quotidienne qu’il était vaillant
et acharné dans les tentatives ardues où se complaisait sa vaste intelligence ; âme
inquiète sans cesse préoccupée de problèmes moraux et métaphysiques, souvent
éprise de mysticisme et trouvant enfin dans les consolations de la foi l’apaisement
de ses souffrances et l’assouvissement de ses aspirations. Tel fut ce savant de génie
1. Conférence faite en Sorbonne le mercredi 18 septembre 1940
159
160
CHAPITRE 13. ANDRÉ-MARIE AMPÈRE
qui, en quelques semaines de sa vie orageuse, a jeté les bases de la science des phénomènes électromagnétiques et ouvert la voie à toutes les applications actuelles
de l’Electricité et qui cependant, malgré hommages dont il fut l’objet à certains
moments de sa carrière, mourut obscurément au cours d’un voyage d’inspection
administrative sans que les hommes de son temps aient paru se rendre compte de
tout ce que la France perdait en lui.
La vie des savants prête en général assez peu aux développements qui attirent
l’attention des biographes et qui intéressent le public, car leur existence est souvent paisible, parfois solitaire, et leur œuvre reste fréquemment confinée dans une
région étroite et particulière du savoir humain. Il n’en fut pas ainsi pour AndréMarie Ampère ; sa vie et son œuvre sont si étrangement attrayantes à la fois pour
l’historien et pour le savant qu’elles ont déjà fait l’objet de nombreuses études et
qu’elles méritent d’être connues de tous les hommes cultivés.
∴
André-Marie Ampère est né à Lyon le 20 janvier 1775. Sa famille appartenait
à la bourgeoisie lyonnaise. Son père, Jean-Jacques Ampère, après s’être occupé du
commerce des soieries, grande source de richesses de la cité Rhodanienne, n’avait
pas tardé à profiter de l’aisance que lui procurait sa fortune pour se retirer des
affaires ; dès lors, il avait passé la plus grande partie de l’année dans sa maison de
campagne de Poleymieux et c’est là que fut surtout élevé le jeune André-Marie.
Jean-Jacques Ampère était un homme cultivé, fort bon connaisseur des lettres classiques et assez attiré par les idées nouvelles dont la diffusion dans ce crépuscule
de la Monarchie annonçait les convulsions prochaines de la Révolution. Peut-être
influencé par l’Emile de Rousseau, il laissa l’intelligence de son jeune fils se développer librement et ne le soumit à aucune contrainte scolaire. Ainsi quelque peu
abandonné à lui-même, le jeune André-Marie ne tarda pas à se montrer ce qu’on
est convenu d’appeler un « enfant-prodige ». Non seulement encore presque enfant,
la littérature classique n’a pas de secret pour lui, mais il s’initie de bonne heure
aux éléments des Mathématiques, de la Physique, de la Chimie sans oublier la Botanique et la Philosophie ; il invente une langue universelle et écrit des poèmes. Et
ainsi, dans cette précoce exubérance, il montre déjà, presque au sortir de l’enfance,
cette supériorité d’intelligence, cette puissance de travail, cette avidité de connaissances et aussi, il faut bien le dire, cette tendance un peu fâcheuse à la dispersion
des efforts qui caractériseront le reste de sa vie. Dès cette époque, sa mémoire est
aussi prodigieuse que sa capacité de travail. Non seulement, vert 12 ou 13 ans,
il lit, article par article, les vingt gros volumes de l’Encyclopédie, mais cinquante
161
années plus tard, parvenu à la vieillesse, il sera encore capable d’en répéter mot à
mot des pages entières sans les avoir jamais relues. Tout annonce donc en lui un
homme doué de facultés extraordinaires.
Mais le rapide épanouissement de cette jeune intelligence avait été favorisée par
la vie calme et paisible que l’enfant menait alors dans sa famille. Ce calme n’allait
pas durer. Ampère venait d’accomplir sa quatorzième année quand commença
d’éclater l’orage qui, depuis tant d’années montait lentement à l’horizon politique
de la France et l’adolescent, à l’intelligence si précocement éveillée, allait bientôt
en ressentir le terrible contrecoup. Son père, depuis longtemps attiré par les idées
nouvelles qui avaient peu à peu ébranlé l’ancien ordre politique et social, vit dans
le début de la Révolution l’occasion d’entrer dans la politique, comme nous dirions
aujourd’hui. Dans des périodes aussi troublées, faire de la politique est un jeu très
dangereux et Jean-Jacques Ampère n’allait pas tarder à s’en apercevoir. Elu juge
de paix du quartier de la Halle aux blés à Lyon, il se rattacha par ses tendances
au parti Girondin. Les Girondins, on le sait, furent considérés au début de la
Révolution comme des gens d’opinion fort avancée, mais par une mésaventure assez
fréquente en pareille matière, ils ne tardèrent pas, quand la Montagne eut assuré sa
domination sur la Convention, à faire figure de réactionnaires et à paraı̂tre suspects
à ce titre. Jean-Jacques Ampère, dépassé comme bien d’autres par le mouvement
qu’il avait encouragé, fut bientôt effrayé par les excès de la Révolution et fit alors à
Lyon une forte opposition à la dictature du délégué de la Convention, le redoutable
Challier ; il contribua à le faire arrêter et exécuter. A la suite de cette exécution,
la Convention entra en lutte ouverte avec la ville de Lyon : après un siège de deux
mois, elle parvint à faire occuper Lyon par son armée, puis elle vengea par de
terribles représailles la mort de Challier. Jean-Jacques rendu responsable de cette
mort fut exécuté après un jugement sommaire.
André-Marie, qui était resté à Poleymieux pendant la carrière politique de son
père à Lyon, fut si brutalement frappé par la nouvelle de sa mort tragique qu’il
tomba dans un état de complète prostration et l’on éprouva même des craintes
pour sa raison. Ainsi la fureur révolutionnaire qui allait bientôt faire tomber la
tête du créateur de la Chimie moderne, Lavoisier, rendait orphelin et écrasait sous
le poids de la douleur celui qui allait être le fondateur de l’Electrodynamique et
l’une des plus pures gloires de la science Française !
Cependant, peu à peu, André-Marie Ampère se remit de cette dure épreuve
et, la jeunesse reprenant le dessus, son activité intellectuelle toujours intense et
toujours un peu éparpillée reprit son cours. C’est à ce moment de sa vie que se
placent ses fiançailles, puis son mariage avec Julie Carron.
On a souvent raconté d’Ampère ayant eu l’occasion en avril 1796 de rencontrer
une jeune fille de la bourgeoisie lyonnaise Julie Carron, alors accompagnée de sa
sœur Elise, avait été si ému par sa douceur et sa beauté qu’il avait sur-le-champ
162
CHAPITRE 13. ANDRÉ-MARIE AMPÈRE
décidé de l’épouser. Si la décision du jeune savant fut extraordinairement prompte,
celle eu la partie adverse le fut moins. Le soupirant était timide et gauche et ne
paraı̂t pas avoir au premier abord séduit particulièrement la douce Julie Carron.
Elle finit néanmoins par consentir à ce mariage peut-être plus par bonté que par
inclination et ses fiançailles avec Ampère furent célébrées en juillet 1797. Mais la
crise révolutionnaire avait lourdement éprouvé la fortune de la famille Ampère et,
de plus, le jeune homme n’avait pas de situation : ces circonstances firent retarder
la célébration du mariage jusqu’au 2 août 1799.
Après son mariage avec Julie Carron, Ampère qui parvenait à boucler son budget en donnant à Lyon quelques leçons particulières, paraı̂t avoir connu plusieurs
mois de vrai bonheur qui furent peut-être les seuls de sa vie. Mais la naissance
en août 1800 de son fils Jean-Jacques qui devait être plus tard un littérateur de
renom, membre de l’Académie française, ainsi que l’état de santé de plus en plus
précaire de sa jeune femme qui exigeait beaucoup de soins, l’obligèrent à chercher
une situation régulièrement rémunérée et, en février 1802, il obtenait le poste de
Professeur de Physique à l’Ecole Centrale de Bourg, entrant ainsi à 27 ans dans
l’enseignement public qu’il ne devait plus quitter. Laissant sa famille à Lyon, il
va s’installer à Bourg : il ne revient plus voir sa famille que de loin en loin, étant
souvent obligé par raison d’économie de faire à pied le long trajet qui mène du
chef-lieu de l’Ain à celui du Rhône. Dans sa solitude, il entreprend ses premiers
travaux vraiment originaux sur l’algèbre, l’analyse mathématique et aussi le calcul
des Probabilités, la théorie du jeu comme on disait alors. Ces recherches originales
sont remarquées par un certain nombre de savants illustres, l’astronome Lalande,
les géomètres Laplace et Delambre. Ces maı̂tres s’intéressent à la carrière du jeune
homme et comme à cette époque le gouvernement consulaire organise dans toute
la France l’enseignement des lycées, ils obtiennent pour lui la place de professeur
des 3e et 4e classes de Mathématiques au lycée de Lyon. Le voici donc se réinstallant à Lyon au mois d’avril 1803 : il y retrouve sa femme et son enfant et l’on
pourrait croire qu’il y va retrouver aussi son bonheur familial. Hélas ! la santé de
sa jeune femme décline chaque jour davantage et elle meurt au mois de juillet de
cette même année, le laissant dans un désespoir affreux que les consolations de sa
foi chrétienne lui permettent difficilement de surmonter. Extrêmement découragé,
il songe à se rendre à Paris pour y devenir maı̂tre de pension, fabricant de produits
chimiques ou n’importe quoi d’autre, car il ne peut plus supporter cette ville de
Lyon qui a vu s’effondrer si prématurément son bonheur. Sa famine le détourne de
ces projets aventureux et lui persuade de chercher l’oubli de ses peines dons l’étude
et les mathématiques. Ces nouveaux travaux attirent alors une seconde fois sur lui
l’attention des maı̂tres de Paris et, en octobre 1804, ils lui valent sa nomination
comme répétiteur d’Analyse à l’Ecole Polytechnique.
Cette nomination, bien loin de le faire se consacrer davantage aux Mathéma-
163
tiques comme il eût été naturel, l’en éloigne plutôt, tant son esprit impétueux et
changeant savait peu suivre les voies tracées. Sans doute on le voit encore écrire
quels mémoires de Mathématiques, mais c’est surtout la Philosophie, la Psychologie et la Métaphysique qui semblent alors particulièrement l’attirer. Il discute avec
Maine de Birau, il correspond avec ceux de ses amis restés à Lyon qui forment
là-bas l’école mystique dont Ballanche est le chef. II oscille par moments entre la
foi et le doute et parfois se dégoûte des Mathématiques pour y revenir ensuite, tout
en continuant d’ailleurs régulièrement son enseignement d’analyse à l’Ecole Polytechnique. C’est dans cette période trouble de son existence où le pauvre Ampère
paraı̂t chercher sa voie sans parvenir à la trouver que se place le navrant épisode
de son second mariage. Croyant sans doute retrouver le bonheur que la mort lui a
une première fois ravi, il épouse en avril 1806 une certaine demoiselle Potot d’une
honorable famille parisienne. Mais cette jeune femme est une mégère et sa famille
ne vaut pas mieux qu’elle : dès la fin de l’année, le malheureux Ampère persécuté
et désespéré doit se séparer de sa nouvelle épouse et, comme sa femme refuse de
s’occuper de la petite Albine qui naı̂t ensuite de cette union malheureuse, il doit la
prendre entièrement à sa charge et s’occuper seul de l’élever. Ce fut pour Ampère
une nouvelle et très dure épreuve morale. Il eut beaucoup de peine à la surmonter,
mais il semble cependant qu’après ce nouveau coup du sort, il parvint à retrouver un peu plus de sérénité. Sa mère et sa sœur vinrent habiter à Paris avec lui :
elles l’aidèrent à élever ses deux enfants Jean-Jacques et Albine. Les années qui
suivirent furent pour Ampère sinon pleinement heureuses, du moins plus calmes.
Nommé professeur d’Analyse et examinateur d’entrée à l’Ecole Polytechnique,
appelé en 1808 aux importantes fonctions d’Inspecteur général de l’Université, sa
situation matérielle est désormais assurée et, bien que ses nouvelles fonctions et
quelques menues autres lui imposent d’assez nombreuses obligations administratives, elles lui laissent cependant assez de temps pour lui permettre de revenir à
l’étude. Mais ici se montre à nouveau la grande mobilité d’esprit d’Ampère. Ce
n’est plus en effet vers les Mathématiques auxquelles il est officiellement affecté, ce
n’est même plus vers la Métaphysique pour laquelle il conserve un certain penchant,
c’est vers la Chimie et la théorie atomique qu’il tourne tout à coup sa curiosité et
ses efforts. Et tout de suite, dans ce domaine où jusqu’alors il n’a jamais travaillé,
il va émettre des idées profondes et originales et se montrer à plus d’un point de
vue un grand précurseur.
Depuis une trentaine d’années, rénovée par les travaux de Lavoisier et de ses
continuateurs, la Chimie était alors eu plein développement. En particulier, les
expériences de Davy, de Gay-Lussac et de Thénard sur la potasse et sur les acides
chlorhydrique et fluorhydrique attiraient l’attention des savants. Ampère se passionne pour ces questions : il soutient l’opinion de Davy suivant laquelle la potasse
est un corps composé et dans les expériences de Gay-Lussac et de Thénard, il
164
CHAPITRE 13. ANDRÉ-MARIE AMPÈRE
aperçoit avec une lucidité merveilleuse la certitude qu’il existe deux corps simples
de propriétés analogues, le Chlore et le Fluor. Ses idées furent facilement admises
en ce qui concerne le Chlore, mais pour le Fluor dont l’isolement effectif n’eut lieu
que quatre-vingts ans plus tard, elles se heurtèrent a une forte opposition et il fut
loin de convaincre tous les chimistes. Dans ces discussions qui furent souvent passionnées, Ampère apparut comme un puissant théoricien de la Chimie ; sans être
lui-même en cette matière un homme de laboratoire, il sut par la vigueur de son
imagination et la pénétration de son intelligence apercevoir dans des faits que l’on
n’avait pas su encore bien interpréter des vérités que l’avenir devait pleinement
confirmer. Et son œuvre à ce point de vue fut importante.
Plus importantes peut-être encore furent les idées générales auxquelles s’éleva
bientôt Ampère en réfléchissant à l’ensemble des récentes découvertes des chimistes,
découvertes qu’il suivait alors avec un intérêt passionné. Les lois de la Chimie
générale commençaient à cette époque à se dégager avec netteté et les travaux des
Dalton, des Berthollet et des Gay-Lussac en avaient fixé les grandes lignes. Ampère
aperçu comment ces lois peuvent être interprétées en adoptant l’hypothèse de la
structure atomique des corps matériels. Il éprouvait depuis longtemps une grande
inclination en faveur de cette hypothèse millénaire qui avait charmé les rêves des
philosophes de l’Antiquité et il voulut l’exploiter à fond. Jetant hardiment un pont
entre les propriétés chimiques et les propriétés physiques des gaz, il vit clairement le
lien que l’hypothèse atomique établissait entre les lois de combinaison récemment
découvertes par les chimistes et la relation de proportionnalité d’aspect purement
physique que Mariotte avait, dès le XVIIe siècle, établi entre la pression et la densité
d’un gaz à température constante. Dès 1809, Ampère approfondit ce problème, se
tenant à ce sujet en relations constantes avec les chimistes les plus qualifiés de son
temps. Il fut cependant à plusieurs reprises distrait de ce travail, notamment par de
fréquentes crises morales (car l’âme et le cœur de ce génie tourmenté sont toujours
en état de tempête) et aussi par une candidature, d’ailleurs infructueuse, à la place
laissée libre dans la section des Mathématiques de l’Académie des Sciences par la
mort de l’illustre Lagrange, candidature qui l’oblige ,à revenir momentanément à
des travaux d’analyse. Enfin, en janvier 1814, il résume l’ensemble de ses recherches
dans un mémoire intitulé : « Démonstration de la relation découverte par Mariotte
entre les volumes des gaz et les pressions qu’ils supportent à la même température. »
Lancé dans cette voie, il ne s’arrête plus et fait toute une série de recherches
sur les lois mathématiques des combinaisons chimiques, sur la mesure des poids
atomiques, sur la prévision des réactions. Il fait des rapprochements entre la Chimie
et la Cristallographie alors en plein développement grâce aux travaux d’Haüy. Et,
chemin faisant, il énonce la célèbre hypothèse qui est connue aujourd’hui dans
tous les traités de Chimie sous le nom d’Avogadro parce qu’elle fut énoncée par
le chimiste italien à peu près en même temps que par Ampère, mais à laquelle
165
Ampère était parvenu en suivant une voie tout à fait indépendante. Toutes ces
idées d’une originalité profonde, dont certaines ne devaient trouver leur véritable
expression que bien plus tard dans le cadre de la théorie cinétique des gaz, se
trouvent rassemblées un peu en désordre dans un volumineux mémoire de 1814,
mémoire qui constitue pour Ampère un de ses plus beaux titres de gloire. La même
année, il entre enfin à l’Académie des Sciences en remplacement de l’abbé Bossut
et toujours en qualité de mathématicien, car il fallut bien faire rentrer dans le cadre
rigide d’une section académique ce génie fougueux dont l’activité intellectuelle était
si variée qu’il aurait presque pu figurer dans toutes les sections à la fois.
Puis, comme si chez lui, chaque fois qu’il a entrepris et mené à bien une œuvre
remarquable, le succès provoquait la lassitude, il se détache de la Chimie comme
il s’est détaché des Mathématiques et, pendant cinq années, ce sera de nouveau la
Psychologie, la Morale, la Métaphysique qui le préoccuperont. On le voit même en
1819 chargé d’un cours de Logique à la Faculté des Lettres car il est aussi difficile,
dans l’Université que dans les Académies, de maintenir un tel homme dans un
compartiment bien déterminé.
∴
Les années passent. Nous voici en 1820. 1820 ! Ampère a 45 ans ; il est professeur
à l’Ecole Polytechnique, Inspecteur général de l’Université, membre de l’Académie
des Sciences. Ses travaux font autorité en Mathématiques et en Chimie, on le
sait un profond philosophe. On pourrait croire que la carrière scientifique de cet
homme déjà en pleine maturité est sinon achevée, car il est jeune encore, du moins
définitivement orientée. Mais quelle erreur avec un homme semblable ! Sa carrière
scientifique, elle est à peine commencée, car c’est maintenant seulement qu’abordant une science dont il ne s’est jamais occupé, la Physique, qu’explorant un sujet
qu’hier encore il ignorait totalement, les lois de l’Electricité et du Magnétisme,
il va en quelques semaines accomplir une œuvre grandiose qui rendra son nom
définitivement impérissable.
Dans les quarante années si fécondes en découvertes scientifiques qui s’étaient
écoulées entre 1780 et 1820, la connaissance des phénomènes électriques et magnétiques avait fait de considérables progrès. Grâce notamment aux travaux de Cavendish et de Coulomb, l’électricité statique, dont on connaissait depuis longtemps
certains aspects, avait été soumise à une étude quantitative. Il en avait été de même
pour le magnétisme tel qu’il se manifeste dans les aimants permanents. D’autre
part, prenant naissance dans les mémorables recherches de Galvani et stimulée par
la découverte de la pile par Volta, l’étude des phénomènes liés au mouvement de
166
CHAPITRE 13. ANDRÉ-MARIE AMPÈRE
l’électricité, c’est-à-dire aux courants électriques, s’était grandement développée,
mais le lien entre ces divers aspects de l’électricité et du magnétisme n’était pas
encore nettement précisé, bien que son existence fût déjà fortement soupçonnée. La
démonstration par Coulomb du fait que les actions à distance entre pôles d’aimants
suivent la même loi que les actions à distance entre charges électriques avait même
orienté les esprits dans une mauvaise direction en inspirant la conviction d’un parallélisme complet entre les actions électriques et les actions magnétiques. Cette
conviction avait par exemple conduit à tenter des expériences qui nous paraissent
aujourd’hui presque absurdes, comme d’approcher le pôle d’une pile d’une aiguille
aimantée pour voir si cette aiguille dévie, ou encore de faire flotter librement une
petite pile à la surface d’une cuve remplie d’eau et de soumettre l’ensemble à
l’action du champ magnétique d’un aimant pour voir si la ligne des pôles de la
pile s’oriente dans le champ magnétique. Inutile de dire que ces tentatives étaient
restées vaines et que le lien entre l’électricité et le magnétisme avait obstinément
refusé de se manifester de cette façon. C’est, dit-on, par hasard qu’en 1819, le
physicien danois Oerstedt, montrant à ses élèves quelques expériences sur les courants électriques, s’aperçut qu’une boussole placée à proximité déviait au moment
de l’établissement du courant dans un circuit. Soumettant ce phénomène fortuitement observé à une étude méthodique, Oersted parvint à établir qu’une aiguille
aimantée, placée au voisinage d’un fil métallique, tend à se mettre en croix avec
ce fil quand on y lance un courant électrique.
Les sensationnelles expériences d’Oersted attitrent naturellement tout de suite
l’attention de tous les physiciens de l’Europe et furent répétées un peu partout
dans les laboratoires. Au cours d’un voyage effectué à Genève dans l’été de 1820,
Arago eut l’occasion d’assister à quelques-unes de ces expériences et sa vive imagination en fut très frappée. De retour à Paris, il fit le lundi 11 septembre 1820
devant l’Académie des Sciences (qui à cette époque siégeait déjà le lundi comme
elle le fait aujourd’hui encore) une relation de ce qu’il avait vu dans les laboratoires genevois. Tous les membres de l’Académie écoutèrent sans doute avec un
grand intérêt la communication de leur illustre confrère, mais l’un d’eux, Ampère,
dut la Suivre avec une attention particulièrement passionnée, car dès les séances
suivantes, celles des lundis 18 et 25 septembre, il présentait à l’Académie deux
mémoires où, montrant à nouveau, mais cette fois avec toute l’ampleur d’un incontestable génie, ses puissantes facultés de théoricien, il apercevait d’un seul coup
d’œil dans les résultat des expériences d’Oersted et de ses émules le lien exact, enfin
découvert, qui relie les actions magnétiques non pas à l’électricité elle-même, mais
aux mouvements de l’électricité : l’électrodynamique, avec toutes les conséquences
qu’elle allait avoir pour le développement de la Physique et indirectement par ses
applications pour la civilisation des hommes, était née en quelques jours grâce à
l’admirable effort d’un esprit créateur.
167
Du seul fait de l’action exercée par un courant sur une aiguille aimantée, Ampère déduit que deux courants fermés doivent agir l’un sur l’autre et précise la loi
de cette action. Il aperçoit avec une netteté parfaite que l’action des courants sur
les aimants et des aimants sur les courants n’a rien à voir avec les actions électrostatiques ordinaires. Il affirme, se montrant par là de nouveau un grand précurseur,
que les propriétés des aimants doivent pouvoir se ramener à l’existence de courants
électriques fermés existant dans la masse de la substance aimantée. Non seulement,
il se montre par là le génial annonciateur des futures théories électroniques qui admettent que la matière est formée d’un nombre immense de particules électrisées et
cherchent à expliquer toutes ses propriétés par le mouvement de telles particules ;
mais encore il montre toute sa perspicacité en rejetant définitivement la fausse
analogie qui portait à traiter symétriquement les phénomènes du magnétisme et
ceux de l’électricité et en faisant découler les phénomènes électromagnétiques de
l’existence et du mouvement des seules charges électriques. Tandis que la charge
électrique est une réalité fondamentale, il n’existe pas de charges magnétiques, de
magnétisme vrai. Sans doute, le champ magnétique créé par un aimant peut-il se
représenter en admettant que les pôles de l’aimant portent des charges magnétiques
de signes contraires, mais l’existence des champs magnétiques créés par les courants électriques mise en évidence par les expériences d’Oersted incite, pour donner
une origine unique aux actions magnétiques, à considérer tous les champs magnétiques comme dérivant des mouvements de l’électricité. La conception du pôle
d’aimant portant une charge magnétique n’est plus alors qu’un artifice commode
pour représenter schématiquement la structure du champ magnétique qui entoure
l’aimant ; mais ce n’est qu’une fiction mathématique, la véritable origine physique
du champ qui entoure l’aimant devant être cherchée dans les courants électriques
élémentaires qui parcourent sa masse. Et alors les actions magnétiques entre deux
aimants ou entre deux courants ou entre un aimant et un courant apparaı̂tront
comme des aspects divers d’un même processus fondamental d’interaction. Telles
sont les idées qu’énonçait Ampère et qui ramenaient l’origine du magnétisme des
aimants aux courants électriques particulaires cachés dans la masse de la matière
aimantée. Idées admirables que devait confirmer tout le développement ultérieur
de l’électromagnétisme !
Cette période de découvertes fut pour Ampère l’occasion d’une véritable exaltation. On a conservé de lui une lettre où il exprime à son fils, Jean-Jacques, alors
en voyage, toute la joie et tout l’enthousiasme que lui procure le sentiment de
la découverte. Durant le mois d’octobre 1820, il présente mémoires sur mémoires
à l’Académie des Sciences pour préciser ses idées. Voulant vérifier lui-même les
conséquences nouvelles de ses conceptions, il entreprend des expériences avec des
moyens de fortune. Ampère depuis 1818 habitait avec sa sœur et ses enfants une petite maison de la rue des Fossés-Saint-Victor. C’est dans le cadre modeste de cette
168
CHAPITRE 13. ANDRÉ-MARIE AMPÈRE
de meure qu’il se monte un laboratoire et avec un appareillage dont la pauvreté
étonne aujourd’hui, il réalise des expériences cruciales montrant le bien-fondé de
ses intuitions. Il travaille avec tant d’acharnement que ses amis s’inquiètent de son
état de fatigue et de surmenage et c’est à juste titre car dans le courant de 1821 il
ressentira les premières atteintes assez légères du mal, la phtysie laryngée, qui l’emportera quinze années plus tard. Mais son activité ne se dément pas un seul instant
et pendant les six années qui vont de 1820 à 1826, Ampère avec une continuité
dans l’effort qui lui avait souvent fait défaut auparavant se consacre à l’étude de
l’électrodynamique. Non seulement il se révèle un expérimentateur hors pair, mais
il montre aussi de véritables qualités d’inventeur dans le domaine pratique. Dès son
mémoire du 25 septembre 1820, il avait indiqué que les actions magnétiques des
courants devaient permettre la réalisation du télégraphe électrique et, si le système
qu’il imagine comportant une ligne électrique pour chaque lettre de l’alphabet est
trop complique pour entrer dans la pratique, il n’en fournit pas moine le principe
qui servira de base à tout le développement futur du télégraphe électrique. En
1822, il invente le solénoı̈de où un fil métallique enroulé en spirale fournit, quand il
est parcouru par un courant électrique, le véritable équivalent d’un aimant et, par
cette invention, Ampère matérialise pour ainsi dire ses conceptions sur le rapport
du magnétisme des aimants avec les actions magnétiques des courants électriques.
Mais ce n’est pas tout : comme, depuis le début de ses travaux, il a remarqué la
possibilité d’aimanter le fer doux par l’action du champ magnétique des courants,
Ampère va bientôt avoir l’idée d’associer un solénoı̈de avec un noyau de fer doux et
il réalisera ainsi, avec le concours d’Arago, le premier électro-aimant. C’est là une
découverte capitale qui a joué ensuite dans le développement des applications de
l’électricité un rôle si essentiel que sans elle, peut-on dire, tout le développement
de l’électrotechnique eût été impossible Si j’ajoute qu’Ampère eut le premier l’idée
du montage astatique des aiguilles aimantées et qu’en proposant d’utiliser l’action
d’un courant sur une aiguille aimantée pour mesurer l’intensité de ce courant, il
inventa le principe du galvanomètre, on voit combien dans cette partie de son œuvre
Ampère sut joindre à d’exceptionnelles qualités de théoricien une remarquable
ingéniosité dans l’agencement des dispositifs pratiques.
Mais Ampère n’oubliait pas cependant qu’il était mathématicien et son esprit
ne cessa pas de chercher à établir la coordination théorique de tous les phénomènes
qu’il avait étudiés ou découverts : cet effort le conduisit à écrire un livre qui est
resté un des classiques de la Physique. « La théorie analytique des phénomènes
électrodynamiques uniquement déduite de l’expérience ». Ampère y a rassemblé
tous les calculs et toutes les formules qui lui avaient permis de représenter l’ensemble des faits électrodynamiques. Un grand nombre de ces résultats se retrouvent
encore aujourd’hui dans les livres d’enseignement : tous les candidats au baccalauréat connaissent ou doivent connaı̂tre la règle du bonhomme d’Ampère et les
169
étudiants plus avances en Physique savent que le théorème d’Ampère donnant la
circulation du champ magnétique le long d’une courbe fermée entourant un courant électrique conduit, avec l’aide d’une remarquable addition faite par Maxwell,
à la première des équations fondamentales de circulation sur lesquelles repose aujourd’hui la théorie mathématique générale des phénomènes électromagnétiques.
Mettant en œuvre le principe de l’équivalence d’un courant fermé et d’un feuillet
magnétique grâce auquel il avait pu d’une façon si brillante ramener dès le début de
ses réflexions sur ce sujet tout le magnétisme aux mouvements de l’électricité, Ampère parvint à représenter très exactement en formules mathématiques toutes les
actions réciproques des aimants et des courants. Il a notamment exprimé l’action
d’un élément de courant sur un autre élément de courant à l’aide d’une formule
célèbre qui porte son nom. L’exactitude de cette formule ne s’impose d’ailleurs
pas autant que son auteur le pensait : quand on l’applique au calcul de l’action
d’un courant électrique fermé sur un élément de courant, seul cas accessible à la
vérification expérimentale, la formule d’Ampère conduit bien à un résultat correct,
mais il y a une infinité d’autres formules qui conduisent au même résultat.
J’ai dit plus haut que le théorème d’Ampère conduisait à la première des équations de circulation qui servent de base à la théorie électromagnétique. Pour parvenir à la seconde de ces équations, il eût fallu découvrir les phénomènes d’induction
et ceci fut fait par Faraday peu d’années avant la mort d’Ampère. Mais on peut
dire que, si Ampère n’a pas ajouté cette glorieuse découverte à toutes celles dont
il était l’auteur, il s’en fallut de peu. Il a en effet écrit dans l’un de ses mémoires :
« Le courant électrique a une tendance à mettre l’électricité en mouvement dans
les conducteurs près desquels il passe. » et cette phrase contient, sous une forme
un peu imprécise il est vrai, le principe de l’induction électromagnétique. De plus,
Ampère a eu l’occasion vers la fin de sa vie d’étudier un phénomène d’induction et
cette étude l’a amené à imaginer le premier de ces dispositifs de commutation dont
le rôle est si important en électrotechnique. C’était en 1832. Le physicien Hachette,
avec l’aide du constructeur Pixii, avait réalisé une machine dans laquelle un aimant
tournait devant un noyau de fer doux sur lequel était enroulée une bobine de fil métallique faisant partie d’un circuit fermé : on constatait la production de courants
électriques dans le circuit fermé. On était là évidemment en présence d’un phénomène d’induction donnant naissance dans le circuit fermé à un courant alternatif,
mais faute de connaissances précises sur l’induction et les courants alternatifs, tout
cela paraissait peu clair. Ampère se rendit très bien compte du caractère alternatif
du courant produit et il eut l’idée remarquable de transformer ce courant alternatif en un courant continu, de le « redresser » comme nous dirions aujourd’hui,
à l’aide d’une »bascule » c’est-à-dire d’un dispositif qui en basculant inversait les
connexions de la bobine avec le circuit extérieur fermé à chaque demi-tour effectué
par l’aimant inducteur. Il avait ainsi réalisé une véritable « commutation » au sens
170
CHAPITRE 13. ANDRÉ-MARIE AMPÈRE
que les électriciens donnent aujourd’hui à ce mot et obtenu pour la première fois
un courant continu qui n’était pas produit par une pile, mais résultait d’un mouvement de rotation : le principe de la dynamo était trouvé. Ce n’est là, peut-on
dire, qu’une miette dans l’œuvre si copieuse et si variée d’Ampère, mais l’on voit
que dans cette IJuvre les miettes elles-mêmes ont une valeur inestimable.
∴
Revenons un peu eu arrière. Nous avions laissé Ampère dans la période 18201826 explorant tous les domaines de l’électrodynamique et préparant son grand
ouvrage sur la théorie mathématique des phénomènes qui s’y rattachent. Peut-être
n’est-il pas déplacé de faire ici un court tableau de l’admirable spectacle qu’offrait
alors la science française. Jamais sans doute autant qu’à cette époque elle n’a été
à la tête du mouvement scientifique européen. Dans les rang de notre Académie
des Sciences, on voyait alors siéger côte à côte la plus brillante réunion de savants
qui fut jamais. Dans la section de Géométrie, Ampère avait pour collègue l’illustre
Laplace, mathématicien sans égal, fondateur de la Mécanique céleste et du Calcul
des Probabilités et près d’eux se trouvaient Legendre, Biot et Poinsot. La section de
Mécanique était dominée par la puissante figure du créateur de l’Analyse moderne,
Augustin Cauchy, génie multiforme à qui tant de branches des Mathématiques et
de la Physique théorique sont redevables de découvertes admirables : Dupin et
Prony, malgré leur grande valeur, paraissaient près de lui noyés dans les rayons de
sa gloire. La section d’Astronomie n’avait alors qu’un seul très grand nom à fournir,
mais c’était celui d’Arago. Quant à la section de Physique générale, la présence
d’un Poisson, d’un Gay-Lussac et d’un Dulong aurait suffi à lui donner un éclat
remarquable même s’ils n’avaient pas eu pour collègue le mélancolique et maladif
Augustin Fresnel dont l’œuvre incomparable nous a révélé la nature ondulatoire
de la Lumière, Augustin Fresnel dont le nom n’est pas assez connu en France car
il est l’une de nos plus pures gloires. Le premier poste de secrétaire perpétuel
était tenu par Fourier, le baron Joseph Fourier qu’il ne faut pas confondre avec
son contemporain Charles Fourier le fondateur du Fouriérisme, Fourier qui dans sa
théorie analytique de la propagation de la chaleur a non seulement élucidé toute une
série de problèmes physiques très importants, mais a aussi fourni aux théoriciens
de la Physique, par sa découverte des séries et intégrales de Fourier des armes dont
il se sont ensuite constamment servis et dont ils se servent chaque jour davantage à
l’heure actuelle. Je ne veux pas continuer plus loin cette énumération et je laisserai
de côté la liste des chimistes, naturalistes et médecins, fort illustres aussi cependant,
qui complétaient cette assemblée. Qu’il me suffise de dire que le titulaire du second
171
poste de secrétaire perpétuel s’appelait Cuvier ! Si nous ajoutons enfin que, vers
en même époque, un jeune Français qui ne devait pas atteindre ha célébrité de son
vivant, Sadi Carnot, allait jeter une des bases de la Thermodynamique en énonçant
le principe qui porte aujourd’hui son nom, il nous apparaı̂t que toutes les grandes
branches de ce que nous appelons maintenant la Physique classique, je veux dire
l’Electromagnétisme, l’Optique ondulatoire et la Thermodynamique, ont eu leur
origine dans les travaux de savants de génie dont la floraison simultanée assurait
en matière scientifique à la France de ce temps une incontestable primauté.
Il n’est pas surprenant que des hommes de cette valeur placés en contact permanent aient souvent collaboré entre eux et ceci m’amène à dire quelques mots de
la collaboration d’Ampère avec Fresnel. C’est peu avant les grands travaux d’Ampère sur l’électrodynamique que se placent le début des travaux de Fresnel sur
la lumière et cette joute où, luttant presque seul contre les plus hautes autorités
scientifiques de son temps, l’intrépide jeune homme entreprenait de défendre la
conception ondulatoire de la lumière contre les adeptes de la conception corpusculaire alors en faveur. Ampère fut de ceux, peu nombreux, qui sentirent dès l’abord
la profondeur des conceptions de Fresnel et l’aidèrent à triompher peu à peu de
ses adversaires. Il est donc bien naturel qu’ensuite Ampère ait toujours suivi avec
l’enthousiasme le plus ardent l’admirable développement de l’œuvre de Fresnel qui,
après avoir complètement élucidé les phénomènes d’interférences et de diffraction,
interpréta la polarisation de la lumière par l’hypothèse du caractère transversal
des vibrations lumineuses et créa toute l’optique cristalline. De cet intérêt porté
par Ampère aux travaux de Fresnel, il nous est resté comme témoignage un mémoire daté de 1828, année qui suivit la mort prématurée du jeune savant ; dans ce
mémoire, Ampère complétant et précisant certaines parties inachevées de l’optique
cristalline, donnait la théorie rigoureuse des surfaces d’onde dans la propagation
de la lumière à travers les cristaux biaxes.
Comme on l’a vu, à partir de 1820, Ampère après avoir été tour à tour mathématicien, philosophe et chimiste, s’était surtout consacré à la Physique. En
1826, il obtint, en échange de son poste de professeur d’Analyse à l’Ecole Polytechnique, une chaire de Physique au Collège de France, enseignement qui correspondait mieux à sa nouvelle orientation. Cette nomination eut d’ailleurs pour lui
l’inconvénient de lui faire perdre, au grand dam de sa situation matérielle, son
emploi d’Inspecteur général de l’Université : ce poste lui fut cependant rendu deux
ans plus tard en 1828. Mais une fois de plus nous voyons Ampère qui ne parvient
pas à se maintenir dans la voie où il est maintenant officiellement engagé. A partir de ce moment ses travaux de Physique deviennent plus rares : il revient à la
Philosophie et à la Logique et même, car il faut décidément qu’il ait au moins
effleuré toutes les branches des sciences, il s’intéresse à la Biologie et à l’anatomie
comparée. A cette dernière science, il a consacré deux mémoires anonymes et fort
172
CHAPITRE 13. ANDRÉ-MARIE AMPÈRE
peu connus. Mais sa grande préoccupation va être désormais d’établir une classification générale des sciences et c’est à ce travail, selon nous un peu décevant,
qu’il consacrera surtout ses dernières forces. Malgré la profondeur de pensée qu’il
manifeste là comme ailleurs, ce ne fut pas, semble-t-il, la partie la plus durable de
son œuvre.
Le soir de sa vie fut d’ailleurs assombri par bien des préoccupations et il termina
tristement une existence dont la mélancolie avait toujours été la note dominante.
A partir de 1829, sa santé s’altère progressivement et l’oblige à des séjours dans
le Midi et à des périodes d’inaction qui sont très pénibles à sa débordante activité
intellectuelle. Si son fils Jean-Jacques lui donne des satisfactions par les succès qu’il
remporte dans la carrière littéraire, sa fille Albine mal mariée à un homme brutal
et dépensier est pour lui la source de nombreux chagrins, car après de longues
souffrances elle sombre dans la folie. Le pauvre grand homme vieilli, malade, souvent gêné dans sa situation matérielle, voit sa vie s’achever tristement. En 1836,
au cours d’une tournée d’inspection universitaire dans les départements du Midi,
il tombe malade d’une pneumonie à Marseille et y meurt, presque abandonné de
tous, le 11 juin, à l’âge de 61 ans.
∴
Ampère ne fut pas seulement un homme de génie : il fut aussi un homme
simple et bon qui conquit la sympathie de tous ceux qui le connurent. Bien souvent éprouvé dans ses affections les plus chères au cours de sa vie, i1 eut un
caractère mélancolique et ressentit toujours une certaine défiance envers lui-même
qui augmentait sa timidité et son indécision naturelle. Fréquemment absorbé dans
ses hautes pensées, cet homme à l’intense vie intérieure était peu attentif aux
choses de la vie courante. Sa distraction était proverbiale et a donné naissance à
de nombreuses petites anecdotes dont beaucoup sont sans doute inventées ou tout
au moins enjolivées. Mais on ne prête qu’aux riches et il est très probable qu’il fut
réellement fort distrait.
Un des traits caractéristiques de la physionomie d’Ampère, que l’on ne saurait
passer sous silence sans la déformer, fut son goût inné pour les spéculations métaphysiques et le sentiment religieux sincère et profond qui l’anima pendant la plus
grande partie de sa vie. Il ne fut pas de ceux qui, emportés par une admiration
certainement légitime mais peut-être excessive pour les progrès de la science, attendent d’elle la solution de tous les problèmes et pensent qu’elle permettra un
jour de remplacer par des affirmations positives les inquiétudes métaphysiques qui
depuis tant de siècles troublent le cœur des hommes. Esprit profond, Ampère ne
173
chercha jamais à se dissimuler sous le voile de conceptions trop simplistes le mystère qui est au fond des choses et sans doute pour lui la science elle-même, quand
on l’envisage sous son aspect théorique indépendamment es ses applications, lui
apparaissait-elle comme l’éclatant reflet d’un ordre qui nous est supérieur. Cette
tendance spiritualiste prit chez lui la forme précise d’un attachement profond à la
foi chrétienne vers laquelle il revint toujours à travers toutes les vicissitudes de son
existence. A son lit de mort, comme un ami lui proposait de lui lire quelques pages
de l’Imitation de Jésus-Christ, Ampère répondit : « C’est inutile, je la connais tout
entière par cœur » et il donna ainsi une ultime preuve à la fois de sa prodigieuse
mémoire et de sa foi profonde.
∴
Dans cette rapide esquisse, j’ai cherché à donner une idée de ce que furent la
vie troublée et mélancolique et l’œuvre géniale et diverse d’André-Marie Ampère.
Quand on étudie une figure aussi haute et aussi complexe que celle-là, on peut
se placer à deux points de vue. On peut l’envisager sous son aspect humain en
cherchant dans les détails de sa vie et de sa carrière, dans les particularités de
son caractère ou dans les formes extérieures de son intelligence, ce qui fait d’un
tel homme un personnage exceptionnel sans doute, mais vivant tout de même
dans le cadre de son époque au milieu de toutes les petites contingences de la vie
quotidienne auxquelles nul d’entre nous ne saurait échapper. On obtient ainsi une
image vivante où les tristesses et les faiblesses inhérentes à la condition humaine
ont nécessairement leur place, quelles que puissent être la beauté du caractère et
la grandeur de l’œuvre.
Mais on peut aussi, pour juger un tel héros de la pensée, adopter un point de
vue en quelque sorte plus abstrait, négliger les caractères particuliers physiques
ou moraux de l’être individuel, laisser s’estomper les détails ou les accidents de
son existence ainsi que les conditions de l’époque et de l’ambiance où le cours de
l’histoire et le hasard des destinées humaines l’avaient placé, pour ne plus voir en
lui que la splendeur de l’œuvre et la grandeur de l’exemple. Alors le ment homme
parait se dresser comme un symbole dans la claire lumière de l’histoire. Il nous
montre ce que le talent peut réaliser dans le court espace d’une vie humaine quand
il est soutenu par la conscience et par le travail - oui, par la conscience et par le
travail, car il n’est point d’homme, si supérieur soit-il, qui ne risque un jour ou
l’autre de s’enliser dans les faiblesses de la nature humaine s’il n’est soutenu par
quelque grand idéal et il n’est point de génie, si complet soit-il, qui ait pu produire
de grandes IJuvres sans de longs et pénibles efforts. Et voilà pourquoi les grands
174
CHAPITRE 13. ANDRÉ-MARIE AMPÈRE
hommes, quand ils atteignent à la taille d’Ampère, laissent à la postérité de grands
exemples.
Dans les conjonctures présentes où tout invite les Français au recueillement, il
leur est salutaire de méditer sur de tels exemples. En y attachant notre pensée,
nous verrons tout à coup surgir devant nous, comme pour nous inviter à l’espérance
et au renouveau par le travail, toutes les grandes figures du glorieux passé de la
France.
Table des matières
Préface
I
i
LA LUMIÈRE ET LES ÉLECTRONS
1 Le secret de la lumière
1
3
2 Les propriétés ondulatoires de l’électron
21
II SUR CERAINS ASPECTS PHILOSOPHIQUES DE
LA PHYSIQUE CONTEMPORAINE
31
3 L’indéterminisme en physique quantique
33
4 Philosophie et progrès de la physique
39
5 Invention en sciences théoriques
45
6 La théorie et le concrèt en physique
55
III LES GRAINS ET LES CHAMPS EN PHYSIQUE
QUANTIQUE
67
7 Individualité et intéraction
69
8 Physique ponctuelle et physique du champ
81
9 La Théorie quantique du rayonnement
93
10 Récent progrès de la théorie quantique
103
175
176
TABLE DES MATIÈRES
IV SUR DEUX IMPORTANTES QUESTIONS DE PHYSIQUE THÉORIQUE
117
11 Théorie des quanta et relativité
12 Le Photon
12.1 Considérations générales . . . . . . . . . . . . . .
12.2 La mécanique ondulatoire du photon dans le vide
12.3 Seconde quantification . . . . . . . . . . . . . . .
12.4 Interactions matière-rayonnement . . . . . . . . .
12.5 Résumé . . . . . . . . . . . . . . . . . . . . . . .
V
119
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
UNE PAGE D’HISTOIRE DES SCIENCES
13 André-Marie Ampère
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
133
. 133
. 139
. 148
. 151
. 154
157
159
Téléchargement