Les Ondes en physique

publicité
INTRODUCTION
Les ondes et les vibrations ont de nos jours envahi tout l’espace dans lequel nous vivons,
et il ne s’agit pas seulement de celles qui transportent les programmes de radio, de télévision,
les messages de nos téléphones portables ; il s’agit aussi des ondes de diverses natures qui
servent aujourd’hui à expliquer le comportement de la matière. Celle-ci, jusqu’ici symbole de
la solidité et de la permanence, supposée présente même lorsque nous ne la regardons pas
ou ne la sentons pas, se révèle tout autre aux moyens d’investigation puissants dont nous
disposons : elle manifeste des propriétés fugaces, difficilement tangibles, dont certaines sont
décrites par des ondes.
Or, l’histoire de la physique nous enseigne que les débuts de cette science peuvent
être situés il y a environ 2500 ans, avec les premières observations quantitatives sur les
oscillations des cordes de la lyre. L’envahissement de notre espace par les ondes ne s’est
donc pas produit soudain, mais au cours d’un long travail théorique et expérimental, parfois
ponctué de crises.
Intéressé dès mon enfance par les phénomènes élémentaires que je pouvais observer,
sensible aux beautés des mathématiques, de la musique, j’ai voulu plus tard me consacrer
à des recherches appliquées sur les ondes électromagnétiques, tout en développant mes
connaissances en physique fondamentale. C’est ce qui m’a permis d’entrevoir la continuité
du développement qui, initié par Pythagore, a tant contribué à la physique et aux techniques
modernes, et m’a donné le désir d’écrire les pages qui suivent.
**
Suivant la tradition, Pythagore (env. 570-480 av. J.-C.) découvrit que les longueurs de
cordes identiques qui émettent des sons consonants sont dans des rapports simples, par
exemple de trois à deux pour l’intervalle que nous appelons une quinte. Cette découverte
concernait des phénomènes chargés de beaucoup d’émotion. Sans doute a-t-on reconnu là
un phénomène de résonance : les émotions musicales sont en effet ressenties comme une
sorte de résonance de l’auditeur avec l’instrument ou avec celui qui en joue. Les nombres
ne sont pas non plus affectivement neutres ; ils ont toujours semblé chargés de propriétés
extraordinaires, voire magiques. Or, Pythagore découvrait par ses observations leur rôle
direct dans un phénomène éminemment sensible.
Ces rapports numériques constituent une propriété « moderne » par son caractère général
et quantitatif. De ce point de vue, rien de comparable ne devait apparaître avant longtemps
dans l’histoire des sciences. On ne trouve rien de pareil chez Aristote. Certes, Archimède
(287-212 av. J.-C.) conçut aussi des lois quantitatives : l’égalité de son propre poids et de
celui du volume d’eau qu’il déplaçait, les propriétés des leviers. Mais ce furent surtout Galilée
(1564-1642) et Kepler (1571-1630) qui, avec leurs lois sur le mouvement des corps,
inaugurèrent l’âge scientifique moderne.
À cette époque, l’acoustique connut également un renouveau spectaculaire. Toutefois,
les propriétés des oscillations sonores et des ondes qui les transmettent dans l’espace
ne constitueraient qu’un chapitre intéressant mais limité de la physique si l’analyse
mathématique n’avait révélé au XVIIe siècle leur parenté avec l’hydrodynamique et
les déformations des solides. Il se constituera sur cette base une physique théorique
qui permit de traiter de nombreux phénomènes peu à peu découverts, en particulier
électriques et magnétiques. Elle allait même, après 1860, prédire l’existence des ondes
électromagnétiques, et montrer que la lumière est de même nature.
L’optique et l’électromagnétisme réunis constituaient désormais l’un des deux versants
de la physique fondamentale, l’autre groupant la mécanique et l’étude des propriétés de la
matière. La physique au sens large avait été jusque-là dominée par les propriétés et les
mouvements des corps, et en particulier des astres, celle des ondes couvrait dès 1900 un
vaste territoire. Mais les efforts pour réunir ces deux versants étaient restés vains.
En outre, alors que les mouvements des corps sont immédiatement perceptibles, et
que la nature des ondes sonores fut comprise de bonne heure comme un mouvement de
vibration de la matière, la nature des ondes électromagnétiques restait mystérieuse. En
particulier, on appelait éther le milieu dans quel elle se propage, mais on n’avait attribué
aucune propriété précise à ce milieu.
Au début du XXe siècle, les propriétés de la lumière furent avec la radioactivité l’objet
essentiel de la physique fondamentale pendant plusieurs décades. Cette dernière connut
plusieurs crises graves, puis de grandes unifications conceptuelles, pour aboutir aux
extraordinaires développements théoriques dont chacun entend parler, et aux innovations
techniques qui modifièrent peu à peu notre existence.
On sait généralement que la première crise fut résolue par la théorie de la relativité entre
1905 et 1920. Des physiciens cherchaient à déterminer les propriétés de l’éther. Einstein
raisonnait différemment et cherchait à se représenter ce qu’il observerait s’il pouvait
voyager assis sur un rayon de lumière. Les premiers firent des expériences probantes qu’ils
ne pouvaient expliquer. Einstein aboutit, comme chacun sait, à une nouvelle conception de
l’espace et du temps. L’électromagnétisme et la physique de la lumière restèrent inchangés,
mais la mécanique fut profondément modifiée, quoique d’une manière qui n’apparaît qu’aux
très grandes vitesses.
La seconde crise survint à propos des propriétés optiques des atomes et molécules.
Les gaz chauds rayonnent ou absorbent de la lumière de certaines longueurs d’onde
caractéristiques des atomes qu’ils contiennent. Loin d’expliquer cette propriété,
l’électromagnétisme fournissait des prédictions absurdes. C’est en considérant ces atomes
comme les supports d’ondes d’un type inconnu, et de ce fait comparables aux cordes des
instruments de musique, que l’on parvint à fournir une explication. Mais il fallut abandonner
un principe qui avait régné sur la physique depuis Galilée : celui de la continuité dans
le temps et l’espace. Natura non facit saltus, a dit Leibniz. Ce principe dit que ce qui se
présentera à un instant ne peut différer beaucoup de ce qui s’est passé immédiatement
auparavant, que ce qui se passe ici ne peut être très différent de ce qui se présente dans
le voisinage immédiat. Néanmoins, depuis un demisiècle déjà, les gaz, les fluides et les
solides n’étaient plus considérés comme des milieux continus ni uniformes, mais comme
des ensembles de petits blocs de plusieurs sortes, tous identiques pour chaque sorte :
les atomes et molécules des différentes espèces chimiques. Plus récemment, la lumière
également était apparue comme corpusculaire. Mais les mouvements de toutes ces
particules étaient toujours considérés comme continus.
L’émission ou l’absorption de lumière fut attribuée à des changements internes
soudains et imprévisibles des atomes qui, autrement, restent dans un état de mouvement
immuable. Dans la nouvelle physique, l’instant de tels changements ne peut être prévu que
statistiquement, et le processus même du changement ne peut être observé pendant qu’il
se produit.
Le mouvement des particules, comme les résonances internes des atomes, fut compris
comme conditionné par la propagation de certaines ondes d’un type nouveau. Une
nouvelle et étrange mécanique fut développée. Elle renonça à une véritable description du
monde physique et se limita à prédire des probabilités, mais elle sortit de la crise avec un
pouvoir d’explication et de prédiction considérablement accru : elle fut à l’origine de toute
l’électronique moderne.
Les notions d’ondes d’oscillation ont joué un rôle fondamental dans cette évolution.
**
2
C’est de cette belle histoire que j’ai voulu tracer les différentes étapes sous plusieurs
aspects. Malheureusement, elle échappe généralement au public, parce que le
comportement des ondes est beaucoup moins intuitif que celui des objets ou même des
substances chimiques, parce que le fonctionnement des appareils électroniques est aussi
étrange que leur efficacité est évidente. Dans cet ouvrage, j’ai cherché à présenter les faits
de la physique comme un chercheur peut les percevoir. Un traité, une étude historique ou
les biographies des plus grands physiciens prennent des volumes. J’ai préféré rassembler,
dans la perspective composite qui m’est propre, des développements historiques,
biographiques, théoriques, parfois expérimentaux ou techniques qui m’ont paru marquants.
J’ai souvent favorisé un fait ou une personnalité peu connue. plutôt que de m’étendre sur
les plus célèbres. C’est pourquoi j’ai réservé une place particulière à Pythagore, qui a joué
un si grand rôle dans la civilisation occidentale, et qui est si peu connu malgré le grand
nombre de témoignages indirects qui sont parvenus sur lui ainsi que sur ses innombrables
disciples.
TABLE DES MATIÈRES
Cette histoire se veut en même temps une introduction à la physique quantique, souvent
réputée incompréhensible, mais omniprésente dans les techniques modernes. Beaucoup
d’aspects de cette physique si fertile restent obscurs, mais l’étude des ondes est une bonne
préparation à son étude.
Je m’adresse à des lecteurs de profils assez différents, plus ou moins versés dans
la physique ou les mathématiques. Mon expérience m’ayant montré que l’on est souvent
contraint d’écouter ou d’observer sans tout comprendre, j’ai supposé que le lecteur
peut accepter éventuellement de faire de même. Nous ne comprenons pas tous les
personnages lorsque nous lisons un roman. Le praticien utilise des traités qu’il ne comprend
généralement pas entièrement. Le lecteur acceptera peut-être de ne pas savoir utiliser, ni
même comprendre chaque formule mathématique présentée ici.
Les passages théoriques sont les plus difficilement accessibles, semblables à des pics
ou des cavernes plutôt qu’à des collines ou des replis de terrain. Mais je sais que d’assez
nombreux lecteurs seraient frustrés si on ne leur présentait pas au moins la forme que
prennent les lois, les théories, ce qui leur permet souvent de trouver une réponse aux
questions qu’ils se posent. J’ai cherché à ce que le texte garde un sens si l’on passe les
développements mathématiques, de façon que des lecteurs sans formation mathématique
puissent y trouver leur intérêt. C’est pourquoi on trouvera des passages, très élémentaires
à côté d’autres inaccessibles à d’assez nombreux lecteurs. L’index situé à la fin du livre doit
aider le lecteur à comprendre les concepts qui ne lui sont pas familiers
J’espère surtout avoir mis en évidence le sentiment sous-jacent et permanent au cours
des siècles d’un certain ordre de la nature, et de notre rapport avec elle.
J’espère aussi que le lecteur aura à la fin de cet ouvrage acquis une idée plus proche
et moins désincarnée de la science physique, dont les lois sont en constante évolution comme nous-mêmes ; qu’il éprouvera un plus grand sentiment de familiarité avec le monde
scientifique et technique ; enfin, que ces pages lui donneront envie d’en savoir plus.
Première Partie.
Chapitre 1.
Chapitre 2.
3
Des Grecs au Siècle des Lumières
De Pythagore à Newton
Les origines
Qui-était Pythagore ?
Pythagore et les cordes vibrantes
La résonance
Naissance de la science moderne
L’acoustique
La lumière
La réfraction de la lumière
Le premier « principe de minimum » de la physique
La vitesse de la lumière
La première conception ondulatoire de la lumière
Les débuts de la mécanique
Les oscillations, mesure précise du temps
6
6
6
6
9
9
10
10
12
12
12
13
14
15
16
La science newtonienne
Newton et la mécanique
Remarques sur les mathématiques
Le calcul différentiel et intégral
Technique de la dérivation
L’intégration
Généralisations
Les ondes et le calcul différentiel
Jean Le Rond d’Alembert
Regard sur la science après Newton
L’équation de d’Alembert
Vitesse de propagation des ondes
Les opérateurs
16
16
17
17
19
20
20
21
21
21
22
23
23
Chapitre 3.
Opérateurs linéaires, fonctions propres et valeurs propres
Une solution de l’équation de d’Alembert par les opérateurs linéaires
23
24
Oscillations et ondes
Multiples solutions de l’équation de d’Alembert
La propagation
Les ondes stationnaires ou oscillations
La phase
Qu’est-ce qu’une onde simple ?
Extensions de la théorie des cordes vibrantes
Les trois dimensions et les symétries
Le rayonnement
La phase et la distance
25
25
25
26
28
28
29
30
31
31
Chapitre 6.
Deuxième Partie.
Chapitre 4.
Chapitre 5.
La maîtrise de la lumière et de l’électricité
Fourier et les phénomènes périodiques
Jean-Baptiste Fourier
Différents espaces
Séries de Fourier dans un espace borné entre 0 et 1
Généralisation aux fonctions périodiques
Nouvelle généralisation : intégrales de Fourier
L’espace et le temps revus par Fourier
Restrictions à la validité de l’analyse de Fourier
Importance de l’analyse de Fourier
32
32
32
34
34
34
36
36
37
37
De Thomas Young à Max Planck
Lumière, électromagnétisme et physique des ondes
Les « interférences » ; l’expérience d’Young
Diffraction des pinceaux ou faisceaux lumineux
Le son, la lumière et les spectres de fréquences
Le spectre du « corps noir »
Lumière et Électromagnétisme
38
38
38
41
42
42
43
Électricité, magnétisme, ondes électromagnétiques
Prélude à la « théorie de tout »
Nouveaux effets électrodynamiques
La théorie électromagnétique
Une physique complète ?
43
44
44
46
46
Les oscillations et les ondes dans la physique et la technique
Généralités
La domestication des ondes électromagnétiques
Les résonances dans la technique
Le bruit
Diverses techniques de radioélectricité
Modulation et démodulation
47
47
48
49
50
51
51
De diverses ondes
Ondes élastiques dans les solides
Ondes de surface ; vitesse de phase et vitesse de groupe
Non-linéarités dans les ondes
Effets de lentille, ondes sismiques
Lentilles gravitationnelles
Ondes dans les plasmas
Les ondes lumineuses
La lumière à l’ère quantique : masers et lasers
Les hologrammes
52
52
52
53
53
54
54
54
55
55
Troisième Partie.
Chapitre 7.
4
L’âge quantique ou le monde décrit par des ondes
58
Retour aux particules et au discontinu
Propriétés étranges de la lumière des atomes
Planck introduit les quanta
La mécanique statistique
Einstein bombarde la matière avec des quanta de lumière
Retour à Pythagore
58
58
58
59
59
60
Chapitre 8.
Chapitre 9.
Les atomes, la quantification et les ondes
Niels Bohr quantifie les mouvements des particules
La mécanique quantique et la mécanique classique
L’École de Copenhague
Intervention de Louis de Broglie
Les ondes de de Broglie
Les ondes de de Broglie existent !
Comment être simultanément onde et particule
61
61
62
64
64
65
65
66
La mécanique quantique
Erwin Schrödinger et la mécanique quantique
L’équation de Schrödinger
Les nombres complexes
Séries de Fourier complexes
Intégrales de Fourier complexes
Les nombres complexes et les oscillations
Les nombres complexes et les ondes
La mécanique de Werner Heisenberg
Le « principe d’incertitude » de Heisenberg
Quelques chiffres
Dirac et Pauli
Particules et antiparticules en cosmologie
66
66
66
67
68
68
69
69
70
70
70
71
72
Chapitre 10. L’état quantique
Interprétation de la fonction d’onde Ψ
Un problème simple : l’électron réfléchi entre deux parois parallèles
Le principe de superposition et la mesure
Qu’est-ce que l’état d’un système quantique ?
Les transitions ; le temps quantique
Mort naturelle sans vieillissement
Incertitude sur la constitution d’un système
Le paradoxe du chat de Schrödinger
Le paradoxe « EPR » (1935)
Le théorème de Bell. L’expérience d’Aspect et la non-localité
73
73
74
75
75
76
77
78
78
79
80
5
Chapitre 11. Le monde quantique
La réduction de la fonction d’onde
La mesure suivant Bohr et la conscience
Au-delà du système de mesure
Statistiques, hasard, probabilités
Épilogue
Appendices
81
81
81
82
82
83
84
APPENDICE I.
APPENDICE II.
APPENDICE III.
APPENDICE IV.
84
84
87
89
Les grands noms de la physique des ondes
Sur le calcul différentiel
Les gammes et le chant des oiseaux
Transitions quantiques
CHAPITRE 1
DE PYTHAGORE À NEWTON
LES ORIGINES
Qui était Pythagore ?
Pythagore naquit vers 580 av. J.-C. à Samos, au large de l’actuelle Turquie, en Ionie,
pépinière de philosophes et penseurs. On a pu dire qu’il fut le fondateur de la philosophie,
des mathématiques et de la physique1. Il fonda une école, presque une religion, qui eut de
nombreux adeptes pendant des siècles, peut-être jusqu’à notre époque. Platon emprunta
beaucoup à cette école. Il est exact que la personne de Pythagore est partiellement
légendaire, mais sûr qu’elle est historique.
Pythagore fut, en tant que mathématicien occidental, précédé par Thalès de
Milet (env. 635-548 av. J.-C.), également célèbre dans nos écoles pour un théorème
géométrique. Partiellement ou totalement phénicien de naissance, Thalès voyagea en
Égypte et à Babylone. Il était connu pour ses explications des éclipses et des équinoxes.
Les mathématiques babyloniennes étaient très développées2. Elles comprenaient la
résolution des équations du second degré, mais l’art de la démonstration leur était à peu
près inconnu.
À l’inverse de Pythagore, Thalès était de tendance rationaliste, peut-être athée comme
son contemporain Hippon et, dit-on, démocrate. Il fut compté comme le premier des « sept
sages ». L’art de la démonstration semble avoir été inconnu à Thalès.
On n’a sur Pythagore que des renseignements indirects, mais leur nombre
considérable témoigne de l’immense influence que lui-même et ses disciples exercèrent3.
Ces renseignements sont tardifs et souvent épars, mais nous savons qu’il a existé des
témoignages détaillés, dont l’un aujourd’hui disparu, dû à Aristote (384-322 av. J.-C.). Il
se peut que les deux premiers livres des Éléments d’Euclide (450-380 av. J.-C.) viennent
directement des pythagoriciens. Comme cet ouvrage reste la base de l’enseignement de la
géométrie, on aurait encore là à notre époque un contact presque direct avec Pythagore.
PREMIÈRE PARTIE
DES GRECS AU SIÈCLE DES LUMIÈRES
6
1. Nous utilisons ici largement une courte mais intéressante étude sur Pythagore dans l’ouvrage de Singh,
qui s’est lui-même basé sur Leslie Ralph : Pythagoras, a short account of his life and philosophy, Krikos
1961.
2. Noreddine Mohammed, Histoire des équations algébriques, Diderot multimedia, 1998.
3. Voir Les présocratiques, édition établie par Jean-Paul Dumont, Bibliothèque de la Pléïade, Gallimard,
1988.
Il est sûr que Pythagore étudia les sciences des Égyptiens et des Babyloniens, que les
Grecs tenaient en haute estime. Il est à peu près sûr qu’il a visité l’Égypte, probablement
Babylone et même l’Inde.
Grands marins, les Grecs vivaient au contact de peuples très divers. Leur écriture est
d’origine sémitique ; ils furent soumis à de très fortes influences asiatiques, dont certaines
sont pour nous de nature « mystique », alors qu’ils sont pour nous les pères de la rationalité.
Le mythe d’Orphée, qui charmait les animaux et même les puissances infernales par sa
lyre, est un exemple de la sensibilité grecque d’alors : le charme agissait parce que la
musique a un pouvoir universel.
Après ses longs voyages, Pythagore revint à Samos, tombée entre temps sous la
coupe du tyran Polycrate, qui chercha à s’attacher le savant philosophe. Son dessein
était probablement de le neutraliser, car il avait des idées définies sur le gouvernement
de la cité. Pythagore se réfugia dans une caverne de l’île, et eut d’abord un seul disciple,
apparemment nommé aussi Pythagore, et que, initialement il payait lui même. Le disciple
devint fort brillant et, lorsque le maître jugea l’instruction terminée, le disciple demanda à
ce qu’elle soit prolongée à ses frais. Le maître voulut former une école, mais ses vues sur
l’organisation de la société le firent chasser.
Il se fixa à Crotone dans le sud de l’Italie, alors colonie grecque fertile en blé et également
féconde en penseurs. Il y trouva la protection du richissime athlète Milon. La réputation de
Pythagore dans le monde grec était déjà grande, mais celle de Milon la dépassait encore :
il avait été douze fois champion des jeux olympiques et pythiques ; de plus, il s’adonnait à
la philosophie et aux mathématiques.
Pythagore put alors établir une école, sorte de fraternité pythagoricienne, qui compta,
si l’on peut croire les chiffres, jusqu’à six cents membres adonnés à la réflexion et aux
mathématiques. Non contente de trouver des procédés de calcul, la nouvelle école
établissait des démonstrations, nouveauté qui deviendra l’une des caractéristiques de
notre civilisation. La découverte était que, ayant posé au préalable quelques définitions,
postulats ou axiomes, on peut en déduire de façon rigoureuse un grand nombre de vérités
ou théorèmes. C’est en ce sens que Pythagore peut être considéré comme le fondateur des
mathématiques.
Les membres de la communauté devaient lui faire don de toutes leurs possessions,
comme dans beaucoup de sectes, mais, s’ils la quittaient, on leur rendait le double de leurs
dons. La vie était austère, l’habillement devait être simple. Il y avait un certain nombre
d’interdits. La fraternité comportait quelques sueurs, dont la belle Theano, fille de Milon, que
Pythagore épousa. On pratiquait intensément la musique, en particulier la flûte.
La communauté était végétarienne. Certaines de ses prescriptions ont semblé étranges,
comme celle de ne pas manger de fèves, parce qu’elles ressemblent à des testicules. Cela
illustre la difficulté que nous avons à nous représenter l’esprit de cette époque.
L’éternité de l’âme et la métempsychose étaient parmi les fondements de la doctrine.
La métempsychose était cyclique. La notion de l’âme était sans doute très différente de la
nôtre. Elle était considérée comme une harmonie des êtres.
Les pythagoriciens avaient une vénération particulière pour Héraklès, intercesseur
auprès d’Apollon, dieu solaire, politique car bienfaiteur de l’humanité (Pythagore veut
aider les hommes), astronomique (les douze travaux d’Hercule renvoient aux signes du
zodiaque) et musical (Héraklès est le chef des Muses).
Les découvertes de la fraternité devaient, par serment, rester secrètes. Peu après la
mort de Pythagore, l’un des membres fut noyé pour avoir révélé à l’extérieur l’existence de
l’un des polyèdres réguliers, le dodécaèdre régulier, formé de douze faces pentagonales
régulières. En effet, les Pythagoriciens s’intéressèrent beaucoup aux cinq polyèdres
réguliers : le tétraèdre, le cube, l’octaèdre, le dodécaèdre et l’icosaèdre. Ils furent suivis en
cela par Platon.
Ces découvertes restaient en outre anonymes dans la communauté.
La règle du secret et l’anonymat expliquent que nous sachions si peu de chose
directement sur Pythagore et son école. Selon une tradition, Pythagore lui-même aurait
noyé un disciple qui avait révélé à l’extérieur l’existence des nombres irrationnels.
On croyait à cette époque à une différenciation des fonctions dans la société. Les
Pythagoriciens pensaient que les hommes supérieurs se consacraient à l’étude de la
vérité. C’est chez eux que naquit le terme « philosophie », amour de la sagesse. Ils se
démarquaient aussi bien des politiques que des prêtres, et c’est bien ainsi que Pythagore
est le fondateur de la philosophie. Cela ne signifie pas que la communauté était refermée
sur elle-même : elle voulait agir sur la cité, ce qui provoqua de violents conflits à Samos,
puis à Crotone.
Les découvertes mathématiques furent considérables. Elles concernaient notamment
l’arithmétique, et notamment certaines propriétés des nombres auxquelles on attachait
volontiers une signification universelle, on dirait volontiers mystique, si le sens de ce mot
était bien défini. On s’intéressait par exemple aux diviseurs des nombres, sujet resté actuel,
mais les pythagoriciens cultivaient particulièrement les « nombres parfaits », c’est-à-dire
ceux qui sont égaux à la somme de leurs diviseurs. Le premier est 6 = 1 + 2 + 3, le second
est 28 = 1 + 2 + 4 + 7 + 14. Viennent ensuite 496, puis 8 128, et une suite apparemment
infinie.
Les pythagoriciens avaient aussi une sorte de vénération pour le nombre
10 = 1 + 2 + 3 + 4, forme considérée comme créatrice.
Ils firent une découverte majeure pour notre époque, et qui fut très difficilement
admise: il existe des nombres qui ne peuvent être représentés par un rapport de deux
entiers. Ils comportent donc un nombre infini de décimales. On les appelle irrationnels. Il
est facile de démontrer que la racine carrée de 2 (1,41421356237...) est irrationnelle. Une
définition rigoureuse de ces nombres n’en fut donnée qu’au IXe siècle. Encore cela ne
satisfait-il pas tous les mathématiciens. Il est en pratique impossible d’exécuter des calculs
7
comportant un nombre infini d’opérations avec la précision parfaite à laquelle prétendent
les mathématiques. On sait depuis le XIXe siècle qu’il y a infiniment plus de nombres
irrationnels que de rationnels.
De nos jours, Pythagore est surtout connu pour le très important théorème sur les côtés
des triangles rectangles. Si c est la longueur de l’hypoténuse, a et b celles des autres côtés,
on a : c2 = a2 + b2. Ce théorème possède des généralisations très puissantes, bases de la
théorie des mesures dans l’espace. Cette relation peut aussi être remplie par des nombres
entiers, par exemple 3, 4, 5. Il existe une infinité de groupes de trois entiers de ce type.
Ces éléments furent certainement rapportés par Pythagore de ses voyages, mais il leur
apporta un perfectionnement considérable : la démonstration, qui est pour nous l’essentiel
des mathématiques, par opposition aux techniques de calcul qui peuvent être purement
empiriques.
Si a et b sont égaux à 1, c est égal à la racine carrée de 2. Voilà donc une propriété
géométrique élémentaire qui introduit un nombre irrationnel, alors que les pythagoriciens
croyaient le monde régi par les entiers. Nous verrons qu’ils trouvaient au contraire dans
l’acoustique confirmation que la nature est régie par les nombres entiers.
C’est dans ce domaine que Pythagore fut le premier physicien « scientifique »,
expérimental et quantitatif.
Il fut également astronome. On dit qu’il maintenait que la terre est ronde et tourne autour
du soleil, deux mille ans avant Copernic. Sur le deuxième point, l’héliocentrisme, on verra
que sa conception était sensiblement différente de celle de Copernic.
Les notions de cette époque étaient encore empreintes de chamanisme, une vue très
globale ou « holiste » du monde, et Pythagore apparaît comme un chaînon entre ces
notions et la science démonstrative.
Il fut aussi un moraliste. On l’a décrit1 comme un philosophe essentiellement religieux,
à tendance mystique, mais aussi comme avant tout politique. Les moralistes et les saints
ont souvent des difficultés avec leurs contemporains, et Pythagore en connut à plusieurs
reprises. Il n’aimait ni les tyrans ni les démocraties.
Sa vie se termina, d’après certains, dans le trouble et la violence. Le tyran de la
ville proche de Sybaris, Telys, attaqua Crotone avec 300 000 hommes pour poursuivre
des réfugiés politiques2. Milon défendit Crotone avec 100 000 hommes, fut victorieux
(510 av. J.-C.) et détruisit Sybaris. Il l’aurait inondée en détournant le fleuve Crathis. Sur ce,
les Crotoniens se disputèrent le butin. Le peuple craignait que les Frères se taillent la part
du lion, et peut-être leur maître ou certains adeptes firent-ils des efforts dans ce sens. Cela
n’était pas conforme à leur doctrine, qui était de ne pas se mettre du côté des dominants
ni du cöté des dominés, mais d’observer et de comprendre. Peut-être cherchèrent-ils
néanmoins à étendre leur influence à la faveur des troubles.
Un certain Cylon, qui autrefois n’avait pas été admis dans la fraternité pour manque de
moyens intellectuels, prit la tête d’un soulèvement qui assiégea la maison de Milon et l’école
attenante. Il y mit le feu. Milon put s’enfuir, mais Pythagore périt dans l’incendie. Selon une
autre version1, Pythagore et ses disciples furent chassés de Crotone par les démocrates en
510 à cause de leurs tendances élitistes. Pythagore se réfugia à Métaponte, dans te golfe
de Tarente.
Philolaos de Crotone, pythagoricien qui naquit très probablement après la mort de
Pythagore, fut combattu par ses condisciples. On dit aussi que lui et un certain Hipparque
furent les seuls qui survécurent à un incendie allumé par Cylon à Métaponte2. Il se réfugia
en Lucanie, puis en Grèce à Thèbes, où il fonda une communauté qui n’était pas soumise
au secret. Il laissa des écrits signés qui sont en majeure partie perdus mais qui ont dû
se répandre assez largement : De la Nature et Les Bacchantes, sorte de cosmographie.
Philolaos fut probablement la principale source de nos connaissances sur le Pythagorisme.
Il eut une grande influence sur Platon et, avec plus de réserves, sur Aristote. Il fut peut-être
l’auteur du système pyrocentrique.
Dans sa physique, les quatre éléments étaient associés à quatre des cinq polyèdres
réguliers : le cube a produit la terre ; la pyramide, le feu ; l’octaèdre, l’air ; l’icosaèdre, l’eau.
Le dodécaèdre correspondait à la sphère de l’univers.
Voici une des versions de la cosmologie de Philolaos : c’est le feu qui occupe le centre
de l’univers. Autour du feu central tournent dix corps divins le ciel et, après lui, la sphère
des fixes ; les cinq planètes et le soleil, sous le soleil la lune, sous la lune la terre, et sous
la terre l’anti-terre, nécessaire pour qu’il y ait dix corps. Voilà comment on inventa déjà une
(grosse) particule par nécessité théorique au VIe siècle av. J.-C.
D’après Diogène Laërce, Philolaos périt assassiné car on croyait qu’il aspirait à la
tyrannie.
Même si une partie des doctrines pythagoriciennes est le fait de ses disciples, Pythagore
fut l’un des plus grands penseurs de l’occident, sinon le plus grand. Le présent ouvrage est
en un sens consacré aux prolongements de la pensée pythagoricienne. Celle-ci est plutôt
un mode de pensée universel, qu’il a exprimé avec une vigueur particulière, qu’une doctrine
personnelle.
En ce qui concerne la physique, les nombres ont été remplacés dans la science
moderne par des structures mathématiques plus évoluées, voire par des symétries qui ne
sont pas sans rappeler les polyèdres réguliers.
1. Voir Encyclopaedia Universalis.
2. Ces chiffres considérables font douter de l’exactitude du récit de Singh. Il est basé en partie sur Diodore
de Sicile, historien du premier siècle av. J.-C.
1. Je ne puis ici non plus me fier entièrement à la version assez détaillée de Singh ou de Leslie Ralph.
J’emprunte au chapitre de Bertrand Russell consacré à Pythagore dans History of the Western
Philosophy, 1946. Nombreuses rééditions et traductions.
2. Voir Les Présocratiques, Gallimard.
8
•
•
•
•
•
Pythagore et les cordes vibrantes
Nous en venons maintenant à la physique.
Les Grecs avaient identifié la consonance des intervalles musicaux que nous nommons
octave et quinte, ainsi que celle de leurs combinaisons la douzième, la quinzième. Il est
certain qu’ils avaient reconnu un phénomène de résonance aussi bien entre les cordes
des instruments de musique, qu’entre divers phénomènes naturels et les émotions des
hommes. Orphée avait le pouvoir d’agir par sa lyre sur les hommes, les animaux et même
sur les puissances de l’Enfer. Les Grecs avaient la notion forte d’un certain ordre dans
l’univers, et utilisaient à ce sujet le terme d’« harmonie ». Le terme signifiait primitivement «
jointure, assemblage », puis « accord, convention », enfin « juste proportion », conduisant
à tous les sens que nous lui donnons aujourd’hui.
Par exemple, si l’on accorde deux cordes à l’unisson, et que l’on veut obtenir sur la
seconde un son qui sonne bien avec le premier, il faut modifier sa longueur dans un rapport
simple. Si l’on veut obtenir une quinte, il faut réduire la seconde corde de 1/3. Pour un
intervalle de quarte, de ut au fa supérieur, ou de sol à ut, il faut que les longueurs soient
dans le rapport 4/3. La corde la plus longue donne le son le plus bas.
Les instruments modernes permettent de modifier aisément la longueur active de la
corde sans modifier sa tension : les violons, la guitare permettent d’obtenir toutes les notes
au-dessus de celle qu’elles donnent à vide, en limitant la longueur utile entre un doigt et
le chevalet, la partie située entre le doigt et la cheville n’étant pas excitée. Les rapports
ci-dessus permettent de déterminer la place des doigts, que l’instrumentiste sait trouver
d’instinct ou à l’aide des sillets sur la guitare.
Les intervalles caractérisés par des rapports inférieurs à 6/5 ne sont pas reconnus
comme consonants à notre époque, quoiqu’ils soient très fréquemment utilisés. Nous nous
délectons de la tierce, qui fut encore considérée comme dissonante au moyen âge, alors
que l’on avait préféré jusque-là l’octave et la quinte, qui nous donnent une impression de
vide. Quoi qu’il en soit, les pythagoriciens définirent les gammes musicales par des rapports
mathématiques.
En effet, allant plus loin, on définit de nouveaux intervalles par des combinaisons
d’intervalles établis. Ainsi, l’intervalle de tierce mineure, qui est de 6/5 suivant les données
ci-dessus, est obtenu en retirant une tierce majeure d’une quinte. La loi est qu’il faut traduire
les intervalles par des rapports et non pas des différences:
(3/2) / (5/4) = 12/ 10 = 6/5
De la même manière, on obtient un ton en soustrayant une quarte d’une quinte, ce qui
s’écrit, toujours en rapports:
(3/2) / (4/3) = 9/8
Cette magie des nombres et de leur correspondance avec un art aussi puissant
émotionnellement que la musique fit une impression d’autant plus profonde qu’elle fut
nourrie par le développement prodigieux des mathématiques, des sciences exactes et de
leurs applications techniques.
Il faut apprécier la signification des lois pythagoriciennes. On peut se demander si elles
concernent de façon fondamentale la structure de l’univers, car les instruments de musique
ne se trouvent pas dans la nature. Ils sont fabriqués par l’homme, avec des cordes aussi
homogènes que possible. C’est donc notre propre création que nous étudions là, et où
Les philosophes antiques firent partie du monde chrétien jusqu’à la fin du XIIle siècle. En
1277, les évêques de Paris et de Canterbury condamnèrent 216 propositions d’inspiration
averroïste ou aristotélicienne défendues par l’Université.
La résonance
Dans le sens général, le phénomène de résonance est la réaction particulièrement forte
d’un être ou d’un objet à certaines manifestations d’un autre être ou objet. Il a probablement
évoqué pour les Grecs les émotions diverses que suscitent certaines musiques ou même
certaines combinaisons élémentaires de sons. Il prend un sens très précis pour les
phénomènes vibratoires : la vibration d’une corde met en vibration des cordes du voisinage
accordées sur certaines notes, de même que la balançoire prend une amplitude très forte
si l’on la pousse « en cadence ».
On attribue à Pythagore la découverte que la « juste proportion » est, dans le cas des
instruments de musique à cordes, effectivement une proportion numérique simple. La
correspondance entre les nombres et les phénomènes naturels était depuis longtemps
établie par l’astronomie, mais les nombres impliqués dans cette science ne sont pas
simples. Les propriétés des cordes introduisent des entiers simples et suggèrent que
l’univers est conforme à une raison mathématique dont l’harmonie musicale est l’expression
la plus évidente. C’est ce que, suivant Molière, Monsieur Jourdain apprit de son maître de
musique, et c’est la conception platonicienne des êtres géométriques comme « idées »,
qui est encore fort répandue, notamment chez ceux qui cherchent une expression
mathématique unique de toutes les forces de l’univers.
Voyons donc plus en détail quelles sont les observations qui ont servi d’amorce à un
courant de pensée si puissant.
Si l’on cherche à obtenir une série de sons consonants avec deux cordes de même
nature et de même tension, on trouve qu’il faut leur donner des longueurs dans des rapports
simples, par exemple
de 1 à 2 pour l’octave
de 2 à 3 pour la quinte
de 3 à 4 pour la quarte
de 4 à 5 pour la tierce majeure
de 5 à 6 pour la tierce mineure.
9
nous trouvons des proportions en nombres simples. Nulle part dans la nature, on n’a trouvé
de cordes vibrantes, ni d’ailleurs de nombres simples, sans l’intervention de l’homme.
Quinze cailloux trouvés sur la plage ne sont pas le nombre quinze. Les oiseaux, qui sont
d’excellents musiciens, n’ont pas découvert par eux
mêmes ces intervalles magiques d’octave, quinte, tiercé ; certains lés ont appris dé nous
; la plupart lés ignorent.
Alors que nous croyons déchiffrer l’univers, c’est nous-mêmes que nous regardons
dans un miroir.
Mais il né faut pas pousser la modestie trop loin : toute cette démarché est créatrice.
C’est bien là une caractéristique essentielle dé l’homme. Et, après tout, l’homme est
créateur parce qu’il est une partie dé la nature, qui est créatrice.
Galilée (1564-1642) fit beaucoup d’observations fondamentales, relatées et discutées
dans ses « Discorsi e dimostrazioni matematiche intorno a due nuove scienze attenenti
alla meccanica e i movimenti locali », publiés à Leyde en 1638. Il perçut le son produit
par les cordes comme une oscillation comparable à celle du pendule et il introduisit la
notion de fréquence : si les sons sont plus ou moins aigus, c’est qu’ils correspondent à
des oscillations régulières à différentes fréquences. La fréquence est le nombre d’allers
et retours par seconde, par exemple 440 pour le « la » de notre diapason officiel. Elle se
compte en « Hertz » ou oscillations par seconde. La fréquence est l’inverse de la période T,
durée d’un aller et retour (T = 1/f).
Galilée observa que la fréquence d’un système oscillant ne dépend pas de l’ampleur ou
plutôt amplitude de son mouvement. Il est exact qu’elle dépend très peu de l’amplitude tant
que celle-ci est petite. Il conclut qu’elle n’en dépend pas du tout, « même pour les grandes
amplitudes ». Nous attribuons à tort à Galilée la découverte de l’isochronisme des petites
oscillations. Ses mesures de temps étaient très imprécises, et il avait une tendance à la
généralisation, ce qui est un des principes de la science : si l’on ne généralisait pas, on ne
pourrait jamais rien prévoir.
L’étude des petits mouvements ou perturbations est devenue une des approches
principales de la physique théorique, l’approche linéaire. Mais Galilée n’était pas parvenu
au point où l’importance de cette démarche pouvait se révéler.
On pourra vérifier les éléments numériques que nous avons donnés sur une guitare ou
un violon. Sur une corde de sol, par exemple, on obtiendra la série de notes suivante en
faisant résonner successivement la corde, sa moitié, son tiers, etc. :
sol
sol
ré
sol
si
ré
L
L/2
L/3
L/4
L/5
L/6
On peut aussi bien mesurer la longueur de la corde pour chacune de ces notes, c’est-àdire la distance du doigt ou du sillet au chevalet.
Une expérience équivalente consiste à mesurer la longueur des tuyaux des instruments
à vent. Elle ne peut être faite sur une flûte, car il existe un effet de trou qui fausse les
longueurs, mais sur les tuyaux d’un orgue, ou sur la note grave de diverses flûtes.
Robert Fludd (1574-1637), alchimiste anglais, entretint une controverse avec Johannes
Kepler (1571-1630) au sujet du « monocorde cosmique ». Sur une gravure du temps,
l’unique corde de l’instrument, accordée par la main de Dieu, est divisée conformément
aux notes de deux octaves. Les intervalles inférieurs correspondent aux quatre éléments
traditionnels : terre, eau, air, feu. Puis viennent la Lune, Mercure, Vénus, le Soleil, Mars,
Jupiter, Saturne, la voûte des étoiles, et des espaces supérieurs. Les rapports simples
des intervalles musicaux sont ceux reconnus par Pythagore, mais la comparaison avec
les rapports des orbites des planètes, nécessaire pour obtenir une vue globale de
l’Univers, est lointaine. Dans la mesure où les alchimistes cherchent une analogie entre
des phénomènes différents grâce à des rapports mathématiques, leur démarche est déjà
celle de la science classique.
NAISSANCE DE LA SCIENCE MODERNE
L’acoustique
L’importance considérable donnée par lés Grecs à la musique fut conservée dans
la philosophie et lés religions au moins jusqu’à la Renaissance. On a donc beaucoup
dé traités sur la musique. Diverses gammes légèrement différentes furent proposées et
utilisées, souvent avec l’idée dé trouver la seule bonne, et par là dé trouver une clé dé
la compréhension dé l’univers et dé la placé que l’homme y occupé. En même temps, on
cherchait des rapports numériques dans d’autres phénomènes naturels, et lés périodes
ou lés orbites dés planètes étaient un champ dé recherches activés. Kepler (1571-1630)
tira dés observations astronomiques dé Tycho Brahé (1546-1601) lés trois lois qui portent
son nom. Elles sont lés basés sur lesquelles Newton devait établir la loi dé la gravitation et
confirmer celle dé la dynamique1. Mais, dans ses ouvragés dé 1609 et 1619, l’importance
est donnée aux rapports entré lés orbites qu’il crut avoir trouvés après beaucoup d’efforts et
qu’il interpréta comme l’harmonie céleste, la clé dé l’univers.
1. Voir en particulier Jean-Marie Vigoureux, Les pommes de Newton, Diderot Multimedia,1997.
Dans l’ouvrage cité, Galilée décrit de façon correcte comment la fréquence f dépend
des caractéristiques de la corde : elle est inversement proportionnelle à sa longueur L et à
la racine carrée de sa masse linéique ρ (tant de kilogrammes par mètre de corde, dans nos
unités internationales actuelles), et proportionnelle à la racine de sa tension F, qui est une
force, exprimée maintenant en Newtons ; cette unité vaut environ (le poids à la surface de
la terre d’une masse de) 102 grammes.
Ces règles s’expriment par la formule suivante, à condition d’introduire un coefficient,
supposé ici universel, que nous désignerons par a :
10
Il utilisa systématiquement la notion de fréquence pour l’analyse de la musique, ce que
nous pouvons préciser en reprenant le tableau des longueurs des cordes consonantes déjà
donné à propos de Pythagore, en ajoutant cette fois les fréquences:
sol
sol
ré
sol
si
ré
L
L/2
L/3
L/4
L/5
L/6
f
2f
3f
4f
5f
6f
La grandeur f varie selon la corde, conformément à la formule donnée cidessus. La
propriété importante est que non seulement ces rapports simples donnent des intervalles
consonants, mais aussi que cette série de sons peut être obtenue avec une seule corde :
ce sont les sons harmoniques.
Les intervalles successifs sont : octave, quinte, quarte, tierce majeure, tierce mineure.
On passe à l’octave supérieure ou inférieure1 en divisant ou en multipliant la longueur
de la corde par 2. L’intervalle d’octave entre deux notes est considéré comme tellement
consonant que l’on donne le même nom aux deux notes en question.
Si la note grave ou son fondamental est le sol grave du violon, f vaut 440/(9/8), soit
environ 391 par seconde, on dit 391 s-1 ou 391 Hertz. La fréquence est donc caractéristique
de la note, dont le nom est indépendant des autres caractéristiques de l’instrument telles
que dimension, timbre ou sonorité.
Galilée, bon musicien, considère les intervalles musicaux d’octave et de quinte
exclusivement, conformément à la stricte tradition pythagoricienne, alors que la gamme de
Zarlino et même la gamme tempérée étaient déjà proposées de son temps.
L’abbé Marin Mersenne (1588-1648), de l’ordre des minimes, était le condisciple et
l’ami fidèle, parfois encombrant, de Descartes. Théologien, philosophe, mathématicien,
physicien, il était partisan du travail scientifique collectif. Il fut le correspondant scientifique
de nombreux savants, dont Hobbes, Gassendi, Fermat, Galilée, Torricelli, Beeckmann. Il
fonda l’Academia Parisiensis (1635), moule de la future Académie royale des sciences.
En tant que mathématicien, il attira l’attention sur la courbe dite cycloïde, la célèbre
roulette à propos de laquelle Pascal s’illustra. Bon expérimentateur, il étudia la résistance
des solides, l’écoulement des fluides, les instruments de musique et effectua en 1636 la
première mesure de la vitesse du son grâce à l’effet d’écho.
Le père Marin Mersenne (1588-1648) contribua considérablement à la création de
l’acoustique scientifique moderne. Aîné et ami de Descartes (15961650), théologien,
mathématicien, il était pratiquement le correspondant du monde scientifique européen, à
l’époque où il n’existait guère d’autres publications qu’orales ou épistolaires, et peu de
traités. Il accomplit un travail considérable sur les instruments de musique, en particulier
l’orgue, leurs principes, leur facture. Il semble qu’il connaissait les lois de la fréquence
des cordes avant la publication de Galilée. Il publia en 1636 un important traité Harmonie
Universelle. On voit sur le frontispice Orphée et sa lyre écoutée par divers animaux et il est
clair que Mersenne se situe partiellement mais consciemment dans la tradition grecque,
rattachée à l’orphisme et au pythagorisme. Il est évident qu’il désirait en même temps
perfectionner un instrument de glorification de son Dieu.
Calculer les fréquences des uts à partir de la fréquence du la et de l’intervalle de tierce
mineure.
Galilée et Mersenne n’avaient pas les moyens théoriques de déterminer le coefficient
« a » par le calcul, mais les mesures auraient montré que, exprimé dans notre système
d’unités ou dans tout autre système « cohérent », il vaut 1/2. Comme on utilisait des pouces
ou des pieds, des livres, bref un système qui n’est pas « cohérent », on ne pouvait pas
obtenir une telle valeur simple, indice de quelque processus simple, comme on le verra
plus loin.
Avec les tuyaux d’orgue, la relation est plus simple parce qu’ils sont tous remplis du
même air, indépendamment de leur diamètre ou même, à peu de choses près, de la
position géographique de l’instrument : f vaut environ 170/L pour les « jeux de fond », qui
sont de simples flûtes, et 85/L pour les « bourdons », dont une extrémité est fermée. L’ut 1
de 66 Hertz demande un tuyau d’environ 2,55 m. Il est nommé un tuyau de 8 pieds (8’).
Un thème d’inspiration orphique se retrouve jusque dans le frontispice de l’Harmonie
universelle (voir illustration de couverture) de Marin Mersenne (1588-1648), l’un des plus
remarquables acousticiens de tous les temps. Cet auteur, moine de l’Ordre des Minimes,
a cité sous la gravure un extrait du Psaume 70 : « pour te célébrer, mon Dieu, et ta fidélité,
sur la cithare, je jouerai pour toi, Saint d’Israël. » (traduction TOB). Le Père Mersenne,
condisciple et ami fidèle de Descartes, fut le correspondant scientifique de toute l’Europe
avant les fondations de la Royal Society en 1660 et de l’Académie Royale des Sciences
en 1666.
Mersenne était un bon expérimentateur. Il fut le premier à déterminer la vitesse du son,
ainsi que les fréquences sonores.
11
1. Voir l’appendice III
La réfraction de la lumière
Sur un piano, on repérera les touches de la série de notes ci-dessus. On enfoncera
doucement celle de la note la plus basse, la fondamentale, de manière à soulever
l’étouffoir sans activer le marteau. On attaquera alors successivement les notes
supérieures de façon brève. À chaque fois, on entendra le son de la note frappée
prolongé par la corde grave : celle-ci est entrée en résonance. On vérifiera que
toute autre note frappée n’excite pas de résonance. On pourra aussi constater que,
réciproquement, les notes supérieures indiquées sont excitées lorsque l’on attaque la
plus grave.
Sur une guitare, il sera facile d’observer à l’oeil les oscillations d’une corde grave
lorsque l’on attaque de la même façon l’un de ses harmoniques sur une autre corde.
On voit facilement que la lumière se déplace en ligne droite, avec réfraction sur les
surfaces limitant des milieux différents. Un bâton oblique immergé partiellement dans l’eau
semble brisé. C’est ce phénomène que traita Descartes (1596-1650) dans sa « Dioptrique »
(1637), où l’on trouve la fameuse loi de la réfraction (découverte auparavant par le
Hollandais Willebrod Snell (15911626) dès 1621 mais non publiée) : un rayon lumineux
change de direction en passant d’un milieu transparent dans un autre, par exemple en
pénétrant dans l’eau ou dans le verre, et de même en sortant. Le changement de direction
s’effectue suivant une caractéristique de chaque milieu appelée l’indice de réfraction,
généralement désigné par n.
Peu de temps auparavant, les instruments d’optique étaient apparus : Hans Lippershey
(1570-1619) présenta en 1608 une lunette au parlement de Hollande. Le principe, qui
résulte de la combinaison de deux lentilles montées aux extrémités d’un tube, se répandit.
En 1609, Lippershey construisit le premier microscope par une autre combinaison de deux
lentilles. La lunette atteignit Venise en 1610 et Galilée en construisit immédiatement une
que, le premier, il utilisa pour l’observation astronomique. En quelques heures, il fit quelques
découvertes fondamentales : les montagnes sur la lune, deux satellites de Jupiter, les
phases de Vénus, la nature de la voie lactée. Il fallait que Galilée soit un expérimentateur et
observateur tout à fait exceptionnel. En effet, si ses lunettes atteignaient un grossissement
de 30, elles étaient très peu lumineuses, très sensibles aux vibrations, entachées de
déformations et d’aberrations chromatiques (irisation au bord des objets) et donnaient des
images secondaires par réflexion : une vitre laisse passer la lumière, mais présente aussi
un effet de miroir. Ces images secondaires sont faibles, mais elles faisaient dire que les
images étaient fabriquées par la lunette. Cette lunette avait comme oculaire une lentille
divergente, comme nos jumelles, et n’inversait pas l’image.
Galilée utilisait les lentilles de façon purement empirique, alors que l’astronome et
mathématicien allemand Johannes Kepler (1571-1630) décrivit en 1611 le télescope à
réfraction, formé de deux lentilles convergentes et donna une théorie de son fonctionnement.
Ces télescopes inversent l’image. C’est grâce à la courbure des surfaces vitreuses que la
réfraction peut faire converger différents rayons en un seul point et former une image.
Vers 1650, l’optique appliquée était bien développée et multipliait nos possibilités
d’observation, bien que la nature de la lumière elle-même fût ignorée.
Les violonistes utilisent ces propriétés pour obtenir les sons harmoniques, qui
appartiennent à la série ci-dessus. Sur chaque harmonique, la corde vibre sur plusieurs
fuseaux séparés par des points immobiles ou noeuds. Le nombre de fuseaux est donné par
l’ordre : 2 pour 2f, 3 pour 3f, etc. On illustrera plus loin ces divers « modes » d’oscillation
(fig. 2a). Elle peut vibrer sur toutes ces résonances à la fois et donner toutes les notes,
et c’est ce qui donne le « timbre ». Les très bons musiciens, et les accordeurs, peuvent
reconnaître les différents sons « élémentaires » émis par une corde. Ce mode d’oscillation
simultanée sur plusieurs notes sera appelé plus tard « superposition linéaire », et ce
sera une des clés de la théorie quantique, qui étudie les atomes, les molécules et autres
particules.
Une corde de piano qui donne le lai (442 Hertz) a une longueur de 30 cm et un diamètre
de 1 min. La densité de l’acier est dans le Système International de 7 700, soit 7 700 kg
par m3. Calculer la tension de la corde avec le coefficient a = 1/2. On obtiendra la valeur
en newtons.
La lumière
La lumière fut de tout temps un objet de fascination. Selon la Bible, ce fut la première
création d’Élohim. Euclide traita de l’optique (llle siècle av. J.-C.). Vers l’an 1000, Ibn
Al-Haytham (Alhazen) publia un traité de « dioptrique » qui traitait de la réfraction, des
propriétés des miroirs, bref de la marche des rayons (optique géométrique), mais les
conséquences pratiques, s’il y en eut, ne sont pas connues. En occident, la dioptrique fut
reprise principalement par Kepler, Snell, Descartes. L’idée que la lumière est vibratoire
apparut bientôt. Quoiqu’opposé à cette idée, Newton observât la dispersion de la lumière
par le prisme, qui fait sortir de la lumière blanche un morceau d’arc-en-ciel, y distingua sept
couleurs et les compara aux sept notes de la gamme. La dioptrique permit de construire de
nombreux instruments de plus en plus perfectionnés. La nature ondulatoire de la lumière ne
fut confirmée que vers 1800.
L’optique occupe une large place dans l’histoire des vibrations et des ondes.
Le premier « principe de minimum » de la physique
12
Sur le plan théorique, Fermat (1701-1765), auteur d’un fameux théorème qui ne put
être démontré que récemment’ apporta une remarquable contribution à l’optique. Pour
déterminer les trajets des rayons lumineux, il ne se contente pas de les suivre pas à pas
comme Kepler ou Descartes ; il considère une quantité qui caractérise tout le parcours d’un
rayon de lumière depuis son point de création M à celui d’observation N. Il pose en principe
que, parmi tous les parcours que l’on peut envisager, celui que suit le rayon lumineux rend
cette quantité minimale ou, dans certains cas, maximale. Cette quantité est maintenant
exprimée par l’intégrale :
un temps de révolution d’environ 42,5 heures. Les heures d’occultation sont parfaitement
connues à Greenwich ou à Paris. À Calcutta ou à Cuba, on peut savoir l’heure de
Greenwich en observant une occultation, ce qui permet de déterminer la longitude
locale et de dresser des cartes. C’est pourquoi les astronomes Cassini, Picard et Römer1
observèrent les mouvements de Io avec précision. Ils détectèrent des irrégularités
de quelques minutes, que Römer attribua au temps de propagation de la lumière. La
distance de la Terre à Jupiter pendant une opposition (positions T1 et J1 de la Terre et de
Jupiter), est plus courte que lors d’une opposition (positions T2 J2, 200 jours plus tard).
La différence est égale au diamètre de l’orbite terrestre.
où ds est un élément infinitésimal de longueur du trajet, et n l’indice de réfraction
locale, qui dans le cas le plus général varie suivant chaque point de l’espace. Fermat ne
connaissait pas le calcul véritablement infinitésimal de Newton et Leibniz. Il considérait une
suite de milieux d’indices ni, le rayon lumineux ayant dans chacun d’eux, entre les surfaces
réfractrices, une longueur si. La somme
La vitesse de la lumière fut déterminée pour la première fois en 1676 par l’astronome
danois Olaus Römer (1644-1710). C’était un événement très important, car on pensait
généralement que la propagation est instantanée. Louis XIV et Colbert avaient depuis
peu fondé l’Académie des Sciences et l’Observatoire de Paris. Ils attiraient les savants
étrangers, dont Jean Dominique Cassini (1625-1712), qui organisa l’Observatoire à partir
de 1671. On observa soigneusement les satellites de Jupiter, qui sont des horloges
naturelles visibles partout de la terre par beau temps et à certaines heures, et dont les
occultations derrière Jupiter se produisent à des instants assez précis. Cela fournit aux
marins, en l’absence d’horloges précises, un moyen de déterminer la longitude à laquelle ils
se trouvent. Olaus Römer, assistant de Cassini, trouva des irrégularités dans les mesures
et les interpréta de la manière suivante : la terre et Jupiter tournent autour du soleil à des
vitesses fort différentes et leur distance varie constamment. Elle est minimale lorsque les
deux planètes sont en conjonction, maximale lorsqu’elles sont en opposition, et un tracé
élémentaire montre que la différence est égale au diamètre de l’orbite terrestre. En divisant
cette distance par le décalage en temps, on obtient la vitesse de la lumière. Römer2 estima
le décalage à environ 11 minutes et en déduisit la vitesse d’environ 210 000 km.s-1. Les
valeurs sont plus proches de 16’40» et 300 000 km.s-1. Römer avait donc obtenu l’« ordre
de grandeur » et il avait établi un phénomène physique de première importance.
n1s1 + n1s1 + n1s1
est, suivant le principe, minimale pour le parcours effectif du rayon. Ce principe a
pour conséquence la loi de Descartes. Il jouera ultérieurement un grand rôle dans le
développement de la physique théorique. Il a souvent été compris comme un principe
d’économie de la nature, voire comme l’expression d’un certain finalisme. Il est lié au fait
que les lois de la dynamique n’ont pas de direction préférentielle pour le temps : en chaque
point, le rayon se comporte d’après ce qui va se passer jusqu’au point N (futur) aussi bien
que d’après ce qui s’est passé depuis le point M (passé).
La vitesse de la lumière
Venons-en à la propagation. Il a été jusqu’ici question surtout d’oscillations, vibrations,
résonances. Les échos, le tonnerre montrent que le son ne se propage pas immédiatement.
Galilée tenta de mesurer la vitesse de la lumière en masquant des lanternes et conclut que,
si elle n’est pas instantanée, elle doit être très grande.
Le Danois Olaus Römer (1644-1710), élève de Erasmus Bartolin, fut distingué par
l’abbé Jean Picard (1669-1670), qui avait mesuré un arc de méridien entre Abbeville et
Paris en 1971, et qui se rendit au Danemark pour reconnaître les restes de Uranieborg,
l’observatoire de Tycho Brahé. Attiré à Paris, Römer donna la première détermination
de la vitesse de la lumière. Il retourna à Copenhague en tant que préfet de police,
chargé notamment de surveiller la prostitution et la mendicité. Cela ne l’empêcha pas
de construire vers 1702 le premier thermomètre à points fixes (congélation et ébullition
de l’eau), dont Fahrenheit eut connaissance, ainsi qu’une lunette méridienne pour établir
l’heure avec précision, et enfin un observatoire privé.
Figure 1. Mesure de la vitesse de la lumière
La mesure du temps devint fiable au XVIIe siècle, grâce aux horloges à balancier de
Huygens. D’autre part, les satellites de Jupiter sont d’excellentes horloges naturelles car
leurs occultations derrière cette planète sont parfaitement régulières. Le plus proche, Io, a
1
2
13
Remy Lestienne, Les fils du temps, causalité, entropie, devenir, Presses du CNRS, 1990.
Voir Astronomie, sous la direction de Philippe de la Cotardière, Larousse, 1994.
Le Hollandais calviniste Christiaan Huygens, personnalité ouverte et attachante, fut un
des fondateurs de la mécanique théorique et sut l’appliquer au perfectionnement des
horloges et des chronomètres. Grâce à une lunette perfectionnée, il observa la véritable
forme des anneaux de Saturne, son satellite Titan (1656), et la surface de Mars. Il formula,
inspiré par la mesure de la vitesse de la lumière par Römer, une théorie de la propagation
des ondes qui se retrouve jusque dans l’électrodynamique quantique. Il était l’un des dixneuf membres fondateurs de l’Académie Royale des Sciences fondée en 1666, qu’il quitta
à la promulgation de l’Édit de Nantes.
La première conception ondulatoire de la lumière
Francisco Maria Grimaldi (1618-1663), mathématicien, philosophe et astronome jésuite
de Bologne écrivit vers 1650 ce qui fut peut-être le premier traité d’optique physique, publié
en 1665 sous le titre Physicomathesis de lumine, coloribus et iride aliisque adnexis libri II1.
Dans ce traité, il défend une théorie ondulatoire de la lumière, déclare que la lumière
ne va pas toujours en ligne droite et décrit des expériences de « diffraction » sur une
tige et sur un instrument bien connu des opticiens et des spectroscopistes, le réseau. Le
grand chimiste et physicien anglais Boyle (1627-1691), précurseur de Lavoisier et premier
découvreur de la « loi de Mariotte », défendit l’hypothèse ondulatoire après avoir observé
les irisations des lames minces d’huile que l’on peut voir sur un sol mouillé. Celles-ci forment
parfois des anneaux concentriques colorés qui ressemblent aux « ronds dans l’eau », à part
le fait qu’ils sont immobiles.
Puis eut lieu la mesure de la vitesse de la lumière par Olaus Römer.
Entre temps, Newton fit de nombreuses expériences sur la lumière. Il répéta les
expériences de Grimaldi, mais n’en fut pas pour autant gagné à la cause ondulatoire. Sa
découverte de la décomposition de la lumière blanche par le prisme provoqua de grandes
discussions à la Royal Society, en particulier avec Robert Hooke (1635-1703). Newton en
garda une profonde amertume qui empêcha ou retarda toutes ses publications. Le traité
Opticks n’apparut qu’avec vingt ou trente ans de retard, en 1704.
Certaines des observations de Newton sont pour nous des preuves de la nature
ondulatoire de la lumière, en particulier les « anneaux de Newton », familiers à tous ceux qui
ont placé un négatif photographique au contact d’une plaque de verre. Newton préférait une
théorie de « l’émanation corpusculaire de la lumière ». Il y a là un a priori philosophique2. Il
se fondait aussi sur le simple que la propagation de la lumière est rectiligne alors que le son,
qui était reconnu comme une onde, contourne les obstacles. Les expériences sont souvent
difficiles à interpréter.
Cette position d’un homme si éminent freina l’étude physique de la lumière pendant plus
d’un siècle.
La mesure de Römer inspira à Christiaan Huygens (1629-1695) une théorie de la
propagation incomplète, qui devait néanmoins inspirer beaucoup de physiciens jusqu’à nos
jours. Pour lui, chaque point qui reçoit un signal d’une source lumineuse se comporte luimême comme une source pour ceux qui en sont plus éloignés. Lors de la propagation, il y
a donc une infinité d’ondes minuscules engendrées par tous les points de l’espace atteints
par l’onde. Par analogie avec le son, Huygens percevait clairement la lumière comme une
vibration, de nature inconnue bien sûr, correspondant à quelque mouvement des corps. Par
un argument géométrique, il produisit une construction géométrique pour expliquer que les
ondes élémentaires s’ajoutent exactement le long d’une propagation rectiligne en milieu
homogène, ce qui n’est pas le cas dans les directions latérales. Cette théorie lui permit
d’étudier la propagation dans des milieux très divers et non uniformes, et d’expliquer les
propriétés optiques étranges des cristaux.
Les ondes sont décrites comme des émanations de particules. Nous en retenons que les
points BbbhbG de l’onde sphérique émise en A émettent à leur tour des ondes sphériques
qui se composent pour former une nouvelle onde sphérique DCEF. On peut expliquer
la réfraction par une surface qui sépare deux milieux où la vitesse de propagation est
différente, et ainsi toute l’optique géométrique
La construction d’Huygens
1. Francisco Maria Grimaldi, Traité de la lumière, des couleurs et de l’arc-en-ciel et d’autres questions
connexes, en deux livres.
2. Émanation, du latin manare, s’écouler. Le dictionnaire nous apprend que l’émanatisme est une doctrine
indienne de l’émanation des principes des êtres à partir du principe divin, les principes émanés étant
inférieurs, et sources d’autres émanations. Cette doctrine fut reprise par la cabale, par Plotin, et
condamnée par le christianisme comme contraire au créationnisme.
14
Huygens eut d’autres pressentiments géniaux : il attribua les propriétés des cristaux à
une anisotropie due à leur structure atomique régulière. Son traité contient des diagrammes
qui sont probablement les premières représentations graphiques d’atomes, et en tire des
conséquences correctes.
où les propriétés sont différentes en chaque point, et où néanmoins celles des points voisins
sont liées mais différentes. Les techniques mathématiques qui l’ont permis sont connues
sous le nom de calcul différentiel et intégral. Comme elles furent inventées pour résoudre
des problèmes de mécanique, il nous faut faire une brève incursion dans le domaine de
cette science.
La « double réfraction » découverte en 1669 par le Danois Erasmus Bartolin dans le
spath d’Islande était pour Huygens la preuve de la structure anisotropique des cristaux,
qu’il expliqua par une structure ordonnée des atomes. Ce schéma, publié en 1690,
fut présenté à Paris dès 1678. C’est probablement la première représentation d’un
arrangement atomique qui garde toute sa valeur aujourd’hui. L’hypothèse atomique ne fut
pleinement admise qu’au début du XXe siècle.
Les débuts de la mécanique
Sur le plan expérimental, le renouveau de la mécanique s’appuie sur les travaux de
deux expérimentateurs géniaux.
Le Danois Tycho Brahé (1546-1601) fit, avec des instruments de principe élémentaire,
des observations sur les mouvements des planètes suffisamment précises pour mettre en
défaut la théorie de Ptolémée (Ile siècle ap. J.-C.). Cette théorie était utilisée depuis des
siècles pour les prédictions astronomiques.
Galilée (1564-1642) étudia, de façon quantitative, la chute des corps. On lui conteste le
titre de fondateur de la méthode expérimentale, mais il est sûr qu’il en fut un pionnier, qu’il y
excella et qu’il sut allier ses résultats de mesure à ses mathématiques assez rudimentaires.
Ses observations astronomiques apportèrent peu sur le plan quantitatif. D’ailleurs, il ne
reconnut pas la valeur de celles de Tycho Brahé. Sa mécanique est donc principalement
terrestre.
Le point important pour nous ici est que Galilée sut rendre compte d’un mouvement à
vitesse variable : Il découvrit que la vitesse d’un corps en chute libre est proportionnelle au
temps écoulé. On appelle accélération la variation de vitesse par unité de temps. Dans la
chute libre, résistance de l’air mise à part, l’accélération est constante. Comment peut-on
alors calculer exactement de quelle manière varie l’espace parcouru en fonction du temps?
Galilée résolut ce problème par un procédé graphique. Si le temps est compté depuis le
départ au repos, l’espace parcouru est proportionnel au carré du temps. Ces travaux furent
publiés de 1602 à 1609, juste avant l’apparition de la lunette astronomique.
Sur le plan théorique, ce fut Johannes Kepler (1571-1630), mathématicien, astrologue
et astronome, philosophe et physicien, qui au prix d’un travail de calcul inhumain, tira des
mesures de Tycho les trois lois fondamentales qui portent son nom :
Structure d’un cristal, d’après Huygens
Il attribua également l’émission de la lumière à des mouvements désordonnés des
particules dans les corps chauds.
On peut comprendre d’après cette figure comment les rayonnements des points d’une
bougie se superposent pour former un « front d’onde ».
Rayonnement lumineux d’une flamme, d’après Huygens
Mais il semble que personne ne s’avisa alors qu’une onde peut se représenter
mathématiquement comme une alternance de quantités positives et négatives, comme
peuvent le suggérer les crêtes et les creux des vagues. Il peut y avoir dans certaines
directions une addition de toutes les ondes partielles des deux signes, et dans d’autres
une annulation : cela explique la « diffraction » observée par Grimaldi. On aurait pu ainsi
anticiper de plus d’un siècle la démonstration de Thomas Young (1802).
Complétée par cette notion mathématique, la conception de Huygens est devenue l’une
des plus importantes de la physique. Elle est restée jusqu’à nos jours un mode de pensée,
base de beaucoup de raisonnements en physique des particules.
Pour analyser la propagation avec efficacité, il fallait pouvoir traiter des milieux continus,
15
– les planètes décrivent des ellipses dont le soleil est un foyer (1609) ;
– les rayons qui les relient au soleil balaient des aires égales en des temps égaux (1609);
– les cubes des grands axes des ellipses parcourues par les planètes sont proportionnels
aux carrés des temps de révolution (1619).
La première loi était aussi révolutionnaire que la théorie de Copernic car elle éliminait les
combinaisons de cercles complexes avec lesquelles Ptolémée décrivait les mouvements
des planètes. Or, les cercles étaient depuis les Grecs symboles de perfection et ce qui était
céleste ne pouvait être que parfait. Il a été pour Kepler très difficile, tant sur le plan du calcul
que sur le plan spirituel, de se résoudre à admettre une courbe aussi impure que l’ellipse.
La loi de la chute des corps aussi bien que les lois de Kepler introduisent des mouvements
relativement complexes. Les mathématiques de Kepler et Galilée étaient insuffisantes.
Newton, s’appuyant sur ces travaux de mécanique ainsi que sur les outils mathématiques
développés par Descartes, accomplit le pas de géant dont les conséquences transformèrent
la science occidentale.
CHAPITRE 2
LA SCIENCE NEWTONIENNE
Les oscillations, mesure précise du temps
NEWTON ET LA MÉCANIQUE
Descartes (1596-1650), Huygens (1629-1695), Leibniz (1646-1716) firent aussi
d’importantes contributions à la mécanique. En particulier, Huygens fournit l’expression
de la force centrifuge, corrigea l’énoncé de Galilée sur les oscillations en le limitant aux
petites oscillations. Il construisit des horloges d’une précision considérablement améliorée,
synchronisées sur un balancier, puis sur un oscillateur à ressort spiral. Ce principe, qui fut
utilisé dans nos montres jusqu’à l’invention du transistor, amena un progrès considérable
dans la mesure du temps. Les conséquences pour la navigation furent importantes. Huygens
fit aussi quelques observations astronomiques ; il découvrit la structure en anneaux de ce
que Galilée avait décrit comme des « anses » de Saturne.
Huygens était assez différent des autres savants. Comme Descartes et Leibniz, il
voyagea et séjourna à l’étranger, rencontra beaucoup de savants. Mais il n’avait pas
comme la plupart d’entre eux un caractère difficile. Galilée aimait la polémique et se
plaisait à ridiculiser ses adversaires, trait qui ne contribua pas dans une petite mesure à
ses célèbres malheurs, ajouté à la haine et la mauvaise foi de certains de ses adversaires,
aux circonstances politiques, enfin à la nouveauté du mode de pensée qu’il proposait.
Descartes était généralement fort civil, mais ne croyait qu’en lui-même1. Tous les
témoignages représentent Newton comme extrêmement ombrageux et méfiant. Huygens
savait au contraire reconnaître les mérites des autres, même s’il était en complet désaccord
avec eux sur certains points essentiels. Il rejetait la théorie corpusculaire de la lumière
à laquelle Newton était si attaché, mais il reconnaissait publiquement la valeur de ses
travaux sur la composition de la lumière. Il donnait de la loi de la réfraction une explication
différente de celle de Descartes, mais correcte, et reconnaissait la valeur des contributions
du philosophe français en physique, sensiblement plus modestes que les siennes.
Huygens (1629-1695) fut le plus grand physicien du siècle après Newton. Il fut un des
premiers membres de l’Académie des Sciences française. Protestant, bien qu’invité à
rester, il partit lors de la révocation de l’Édit de Nantes.
1. Geneviève Rodis-Lewis, Descartes, Calmann-Levy, 1995.
Newton fit la jonction entre le ciel et la terre, entre la mécanique céleste de BrahéKepler et la mécanique terrestre de Galilée, comme l’illustre l’épisode de la « pomme de
Newton ». C’est l’« attraction universelle » qui permit cette jonction. Cet épisode est peutêtre légendaire, bien que confirmé par la nièce de Newton, Catherine Barton, mais il résume
bien l’acte inventif qui permit cette jonction.
Sur le plan mathématique, un problème considérable se posait. On était amené à
considérer des forces de comportement assez variables : l’attraction terrestre uniforme
convenait pour la physique de Galilée, mais comment traiter les effets des forces de
gravitation qui changent partout de direction autour des planètes ?
Une certaine aide était fournie par la Géométrie de Descartes (1596-1650), parue la
même année que le Discours de la méthode, en 1637, quelques mois après Le Cid de
Corneille (1606-1684). Cet ouvrage étendit considérablement un certain domaine des
mathématiques : en représentant les courbes du plan par des équations algébriques, on
n’était plus limité par la droite, le cercle, les coniques. Cet outil était indispensable pour
décrire des phénomènes d’apparences très diverses. Descartes l’utilisa pour décrire
entièrement des figures géométriques par des équations. Newton l’utilisa pour décrire
entièrement une situation physique par des équations. Il établit les lois du mouvement
des corps, c’est-à-dire la mécanique, et les appliqua principalement à l’astronomie, plus
spécialement au système solaire, dans son ouvrage historique, Principes mathématiques
de la philosophie naturelles1. L’auteur étant dégoûté de publier à cause de critiques qui
lui avaient été adressées lors de ses exposés sur la lumière et sa décomposition par les
prismes, cet ouvrage ne fut publié qu’en 1687 par les soins diligents et désintéressés de
Halley, celui qui par ailleurs donna son nom à une comète dont il prédit assez exactement
le retour. Halley obtint sans peine l’« imprimatur » du président de la « Royal Society »,
Samuel Pepys, connu pour ses mémoires personnels très détaillés. Les « Principes
mathématiques » sont peut-être la plus grande création de l’esprit humain dans le domaine
scientifique.
Newton lui-même, professeur de mathématiques à Cambridge, était un personnage
très difficile, de l’aveu même de ses amis. Loin de se limiter aux sciences exactes, il était
16
1. Isaac Newton, Philosophiae naturalis principia mathematica, 1687.
intensément intéressé par l’astrologie, l’alchimie et la théologie. Dans cette matière, il était
unitarien1, et dut le cacher pendant toute sa vie.
Il était non seulement un mathématicien et un théoricien (ce qui est très différent)
exceptionnel, mais aussi un des grands expérimentateurs et constructeurs d’instruments
de l’histoire des sciences, notamment en optique. Il était avant tout physicien et ne vit guère
dans les mathématiques autre chose qu’un outil pour la physique.
On a toujours su qu’il se livrait des activités que nous qualifions d’extrascientifiques,
mais on a refusé de les connaître réellement, jusqu’à ce que le grand économiste J. M.
Keynes (1883-1946) publie une première étude sur ce sujet. On en a maintenant consacré
de nombreuses, et on a souvent adopté le point de vue que ces activités ont en fait été un
moteur pour sa contribution immense à la science moderne.
Les Principes sont à peu près totalement débarrassés de toute réflexion de tendance
mystique. Ils sont au contraire un modèle de la pensée des temps modernes. Ils sont basés
sur le calcul différentiel, mais la présentation est géométrique2 et de ce fait généralement
difficile à suivre pour un lecteur du vingtième siècle. Elle a naturellement été depuis
remplacée par la forme analytique : celle des équations.
À peu près en même temps que Newton, et indépendamment, le mathématicien,
philosophe métaphysicien et diplomate allemand Leibniz (1646-1716) inventait le
calcul différentiel et intégral sous une forme différente, équivalente, mais plus explicite
et plus souple. Les entourages intervenant, il en résulta une triste et violente querelle,
des accusations de plagiat qui n’étaient nullement fondées. On utilise maintenant
essentiellement le langage de Leibniz pour présenter le calcul différentiel et la dynamique
Newtonienne.
Newton commença par donner des définitions aussi claires que possible de la vitesse,
la masse, la « quantité de mouvements », qui est leur produit, la force d’inertie, la force
appliquée, la force centrifuge, le temps et l’espace absolus. Il énonça alors trois lois ou
principes du mouvement
Tout corps reste dans son état de repos, ou en mouvement uniforme en droite ligne, à
moins qu’il ne soit contraint à changer cet état par des forces qui lui sont appliquées.
C’est ce que l’on appelle le principe d’inertie, déjà énoncé par Giordano Bruno (15481600) et d’autres, puis par Galilée, sous une forme incorrecte, corrigée par Descartes3.
1. Newton rejetait le dogme de la Trinité, ce qui était particulièrement insupportable de la part d’un
professeur d’université. Il était probablement le seul professeur laïque à Cambridge.
2. Le lauréat Nobel Richard Feynman, David L. et Judith R. Goodstein ont présenté le raisonnement de
Newton dans The Motion of Planets around the Sun, W.W. Norton & Cy 1996, traduit par Marie Agnès
Treyer, Le mouvement des planètes autour du soleil, Diderot Multimédia, 1997.
3. Jusqu’à Descartes, on considérait le mouvement circulaire comme inertiel, c’est-à-dire libre ou naturel,
car les planètes se déplacent (à peu près) en orbites circulaires. Galilée ne croyait pas à l’attraction
gravitationnelle, déjà envisagée.
Tout changement de mouvement est proportionnel à la force motrice appliquée ; et il
s’effectue dans la direction de la droite suivant laquelle cette force est appliquée.
C’est la fameuse loi de l’accélération, f = mγ ou f = ma, suivant la notation préférée.
À chaque action est toujours opposée une égale réaction ; et les actions mutuelles de
deux corps l’un sur l’autre sont toujours égales, et dirigées en sens inverse.
C’est la loi dite de l’action et de la réaction.
Pour mettre en oeuvre des principes aussi généraux, ne spécifiant a priori aucune
disposition particulière dans l’espace, il fallut à Newton inventer cette technique nouvelle
de calcul qui allait devenir pour plusieurs siècles non seulement le langage préféré de la
physique théorique mais aussi l’un des principaux outils des mathématiques : le calcul
différentiel et intégral.
La physique des ondes est entièrement tributaire de cette méthode de calcul, qu’il s’agit
des ondes sonores, des vagues de la mer, des ondes de radio, de radar, de télévision, ou
de celles de la mécanique quantique.
C’est pourquoi nous invitons le lecteur à rafraîchir ses notions sur ce sujet s’il est besoin,
ou de faire un effort pour au moins en comprendre la nature, sinon pour le maîtriser.
Remarques sur les mathématiques
Une mathématique exacte pour décrire approximativement des phénomènes physiques:
c’est, direz-vous, ce que font constamment les mathématiques alors que l’on ne peut
additionner que des grandeurs semblables, on compte des carottes qui ne sont pas toutes
identiques, on mesure la surface d’un champ qui n’est pas plan, on parle d’un cylindre de
métal qui porte la trace de l’outil qui l’a façonné. Les êtres mathématiques ne décrivent
jamais exactement les situations auxquelles on les applique.
Une mathématique exacte prophétique? Pythagore avait-il vu juste? L’étude, si
superficielle soit-elle, de ces mathématiques exactes ne serait d’aucun intérêt pour le lecteur
de ces pages si elles ne décrivaient une réalité dont on découvrira plus tard des exemples,
dans les phénomènes électromagnétiques d’abord, puis dans la physique quantique ensuite.
Lorsque nous en arriverons là, nous pourrons nous demander s’il n’existe pas vraiment un
monde idéal à la Platon et des correspondances pythagoriciennes mystérieuses entre les
nombres et la réalité. Ces questions restent jusqu’à nos jours d’autant plus troublantes que
ces mathématiques idéales, loin d’être un simple jeu de l’esprit, sont la clé de la plupart des
techniques qui sont en train de changer la face du monde.
Le calcul différentiel et intégral
C’est pour lui permettre d’apercevoir les aspects mathématiques de la physique que
nous proposons au lecteur les pages suivantes sur le calcul différentiel et intégral, que vous
pourrez ignorer, ou bien parcourir, ou bien étudier d’une façon presque scolaire.
17
Les lois de Newton ne parlent que du changement de mouvement. Étant donné un
certain état, elles prédisent l’état qui suivra immédiatement.
Que veut dire « le mouvement qui suivra immédiatement » ? Comment définiton l’instant qui suit immédiatement le présent? Cette notion dérangea beaucoup de
mathématiciens et de philosophes dès le départ. On admettra facilement qu’une voiture
en pleine accélération, se déplaçant à un instant donné de 30 mètres en une seconde,
n’accomplira pas exactement un déplacement de 30 millimètres en 30 millisecondes, parce
que sa vitesse varie en général pendant la seconde considérée. On veut donc faire des
estimations dans les temps les plus courts possible, des cent millionièmes de secondes par
exemple. Pendant des temps aussi courts, on peut simplement faire des « règles de trois »
pour trouver les variations.
Le calcul différentiel et intégral définit comment effectuer ces règles de trois (technique des
dérivées) et comment on peut faire la somme des infiniment petits (techniques d’intégration).
Le terme « infiniment » est d’ailleurs impropre, on devrait dire : aussi petits que vous le
demanderez, mais en fait toujours finis, c’est-à-dire, précisément, pas infiniment petits.
Venons-en au formalisme. On considère des positions et des vitesses à des temps très
voisins, et qui ont donc des valeurs très voisines, ne diffèrent que par de petites différences,
que l’on nomme « différentielles ». On les caractérise en plaçant la lettre d devant le
symbole de la grandeur en question, par exemple dt pour une très petite variation de temps,
dv pour une variation de vitesse, dx pour une variation de position. Il ne s’agit évidemment
pas d’une multiplication par d.
Galilée avait compris une chose qui n’était certainement pas évidente à la plupart de ses
collègues : la vitesse d’un corps en chute libre varie constamment et elle s’obtient à chaque
instant en divisant un très petit espace parcouru par le temps correspondant. Comme la
vitesse varie pendant ce temps, l’opération n’est pas facile. Avec les conventions du calcul
différentiel, on peut écrire cette opération :
expliquées dans l’appendice II.
Ainsi s’explicite la définition de la force donnée par Newton : il considéra qu’elle est
proportionnelle à l’accélération qu’elle produit et à la quantité de matière accélérée, plus
précisément à une caractéristique de cette quantité, la masse, définie comme le produit de
la densité par le volume1 :
f=m×a
Comme le mouvement n’est pas en général rectiligne, il faut écrire une équation
semblable dans chacune des trois dimensions, avec trois composantes de déplacement,
trois de vitesse, trois d’accélération et de force, ce que résu- mera plus tard la notation
vectorielle, indiquée en plaçant des flèches horizontales au dessus de ds, déplacement le
long de la trajectoire, de composantes dx, dy, dz, ainsi qu’au dessus de v, a et f. La masse
reste un « scalaire » (nombre ordinaire) : elle n’a pas de direction ; celle-ci est contenue
dans la définition vectorielle des grandeurs :
L’introduction de ces notions galiléennes et newtoniennes représente des pas de
géants. Galilée rompait avec une culture en s’affranchissant des notions d’Aristote
officiellement admises, en l’espèce, de celle qu’une force accompagne nécessairement et
constamment tout mouvement. Newton donnait un sens précis à la force au moyen d’une
égalité, génératrice d’un procédé de calcul et d’une méthode de mesure2. Ce sera le modèle
de toute description de nouveaux phénomènes.
Par exemple, si l’on considère une route de montagne, on pourra appeler h l’altitude, s
la distance comptée le long de la route, en épousant ses sinuosités et on écrira :
dh = p × ds ; p =
v = dx/dt
ce qui définit la pente p dans des unités appropriées. Si p = 0,015 cela veut dire que la
route monte de 1,5 mètre sur 100 mètres. Mais si la pente augmente vite, comme au début
d’une côte, il vaudra mieux dire 1,5 centimètre pour 1 mètre et, si l’on est très pointilleux, 1,5
millimètre pour 10 centimètres. On voit pourquoi il faut en toute rigueur passer à la limite:
On appelle accélérations les variations de vitesse, et l’on définit la grandeur
« accélération », notée a ou γ, comme la variation de vitesse divisée par le temps
correspondant. Rien de plus facile avec la notation différentielle, quelle que soit cette
variation sur un temps prolongé. Ce que l’on écrit s’applique à un instant déterminé :
a = dv/dt
Pour combiner les deux opérations, il faut écrire :
a = d(dx/dt)/dt
Par convention, on note cette double opération :
a = d2x/dt2
d2x n’est pas un carré ; c’est une variation de variation de longueur. Au contraire, dt2
est un carré car on a divisé deux fois par un intervalle de temps. Ces distinctions sont
dh
ds
18
1. Je suis ici la formulation des collèges. Les énoncés de Newton, donnés plus haut dans notre traduction,
définissent la quantité de mouvement p = mv et expriment sa loi sous la forme f = dp/dt. Cette forme
est équivalente si la masse est constante, mais plus générale : elle s’applique aux fusées, qui éjectent
de la matière, et elle est correcte en théorie de la relativité. Il semble y avoir là une intuition géniale
de Newton. En tout cas, il préféra utiliser une variable dynamique, p, plutôt que a qui est une variable
cinématique.
2. Voir Cosmopolitiques /1, L’invention de la mécanique, I. Stengers, La découverte, les empêcheurs de
penser en rond, 1997.
à 20 mètres de distance, la pente peut être de 0,017. C’est ce passage à la limite que l’on
exprime en plaçant des d devant les symboles des grandeurs variables. En général, on
donne les pentes en pour cent ; dans l’exemple ci-dessus, on doit alors écrire p = 15 (%)
et, en général :
dh = 0,01 pds
On dit souvent que la dérivée est une pente, ce que l’on voit sur un graphique. Au sommet
d’une montagne douce ou à un col, l’altitude est maximale, la pente nulle. Au sommet même
d’un pic, la pente n’est pas définie, même si elle l’est sur les flancs immédiats.
Il faut maintenant savoir comment manier ces différentielles et ces dérivées. Elles
prennent leur sens grâce à la notion de fonction : les fonctions sont toutes les expressions
algébriques que Descartes a introduites dans sa Géométrie, et bien d’autres encore. La
variable peut être une coordonnée x, ou toute grandeur autre. On considère que le temps t,
disons la variable t peut prendre toutes les valeurs numériques, avec autant de décimales
qu’il faut, et qu’à chaque valeur correspondent des valeurs de x, y, z, et des composantes
correspondantes de v et a. On peut tracer des courbes de ces grandeurs en fonction de a.
On a vu que Galilée a trouvé que la hauteur de chute z d’un corps est proportionnelle au
carré du temps de chute, et sa vitesse proportionnelle au temps. On écrira :
z = c t2
– Lorsque l’on multiplie une fonction par une constante, sa dérivée est multipliée par la
même constante. On vient de voir un exemple de ce théorème.
– On montrera sans peine que la dérivée d’une somme de fonctions est la somme des
dérivées de ces fonctions.
– La dérivée d’une constante est évidemment nulle.
Pour donner une idée de la diversité des situations, le cas de la masse pendue au
ressort pourra être traité par les familiers de la trigonométrie élémentaire, ou à l’aide du
tableau ci-dessus des fonctions et dérivées. Partant de :
ils trouveront :
a = -(2πn)2 h cos 2π nt
2c = g
Suivant la dynamique Newtonienne, tous les corps sont soumis dans leur chute à une
force verticale f = ma = mg, qui est due à l’attraction gravitationnelle terrestre. Galilée
n’avait pu voir cet aspect de force. Il pensait que c’était une propriété intrinsèque des corps.
Dans le cas de l’oscillation, on trouve que l’accélération varie dans le temps comme la
position, mais avec le signe contraire et une proportionnalité au carré de la fréquence n.
L’accélération étant égale à la force divisée par la masse ; on trouve une caractéristique
des mouvements oscillatoires : ils sont dus à une force proportionnelle et de signe inverse
au déplacement.
Ces exemples montrent que le calcul différentiel peut fournir rapidement, sans calcul
numérique, des résultats importants dans une étude physique.
Voici quelques résultats de dérivation importants :
v=gt
z = h cos 2π nt
où n est la fréquence d’oscillation : le nombre d’allers et retours par seconde.
Technique de la dérivation
Si z est une fonction de t, il en est de même de dz/dt, que l’on appelle la dérivée de z par
rapport à t. Une autre fonction est d2z/dt2, dérivée seconde de z par rapport à t. Prenons le
cas de la chute libre de Galilée. On écrira, d’après les définitions des différentielles :
Un peu d’algèbre :
v = -2π nh sin 2π nt
Dans le cas de la chute, on trouve une relation entre les constantes:
où c et g sont des constantes. Pour un corps qui oscille, pendu au bout d’un ressort, on
aura :
z = c t2,
x = h cos 2π nt
z + dz = c (t + dt)2
dz = c (t + dt)2 - c t2 = c (2 t dt + dt2)
dz/dt=c(2t +dt)
Ici s’explicite le passage à la limite, qui est la variation infinitésimale comme les différentielles
doivent être prises aussi petites que l’on veut, on est en droit d’écrire :
dz / dt = 2 c t
On remarquera que la constante c est restée sans changement à son poste, continuant
à multiplier les grandeurs du monôme où elle se trouve.
Voilà la technique de dérivation. On en déduit trois théorèmes importants :
19
Suivant un des théorèmes énoncés plus haut, on peut ajouter à toutes les fonctions une
constante sans que les dérivées soient changées
points pourvus de masse. On développa ensuite aussi bien ces méthodes de calcul que leur
application à d’autres corps tels que les fluides et les fils. Ce fut l’ouvre de Leonhardt Euler
(1707-1783), des Bernoulli, tous suisses, et du Français d’Alembert (1717-1783).
Ces physiciens mathématiciens s’occupèrent notamment de la dynamique des fluides.
On considère les coordonnées X, Y, Z, de chaque élément, disons de chaque molécule
de fluide en fonction du temps, les composantes des vitesses u, v, w, en chaque point en
fonction du temps. Ainsi u, v, w, sont des fonctions de ces variables, que l’on ne suppose
pas nécessairement connues « a priori » et que l’on explicite seulement en écrivant :
L’intégration
Il n’est pas suffisant de trouver, comme nous l’avons fait, des propriétés générales
des lois, si intéressantes soient-elles. Les lois de Newton ont la simplicité, la généralité, la
beauté de la géométrie grecque, mais elles ne contiennent que les dérivées ou les dérivées
secondes des grandeurs qui nous intéressent : vitesses et positions. Il faut trouver les
fonctions dont elles donnent les dérivées.
Si une fonction quelconque de x, que l’on notera F(x), a pour dérivée f(x), on dit que F(x)
est une primitive de f(x). Si l’on ajoute une constante à F(x) on obtient une autre primitive
de x, car la dérivée d’une constante et nulle. L’examen de la situation physique permet
souvent de déterminer la constante ce sera par exemple la hauteur de laquelle on a laissé
tomber un corps. Lorsque la constante est fixée, la primitive devient une « intégrale ».
Le calcul intégral a la réputation d’être difficile. Il est possible, sur ordinateur, si l’on ne
cherche pas d’expression littérale de l’intégrale. Autrement, il est en général impossible:
il n’existe pas de technique permettant de trouver directement l’expression littérale de
la primitive d’une fonction. On prend donc un chemin détourné : on prend une table de
dérivées de fonctions connues, et l’on y cherche la dérivée à intégrer. En somme, on lit le
tableau cidessus à l’envers :
primitive
dX/dt = u = u (x, y, z, t)
dY/dt = v = v (x, y, z, t)
dZ/dt = w = w (x, y, z, t)
X, Y, Z sont les coordonnées d’un élément matériel, mais x, y, z sont des repères
géométriques qui ne sont attachées à aucun élément physique.
Par exemple, on étudie le courant d’une rivière. Le liquide a en chaque point une vitesse,
qui dépend de la position du point et éventuellement du temps. Les trois composantes de la
vitesse sont donc des fonctions de x, y, z, t, conformément aux trois équations ci-dessus.
On voudra trouver ou décrire comment varient ces composantes dans la section de la
rivière, perpendiculaire à x, axe principal d’écoulement. Pour cela, on calculera la dérivée
par rapport à y (ou x) en maintenant x (ou y) et z constants. Par convention, pour spécifier
qu’une seule variable varie, on écrit la dérivée avec des « dés ronds » :
fonction de x
Cela consiste donc à « inverser le problème », méthode souvent féconde en
mathématiques.
∂u
∂x
GÉNÉRALISATIONS
On développa ainsi le calcul par les « équations aux dérivées partees ». Par exemple,
on montre qu’un fluide incompressible, tel que l’eau, obéit à l’équation :
Ces méthodes possèdent une versatilité sans aucun rapport avec celle des formules
algébriques. C’est pourquoi elle permit à Newton aussi bien l’étude de la chute des corps
sur terre que celle des mouvements des planètes. L’explication des trajectoires elliptiques
des planètes introduites par Kepler restait un grand mystère. Newton la fournit : c’était
la force d’attraction universelle et sa variation inversement proportionnelle au carré de la
distance Il put de même prédire l’aplatissement de la terre aux pôles, expliquer les marées.
Toutefois, l’interaction de plusieurs planètes, qui obéit naturellement aux mêmes équations,
demanda et demande encore des perfectionnements considérables des méthodes
mathématiques. Les lois sont simples. Leur mise en oeuvre mathématique présente des
difficultés insoupçonnées.
Ces résultats ne cessèrent de provoquer l’enthousiasme et la foi dans la science, la
croyance dans le déterminisme, exaltée lorsque, en 1846, l’astronome Galle (1812-1910)
trouva la planète Neptune annoncée, sur la base de calculs, par Le Verrier (1811-1877).
On traita d’abord le mouvement de corps bien localisés que l’on peut assimiler à des
∂u ∂v ∂w
+ +
=0
∂x ∂y ∂z
Sous forme condensée, cette éuation s’écrit encore, par convention :
→
div V = 0
20
On lit : la divergence du vecteur V est nulle. En effet, on a vu que la vitesse peut être
représentée par une flèche, que l’on appelle alors un vecteur. La divergence d’un vecteur
est une propriété locale, c’est-à-dire valable au voisinage immédiat d’un point. C’est une
sorte de dérivée dans l’espace à trois dimensions (les grandeurs vectorielles ont plusieurs
sortes de dérivées). Elle désigne le flux qui sort d’un volume infinitésimal. On peut l’intégrer
et on obtient une propriété valable dans un volume. L’équation ci-dessus signifie qu’il entre
dans un volume autant de fluide qu’il en sort : la quantité de fluide contenue dans ce volume
ne varie pas ; cela traduit le fait qu’il est incompressible.
Pour un fluide compressible, un gaz, la densité ρ est aussi une fonction des quatre
coordonnées de temps et d’espace. Il faut alors utiliser l’équation :
manière, il parvint à étudier le droit, la médecine et les mathématiques, où il excella. Il
assimila rapidement les nouvelles méthodes de Newton et Leibniz. Il fut admis en 1741 à
l’Académie des Sciences. En 1743, il publia un traité sur la dynamique, branche principale
de la mécanique, puis un ouvrage d’astronomie.
→
∂ρ
div ρV = –
∂t
qui donne la variation de densité dans un volume lorsqu’il s’en échappe plus de fluide qu’il
n’en rentre, ou l’inverse : si la divergence est positive, du fluide s’échappe du volume, la
densité doit décroître et, en effet, on a alors :
Jean Lerond d’Alembert (1717-1783) fut l’une des grands esprits du XVIIIe siècle,
auteur du Discours préliminaire de la Grande Encyclopédie, véritable manifeste de l’esprit
des Lumières. Il fut aussi un grand mathématicien, il introduisit en mécanique un principe
fondamental, s’occupa de la mécanique des fluides et de la propagation du son, expliqua
les changements d’orientation de l’axe de la Terre. Il est considéré comme un des pères
de la physique mathématique. Cette gravure le montre sous un jour plus austère que le
célèbre pastel de Latour. Il était peu enclin aux disputes qui ne cessaient d’animer la vie
intellectuelle, en particulier en France, mais néanmoins ferme dans ses points de vue.
∂ρ
<0
∂t
La quantité de fluide est de nouveau conservée.
Cette équation est indispensable pour décrire la propagation du son dans l’air, puisque
la vibration s’accompagne de compressions et de décompressions locales.
Nous aurons à considérer les variations dans l’espace de la pression p. Ce n’est pas
un vecteur comme le déplacement et la vitesse, mais un scalaire, c’est-à-dire un nombre
ordinaire. Un scalaire possède trois dérivées spatiales, par exemple :
∂ρ
∂x
∂ρ
∂y
Dans ces ouvrages, il établit des théorèmes fondamentaux sur la conservation de la «
quantité de mouvements », les rotations et le « principe des travaux virtuels ». Il n’était pas
de la race des expérimentateurs et semble avoir eu peu de rapports avec ceux-ci, sauf avec
les astronomes. Il fut avec Denis Diderot (1713-1784) cofondateur de l’Encyclopédie, dont il
rédigea la préface et maints articles. Divers écrits traitent de philosophie, avec une position
sceptique, sans apport essentiel. Il était compétent en musique. Il refusa les invitations
de Frédéric de Prusse et de Catherine de Russie. Il fut admis en 1754 à l’Académie
Française.
Il avait un caractère ouvert et amène, dans un monde où l’on s’entre-déchirait
facilement.
∂ρ
∂z
Ce sont les trois composantes d’un vecteur appelé gradient que l’on note:
grad ρ ou encore : ∇ρ
Les ondes et le calcul différentiel
C’est d’Alembert qui le premier utilisa systématiquement les équations aux dérivées
partielles dans sa « Théorie générale des vents » (1745). Certains considèrent que c’est là
que naquit la physique mathématique.
De même qu’elle avait métamorphosé l’astronomie, la possibilité d’analyser en détail les
mouvements des moindres parcelles de matière donna à l’étude des fluides et à celles des
oscillations et de la propagation des ondes des moyens centuplés.
D’Alembert donna la première équation d’ondes, événement mémorable dans la
perspective de ce livre. Sa vie mérite qu’on lui consacre quelques lignes.
Regard sur la science après Newton
L’évolution de la science entre Newton et ses successeurs est tout autre qu’une simple
extension ou prolongement. Elle illustre le passage du XVIIe siècle au XVIIIe. On part
d’une conception encore globale et fortement pythagoricienne, voire orphique de l’univers,
et on aboutit pratiquement à l’optique déterministe qui prévalut pendant tout le XIXe siècle
et qui reste fortement enracinée au XXe. On a vu comment Newton put écrire ses ouvrages
physicomathématiques dans un style essentiellement moderne, alors que ses intérêts pour
l’alchimie, la généalogie, la théologie, impliquent qu’il concevait ses travaux comme une
explication d’une parcelle de la création, ce qu’il a clairement exprimé :
Jean Le Rond d’Alembert
Ce mathématicien et physicien fut l’un des principaux penseurs français du XVIIIe
siècle. Il eut une grande influence dans le monde des « philosophes ». Il naquit à Paris en
1717, fils naturel de la Marquise de Tencin et d’un certain Destouches, et fut abandonné sur
les marches de l’église Saint-Jean-le-Rond près de Notre-Dame de Paris. Il fut recueilli et
confié à l’épouse d’un vitrier. D’Alembert considéra toujours cette femme comme sa mère
et, bien qu’il eût des revenus modestes, il lui servit une rente jusqu’à sa mort. De quelque
Je ne sais comment je puis paraître au monde ; mais en ce qui me concerne, il me semble
avoir été comme un enfant qui joue sur la plage, me divertissant à trouver de temps en
temps un galet plus poli ou un coquillage plus joli que les autres, tandis que le grand
océan de la vérité s’étendait, inexploré, devant moi.
21
Fermement convaincu de correspondances du genre pythagoricien ou alchimique, il
a pensé qu’il y a nécessairement sept couleurs dans l’arc-en-ciel parce que sept est un
nombre clé de l’univers, et en tout cas par analogie avec les sept notes de la gamme.
Moins de cent ans après Newton, on considérait la nouvelle science comme la base de
l’explication de l’univers entier, et le nombre sept ne jouait plus de rôle dans cette explication.
Elle subsiste toujours dans les croyances de beaucoup de gens, certains savants compris.
La science de l’acoustique n’était désormais plus liée aussi étroitement à des
considérations esthétiques ou métaphysiques. Néanmoins, Rameau (1683-1764) conçut
une théorie de l’harmonie, c’est-à-dire de l’étude d’accords de trois, quatre, cinq sons ou
plus et de leur enchaînement. Il était un grand maître dans cet art. Il se fonda comme
Pythagore, Mersenne, Newton sur la série des harmoniques. Sa gamme est celle de Zarlino1,
débarrassée de tout élément mystique. D’Alembert publia en 1779 les Éléments de musique
suivant les principes de Monsieur Rameau, principes qu’il n’acceptait pas entièrement. Cet
ouvrage est un véritable traité d’harmonie suivi d’éléments de composition. Il est plus clair
que l’exposé de Rameau lui-même. Celui-ci rejeta certains articles de l’Encyclopédie sur
la musique, et il en résulta une controverse amère. Sa théorie, que J.S. Bach n’a dit-on
pas acceptée, pénétra néanmoins en Allemagne par l’intermédiaire de Friedrich Wilhelm
Marpurg (1718-1795), célèbre théoricien allemand de la musique qui séjourna en France.
La théorie de Rameau, tentative pour fonder l’harmonie sur des « principes naturels »,
simplifia considérablement l’étude de cette discipline, qui était auparavant une collection
de recettes et d’interdictions sans explication. Elle entra dans l’enseignement que reçurent
notamment Beethoven et Schubert.
considérable de phénomènes concrets. Certains théoriciens perçoivent le « sens physique »
d’une telle équation, d’autres restent dans l’abstraction. On verra dans les pages suivantes
combien elle fut féconde. Elle s’obtient en considérant un élément infinitésimal d’une corde
tendue, et elle traduit l’équilibre des tensions, des forces qui s’appliquent cet élément
suivant la mécaniue de Newton. Elle s’écrit :
F
Vous vous trouvez soudain en présence d’une équation que l’on vous dit s’appliquer à
un phénomène qui vous intéresse, et que néanmoins vous ne comprenez pas. J’ai choisi
cette présentation parce que c’est ce qui arrive souvent dans la pratique : le physicien ou
l’ingénieur trouve dans un traité une équation qui semble en rapport avec son problème,
mais il ne la comprend pas. Il faut d’abord parvenir à la lire.
La corde est caractérisée par une masse par unité de longueur ρ et sa tension F ; U
désigne la déflexion d’un point d’une corde, c’est-à-dire la distance dont il s’écarte de sa
position de repos pendant la vibration, t le temps et x la distance le long de la corde. U est
une fonction de x et de t, dont on considère ici les deux dérivées partielles du second ordre
par rapport à x et à t. Ces éléments définissent le système.
Le mouvement des éléments de la corde est perpendiculaire à celle-ci, et la mécanique
newtonienne considère son accélération. Comme ρ est la densité linéique (masse par unité
de longueur), la force d’accélération sur un point de la corde est :
L’équation de d’Alembert
Le nom de d’Alembert est universellement attaché à l’« équation des cordes vibrantes »
et à une équation plus générale qui décrit beaucoup de phénomènes d’ondes et de
propagation. Ce sont des équations différentielles aux dérivées partielles. On introduira
plus loin un certain « opérateur » mathématique appelé universellement « d’Alembertien »
qui intervient dans tout phénomène de propagation d’ondes.
Revenons à l’équation de la fréquence des cordes vibrantes obtenue par Mersenne. Elle
est assez simple. Une équation résume toujours une méthode de calcul ; celle-ci permet
de calculer directement le résultat suivant une recette qu’un marchand pourrait utiliser,
n’était la présence d’une racine carrée. L’équation des cordes vibrantes va beaucoup
plus loin. Elle ne permet de calculer directement aucun résultat, mais d’obtenir, par des
transformations, tous les résultats observables sur des cordes vibrantes, et non pas
uniquement les fréquences.
L’équation de d’Alembert marque l’avènement de la physique théorique, un langage
nouveau qui n’a pas de sens pour la plupart des praticiens. Néanmoins, elle va permettre
de définir clairement une onde, et contient en puissance la description d’une variété
1. Voir l’appendice III.
∂2U
∂2U
=
ρ
∂x2
∂t2
ρ
∂2U
∂t2
Cette expression n’est autre qu’une réécriture du terme « ma » dans l’équation de
Newton, « f = ma ». Il faut maintenant exprimer f.
L’origine de cette force est la tension F. La corde, étant fixée aux deux extrémités,
ne peut se déplacer sans prendre de courbure. Cette courbure sur une corde de tension
F doit donc produire une force perpendiculaire à la corde elle-même. En effet, une
corde soumise à une tension exerce une force dans sa propre direction seulement. La
courbure, en changeant cette direction d’un point à l’autre, permet l’apparition d’une force
perpendiculaire. La direction de la corde est donnée par la dérivée, soit :
∂U
∂x
La courbure est la variation de cette dérivée, soit la dérivée seconde :
∂2U
∂x2
22
La force cherchée est donc,
F
dans les formules. Soulignons que la notion d’opérateur n’est devenue explicite qu’au
vingtième siècle, mais qu’elle était en fait maniée couramment auparavant.
Voici des exemples élémentaires d’opérateurs. Ce sont de nombres suivis d’un signe
d’opération :
∂U
∂x2
2
3+, 4−, 7×
On a ainsi obtenu l’équation de d’Alembert, en même temps que l’on a expliqué
correctement le mécanisme de l’oscillation, sans toutefois résoudre l’équation différentielle.
Ce raisonnement néglige un certain nombre d’effets, notamment la rigidité de la
corde, et aussi le fait que la force, perpendiculaire à la corde, n’est pas exactement
dirigée dans la direction du déplacement U. L’équation, dans sa perfection, ne représente
qu’approximativement la complexité des phénomènes. Une analyse plus fine montre que
ces approximations sont parfaitement justifiées dans certaines limites, qu’elle précise. Telle
qu’elle est, l’équation explique beaucoup de choses. Peut-être n’apporte-t-elle pas beaucoup
à l’art des luthiers dans l’immédiat, mais on verra qu’elle est appelée à un grand avenir par
ses généralisations et les développements considérables auxquels elle donne lieu.
Ce sont justement les simplifications faites pour établir cette formule, quitte à violer la
nature, qui lui confèrent une grande généralité, et lui donnent même le pouvoir de prévoir
des phénomènes d’une nature physique alors inconnue, comme on le verra plus tard.
Appliqués au nombre 2, ces opérateurs donnent respectivement les résultats :
5, 2, 14
Un autre opérateur est d /dt . Appliqué à l’expression gt2/2 qui décrit la chute des corps,
il fournit simplement : g.
2
Opérateurs linéaires, fonctions propres et valeurs propres
En général, il n’est pas vrai que, lorsque l’intensité d’une cause double, il en est de
même des effets. Ce sont seulement de petites variations des effets et des causes qui
peuvent être supposées proportionnelles pour une intensité donnée, et c’est la base du
calcul différentiel : dC étant une petite variation de la cause C, dE de l’effet E, on pourra
supposer la proportionnalité
dE = k dC
avec k constant tant que les différentielles sont petites. Mais k dépend en général de la valeur
de C autour de laquelle s’effectue la variation : dE/dC est en général une fonction de C.
Les « opérateurs linéaires » ont une grande importance en physique. Considérons une
opération « L » que l’on effectue sur un nombre x, ou plus généralement sur une fonction
F(x). On symbolise l’opération par la notation LF(x). On dit que l’opérateur est linéaire si,
quel que soit le nombre m,
Vitesse de propagation des ondes
On ne peut évidemment pas diviser simplement les deux membres d’une équation par
les « d » droits ou ronds des dérivations, puisque ce ne sont pas des nombres. On ne peut
diviser que par un nombre. Mais tout est bon pour trouver des suggestions. De l’équation
des cordes vibrantes, on obtient alors :
L(mF(x)) = mL(F(x))
1 ρ 1
= ×
x2 F t2
Ainsi, l’opérateur 3. est linéaire parce que 3.mF(x) = m3.F(x) quels que soient m et
x. L’opérateur cosinus n’est pas linéaire parce que cos (mx) n’est pas égal à m.cos x. Les
opérateurs de dérivation sont linéaires parce que, comme on l’a vu plus haut :
Comme x/t est une vitesse on définira une quantité v telle que :
x
=v=
t
√
2
d(mF(t))/dt = m d(F(t))/dt
F
ρ
Cet énoncé abstrait a un sens très simple. Considérez que F désigne un espace parcouru
par votre voiture, et t le temps. L’équation ci-dessus exprime simplement dans ce cas que
votre vitesse est proportionnelle à l’espace que vous parcourez dans un temps donné.
La solution de beaucoup de problèmes se simplifie si l’on résout l’« équation aux valeurs
propres » de l’opérateur L. Cette équation s’écrit :
Serait-ce la vitesse du son ? Cela correspond assez bien aux expressions trouvées par
Galilée et Mersenne.
LES OPÉRATEURS
L F(x) = n F(x)
L’équation de d’Alembert comprend des symboles qui représentent des nombres, tels T,
y, p, et des signes de dérivation qui symbolisent des recettes de transformations à effectuer
sur ce qui est immédiatement à leur droite. On dit que ces signes désignent des opérateurs.
Ce ne sont pas en général des nombres ; il ne faut donc pas les déplacer sans précautions
23
Il s’agit de déterminer la fonction F(x) et le nombre n, qui seront appelés « fonction
propre » et « nombre propre » ou « valeur propre » de l’opérateur L. Si l’on a résolu ce
problème, on peut alors remplacer l’opérateur par une simple multiplication.
Le problème peut avoir plusieurs solutions. Le nombre propre peut être réel ou
complexe. Par exemple, l’opérateur de dérivation d/dx a pour fonctions propres les
exponentielles exp(mx) car
d’où
d (exp mx)/dx = m exp mx
Pourquoi a est-il appelé valeur propre ? Parce que ces valeurs sont propres à la
configuration géométrique particulière, décrite par l.
Comme a est un nombre négatif, T est nécessairement une fonction circulaire du temps,
de la forme
que m soit réel ou complexe.
L’opérateur d2/dt2 a pour fonctions propres les fonctions sinusoïdales. En consultant le
tableau sommaire de dérivées du chapitre 2, on pourra montrer que:
d2 cos(mt) /dt2 = -m2 cos(mt)
T(t) = C’ sin( ωt + φ )
cos(mt) est donc une fonction propre de l’opérateur d2/dt2, et (-m2) est le nombre propre
correspondant. sin (mt) est également une fonction propre du ême opérateur, avec les
mêmes valeurs propres.
Le fait de pouvoir remplacer les opérateurs par de simples multiplications ermet des
simplifications considérables. Cette technique de calcul abstraite au premier abord simplifie
tellement les problèmes que l’on a parfois l‘impression d’une supercherie.
avec
d2X/dx2 = - ω2 ρ(x) X(x)/F
Ses solutions ne seront plus sinusoïdales. Leur nature dépend de la fonction ρ(x). Elles
devront toujours s’annuler en x = 0 et x = 1. C’est ce qui déterminera la fréquence.
La solution se simplifie considérablement si l’on suppose que la fonction inconnue est
un produit de fonctions dont chacune contient une seule variable, ce qui s’écrit :
U(x,t) = X(x) T(t)
En effet, on a alors, puisque T n’est pas fonction de x :
∂2U
∂2X
= T(t)· 2
2
∂x
∂x
∂2U
∂2T
=
X(x)·
∂t2
∂t2
L’équation de d’Alembert conduit à
(d2X/dx2)/ X(x) = (ρ/F) (d2T/dt2)/T(t)
Le premier membre n’est fonction que de x, le second que de t. Comme ils sont égaux,
ils ne sont fonction ni de x ni de t. Ils sont égaux à une constante, soit a :
d2T/dt2 = a (ρ/F) T
On a là les deux équations aux valeurs propres des deux opérateurs différentiels de
l’équation aux dérivées partielles. Leurs solutions sont des sommes d’exponentielles ou de
fonctions circulaires ou hyperboliques. Mais X(x) doit s’annuler aux deux extrémités de la
corde, x = 0 et x = 1. On trouvera que les seules fonctions qui remplissent ces conditions
sont, pour C quelconque et n entier quelconque,
X(x) = C sin (nπx/l)
ω2= (nπ/l)2 (ρ/F)
L’équation de d’Alembert conduit à toutes les propriétés connues des cordes vibrantes :
fréquences d’oscillation multiples, dépendance de la densité et de la tension. Elle
détermine le coefficient numérique laissé indéterminé par Mersenne. De plus, elle se laisse
généraliser à des cas plus complexes, tels que celui d’une densité non uniforme. Dans ce
cas, l’équation aux valeurs propres de T sera inchangée, celle de X sera :
Une solution de l’équation de d’Alembert par les opérateurs
linéaires
(d2X/dx2) = a X(x)
a = -(nπ/l)2
24
le sens de projection de manière à remonter le temps. C’est que l’équation de la dynamique
a déjà cette propriété.
CHAPITRE 3
OSCILLATIONS ET ONDES
La propagation
D’Alembert trouva que son équation permettait à chaque instant n’importe quelle
dépendance U(x,t) ou aspect de la déformation d’une corde illimitée, pourvu qu’elle se
déplace sans déformation le long de la corde avec la vitesse v ci-dessus. En voici des
exemples parmi des infinités
MULTIPLES SOLUTIONS DE L’ÉQUATION DE D’ALEMBERT
Nous sommes maintenant en possession des outils qui vont permettre l’analyse fine des
propriétés des ondes. Pour cela, il faut étudier quelques solutions simples de l’équation de
d’Alembert.
Les physiciens ou mathématiciens qui rencontrent cette équation ne la voient pas
nécessairement comme un moyen d’obtenir des valeurs numériques. Nous allons l’aborder,
non pas comme on le fait d’ordinaire dans les traités, mais comme un physicien déjà
expérimenté qui l’aurait rencontrée sans préparation au cours de son travail.
La première propriété de cette équation est la linéarité : si on multiplie l’expression d’une
solution U par un nombre constant, on obtient une nouvelle solution ; une somme de deux
solutions U et V est également une solution.
On parle donc de linéarité lorsque les effets sont proportionnels, comme est par
exemple le prix d’une marchandise suivant la quantité. Les tarifs dégressifs sont dans ce
jargon non-linéaires.
La linéarité de notre équation correspond au fait expérimental qu’une bonne oreille peut
reconnaître les notes composantes (ou harmoniques) d’un son musical, et ou que les ondes
produites à la surface d’un étang peuvent se croiser sans se détruire : les composants ne se
mélangent pas complètement et ils peuvent être reconnus au milieu de l’ensemble. Il arrive
que le fonctionnement des amplificateurs soit non-linéaire ; le son devient désagréable : il
y a distortion.
Après avoir séparé toutes les couleurs de l’arc-en-ciel par le prisme, Newton pouvait
les remélanger avec un autre prisme et retrouver de la lumière blanche, montrant ainsi
qu’il n’avait rien détérioré : la propagation de la lumière remplit la condition de linéarité.
C’est comme s’il avait séparé les moutons des chèvres, pour remélanger ensuite les deux
troupeaux : il avait séparé des éléments qui différent par une propriété inaltérée, a coueur.
ecillustre le fait que la linéarité évite la fusion des composants.
Autre aspect important de l’équation : la symétrie en x et -x, qui vient de ce qu’il n’y a que
des termes carrés en x, donc indépendants du signe de x. Elle reflète le fait que la corde
et ses deux extrémités sont symétriques, et que la physique n’a pas de préférence pour
la droite ou la gauche : l’espace lui-même est symétrique. Il y a de même symétrie dans
le temps. En effet, l’équation néglige les forces d’interaction avec l’air et les frottements
internes de la corde, qui finissent par amortir l’oscillation. À cela près, si l’on peut filmer
assez rapidement la corde pour voir les oscillations il est impossible de voir si l’on inverse
Figure 2a. Onde sinusoïdale
Cette onde s’étend à l’infini dans les deux directions.
Figure 2b. Onde impulsion ou vague unique
25
L’abscisse est la distance le long de la corde.
On montrera au chapitre IX qu’une onde non sinusoïdale peut être considérée comme
une somme d’ondes sinusoïdales de longueurs d’onde différentes. Dans le cas présent,
toutes ont un maximum à la crête du paquet et se détrui- sent ailleurs par interférence.
Les ordonnées verticales sont les déflexions, élongations ou amplitudes du déplacement
le long de la corde et ont été très augmentées pour faciliter la visualisation, car la déflexion
des cordes est généralement à peine visible. On doit se représenter ces courbes comme se
déplaçant en glissant sans déformation vers la droite ou la gauche à la vitesse v qui n’est
pas ici la vitesse du son dans l’air, mais le long d’une corde tendue.
Onde se propageant vers -x :
U1=G(t + x/v)
G est une fonction quelconque, par exemple l’une de celles qui sont représentées
ci-dessus ; un accident d’une courbe, tel qu’un maximum, est déterminé par une valeur de
t + x/v. Pour suivre cet accident, il faut maintenir cette quantité constante, soit c. On doit
alors se déplacer en x de façon à remplir :
x = cv - vt
c’est-à-dire à la vitesse v vers les -x.
Onde se propageant vers +x :
U2 = H(t - x/v)
Si on considère toutes les fonctions G et H possibles, et même certaines qui ont des
discontinuités, la solution la plus générale s’écrit :
U3 = G(t + x/v) + H(t - x/v)
Les ondes stationnaires ou oscillations
Conclusion importante
L’équation de d’Alembert contient le phénomène de propagation.
Pour résoudre ce problème, l’équation différentielle est insuffisante car elle ne contient
pas la longueur de la corde. Dans le cas d’un instrument de musique, le déplacement U
reste nul à tout instant aux extrémités x = 0 et x = 1. L’expérience montre qu’il existe
beaucoup de solutions suivant la manière dont la corde est attaquée, par exemple avec un
marteau ou avec un plectre. Mais il existe des solutions types simples.
Comme nous savons que les cordes sont le siège d’oscillations périodiques à des
fréquences différentes, essayons une solution U(x,t) de la forme :
Bien entendu, à tout moment, il est possible d’obtenir des valeurs numériques de U si
l’on a bien spécifié les conditions de l’expérience : comment a- t-on excité la corde ?
On se procurera une cordelette d’une dizaine de mètres de longueur. Une drisse ou une
écoute de foc peut faire l’affaire, mais un prolongateur électrique est encore meilleur.
On la fixera à un mur, une branche d’arbre ou une poignée de porte, et on la tendra
horizontalement de la main gauche. On peut agiter la cordelette de la main droite plus ou
moins rapidement et on verra différentes formes d’ondes suivant la tension et la vitesse
d’agitation. Dans une deuxième expérience, de la main droite, on frappera la corde
avec la main ou avec un objet dur, un bâton par exemple. On observera que l’impulsion
communiquée court sous forme d’une courte ondulation vers le mur, puis revient en
sens inverse avec la même vitesse. On pourra peut-être remarquer que la déformation
s’inverse en se réfléchissant sur le mur. Surtout, on sentira dans la main gauche une
secousse lorsque l’impulsion rencontre la main.
U(x,t) = u(x) cos ωt
Cette fonction reprend la même valeur chaque fois que ωt varie de 2�, soit 360°,
c’est-à-dire chaque fois que le temps s’écoule d’une période T = 2�/ω, c’est-à-dire avec
une fréquence f = 1/T, comme il a été défini plus haut. En reportant cette fonction dans
l’équation de d’Alembert, nous obtenons :
d2u/dx2 cos ωt = -(ω2/v2) u cos ωt
conformément à notre tableau de dérivées.
Il est vraiment commode de pouvoir remplacer des dérivations par des multiplications.
Cela apparaît notamment lorsque l’on manie les fonctions sinusoïdales. comme on va le
voir de suite. La nouvelle forme de l’équation de d’Alembert s’écrit en effet :
Nous avons là, nous démontrent les mathématiciens, les solutions les plus générales de
l’équation de d’Alembert. Mais comment se fait-il qu’elles ne ressemblent guère à l’oscillation
sur place des cordes vibrantes ? Elles ressemblent plutôt en fait, à la progression d’une
particule localisée dans l’espace, surtout celle de la figure 2b.
La solution la plus générale est la somme d’une onde qui se propage vers la droite et
d’une qui se propage vers la gauche. On pourra vérifier que toute fonction de t + x/v est
solution de cette équation, ainsi que toute solution de t - x/v. Voici donc trois solutions :
d2u/dx2 = - (ω2/v2) u
La remarque précédente montre que
u = cos (ω/v) x
26
et
u = sin (ω/v) x
sont deux solutions possibles. Comme la corde est immobile à ses deux extrémités, x = 0
et x = 1, U doit être nul à chaque instant en ces points, et nous préférons la solution en
sinus qui est nulle pour x = 0. Pour x = 1, il faut imposer :
Vérifier que ces résultats coïncident avec la formule empirique de Mersenne si a vaut
exactement 0,5.
sin (ω/v) l = 0
Cette relation entraîne, n étant un nombre entier quelconque :
(ω/v)1 = n�
ω = n�v / l
f = n v / 2l
C’est un événement de l’histoire de la physique et des mathématiques! L’équation de
d’Alembert, parmi une foule de solutions évoquées plus haut, retrouve la série des
harmoniques des cordes connues depuis Pythagore, ses relations avec la longueur
de la corde, mais aussi avec sa tension et sa densité, trouvées empiriquement par
Mersenne.
On dispose donc d’un outil d’investigation très puissant dont on ne tardera pas à trouver
maintes applications. On montrera sans peine que l’on peut généraliser la solution trouvée
sous la forme:
Un = Cn sin (�nx/l) cos(�nvt/l - φn)
L’équation est remplie quelles que soient les « amplitudes » Cn, qui déterminent
l’intensité du son : que l’on attaque une corde de guitare fort ou doucement, on obtient à
très peu près la même fréquence, la même note. C’est la propriété de linéarité.
Chaque valeur du nombre n donne une solution différente, ou « mode » d’oscillation,
dite d’ordre n. Le fait que l’on ne trouve de solutions que pour des fréquences discrètes,
c’est-à-dire bien définies et bien séparées, correspond au phénomène de la résonance.
Il est lié aux positions des fixations aux extrémités de la corde : on trouvera toujours des
résonances dans les espaces confinés. Dans les pièces d’habitation qui sont dépourvues
de tentures, on observe des résonances parfois gênantes.
Le fait que nos solutions comportent comme fréquences des multiples entiers d’une
fréquence fondamentale est lié à l’homogénéité de la corde. Les harmoniques d’une
corde inhomogène sont décalées et sonnent un peu faux. Les bonnes cordes doivent être
homogènes.
Résumons : dans l’équation en Un, le premier terme, en sinus, décrit une déformation
type de la corde. Il faut calculer la parenthèse en radians, ou en degrés en remplaçant � par
180. Les fonctions Un, pour n = 1, 2, 3, 5 correspondent à la série de notes que nous avons
utilisée plus haut pour illustrer les travaux de Mersenne et voici leurs fonctions en sinus,
pour l = 5. Les solutions n’ont de sens que dans l’intervalle de x = 0 à x = 1, puisque la
corde est limitée à cet intervalle.
Figure 3. Diverses oscillations sinusoïdales, différant par leur
longueur d’onde, et leur fréquence
27
Voila donc beaucoup de solutions
– Toute déformation suivant x est solution pourvu qu’elle se propage sans déformation dans
un sens ou dans l’autre à la vitesse v. La somme d’une déformation quelconque se déplaçant
à la vitesse v et d’une autre également quelconque se déplaçant en sens inverse est donc une
solution plus générale, à cause de la linéarité qui permet la superposition simple.
– Toutes les solutions Un, et par suite toute somme de ces fonctions affectées de
coefficients quelconques Cn :
La phase et la fréquence
La phase est en général la quantité dont on prend le sinus ou le cosinus, qu’on appelle
encore l’argument des fonctions de ce type. Elle est de première importance puisqu’elle
détermine le signe de la quantité considérée et qu’elle change en général rapidement dans
le temps et l’espace : sinon, on ne peut véritablement pas parler d’oscillations ou d’ondes.
On comprend beaucoup mieux un phénomène lorsqu’on étudie comment varie sa phase,
et c’est ce qu’a fait Huygens sans très bien le savoir. La fréquence indique comment elle
varie dans le temps.
Il a fallu introduire une quantité φn appelée phase à l’origine, car une oscillation peut
démarrer dans n’importe quelle phase : amplitude nulle, maximale etc. Le mot vient
évidemment des phases de la lune, qui sont périodiquement positives (blanches) ou nulles
(noires).
U = C1U1 + C2U2+ C3U3+ C4U4 + ...
que l’on pourra écrire en explicitant :
U = ∑ Cn sin (�nx/1) cos (�nvt/l - φn)
Une telle expression, somme de sinusoïdes dont les arguments sont, à la phase près,
les multiples successifs d’une même variable affectés de coefficients arbitraires, est une
série de Fourier. Nous en verrons de plus générales.
Ceux qui savent manier les fonctions sinusoïdales pourront mettre cette expression
sous la forme d’une somme en G et H :
Ceux qui connaissent la relation entre les fonctions sinusoïdales et les exponentielles
pourront établir facilement les équivalences entre les différentes expressions générales
de U, s’ils ne sont pas étourdis par le nombre de ternies. On pourra appeler a la somme
de tous les termes précédés de + et b celle de tous les termes précédés de -.
U = 1⁄2∑Cn sin(�nx/L + �nvt/L - φn) + 1⁄2∑Cn sin(�nx/L - �nvt/L + φn)
ou encore :
U = 1⁄2 ∑nCn sin(�n(x + vt)/L - φn) + 1⁄2 ∑nCn sin(�n(x - vt)/L + φn)
Qu’est-ce qu’une onde simple ?
Il existe pour le sens commun beaucoup de sortes d’ondes : entre l’onde pure dans
le courant de laquelle l’agneau de La Fontaine se désaltérait, les fureurs de l’océan et les
ondes sonores émises par le violon de Yehudi Menuhin, il y a des points communs que,
avec des définitions convenables, nous allons dégager et étudier. Ces définitions sont
indispensables aux scientifiques, même si, par un choix abusif des mots, elles ne sont pas
toujours conformes au bon sens.
On parle aussi d’autres ondes, telles celles de la radiesthésie, que les physiciens n’ont
pu mettre en évidence et dont ils doutent car elles semblent violer certains principes bien
établis de la physique.
Parmi les solutions plus ou moins complexes que nous avons considérées, et qui
s’appliquent à beaucoup de phénomènes physiques, concentrons-nous sur la solution type :
Cette expression est en effet de la forme générale que nous avons introduite plus haut:
U = G (t + x/v) + H (t - x/v)
Et pourtant, ces expressions n’ont apparemment qu’un point commun celui de ne contenir
les variables x et t que dans les termes t + x/v et t - x/v. Voilà une chose bien remarquable.
Comme G et H sont des fonctions quelconques, cela suggère que d’innombrables fonctions
mathématiques peuvent s’exprimer comme des sommes de sinusoïdes, quelle que soit leur
signification physique : ce sera l’objet de l’analyse de Fourier.
Nous avons là des expressions assez complexes qui peuvent décourager beaucoup
de lecteurs. Mais elles comprennent toutes les possibilités des cordes vibrantes. Il existe
des infinités de manières de faire vibrer une corde de violon, et cela permet toute la
richesse de l’exécution musicale. Admirons plutôt que la mathématique parvienne au moins
partiellement à en rendre compte. Cela ne sert pas beaucoup les musiciens, direz-vous.
Certains luthiers et organiers savent en tirer parti. En outre, cela va ouvrir d’autres horizons
aux physiciens et ingénieurs.
L’identité des deux dernières expressions de U a une importance qui déborde largement
le problème des cordes vibrantes : c’est une propriété mathématique générale, applicable
à de nombreux phénomènes physiques linéaires. Lorsque vous aurez lu les chapitres sur
la physique quantique, vous comprendrez que cette propriété mathématique préfigure la
dualité onde-particule.
U = C sin (ω(t - x/v) + φ)
On l’écrit encore :
U = C sin (ωt - kx + φ)
où k = ω/v = 2�/λ, est une fréquence spatiale, puisqu’il traduit la variation de la phase
dans l’espace. On nomme k la constante de propagation. U, étant fonction de t - x/v, elle
décrit, comme on l’a vu une onde se propageant dans la direction +x et non pas l’oscillation
d’une corde limitée en x = 0 et x = 1.
28
On a voulu que l’amplitude puisse être choisie par la quantité C et que la phase garde
une dépendance simple (linéaire) de x - vt. La quantité φ est comme précédemment la
phase à l’origine du temps et de l’espace. Pour illustrer la propagation, considérons à titre
d’exemple l’onde suivante :
caractéristique la plus sensible des sons, avec leur intensité et leur durée : elle correspond
à la hauteur. La nature de cette correspondance est physico-physiologico-psychologique, si
j’ose dire. Résumons quelques faits saillants :
Grâce au calcul différentiel, il est possible de décrire les phénomènes proprement
physiques de façon complète, en omettant toutefois des éléments considérés comme
négligeables. La mécanique montre comment cette méthode peut être appliquée aux
mouvements de corps isolés qui subissent des forces, tels que planètes, projectiles. Ici, on
a pu traiter le cas d’un milieu étendu et continu très simple, il est vrai : la corde. Dans tous
les cas, la solution mathématique prévoit les positions et les vitesses de la moindre particule
ou élément du système étudié à chaque instant. C’est une possibilité qui n’avait pas été
clairement envisagée avant le XVIle siècle. Elle donnera lieu à la philosophie déterministe.
La continuité du temps et de l’espace est une hypothèse fondamentale de la nouvelle
physique. Celle-ci balaye donc les objections des pythagoriciens et d’autres mathématiciens
à l’usage des nombres irrationnels. La continuité ne sera remise en cause, par étapes,
qu’avec la découverte de la structure atomique de la matière.
On ne saurait trop insister sur les conséquences de la linéarité, en particulier la
possibilité de superposer des ondes sans les détruire, et de les séparer ensuite, comme le
fait une oreille exercée.
U = 1,2 sin (2� (t - x/5) + 1)
Pour t = 0, l’allure est la suivante :
Pour t = 0,25 :
Figure 4a
Du bord d’un étang calme, « faire des ronds dans l’eau » : jeter une pierre à quelque
distance et observer l’apparition d’ondes en anneaux concentriques qui s’étendent.
Jeter ensuite simultanément deux pierres à des distances assez éloignées, et observer
comment les anneaux s’interpénètrent et se croisent sans se détruire.
Au contraire, des ondes de grande amplitude déferlent sur le rivage. Elles se détruisent
si elles se rencontrent. Dans ce cas, il est inutile de jeter une pierre pour observer les
ronds dans l’eau : on est dans un régime fortement non-linéaire.
Figure 4b
Pour t = 0,5 :
La linéarité est donc un fait d’expérience journalière, mais qui disparaît aux fortes
amplitudes en acoustique, alors qu’il reste vrai pour les ondes optiques, électromagnétiques,
atomiques de grande intensité. Les vagues se croisent sans se détruire si elles ne sont pas
trop fortes. Des faisceaux de lumière très intenses se croisent sans se perturber.
EXTENSIONS DE LA THÉORIE DES CORDES VIBRANTES
Figure 4c
Figure 4. Propagation d’une onde sinusoïdale dans le temps
On voit la sinusoïde se déplacer vers la droite, comme une onde sur l’eau. La longueur
d’onde λ, est la distance entre deux crêtes consécutives ; elle ne varie pas.
Le concept de fréquence joue un rôle fondamental dans l’analyse mathématique de
beaucoup de phénomènes acousto-mécaniques, optiques, atomiques. C’est d’ailleurs la
29
On a dit plus haut que l’étude des ondes donne la clé de toute une partie de la physique.
Il faut donc la poursuivre, ce que nous ferons de deux manières. D’une part, nous étudierons
la propagation de phénomènes divers dans trois directions, c’est-à-dire dans l’espace et non
pas le long d’une corde ; d’autre part, nous approfondirons la représentation des fonctions
mathématiques quelconques en sinusoïdes, c’est-à-dire en modes des cordes vibrantes :
c’est l’analyse de Fourier.
Considérons donc des ondes à deux et trois dimensions. Les dernières sont difficiles à
représenter.
La figure suivante montre une région d’une onde 2d (à deux dimensions), à la surface
de l’eau par exemple :
apparaît parce que l’air chauffe au cours des rapides contractions et refroidit au cours des
dilatations qui constituent les vibrations de l’air. La notion de vitesse de phase v subsiste.
C’est alors la vitesse du son dans l’air, environ 330 mètres/seconde à 20° centigrades.
En outre, il faut une expression symétrique dans les trois directions x, y, z, comme
l’espace lui-même. Le symbole U(x, y, z, t) désignera tout phénomène vibratoire :
déplacement ou vitesse suivant une direction, pression ou densité de l’air, suivant le choix.
Cette expression doit rester du second ordre (deux dérivations) en x et t, sans quoi elle ne
pourrait se réduire à l’équation unidimensionnelle déjà connue. Il est indispensable d’avoir
recours aux « dérivées partielles » introduites par Euler, distinguées des dérivées ordinaires
par l’écriture avec des « d ronds » qui, rappelons-le, indiquent que la dérivée considérée
est calculée en faisant varier une seule des variables. On montre qu’une seule forme est
possible :
∂∂
∂∂
∂∂
1 ∂∂
∂x∂x
U+
∂y∂y
U+
∂z∂z
U–
v2 ∂t∂t
U=0
C’est l’équation générale de la propagation à trois dimensions. Cette forme est tellement
fréquente en physique que l’on utilise des notations condensées :
Figure 5a
∆U – 12 ∂∂ U = 0
v ∂t∂t
Le quadrillage ne correspond à aucun phénomène, il aide simplement à visualiser les
déformations. L’onde se comporte, dans une direction, comme sur une corde, mais elle
s’étend, uniforme, dans la direction perpendiculaire. Il faut aussi pouvoir la regarder dans
une direction oblique, car les ondes peuvent être excitées dans toutes les directions.
Voici un morceau d’espace où deux ondes se croisent, situation peu appréciée à bord
des voiliers :
où ∆ est défini comme l’opérateur spatial en x, y, z, appelé le « laplacien ». L’opérateur à
quatre dimensions :
∂∂
∂∂
∂∂
1 ∂∂
∂x∂x
+
∂y∂y
+
∂z∂z
–
v2 ∂t∂t
est appelé « d’Alembertien ». Il se note aussi bien :
∂2 + ∂2 + ∂2 – 1 ∂2
∂x2 ∂y2
∂z2
v2 ∂t2
Figure 5b
Les trois dimensions et les symétries
La formulation de l’équation d’ondes à trois dimensions est très importante. Elle
s’applique d’abord à la propagation des sons dans l’air. La tension F est remplacée par la
pression, la densité linéique par la densité volumique de l’air. Un facteur supplémentaire
30
Soulignons de nouveau que, comme tout opérateur, il n’a de sens numérique que
lorsqu’il est appliqué à une fonction du temps et de l’espace placée à sa droite. La valeur de
la constante v dépend du phénomène considéré, puisque c’est la vitesse de propagation :
environ 330 m/sec pour le son, exactement 299 792 458 m/s dans le vide pour la lumière.
Sans savoir les résoudre, certaines personnes sont sensibles à l’aspect esthétique de
ces équations. Comme l’ordre des termes d’une addition peut être modifié à volonté, on
peut lire dans ces expressions la symétrie complète entre les trois dimensions d’espace. Le
temps figure dans un terme semblable, mais négatif. On a déjà souligné le fait que x, y, z,
apparaissent deux fois, au carré, ce qui indique la symétrie du sens dans l’espace et que,
ce qui est plus surprenant, la même symétrie existe dans le temps.
Sans savoir les résoudre, certains apprécient l’aspect esthétique des équations. Nous
aurons l’occasion d’en apprécier l’universalité. On se trouve en fait dans l’antichambre de
la théorie de la Relativité, car celle-ci découle des propriétés de symétrie de l’opérateur
d’Alembertien appliqué à la lumière.
Nous allons maintenant abandonner l’acoustique pour suivre les progrès de la théorie
de la lumière.
Nous quittons aussi le XVIIIe siècle, avec une remarque sur d’Alembert en tant que
philosophe, mathématicien, théoricien du mouvement, de l’astronomie et de la musique, et
bien que spirituellement sceptique, il peut encore être considéré comme un penseur de style
pythagoricien : loin de considérer les mathématiques comme un outil plus ou moins utile
pour les praticiens, il est un des très nombreux physiciens qui croient à une correspondance
profonde entre la physique et les mathématiques.
Nous proposons en Appendice des réflexions sur le chant des oiseaux qui illustrent le
rapport entre l’univers et notre monde technique et rationnel.
Le rayonnement
L’une des solutions les plus intéressantes du d’Alembertien prédit le rayonnement : des
ondes sphériques émises par un point source, qui s’étendent radialement dans toutes les
directions avec la vitesse v, tout en perdant de l’amplitude avec la distance r. Il faut exprimer
r en fonction de x, y, z ; le théorème de Pythagore entraîne que r2 = x2 + y2 + z2.
La solution s’écrit:
U = (C/r) sin (ω(t - r/v) + φ0)
Elle précise l’intuition géniale de Huygens à propos de la propagation. Elle ne suppose
pas de valeur particulière de la fréquence, contrairement aux solutions des cordes vibrantes
(ou des tuyaux sonores) : l’espace n’est pas confiné, il n’y a pas de résonance. On peut
visualiser la solution dans une représentation à deux dimensions seulement :
Figure 5c. Onde circulaire bidimensionnelle
On la comparera qualitativement à la surface d’un étang où l’on viendrait de jeter une pierre.
La phase et la distance
Comme on le voit ci-dessus, la phase φ varie le long des rayons qui partent d’une
source suivant les expressions équivalentes :
φ = ω(t - r/v) + φ0
φ = ωt - kr + φ0
φ = ωt - 2�r/λ + φ0
À un temps donné, elle diminue donc de 2� chaque fois que le point considéré s’éloigne
d’une longueur d’onde. Voilà une règle élémentaire qui est commode pour analyser les
situations expérimentales. Tout change quand le rayonnement est dévié ou modifié par un
obstacle, mais nous ne considérerons pas ces cas.
31
CHAPITRE 4
FOURIER ET LES PHÉNOMÈNES PÉRIODIQUES
JEAN-BAPTISTE FOURIER
C’est Jean-Baptiste Joseph Fourier (1768-1830) qui découvrit les grandes possibilités
offertes par les fonctions sinusoïdales que nous avons utilisées plus haut. Il les exposa en
1822 dans un traité sur la propagation de la chaleur1. On se demande combien de temps il
aurait fallu aux mathématiciens pour l’inventer si Fourier ne l’avait fait, car elle ne se situe
pas dans la ligne des travaux d’alors et, bien qu’elle fournisse de nombreux résultats du
plus grand intérêt, elle ne reçut sa pleine et rigoureuse justification mathématique qu’au
bout d’un siècle environ.
L’analyse de Fourier est une nouvelle manière de traiter une classe de fonctions parmi
les plus importantes de la physique mathématique et de la technique, avant tout applicable
aux phénomènes linéaires.
Revenons aux deux solutions de l’équation de d’Alembert citées plus haut :
DEUXIÈME PARTIE
LA MAÎTRISE DE LA LUMIÈRE
ET DE L’ÉLECTRICITÉ
U = ∑ Cn sin (�nx/l) cos (�nvt/l - φn)
U = G (t + x/v) + H (t - x/v)
qui peuvent représenter la même fonction. C’est de la première que Fourier fit une étude
extensive.
La vie de Fourier fut une véritable épopée de l’époque napoléonienne que E. T. Bell
a résumée2 avec plus de détails que l’on n’en trouvera ici. Fils d’un tailleur d’Auxerre et
orphelin à huit ans, son goût de l’étude fut signalé à l’évêque qui le plaça dans une école
militaire tenue par des Bénédictins. Il se signala par un talent extraordinaire, notamment
pour écrire, dès l’âge de douze ans, des sermons dont certains furent prononcés à Paris par
d’importants prélats. En même temps, il montrait un caractère de plus en plus difficile qui
s’adoucit lorsqu’il aborda les mathématiques. Les Bénédictins voulaient le faire entrer dans
les ordres, mais l’explosion de la Révolution - il avait alors vingt et un ans - lui permit non
pas de réaliser son rêve de devenir officier, mais de devenir professeur de mathématiques.
Il se rendit alors à Paris pour présenter des travaux originaux sur la résolution des équations
numériques. Rentré à Auxerre, il prit le parti de la révolution.
Son éloquence aurait pu lui coûter la vie lors de la terreur : presque toute prise de
position était alors dangereuse. Lorsque l’École Normale fut fondée à Paris en 1794, ses
32
1. Jean Baptiste Joseph Fourier, Théorie analytique de la chaleur, 1822.
2. Eric Temple Bell, Men of Mathematics, 1937 ; Pelican books, 1953, La vie des grands mathématiciens,
traduction française de Ami Gandillon, Payot, 1961.
talents et son attitude politique firent qu’on lui proposa la chaire de mathématiques.
et proportionnellement au « gradient » de la température combien, par exemple, de degrés
par centimètre. Elle s’écrit, en écriture vectorielle :
Jean Baptiste Joseph Fourier (1768-1830) fut un administrateur d’une grande valeur, qui
fut appréciée aussi bien lors de sa participation à l’expédition de Bonaparte en Égypte que
pendant son préfectorat en Isère. Malgré cette activité, il parvint à faire aboutir ses efforts
à une théorie mathématique très puissante, dont la nécessité n’apparaissait nullement
a priori. Cette théorie est l’un des outils principaux de la physique mathématique, et
notamment de la théorie des ondes de toute nature.
Bientôt (1798), voici Fourier embarqué avec Bonaparte, en compagnie du mathématicien
Monge (1746-1818) et du chimiste Berthollet (1748-1822) vers l’Égypte pour y greffer la culture
occidentale. Les affaires tournant mal de plusieurs côtés, Bonaparte retourna en France
avec Monge et Berthollet, laissant à Fourier la charge ingrate du nouvel Institut d’Égypte au
milieu d’une population hostile. Il parvint à s’enfuir après Trafalgar, en 1801, et fut nommé
préfet de l’Isère, où son action se révéla très favorable tant sur l’effervescence des esprits
que sur l’assèchement des marais. C’est là qu’il rédigea en 1807 un mémoire à l’Académie
sur la conduction de la chaleur, puis la considérable « Théorie analytique de la chaleur »,
publiée en 1822, qualifiée plus tard par Kelvin de « grand poème mathématique ».
Entre temps, il se produisit beaucoup d’événements très importants : la retraite de
Russie, la relégation de Napoléon à Elbe en 1814, le retour de la monarchie des Bourbon
avec Louis XVIII, l’évasion de Napoléon et son débarquement sur le continent le premier
mars 1815.
Bien qu’officier de l’Empire et peu favorable aux Bourbon, Fourier prît position contre
Napoléon à son retour. Plus même, il organisa la résistance contre lui, ce qui fut l’occasion
d’au moins une rencontre orageuse. Il ne fut pas mieux traité par Louis XVIII. Il versait
lentement dans la misère, lorsque ses amis parvinrent à le faire nommer « directeur de
la statistique ». Le roi s’opposa à son entrée à l’Académie en 1816, mais il en devint
néanmoins le secrétaire perpétuel en 1817, ce qui lui donna l’occasion de prononcer maint
discours pompeux : il était rompu à ce style avant même son adolescence.
Soit à la suite de son séjour en Égypte, soit parce qu’il voulait épargner toute perte de
chaleur de son corps, il vivait emmitouflé dans des pièces surchauffées et mourut, en 1830,
d’un accident circulatoire.
La Théorie analytique de la chaleur traite d’une seule question : comment la chaleur se
propage-t-elle dans et entre les corps ? Elle donne des méthodes générales et radicalement
nouvelles et fécondes pour résoudre les équations aux dérivées partielles, dont nous avons
donné quelques exemples à propos de l’acoustique. Ces méthodes ne s’appliquent qu’aux
équations linéaires, c’est-àdire à beaucoup de celles qui se présentent en physique, et
évidemment en physique des ondes de toute nature, notamment en physique quantique.
Fourier part de deux équations simultanées :
– La première dit que la chaleur se propage dans la direction où la température diminue
Γ = -k × gradT
En hiver, vous chauffez votre maison. La chaleur traverse les murs et réchauffe l’air
extérieur. La perte de chaleur est proportionnelle au coefficient k, qui dépend de la nature
du mur.
Γ représente la densité de flux de chaleur : il s’écoule tant de calories par seconde et
par mètre carré ou, suivant les unités, de Watts par mètre carré. Dans une structure plus
compliquée qu’un mur, f peut avoir toute direction et doit être représenté par un vecteur.
– La seconde équation dit que, si du flux de chaleur sort d’un volume, la température s’y
abaisse. Elle s’écrit
divΓ = -C ∂T
∂t
L’opérateur divergence a été présenté plus haut. C est la capacité calorifique du milieu.
L’équation signifie : combien de calories faut-il pour élever un centimètre cube d’un degré (t
est le temps) ? D’où viennent ces calories ?
Lorsque vous arrivez en hiver dans votre maison de campagne, vous chauffez d’abord
non seulement l’air, mais les murs. Leur température s’élève c’est le membre de droite
de l’équation. Un flux de chaleur pénètre dans le mur, mais il n’en sort pas encore vers
l’extérieur parce que le mur est encore trop froid. La divergence n’est pas nulle, c’est
le membre de gauche. Au bout de quelques heures, un régime constant est atteint, la
température ne varie plus, la divergence est nulle, Γ est constant à l’intérieur du mur. La
première équation est alors facile à résoudre par une simple règle de trois :
Γ = -k (Text - Tint) / d
d est l’épaisseur du mur.
En combinant les deux équations générales, on obtient :
∆T = - C ∂T
k ∂t
33
On a supposé k et C indépendants de la température, ce qui est loin d’être toujours
justifié, mais est nécessaire pour développer les méthodes de Fourier. L’opérateur ∆, appelé
laplacien, a été défini plus haut. En effet, la divergence d’un gradient est un Laplacien,
comme le montrent les diverses expressions du d’Alembertien données plus haut.
La nouvelle équation est donc voisine de celle de d’Alembert, mais avec une différence
majeure : le temps figure par une dérivée du premier ordre et non du second. Le sens du
temps est inclus, les processus sont irréversibles ; un corps froid ne peut se refroidir en
en échauffant un plus chaud. L’expression doit être soulignée, et opposée au caractère
réversible des équations de la dynamique newtonienne, déjà signalé à propos des
oscillations.
Fourier constata que les mathématiques utilisées pour la théorie des cordes vibrantes
peuvent aussi s’appliquer au cas de la propagation de la chaleur et il développa une
méthode d’analyse valable pour de très nombreux problèmes physiques.
Ces courbes représentent la forme de la corde à un instant donné. Elles se
déforment pendant l’oscillation, mais retrouvent la même forme au bout d’une période du
fondamental.
Il est probable que Fourier fit de nombreux calculs numériques, fut frappé de la variété
des formes qu’il pouvait décrire et conclut qu’il pouvait les décrire toutes, ou tout au moins
certaines classes de fonctions. Il appliqua alors cette méthode à la propagation de la
chaleur, qui n’est pas périodique dans le temps, ni dans l’espace. Mais cette non-périodicité
dans l’espace ne joue pas de rôle pour une corde qui a une longueur finie ou une paroi qui a
une épaisseur finie, puisque l’on ne s’intéresse pas aux valeurs extérieures à cette longueur
ou à cette épaisseur.
DIFFÉRENTS ESPACES
Séries de Fourier dans un espace borné entre 0 et 1
La possibilité des cordes de vibrer sur plusieurs harmoniques est illustrée par les
figures 2a, 2b, 2c, 2d. Nous allons maintenant exploiter la possibilité de vibrer à la fois
sur plusieurs harmoniques, par simple addition de leurs amplitudes ou superposition.
Superposition deviendra un mot clé en physique quantique. Nous allons montrer sur des
exemples quelques principes de la méthode, que nous résumerons ensuite de façon plus
systématique.
Voici deux exemples de profils de cordes, très amplifiés, correspondant à des
superpositions d’harmoniques
Généralisation aux fonctions périodiques
Nous avons considéré des fonctions sinusoïdales seulement dans l’intervalle de 0 à l.
En fait, elles sont définies pour toute valeur de x, et périodiques. Fourier admit sans
véritable démonstration que « toute » fonction périodique peut être représentée par les
fonctions sinusoïdales - sinus et cosinus - affectées de coefficients convenables. Une
fois cette propriété admise, il est facile de déterminer les coefficients qui figurent dans la
fonction, bien qu’il puisse y avoir un nombre infini de termes ou harmoniques.
En effet, les fonctions sinusoïdales ont une propriété remarquable qui permet pour ainsi
dire de séparer, on peut même dire de filtrer les harmoniques d’une série. Considérons la
fonction suivante :
U(x) = 0,4 (cos x + 0,8 sin 3x + 0,6 cos 5x + 0,4 cos 7x + 0,2 sin 9x)
ainsi que l’intégrale :
L’amplitude est fortement amplifiée au-delà de ce que l’on peut obtenir sur un instrument
de musique. On a pris ici l = 2� : la corde est fixée aux points 0 et 6,28.
U(x) = sin �x/l + (sin 2�x/l)/2 + (sin3�x/l)/3 - (sin 4�x/l)/4 + (sin 7�x/l)/5
T
∫ U(x)cos(5x) · dx
0
Vérifier que l’expression de U ci-dessus reste valable si l’on remplace x par x + 2�. Cette
fonction est donc périodique et de période T = 2�.
Autre exemple :
O
Comme U(x) est une somme, l’intégrale qui la contient est une somme d’intégrales
correspondant aux différents termes de U(x). Or, toutes sont nulles sauf celle correspondant
au terme en cos 5x, si l’on observe correctement les limites de l’intégrale, déterminées par
la période. Cette intégration consiste, en somme, c’est le cas de le dire puisqu’il s’agit d’une
intégrale, à faire entrer en résonance la fonction U avec la fonction cos 5x, et à observer
l’amplitude résultante. L’intégrale suivante, valable pour tout n entier, peut être démontrée
ou calculée sur certaines calculettes de poche :
l
∫
U(x) = 0,3 sin �x/l + (sin 2�x/l)/2 - (sin3�x/l)/3 - (sin 4�x/I)/4 + sin (7�x/I)
Figure 6. Ondes composites sur une corde (superposition)
0
34
2
(cos nx)2 · dx = �
On pourra aussi voir que la valeur moyenne de (cos nx)2 sur une période exacte est 1⁄2
en traçant le graphique de cette fonction. Un tracé approximatif à la main peut suffire.
Quand aux autres termes de l’intégrale en U(x), ils sont simplement nuls. En effet,
et voilà une grande simplification, l’un des piliers de la représentation de Fourier : les
intégrales suivantes
∫
0
2
cos px cos qx · dx = �
∫
0
Les fonctions les plus simples qui possèdent cette périodicité sont :
cos (2�nx/L) sin(2�nx/L)
Comme cos(px) = cos(-px) quel que soit p, cette fonction est dite paire. Au contraire, la
fonction sin(px) = -sin(-px) est dite impaire. La série suivante est donc une fonction paire:
∞
P(x) = ∑an cos 2n�x / L
2
sin px sin qx · dx = �
n=0
sont toutes nulles si p est différent de q. On dit que cos px et cos qx sont orthogonaux si
p et q sont différents, car ces intégrales sont des sortes de projections d’une fonction sur
l’autre. De même
2
∫
est nul quels que soient p et q.
0
tandis que
n=0
sin px cos qx · dx = �
est impaire. Or, toute fonction U(x) peut être représentée comme la somme d’une fonction
paire :
U(x) + U(-x)
P(x) =
Établir ces relations en utilisant les identités suivantes
cos(p - q)x + cos(p + q)x
cos px cos qx =
2
sin px sin qx =
sin px cos qx =
∞
Q(x) = ∑bn sin 2n�x / L
et d’une fonction impaire
cos(p - q)x - cos(p + q)x
Q(x) =
0
sin(p - q)x - sin(p + q)x
2
a0 =
T
U(x) cos 5x · dx = 0,4 · 0,6 · �
car 0,4, 0,6 est le coefficient de cos 5x dans la fonction U considérée.
Cette méthode s’étend, mutatis mutandis, aux cas où la fonction comprend des
termes en sinus. L’important est la possibilité de déterminer, et d’une manière unique, les
coefficients de Fourier d’une fonction périodique quelconque.
Des sommes de sinusoïdes comme celles que nous venons de voir permettent de
représenter la plupart des fonctions périodiques de la physique. Les sommes, où le nombre
n peut prendre toutes les valeurs entières, doivent être étendues jusqu’à l’infini. La fonction
à représenter doit avoir une seule valeur pour chaque point : c’est bien le cas pour une
corde, car un point de la corde ne peut pas se trouver à deux distances différentes de sa
position d’équilibre. La température, la pression ne peuvent pas non plus avoir deux valeurs
différentes en un point.
Reprenons la question de manière systématique.
Soit x la variable et soit L la longueur de la période.
U(x) - U(-x)
2
Suivant une méthode déjà utilisée plus haut, on obtiendra les coefficients en multipliant
U(x) par les différents cos et sin, et en intégrant de 0 à L. Comme l’intégrale sur l’intervalle
de 0 à L de (cos 2n�x / L)2 et de (sin 2n�x /L)2 est simplement L/2, on trouvera :
2
Compte tenu de ces relations l’intégrale en U se réduit à un terme :
∫
2
an =
2
L
bn =
2
L
∫
L/2
∫
L/2
-L/2
-L/2
1
L
∫
L/2
-L/2
U(x)·dx
U(x) cos(2n�x / L)·dx
U(x) sin(2n�x / L)·dx
On couvre ainsi une classe importante de fonctions. Les fonctions à plusieurs valeurs
sont toutefois exclues.
Les mêmes formules sont valables pour des fonctions du temps en remplaçant x par t,
L par T qui est la période, k par ω = 2�/T.
Voici les coefficients pour le cas des impulsions carrées : Ce sont des signaux qui sont
nuls pendant toute la période T, sauf pendant un intervalle τ où ils sont égaux à 1.
35
1
a0 =
T
an = 2
T
Ces formes font apparaître une symétrie entre l’espace des x et l’espace abstrait où k
est la variable.
τ
τ/2
∫ τ dt = T
- /2
τ/2
∫τ
cos(2n�t / T) = 2
- /2
L’ESPACE ET LE TEMPS REVUS PAR FOURIER
τ sin(2n�τ / T)
T
n�τ / T
On peut lire de deux manières la solution générale de l’équation des cordes vibrantes,
écrite sous la forme :
∞
On remarquera que, la valeur absolue du sinus restant inférieure à 1, celle des
coefficients diminue au moins comme 1/n.
Une application très intéressante concerne les phénomènes qui s’étendent dans le
temps ou dans l’espace de moins l’infini à plus l’infini. Un phénomène qui ne s’étend pas
sur un domaine ou une durée infinie mais suffisamment grande pourra néanmoins être
représenté approximativement de la même façon : par exemple, une note de musique tenue
pendant un très grand nombre d’oscillations, ou un phénomène physique dans un cristal
qui s’étend sur un grand nombre d’atomes ou molécules. On sait en effet qu’un cristal est
composé de structures atomiques alignées avec une très grande régularité. Du point de vue
mathématique le problème est le même dans le temps et dans l’espace, à ceci près que l’on
utilise généralement la variable x pour l’espace et la variable t pour le temps.
U(x,t) = ∑Cn sin(n�x / L) cos(n�vt / L - φn)
n=0
Elle peut être considérée à un moment donné t1 comme une fonction de x, de la forme :
∞
U(x,t1) = ∑Cn bn(t1) sin(n�x / L)
n=0
C’est une fonction périodique de x de période 2 L. Elle n’a pas de sens physique en
dehors de la corde, pour x < 0 et x > L. Elle peut servir à décrire toute fonction dans un
intervalle de x limité, celui de la corde.
On peut aussi considérer que les sin (n�x / L) sont connus d’avance et ne contiennent
pas d’information particulière sur la forme de la corde, puisqu’ils figurent dans toute
expression de cette forme ; l’information est contenue dans les bn. Or, on peut considérer
chaque hn comme une coordonnée dans une direction fictive n, de même qu’une
composante de vitesse vx est une coordonnée dans la direction x. Les directions fictives n
étant en nombre infini, on doit les situer dans un espace à un nombre infini de dimensions.
Cet espace est fictif assurément, mais il possède certaines propriétés de l’espace ordinaire.
En particulier, on peut leur assigner un coefficient tel que les longueurs soient les mêmes
dans les deux espaces. Si on considère maintenant la fonction U(x,t) pour une valeur
donnée de x, c’est-à-dire si nous observons les mouvements d’un point particulier x1, nous
pouvons l’écrire :
∞
Nouvelle généralisation : intégrales de Fourier
On peut traiter des fonctions qui ne sont pas périodiques et s’étendent sur toutes les
valeurs de la variable x. Il faut prendre un intervalle L centré sur 0 et le faire tendre vers
l’infini. Dans ces conditions, 2n�/L prend des valeurs quasi-continues lorsque n varie parce
que L est très grand et k = 2�/L très petit. Sans fournir une véritable démonstration, ceci
explique la méthode : on remplace k par une variable continue et les sommes par des
intégrales :
+∞
P(x) =
∫ a(k) cos kx · dk
Q(x) =
0
U(x1,t) = ∑En cos(n�vt / L - φn)
+∞
∫ b(k) sin kx · dk
n=0
0
C’est une fonction périodique du temps, de période T = 2L/v, valable en principe pour
tout temps passé ou futur, car nous ne savons pas quand la corde a été ébranlée ni comment
elle sera interrompue (l’amortissement inévitable n’a pas été pris en considération). Chaque
terme a sa fréquence propre �nv/L. De nouveau, nous pouvons considérer le mouvement
de deux manières :
1º) en fonction du temps en donnant la fonction U(x1,t) ;
2º) en fonction de n en donnant les En. On remarquera que �nv/L est égal à la fréquence.
Ainsi, pour une corde donnée, on donne alors les En en fonction de la fréquence.
C’est, à nouveau, comme si Fourier avait inventé un espace à un nombre infini de
dimensions équivalent au temps. On retrouve la même propriété dans la symétrie a - k des
Les fonctions a(k) et b(k) sont données par les intégrales suivantes :
a(k) = 1
2�
b(k) = 1
2�
∫
+∞
∫
+∞
-∞
-∞
P(x) cos kx · dk
Q(x) sin kx · dk
Ces expressions sont appelées « intégrales de Fourier ».
On notera une certaine réciprocité entre P(x) et a(k), Q(x) et b(k) d’une part, ainsi
qu’entre x et k.
36
intégrales de Fourier.
Ces considérations abstraites se sont montrées éminemment pratiques, et sont
même passées dans le langage commun : on dit qu’un haut-parleur ne passe pas les
basses fréquences, plutôt que de dire qu’il ne répond pas aux excitations très lentes. Les
techniques des communications utilisent autant la notion de fréquence que celle de temps.
L’aspect spatial n’a pas autant pénétré le langage, mais il est sous-entendu derrière la
notion de définition des images, et systématiquement utilisé dans plusieurs techniques
comme l’holographie.
Fourier nous a pourvus de notions complémentaires à celles d’espace et de temps
qui sont souvent, dans la technique moderne, plus pratiques que ces notions si courantes
elles-mêmes.
On verra plus loin que cette dualité a pris en physique quantique une très grande
importance. On a vu que l’analyse de Fourier explique comment la même équation peut
représenter la propagation de phénomènes assez localisés évoquant des particules, et
celle d’ondes étendues, ainsi que des oscillations localisées comme celle des cordes ou
d’un fluide dans un récipient.
La parution de la Théorie analytique de la chaleur fut certainement un moment essentiel
de l’histoire de la physique et des mathématiques appliquées.
En outre, l’espace est vide autour des atomes ou molécules dont l’agitation produit la
température ou la pression. On ne peut parler que de valeurs moyennes sur des volumes
comprenant un nombre suffisant de molécules. Dans un millimètre cube, il y en a environ
27 millions de milliards dans les conditions normales de température et de pression et les
conditions de validité sont extrêmement bien remplies. À l’échelle atomique, les séries de
Fourier peuvent perdre toute signification, suivant les grandeurs auxquelles on les applique.
Ainsi, les conditions physiques ne présentent généralement pas les bizarreries que les
mathématiciens considèrent : ce sont des fonctions « raisonnables ».
Voilà pourquoi l’on peut en pratique représenter une fonction continue par une, suitdiscrète de coefficients.
Importance de l’analyse de Fourier
Lorsque nous avons discuté les solutions de l’équation de propagation du son, nous
avons remarqué que l’usage de cosinus et de sinus permet souvent de remplacer les
dérivées par de simples multiplications. Nous avons aussi montré que des fonctions très
générales comme les-fonctions quelconques G et H peuvent être exprimées par des
sommes de fonctions sinusoïdales. Ces propriétés illustrent lé simplicité et la généralité
de l’analyse de Fourier. Elles se manifestent lors de l’étude de très nombreux phénomènes
physiques, du moment qu’ils sont Iinéaires1.
Les différents termes des séries de Fourier, qui se distinguent par leur nature, cosinus ou
sinus, ainsi que par leur fréquence (ou par une grandeur analogue dans l’espace telle que
n�/l) peuvent être séparés ou isolés par des appareils de mesure dont le principe est parfois
très simple. Il est généralement basé, comme nous le verrons plus loin, sur la propriété de
« résonance ». C’est ce qui justifie le concept de « composantes » caractérisées par leur
fréquence, concept qui permet de donner un sens précis, par exemple, à l’affirmation
que tel amplificateur rend mieux les basses que tel autre. Les praticiens sans grandes
connaissances théoriques peuvent manier ce concept avec aisance, tout en ignorant la
théorie qui le leur permet. Cela s’applique surtout aux domaines des oscillations et des
ondes de toute nature.
Sur le plan théorique, les propriétés des dérivations mentionnées ci-dessus ont pour résultat
que les équations différentielles ou intégrales et leurs combinaisons se traduisent pour chaque
fréquence par des équations algébriques qui sont beaucoup plus simples. On en verra des
illustrations au chapitre 6 à propos des techniques de radioélectricité. C’est la base du concept
d’impédance, qui remplace celui de résistance électrique pour les courants alternatifs.
Restrictions à la validité de l’analyse de Fourier
Un point paradoxal des séries de Fourier est de décrire une courbe qui a une infinité
non dénombrable de points par une infinité dénombrable de coefficients : on ne peut pas
dénombrer les points sur un arc de courbe avec les nombres entiers, ni avec les fractions
entières. Les pythagoriciens découvrirent que certains points d’une droite ne correspondent
pas à des fractions entières. Les points d’un arc de courbe sont en nombre infini, la suite
des nombres entiers et infinie. Il y a infiniment plus de points sur un arc de courbe que de
nombres entiers1.
Il ne s’agit pas d’une vaine subtilité. Le paradoxe s’explique parce qu’il n’est pas vrai
que « toutes » les fonctions périodiques peuvent être représentées par des séries de
Fourier. Mais la plupart de celles que considèrent les physiciens le peuvent, car on ne
mesure en général que des moyennes, ce qui élimine la plupart des fonctions « étranges ».
La température ou la pression d’un gaz en un point sont des notions qui n’ont en toute
rigueur pas de sens parce les grandeurs physiques sont par principe mesurables et que
tout instrument de mesure a des dimensions finies, que toute mesure prend un temps
fini : il n’y a pas de mesures ponctuelles, ni instantanées, mais seulement des mesures
de moyennes dans un espace plus ou moins grand pendant un temps plus ou moins long.
1. Eliane Cousquer, La fabuleuse histoire des nombres, Diderot multimédia, 1998.
37
1. Rappelons que la linéarité est la propriété de simple proportionnalité entre les variables physiques
locales - pression et densité d’un gaz, par exemple - indépendamment de l’amplitude. Elle entraîne la
possibilité de superposition.
Par rapport aux séries de Fourier, les intégrales et transformées élargissent encore
le champ d’applications, car elles ne sont pas limitées aux phénomènes périodiques.
Elles sont d’une aide puissante pour les techniques de traitement de tous les signaux, en
particulier des signaux optiques.
Par exemple, l’image photographique d’un point peut être regardée comme une fonction
de x et y dans le plan de la pellicule. La qualité de l’image se juge par la transformée de
Fourier de cette fonction, de même que la qualité d’un haut-parleur se juge par la manière
dont il rend les différentes fréquences.
Autre exemple : la technique des hologrammes, également présentée au chapitre 6, est
basée sur l’analyse de Fourier.
Le maniement des intégrales et transformées de Fourier sera simplifié et rendu plus
puissant encore lorsque nous introduirons les nombres dits « complexes » inévitables en
mécanique quantique.
La stature de Fourier se dresse derrière toutes techniques modernes de communications,
de traitement de l’information, ainsi que derrière la physique fondamentale.
CHAPITRE 5
DE THOMAS YOUNG À MAX PLANCK
LUMIÈRE, ÉLECTROMAGNÉTISME ET PHYSIQUE DES ONDES
Comme on l’a vu, la superposition d’ondes donne lieu à des phénomènes caractéristiques
qui n’ont pas d’équivalent dans la physique des corps solides. Deux ondes peuvent se
croiser, puis continuer leur cours comme si rien ne s’était passé. Comme une onde a des
phases positives et des phases négatives, deux ondes peuvent s’annuler localement. La
rencontre entre deux corps est toute différente. On ne peut « annuler un obus » en lui faisant
rencontrer un « obus négatif ». Ce sont de telles propriétés qui permettent de caractériser
expérimentalement la nature ondulatoire d’un phénomène.
Quittons le domaine de l’acoustique et revenons à celui de l’optique physique, en
sommeil depuis Newton. Le médecin anglais Thomas Young (1773-1829) rendit compte en
1802 d’une expérience cruciale, l’une des plus importantes de l’histoire de la physique.
En effet, il établit la nature ondulatoire de la lumière. On a vu que ce point fondamental
était l’objet de discussions depuis le début du XVlle siècle au moins.
Le médecin Thomas Young (1773-1829), polyglotte remarquable, traduisit quelques
éléments de la « pierre de Rosette » avant que Champollion (1790-1832) n’en donne
une traduction et n’établisse une grammaire de l’ancien égyptien. À côté de son
expérience fondamentale sur les interférences lumineuses, Young découvrit la cause
de l’astigmatisme de l’aeil, introduisit en physique le concept et le mot d’énergie. Il est
l’auteur d’ouvrages fondamentaux sur la nature de la lumière, des couleurs, et sur la
théorie trichrome de la vision.
Les « interférences » ; l’expérience d’Young
En entreprenant son expérience historique, Young se posait certainement des questions
sur la nature de la lumière, probablement inspirées par la controverse qui durait depuis
Grimaldi, Huygens, Newton.
L’expérience s’effectue sur des faisceaux ou pinceaux de lumière, en fait des rayons de
lumière isolés. Pour les produire, il faut partir d’une source « ponctuelle », ou au moins de
petite dimension, et éclairer un trou ou une fente pratiquée dans un écran. Pour observer
le faisceau qui émerge du trou, on place un deuxième écran derrière le premier : on obtient
une tache lumineuse qui est pour ainsi dire l’image du trou. Plus le trou est grand, plus la
tache est grande.
Figure 7a. Rayonnement lumineux d’une source ponctuelle
à travers des trous, suivant l’optique géométrique
Mais si l’on utilise des trous de plus en plus fins, on constate que la tache, après avoir
décru, devient de plus en plus grande et, naturellement, de moins en moins lumineuse.
Cette sorte d’éclatement, de divergence de la lumière est appelée « diffraction ».
Franges d’interférence
Cette image photographique un peu irrégulière a été obtenue par l’auteur dans son
grenier avec un matériel d’amateur, comprenant un petit laser du commerce (λ = 670 nm)
et deux trous d’aiguille (∅ = 0,05 mm) distants de 0,45 mm dans une feuille de capsule
d’étain. Le diamètre de la tache correspond à l’étalement par diffraction selon la figure
6b. Les taches des deux trous sont superposées, ce qui provoque l’apparition des
franges de la photographie. L’expérimentateur peut apprécier quelle ingéniosité et,
probablement, quelle persévérance Thomas Young a dû déployer, avec des sources de
lumière rudimentaires, pour réaliser son expérience et pour convaincre la communauté
scientifique.
Pour comprendre ces résultats paradoxaux, la notion clé est celle de phase, que nous
avons introduite à propos de l’acoustique : une onde possède, suivant sa phase, des
régions d’amplitude négative et d’autres d’amplitude positive. C’est pourquoi deux ondes
superposées peuvent s’ajouter ou s’annuler constamment en certains points si elles ont
la même fréquence. Sur les raies brillantes, elles s’ajoutent ; sur les raies sombres, elles
s’annulent.
Or, suivant la conception d’Huygens, complétée par une théorie ondulatoire explicite,
la phase varie, le long d’un rayon, de 360° ou 2� radians pour chaque longueur d’onde
parcourue : la phase varie proportionnellement à la distance parcourue.
Figure 7b. Rayonnement lumineux d’une source ponctuelle à travers
des trous de petit diamètre suivant l’optique physique (réelle),
montrant l’étalement et en grisé le recouvrement des pinceaux
Le principe de l’expérience d’Young consiste à diviser un faisceau lumineux en deux,
et à recombiner ceux-ci sur un écran après des parcours légèrement différents. Pour ce,
on éclaire deux trous ou deux fentes pratiqués dans un écran opaque. Les deux faisceaux
émergent des deux trous et s’étalent par diffraction, se superposant partiellement ; on
observe leur projection sur un écran blanc. Surprise, la tache éclairée présente une
alternance de raies ou franges brillantes et de raies sombres perpendiculaires à la direction
des deux trous. Plus les trous sont proches, plus les raies sont écartées.
39
Ainsi, l’expérience d’Young ne démontre pas seulement que la lumière se propage sous
forme d’ondes, elle permet aussi de connaître la longueur d’onde. On trouve que celle-ci est
grossièrement d’un demi-micron (un micron est un millionième de mètre, ou un millième de
millimètre). La vitesse de la lumière étant connue, on a l’ordre de grandeur de la fréquence
des ondes par une formule déjà utilisée pour les ondes sonores :
f=v/λ
où v est la vitesse de phase, ici égale à c, vitesse de la lumière. On a vu que celle-ci était
connue depuis 1676 grâce aux travaux du Danois Römer à l’Observatoire de Paris, et fut
précisée ultérieurement : 299 792 km/sec. On trouve ainsi pour f une valeur de l’ordre de :
6.1014 = 600 000 000 000 000 Hertz ou oscillations par seconde
La détermination de la vitesse de la lumière par Römer fut le premier fait expérimental
qui nous transportait à une échelle beaucoup plus grande que la nôtre. Celle de Young nous
introduit dans un univers de très petites dimensions.
Figure 8. Composition de deux rayons lumineux produisant
les interférences de Young
Si l’on bouche l’un des trous, on observe l’étalement de l’autre faisceau.
L’observation intéressante et paradoxale est que si les deux trous sont ouverts, on
observe une succession de raies lumineuses équidistantes perpendiculaires au plan de la
figure, séparées par des raies sombres : de la lumière plus de la lumière peut donner aussi
bien de l’obscurité que de la lumière plus forte, suivant les endroits.
Un point quelconque M de cet écran reçoit de la lumière de B et de C, mais les
longueurs des rayons diffèrent de BN. Si BN est un nombre entier de longueurs d’onde, les
deux faisceaux sont de même signe en M et se renforcent. Si BN est un nombre entier plus
une demie longueur d’onde, les amplitudes des deux faisceaux sont de signe opposé, il n’y
a pas de lumière au point M.
On sait maintenant qu’un trou d’un dixième de millimètre de diamètre est encore quelque
deux cents fois plus grand que la longueur d’onde. Faire une construction géométrique
analogue à celle de la figure 8. Considérer un point de l’écran décentré par rapport à l’axe
du faisceau, et deux rayons qui l’atteignent, le premier issu de la moitié droite, l’autre de
la moitié gauche du trou. Pour une certaine valeur de la longueur d’onde, la différence de
longueur des deux rayons est de λ/2 : ces deux rayons s’annuleront, le point considéré
sera dans une zone sombre. Un peu plus loin, on aura une zone lumineuse, et ainsi de
suite avec une intensité décroissante. On explique ainsi les anneaux de la photographie
suivante.
On peut trouver la position des raies par le raisonnement géométrique suivant, qui est
approximatif mais suffisant : le triangle BNC est très sensiblement semblable au triangle HMO. On
en déduit :
HM/HO = BN / NC
En fait, la distance HO entre les deux écrans est grande, si bien que l’angle des rayons avec
OH est petit et que NC est très voisin de BC, que nous appellerons d. On appellera de même D la
distance OH et x La distance HM. On obtient alors :
x = (D/d) BN
Si l’on suppose que AB et AC sont égaux, les points B et C sont éclairés en phase et la différence
de phase en M provient du segment BN. Si BN est un nombre entier n de longueurs d’onde 2, les
deux rayons sont en phase et x est le milieu d’une raie lumineuse : celles ci sont donc repérées par
les valeurs :
x = nλD/d
Si au contraire n est un entier plus 1/2, les deux rayons sont en opposition de phase en M, qui se
trouve au milieu d’une frange obscure.
La distance entre les raies lumineuses, séparées par des raies sombres est donc 2λD/d.
40
Notez bien que ces découvertes fondamentales ont été faites sans que l’on ne connût
rien sur la nature de ces ondes. On supposait qu’elle était due aux vibrations de quelque
substance mystérieuse appelée l’éther, sans rapport avec la substance chimique de même
nom, sinon celui d’être extrêmement volatile.
L’expérience d’Young fut répétée maintes fois suivant des variantes de plus en plus
perfectionnées, donnant lieu à une véritable science, l’interférométrie, aux nombreuses
applications pratiques.
La théorie ondulatoire progressa considérablement, notamment en France grâce
notamment à Fresnel (1788-1827) et à Foucault (1819-1868). Elle permit d’améliorer les
instruments d’optique, en fait de leur permettre d’atteindre les limites qu’elle-même leur
imposait. Nous allons en voir un aspect.
Soulignons d’abord que l’expérience originelle, sur laquelle on trouve peu de détails
dans les traités de style universitaire, dut rencontrer non seulement le problème déjà
signalé de l’intensité, mais le fait que la lumière est composée de toutes les longueurs
d’onde de son spectre, ce qui produit des distances différentes entre raies lumineuses. Le
résultat est que l’on ne peut observer que quelques raies centrales. Tout changera, plus
tard, avec les sources monochromatiques, notamment avec les lasers et l’expérience en
sera d’autant plus démonstrative.
Si la conception d’Huygens de la propagation de la lumière est une des clés de la
physique, Young a en même temps fourni un test universel pour démontrer la nature
ondulatoire d’un phénomène. Cent vingt-cinq ans plus tard, une expérience semblable faite
avec un jet d’électrons au lieu d’un faisceau lumineux permit de démontrer (Davisson et
Germer, 1927) l’existence des ondes associées à la matière prévues par de Broglie (1924).
Très récemment (1997), on a pu mettre en évidence les interférences présentes dans des
jets d’atomes.
routes et des ponts en province. Ses travaux sur la diffraction surpassèrent de beaucoup
ceux de Young en variété et en précision. Le diagramme de Fresnel, aide considérable à
la compréhension des oscillations, est un guide précieux pour étudier leur composition,
en particulier si on le combine avec le principe de Huygens. À la fin de sa vie, Fresnel
était chargé des phares et leur apporta une amélioration considérable. Les « lentilles de
Fresnel » sont utilisées dans beaucoup d’applications, notamment sous forme de films de
plastique, jusque dans certains jouets.
On a vu que plus on cherche à réduire la section d’un rayon lumineux fin, plus il s’étale.
Le rayon ou pinceau lumineux de l’optique géométrique est une approximation qui n’est
valable que pour des faisceaux pas trop fins. Si les faisceaux ont au contraire une extension
latérale suffisante, les bords restent, au moins sur une certaine longueur, bien définis. Une
conséquence est que l’image donnée par un instrument d’optique d’un point ne peut jamais
être un point, mais une tache, puisqu’un point est infiniment mince. On appelle ouverture
la section du faisceau à l’endroit où il pénètre dans l’instrument. Paradoxalement, si l’on
veut des images précises, il faut des ouvertures de grand diamètre et une lentille de bonne
qualité qui concentre le faisceau. Cela va contre la règle de l’optique géométrique suivant
laquelle il faut de petits diaphragmes pour obtenir une image nette. Cette règle est établie
en raison des déformations ou aberrations qu’apportent les lentilles, mais les défauts de
l’optique géométrique peuvent être corrigés grâce à des combinaisons judicieuses de
lentilles, alors que rien ne permet de supprimer la diffraction.
Tous les instruments d’optique voient leurs performances limitées par ce phénomène.
L’on perd de la netteté en diaphragmant un appareil photographique 24 x 36 au-delà de
f : 11. Les appareils de plus grand format restent nécessaires pour obtenir de très bonnes
images. Les microscopes optiques sont limités par la diffraction à des grossissements de
quelques milliers. Les télescopes les plus puissants ne peuvent distinguer aucun détail des
étoiles, sauf à effectuer des combinaisons ingénieuses de plusieurs télescopes telles que
celles qui sont mises en service actuellement au Chili : on peut alors mettre en évidence de
petits déplacements de certaines étoiles dûs à l’attraction des planètes qui tournent autour
d’elles.
Ce paradoxe des propagations d’onde, que plus un trou est fin, plus la tache lumineuse
qu’il projette déborde la projection géométrique est grande se retrouvera avec le principe
d’Heisenberg. Il entraînera la conséquence très coûteuse qu’un accélérateur de particules
est d’autant plus grand qu’il permet d’observer à une échelle plus petite.
On peut observer un phénomène d’interférences lumineuses sans aucun matériel spécial.
Il suffit d’observer, la nuit tombée, des luminaires distants de quelques dizaines de mètres
à travers un rideau de tulle. On constatera que chacun donne lieu à un groupe de neuf
taches lumineuses disposées au centre, au milieu des côtés, et aux sommets d’un carré.
Les luminaires distants constituent des sources ponctuelles et chaque maille du tulle se
comporte comme une source lumineuse. Notre œil reçoit les rayons provenant de ces
sources, déphasés suivant leur distance à notre œil. La disposition est inversée par rapport
à celle de Young : au lieu de regarder en quels points les amplitudes de deux ondes issues
de deux sources s’ajoutent, on voit de quelles paires de mailles proviennent des ondes qui
s’ajoutent. Les distances entre sources brillantes se calculent comme les distances entre
raies brillantes. Pourquoi seulement neuf points lumineux ? Parce que la lumière contient
une variété de longueurs d’ondes qui se compensent à des distances différentes du centre.
Pourquoi une disposition en carré ? Parce que les mailles du tulle se répartissent dans
deux directions, tandis que les deux trous de Young définissent une direction.
Diffraction des pinceaux ou faisceaux lumineux
La théorie des lentilles et autres instruments d’optique développée depuis Kepler
était basée sur la conception de rayons lumineux rectilignes et éventuellement infiniment
minces. Ce fut un succès immense dû notamment à Fraunhofer (1787-1826) et Fresnel
(1788-1827) que de retrouver l’optique géométrique comme approximation de phénomènes
de propagation d’ondes, grâce à une théorie qui explique également les interférences de
Young.
Augustin Fresnel (1788-1827) fut, selon Emilio Segré, le plus grand opticien du dixneuvième siècles1. Fils d’un architecte, de santé précaire, d’une habileté exceptionnelle, il
fut formé à l’École Polytechnique et passa la majeure partie de son temps à construire des
1. Emilio Segré, Les physiciens classiques et leurs découvertes, Fayard, Le temps des sciences, 1987.
On peut observer les vagues excitées par une vanne qui déverse un fort débit d’eau dans
un étang : elles s’étendent dans toutes les directions, et pas seulement dans la direction
de l’écoulement au niveau de la vanne, car les ondes ne peuvent se restreindre à la
largeur de la vanne.
41
C’est une sorte d’étalon naturel. Cette propriété va jouer un rôle considérable dans les
développements ultérieurs.
Le son, la lumière et les spectres de fréquences
Depuis que Galilée, suivi par Mersenne et d’autres, a attribué une fréquence aux «
sons élémentaires », on analyse les sons et les bruits par l’intensité des fréquences qu’ils
contiennent. Il en est de même pour la lumière. Le premier spectre lumineux observé a été
celui de l’arc-en-ciel. Newton a su le produire en laboratoire par l’expérience du prisme
qui envoie chaque couleur dans une direction différente, grâce à une propriété du verre :
l’indice de réfraction dépend de la longueur d’onde. Il a ainsi obtenu le spectre de la lumière
blanche puisque, depuis Young, on sait associer à chaque couleur une longueur d’onde
et une fréquence. Le spectre de la lumière renvoyée par une surface verte ou rouge est
évidemment différent.
Von Fraunhofer inventa en 1815 le spectrographe : à l’aide d’un instrument d’optique,
on peut concentrer la lumière provenant d’un objet sur un prisme et étudier sa composition.
Il plaça un prisme derrière un télescope braqué sur le soleil et découvrit que certaines
couleurs de l’arc-en-ciel manquent. Comme Newton, il s’attendait à observer derrière le
prisme la projection sur un écran une tache dont la couleur varie, suivant une direction
perpendiculaire à l’arête du prisme, du rouge au violet en passant par l’orangé, le jaune,
etc. Mais, l’observation plus précise de Fraunhofer montrait que de fines raies sombres
apparaissent à la place de certaines couleurs. Ce phénomène ne fut compris que bien
plus tard : il démontrait la présence dans le soleil d’un gaz alors inconnu sur terre, l’Hélium
(du grec Hélios, soleil). C’était une « première » dans l’histoire de la spectrographie et de
l’astrophysique.
Montrer que, si la loi de Kirchhoff n’était pas remplie, on pourrait chauffer un corps avec
un corps plus froid.
Les conditions requises pour un corps noir sont bien vérifiées dans un four complètement
fermé et en état d’équilibre thermique, même si ses parois réfléchissent certaines longueurs
d’onde. Cela tient à l’isolement de cet espace et au temps de mise en équilibre thermique.
Il faut quand même permettre de pratiquer un petit trou pour braquer un spectrographe, et
on observe le spectre du rayonnement qui remplit le four. Il a l’aspect suivant : c’est le «
spectre idéal du corps noir ».
Diagramme universel du spectre de rayonnement du « corps noir », donnant l’intensité
lumineuse en fonction de la fréquence rayonnée, en « unités réduites » définies dans le texte.
Le spectre du « corps noir »
Figure 9
La chaleur se présente sous plusieurs formes : si nous nous brûlons au contact d’un
solide ou d’un liquide chaud, si nous utilisons un sèche-cheveux, c’est l’agitation des
molécules qui nous réchauffe. Mais devant un radiateur électrique ou mieux, chauffés par
le soleil, nous recevons un rayonnement qui traverse le vide. Le rayonnement thermique
est de même nature que la lumière. Comme on avait compris le phénomène de l’agitation
thermique des molécules des gaz grâce aux travaux de Maxwell et Boltzmann, on voulut
expliquer le rayonnement thermique par une sorte d’agitation thermique de la lumière.
Encore une histoire d’ondes !
Les expérimentateurs découvrirent que les spectres de tous les corps denses chauffés,
blocs solides, gaz denses, se rapprochent d’une forme idéale, qui dépend uniquement de
leur température. On put attribuer les différences au fait que certains corps réfléchissent
ou n’absorbent pas certaines fréquences. « Le corps noir » fut défini comme un corps idéal
ne réfléchissant aucune lumière incidente. Il peut être très lumineux s’il est chaud. Gustav
Robert Kirchhoff (1824-1887) montra qu’aucun corps ne peut rayonner plus que le corps
noir à une température donnée. On trouva des corps qui s’approchent beaucoup de cet
idéal. On peut alors dire que le spectre du corps noir ne dépend que de sa température.
L’abscisse x est la quantité 4,8.10-11 υ/T : elle dépend de la fréquence υ du rayonnement
considéré et de la température « absolue » ou température « Kelvin » du corps rayonnant,
égale à la température centigrade augmentée de 273,16. En effet, la température ne peut
descendre en dessous d’une certaine valeur : moins 273,16° centigrade à laquelle toute
agitation thermique cesse d’après la physique classique. Cette température de -273,16°C a
donc une signification plus « essentielle » que le zéro Celsius, température de fusion d’un
corps particulier, la glace. C’est le « zéro absolu ». Si la température Celsius reste plus
commode pour la vie ordinaire, la physique fondamentale préfère généralement utiliser la
température absolue ou température « Kelvin dont le zéro est moins 273,16° centigrade.
L’ordonnée de la courbe ci-dessus est proportionnelle à la densité d’énergie du
rayonnement thermique, à la fréquence correspondant à l’abscisse, la température étant
donnée. Dans la mesure où l’on peut effectuer les mesures, on trouvera que la densité ellemême, en Joule/m3, est égale à l’ordonnée multipliée par 0,01780 et par « dυ », l’intervalle
de fréquence dans lequel on détermine la densité. Grâce à ce choix des ordonnées
et abscisses, on obtient une courbe valable pour toutes les températures. Toutes ces
42
précisions peuvent être déterminées expérimentalement. Elles sont données ici telles que
la théorie nous les a finalement fournies.
Il y a beaucoup à dire sur cette formule de la « densité spectrale et volumique de
l’énergie du rayonnement du corps noir », mais il nous suffira de quelques remarques pour
obtenir des résultats de première importance.
– La courbe présente un maximum, égal à 4,465, pour x = 2,82. Dans les conditions du
maximum, on a donc :
LUMIÈRE ET ÉLECTROMAGNÉTISME
Électricité, magnétisme, ondes électromagnétiques
À la base de cette science se trouvent des travaux expérimentaux dans trois
domaines différents :
– le magnétisme de certains corps et de la terre, dès 1600 objet d’une étude scientifique,
le De Magnete1, par William Gilbert (1540-1603), médecin de la reine Elisabeth ;
– l’électricité statique des corps frottés, déjà étudiée dans le même traité, où le mot
électricité est pour la première fois utilisé ; cette électricité fut produite vers 1660 par la
machine de Otto von Guericke (1602-1686), que Francis Hausbecke perfectionna vers 1705.
Cette électricité fut stockée dès 1746 dans les « bouteilles de Leyde » inventées par Pieter
van Musschenbroek (1692-1761) et Ewald Georg von Kleist (?-1748). La bouteille était le
premier condensateur, organe universellement répandu dans les appareils électroniques.
Les condensateurs sont formés de deux surfaces métalliques étendues et séparées par un
mince espace généralement occupé par un isolant. Les deux corps métalliques sont reliés
à des conducteurs électriques ;
– les piles électriques inventées en 1800 par Alessandro Volta (1740-1827) qui débitent
un courant dans les conducteurs. Ce courant est en relation évidente avec un phénomène
chimique dans la pile.
4,8.10-11 υ/T = 2,82
Cela signifie que, pour toute température d’un corps (noir), la densité de rayonnement
par unité de fréquence est maximum à une certaine fréquence. On préfère souvent parler
de longueurs d’onde X plutôt que de fréquences, parce que ce furent longtemps les seules
données expérimentales directes. Comme λ est égal à la vitesse de la lumière divisée par
la fréquence, λ = c/υ, on obtient pour la longueur d’onde correspondante à une température
donnée
λ = 0,0051 /T
Ainsi, un filament de lampe chauffé à 1 500 °K émet principalement à 0,0000034 mètre,
c’est-à-dire 3,4 microns. La surface du soleil est à environ 6 000 °K et rayonne surtout
à 0,85 micron. Si l’œil était sensible à la densité d’énergie par intervalle de fréquence, il
verrait le soleil infrarouge ! Mais tel n’est pas le cas. L’oeil est sensible à la lumière entre
0,45 (violet) et 0,70 (rouge sombre) microns, avec un maximum vers 0,55 (vert). Dans les
deux exemples précités, nous voyons donc mal la partie la plus intense. Ceci est surtout
vrai dans le cas de la lampe à incandescence, qui a donc un mauvais rendement lumineux
et dissipe la plupart de sa puissance en chaleur.
– L’intensité s’effondre aussi bien à droite qu’à gauche du maximum. Ce phénomène est
resté pendant quelques décades inexpliqué, malgré les découvertes qui vont être résumées
dans le paragraphe suivant.
La théorie des ondes électromagnétiques établie par Maxwell vers 1860, révéla que
la lumière est un phénomène électromagnétique. L’étude du rayonnement thermique
doit donc être faite à l’aide de la théorie de Maxwell : c’est elle qui pourra décrire les
phénomènes électromagnétiques qui, dans le rayonnement thermique, jouent le même rôle
que l’agitation thermique des molécules des gaz.
Alessandro Comte Volta (1745-1827), né à Côme dans une famille prospère, étudia
surtout le latin, les langues et la littérature. Il fut attiré vers les sciences, entreprit de
bonne heure des expériences d’électricité et commença à correspondre avec le monde
scientifique dès l’âge de seize ans. Après des travaux de valeur sur l’électrostatique et
des controverses sur la nature de l’électricité avec Luigi Galvani (1737-1798), il inventa
la « pile électrique ». Ainsi, à côté des phénomènes fugitifs et capricieux des étincelles
et de la foudre, il fournit des sources de courant électrique permanent et ouvrit la voie
aux expériences d’électromagnétisme et d’électrochimie d’Œrsted et d’Ampère. Volta
montra sa pile à Paris en 1901, et reçut de Bonaparte une médaille spéciale et une rente,
ainsi que le titre de comte et une protection durable. Son invention fut acclamée dans de
nombreux pays.
Il y eut beaucoup d’expériences plus ou moins significatives au cours des dix-septième
et dix-huitième siècles. Citons Stephen Gray (1670-1736), Jean Nollet (1700-1770),
Benjamin Franklin (1706-1790), dont les expériences et les réflexions permirent de
43
1. Littéralement : « G. Guillielmi Gilberti Colcestrensis, medici Londinensis, de magnete, magnetisque
corporibus, et de magno magnetc tellure physiologia nova ». Physiologie nouvelle de l’aimant, des
corps magnétiques et du grand aimant de la terre, par William Gilbert de Colchester, médecin à
Londres, 1600.
distinguer conducteurs et isolants, électricité positive et négative, ainsi que Luigi Galvani
(1737-1798), qui fut le précurseur de Volta.
Le champ magnétique des aimants, la charge des condensateurs, le courant des piles
ont une permanence qui facilite considérablement l’expérimentation.
C’est l’ingénieur Charles Coulomb (1736-1806) qui fit entrer l’électricité statique et
le magnétisme dans la phase quantitative, grâce à une dextérité et à une opiniâtreté
expérimentales exceptionnelles. Il établit entre 1785 et 1788 la loi des forces entre les
charges électriques, identique dans sa forme à la loi de gravitation de Newton, mais
différente suivant les signes des charges ; il établit de même la loi des forces entre les pôles
des aimants, de même forme. Néanmoins, ces deux forces sont de natures différentes ; par
exemple, un aimant n’exerce aucune force sur une charge électrique.
entre des fils conducteurs parcourus par des courants, et les expressions mathématiques
convenables furent trouvées dès 1820. C’est cette force entre courants qui fut utilisée plus
tard pour construire des moteurs électriques.
André-Marie Ampère (1775-1836) était professeur d’analyse mathématique à l’École
Polytechnique.Sur la base de la découverte d’Œrsted, il effectua la même année quatre
expériences fondamentales sur les forces entre les conducteurs électriques. Il attribua
avec clairvoyance le ferromagnétisme à des courants macroscopiques. Maxwell l’appela
le « Newton de l’électricité », titre qu’il méritait aussi lui-même.
On connaissait désormais quatre forces considérées comme distinctes :
• l’attraction universelle de Newton
• la force électrique de Coulomb
• la force magnétique de Coulomb
• la force entre courants électriques.
Charles Auguste Coulomb (1736-1806), grand ingénieur militaire, fut formé à la
remarquable École du Génie de Mézières. Après avoir fortifié la Martinique, il revint
en fort mauvaise santé. Pour étudier les variations de champ magnétique du champ
terrestre, il inventa la « balance de torsion », instrument très délicat d’une sensibilité
incomparable qui lui permit d’établir les premières lois quantitatives de l’électricité : celles
de l’électrostatique et de la magnétostatique.
On avait pour ces forces des expressions mathématiques également parfaites, calquées
sur celle de Newton. La dernière, toutefois était un peu différente parce que certaines forces
entre deux corps sont perpendiculaires à la ligne qui les joint.
Des théoriciens français, allemands, anglais apportèrent d’importantes contributions :
Carl Friedrich Gauss (1777-1855), Siméon Denis Poisson (1781-1840), George Green
(1793-1841), George Gabriel Stokes (1819-1903).
Le Danois Hans Christian Œrsted (1777-1851) découvrit en 1820 qu’un aimant placé au
voisinage d’un fil conducteur s’oriente perpendiculairement à ce fil si celui-ci est parcouru
par un courant électrique.
Prélude à la « théorie de tout »
Le Danois Hans Christian Œrsted (1777-1851) étudia la médecine, la physique et
l’astronomie et débuta comme apothicaire avant d’entreprendre un voyage en Europe
au cours duquel il rencontra plusieurs philosophes et savants célèbres. Il avait des
idées de nature philosophique en faveur de l’unité de la nature, influencées par Goethe
et Schelling. Professeur de physique à l’université de Copenhague, il découvrit en
1820 qu’un courant électrique fait dévier une boussole, phénomène qu’il avait anticipé,
persuadé de « l’identité des forces électriques et magnétiques » (Segré). Il étudia la
compressibilité des liquides et découvrit en 1824 un nouvel élément, l’aluminium. Il
exposa ses conceptions philosophiques dans « L’Esprit de la Nature » (1850). Il joua un
rôle très actif dans l’enseignement et dans la vie scientifique au Danemark.
Les mathématiciens et expérimentateurs français André Marie Ampère (1775-1836),
Jean-Baptiste Biot (1774-1862), Dominique François Arago (1786-1853), Félix Savart (17911861), et leur aîné Pierre Simon de Laplace (1749-1827), traduisirent ces phénomènes
dans des équations élégantes valables pour toutes formes possibles de fils. Plus même,
ils prédirent que si un fil parcouru par un courant électrique dévie un aimant, celui-ci doit
exercer à son tour une force sur un fil parcouru par un courant, conformément à la troisième
loi de Newton, dite de l’action et de la réaction. De même, des forces doivent s’exercer
L’expérience d’Œrsted établissait une parenté entre un aimant et un fil parcouru par un
courant. Plus même, on constata que l’expérience d’Œrsted peut être faite aussi bien en
déchargeant un condensateur par le fil qu’en y faisant passer un courant grâce à une pile de
Volta. Ainsi apparut une parenté étroite, et pas seulement de forme, entre les trois dernières
forces, qui toutefois restaient entièrement étrangères physiquement à la gravité. On se
trouvait dans un domaine unique, celui de l’électromagnétisme ou électrodynamique.
NOUVEAUX EFFETS ÉLECTRODYNAMIQUES
44
L’électromagnétisme progressa sur au moins quatre plans grâce à un jeune apprenti
relieur, Michael Faraday (1791-1867) ; il lisait les livres qu’il reliait, parlait probablement à
leurs auteurs, et c’est ainsi qu’il devint l’assistant du chimiste et électrochimiste Humphrey
Davy (1778-1829). Davy avait construit une pile électrique impressionnante, batterie de 400
éléments pour obtenir de grands courants qui produisent d’effets chimiques importants par
électrolyse. En 1808, il reçut pour ces travaux une médaille d’or des mains de Napoléon,
passionné d’électricité. Davy, étant devenu aveugle, avait besoin d’aide ; il réussit à faire
entrer Faraday comme garçon de laboratoire à la « Royal Institution » en 1813. Il l’emmena
alors comme secrétaire, valet de chambre et assistant dans un grand voyage sur le
continent. Ils visitèrent Paris, où ils firent avec Ampère des travaux sur l’iode, Florence,
où ils virent les lunettes historiques de Galilée. Grâce à une puissante lentille, Davy put
démontrer que le diamant est du carbone pur. Faraday apprit le français et l’italien et resta
toujours en contact avec les chercheurs du continent1.
C’est la force exercée par une charge q1 sur une charge q2 placée à la distance rl ,2
entre ces deux charges. On considérait qu’il s’agit d’une action à distance, de même que la
force de gravitation. Mais les physiciens n’ont jamais aimé les actions à distance. Descartes
inventa ses tourbillons pour les éviter. On reprocha à Newton de faire intervenir des forces
sans les expliquer. D’après Faraday, la charge q1 modifie l’espace même si l’on n’y place pas
de charge. Elle y fait régner à toute distance r1,2 de la charge 1 un champ électrique E1,2 :
E1,2 = q1 / r2
Le destin d’un jeune relieur, Michael Faraday (1791-1867), l’amena à fréquenter de
grands savants, puis à découvrir expérimentalement l’induction électrique, phénomène
sur lequel repose le fonctionnement de nos génératrices électriques. Il devint malgré
son inculture mathématique l’un des plus grands théoriciens de l’électromagnétisme,
notamment en introduisant les « champs électriques et magnétiques ». La notion de
champ a été étendue depuis à toutes les formes de forces ou interactions. Faraday
fut un expérimentateur exceptionnel. Il fut aussi un grand chimiste et l’un des pères de
l’électrochimie.
Si maintenant on introduit la charge q2, elle sera soumise à la force
f1,2 = E1,2q2
exactement suivant la loi de Coulomb.
Le même argument est développé avec les effets magnétiques.
Faraday a donc introduit le champ électrique et le champ magnétique, tous deux champs
de vecteurs puisque les forces ont une direction. Cette notion devait se révéler extrêmement
féconde ; elle est toujours utilisée dans les théories récentes des interactions nucléaires ;
naturellement, les champs sont d’une nature différente pour chaque type d’interaction.
Le champ semble jusque-là assez fantomatique, puisqu’il ne correspond pas à une
expérience directe, qui demande une seconde charge pour mesurer la force. On verra
bientôt qu’il contient néanmoins de l’énergie.
Voici maintenant comment un simple problème d’unités électriques fit apparaître pour
la première fois la vitesse de la lumière en électromagnétisme. On peut faire beaucoup
d’expériences sans définir d’unités : une mesure montre que tel effet double ou quadruple
lorsque telle cause double ; une série de telles mesures permet de trouver une loi
quantitative comme celle de Coulomb, à un facteur multiplicatif près. Lorsque l’on veut
communiquer des résultats à des laboratoires lointains, ce facteur doit être spécifié : la
définition d’unités est indispensable. On définit donc l’unité de charge comme celle qui,
placée à l’unité de distance (centimètre) d’une charge égale, lui applique une force unité
(dyne). Avec cette définition, le facteur multiplicatif est exactement un. De même on définit
ainsi l’unité de courant : deux fils parallèles de longueur unité parcourus par ce courant et
distants de la longueur unité exercent entre eux le double (c’est plus commode) de la force
unité. Jusque-là, les effets électriques et magnétiques étaient considérés séparément. Il
était néanmoins clair que le courant est dû à la circulation de charge électrique. Pour la
simplicité des calculs, il serait souhaitable que l’unité de courant corresponde à l’écoulement
d’une unité de charge pendant une unité de temps. Cela assurerait la conservation de la
quantité d’électricité observée dans les expériences. L’unité de courant étant déjà définie,
cela impose l’introduction d’une seconde unité de charge électrique. Est-elle identique
à la première, qui a été définie par les forces électriques ? L’expérience du laboratoire
montrait que la charge définie par le courant et beaucoup plus grande que la charge
électrostatique.
En dehors de ses travaux de chimie pure, Faraday apporta des contributions essentielles
dans les domaines suivants
– l’électrolyse ; il énonça en 1834 une loi d’équivalence entre la quantité d’électricité et la
masse séparée ou le volume de gaz libéré par électrolyse. Cette loi fournit un moyen précis
de mesure des courants ou des charges électriques ;
– l’électromagnétisme ; il découvrit le phénomène de l’induction magnétique (1831) :
si l’on fait varier un champ magnétique dans un circuit électrique fermé qui ne comporte
aucune pile, des courants électriques y circulent. On y a fait naître une force électromotrice
un peu analogue à celle d’une pile, mais qui ne dure que tant que le champ magnétique
varie. On peut obtenir l’effet en faisant varier le courant électrique dans une autre boucle
voisine, aussi bien qu’en déplaçant un aimant ou cette seconde boucle. C’est sur cette base
que l’on construira des génératrices électriques capables de supplanter les piles ;
– l’optique : Faraday montra que la lumière se propage de manière différente dans certains
verres lorsque l’on y excite un champ magnétique (« effet Faraday », 1845). Il démontra
ainsi que, comme il l’avait pressenti, la lumière est apparentée à l’électromagnétisme ;
– de nouveau l’électromagnétisme ; Bien que totalement dénué de capacités
mathématiques, Faraday inventa l’un des concepts les plus importants de la physique
théorique : celui de « champ » (1848).
Depuis Coulomb, on calculait les forces qui s’exercent entre deux charges électriques
par la formule suivante :
qq
f1,2 =
1 2
r21,2
1. Jean-Pierre Maury, Petite histoire de la physique, Larousse, 1992.
45
peut se manifester que pour des variations suffisamment rapides, ce qui explique qu’il ne
se soit manifesté jusqu’alors dans aucune expérience.
On est alors vers 1865, et c’est un moment critique de toute l’histoire de la physique :
l’ensemble des équations de Maxwell avec le nouveau terme prédit que les champs
peuvent se propager à la vitesse de la lumière. L’unité de tous les phénomènes électriques,
magnétiques, lumineux est faite. On dispose alors d’une théorie un peu plus complexe que
celle de Newton, mais également précise et harmonieuse : la théorie électromagnétique.
Lorsque la lumière se propage, il n’y a dans l’espace libre aucun mouvement de charges,
seulement des champs électriques et magnétiques qui oscillent et se propagent. Ce
sont eux qui transportent l’énergie électromagnétique en général, et l’énergie lumineuse
lumineuse en particulier.
Les expérimentateurs en tireront beaucoup de conséquences. Sur les conseils du grand
Hermann von Helmholtz (1821-1894), le jeune Heinrich Hertz (1857-1894) va entreprendre
des études expérimentales qui mettront en évidence les ondes électromagnétiques (1886).
Plusieurs les mettront en pratique, mais c’est l’Italien Guglielmo Marconi (1874-1937),
soutenu par l’administration anglaise, qui manifesta le plus grand génie pratique et industriel.
En 1901, on put communiquer en moins d’une seconde par-dessus l’océan atlantique.
La théorie électromagnétique
Wilhelm Weber (1804-1891) entreprit en 1852 la détermination expérimentale précise
de ces deux unités. Il trouva que leur rapport est égal à la vitesse de la lumière ! Rômer
avait déterminé cette vitesse près de deux siècles auparavant en observant les satellites
de Jupiter pendant des mois, Armand Fizeau (1819-1896) et Léon Foucault (1819-1868)
venaient de la mesurer en laboratoire (1849/50), et voilà qu’une assez simple expérience
d’électricité permettait également de le faire, pour des raisons alors mystérieuses. Il est vrai
que, sept ans auparavant, Faraday avait déjà une indication de la parenté entre la lumière
et l’électromagnétisme.
Voilà donc les physiciens en possession de deux champs, électrique et magnétique,
responsables d’une force électrique, d’une force magnétique et d’un phénomène d’induction
magnétique, des charges et des courants électriques soumis à la conservation de la quantité
d’électricité. Tout cela exprimé dans des équations parfaitement précises. Ampère avait
identifié les charges magnétiques à des petites boucles de courant électrique. James Clerk
Maxwell (1831-1879) se mit en devoir d’étudier la cohérence de ces lois et d’en donner les
expressions les plus simples possible. On peut imaginer, ou plutôt on ne peut pas imaginer
combien de versions il en circulait, et dans combien de systèmes d’unités !
Heinrich Hertz (1857-1894), né dans une famille influente de la haute bourgeoisie de
Hambourg1 était aussi doué manuellement qu’intellectuellement. Il connaissait plusieurs
langues, dont le grec et l’arabe. À l’Université de Berlin, le grand Hermann von Helmholtz
(1821-1894) lui proposa un sujet de thèse expérimentale qui aboutit en 1886 à la mise en
évidence des ondes électromagnétiques prévues par Maxwell, et que Guglielmo Marconi
(1874-1937) sut exploiter avec génie dès 1896. Hertz avait un talent extraordinaire pour
concevoir les expériences et exploiter théoriquement leurs résultats. Il souffrit dès 1892
d’une tumeur crânienne osseuse qui le martyrisa jusqu’à sa mort. Ni Maxwell ni Hertz
n’assistèrent à la naissance de « la radio ».
James Clerk Maxwell (1831-1879) est une des figures majeures de la physique. Il
découvrit que les lois de l’électromagnétisme étaient incomplètes. Il ajouta une nouvelle
loi, un terme qui conduit à prédire les ondes hertziennes et leur vitesse égale à celle de la
lumière, dont la nature électromagnétique est ainsi établie. Sa théorie électromagnétique
est aussi parfaite et complète que la mécanique de Newton, dont elle ébranla les
fondements. C’est ce qui conduisit Einstein à la théorie de la relativité. Maxwell donna
également une description statistique des mouvements de molécules dans les gaz, dont
l’existence n’était reconnue que d’une minorité. Il fonda ainsi, en même temps que Ludwig
Boltzmann, la « mécanique statistique ». Il découvrit la nature des anneaux de Saturne et
produisit la première photographie en couleurs (1861). Maxwell semble ne s’être jamais
trompé. Il était d’un caractère assez enjoué, assez caustique, et s’adonnait volontiers à la
versification. On dit parfois qu’il inaugura l’ère de la physique moderne.
Ainsi commença le déploiement fabuleux et bien connu du public des ondes dans les
sociétés humaines.
Une physique complète ?
Maxwell découvrit que les lois connues étaient incohérentes si l’on étudie des
phénomènes variables dans le temps. Les forces électriques, les forces entre les
courants continus ne posaient pas de problèmes, l’induction de Faraday non plus, bien
qu’elle suppose une variation du champ magnétique dans le temps. Mais l’équation qui
donne le champ magnétique de fils parcourus par des courants n’était compatible avec la
conservation de l’électricité que si les courants étaient continus. Maxwell résolut le problème
en ajoutant un terme dans l’équation du champ magnétique. Ce terme contient la variation
dans le temps du champ électrique. Il introduit un phénomène alors inconnu, symétrique de
l’induction de Faraday, champs électrique et magnétique intervertis (1861-1873). L’effet ne
Il semblait à la fin du XIXe siècle que toute la physique connue pouvait être expliquée
par deux grandes théories : la mécanique de Newton, avec les forces d’inertie et les forces
gravitationnelles d’une part ; la théorie électromagnétique d’autre part, avec les champs et
les forces électriques et magnétiques. On avait rendu compte de la plupart des phénomènes
optiques et thermiques.
46
1 Emilio Segré, Les physiciens classiques et leurs découvertes, Fayard, Le temps des sciences, 1987.
L’espoir de réunir les deux grandes théories en une seule est resté vain pendant plus
d’un siècle et le reste de nos jours.
Certains phénomènes bien étudiés restaient inexpliqués, notamment :
– la cohésion des solides ; la nature des forces de contact, celles que nous exerçons à
chaque instant avec nos mains sur les objets
– les spectres lumineux
– le mécanisme de la propagation de la lumière
– les valeurs de la plupart des constantes thermiques des solides.
CHAPITRE 6
LES OSCILLATIONS ET LES ONDES
DANS LA PHYSIQUE ET LA TECHNIQUE
GÉNÉRALITÉS
On espérait expliquer le spectre de rayonnement du corps noir en combinant cette
théorie aux propriétés générales de l’énergie thermique. Il n’en fut rien. Le résultat du calcul
ne prévoyait aucune diminution de l’énergie rayonnante thermique aux fréquences élevées.
D’après la théorie, la densité d’énergie devrait s’étendre jusqu’aux fréquences infinies, non
seulement dans l’ultraviolet, mais bien au-delà, et la puissance rayonnée totale devrait être
infinie. Tout corps chaud rayonnerait une puissance infinie et refroidirait instantanément.
Voilà qui est absolument contraire à notre expérience quotidienne. Ce phénomène
imaginaire, mais conforme à la théorie d’alors, fut appelé la « catastrophe ultraviolette ». Or,
la théorie électromagnétique n’était nulle part mise en défaut et les propriétés thermiques
générales non plus. Il faudra attendre quelques années pour qu’une explication partielle
soit donnée par Max Planck, quelques décades pour qu’une théorie de l’émission et de
l’absorption du rayonnement soit établie.
Ce sera la naissance de la physique moderne : d’abord l’introduction des quanta
de lumière, qui sera le prélude à la physique quantique, bientôt suivi, sur une voie
indépendante, par la théorie de la relativité.
47
On a vu comment, partis de notions encore très incomplètes sur les ondes à la surface
de l’eau et la propagation du son, les physiciens parvinrent à une équation différentielle qui
précise le comportement des fluctuations de la pression de l’air qui accompagnent les ondes
sonores. Cela parut peut-être d’importance assez modeste, jusqu’à ce que Young démontre
que la lumière se propage en ondes, puis qu’on démontre qu’il en est de même pour les
phénomènes électromagnétiques, et même que la lumière en est un cas particulier. En un
peu plus d’un siècle après d’Alembert, les ondes ont envahi la moitié de la physique.
Cela crée des difficultés conceptuelles, et aussi pratiques pour les expérimentateurs,
car de tous ces phénomènes on ne voit rien, directement avec ses yeux, s’entend, sauf les
ondes de surface de l’eau. On voit bien la lumière, mais pas sous forme d’ondes, sauf dans
des expériences très délicates dérivées de celles de Young.
Par contraste, la science des mouvements des corps, la mécanique, décrit les
mouvements des corps que nous voyons chaque jour, depuis les trajectoires des billes de
nos enfants ou des balles et ballons jusqu’à celles des planètes, sans parler des voitures,
avions, fusées, satellites.
C’est justement ce côté mystérieux et abstrait des ondes qui nous a incité à décrire ce
développement, de Pythagore à nos jours.
Au XIXe siècle, les applications des sciences devinrent nombreuses et connurent
d’importants prolongements industriels. À côté de la découverte ou de l’invention de lois
fondamentales, les sciences se développent dans deux dimensions nouvelles : d’une part,
on crée des conditions expérimentales nouvelles ; d’autre part, on ouvre des possibilités
technologiques. Les deux aspects sont évidemment étroitement liés.
Les piles de Volta fournissaient un courant électrique continu que l’on n’avait jamais
observé dans la nature. Le seul exemple, fort spectaculaire, de courants électriques
naturels est celui de la foudre. Comme nous le savons aujourd’hui, elle peut transporter des
dizaines de milliers d’ampères pendant une milliseconde environ. Les piles ne fournissent
qu’une fraction d’ampère mais, en les connectant en nombre en parallèle et en série, Davy
put démarrer l’électrochimie et montrer la possibilité de l’éclairage électrique.
Œrsted, Ampère, Biot, Savart étudièrent l’action sur les charges magnétiques des
fils métalliques parcourus par des courants électriques, celle de ces fils sur d’autres fils,
actions qui ne s’observent pas non plus dans la nature ; ces phénomènes contiennent
en puissance la technique des moteurs électriques. De la même manière, le phénomène
d’induction magnétique découvert par Faraday ne s’observe qu’en laboratoire ; il conduit
aux génératrices électriques, qui fournissent des courants électriques bien plus grands que
ceux des piles, et également à des tensions électriques (communément appelées voltages)
bien plus élevées. C’est le germe de l’électrotechnique industrielle. Maxwell inventa,
sans aucun support expérimental direct, une nouvelle loi pour corriger une incohérence
des équations de l’électromagnétisme : cela conduisit non seulement à une théorie de la
lumière, mais aux ondes hertziennes dont les applications n’ont cessé de s’étendre pendant
un siècle et demi.
Les théories ondulatoires de la lumière rénovèrent l’optique instrumentale, permirent
la photographie de haute qualité, la microscopie, la construction de télescopes de plus en
plus grands.
On ne saurait exagérer l’importance de ce triple aspect du développement scientifique,
qui n’a cessé de s’affirmer depuis le début du XIXe siècle ; découverte de lois nouvelles,
création de conditions expérimentales nouvelles, applications pratiques nouvelles.
On illustrera dans ce chapitre la grande variété des phénomènes physiques mettant
en jeu les ondes, sans référence systématique au développement historique. Un aspect
très intéressant est que la théorie mathématique est d’une grande perfection, en fin de
compte d’une grande simplicité ou pureté, qu’elle est vérifiée par l’expérience avec une
grande précision, alors qu’elle a été construite sur une base mathématique établie pour
rendre compte de phénomènes beaucoup moins purs : les oscillations sur les cordes
et dans les tuyaux, qui mettent enjeu bien des phénomènes que la théorie néglige.
Néanmoins, les réalisations pratiques de l’électromagnétisme furent lentes à suivre les
travaux théoriques et leurs promesses. Il fallait une technologie, des moyens de mesures,
sans compter les aspects sociaux : désir de réalisation, mobilisation des moyens. Il fallait
croire aux applications promises. C’est bien après le développement de la théorie, née
des travaux d’Euler, de d’Alembert et d’autres, que l’on put vérifier que les phénomènes
électromagnétiques se comportent exactement suivant ces produits de l’imagination.
En effet, l’arsenal mathématique du XVIIIe siècle permettait en principe d’étudier les
oscillations de tout système et la propagation dans tout milieu. La loi de la dynamique est
universelle, le calcul des forces est plus difficile. En principe, car les équations aux dérivées
partielles le permettent, mais seulement à condition de connaître les lois suivant lesquelles
les efforts naissent au sein des corps lorsqu’ils sont déformés. Les lois des gaz sont assez
simples. Au contraire, on ne disposa pas avant le XXe siècle d’une théorie de la structure
des solides permettant au moins de comprendre d’où provient l’élasticité d’un métal. La
calculer véritablement est plus difficile. Elle est due à des forces électriques à l’échelle
atomique, régies par la mécanique quantique. Il restera nécessaire de la déterminer par
des mesures.
Les domaines concernés sont innombrables : théorie des instruments de musique
variés, des cloches, vibrations de toutes structures, suspension et stabilité des véhicules,
vagues à la surface des liquides, résonances dans les solides, ondes sismiques dans la
terre et les astres.
C’est indiscutablement la mise en oeuvre des ondes électromagnétiques pour les
transmissions qui amorça ce que l’on peut appeler la technologie des ondes, qui devait
conduire à l’électronique. C’est en 1896 que le jeune Guglielmo Marconi (18741937) et, indépendamment, Alexandre Popov (1859-1906), réussirent les premières
transmissions radioéléctriques, auxquelles le premier put et sut donner rapidement un
grand développement pratique.
La domestication des ondes électromagnétiques
Un des grands moments du progrès technique fut la pose en 1858 d’un câble
télégraphique transatlantique sous la direction scientifique et technique de William
Thomson (1824-1927), à qui cela valut de devenir Lord Kelvin of Largs.
William Thomson (1824-1917), ami de Maxwell, grand physicien mathématicien, fut un
des fondateurs de la thermodynamique. Il s’illustra également en électomagnétisme. Il
dirigea la pose du premier câble transatlantique, ce qui lui valut d’être anobli en 1866 sous
le nom de Lord Kelvin of Largs. Il resta longtemps un personnage central du monde de la
physique et de la technique.
La découverte des ondes électromagnétiques a été suivie rapidement de
développements techniques considérables, réalisant des rêves millénaires tels que celui
de la communication à distance.
Les applications furent essentiellement limitées au télégraphe jusqu’à 1907, date de
l’invention des lampes de radio ou tubes à vide par l’Américain Lee de Forest (1873-1961).
Il devint alors possible d’engendrer des oscillations de fréquences très variables,
jusqu’à des valeurs très élevées, 1 MHz par exemple1, avec des puissances très
élevées si nécessaire, et d’amplifier tout signal électrique à volonté. Ces possibilités
résultent de la maîtrise des mouvements des électrons dans les tubes à vide.
Les électrons, dont la découverte est due principalement aux travaux de l’Anglais
Joseph John Thomson (1856-1940) en 1897 ont une charge électrique relativement
très élevée pour une masse relativement très petite ; on peut donc, par des potentiels
électriques, leur communiquer des vitesses considérables sur des distances très courtes,
à condition de leur éviter, grâce au vide, les collisions avec les molécules des gaz. En effet
le rapport e/m de la charge à la masse de l’électron, mesuré par J.J. Thomson est de
1,76.1011 Coulombs par kilogramme. Placée dans un champ électrique de 1000 Volts par
centimètre, soit 100 000 Volts par mètre cette particule est donc soumise à une force
48
1. Le MHz ou mégahertz désigne un million de Hertz, nombre d’oscillations par seconde.
électrique de 1,76.1016 Newton par kilogramme, alors que la force de son poids n’est que de
9,8 Newton par kilogramme (de masse)1, soit justement ce que nous appelons un poids d’un
kilogramme. Autrement dit, les effets électriques sur les électrons sont dans des conditions
techniques courantes des millions de milliards de fois plus grands que les effets des
forces de gravitation auxquelles nous sommes soumis. Heureusement, on ne peut pas mettre
en jeu des kilogrammes d’électrons parce qu’ils se repoussent violemment du fait de leur
forte charge électrique.
La vitesse d’un électron accéléré par un potentiel électrique V obéit à la conservation
de l’énergie:
1⁄2 mv2 = eV, soit v = (2eV/m)1/2 = 0,593.106.V1/2 S.I.
la fréquence de 1 MHz est acceptable pour une installation au sol (émetteur radio), les
installations mobiles demandent des dimensions petites, donc des fréquences de 100 MHz.
Les radars aéroportés et les satellites fonctionneront vers 10 000 MHz, c’est-à-dire à 3 cm
de longueur d’onde, comme les paraboles de nos récepteurs pour satellites artificiels.
La solution des problèmes pratiques de la radioélectricité a pris une importance telle
dans ce que l’on appelle maintenant le traitement de l’information que nous consacrerons
un paragraphe à certains d’entre eux.
On entrevoit, par les chiffres ci-dessus, comment ont pu se développer des applications
aussi variées que notre radio, les radars, les télécommunications par radio, la télévision, les
satellites, qui transmettent des messages subtils, d’autre part de simples sources d’énergie
pour chauffer nos aliments dans les fours micro ondes ou pour accélérer des particules plus
ou moins étranges dans des installations de plusieurs kilomètres de diamètre comme le
LEP du CERN à Genève. Nous avons donc rempli l’espace, jusqu’à la planète Mars et au
delà, d’une multitude d’ondes électromagnétiques de toute sorte que, heureusement, nos
récepteurs peuvent séparer.
Bien entendu, ces développements supposent une très grande maîtrise des
phénomènes électriques du point de vue scientifique, ainsi que des techniques et une
organisation économique considérable. Ils ont engendré d’autres techniques qui ne sont
pas nécessairement liées à la propagation des ondes et aux télécommunications : le
traitement des signaux pour une transmission efficace de l’information, le calcul numérique
rapide. La machine ENIAC fut construite par John Presper Eckert (1919-) et John William
Mauchly (19071980) avec des tubes électroniques en 1945-46. Elle pesait plusieurs tonnes
et est dépassée par nos calculatrices de poche. Tout changea en 1947 avec l’invention des
semiconducteurs et du transistor par William Bradford Shockley (1910-), John Bardeen
(1910-) et Walter Houser Brattain (1910-). En effet, le transistor est considérablement plus
petit et plus facile à utiliser que le tube électronique. Sauf si l’on a besoin d’une puissance
très élevée, on peut résoudre le problème de la rapidité des événements électriques en
déplaçant les électrons sur de très petites distances dans des solides. Les problèmes du
vide sont supprimés, les tensions électriques sont considérablement abaissées des piles
suffisent à alimenter les appareils pendant des mois s’ils ne contiennent pas d’organes
mécaniques tels que des haut-parleurs. Par la maîtrise des propriétés des solides
(mécanique quantique) et des dépôts en couches minces de structures très complexes, on
a pu construire les innombrables appareils qui changent notre vie et celle du monde entier.
Ainsi, avec une tension de 100 Volts, une vitesse de 6 000 km/s est aisément
atteinte sur moins d’un centimètre de longueur, en quelques milliardièmes de seconde.
Les déplacements des électrons dans les tubes à vide paraissaient instantanés jusqu’à
ce que l’on s’intéresse aux variations très rapides des ondes très courtes et de très haute
fréquence des radars.
Dans les lampes de radio, appelées tubes électroniques par les spécialistes, on
fait circuler des flux de ces électrons très rapides. Ces flux ont deux propriétés très
intéressantes : ils transportent de l’énergie, depuis quelques microwatts jusqu’à des
centaines de kilowatts suivant leur taille ; l’intensité de ces courants peut être contrôlée
par des tensions électriques sans dépense d’énergie. C’est cette dernière propriété qui
permet d’amplifier des signaux dans des proportions considérables. Ce contrôle est
analogue à celui d’un robinet bien graissé sur une conduite d’eau qui peut fournir un jet
puissant.
On obtient facilement des oscillations électriques de haute énergie utilisables
directement pour des tâches grossières telles que le traitement thermique des matériaux.
Pour des tâches plus nobles telles que la transmission d’informations, il faut la convertir:
il faut modifier ces oscillations pour y inscrire les signaux, puis les mettre sous forme
utilisable. C’est le rôle des antennes, qui rayonnent des ondes électromagnétiques dans
l’espace.
On rencontre ici le problème de la longueur d’onde. Pour une longueur d’onde λ, la
fréquence est c/λ, c étant la vitesse de la lumière, 299 792 km/s. À une fréquence de
1 000 000 Hertz (1 MHz) correspond donc une longueur d’onde d’environ 300 mètres.
Or, une antenne n’est efficace que si sa longueur dépasse un quart de la longueur d’onde
qu’elle émet. Elle n’est directive que si ses dimensions sont de nombreuses longueurs
d’onde perpendiculairement au faisceau rayonné : nous avons déjà rencontré le même
problème à propos des rayons optiques trop fins. Si une antenne capable d’émettre à
1. On raisonne ici en unités du Système International (voir Le Petit Larousse Illustré), qui ne reconnaît pas
le kilogramme comme unité de poids.
Les résonances dans la technique
On a vu au chapitre 4 combien les oscillations offrent de possibilités dans la description
mathématique de nombreux phénomènes. On va voir comment des organes électriques
permettent de mettre à profit ces possibilités. De même que Fourier utilisa la sinusoïde
comme élément de base, les électriciens découvrirent cent ans plus tard les possibilités
49
infinies du « circuit oscillant » un assemblage de conducteurs électriques et de pièces
métalliques dans lequel les courants et les tensions électriques oscillent. Des équivalents
mécaniques sont le pendule, ou encore une masse qui pend au bout d’un ressort, ou une
corde vibrante. Dans tous les cas, on a un corps doué d’inertie du fait de sa masse, et
un corps qui peut exercer une force à peu près proportionnelle à son déplacement. La
combinaison d’une force d’inertie et d’une force de rappel, c’est-à-dire de signe opposé
au déplacement aboutit à une oscillation. Si la force est exactement proportionnelle au
déplacement, la fréquence de l’oscillation est indépendante de son amplitude. Le courant
dans un fil produit un champ magnétique dont l’effet est semblable à l’inertie d’une masse.
Le même courant électrique accumule dans deux lames métalliques parallèles des charges
électriques de signe opposé qui tendent à refluer par les fils. Le premier effet se traduit par
la self-inductance ou par abréviation self du circuit, notée généralement L, le second par sa
capacité C. Le circuit résonne à une fréquence f dénotée ainsi :
Le bruit
f = ω / 2�
avec
ω = 1 / √LC
La self est, au plus simple, un fil enroulé ; la capacité, deux plaques métalliques
parallèles séparées par un isolant mince.
Le phénomène de résonance le plus simple est que, si l’on applique au circuit une
impulsion électrique brève, des courants de fréquence f sont mis en branle dans le circuit,
de même qu’une balançoire qui a reçu une impulsion. Si l’on applique des excitations
répétées à cette fréquence f, dite fréquence propre ou fréquence de résonance du circuit,
ces courants oscillants vont croître dans le temps sans limite autre que la destruction d’un
élément par fusion ou étincelle (claquage). C’est la résonance.
Le cas le plus intéressant est celui où le circuit est excité à une fréquence différente de
sa fréquence propre, ce qui est en fait toujours plus ou moins le cas. Les oscillations restent
alors d’amplitude d’autant plus limitée que la fréquence d’excitation est plus éloignée de la
fréquence propre. Plus éloignée de combien ? Cela dépend des pertes d’énergie du circuit
oscillant, soit du fait de sa structure (résistance des fils), soit du fait de circuits auxquels
il est relié. La bande de fréquences dans laquelle on estime efficace l’excitation de la
résonance est appelée bande (sous-entendu de fréquences) passante.
Un circuit oscillant est donc un « filtre de fréquences » : il ne répondra qu’aux excitations
comprises dans cette bande de fréquences. Par exemple, il pourra séparer les composantes
de Fourier d’une note de musique, si l’on utilise un microphone. Dans l’antenne de votre
transistor, les signaux de tous les émetteurs sont excités. Des combinaisons de circuits
oscillants, modi lorsque vous tournez les boutons ou pressez le bon bouton, vont permettre
de garder seulement le bon signal. Des amplificateurs feront le reste.
Tous les problèmes de la transmission semblent donc résolus, car on peut sélectionner
le signal voulu et l’amplifier à volonté. Mais il existe un diable qui brouille tout : le bruit.
50
Le bruit, c’est d’abord tous les parasites : les ondes émises par les commutateurs
électriques, les moteurs, les bougies des véhicules, les orages. Mais, si l’on parvient à
éviter tous ces parasites, il reste le « bruit de fond », phénomène absolument universel
qui affecte non seulement les signaux électromagnétiques, mais tous les phénomènes
physiques. C’est, par exemple, le souffle que vous entendez si votre transistor est réglé
entre deux postes, ou même derrière le signal si la réception est mauvaise ; c’est le bruit
d’aiguille des anciens disques ; c’est le bruit du vent ou de la mer ; c’est le grain de la
photographie ou du papier sur lequel vous écrivez. Ce sont des signaux continus sans
fréquence reconnaissable. Les flots de la mer en donnent une image visuelle, mais cette
image est imparfaite car on distingue souvent des vagues ou une houle plus ou moins
répétitive. Le bruit est constamment changeant et ne se répète jamais exactement, mais
il a des propriétés moyennes, dites statistiques, qui sont invariables dans le temps. Il ne
contient aucun signal intelligible, aucune information autre que son intensité et sa nature qui
peut être électrique, mécanique ou autre.
Le bruit de fond a deux origines. D’une part, la structure de la matière l’image d’une
photographie est inscrite sous la forme d’une multitude de grains colorés ; un courant
électrique résulte du passage d’électrons individuels ; améliorerait-t-on les techniques
que la structure atomique se révélerait toujours. D’autre part, la température agite chaque
particule d’une énergie mécanique de l’ordre de kT, et tout corps chaud rayonne de l’énergie
lumineuse donc électromagnétique. k est la constante de Boltzmann, T la température
absolue (T = température centigrade + 273,16).
La constante de Boltzmann est égale à 1,380.10-23 Joule/degré. Ainsi, à la température
ordinaire, chaque particule (rigide), quelle que soit sa nature, est agitée et animée à la
température ordinaire, environ 300°C, d’une énergie de l’ordre de 4,14.10-21 Joule. Une
molécule gramme d’oxygène a une masse de 32 grammes, comporte 6,022.1023 particules
ou molécules physiques. Elle a donc une énergie interne de l’ordre de 2 500 Joules, soit
environ 600 calories. Les chiffres pour l’air sont très voisins. Ils sont donnés en ordre de
grandeur et doivent être multipliés par un facteur voisin de 5/2 pour l’air. Toute cette énergie
est sous forme de bruit. Ainsi, le bruit est un phénomène important et universel.
Les composantes thermiques du bruit peuvent être réduites en abaissant la température
du système de transmission. Mais si celui-ci est à la température ordinaire, disons 290°
absolus, et que l’on veut le réduire de moitié seulement, il faut que ce système soit porté
à 150° absolus, soit moins 123°C. Des circuits radioélectriques peuvent supporter cette
température. Il suffit généralement d’immerger les parties sensibles du récepteur dans de
l’air ou de l’azote liquide, à moins 196°C, ou même de l’hélium liquide à 4°K, soit -269°C.
L’énergie du bruit est étalée sur toutes les fréquences. Les récepteurs n’en reçoivent
donc qu’une partie.
Un circuit oscillant de bande passante ∆f fournit aux circuits qui lui sont reliés une
Les signaux audibles varient au maximum de 10 Hertz à 20 000 Hertz (ou oscillations
par seconde) et demandent une bande de fréquence un peu plus large. Or, on a vu
qu’une antenne n’est guère efficace en dessous d’une fréquence de 100 000 Hertz car
elle serait beaucoup trop grande. De plus il faut que les différents émetteurs soient à des
fréquences différentes pour que l’on ne reçoive pas un mélange méconnaissable de toutes
les émissions. Pour que tout le monde ait de la place, on monte, en FM, au-dessus de
100 MHz (100 000 000 Hertz).
Les images sont transformées grâce à l’effet photoélectrique en signaux électriques
qui s’étendent des fréquences acoustiques jusqu’à plusieurs MHz. Or, on ne sait pas
construire ni un émetteur, ni un récepteur, qui fonctionne entre deux fréquences présentant
un rapport aussi élevé : quelques dizaines de milliers en audio, près d’un million en vidéo.
La différence des fréquences, appelée bande passante, peut être grande, pourvu que la
fréquence centrale soit assez élevée : un signal vidéo de bande passante 5 MHz ne peut
être transmis directement, mais on peut transmettre un signal occupant la bande de même
largeur comprise entre 500 MHz et 505 MHz.
Or, il est possible de réaliser cette transposition de fréquence, indispensable aussi bien
pour les amplificateurs que pour les antennes.
Un signal complexe, provenant par exemple de l’enregistrement d’une symphonie,
d’une vue des Alpes ou d’un match de football, peut toujours, d’après les théorèmes de
Jean-Baptiste Fourier que nous avons cités, être traité comme une somme ou superposition
de signaux sinusoïdaux de fréquences d’amplitude et de phase données. Chacun de ces
signaux peut être traité séparément par des circuits électriques appropriés aussi bien que
par le calcul. C’est ce qui va être montré dans les paragraphes qui suivent.
puissance kT∆F.
Pour recevoir un programme de télévision, il faut à peu près une bande passante de
5 MHz et l’antenne de réception est au moins à 290°K (17°C), en fait à beaucoup plus à
cause des transistors ou tubes. Une valeur de 1 000 °K est encore modeste. La puissance
de bruit est alors 1,380.10-23.1000.5 000 000 c’est-à-dire à peu près 7.10-14 Watt. La
puissance d’un émetteur de 1 Watt placé à 1 000 km est distribuée sur une surface d’environ
2� 1 012 m2 ; sa densité de surface est alors 1,6.10-13 Watt/m2. Pour surpasser le bruit d’un
facteur 10, il faudrait une antenne de surface équivalente 7.10-13 / 1,6.l0-13, soit environ
4 m2. Les conditions ne sont jamais aussi favorables. Des émetteurs d’une portée de
100 km demandent des puissances de dizaines de kW. Néanmoins, des amateurs peuvent
exceptionnellement assurer des liaisons transcontinentales avec quelques dizaines de
Watts, grâce à des réflexions sur la haute atmosphère.
Il est donc normalement indispensable, lors de la transmission de signaux, de maintenir
le niveau du signal constamment au-dessus de celui du bruit. Bien que l’on sache en
principe amplifier à volonté tout signal électrique, on ne peut rien faire si celui-ci est perdu
dans le bruit, tel une aiguille dans une meule de foin ; on peut certes la trouver parce que
l’on connaît a priori sa forme, mais il faut beaucoup de temps. Or, le temps est un facteur
de première importance en matière de transmissions. De plus, on ne connaît en principe
pas la forme d’un signal ; sinon, il ne contiendrait pas d’information nouvelle. On ne peut le
récupérer dans le bruit que dans la mesure où l’on possède certains renseignements sur sa
forme, ou sur le moment où il est émis s’il est bref.
Diverses techniques de radioélectricité
Les principes élémentaires de ces techniques sont détaillés ici à cause de l’importance
considérable qu’ils ont en électronique : radio, télévision, satellites, informatique, mesures,
holographie. Les calculs sont à la portée des lycéens, mais certains lecteurs qui ne les
suivront pas pourront retenir l’essentiel : des moyens assez variés permettent d’inscrire
les signaux ou informations sur des supports variés, que l’on pourra ensuite lire par des
moyens complémentaires. On connaît l’importance de ces techniques dans notre vie.
Pour transmettre une information par ondes électromagnétiques, il faut d’abord la mettre
sous forme d’un signal électrique.
Pour un signal sonore, on utilise un microphone : une membrane légère et souple
portant un fil électrique fin vibre dans l’air sous l’effet du signal
sonore. Le fil est situé dans le champ magnétique d’un aimant et il apparaît, par
induction (loi de Faraday), une force électromotrice E qui est l’image des vibrations sonores.
Le microphone est caractérisé par une constante m qui relie E à la vitesse v des vibrations
de l’air au voisinage de la membrane :
Modulation et démodulation
On cherche à fabriquer des appareils, dits linéaires qui conservent cette superposition
sans introduire de distorsion. Pour comprendre leur fonctionnement, il suffira de considérer
une oscillation pure de courant électrique prise dans le signal, soit
a cos ωt
On possède, en outre, un oscillateur qui produit un courant électrique de fréquence plus
élevée que nous noterons :
A cos Ωt
Or, il existe des organes, tubes électroniques ou transistors, qui produisent une tension
électrique proportionnelle au carré du courant qui les parcourt. Ils ne sont donc pas linéaires.
Si on fait parcourir l’un d’eux par la somme des deux courants considérés, on obtiendra une
tension proportionnelle à
( A cos Ωt + a cos ωt )2
E=mv
On peut ensuite amplifier cet effet à volonté.
Le facteur de proportionnalité n’importe pas en principe, puisque l’on sait fabriquer
51
des amplificateurs, non peut-être sans difficulté. C’est la modulation. Les théorèmes bien
connus des lycéens montrent que cette expression peut se mettre sous forme d’une somme
de sinusoïdes :
A2
A et B étant constants, le signal est, à un facteur près, égal au signal d’origine. On peut
l’amplifier pour exciter un haut-parleur.
La transposition en fréquence permet donc de placer le signal dans une bande de
fréquences propre à la transmission par ondes. Elle possède de nombreux autres avantages.
On peut, par exemple, transposer différentes conversations téléphoniques de fréquences
assez différentes pour qu’elles ne se recouvrent pas, et les transmettre simultanément sur
une seule onde. C’est ainsi qu’un satellite peut transmettre des milliers de conversations
téléphoniques et des programmes de télévision. Les « filtres de fréquences » évoqués plus
haut permettent de séparer les signaux à la réception.
1 + cos 2Ωt
1 + cos 2ωt
+ Aa[(cos(Ω + ω)t + cos(Ω - ω)t)] + a2
2
2
Cette tension est la somme de six composantes de fréquences différentes. Or, la
propriété des circuits de ne pouvoir transmettre des bandes de fréquence arbitraires,
appelée filtrage, nous permet de ne retenir que les deux composantes du centre qui ont la
fréquence du signal transposée par celle de l’oscillateur. Le premier et le cinquième terme,
continus, ne seront pas transmis. Supposons que Ω corresponde à 1 MHz (Ω = 2� MHz),
ω à 20 kHz. On saura régler les circuits pour qu’ils transmettent par exemple de 970 à
1 030 kHz, ce qui éliminera tous les termes sauf les deux du centre, et on accordera les
antennes, à la réception comme à l’émission, sur 1 MHz. Mieux même, en réglant finement
les paramètres, on ne gardera que le terme :
DE DIVERSES ONDES
Ondes élastiques dans les solides
Un solide peut être le siège de différents types d’efforts : compression-extension,
cisaillement, flexion, torsion. À chacun correspond un type d’onde, avec une vitesse de
propagation particulière. Dans les cristaux, les propriétés dépendent de la direction des
efforts, car il existe des axes privilégiés. La propagation dépend de sa direction par rapport
à ces axes.
Il n’en est pas de même dans les liquides et les gaz qui n’ont pas d’axes privilégiés. Les
efforts de cisaillement sont dus aux forces de viscosité, qui apparaissent lorsque les filets
voisins ont des vitesses différentes ; ces forces produisent un amortissement.
Aa cos(Ω + ω)t
L’onde de fréquence Ω est dite la porteuse. On dit qu’elle est modulée à la fréquence
ω. A et Ω sont aussi constants que le papier sur lequel vous écrivez est uni. Le signal ci-
dessus est linéaire en a, c’est-à-dire simplement proportionnel au signal intéressant, qu’il
peut donc reproduire fidèlement. Sa fréquence ω est augmentée de la constante Ω : on dit
que le signal est transposé en fréquence.
Voilà donc ce signal envoyé à l’antenne et parti dans les airs, excitant les antennes
des récepteurs à très faible niveau, car l’émetteur est loin. Mais les auditeurs, dont l’oreille
n’entend pratiquement rien au-delà de 15 kHz, n’ont rien à faire d’une oscillation autour de
1 020 kHz. Qu’à cela ne tienne, on va de nouveau transposer en fréquence par la méthode
du « mélange quadratique ». Les récepteurs ont un oscillateur local que l’on accorde sur
1 MHz et produisent un signal d’ailleurs très peu intense d’expression
Ondes de surface ; vitesse de phase et vitesse de groupe
Les ondes peuvent se propager à la surface des liquides dans un champ de pesanteur,
ou à celle des solides. Les premières nous sont particulièrement familières. Contrairement
aux ondes acoustiques, leur vitesse de phase dépend fortement de leur fréquence ou de
leur longueur d’onde. La relation de dispersion, qui exprime cette propriété, s’écrit :
ω2=kg
B cos Ωt
où ω = 2�f est la fréquence angulaire, f la fréquence, k = 2�/λ, λ étant la longueur
d’onde, et g est l’accélération de la pesanteur (9,8 m/s2). Comme pour les ondes
acoustiques, le terme en ω2 provient de l’accélération dans la force d’inertie (second degré
par rapport au temps) ; le terme en k est une caractéristique des ondulations qui créent la
force motrice. En effet, celle-ci provient des différences de déplacement vertical de régions
voisines, donc d’une dérivée d’espace simple, et non double comme pour les cordes, où la
force motrice est due à la courbure de la corde. On peut aussi bien écrire, pour la vitesse de
phase, égale à fλ ou ω/k par définition :
Pour cela, il suffit de tourner le bouton où d’appuyer sur la touche d’une station préréglée.
Un circuit du récepteur appelé détecteur, simplement la galène des premiers amateurs, va
fournir un signal proportionnel à
[Aa cos(Ω + ω)t + B cos Ωt]2
En développant de nouveau cette expression par les formules bien connues, on
constatera que l’on peut obtenir, après filtrage une tension
ABa cos ωt
2
vФ= g/ω = 2�g/f = (gλ/2�)1/2
C’est la démodulation.
52
Cette dépendance de la fréquence produit des effets importants, car il est impossible en
pratique de produire une onde d’une seule fréquence : une fréquence unique dure un temps
infini. Les différentes composantes de fréquence ont des vitesses de phase différentes, si
bien que l’onde se déforme en se propageant. En général, elle s’étale. Toutefois, pour un
petit groupe de fréquences, les différentes fréquences forment une sorte de paquet car
elles restent localement à peu près en phase en certains points. Quelle que soit la nature
de l’onde, on exprime ce fait par l’équation :
fréquences qui disperserait ces ondes dans le régime linéaire. Dans le régime non-linéaire,
éventuellement aidé par la dissipation d’énergie au sein de l’onde, cette onde unique
est stable. On parle alors de solitons. Ce concept est utilisé en physique du solide et en
physique des particules.
Effets de lentille, ondes sismiques
On connaît les effets de déviation et de concentration d’une lentille sur un rayon
lumineux. Or, on peut regarder une lentille comme une inhomogénéité de concentration
de matière. Des effets de lentille se produisent donc fréquemment dans de telles
inhomogénéités. Le plus souvent, les rayons sont légèrement déviés dans la direction de la
plus grande densité ou de la plus grande épaisseur. Ainsi, un prisme dévie la lumière vers
sa base. L’atmosphère, plus rare lorsque l’on s’élève, nous permet de voir le soleil un peu
avant son lever et après son coucher « géométriques ».
Par temps chaud au contraire, la terre est souvent plus chaude que l’air qui est ainsi raréfié
à son contact, d’où les effets de mirage ou simplement les reflets argentés sur les routes.
La terre, constituée d’un noyau et de plusieurs couches sphériques, produit de semblables
effets de lentille sur les ondes sismiques dont les tremblements de terre sont les manifestations
en surface. Leur étude nous renseigne sur la constitution interne de notre planète1.
Un premier groupe d’observations concerne des ondes assez localisées, sortes de rayons
qui se propagent au sein de la terre, déviés par ses inhomogénéités, réfractés et partiellement
réfléchis aux limites entre les différentes zones radiales que l’on décrira plus loin.
Un second groupe concerne des vibrations, souvent appelées libres, dans tout le
volume ou dans une zone superficielle plus ou moins profonde ; dans le dernier cas,
elles correspondent aux ondes de surface décrites plus haut. On comprendra ce genre
de phénomène en partant des vibrations des cordes. Une corde vibrante est un milieu
unidimensionnel qui peut résonner sur une suite d’harmoniques. Si la corde est homogène,
leurs fréquences sont des multiples de la fréquence fondamentale ; sinon, elles sont
décalées, ce qui nous renseigne sur les inhomogénéités de la corde. La terre, comme la
plupart des astres, est un corps tridimensionnel fortement inhomogène radialement et à
peu près homogène dans les directions angulaires. Ses oscillations ont, en général, une
répartition angulaire régulière à la surface, un peu comme les quartiers d’une orange ou
les sphérules d’une mûre. Des observations des mouvements sismiques, même légers,
ainsi que du champ magnétique en plusieurs points de la surface fournissent, combinés
avec d’autres informations, des données souvent très sûres quant à la répartition radiale
de la composition de l’astre. Ces informations, essentiellement acquises en laboratoire,
concernent d’une part les propriétés thermodynamiques et chimiques des matériaux à
haute température et haute pression, et d’autre part des résultats de calculs sur ordinateur
dΦ/dω = d(ωt - kx)/dω = t - x dk/dω = 0
On voit que x/t = dω/dk est une vitesse constante : le paquet se déplace à une vitesse
différente de celle des composantes. Elle est appelée vitesse de groupe, notée vg. Pour les
ondes de surface des liquides, on trouve :
vg = vΦ /2
Ces vitesses sont inversement proportionnelles à la fréquence, et croissent avec la
racine carrée de la longueur d’onde. Sur une plage, on observe en effet que les vagues
courtes sont relativement calmes, tandis que les longues les dépassent en vitesse et
viennent se briser sur le rivage.
Une vitesse critique d’un navire est proportionnelle à la racine carrée de sa longueur. Si on
veut le faire aller plus vite, il faut une énorme dépense d’énergie pour faire sortir la coque de
l’eau (déjauger) : c’est le cas du hors-bord. Cette dépendance de la vitesse limite vient d’un
effet d’interférence entre l’onde de proue et de celle de poupe. La vitesse maximale résultante
est, en noeuds, de quelques unités multipliées par la racine de la longueur en mètres.
Non-linéarités dans les ondes
On a remarqué, plus haut, que les équations de propagation sont établies en simplifiant
les équations de la dynamique, en se limitant aux termes linéaires, c’est-à-dire de simple
proportionnalité, valides pour de petits déplacements. Pour de grands déplacements, le
comportement est bien plus complexe.
Sur la plage, les ondes déferlent : c’est que l’eau devient de moins en moins profonde
; l’énergie contenue dans les vagues se concentre dans un volume d’eau de plus en
plus petit, les déplacements et les vitesses augmentent, en particulier pour les grandes
longueurs d’onde, et les ondes se brisent sur la plage. Les vagues ne sont pas réfléchies
sur la plage comme le son sur un mur, ou comme elles le sont sur une paroi plane et
verticale de jetée : aucune vague n’est jamais réfléchie de la plage vers le large. C’est dû à
la pente douce du sol.
Un gentilhomme anglais observa au siècle dernier sur une rivière un phénomène
analogue au « mascaret » : une ondulation unique, sorte de mur d’eau, qu’il put suivre à
cheval sur une grande distance. Ce phénomène, dont l’explication théorique fut donnée
bien plus tard par Korteweg et De Vries, est typiquement non linéaire. En effet, une
ondulation unique, comme le montre l’analyse de Fourier, comporte tout un spectre de
2. Voir Astronomie, sous la direction de Philippe de la Cotardière, Larousse, 1994.
53
décrivant des propagations et oscillations.
En ce qui concerne notre planète, les ondes sismiques d’une fréquence de 0,1 à 1 Hertz
ont montré qu’elle comporte un noyau central constitué de fer presque pur de 1 215 km de
rayon ; sa température est de 5 000°, et il est solide car la pression y est très élevée : 3,6
millions d’atmosphères au centre, 1,4 million à l’extérieur ; là commence une zone épaisse
de 2 260 km constituée d’un alliage liquide de fer, entourée d’une couche d’oxydes épaisse
de 2 890 km, puis de la croûte que nous explorons depuis la surface. Le noyau solide se
révèle anisotrope, donc cristallin. La couche liquide d’alliages, conductrice, est le siège de
courants électriques essentiellement responsables du champ magnétique terrestre ; les
ondes dans cette région sont dues aux forces d’inertie, à celles de compression et à celles
exercées sur les courants par les champs magnétiques. Voila un résumé de quelques
hypothèses qui ont permis de retrouver par le calcul les fréquences des oscillations
observées.
Les mesures sur le soleil sont évidemment très difficiles, mais on dispose depuis peu
de détecteurs très sensibles : on observe ses modes d’oscillation et leurs fréquences, car
le déplacement des couches visibles provoque par effet Doppler1 des glissements des
fréquences lumineuses (sismologie solaire). On trouve deux sortes d’oscillations : les
acoustiques, dues aux forces de pression, avec des périodes de quelques minutes et plus
; les gravitationnelles, dues aux attractions internes, dont les périodes peuvent atteindre
quelques heures. Pour les expliquer, on tient compte en particulier des réactions nucléaires
qui sont la source d’énergie. On peut ainsi étudier la conversion de l’hydrogène en hélium,
la température, la pression en fonction du rayon.
La température du noyau central, d’où provient l’énergie, varie de 15 millions de degrés
à 8 millions ; son rayon est le quart de celui du soleil, sa densité 158 fois celle de l’eau.
On trouve ensuite une zone intermédiaire, puis plusieurs couches assez complexes, et
la surface proprement dite que nous voyons, d’un rayon de 696 000 km et portée à environ
6 000 degrés, puis la chromosphère, la couronne et des émanations (vent solaire) qui
s’étendent au delà même des planètes.
On voit combien l’étude des ondes peut apporter de connaissances sur ce qui nous
entoure.
1. Christian Doppler (1803-1853) observa que la hauteur des sons que nous percevons, c’està-dire leur
fréquence, change lorsque leur source est en mouvement. Il en est de même lorsque c’est nous qui
nous déplaçons. Ainsi, lorsque nous nageons, les vagues ont pour nous une fréquence différente
suivant que nous nageons dans ou contre leur sens. Toutes les ondes sont soumises à cet effet.
Lentilles gravitationnelles
La théorie de la relativité générale d’Albert Einstein (1915) prévoit que la lumière est
déviée par le champ gravitationnel des concentrations de matière. On vérifia dès 1919
au cours d’une éclipse totale de soleil que les étoiles voisines du soleil, qui sont visibles
pendant l’obscurité de l’éclipse, semblaient anormalement écartées du soleil : les rayons
lumineux qui en proviennent avaient été légèrement courbés au voisinage de l’astre.
Récemment, on a observé des effets de lentille semblables dus à des galaxies géantes
ou amas de galaxies et agissant sur la lumière de quasars lointains qui les traversent. Ces
lentilles sont très imparfaites selon les règles de l’optique instrumentale, car elles donnent
généralement plusieurs images du même astre. Les renseignements obtenus par ces
observations sont néanmoins très précieux.
Ondes dans les plasmas
Les plasmas sont des gaz ionisés, c’est-à-dire dans lesquels un nombre plus ou moins
grand d’atomes ou molécules ont perdu un ou plusieurs électrons. On les trouve dans
les tubes d’éclairage luminescents, les éclairs, les arcs électriques, les étoiles et surtout
dans l’espace interstellaire, enfin dans les réacteurs thermonucléaires. Ils comprennent
des particules neutres, des ions de différentes espèces, et des électrons libres qui sont
particulièrement actifs. Ils sont sujets à tous les phénomènes acoustiques, compliqués par
les forces électriques et, souvent par des forces dues à un champ magnétique extérieur et,
dans les plasmas denses, à celui des courants électriques dans le plasma lui-même. Le
champ magnétique rend le plasma anisotrope, et l’on y retrouve alors des propriétés des
milieux cristallins. On trouve donc une multiplicité d’ondes exotiques. Beaucoup de cellesci sont instables et conduisent à des sortes d’explosions du plasma, au lieu d’oscillations
sur place. Ces phénomènes sont la première cause de la difficulté technique de la fusion
thermonucléaire contrôlée.
Les ondes lumineuses
54
La lumière blanche fut décomposée par Newton en un fond continu de toutes les
couleurs, soit de toutes les fréquences ou de toutes les longueurs d’onde. Ce mélange
de fréquences est une caractéristique du bruit. On parle d’un bruit blanc lorsque toutes les
fréquences sont également présentes. En outre, il est fondamental que ces fréquences ne
sont pas synchronisées en phase. Disons que l’émission par chaque atome d’un signal
lumineux dure un temps très court et que l’émission suivante ne sera pas en phase.
On a donc au total un désordre à peu près parfait : du bruit optique, composé d’ondes
électromagnétiques.
Nous voilà revenus à un problème fondamental d’ondes.
Le spectre électromagnétique fut considéré pendant longtemps comme divisé en deux
parties :
– aux plus basses fréquences, disons en dessous de 100 gigahertz (1011 Hz), des
signaux très complexes et parfaitement organisés dépassant le niveau de bruit ; c’est le
domaine de la technique industrielle et radioélectrique
– au-dessus de 1013, les rayonnements infrarouges, puis lumineux, puis ultra-violet,
et d’autres encore au-delà : en somme, du bruit électromagnétique, parfaitement
désorganisé.
On se demandait s’il existait une propriété fondamentale qui faisait inévitablement
dominer le bruit aux fréquences élevées. Si l’on utilise des tubes électroniques classiques,
cette limite existe bel et bien.
La théorie électromagnétique n’impose pas de limites aux fréquences, ni inférieures,
ni supérieures, les rayons ultraviolets étant suivis des rayons X, puis, dans le domaine
des énergies nucléaires, des rayons gamma, sans limite de fréquence. Existe-t-il des
rayonnements cohérents dans toute l’étendue du spectre ?
La réponse sera apportée à l’ère quantique de la physique, bien qu’elle ne soit pas
nécessairement quantique. Anticipons.
correspond non pas à la transition quantique d’un électron, mais à deux états de la molécule
correspondant, en termes classiques (inadéquats) à la vibration de l’atome d’azote par
rapport aux trois atomes d’hydrogène.
Einstein avait prévu dès 1917, sur une base thermodynamique, l’émission stimulée
mais il n’avait pas prévu la mise en phase des composantes du rayonnement stimulé. La
mécanique quantique est nécessaire pour comprendre ce processus.
On réalisa ensuite des masers et lasers fonctionnant sur un grand nombre de transitions
atomiques de différentes longueurs d’onde.
Les applications se firent d’abord dans le domaine de la métrologie : mesure très
précise des longueurs d’onde, des fréquences, nouvelles bases de la mesure des
longueurs et du temps. Les techniques étaient d’abord limitées au laboratoire. Les
lasers ont considérablement augmenté la précision des mesures, au point de dépasser
considérablement les précisions astronomiques et de limiter le mètre étalon du pavillon de
Breteuil au rôle d’étalon secondaire.
Une révolution technologique eut lieu lorsque l’émission stimulée put être obtenue grâce
à des transitions électroniques dans les semiconducteurs. Le principe se prêtait dès lors à
la production de masse. Les lasers ont modifié la technique d’enregistrement, et envahi les
caisses des supermarchés. Voici une liste de quelques applications des lasers :
La lumière à l’ère quantique : masers et lasers
La réponse à cette question fut apportée par l’invention du laser1 (Townes et Shawlow,
1958, Basov et Prokhorov ; réalisation par Gould,1957, Maimann 1960).
Suivant l’expérience et la mécanique quantique, les atomes et molécules peuvent
émettre ou absorber des photons de longueur d’onde bien déterminée en transitant entre
deux états quantiques. On peut accumuler dans des enceintes appropriées les photons,
c’est-à-dire les brèves émissions des atomes individuels, dans la région où ceux-ci se
trouvent. Le moyen le plus simple est de disposer autour des atomes intéressés deux
miroirs légèrement concaves qui se renvoient la lumière indéfiniment... ou presque. En
effet, il faut laisser fuir du rayonnement pour l’utiliser, et d’autre part les miroirs absorbent
de l’énergie. Les photons stimulent l’émission de photons semblables et synchronisés on
obtient une belle émission continue, telle le la du hautbois dans la fosse de l’orchestre. Pour
la première fois sans doute dans les laboratoires et peut-être dans la nature, Townes et
Shawlow purent ainsi produire un rayonnement à une seule fréquence optique cohérente.
À vrai dire, Townes avait auparavant inventé le principe du maser2 (1951), que
Townes, Gordon et Zeiger réalisèrent en 1954. C’étaient alors des molécules d’ammoniac
qui interagissaient avec leur propre rayonnement, accumulé dans un résonateur. Le
principe est le même que celui du laser, mais la fréquence est beaucoup plus basse : elle
1. Light Amplification by Stinnulated Emission of Radiation, ou Amplification de la lumière par émission
slimulée de rayonnement.
2. Microwavet Amplification by Stimulated Emission of Radiation, ou Amplification d’hyperfréquence par
émission stimulée de rayonnement.
– Métrologie : mesure des distances (interférences), des vitesses (effet Doppler), des
rotations (lasers en anneaux).
– Chimie et spectroscopie : étude des réactions ultrarapides, des milieux absorbants,
des transitions, séparation isotopique.
– Médecine : microchirurgie.
– Propriétés directives : photographie lointaine, désignation d’objectifs et guidage
(militaire), alignements et éclairage (civil).
– Applications énergétiques : soudure, usinage, fusion nucléaire, armes (1 J en 1 msec
dans 0,01 mm2 = 12 MW cm2, beaucoup plus que l’intensité du soleil à sa surface).
Les hologrammes
La technique des hologrammes permet de voir en relief un objet grâce à certains
enregistrements photographiques sur support plan, donc seulement bidimensionnels.
On peut distinguer trois niveaux d’analyse des phénomènes optiques. Les deux
premiers sont classiques, le troisième est quantique.
Le premier niveau est l’optique géométrique, qui explique la marche des rayons lumineux
: réflexion sur les miroirs, réfraction aux surfaces des lentilles. Elle permet de comprendre
le fonctionnement des loupes, verres correcteurs, microscopes, télescopes. D’après elle on
ne peut recevoir aucune lumière de l’arrière d’un objet opaque.
Le second est l’optique ondulatoire. La lumière étant composée d’ondes et non de
particules, ne se propage pas vraiment en ligne droite. Les ondes acoustiques contournent
55
les obstacles et nous pouvons entendre nos enfants quand ils jouent dans la pièce voisine.
Cela tient à ce que, comme l’a compris Huygens, toute région excitée rayonne à son tour
dans toutes les directions. Les interférences de Young en sont une application. Les effets
sont complexes.
Lorsque nous regardons un objet, nous ne voyons pas sa partie postérieure, mais,
en nous déplaçant un peu de droite ou de gauche, nous voyons une partie de ses côtés
et, surtout, le fait que nos deux yeux soient écartés nous donne des éléments de relief.
Comment faire sentir le relief par une image plane ? On y parvient en donnant deux images
prises de points voisins, comme le sont les deux yeux. Chaque œil voit ensuite l’image qui
lui correspond. Il faut donc un procédé pour que chaque œil ne voie qu’une image. Ces
procédés, tels les anaglyphes, demandent généralement des lunettes spéciales et sont
toujours encombrants.
Les hologrammes donnent l’impression tridimensionnelle à l’oeil nu. Ils sont enregistrés
sur film et sont peu encombrants au stockage. Ils doivent être visionnés à l’oeil nu, mais de
préférence avec un appareil spécial.
La photographie n’enregistre qu’un des éléments de la lumière, son intensité, alors que
la phase du phénomène lumineux contient une information essentielle : les oscillations
aux différents points de l’espace ne passent pas par leur maximum au même instant, ni en
chaque point d’une surface à un instant donné, et ce sont ces décalages que l’on exprime
par la phase.
Or, un laser produit des oscillations presque parfaitement définies, alors que la lumière
ordinaire est un mélange de toutes les fréquences et de toutes les phases ; ainsi, le laser
permet de mettre en évidence les différences de phase à condition que plusieurs conditions
soient remplies à l’enregistrement.
- À l’enregistrement :
a) éclairer l’objet avec le faisceau d’un laser
b) utiliser une partie du faisceau comme référence de phase
c) enregistrer sur le support de l’image une superposition de cette partie et de la
lumière diffusée par l’objet - celle que normalement reçoit notre œil
- À la lecture :
d) examiner l’enregistrement en l’éclairant avec un faisceau du même laser.
L’intensité de la somme du faisceau de référence et de la lumière diffractée contient
alors la phase et la photographie ordinaire, par exemple permet d’enregistrer cette
intensité-dépendant-de-la-phase.
Lorsque notre œil observe un objet O à la lumière L d’une source, soleil ou lampe,
chaque point de la surface de l’objet réémet dans toutes les directions une lumière «
diffusée » D, dont certains rayons entrent dans notre pupille. La théorie simple de Huygens,
ou celle, plus complète, de l’électromagnétisme nous apprend que, si nous arrivons à
reproduire sur une surface interposée entre l’objet et notre œil l’état vibratoire de la lumière
Figure 10a. Parcours des rayons lumineux lors de la vision d’un objet
O éclairé par des rayons lumineux L
dont cet état vibratoire a été obtenu.
La surface en question peut être un support plan S, comme sur la figure 9b.
On superpose sur S une partie M de la lumière L d’un laser avec la lumière D diffusée
pa l’objet O.
Figure 10b. Enregistrement d’un hologramme
56
Supposons que la lumière L est celle d’un laser, donc de fréquence et de direction bien
définies, et que nous interposons sur son parcours un miroir semi-transparent M. Celui-ci
laisse passer une partie de la lumière et renvoie sur la surface S un faisceau réfléchi R. La
surface S est donc soumise à la lumière D diffusée par l’objet O, de structure complexe car
elle contient l’information sur l’objet, et par le faisceau R de structure très simple. L’intensité
et la phase de D varient donc sur la surface S d’une manière qui dépend de l’objet, mais
tous les procédés d’enregistrement, photographique ou autre, ne sont sensibles qu’à
l’intensité, et non pas à la phase. Par contre, la somme des signaux D + R est sensible à la
différence de phase entre les deux composantes qui, notamment, peuvent s’additionner ou
se retrancher suivant leur différence de phase comme dans une expérience d’interférence.
Ces processus sont très voisins de la modulation des signaux en radiotechnique, que nous
avons détaillée plus haut.
L’enregistrement photographique de D + R contient toute l’information sur l’objet O. Cet
enregistrement, dit « hologramme », ne ressemble pas du tout à l’objet, car aucune lentille
n’est utilisée ; c’est une sorte de spectre qu’il faut décrypter. Le procédé est simple, car
l’encryptage a été fait avec un signal extrêmement élémentaire, que l’on sait reproduire à
volonté.
Voici comment on visionne un hologramme déposé sur S : on l’éclaire par une source
laser L identique à celle qui a servi pour l’enregistrement (figure 10c).
Figure 1Oc. Examen d’un hologramme
Le processus est analogue à la démodulation des signaux sans une analyse détaillée,
disons simplement que la lumière diffusée sera symboliquement (D + R) + L. Or, R et L
sont identiques à une différence de phase près, la même sur toute la surface, et peuvent
s’annuler. Chaque point P de l’hologramme rayonne vers l’aeil une lumière D identique
à celle produite par l’objet lors de l’enregistrement : on a produit beaucoup plus q’une
photographie, un « objet virtuel » OV.
En fait, le développement des lasers et des hologrammes a eu recours à la physique
quantique, qui permet d’obtenir des faisceaux lumineux plans et cohérents en phase. Il
serait possible, bien qu’incommode, de réaliser des hologrammes sans lasers : rien n’est
quantique dans l’explication qui a été donnée, mais il est difficile d’obtenir un faisceau plan
bien défini avec une source incohérente.
Le mécanisme d’émission laser est quantique. Néanmoins, on peut le caractériser
par un paramètre de couplage des ondes aux systèmes quantiques. Ce paramètre étant
connu, le calcul de la plupart des caractéristiques de fonctionnement d’un laser peut se
faire suivant la mécanique classique. Ce paramètre peut aussi être mesuré sans connaître
la physique quantique.
Nous arrivons au troisième niveau d’analyse de la lumière, qui est quantique. Seule
cette analyse permet de comprendre complètement l’émission et l’absorption de la lumière,
de calculer le paramètre de couplage. Elle seule permet d’engendrer des faisceaux de
lumière « purs », c’est-à-dire possédant une seule direction et une seule longueur d’onde.
57
CHAPITRE 7
RETOUR AUX PARTICULES
ET AU DISCONTINU
Propriétés étranges de la lumière des atomes
Les phénomènes calorifiques avaient vers 1900 reçu des explications très convaincantes
grâce à la théorie atomique. Il était avéré que la chaleur n’est pas un fluide, mais résulte de
mouvements d’agitation désordonnée de tous les atomes ou molécules des corps. On ne
peut s’en tenir là pour de nombreuses raisons, dont la plus évidente est que nous sommes
chauffés par le rayonnement du soleil, qui nous parvient à travers un espace à peu près
totalement dépourvu de matière, même sous forme gazeuse. Il faut donc comprendre
comment un rayon lumineux peut transporter de la chaleur, bref, étudier les propriétés
thermiques de la lumière. Ce phénomène doit être décrit en termes électromagnétiques,
puisque telle est la nature de la lumière. On sait depuis l’expérience du prisme de Newton
que ce rayonnement contient toutes les couleurs de l’arc-en-ciel, qui sont véhiculés par des
ondes de fréquences différentes. Il fallait préciser la nature de ce rayonnement, c’est-à-dire
mesurer quantitativement le spectre et en rendre compte par l’électromagnétisme. John
William Strutt, Lord Rayleigh (1842-1919) et James Hopwood Jeans (18771946) trouvèrent
une description par oscillateurs des phénomènes électromagnétiques qui le permet (nous
dirions aujourd’hui modes d’oscillation) : on considère l’espace comme un résonateur
électromagnétique et on cherche toutes les résonances comme on cherche les modes
d’oscillation ou harmoniques d’une corde de violon ; toutefois, le problème n’est pas à une,
mais à trois dimensions. On peut appliquer à ces modes les méthodes statistiques qui ont
si bien réussi pour expliquer les propriétés thermiques des gaz. Bien que cette approche fût
la bonne, on trouvait comme on l’a dit plus haut, des réponses aberrantes : en particulier, la
quantité de chaleur émise par un corps chaud, soleil, masse métallique chauffée au rouge
et autres, serait infinie à cause d’une émission illimitée au-delà de l’ultraviolet.
TROISIÈME PARTIE
L’ÂGE QUANTIQUE OU LE MONDE
DÉCRIT PAR DES ONDES
Planck introduit les quanta
Max Planck (1858-1947) était probablement le plus éminent représentant de la brillante
école thermodynamique austro-allemande. Il était particulièrement sensible à la nécessité
de traiter le rayonnement thermique de façon thermodynamique, ainsi qu’au problème
de l’émission à courte longueur d’onde, la catastrophe ultraviolette. Il s’aperçut en 1900,
presque par hasard, que tout s’explique, et avec précision, si l’on admet que la lumière n’est
pas émise comme un flux continu, mais sous forme de paquets d’énergie proportionnelle à
58
la fréquence. C’est la fameuse formule :
de e-10 = 0,0000453. C’est pour cela que les quanta ultraviolets sont rares. Or, la théorie
électromagnétique prévoit que s’il peut y avoir des états d’énergie hν dans le rayonnement,
il peut aussi y en avoir d’énergie 2 hυ, 3 hυ, 4 hυ, etc. qui deviennent de plus en plus
improbables. C’est à cause de la décroissance très rapide de la fonction exponentielle
que le la courbe du rayonnement thermique (figure 8, chapitre 5) décroît très fortement à
droite.
L’hypothèse de Planck permet ainsi, par le calcul, de retrouver la courbe cidessus et
même de préciser le sens des constantes numériques :
E=hυ
L’énergie de chaque paquet est égale à une constante universelle h multipliée par la
fréquence du rayonnement. Ces paquets furent appelés quanta, pluriel latin dont le singulier
est quantum. Ce mot désigne simplement une certaine quantité.
Max Planck (1858-1947) descendait d’une famille de théologiens, de pasteurs et
de juristes. Il est un des membres les plus remarquables de l’école allemande de
thermodynamiciens. Formé au dix-neuvième siècle, il inaugura la physique quantique en
1900 lorsqu’il résolut un mystère du rayonnement thermique en lui donnant une structure
discontinue, étendant pour ainsi dire la structure atomique de la matière au rayonnement.
Il eut beaucoup de mal à admettre cette conception, mais finit par se ranger à côté des
rénovateurs, en particulier en soutenant Einstein dès le début, continuant à le défendre
autant que faire se pouvait au temps des nazis. Son existence fut tragique, car il perdit
sa femme en 1909, puis deux filles, mortes en couches, enfin son fils Erwin, exécuté
peu avant car supposé lié au complot contre Hitler du 20 juillet 1944. Sa maison et sa
bibliothèque furent détruites dans un bombardement. Quoiqu’assombri par tous ces
événements, Planck ne cessa de travailler à maintenir une science allemande honnête et
de haut niveau, et il fut le principal acteur de la réorganisation après la guerre.
4,80.10-11 = h/k
k étant connu ainsi que c, vitesse de la lumière, on trouve
h = 6,62. 10-34 Joule.seconde
C’est une valeur très petite à notre échelle mais non pas, de nouveau, à l’échelle
atomique.
Anticipons : la formule du rayonnement du corps noir a reçu de nombreuses vérifications
expérimentales, mais la plus précise est la mesure du spectre thermique du « rayonnement
fossile » découvert par Penzias et Wilson en 1964, qui est considéré comme un reste du
« big bang » : la courbe expérimentale, améliorée depuis 1964, est en si bon accord avec
la théorie qu’elle permet de déterminer la température de 2,726°K à moins d’un millième de
degré près1. Aucune mesure terrestre de température n’est aussi précise. Cet aspect du «
big bang » bénéficie d’une vérification expérimentale exemplaire.
Les paquets introduits par Planck ont quelque ressemblance avec des particules. Or,
Young, Fresnel et autres avaient établi la nature ondulatoire de la lumière, éliminant ainsi
la théorie particulaire défendue notamment par Newton, et voici que celle-ci réapparaissait.
Planck lui-même eut peine à le croire et ne s’y résolut qu’au bout de quelques années.
La diminution de l’intensité dans l’ultraviolet vient alors simplement du fait que les
paquets sont très gros dans cette région du spectre, et qu’il est très improbable qu’un corps
porté à une certaine température émette de si gros paquets.
Si l’on double le prix des places d’une salle de cinéma, on aura moins de clients même si
le film dure deux fois plus longtemps, et un prix dix fois plus élevé pour un film dix fois plus
long découragera tous les spectateurs. Quelque chose d’analogue se produit dans la partie
haute fréquence du spectre thermique.
Einstein bombarde la matière avec des quanta de lumière
Hertz avait observé (1887-1955) que la lumière peut exciter un courant électrique : la
lumière ultraviolette excitait une étincelle sur l’éclateur qu’il utilisait pour ses expériences
sur les ondes électromagnétiques. Ce mécanisme est à l’eeuvre dans toutes les cellules
photo-électriques. Chaque fois que vous prenez une photo avec sélection automatique du
temps de pose, c’est grâce à
ce mécanisme que l’appareil mesure l’intensité de la lumière qu’il reçoit. Philipp Lenard
(1862-1947), comprit en 1899 que la lumière arrache des électrons aux solides et formula
en 1902 deux lois à ce sujet : il existe une limite inférieure à la fréquence de la lumière en
dessous de laquelle aucun électron n’est arraché ; l’intensité du rayonnement détermine
La mécanique statistique
La mécanique statistique étudie les propriétés thermodynamiques observées à notre
échelle par des calculs à l’échelle atomique. Inventée par Maxwell, elle fut approfondie
par Ludwig Boltzmann (1844-1906). Suivant Boltzmann, la probabilité (qui n’est pas une
certitude, on l’oublie souvent) qu’un système quelconque, au sein d’un milieu à l’équilibre à
la température T, soit dans un état d’énergie E est proportionnelle au facteur
exp -(E/kT)
où k = 1,38.10 Joule/°K est la « constante de Stefan-Boltzmann ». Ainsi, à 300°K
= (300-273,16)°C = 26°84 Celsius (ordinaire), kT vaut 4,41.10-21 Joule. Ce n’est pas
négligeable à notre échelle car il y a 6,02.1023 atomes dans 2 grammes d’hydrogène.
Si l’énergie E d’une molécule a justement cette valeur de kT, sa probabilité relative est
e-1 = 0,368. Mais si l’énergie est 10 fois plus grande, la probabilité relative n’est plus que
-23
59
1. Marc Lachièze-Rey et Edgard Gunzig, Le rayonnement cosmique, trace de l’univers primordial,
Masson, 1995.
le nombre d’électrons arrachés, mais pas leur énergies1. Albert Einstein (1871-1955)
expliqua le phénomène de la façon suivante : dans le solide, les électrons sont piégés
par une barrière de potentiel électrique, le potentiel de sortie ou d’extraction, qui est due
à l’attraction des noyaux positifs, et empêche les électrons de sortir. S’ils reçoivent un
quantum d’énergie supérieure au potentiel de sortie, ils peuvent sortir, être recueillis par
une électrode positive, ce qui donne lieu à un courant. Si l’énergie est inférieure, il ne se
passe rien à la température ordinaire, quelle que soit l’intensité du rayonnement.
L’hypothèse d’Einstein confirmait l’existence des quanta de Planck, et elle était en bon
accord avec la valeur de h et avec ce que l’on pouvait savoir du potentiel de sortie. Plus
même, elle laissait supposer qu’un quantum peut donner directement son énergie à un
électron suivant un mécanisme de collision entre deux particules, ce que des expériences
de Compton (1892-1962) devaient confirmer en 1923.
Pour ces travaux essentiellement, Lenard reçut le prix Nobel en 1905, Planck en
1918, Einstein en 1921, Compton en 1927. On voit par ces dates qu’il fut assez difficile
de s’assurer de la signification de ces travaux. Il y eut des discussions passionnées ou
quelquefois désabusées (« où va-t-on ? », « les expériences de Young et Fresnel sont
pourtant claires »), auxquels se mêlèrent des problèmes de relations personnelles, l’attitude
antisémitique de Lenard vis-à-vis d’Einstein.
L’idée que les paquets de lumière peuvent être considérés comme des particules
s’imposait peu à peu ; on les appela « photons ». En Grec, « phos », génitif « photos »,
signifie lumière. La terminaison en « on » s’établissait pour désigner un corps très petit, à
l’échelle atomique. Le caractère ondulatoire de la lumière restait indiscutable.
Voici un étrange dualisme, plus courant dans les comportements humains qu’en
physique. Telle la chauve-souris de La Fontaine :
puis :
Von Guericke avait déjà observé vers 1672 qu’une décharge électrique dans un gaz
raréfié provoque l’apparition d’une lumière. Expérimentant sur les gaz sous faible pression
dans des tubes de verre, Geissler découvrit en 1855 qu’ils conduisent l’électricité en
produisant de la lumière, tout comme nos tubes au néon. L’étude de ces « décharges dans
les gaz » conduisit notamment à la découverte de la première des particules élémentaires,
l’électron, grâce aux travaux de Joseph John Thomson (1856-1940) et de Jean Perrin
(1870-1942).
Mais c’est l’étude du spectre de la lumière produite par ces décharges qui va d’abord
retenir notre attention. Certaines sources contiennent des raies brillantes correspondant à
une seule couleur : c’est le cas des lampes au sodium qui éclairent certaines routes, et des
effluves jaunes qui apparaissent parfois lorsqu’un chaudron déborde sur le feu, qui sont
dus au sodium du sel. Les spectres des flammes comportent généralement des parties
continues constituant comme des lambeaux d’arc en ciel, parfois interrompus par des
raies sombres. De tout ceci, il ressort que l’on trouve des raies lumineuses ou sombres
correspondant à des longueurs d’ondes ou fréquences définies avec beaucoup de précision
et dont la valeur est indépendante des conditions expérimentales. Celles-ci influent sur
l’intensité, la présence ou l’absence des raies, éventuellement sur leur élargissement, mais
pas sur leur longueur d’onde. Voilà donc des grandeurs bien déterminées qui paraissent
universelles, ce qui laisse présager des phénomènes fondamentaux importants, et
probablement quantiques, du fait de la discontinuité des longueurs d’ondes observées.
On comprenait que des séries de raies sont caractéristiques d’éléments chimiques
: telle série disparaîtra si l’on élimine l’oxygène du tube à décharge. En particulier, on
trouva une série de raies de l’hydrogène, comme on dira désormais. Le maître d’école
bâlois Balmer (1825-1898), trouva en 1885 que les fréquences de ces raies particulières
obéissent parfaitement à l’équation (relativement) simple :
Je suis oiseau : voyez mes ailes. Vive la gent qui fend les airs !
1/λn = R (1/4 - l/n2) ou encore νn = cR (1/4 - l/n2)
Je suis souris : vivent les rats ! Jupiter confonde les chats !
où λn et νn sont la longueur d’onde et la fréquence des raies, c est la vitesse de la
lumière, n un nombre entier supérieur à 2, et R une constante qui permet de faire coïncider
les valeurs numériques aux valeurs expérimentales. Elle reçut plus tard le nom de constante
de Rydberg. Une détermination récentes1 donne R = 1,097373153.107 (mètre)-1.
Il s’agit d’un cas rare où un amateur a trouvé par un jeu sur des nombres simples, une
formule fondamentale. On pense à la théorie des cordes de Pythagore, qui donne une série
de notes formant des intervalles consonants pour des longueurs de corde telles que
Durant cette période bouillonnante, on ne comprenait à peu près rien de la structure des
atomes, et on pouvait même se demander s’il y a un sens à parler de celle des photons.
Retour à Pythagore
L’étude des spectres lumineux réserva beaucoup de surprises, et apporta finalement
des enseignements très riches. Rappelons que, dès 1815, Fraunhofer, observant le
rayonnement du soleil, assez voisin de celui du corps noir, y trouva des raies sombres :
certains rayonnements manquaient.
1. Max Von Laue, Histoire de la Physique, Lamarre éditeur, Paris.
1n=11 / n
60
1. Cohen E.R. and Taylor B.N., The fondamental Physical Constants, Physics Today, August 1990. BG 9-13.
ce qui, on l’a su plus tard, équivaut à dire qu’une même corde peut osciller sur des
fréquences :
f
2f
3f...
CHAPITRE 8
nf ...
LES ATOMES, LA QUANTIFICATION
ET LES ONDES
Ce qui est important, bien que les lois en n soient différentes, c’est qu’il existe des
formules qui donnent des valeurs précises calculables avec des nombres entiers.
Les atomes seraient-ils des résonateurs optiques ? Se trouverait-on devant une
explication où tous les éléments chimiques seraient caractérisés par des rapports
numériques suivant un schéma pythagoricien rappelant l’ « harmonie universelle » ? On a
dû se poser ces questions dans les années suivantes, et répondre suivant ses préférences
philosophiques. Quoi qu’il en soit, les séries de raies caractéristiques des éléments et la
formule de Balmer étaient, comme on aime dire maintenant, incontournables.
Le spectre continu des corps denses ou étendus a conduit Planck à l’idée des quanta
de lumière. Une nouvelle question sur la nature de la lumière est posée par le spectre des
gaz : comment expliquer la série discontinue de Balmer, où n ne peut y prendre que des
valeurs entières ?
Cette série d’ondes lumineuses va conduire maintenant à d’autres ondes fort étranges.
Niels Bohr quantifie les mouvements des particules
En mai 1911, un grand Danois sportif de vingt-cinq ans, qui venait de soutenir une thèse
sur les électrons dans les métaux1 à Copenhague et vint en Angleterre à Cambridge dans
le laboratoire de J.J. Thomson (1856-1940). Celui-ci était déjà célèbre pour ses travaux sur
l’électron, dont il avait démontré l’existence à la suite des travaux préliminaires de Jean
Perrin (1897). Plus même, il en détermina la charge et la masse en 1899. Dès 1903, il fit
l’hypothèse que l’atome est une boule d’électricité positive à l’intérieur de laquelle oscillent
des électrons, modèle qui se prêtait à beaucoup d’études théoriques. Mais, en 1911, une
expérience de Rutherford (1871-1937) montrait que les charges positives sont concentrées
en noyaux identiques quasi ponctuels ; chacun correspond à un atome et Rutherford pensait
que les électrons négatifs, attirés par ces noyaux, tourneraient autour d’eux, formant autant
de systèmes planétaires.
Le Danois Niels Bohr (1885-1962), philosophe autant que physicien, fut le premier à
donner une description quantitative de la structure des atomes, ce qui conduisit à une
nouvelle science, la « mécanique quantique ». Celle-ci entre en contradiction avec la
mécanique Newtonienne lorsqu’il s’agit de phénomènes à l’échelle atomique. Elle est
toujours confirmée par l’expérience. La physique Newtonienne apparaît alors comme
approximativement exacte. Bohr a manifesté un talent exceptionnel pour rassembler des
chercheurs de toutes nations, et une constance admirable dans ses points de vue malgré
leur aspect paradoxal et les objections qui n’ont cessé de leur être opposées par les plus
grands physiciens. Il a en outre tenté d’appliquer des conceptions quantiques à la biologie
et à la psychologie.
Or, il se trouva que Niels Bohr (1885-1962) critiqua certains calculs du grand J.J.
Thomson, qui ne l’apprécia pas. Attiré par les idées de Rutherford, il quitta J.J. Thomson et
se rendit à Manchester en mai 1912, sans regrets de part et d’autre. Il y resta jusqu’en juillet.
Comme il ne vivait pas que pour les électrons, il retourna alors se marier à Copenhague.
Le modèle planétaire de Rutherford se heurtait à une très forte objection on ne pouvait
concevoir une force qui aurait permis aux électrons de rester immobiles. Ils doivent donc
61
1. François Lurçat, Niels Bolir, Critérion, Paris, 1960.
tourner ou osciller, et la théorie de Maxwell implique très formellement qu’ils doivent alors
rayonner de l’énergie lumineuse aux fréquences de rotation ou d’oscillation et à leurs
multiples. Tous les électrons de toute matière devraient perdre selon cette théorie de
l’énergie en rayonnant et s’effondrer sur les noyaux au bout de quelques tours : l’univers
que nous voyons et que nous touchons ne pourrait pas exister.
Il n’était pas choquant pour Bohr de penser que des systèmes qui se com- portent de
façon aussi étrange que les atomes, rayonnant à des fréquences précises s’ils font partie
d’un gaz chaud, mais également capables de comporter des électrons en mouvement
sans rayonner, ne peuvent pas obéir aux lois de la physique classique. Il faudrait des
lois radicalement différentes. De plus, Bohr était prêt à accepter provisoirement des
contradictions dans sa propre théorie. Il ignora le mécanisme du rayonnement et, sur le
conseil d’un ami, se concentra sur une formule due à Johann Jakob Balmer (1825-1898).
Ce modeste enseignant suisse avait trouvé pour les valeurs d’une série de longueurs
d’onde lumineuses λ émises ou absorbées par l’hydrogène l’expression suivante :
(
Mais justement, il y avait d’après Bohr une grande différence entre les orbites des
planètes et celles des électrons. En effet, la théorie du mouvement d’un corps autour d’un
corps massif avec une attraction, gravitationnelle ou électrostatique, variant en 1/r2 est
connue depuis Newton et elle permet toutes les valeurs possibles de l’énergie, alors que les
électrons ne peuvent être que sur certaines orbites, correspondant à des valeurs d’énergie
discrètes.
Il faut donc trouver une contrainte physique nouvelle qui ne permette que ces valeurs.
La mécanique quantique et la mécanique classique
Bohr attaqua le problème des énergies discrètes de plusieurs manières1. Il semble que
l’argument décisif pour lui fut le suivant
Le problème d’un satellite tournant autour d’un corps massif dans un potentiel
gravitationnel ou coulombien est classique. Sur le satellite, la force d’attraction équilibre
la force centrifuge. L’énergie totale est négative puisque le satellite est prisonnier ; elle est
égale à la somme de l’énergie cinétique, qui est toujours positive et de l’énergie potentielle,
qui est donc négative. Pour un électron de charge électrique -e soumis à l’attraction d’un
proton de charge e, la condition d’équilibre s’écrit, en fonction de la masse m et de la
vitesse v de l’électron, du rayon a de l’orbite, et de la constante diélectrique :
)
1=R 1 – 1
λ
4
n2
dans laquelle R est une constante et n prend les valeurs entières supérieures à 2. Bohr
considéra c/λ, qui est la fréquence υ, et hυ qui est une valeur d’énergie suivant la formule
de Planck. La formule de Balmer indiquait pour lui que le rayonnement ou l’absorption
se produit entre deux états énergétiques différents dont chacun correspond à un terme
dans la parenthèse de Balmer. Ainsi, l’électron de l’atome d’hydrogène se trouverait
« normalement » dans un état d’énergie parfaitement défini :
e2
mv2
=
4�ε0a2
a
on trouve que l’énergie totale est l’opposé de l’énergie cinétique :
E=-
En = hcR/n2
Il est commode d’introduire la rquence angulaire ω :
Il faudrait lui fournir cette énergie pour l’arracher à l’atome, c’est-à-dire ioniser celui-ci,
processus analogue à l’émission photoélectrique des solides expliquée quelques années
auparavant par Einstein. L’électron pourrait également transiter entre un état n et un état m
en émettant ou en absorbant, suivant le signe, un photon de fréquence υ telle que :
v = ωa
Il est important d’avoir une expression théorique commode de l’énergie, puisque
la formule de Balmer en donne des valeurs d’origine expérimentale. Cette expression
classique est :
mvωa
hυ = hcR/m2 - hcR/n2
Vue ainsi, la formule de Balmer exprime simplement la conservation de l’énergie.
Ces états d’énergie parfaitement définis sont appelés états propres.
Bohr ne proposa aucune théorie pour le mécanisme de l’émission ou absorption, ni sa
durée, il se limita à cette formule qui correspond à la conservation l’énergie. La formule cidessus est une généralisation de la formule de Balmer, qui correspond au cas m = 2. On
trouva en dehors du spectre optique visible des termes correspondant à m = 1, m = 3,4,
etc., ce qui était déjà une remarquable confirmation du point de vue de Bohr. C’est comme
s’il avait trouvé une formule qui prévoit correctement les orbites d’une dizaine de planètes
encore inaperçues.
mv2
2
E=-
2
Compte tenu de la valeur de l’énergie proposée par Bohr sur la base de la formule de
Balmer, on obtient une condition de quantification des grandeurs mécaniques, qui doivent
alors être affectées de l’indice entier n :
mvnωnan
hr
=2
2
62
1. Niels Bohr, a Centenary Volume, édité par French A.P. et Kennedy P.J., Harvard University Press, 1985.
Avoir introduit dans la même formule un résultat spectroscopique et la mécanique de
l’électron était très remarquable, mais il manquait une explication théorique de la valeur de
la constante R. Bohr la trouva en formulant une exigence supplémentaire : une nouvelle
mécanique quantique doit s’identifier à la mécanique classique pour les objets suffisamment
grands. Les grandeurs atomiques sont quantifiées, mais elles doivent rendre compte des
valeurs classiques continues.
Lorsque n est très grand, les niveaux d’énergie sont très rapprochés. Entre les niveaux
n et n + 1, la fréquence rayonnée est :
(
On obtient aussi l’énergie d’ionisation de l’hydrogène, c’est-à-dire celle qui est
nécessaire pour libérer l’électron :
Ei =
et la constante de Rydber :
R=
)
m2e4
= 1,097373.107 (mètre)-1
8h3ε02c
En 1913, les données expérimentales étaient moins précises. Bohr calcula, avec les
valeurs données par J.J. Thomson pour e et m :
1
+ 1 ≅ 2cR
v = cR 12 –
= cR 2n
n
(n+1)2
n2(n+1)2
n3
R =1,03.107 (mètre)-1
Bohr considère que le comportement classique apparaît justement lorsque les niveaux
d’énergie possibles sont extrêmement rapprochés. On peut alors utiliser l’électromagnétisme
classique, d’après lequel la fréquence rayonnée ν doit être égale à la fréquence de rotation
ω/2�. Cela donne une condition de quantification que l’on peut écrire sous deux formes
équivalentes également intéressante :
La valeur expérimentale acceptée alors était :
R = 1,097.107 (mètre)-1
Bohr effectua donc une synthèse remarquable de données spectroscopiques,
mécaniques et électromagnétiques classiques avec la quantification due à Planck et la
théorie d’Einstein sur l’arrachement des électrons à la matière ; il obtenait un faisceau
impressionnant de résultats fondamentaux :
mva = n h
2�
et
e2
= 13.605700 électron Volt
8�ε0a0
2�mva = nh
- la première description des états d’un atome
- une loi mécanique de quantification
- une explication théorique des dimensions d’un atome, connus grâce aux rayons X
- une correspondance entre le comportement quantique et le classique.
La première dit que le produit du rayon par la quantité de mouvement, c’est-à-dire le
« moment cinétique » est égal à un multiple entier de h/2�.
Dans la seconde, le premier membre est l’« action », c’est-à-dire le produit de la quantité
de mouvement mv par la longueur de l’orbite. L’équation suggère que, en mécanique
quantique, l’action sur un parcours fermé doit être un multiple entier de la constante de
Planck. C’est une généralisation qui se vérifiera.
C’est un résultat de toute première importance, comparable par exemple à la loi
de Planck ou même à la loi f = ma de Newton. Bohr put en tirer immédiatement des
conséquences tout aussi importantes.
La quantification de l’action et la condition d’équilibre, fournissent en effet les valeurs
de v et a :
Ces résultats1 publiés comme des hypothèses en 1913 avec certains développements
consécutifs, rencontrèrent naturellement des réactions variées parmi les autorités :
scepticisme dominant ; renoncement à comprendre de la part de John William Strutt, Lord
Rayleigh (1842-1919) ; enthousiasme de Peter Debye (1884-1966) et Arnold Sommerfeld
(1868-1951). Bohr ne remplaçait pas le rayonnement continu prévu par l’électromagnétisme.
Einstein pensa immédiatement que les idées de Bohr devaient contenir quelque chose de
solide : on ne retrouve pas une constante expérimentale comme celle de Rydberg par
hasard. L’accord avec l’expérience était dès le début assez précis.
De toute façon, Bohr et ses partisans, notamment Sommerfeld et ses élèves,
expliquaient avec exactitude un nombre croissant de caractéristiques spectrales.
V = e2 / 2nhε0
a = n2h2ε0 / �me2
Ainsi, Bohr sut calculer le rayon de l’atome d’hydrogène dans différents états quantiques.
Pour le niveau d’énergie le plus bas, appelé fondamental, n = 1, c’est le « rayon de Bohr »
a0 = h2ε0 / �me2 = 0,529177.10-10 mètre
63
1. Emilio Segré, Les physiciens modernes et leurs découvertes, Le temps des sciences, Fayard, 1994.
L’École de Copenhague
Intervention de Louis de Broglie
La guerre éclata peu après. Bohr, sympathisant avec la cause des alliés, accepta en
1914 un poste à Manchester auprès de Rutherford, l’un des créateurs de la physique
nucléaire, celle des désintégrations des noyaux atomiques et autres phénomènes de très
haute énergie (plusieurs millions d’électronVolts ou eV). La structure de l’atome, objet des
études de Bohr, ne met en jeu au contraire que des fractions d’électronvolts (ou eV) jusqu’à
des dizaines de milliers pour les atomes lourds. En 1916, on lui offrit une chaire de physique
théorique à Copenhague. En quelques années, il obtint également un laboratoire et fonda
un institut qui devint dans son domaine l’un des plus importants d’Europe. Ce laboratoire
fonctionna en relations étroites avec des physiciens confirmés comme Sommerfeld à
Munich, Born à Gôttingen. Il reçut des visites prolongées de jeunes adeptes comme
l’Allemand Heisenberg, des Hollandais, dont Ehrenfest, les Autrichiens Pauli et Schrödinger,
l’Anglais Dirac, sans parler des Russes Landau et Gamow, d’Américains, de Japonais et
de plusieurs Scandinaves. La théorie quantique progressa considérablement. Elle exigeait
de nouvelles façons de penser et d’interpréter les résultats et modifiait même le sens de la
réalité physique. Bohr était la personnalité idéale pour être le pivot d’un tel développement
: doué d’une intuition profonde qui assurait une grande continuité dans sa pensée, courtois,
tolérant et curieux de vues différentes, en outre disposant de moyens matériels et même
d’une résidence qui facilitaient tous ces échanges.
Bohr obtint le prix Nobel en 1922.
Dans et autour de l’Institut for Teoretisk Fysik se forma une école de pensée, l’École
de Copenhague et une conception de la physique quantique appelée l’Interprétation de
Copenhague.
La condition de quantification, qui fournissait bien des résultats grâce aux travaux de
Bohr et d’autres, notamment Sommerfeld et son école, resta mystérieuse pendant plusieurs
années.
L’un des résultats les plus frappants fut que l’on entrevoyait la possibilité d’expliquer la
structure des éléments chimiques et leurs propriétés ; les explications furent complétées
par les contributions de Pauli, que nous verrons plus loin, et par la découverte du neutron
par James Chadwick (1891-1974).
Einstein commenta :
[...] que ces fondements contradictoires et peu sûrs aient suffi à un homme doué
de l’instinct et de la perspicacité unique de Bohr pour découvrir la loi capitale des
raies spectrales et des couches électroniques de l’atome en rnêrne temps que leur
signification du point de vue chimique, m’apparut comme un miracle et apparaît
encore comme tel aujourd’hui. C’est la forme la plus élevée de la musicalité dans la
sphère de la pensée1.
1. Schilp, Albert Einstein Philosopher-Scientist, p. 46.
Louis de Broglie (1892-1887)1, descendait d’une très ancienne famille aristocratique,
mais modérément conservatrice. Son frère aîné Maurice (1875-1960) s’était engagé dans la
recherche physique avancée sur les électrons et les rayons X. Louis commença par étudier
l’histoire du Moyen Âge, puis le droit, puis les langues. Fasciné par ce qu’il entendait sur la
physique, il se mit à l’étudier, en autodidacte, mais de façon profonde. Il médita beaucoup
sur les principes généraux que les praticiens n’utilisent pas, en particulier le principe
de Fermat, en optique, et celui de Maupertuis, en mécanique ainsi que la mécanique
analytique de Lagrange, Jacobi, Hamilton. Ces deux principes, assez semblables disent
qu’une certaine intégrale est minimale le long d’un rayon lumineux, dans le principe de
Fermat, et le long d’une trajectoire de particule, dans le cas de Maupertuis. L’intégrale de
Maupertuis est l’action que Bohr a quantifiée dans les atomes. Ces deux intégrales très
similaires contiennent une vitesse, mais la vitesse de la particule figure au numérateur chez
Maupertuis :
∫ mv·ds
tandis que la vitesse u de la lumière dans un milieu d’indice n, air, verre, eau ou autre,
figure au dénominateur chez Fermat :
c
∫ n·ds = ∫ u ds
De Broglie conçut le projet ambitieux de réunir l’optique et la mécanique en une seule
science.
Le baron belge Ernest Solvay (1836-1922), créateur d’une industrie de la soude qui
porte son nom (en fait du carbonate de sodium, beaucoup plus facile à manier), organisa le
premier « congrès Solvay » en 1911. Véritable mécène de la science avancée, il réunit une
vingtaine des plus éminents physiciens européens. Paul Langevin (1872-1946) et Maurice
de Broglie étaient chargés de rédiger les minutes, que Louis put connaître avant le public.
C’est ainsi qu’il se voua à l’étude de la nouvelle physique.
Pendant plus de dix années riches en réflexions, Louis de Broglie chercha à résoudre
le mystère de la quantification des trajectoires électroniques. Il considéra que seuls les
phénomènes vibratoires, comme ceux des cordes vibrantes, connus depuis Pythagore,
comportent des états discrets (c’est-à-dire que l’on peut numéroter) : si on ne le sait pas par
expérience, on a vu plus haut qu’une corde à vide ne peut vibrer que sur certaines notes.
Ainsi, de Broglie avait entrevu une possibilité de réunir l’optique, qui est ondulatoire, et la
mécanique qui ne l’est pas.
64
1. Georges Lochak, Louis de Broglie, coll. Champs, Flammarion, 1992.
à la vitesse v. On définit un facteur γ:
Louis de Broglie (1892-1987) faisait figure d’amateur lorsqu’il aborda la physique
théorique, avec une profondeur qui lui fit percevoir les analogies et les différences
entre l’optique et la mécanique. Il adjoignit à tout corps une onde qui le guide dans
son mouvement, ce qui constitue une transformation complète du monde tel que nous
le voyons. La propagation des ondes est en effet très différente du mouvement d’un
projectile. De Broglie, comme Einstein et Schrödinger, s’opposa aux conceptions de Bohr
et de ses disciples sur la « réalité ».
γ = 1 / (1 - v2/c2)1/2
Le résultat est que, pour l’observateur, l’onde aura la fréquence
υ = γ υ0
ce qui conserve l’équation E = mc2 dans le système mobile. Le phénomène
spécifiquement relativiste est qu’il apparaît aussi une longueur d’onde, donnée par :
1/λ = γυ0v / c2
Enfin, on venait de démontrer que les ondes lumineuses peuvent se comporter comme
des flux de particules. Pourquoi les particules ne pourraientelles pas se propager comme
des ondes ?
De Broglie décida donc d’associer des ondes aux électrons, et pourquoi pas à tout corps
de l’univers, et il y parvint. Il donna les premiers éléments d’une théorie ondulatoire qui,
entre les mains d’autres chercheurs devait finalement englober toute la physique, et même
la théorie de la gravitation puisque l’on a observé récemment que des étoiles perdent de la
masse par émission d’ondes gravitationnelles.
Des manipulations algébriques élémentaires sur ces formules permettent d’obtenir la
valeur de la longueur d’onde
λ = h / mv
ou encore, p étant la quantité de mouvement :
λ=h/p
Cela explique-t-il la quantification des orbites de Bohr ? Oui, si l’on admet que la
longueur de l’orbite d’un électron doit être égale à un nombre entier de longueurs d’onde.
On a alors :
Les ondes de de Broglie
2�a = nλ = nh / p
Alors que Bohr et ses collègues travaillaient dans le cadre non relativiste, de Broglie
aborda le problème des ondes du point de vue relativiste. On considère des systèmes de
coordonnées en mouvement relatif uniforme et on exige de pouvoir exprimer dans chacun
de ces systèmes ce que l’on connaît dans un autre. Un premier système de coordonnées
sera attaché à la particule, le second à un observateur qui la voit se déplacer à la vitesse v.
D’une part, la relativité attribue aux corps une énergie liée à leur masse, suivant la
formule :
qui est identique à la condition de Bohr :
2�mva = nh
Or, cette hypothèse du nombre entier de longueurs d’onde est tout à fait raisonnable et
même indispensable : on a vu que la longueur d’une corde vibrante est un nombre entier
de demi-longueurs d’onde. Pour un aller et retour le long de la corde, il y a donc aussi
un nombre entier de longueurs d’onde. C’est une condition indispensable pour que l’état
vibratoire ou phase soit défini de manière unique : l’onde ne peut pas avoir plusieurs états
vibratoires différents en un point.
Voilà pour l’idée de de Broglie un succès considérable, mais encore ponctuel : elle
explique les états propres de Balmer et Bohr.
E = mc2
E aussi bien que m dépendent de la vitesse de la particule.
Il semble simple de se placer d’abord dans le système lié à la particule, où l’on a :
E0 = m0c2
m0 est la masse de la particule dans le sens usuel, et E0 s’en déduit.
D’autre part, rien de plus simple que d’associer une fréquence propre à chaque particule
suivant la relation de Planck :
Les ondes de de Broglie existent !
v0=E0/h
De Broglie admit qu’il s’agit d’une vibration sur place, non rayonnante. Ce point n’est pas
évident, car on suppose en même temps que la vibration s’étend dans tout l’espace.
Si la particule se déplace à la vitesse v par rapport à un observateur, la relativité enseigne
que la fréquence sera modifiée : c’est ce que l’on a appelé la contraction du temps. Il faut
appliquer la transformation de Lorentz pour passer d’un système de référence « immobile »
(façon de parler, puisqu’il n’y a pas de référence absolue) à un autre en translation relative
65
La simple formule de la longueur d’onde proposée en 1924 n’aurait pas suffi à justifier
le prix Nobel que son auteur obtint en 1929, si Clinton Joseph Davisson (1881-1958) et
Lester Halbert Germer (?) n’avaient observé en 1927, aux laboratoires Bell à New York,
des phénomènes qui furent interprétés comme des interférences ondulatoires dans un flux
d’électrons, tout à fait analogues à celles de la lumière dans l’expérience de Young.
Comme les gens les plus intelligents ne peuvent pas nécessairement comprendre
instantanément les nouveautés, surtout si un de leurs pairs a mis des années à les élaborer,
ces idées rencontrèrent beaucoup de scepticisme - sauf de la part d’Einstein - et même
peut-être l’hilarité, d’autant que Werner Heisenberg (1901-1976), un élève allemand de
Sommerfeld conquis aux idées de Bohr, avait conçu une théorie complètement différente
qui avait aussi des résultats positifs. Il faut bien dire aussi que les concepts n’étaient pas
clairs et cohérents même chez de Broglie, qui hésitait à parler d’ondes, tout comme Planck
avait accepté difficilement ses paquets d’ondes ou quanta, et qu’il subsistait de nombreuses
questions à résoudre.
CHAPITRE 9
LA MÉCANIQUE QUANTIQUE
ERWIN SCHRÖDINGER ET LA MÉCANIQUE QUANTIQUE
L’équation de Schrödinger
Comment être simultanément onde et particule
Bohr, Heisenberg, Bonn et d’autres continuaient de faine progresser la théorie dans
plusieurs directions, notamment grâce à l’étude critique du phénomène de la mesure et de
ses limites, ce qui devait aboutir au fameux principe de Heisenberg. Cependant, un Viennois
nommé Schrödinger reprenait à Zurich l’idée de de Broglie. On ne pouvait pas en rester
là, avec seulement une formule pour la longueur d’onde. Il fallait une « équation d’onde »
analogue à celle que d’Alembert avait trouvée pour l’acoustique, et qui s’était généralisée
à l’électromagnétisme, donc à la propagation de lumière. Il fallait aussi comprendre quelle
était la nature de l’onde de de Broglie.
Une onde de fréquence ν et de longueur d’onde λ se déplace à une vitesse u = λv dite
vitesse de phase. Pour une onde de de Broglie, on a aussi :
E = hν = mc2
Il résulte :
u = hν/mv = c2/v
Plus la particule est rapide, plus l’onde est lente ! La vitesse v de la particule étant
toujours inférieure à celle de la lumière, celle de l’onde est au contraire toujours plus
grande.
Ceci montre que la particule n’est pas accompagnée par une onde pure, mais par un
paquet d’onde semblable à celui des figures 2b et 2c (chapitre 3).
u est la vitesse de phase, celle à laquelle les ondulations se propagent, v la vitesse de
l’enveloppe, la vitesse de groupe considérée au chapitre 6.
Ces remarques de de Broglie sont d’une importance extrême et réalisent partiellement
son rêve de réunir la mécanique et l’optique : elles expliquent la différence entre le principe
de Fermat et le principe de Maupertuis. L’optique et la mécanique du point matériel
deviennent très voisines. Néanmoins, les ondes lumineuses vont toujours à la même vitesse,
ce qui n’est pas le cas pour celles de de Broglie, et il se révélera plus tard des différences
irréductibles entre les photons et les particules matérielles (bosons et fermions).
L’Autrichien Erwin Schrödinger (1887-1961) étudia la physique et la philosophie. Il
formula l’équation à laquelle obéissent les ondes de de Broglie. Cette équation supplanta
en principe la dynamique de Newton, lorsque l’on eut appris à la manier et à interpréter
les résultats, ce que firent Bohr et ses associés. Schrödinger n’accepta jamais leur point
de vue et se consacra à des études philosophiques et biologiques.
Le physicien autrichien Erwin Schrödinger (1887-1961), alors à peu près inconnu,
chercha un moyen de retrouver les niveaux d’énergie et les fréquences de l’atome
d’hydrogène définis par la quantification de Bohr. Il utilisa une fonction d’onde Ψ, traitée
mathématiquement comme la pression de l’air en acoustique, mais dont il ne précisa
pas la nature. Il partit d’équations de mécanique analytique qui sont classiques. Nous ne
pouvons suivre sa démanche dans cet exposé. Derrière ses développements, se trouve
le principe de conversation de l’énergie. Du fait de sa vitesse v, un corps de masse m
possède une énergie dite cinétique égale à mv2/2. C’est celle dont l’action intempestive
détériore les voitures dans les collisions. En dynamique, on préfère considérer la quantité
de mouvement p = mv plutôt que la vitesse, et on écrit alors l’énergie cinétique sous la
forme numériquement égale p2/2m.
Si le corps est soumis à des forces, comme la pesanteur, il gagne de l’énergie lorsqu’il
se déplace contre la force, c’est-à-dire, par exemple, s’il s’élève en effet, en redescendant,
il peut gagner de la vitesse, donc de l’énergie. Un corps possède donc une forme d’énergie,
dite potentielle, qui varie suivant sa position. On obtient la force en calculant la variation
d’énergie potentielle suivant le déplacement. Le principe de conservation de l’énergie exige
66
que la somme de l’énergie cinétique et de l’énergie potentielle U soit une constante E que
l’on appelle énergie totale, ce qui donne l’équation :
des nouvelles. C’est ce qui s’est produit en électromagnétisme pour les lois expérimentales
de Coulomb, Ampère, Biot et Savart, Faraday, et les lois de l’optique, lorsque Maxwell
formula ses lois en 1864.
p2/2m + U = E
Les nombres complexes
Le raisonnement de Schrödinger utilise avec adresse, mais de manière arbitraire
l’arsenal de la physique mathématique et aboutit à l’équation :
1
2m
( )
ħ
i
2
Les équations de la théorie quantique exigent l’usage des nombres imaginaires, sous
peine de complications redoutables. On sait que le carré de tout nombre ordinaire (on dit
réel) est positif. Des Italiens du seizième siècle trouvèrent commode pour résoudre les
équations algébriques de faire appel à un nombre imaginaire dont le carré est -1, nombre
que l’on dénote par le symbole i :
ΔΨ + UΨ = EΨ
Les termes en U et E de l’équation classique de l’énergie sont ici traités comme des
opérateurs qui agissent sur la fonction Ψ Ces opérateurs particuliers sont de simples
multiplicateurs. Mais à la place de l’énergie cinétique p2/2m se trouve un terme contenant
l’opérateur laplacien déjà rencontré en acoustique, avec un multiplicateur contenant la
constante de Planck, la masse de l’électron et le symbole i, qui appartient à l’algèbre des
nombres imaginaires et complexes. La mécanique quantique utilise systématiquement
cette algèbre. Nous en donnerons plus loin les éléments, et nous pourrons alors établir
l’équation de Schrödinger d’une manière assez simple.
On peut remarquer que cette équation présente des traits caractéristiques aussi bien de
la mécanique classique que de la théorie des ondes, ce qui traduit la dualité onde-particule
introduite par de Broglie. Schrödinger la résolut par les méthodes utilisées couramment
en acoustique et retrouva effectivement les valeurs discrètes de E valables pour l’atome
d’hydrogène, de même que l’équation de d’Alembert permet de retrouver les fréquences
propres des cordes et des tuyaux (voir chapitre 2).
C’était un succès remarquable, qu’Einstein et quelques autres surent appré- cier.
Néanmoins, la publication de Schrödinger était d’un caractère trop mathématique, trop
particulier pour convaincre beaucoup de physiciens de l’existence des ondes de de Broglie.
Personne, probablement, et pas l’auteur lui-même ne comprit que cette équation allait
supplanter la dynamique de Newton.
Depuis Galilée, on représentait les grandeurs physiques telles que l’énergie ou
l’impulsion par des nombres correspondant à des résultats de mesures éventuelles. Dans
l’équation de Schrödinger, elles sont représentées par des opérations, recettes d’opérations
mathématiques caractéristiques de chaque grandeur, qu’il applique à la fonction d’onde. Il
sera nécessaire de comprendre la relation entre ces opérateurs et des valeurs mesurées.
Il importe de souligner que l’équation de Schrödinger n’a nullement été démontrée
mathématiquement, mais établie suivant une nouvelle logique. Il en est de même pour
toutes les équations fondamentales, comme celles de Newton, celles de la relativité. À
partir des lois fondamentales, on peut démontrer des équations très importantes comme
celle de d’Alembert. On peut aussi trouver, démontrer en général, des lois fondamentales
nouvelles plus générales que les premières, et déduire mathématiquement les premières
i2 = -1
Lorsque le résultat final contenait i, on le rejetait, mais il arrivait que i s’élimine à la fin et
avait seulement servi à trouver le résultat. On pouvait vérifier a posteriori que les résultats
trouvés par ce procédé très suspect vérifiaient toujours l’équation de départ.
Les inventeurs de cette technique de calcul furent Niccolo Tartaglia (1500-1557),
Gerolamo Cardano (1501-1576). Il y eut d’âpres discussions de priorité, d’autant plus
que la réputation des mathématiciens leur assurait à l’époque des revenus substantiels
grâce aux services qu’ils rendaient aux marchands. Cardano reçut des confidences de
Tartaglia et les publia malgré sa promesse, après y avoir apporté des perfectionnements.
Certains le considèrent comme un brigand ou un imposteur et lui refusent le droit de
cité dans leurs ouvrages1. D’autres le présentent comme un grand génie précurseur2.
Il semble que Cardano ait découvert qu’un certain Scipione del Ferro (1456-1526) avait
anticipé Tartaglia3. Raffaele Bombelli (1526-1572) écrivit le premier traité d’algèbre pure,
qui fut célèbre et influença notamment Leibniz (1646-1716)4. Le nom de Cardano a été
attaché aux joints cardan qui équipent nombre de nos voitures, ainsi qu’à la résolution
des équations du troisième degrés5. Cardano publia aussi l’un des premiers traités sur les
probabilités6, ce qui était fort utile car on jouait beaucoup et de très fortes sommes à cette
époque. Il fut aussi un médecin de très grande renommée, et écrivit beaucoup à ce sujet. En
1552, il se rendit en Écosse pour soigner l’archevêque John Hamilton et le guérit d’un grave
état asthmatique. Penrose pense qu’il fut le premier à distinguer la gonorrhée et la syphilis
; il proposa un traitement de la tuberculose qui préfigurait les sanatoriums préconisés vers
1830 par George Boddington.
67
1. Histoire d’algorithmes, sous la direction de Jean-Luc Chabert, Belin, 1994 ; ouvrage très intéressant.
2. Roger Penrose, Shadows of the Mind, Oxford University Press, 1994.
3. Amir D. Aczel, L’énigme du théorème de Fermat, Desclée de Brouwer, 1998, traduit de Fermat’s last
Enigma, four Walls Eight Windows, New York, 1996. 4 Rafacle Bombelli, Algebra, 1572.
5. Gerolamo Cardano, Ars magna, 1545.
6. Gerolamo Cardano, Liber de Ludo Aleae, 1524.
Tartaglia se vengea de son rival en le faisant emprisonner par l’Inquisition. Celui-ci fut
libéré en 1571 grâce à l’intercession de John Hamilton.
La vie de famille de Gerolamo fut pour le moins agitée. Son fils Giovanni assassina son
épouse avec l’aide de son frère Aldo. Celui-ci avait aussi aidé à l’emprisonnement de son
père ! Gerolamo mourut de maladie en 1576.
Les époques troublées sont parfois fertiles.
Les préventions des mathématiciens contre les imaginaires devaient durer pendant
des siècles. Dans la tradition pythagoricienne, on considérait les entiers naturels comme
divins et l’on se demandait s’il était licite de considérer d’autres sortes de nombres. Les
imaginaires n’étaient-ils pas diaboliques ? Certains considéraient que les mathématiques
elles-mêmes l’étaient. Plus tard, on s’habitua à l’idée que toute invention mathématique
est acceptable pourvu qu’elle soit définie et cohérente, même si elle semble n’avoir pas
de signification. Ainsi, Leonhardt Euler (1707-1783) introduisit la fonction exp(ix). Plus
tard encore, Augustin Cauchy (1789-1857) fit progresser considérablement la théorie des
fonctions en étudiant les fonctions de variables complexes.
Les nombres complexes sont en fait l’association de deux nombres réels suivant
certaines règles. Il est possible d’ignorer la notation i et l’expression imaginaire à condition
d’utiliser ces associations particulières de deux nombres. C’est ce que font les ordinateurs.
La notation imaginaire simplifie considérablement les notations et le raisonnement.
Des dérivées remplacées par de simples multiplications, voilà qui permet beaucoup de
simplifications et de possibilités qui seront largement exploitées. Néanmoins les nombres
complexes et imaginaires ne permettent aucune opération impossible en nombres réels : ils
simplifient l’écriture et le raisonnement. Les ordinateurs ne travaillent qu’en nombres réels.
Séries de Fourier complexes
D’après les expressions de cos x et sin x trouvées ci-dessus en exercice, la série de
Fourier
∞
U(x) = ∑ an cos(2n�x / L) + bn sin(2n�x / L)
n=0
est une somme de fonctions einy affectées de coefficients constants où n prend toutes les
valeurs de moins l’infini à plus l’infini et y = 2�x/L. La variable y augmente de 2� chaque
fois que x augmente de L, période du phénomène décrit. On peut mettre la somme sous
la forme plus concise :
∞
Le symbole i est à traiter comme toute quantité algébrique, avec les conventions
suivantes :
– le carré de i est -1
– le nombre « complexe » z = a + bi, où a et b sont des nombres réels, ne peut pas être
réduit, ne peut pas être effectué comme une addition. Mais si par ailleurs z = c + di, et
que c et d sont réels, il résulte que a = c, b = d. La partie réelle et la partie imaginaire
peuvent donc toujours être séparées. Si donc a + bi = 0, a = 0, h = 0
– on appelle z* = a - hi le « complexe conjugué » de z = a + ib
– on définit le carré du module de a + ib comme (a + ib)·(a + ib)*. On démontrera en
appliquant les règles habituelles de l’algèbre que cette quantité est égale à a2 + b2.
U(x) = V(y) = ∑ cn exp(iny)
n=-∞
On pourra montrer que dans ce cas, cn et c-n sont complexes conjugués ; cela tient à
ce que la fonction U(x) est réelle. Si les cn sont indépendants et complexes, la série peut
décrire toutes les fonctions périodiques complexes. On obtient les cn en multipliant les deux
membres de l’équation ci-dessus par exp(-iny), notez bien le signe, et en intégrant sur une
période quelconque, par exemple de -� à �. Un seul terme de la série intégrée n’est pas
nul et l’on obtient :
∞
On considère des fonctions de variable complexe, qui sont en général elles-mêmes
complexes. L’une des plus intéressantes est :
∫
cos x + i sin x
Sa dérivée est :
-∞
Intégrales de Fourier complexes
i (cos x + i sin x)
On en déduit de ce qui précède le maniement des intégrales de Fourier complexes,
valables même pour les fonctions non périodiques :
De même, celle de (cos kx + i sin kx) s’obtient en multipliant simplement cette. fonction
par ik. Si dy/dx = iky, on peut en déduire d’une façon purement formelle :
f(y) =
y = C exp(ikx) = C eikx
C étant une constante quelconque. Suivant Leonhardt Euler (1707-1783), on peut alors
écrire sans ambiguïté ni contradiction :
cos kx + i sin kx = exp(ikx) = eikx
V(y) e-iny dy = 2�cn
∫
1
g(k) =
2�
68
∞
g(k) eiky dk
-∞
∫
∞
f(y) e-iky dy
-∞
On peut évidemment utiliser toute autre notation au lieu de symboles y et k.
Les nombres complexes et les ondes
Dans le cas d’une onde de de Broglie, de la forme, générale :
Une impulsion de longueur T dans le temps (t) peut être représentée par un signal égal à
1 pour -T/2 < t < T/2 et nul avant et après... Montrer que la transformée de Fourier est:
F = A e2�i(x/λ - vt)
on peut remarquer que les dérivations se ramènent, grâce aux nombres complexes, à des
multiplications :
∂F
= iF2� / λ
∂x
Dans l’exercice ci-dessus, w représente une fréquence angulaire (2� fois une
fréquence). L’impulsion, qui est nulle sauf pendant un temps T, est représentée par des
fréquences de moins à plus l’infini : si votre hi fi doit restituer les coups de cymbales, il faut
qu’elle « passe les fréquences élevées ».
C’est grâce aux intégrales de Fourier que l’on peut représenter les impulsions de la
figure 2 comme des paquets d’ondes. Les solutions de l’équation de Schrödinger sont de
cette nature dans le cas d’une particule en mouvement libre. Elles s’étendent sans limites,
mais sont concentrées dans l’espace.
Pour une onde plane, on peut écrire, en tenant compte des définitions de υ et de λ qu’a
données de Broglie :
∂
= (2�i / h)p
∂x
∂
= -(2�i / h)E
∂t
Appliquons cette correspondance au cas général, sans la limiter aux ondes planes :
px ↔ -iħ ∂
∂x
Les nombres complexes et les oscillations
E ↔ iħ ∂
∂t
h est la constante de Planck. Il est généralement plus commode d’utiliser le symbole suivant :
Tout nombre complexe a + ib peut être représenté comme le produit d’une fonction eix
par un nombre réel positif r. L’équation
ħ = h/2�
Reprenons l’expression du Hamiltonien, supposé égal à l’énergie :
a + ib = r eix
où a, b, sont réels détermine de façon unique a et b si r et x sont connus. On montrera,
à titre d’exercice, que si x est réel, r est le module de a + ib défini plus haut, et que x est
déterminé à 2n� près. Cette quantité est donc ce que nous avons défini comme la phase à
propos de la propagation des ondes acoustiques.
Considérons un problème d’oscillation, et posons :
p2/2m + U = E
Traduite en opérateurs, l’équation s’écrit :
( )
1 ħ ∂
2m i ∂x
x = ωt
Si r est complexe, on peut poser :
∂F
= -iF2�υ
∂t
2
( )
+U=– ħ ∂
i ∂t
Il faut en outre rendre compte de la symétrie des directions x y z, ce qui introduit le
Laplacien ∆ et aboutit à l’équation de Schrödinger telle que nous l’avons donnée plus haut
si E est une constante :
2
r = ρ eiφ
1
2m
ρ et φ étant réels. La partie réelle de r eix, qui n’est autre que a, prend alors l’expression :
a = ρ cos (ωt + φ)
( )
ħ
i
ΔΨ + UΨ = EΨ
On a là l’« équation aux valeurs propres » de l’opérateur hamiltonien. Pour la résoudre,
il faut trouver à la fois E et la fonction Ψ. C’est ainsi que Schrödinger retrouva ainsi en 1926
la quantification de Bohr (1913) et de Broglie (1924) par sa théorie bien plus élaborée et
bien plus générale.
Lorsque les atomes interagissent avec, par exemple, un rayonnement lumineux, leur
énergie n’est pas constante, et il faut remplacer E dans le membre de droite par son
opérateur :
C’est l’expression la plus générale d’une quantité oscillante.
On simplifie souvent les problèmes en utilisant comme ici des quantités complexes pour
conserver seulement la partie réelle du résultat en fin de calcul. C’est comme si l’on se
permettait de quitter la route principale et de faire des incursions alentour : on peut trouver
ainsi des raccourcis ou éviter des obstacles si la route est mauvaise.
69
( )
ħ
i
2
( )
δx δpx ≥ h/4�
∆Ψ + UΨ = – ħ ∂Ψ
i ∂t
Ce principe rappelle le phénomène que nous avons signalé à propos des faisceaux
lumineux ; plus on veut les rendre étroits, plus ils s’étalent. En fait, c’est le même principe,
mais son interprétation est différente pour les photons et les électrons.
On remarquera que, pour l’état de plus basse énergie de l’atome d’hydrogène considéré
plus haut, le rayon d’orbite et la quantité de mouvement supposés remplissent l’équation
C’est avec ces deux équations que l’on étudie les propriétés des solides, les puces
qui peuplent tous les appareils électroniques, depuis nos montres jusqu’aux calculatrices
géantes.
La mécanique de Werner Heisenberg
a p = h/2�
L’équation de Schrödinger ne fut initialement pas très bien accueillie dans le groupe de
Bohr et de ses disciples. Bohr lui-même était toujours serein, ce qui lui a permis d’être pour
ainsi dire le pivot de la physique quantique, mais Werner Heisenberg (1901-1976) était
plus jeune et agressif. De plus, il était l’auteur d’une théorie rivale, qui calculait les résultats
expérimentaux avec une algèbre appropriée, celle des matrices, sans considérer d’ondes.
Schrödinger montra rapidement que les deux théories sont en principe équivalentes.
La sienne est beaucoup plus commode pour calculer les situations en détail, celle de
Heisenberg l’est souvent pour trouver des relations générales.
Une conséquence immédiate du principe de Heisenberg est qu’aucun corps ne peut
être immobile. Voilà une affirmation que quelque Grec a certainement formulée il y a 2500
ans. D’après Heisenberg, si en effet la position est déterminée, sans incertitude, ce corps
quittera immédiatement sa position.
Le principe se généralise à de nombreux couples de grandeurs, notamment au couple
E, énergie mise en jeu dans un événement, et t, durée de cet événement :
δE δt > h/4�
Le « principe d’incertitude » de Heisenberg
On ne doit pas considérer le principe de Heisenberg comme exprimant seulement
une incertitude liée aux mesures. Dans tout processus qui implique la définition de x à
δx près, la définition de px à mieux que δpx près est impossible. La nature des particules
est telle qu’elles ont une sorte de dimension (dans l’espace des phases) égale à δx δpx.
Ceci admis, il n’y a aucune incertitude, seulement une méprise sur la nature des choses.
Le principe de Heisenberg a aussi reçu les noms moins anthropomorphiques de principe
d’indétermination et principe de flou (Unschürfeprinzip).
L’une des conséquences de ce principe est que la notion de trajectoire des particules
en général, et dans les atomes en particulier, n’a pas de sens, puisqu’elle suppose la
connaissance simultanée et exacte de la position et de la vitesse. Une autre est qu’il
est impossible de préciser exactement l’instant t où un système subit un changement
d’énergie δE ; la notion même de cet instant s’effondre. On en verra plus loin d’autres
conséquences.
Il fallut beaucoup de courage et de clairvoyance à Heisenberg, Bohr et d’autres pour
maintenir ces points de vue alors que les confirmations expérimentales brillantes n’étaient
pas encore nombreuses. Il fallut des dizaines d’années avant qu’ils soient généralement
acceptés dans l’enseignement.
La physique du XXe siècle s’attacha à un problème que, jusqu’alors, on n’avait traité
que de façon accessoire : celui de la mesure. Dans ce sens, la relativité et la physique
quantique sont plus concrètes, et non pas plus abstraites que les théories précédentes :
elles n’admettent pas que l’on parle d’une grandeur supposée mesurable sans spécifier
comment on la mesure. Heisenberg, Bohr et leurs collègues ou correspondants, en
excellents physiciens qu’ils étaient s’attachèrent de bonne heure à ce problème.
L’Allemand Werner Heisenberg (1901-1976) énonça, en 1927, le « principe d’incertitude »
qui secoua les bases de toute la physique, et provoqua une longue controverse entre Bohr
et Einstein. Celui-ci ne fut jamais convaincu malgré toutes les preuves expérimentales.
Issu d’une famille modeste mais cultivée, Heisenberg était très sportif, bon pianiste, lisait
Platon dans le texte et aimait philosopher.
Toute mesure demande que des particules, par exemple des photons, interagissent
avec la ou les particule(s) objet(s) de la mesure. Celles-ci modifient la trajectoire supposée
d’autant plus que l’on désire plus de précision. Heisenberg trouva qu’il existe une limite
inférieure aux perturbations qui en résultent et énonça, en 1927, le fameux « principe
d’incertitude » : on ne peut mesurer la position x et l’impulsion px, dans une direction
donnée qu’avec des incertitudes δx et δpx, telles que leur produit soit supérieur à la
constante de Planck h. Les trajectoires des particules n’existent donc pas, puisqu’elles
demandent précisément les positions et les vitesses. L’équation de Schrödinger permet de
retrouver ce résultat avec plus de précision :
Quelques chiffres
70
D’après les calculs de trajectoire dans l’état de plus basse énergie de l’atome,
l’électron possède une énergie cinétique T de 13,6 électron-Volt, ce qui correspond à
2,18.10-18 Joule.
Calculer l’impulsion de l’électron, dont la masse est de 9,11.10-31 kg. En déduire
l’incertitude sur la position et la comparer au rayon classique de l’orbite.
et ouvrit la voie à la physique des hautes énergies et de la structure des particules. En
1932, il accéda à la chaire de Newton à Cambridge.
Il s’agit là de se familiariser avec les ordres de grandeurs numériques, car l’incertitude
sur p est plus petite que p lui-même et celle sur la position est donc probablement supérieure
à h/4�p. Or, le rayon classique de l’orbite, quantifié par Bohr est h/2�p. L’incertitude sur
la position est donc de l’ordre du rayon de l’orbite supposée, ce qui en effet laisse peu de
valeur à la notion d’orbite. Cette notion a néanmoins servi à Bohr et de Broglie à trouver
les premiers éléments de la quantification ; elle conserve une efficacité pour certains
calculs approchés... et également pour fausser les idées sur la nature des phénomènes
quantiques.
Dirac établit à propos de l’électron la première mécanique quantique relativiste en 1928,
deux ans après celle de Schrödinger.
La mécanique quantique associe aux énergies des fréquences suivant l’équivalence
E = hυ ou encore E = hω (ħ = h/2� n’est pas un vecteur). Comme elle fonctionne avec
des quantités complexes, elle utilise la transformée de Fourier complexe et elle a besoin des
valeurs positives et négatives de ω. Il lui faut donc considérer des valeurs négatives de E.
Ce paradoxe n’était pas suffisant pour arrêter Dirac, d’autant plus que l’équation relativiste
de E permet des valeurs négatives. En effet, elle ne donne que le carré de l’énergie d’une
particule d’impulsion connue :
Dirac et Pauli
E2 = E02 + p2c2
Le génial Anglais Paul Adrien Maurice Dirac (1902-1984) énonça en 1928 une théorie
plus générale que celle de Schrödinger, mais relativiste, qui allait prévoir la première
antiparticule : le positon. Celui-ci fut observé par Carl David Anderson (1905-1991) en 1932
au « California Institute of Technology » lors d’études sur le rayonnement cosmique. C’était
le début véritable de la théorie de la nature des particules élémentaires.
D’après Einstein et le fameux E = mc2, la masse d’une particule possède un équivalent
énergétique. On ne peut étudier la nature des particules sans en tenir compte, ce qui oblige
le physicien à se placer dans le cadre relativiste.
La personnalité de Dirac est, pour le moins que l’on puisse dire, extrêmement
intéressante. Il naquit dans une famille très modeste d’origine suisse. Il était, en physique,
plutôt conservateur mais, lorsque l’on veut conserver l’essentiel, il faut souvent sacrifier.
Contrairement à Bohr, Pauli, Heisenberg, il n’avait aucun goût pour la philosophie. Il
était exceptionnellement sensible à la beauté formelle des équations, notamment à leurs
propriétés de symétrie. Il pensait qu’une théorie harmonieuse est nécessairement juste et il
alla jusqu’à dire que si une expérience contredit une belle théorie, c’est qu’elle est faussée
ou mal interprétée. Ces opinions n’ont nullement diminué ses capacités, bien au contraire:
elles lui ont donné une audace et une persévérance considérables. Ainsi, il n’hésita pas à
envisager l’existence de particules libres d’énergie négative.
La mécanique relativiste n’avait jusqu’alors pas considéré les valeurs négatives, mais
c’était un manque que la mécanique quantique venait combler.
C’est sur la base de cette équation que Dirac établit son équation d’onde, plutôt que
sur l’expression non relativiste du Hamiltonien, qui était le point de départ de Schrödinger.
Mais son développement ne permit pas d’utiliser une fonction d’onde scalaire, et des
considérations de symétrie l’obligèrent à ajouter des termes qui se révélèrent correspondre
à une propriété des électrons déjà observée, le spin.
La mécanique quantique donne à l’énergie des particules des valeurs discrètes, tout
au moins dans les systèmes confinés, et d’autant plus rapprochées que ces systèmes sont
plus étendus. Traitant le monde comme un seul système quantique comportant un très
grand nombre de particules, Dirac considéra (1929) que les niveaux d’énergie seraient
très nombreux et très serrés. Ils pourraient aussi bien être négatifs que positifs. Pour les
particules libres, les énergies des niveaux à considérer, numérotés par l’indice n, sont donc :
En = +√E0 + p2nc2
+
2
En = –√E0 + p2nc2
-
2
où pn prend bien entendu des valeurs positives et négatives puisque les particules peuvent,
comme en mécanique newtonienne, se déplacer dans toutes les directions.
Pourquoi a-t-on pu jusqu’à Dirac établir la physique en ignorant les états d’énergie
négatifs des particules libres ?
Ici intervient le principe d’exclusion de Pauli (1900-1958) : deux particules ne peuvent
se trouver dans le même état quantique1. Suivant les principes thermodynamiques, les
particules se rangent d’abord dans les niveaux inférieurs ; les niveaux négatifs sont tous
occupés par un seul électron par état quantique possible, suivant le principe d’exclusion.
Paul Adrien Maurice Dirac (1902-1984) naquit à Bristol dans une famille modeste d’origine
suisse. Il fit d’abord des études d’ingénieur, mais se tourna vers les mathématiques pures,
puis vers la mécanique quantique en 1925. Cette mécanique restait alors non-relativiste,
ce qui était en principe inadmissible. Dirac publia en 1928 une théorie d’une grande
beauté et, apparemment, d’une grande abstraction, qui devait cependant se montrer la
plus générale et la plus maniable, pour finalement s’imposer dans les traités modernes.
Avec une grande audace, et secondé par quelques autres physiciens, il introduisit des
états d’énergie négative pour des particules libres, ce qui aboutit à la notion d’antiparticule
71
1. Par particules, il faut entendre ici les particules que l’on peut appeler matérielles, les fertnions, à
l’exclusion des particules d’échange ou bosons, dont la plus familière est le photon.
Comme toutes les places sont prises, ces électrons ne peuvent pas bouger et sont
généralement inobservables car, suivant la mécanique quantique, les particules ne se
manifestent que lorsqu’elles changent d’état.
Voilà donc qui était rassurant, car on n’avait jamais observé de particules dans des états
d’énergie négative.
D’autre part, tant que la particule existe, E ne peut prendre de valeurs entre - E0 et + E0.
Il existe donc une « bande interdite », intervalle sans niveaux permis qui couvre deux fois
E0, soit 1,022 MeV. Nous ne voyons ordinairement que les particules dont les vitesses et
les impulsions sont petites en termes de relativité. Leurs énergies ne sont que légèrement
supérieures à E0. Pour amener dans ce domaine un électron d’énergie négative, il faudrait
lui fournir au moins cette énergie de 2E0 par un moyen électromagnétique, par exemple
grâce à un photon. Celui-ci se trouverait nécessairement dans le spectre γ.
En physique classique, ce saut en énergie est interdit par la condition de continuité du
mouvement. En physique quantique, cette interdiction n’existe pas, à cause du principe de
Heisenberg, qui permet même une violation de la conservation de l’énergie pendant des
temps très courts.
Que pourrait-on observer si l’on irradiait des électrons avec des rayons gamma
suffisamment énergiques ? On obtiendrait un électron d’énergie positive et l’absence d’un
électron d’énergie négative. Cette absence, ce trou permet aux voisins négatifs de se
déplacer. Après pas mal de supputations, au cours desquelles Oppenheimer (1904-1967),
alors en visite à Copenhague, joua un rôle, on conclut que cette absence, ce « trou » se
comporterait comme une particule de charge opposée à celle de l’électron, et de même
masse. Ce pur produit d’une imagination débridée fut nommé positon, ou positron.
Le positon fut observé par Anderson en 1932 lors d’études sur le rayonnement
cosmique.
On savait bien entendu que les électrons peuvent engendrer des photons c’est la base
de l’électromagnétisme. On venait de prédire que des photons peuvent engendrer des
électrons. Dans le premier cas, l’énergie des photons n’a pas de limite inférieure. Dans le
second, non seulement il existe un seuil d’énergie pour le photon, mais on ne peut produire
que des paires électronpositon, car la charge totale des particules produites doit être nulle
comme celle du photon.
L’invention du positon par Dirac ouvrit une nouvelle ère en physique : on avait auparavant
« inventé » de nombreux corps, en chimie classique ou nucléaire, par exemple le neutrino
(1930), pour expliquer des réactions avant d’isoler ces éléments ou particules. Dans le cas
présent, l’invention n’était basée sur aucune observation antérieure.
Plus tard, on continua à inventer et à observer de nombreuses particules, tels le
mésotron, les mésons, et notamment l’antiproton (Segré-Chamberlain 1955) et toutes les
antiparticules. Le positon fut la première antiparticule inventée avant d’être découverte.
Particules et antiparticules en cosmologie
Les antiparticules furent dans le passé de l’expansion cosmique presque aussi
nombreuses que les particules, donc prodigieusement nombreuses. Les plus lourdes
s’annihilèrent mutuellement 1/100e de seconde après le big bang, produisant autant de
photons à la température de 100 milliards de degrés et laissant l’infime surplus de particules
qui constituent l’univers d’aujourd’hui,
plus les positons et électrons qui sont moins massifs. Ceux-ci devaient s’annihiler au
bout de 13 secondes, après refroidissement à 3 milliards de degrés, produisant de nouveaux
photons et permettant aux éléments chimiques de se constituer, puis à la vie d’apparaître.
L’introduction du positon par Dirac eut donc de grandes répercussions sur notre
compréhension de l’Univers.
72
En intégrant dP dans tout l’espace, on doit trouver l’unité, si l’on est sûr qu’il y a
effectivement une particule objet de l’équation quelque part dans l’espace.
Cette interprétation entraîne loin. L’expérience montre que la présence d’une particule
sera révélée par un point lumineux sur un écran ou un grain d’argent sur une pellicule
photographique. Born nous dit que l’on ne peut prévoir où sera situé l’impact, mais il nous
montre comment calculer la probabilité de le trouver en différents endroits.
C’était au moins cohérent avec le principe de Heisenberg, d’après lequel il y a toujours
une indétermination sur la position d’un objet. Cette interprétation fit néanmoins, pour
beaucoup, l’effet d’une bombe, ou d’une mauvaise plaisanterie : voilà que les physiciens
quantiques renonçaient à prédire exactement les événements comme Newton, Maxwell
et d’autres l’avaient toujours fait. Einstein était un des opposants les plus déterminés, et
l’est resté jusqu’à sa mort : « Dieu ne joue pas aux dés », disait-il. De Broglie, Schrödinger
luimême, ne l’acceptèrent pas non plus, et de nombreux physiciens de grande valeur ne
l’acceptent toujours pas.
Non seulement Bohr et Heisenberg admirent-ils l’interprétation probabiliste, mais elle
devint une pierre angulaire de leur physique et leur philosophie. Elle s’accorde parfaitement
bien avec le principe d’incertitude. Elle permit d’établir comment on peut mesurer les
quantités, de comprendre ce que l’on peut appeler l’état d’un système physique. Ce
travail fut accompli autour de Bohr et aboutit à ce que l’on appelle l’Interprétation de
Copenhague.
Bien que contestée, cette interprétation est utilisée dans tous les calculs pratiques
qui ont permis de mener les expériences et de développer les techniques électroniques
modernes. Elle reçoit ainsi chaque jour d’innombrables milliards de vérifications. Même
ceux qui la jugent insatisfaisante la trouvent géniale en pratique.
CHAPITRE 10
L’ÉTAT QUANTIQUE
Nous arrivons au dernier épisode de l’histoire que nous avons entrepris de raconter :
celle de l’invasion progressive de la physique fondamentale par les ondes et les oscillations,
depuis Pythagore jusqu’au XXe siècle. Nous avons vu comment la nécessité de trouver un
cadre théorique à des phénomènes microscopiques à conduit à la mécanique quantique.
Venons-en maintenant aux aspects fondamentaux de cette théorie et à la façon dont ils
s’appliquent.
Sur le plan théorique, des interprétations sont indispensables pour effectuer les calculs
et les appliquer aux expériences. Il ne suffisait pas d’expliquer les spectres de rayonnement
des atomes, comme le fit Bohr en 1913 pour l’hydrogène et comme la fonction d’onde
« psi » de Schrödinger permit de le faire en principe pour tous les atomes et molécules dès
1926. Il fallait comprendre la nature de cette fonction d’onde. L’équation de Schrödinger,
qui la régit, ne contient pas les grandeurs physiques elles-mêmes – vitesses, positions et
autres -, mais des opérateurs qui leur sont attachés. Il fallut trouver comment cette fonction
permet de déterminer ces grandeurs, autant que le principe de Heisenberg le permet.
Interprétation de la fonction d’onde Ψ
Si l’équation d’onde avait déjà fourni tant de résultats, la nature de la fonction ellemême ne fut pas comprise pour autant. Aucune énergie n’était directement associée à
cette fonction, ce qui ajoutait au mystère : l’équation d’ondes de l’acoustique s’applique aux
variations de pression de l’air, celle de l’électromagnétisme aux composantes de champ,
toutes grandeurs qui contiennent de l’énergie. Psi n’en contient pas ; sa réalité physique est
d’une nature jusque-là inconnue. Une explication fut proposée assez vite. On avait attendu
bien plus longtemps pour connaître la nature des ondes lumineuses depuis l’époque de
Grimaldi, Huygens et Newton, jusqu’à Young (1802) et Maxwell (1864).
Max Born (1882-1970) proposa en 1926 l’idée suivante : cette fonction, qui est associée
à une particule, est indispensable pour tout calcul, mais si on ne peut pas la mesurer,
son carré a toutefois un sens expérimental : il est proportionnel à la probabilité de trouver
chaque particule en un point donné à un instant donné. Plus précisément, la probabilité dP
(infiniment petite) de trouver la particule dans un élément de volume dV (infiniment petit),
est donnée par ΨΨ*, carré du module de Ψ :
Retournant au passage en italiques sur les nombres complexes, montrer que la phase
de la fonction d’onde disparaît dans le calcul de la probabilité de présence. On croyait
que la phase est une grandeur essentielle pour caractériser une onde. Voilà une
étrange onde, dont la phase n’aurait pas d’importance ? En fait, tant que l’on reste au
niveau de cette fonction, les différences de phase jouent. Mais il est facile de montrer
que deux fonctions d’onde qui ne diffèrent que par une phase constante, c’est-à-dire
un facteur multiplicateur exp(iφ), ne peuvent être distinguées expérimentalement.
En effet, exp(iφ) exp(-iφ) = exp(0) = 1, quel que soit φ.
L’interprétation de Copenhague comprend un certain nombre de nouveaux principes très
précis. Dans certain bon traité introductif à la mécanique quantique1, on trouve une liste de
sept postulats de cette science, sans compter huit nouvelles définitions. Leur étude n’entre
pas dans le cadre de cet ouvrage. Nous allons néanmoins découvrir quelques principes de
dP = ΨΨ* dV
Le carré du module a été défini au chapitre 9.
73
1. R.H. Dicke and J.P. Wittke. Introduction to Quantum Mechanics, Addison-Wesley, 1963.
la physique quantique sur un exemple « simple », du moins en ce qui concerne les fonctions
mathématiques qu’il introduit : ce sont les mêmes que pour les cordes vibrantes.
Nul doute que les pages qui suivent demandent une attention soutenue. Elles illustrent
les différences entre des ondes acoustiques et des ondes quantiques qui sont formellement
identiques. Il s’agit de mettre en évidence ce qu’est l’état d’un système en mécanique
quantique.
C’est, formellement, exactement le problème des cordes vibrantes que nous avons
rencontré au chapitre 3.
Les solutions élémentaires sont :
Ψ=C
On considère un électron placé entre deux plaques parallèles distantes de d qui ont la
propriété de le réfléchir comme une balle de tennis sur un mur. Comme aucun corps ne
peut être immobile d’après le principe d’Heisenberg, l’image classique serait que l’électron
oscille entre les deux plaques.
∫
C’est ainsi que s’introduit la quantification. Elle est due au fait que l’électron est confiné
entre les plaques. On a vu plus haut que chaque valeur de k implique une valeur de
l’énergie, qui est ici :
En = (nh/2d)2/2m
En est une valeur propre de l’énergie correspondant à une fonction propre du problème. On
constatera qu’elle est égale à la valeur calculée en exercice. La deuxième équation devient :
E Ψn = En Ψn
d’où, après une simplification évidente,
(ih/2�) dC/dt = EnC
Compte tenu des propriétés des exponentielles complexes, la solution est :
EΨ = EΨ
C = Cn e-i2�υnt
On doit se limiter aux solutions compatibles avec les conditions aux parois. E étant une
constante, la première de ces deux équations s’écrit :
(
)
2
Cn est une constante réelle ou complexe.
υn = En/h = (nh/2d)2/2mh
Ψ = EΨ
Pour une corde vibrante de longueur égale à la distance entre les plaques, soit d,
supposée vibrer à une fréquence f, on aurait dû poser :
Après une transformation simple,
k = 2�f/v
d2Ψ/dx2 + k2Ψ = 0
avec
k2 = 8�2mE/h2
ΨΨ* dx = CC*
0
kn = n�/d
Le « modèle » présenté ne saurait être réalisé que grossièrement, mais il ne contient
pas d’hypothèse contraire aux lois fondamentales. De tels modèles sont très utiles pour
expliquer les phénomènes physiques de la façon la plus simple possible. Une approche
formelle rigoureuse est aussi simple, mais plus abstraite. Nous en donnons un exemple
dans l’appendice 4.
La nature des parois sera exprimée mathématiquement en supposant que l’électron ne
peut y pénétrer tant soit peu : sa probabilité de présence y est nulle et nous admettrons
que, par continuité, la fonction d’onde est nulle à leur surface. Par ailleurs, on n’applique
aucune force, aucun potentiel U et, comme le système est isolé, l’énergie est constante.
Ceci permet de diviser l’équation de Schrödinger en deux parties. Réservant les symboles
ombrés pour les opérateurs, dont la définition a été donnée plus haut, on obtient en effet :
h ∂
2i� ∂x
d
Si CC* = 1, on dit que les fonctions propres sont normalisées, ce qui facilitera le calcul
des probabilités définies par Born.
Les seules valeurs possibles de k compatibles avec les conditions aux limites sont :
Calculer d’après la mécanique classique la vitesse de l’électron en fonction de son
énergie cinétique E. Calculer l’action 2dmv, et la quantifier suivant la règle de Bohr. En
déduire une expression des niveaux quantiques d’énergie.
1
2m
2 sin(n�x / d)
d
La solution générale est une somme de ces fonctions élémentaires dites fonctions
propres de l’opérateur différentiel.
Le facteur numérique a été introduit car il sera plus tard commode d’assurer :
Un problème simple : l’électron réfléchi entre deux parois
parallèles
HΨ = EΨ
√
v étant la vitesse de phase le long de la corde.
74
Donc, pour l’électron confiné entre deux plaques comme pour l’atome d’hydrogène, ou
tout autre système confiné, il existe un spectre discret d’énergies correspondant aux entiers
n = 1, 2, 3,... Mais, pour la fréquence, la dépendance de n est différente. Différente aussi
du cas des cordes vibrantes, bien que la variation en x soit la même.
(car la probabilité pour qu’une balle ait n’importe quelle énergie est 100 %).
La définition générale de ΨΨ* comme densité de probabilité amène eu égard à
certaines considérations mathématiques et physiques, à proposer la valeur probable de
l’énerie suivante :
<E>=
Le principe de superposition et la mesure
La fonction d’onde la plus générale est une somme ou superposition des solutions cidessus de l’équation de Schrödinger (fonctions propres) :
∞
Ψ=
∑√2 C
n=1
d
n
L’intégrale de volume doit être étendue à tout l’espace où la particule peut se trouver.
Ici, nous sommes dans cas artificiel, un espace unidimensionnel, et l’intégrale est
étendue de x = 0 à x = d. Le calcul de l’intégrale est assez simple ; il donne, en
utilisant les relations d’orthogonalité propres aux séries de Fourier :
sin(n�x / d) e-i2�υnt
∞
U(x) = ∑ CnCn *En
Sous cette forme, elle est identique à celle des cordes vibrantes : une somme de toutes
les ondes simples possibles affectée de coefficients. La dépendance spatiale de cellesci est la même que pour une corde, seule les fréquences sont différentes, et à chaque
fréquence correspond une énergie de l’électron.
Pour déterminer les coefficients Cn, il faut spécifier la façon dont on a préparé le
système, comme pour les cordes vibrantes. Les harmoniques ne sont pas les mêmes si
l’on utilise un archet ou un plectre. L’électron peut provenir d’une source extérieure et avoir
pénétré par un petit trou (détermination initiale de p), ou avoir été arraché à une molécule
gazeuse entre les plaques (détermination initiale de x).
Si ce problème présente des ressemblances étroites avec celui des cordes vibrantes,
d’autres différences que la valeur des fréquences subsistent, et ces différences sont très
importantes.
En premier lieu, on peut photographier la corde à tout instant, la filmer, déterminer en
temps d’horloge les temps auxquels la vitesse de tel point de la corde s’annule ; au contraire,
on ne peut trouver une méthode de mesure directe de Ψ. C’est un des fondements de
l’interprétation de Copenhague.
Suivant la physique classique, on peut mesurer la vitesse d’une balle de tennis
optiquement. On peut montrer que la solution ci-dessus ne permet pas de déterminer
exactement la vitesse et la position de l’électron et qu’elle est en cela conforme au principe
d’Heisenberg. Ce principe est pour ainsi dire incorporé dans l’équation de Schrödinger. En
fait, il tient à la nature ondulatoire des solutions. Aucun dispositif expérimental ne permet de
mesurer ces deux quantités simultanément.
En physique classique, si l’on a un ensemble de dispositifs comportant des balles de
tennis qui ont des énergies En avec des probabilités associées Pn, l’énergie moyenne ou
l’énergie la plus probable est :
en supposant:
n=1
Sous cette forme, c’est une moyenne classique des valeurs En, avec des valeurs
particulières des Pn.
Nous en venons à des principes fondamentaux de l’Interprétation de Copenhague.
Étant donné que plusieurs valeurs de En figurent dans la fonction d’onde, quel résultat
peut-on obtenir si l’on mesure l’énergie d’un seul électron dans une structure donnée ?
Principe : on ne peut obtenir qu’une des valeurs En si la mesure est précise. Si l’on
recommence l’épreuve sur un autre système identique, on obtiendra chaque fois l’un de ces
résultats avec une fréquence ou probabilité proportionnelle au CnCn* correspondant. Mais
si l’on recommence l’épreuve sur le même système après avoir trouvé un En particulier, on
trouvera toujours le même, car son CnCn* est devenu l’unité dans le processus de mesure.
La mesure a transformé la fonction d’onde de manière discontinue ; la mesure précise a
supprimé la superposition.
Qu’est-ce que l’état d’un système quantique ?
< E > = ∑ PnEn
∑ Pn = 1
∫ Ψ* EΨdV = ∫ Ψ* ih ∂t∂ ΨdV
75
Ces règles strictes sont incompatibles avec la notion classique de l’état d’un système.
La superposition d’états pourrait laisser croire que la valeur mesurée était celle de l’électron
avant la mesure, et que ces valeurs sont dès le départ les bonnes dans l’expérience,
quoique réparties suivant une loi de probabilité. Un résultat de mesure renseigne-t-il sur
l’état de l’électron avant la mesure ? Était-il alors dans l’état n, comme la mesure semble
le démontrer ?
Évidemment, répondait essentiellement Einstein ; si vous ne savez pas lequel,
c’est que votre mécanique quantique est incomplète. Toute cette histoire de
probabilités est inacceptable.
Un « écolier de Copenhague » répondrait :
Il est impossible en général de répondre à cette question. Avant la mesure, vous
qui dépend de la position du soleil.
D’après l’interprétation de Copenhague la théorie quantique est complète, en tant que
théorie physique, s’entend. Cependant, elle n’a pas accès à un quelconque monde réel
indépendant de nos expériences. Beaucoup ont cherché à la rendre complète. On a supposé
de bonne heure que les phénomènes aléatoires sont en réalité provoqués par des variables
cachées, phénomènes à découvrir qui sauveraient le déterminisme. Ces théories n’ont eu
que des succès limités, sans commune mesure avec ceux de l’interprétation probabiliste.
Comme on le verra plus loin, des expériences et des mesures physiques ont été conçues
avec beaucoup de raffinements pour montrer que le système est, avant une mesure, dans
un état déterminé et non pas dans l’étrange mélange ou composition d’états de la fonction
d’onde : toutes ces expériences ont confirmé la conception du mélange étrange d’états.
C’est ainsi que Bernard d’Espagnat a été amené à publier un article sous le titre «
Théorie quantique et réalité » suivi du commentaire :
L’idée que le monde est constitué d’objets localisés dont l’existence ne dépend
pas de la conscience humaine s’avère être incompatible avec certaines prédictions
de la mécanique quantique et avec des faits aujourd’hui établis par l’expérience.1
ne pouvez connaître que la fonction d’onde. Or, la fonction d’onde n’est pas une
description du système. Elle n’implique en général aucune valeur des grandeurs.
C’est seulement un outil dont nous disposons pour calculer des résultats possibles
de mesure et leur probabilité. Sur l’état d’un système proprement dit, les seules
données qui ont un sens sont les résultats de mesure.
– Allez-vous nie dire que l’on ne sait pas où est la lune quand on ne la regarde pas ?
– Regarder, c’est faire une expérience. Cela n’a aucun sens de parler du résultat
d’une expérience que l’on ne fait pas.
Rassurez-vous : si l’on calcule la fonction d’onde de la lune suivant la mécanique
quantique, on fera des prédictions avec des probabilités capables de satisfaire l’astronaute
le plus exigeant. Il est vrai que ∆x·∆(mv) > h, mais si m tend vers l’infini, le produit ∆x·∆v
tend vers zéro : il n’y a en pratique pas d’indétermination dans ce cas.
Il faut admirer une théorie qui refuse de dire des choses que l’on ne peut pas vérifier.
Revenons sur la nature probabiliste des prédictions quantiques. Nous reviendrons pour
cela aux nombres complexes. Le carré d’un nombre contient moins d’information que ce
nombre, puisqu’il ne donne pas le signe. L’indétermination est encore plus grande avec le
produit complexe m2 = (a + ib)(a + ib)* = a2 + b2. Ce carré du module m contient moins
d’information que a + ib, puisque c’est un seul nombre alors que a + ib en contient deux.
La forme ci-dessus de Ψ, qui contient les Cn, est donc plus riche en information que
tous les CnCn*. Donc, cette forme de Ψ représente un « mélange étrange d’états » dont les
coefficients ne peuvent être déterminés complètement.
Un des postulats de la mécanique quantique, que l’on a été amené à admettre parce
que toute autre hypothèse aboutit à des incohérences dans la théorie et parce qu’il n’a
pas été mis en défaut expérimentalement, est que nous ne pouvons connaître avant une
mesure autre chose que la fonction d’onde.
Celle-ci évolue dans le temps suivant l’équation de Schrödinger, donc de façon parfaitement
déterministe, exactement comme un phénomène électromagnétique macroscopique.
Une interprétation de ce paradoxe est la suivante ; faire une mesure, c’est chercher à
déterminer quelque chose, acte purement humain ; c’est en un sens poser une question à la
matière. Nous avons appris à formuler nos questions dans le monde macroscopique. Elles
n’ont pas de sens, en général, dans le monde microscopique. Vous êtes parfois dans une
situation apparentée en répondant aux questions d’un formulaire : êtes-vous ceci ou cela’?
Vous trouvez que vous ne rentrez pas dans les catégories proposées, ou, au contraire, que
vous entrez dans deux catégories présentées comme incompatibles.
À l’échelle atomique, la position et la vitesse ne sont pas deux grandeurs définies avant la
mesure : ce sont des potentialités de celle-ci. C’est sur un grand nombre de particules qu’un effet
de moyenne fait apparaître des positions et des vitesses mesurables de façon indépendante.
On dirait que l’opérateur associé à la grandeur physique se matérialise soudain du fait
de la mesure. On dira plutôt qu’il se projette comme un objet sur son ombre, d’une manière
Nous reviendrons sur cette affirmation !
Les transitions ; le temps quantique
Comment un atome, ou toute autre structure quantique, peut-il passer d’un état propre à
un autre ? Les forces internes sont électriques ; ce sont donc des forces électromagnétiques
qui peuvent agir sur lui. Les états propres correspondant à des énergies différentes, il faut
un quantum qui apporte ou retire la différence. Ce quantum correspond à une fréquence.
Lorsqu’il s’agit d’atomes, celle-ci se trouve dans ou autour du domaine optique. À l’aide d’un
prisme, on peut éclairer des atomes avec une longueur d’onde bien déterminée En général,
il ne se passe rien d’important mais, si l’on tourne le prisme par rapport aux échantillons,
la longueur d’onde d’excitation varie ; lorsqu’elle se trouve correspondre à une différence
entre deux énergies propres, les transitions se produisent ; c’est un phénomène analogue
à l’excitation d’une vibration par résonance. Quantitativement, la longueur d’onde étant
comme toujours en optique égale à c/υ, on doit avoir :
hυ = Em - En
76
Voila donc déterminé en principe le moyen d’obtenir et d’observer des transitions
quantiques ; on voudrait savoir plus en détail comment elles se produisent. Suivant
l’intuition classique, on s’attendrait à une évolution pendant un certain temps. Or, on n’a
jamais pu analyser expérimentalement le détail de cette transition ; cela supposerait une
violation des principes les plus élémentaires. Il faudrait par exemple que l’énergie passe
progressivement du photon à l’électron, ce qui est contraire à la nature des photons, et
violerait le principe de Heisenberg.
Voici comment la théorie rend compte de la transition quantique radiative. considérons
de nouveau le modèle simple de l’électron prisonnier entre deux plaques, pour lequel nous
connaissons les niveaux d’énergie et une expression de la fonction d’onde. Les propriétés
des séries de Fourier, qui peuvent représenter toute fonction, nous permettent d’utiliser la
même forme pour chaque valeur du temps, mais il nous faut considérer que les Cn sont des
fonctions du temps à déterminer. L’énergie n’étant pas constante, l’équation de Schrödinger
doit être prise avec le membre de droite fonction du temps. Il faut en outre introduire dans
cette équation l’action extérieure avec la bonne fréquence, ce que l’on peut faire en
introduisant un potentiel de la forme :
l’énergie ne pourrait donner que l’une des valeurs En et Ek. Il est donc impossible de dire à
quel instant se produira la transition. L’instant exact est imprévisible, bien qu’il puisse être
trouvé expérimentalement grâce à un détecteur rapide.
Après avoir traité le cas de transitions entre des états propres, prenons l’exemple simple
où un faisceau de lumière est de nature à ioniser un atome, c’est-à-dire à lui arracher un
électron. Il s’agirait par exemple d’un atome d’hydrogène éclairé en ultraviolet, car l’énergie
des photons doit être supérieure à 13,6 eV. On recueille l’électron sur une électrode reliée à
un circuit électrique qui indique la capture de l’électron. Dans ce cas, il n’y a pas oscillation
entre deux niveaux d’énergie : l’électron d’ionisation est sorti du système quantique.
L’expérience demande des détecteurs très rapides. On trouve que l’émission se produit à
des temps très variables, dont seule la distribution statistique, en particulier la moyenne,
peut être déterminée. Il existe un temps moyen mais avant d’être ionisé, l’électron peut
rester longtemps dans son état initial.
U = V(x) cos 2�υt
Ce terme est censé représenter l’action d’un champ lumineux ou plus généralement
électromagnétique sur l’électron. On obtient l’équation :
2
– ħ d Ψ2 + Ψ V(x) cos(2�υt) = – h ∂Ψ
2m dx
2i� ∂t
Mort naturelle sans vieillissement
Un troisième exemple de transition est donné par la désintégration nucléaire. Le radium
se désintègre suivant un processus assez complexe, mais qui a une propriété simple : si
l’on stocke un gramme de radium, la moitié s’en sera désintégrée au bout de 1600 ans. On
appelle cette durée la demi-vie ou la période, abusivement car la durée de vie de chaque
atome n’est pas déterminée et le phénomène n’a rien de périodique. Si l’on part d’une
masse mo, la masse non désintégrée au bout de N périodes de 1600 ans est donc :
Les Cn étant fonction du temps, la solution complète s’écrit :
∞
Ψ=
∑ √ 2d C (t) sin(n�x / d) e-i2�υ t
n=1
n
n
Les υn ont été donnés plus haut. Les inconnues sont les fonctions Cn(t).
Ces coefficients permettent, comme on l’a vu, de calculer les probabilités CnCn*
pour qu’une mesure révèle que l’atome se trouve dans les différents états propres. Ils
sont donnés en général par un système infini d’équations, mais on peut traiter des cas
particuliers simples et significatifs.
On peut supposer par exemple que l’électron se trouve à l’instant 0 dans un état propre n,
et que la fréquence υ est susceptible de le faire transiter vers l’état k. Le calcul est présenté
en appendice sous une forme très générale, valable pour toutes sortes de structures.
m = m0 (1/2)N
Résoudre les deux équations ci-dessus en suivant la procédure donnée en appendice.
On pourra laisser V(x) indéterminé et utiliser les coefficients αnk. Pour aller plus loin, on
calculera ces coefficients en supposant que l’électron est soumis à un champ électrique
uniforme F et que le potentiel est V(x) = eFx ; e est la charge de l’électron. On obtiendra
ainsi le temps de transition, soit �/2Ω.
On trouve que Cn et Ck varient sinusoïdalement à une fréquence relativement basse
en pratique qui dépend de V(x). Lorsque CnCn* vaut 1, CkCk* est nul et réciproquement
; mais, à part ces instants privilégiés, la fonction d’onde représente le mélange quantique
des deux états propres comme décrit plus haut. Et cependant, à tout instant une mesure de
77
Cette loi implique que le nombre de désintégrations par unité de temps est proportionnel
au nombre d’atomes présents. La probabilité de désintégration d’un atome dans l’heure qui
suit reste alors la même tant qu’il n’est pas désintégré. C’est comme si, l’âge moyen d’une
population étant de 70 ans, tout individu conserve une durée de vie probable de 70 ans
même s’il a atteint 50 ou 100 ans. Notre mort a une cause : le vieillissement, un accident.
L’instant de la désintégration d’un atome est imprévisible comme celui de notre mort, mais
la loi statistique de la durée est différente. Il est vrai que la désintégration permet de dater
les objets très anciens, mais elle ne peut donner le temps que par une caractérisation
statistique, qui peut néanmoins être très précise.
Bref, le temps continu et uniforme que nous connaissons figure bien en mécanique
quantique dans les équations, mais il n’a pas de réalité expérimentale directe. C’est
seulement lorsque nous travaillons avec des systèmes macroscopiques, comprenant un
très grand nombre d’atomes, que les valeurs probables aboutissent à des certitudes de fait,
et que l’on retrouve le temps classique. Mais tout événement macroscopique déclenché
par un phénomène quantique unique échappe à notre notion du temps. C’est le cas de
l’électron d’ionisation qui déclenche une avalanche d’électrons secondaires dans le circuit
électrique mentionné plus haut.
nombreux phénomènes quantiques imprévisibles dans le temps, une désintégration
nucléaire. Cette désintégration actionnerait un « compteur de Geiger », capable de détecter
une seule particule, qui déclencherait un marteau de façon à briser une ampoule contenant
du cyanure de potassium, ce qui tuerait le chat. Or, en physique quantique, seuls comptent
les résultats d’expériences. Tant que l’on n’aurait pas ouvert la boîte pour ausculter le chat,
celui-ci se trouverait donc dans l’état suivant :
Incertitude sur la constitution d’un système
Nous apprenons à l’école à considérer d’abord de quels éléments est constitué un
système, ensuite de quelle manière ceux-ci interagissent. Retournons au court paragraphe
consacré à Dirac, et spécialement à la particule dont il a prédit l’existence : le positron ou
électron positif. Un photon peut engendrer cette particule en même temps qu’un électron
normal, c’est-àdire de charge électrique négative. Les deux particules ainsi formées
peuvent se recombiner pour fournir un nouveau photon. Mais, entre temps, il peut leur
être arrivé beaucoup d’avatars. L’un d’eux peut avoir engendré un photon qui lui-même
etc. De toute façon, l’instant de ces transformations comporte une indétermination du fait
du principe de Heisenberg sur l’énergie et le temps. Au cours d’une expérience, il peut
arriver de nombreuses histoires de ce genre. C’est en considérant que la fonction d’onde
représente une de ces superpositions étranges de toutes ces histoires possibles que l’on
parvient aux précisions extraordinaires de l’électrodynamique quantique établie entre 1946
et 1949 par Sin-itiro Tomonaga (1906-1979), Julian Schwinger (1918-), Richard Feynman
(1918-1988).
En physique des hautes énergies, ces phénomènes sont encore plus importants. La
matière perd sa propriété principale, la permanence. Particule n’est plus qu’un mot qui ne
couvre plus un objet dans le sens usuel, très loin de là.
C < vivant > + C2 < mort>
Suivant cette notation assez déroutante, la fonction d’onde du chat est une superposition
de <vivant> et de <mort>. Ces deux parenthèses désignent les deux fonctions d’onde qui décrivent
l’état de toutes les particules dont le chat est composé, suivant qu’il est vivant ou mort.
Le constat étant soit que le chat est vivant, soit qu’il est mort, montrer que l’on doit
avoir : C1C1 * + C2C2* = 1.
On a proposé des réponses très diverses à ce paradoxe, ce qui le rend très
intéressant.
Pour Bohr, la fonction d’onde du chat n’est pas une description du chat, à plus forte
raison n’est-elle pas le chat lui-même. Il y a donc là déjà une confusion de la part d’Einstein
et Schrödinger. De plus, on ne peut pas dire « le chat est dans tel état » avant d’avoir fait
un test. Or, d’après l’interprétation de Copenhague, un test précis ne peut donner comme
résultat que l’un et un seul des états propres du système. Le résultat de l’expérience sera
donc soit que le chat est vivant, ce qui prouve qu’il n’y a pas eu de désintégration, soit qu’il
est mort, et on saura alors qu’un atome voisin du compteur de Geiger s’est désintégré. On
ne peut donc jamais se trouver dans la situation de dire que le chat est à la fois mort et
vivant. Tout cela est conforme au bon sens et aux possibilités expérimentales. Cela illustre
la cohérence de l’interprétation de Copenhague. On verra plus loin qu’un test n’est pas
nécessairement précis.
Toutefois, beaucoup de physiciens ne se contentent pas de cette interprétation.
Passons le fait que le chat n’est pas un système isolé, même si on l’enferme dans une boîte,
et qu’on ne peut définir ses supposés états propres. Passons aussi le fait que le corps du
chat contient un nombre fabuleux de particules et que le volume de papier nécessaire pour
écrire sa fonction d’onde défie toute estimation. Il reste que l’affirmation suivant laquelle
une fonction d’onde n’est pas une description d’un système est difficilement admissible : ce
n’est pas une description dans le sens classique, mais c’est évidemment une description
partielle d’un système.
On trouvera une longue réflexion1 sur le sujet « faut-il prendre la fonction d’onde au
Le paradoxe du chat de Schrödinger
Erwin Schrödinger et Albert Einstein ont voulu mettre en évidence ce qu’ils considéraient
comme l’absurdité de la mécanique quantique, et notamment de l’interprétation probabiliste
de l’onde. Ils ne pouvaient admettre une physique qui ne donne que des probabilités, et
ils trouvaient particulièrement absurde cette superposition d’états propres affectés de
coefficients qui ne sont pas même directement des probabilités.
Auteur d’une contribution essentielle à la mécanique quantique, Schrödinger n’a jamais
accepté l’interprétation probabiliste de sa fonction d’onde. Il avait suscité dans le monde des
physiciens l’espoir que cette fonction restaurerait la continuité et permettrait de comprendre
le détail des transitions quantiques. Il pensa, en 1935, atteindre gravement l’interprétation
probabiliste « de Copenhague » en l’appliquant à une transition particulièrement dramatique
: la mort.
La mécanique quantique est en principe la théorie physique la plus complète que
nous connaissons ; elle englobe la théorie classique et peut s’appliquer à tous les
systèmes. Pourquoi donc pas aux êtres vivants ? Schrödinger crut comprendre que,
suivant la physique de Bohr et de ses adeptes, un être vivant pourrait se trouver dans une
superposition quantique de deux états, la vie et la mort. Il serait alors d’une certaine façon
à la fois vivant et mort.
Dans l’expérience imaginée par Einstein et perfectionnée par Schrödinger, on enferme
un chat dans une boîte dans des conditions telles que sa survie dépend de l’un de ces
78
1. Roger Penrose, Les deux infinis et l’esprit humain, avec les contributions de Abner Shimony, Nancy
Cartwright, Stephen Hawking, Roland Omnès, Nouvelle Bibliothèque Scientifique, Flammarion, 1999.
Voir aussi de John Gribbin, Le chat de Schrödinger, Champs, Flammarion, 1994.
sérieux ? » dans un ouvrage du mathématicien, cosmologiste et physicien Roger Penrose,
avec de nombreux commentaires sur la fameuse expérience qui, bien entendu, n’a jamais
été tentée. La communauté des chats n’a pas à se soucier.
Les questions soulevées sont actuellement en évolution grâce à des moyens
expérimentaux raffinés qui permettent des observations sur un seul atome. On peut
observer que la superposition quantique d’états disparaît en un temps extrêmement court
lorsqu’un système isolé est mis en interaction avec un dispositif extérieur1.
mesures exactes ne peuvent révéler que des spins opposés). Les principes généraux
de conservation et de symétrie impliquent que toute mesure sur une des deux particules
sueurs donne un renseignement sur l’autre.
L’article EPR contient des développements logiques sur la réalité et ne peut être résumé
ici que de façon très schématique. Utilisant cette corrélation entre les deux particules, les
trois auteurs proposèrent une expérience qui, selon eux, permet de connaître exactement la
position et la vitesse d’une particule. Les particules sueurs s’étant suffisamment éloignées
pour que toute interaction soit négligeable, on mesure d’abord exactement l’impulsion de A,
qui donne celle de B. Puis, on mesure la position de B. Le raisonnement était que, si A et B
sont suffisamment éloignées, une mesure effectuée sur l’une ne pourrait être affectée par
l’autre avant qu’un signal ne lui en parvienne avec la vitesse limitée de la lumière, quelle
que soit la mécanique. Le dispositif permettrait donc de connaître exactement l’impulsion et
la position de B, contrairement au principe de Heisenberg. Comme la mécanique quantique
ne sait pas rendre compte de ce processus, les trois auteurs concluaient qu’elle est
incomplète, car insuffisante pour prédire les résultats des expériences.
Bohr répondit par un article non moins philosophique et portant le même titre que
celui des trois auteurs1. Il détailla les processus de mesure nécessaires pour effectuer
l’expérience EPR. Le formalisme de la mécanique quantique entraîne que les deux
particules, bien que n’interagissant plus, continuent à constituer un seul système. Mesurer
la position de A modifie son impulsion de manière inconnue et, inévitablement, celle de
B. On ne connaît plus exactement l’impulsion de B lorsque l’on a mesuré la position de
A. Le principe de Heisenberg est respecté. Bohr montra que la mécanique quantique est
cohérente et correspond exactement aux possibilités expérimentales.
Einstein et ses collègues appliquaient le principe de localité, suivant lequel, en
particulier, un événement en un point ne peut avoir d’effet instantané en un autre point : une
mesure sur A ne peut affecter B. La mécanique quantique rejette ce principe, en considérant
au contraire les deux particules filles comme un seul système quantique, quelle que soit leur
distance.
Si l’interprétation quantique de l’expérience semble comporter une action instantanée à
distance, elle ne permet pas pour autant de transmettre un message défini d’avance plus
vite que la vitesse de la lumière, car le résultat de la mesure sur A est aléatoire.
L’indétermination quantique n’apparaît pas seulement lors de la mesure sur un système
parfaitement déterminé, comme certaines explications peuvent le faire croire. Le principe
d’Heisenberg traduit une propriété permanente et essentielle des particules, valable en
toutes circonstances. Par exemple, ce principe est nécessaire pour expliquer des propriétés
macroscopiques telles que les chaleurs spécifiques des solides et bien d’autres propriétés
Le paradoxe « EPR » (1935)
Dès les débuts de la mécanique quantique, Einstein ne put en admettre les étranges
nouveautés. Au cours d’une conversation, il pressa le jeune Heisenberg d’abandonner
ces chimères. Heisenberg chercha ensuite à préciser sa pensée ; il fut amené à renforcer
sa position, et à formuler en 1927 le principe qui porte son nom, et qui est radicalement
contraire aux principes d’Einstein. En effet, ce fameux physicien était attaché à la
philosophie réaliste, suivant laquelle il existe une réalité bien définie indépendante de notre
pensée. De plus, à chaque élément de cette réalité correspond une grandeur mesurable
dont le symbole peut figurer dans des équations. Cette conception claire et parfaitement
classique remonte à Galilée. Dans cette optique, l’interprétation probabiliste et le principe
de Heisenberg sont inadmissibles.
Einstein chercha activement à imaginer une expérience qui permette de mesurer
à la fois la position et la vitesse d’une particule. Il s’agit à nouveau d’une de ces
Gedankenexperimente, ces expériences en pensée, parfois si convaincantes qu’il n’est pas
nécessaire de les réaliser. En 1935, Albert Einstein, Boris Podolsky et Nathan Rosen (EPR)
publièrent un article intitulé :
La description de la réalité par la mécanique quantique peut-elle être
considérée comme complète ?2
D’où l’expression : le paradoxe EPR.
Cet article était basé sur un phénomène qui sera souvent invoqué dans les discussions
sur les fondements de la mécanique quantique : dans certaines expériences, deux particules
de même nature, photons ou atomes par exemple, sont engendrées à partir d’une seule ;
les principes de conservation imposent alors des contraintes sur le comportement des
deux particules filles A et B : si la particule mère était à peu près immobile, les deux filles
doivent avoir des vitesses et des impulsions égales et opposées ; si la première n’avait
pas de « spin », A et B doivent avoir des spins opposés (plus rigoureusement dit, des
1. Serge Haroche, Jean-Michel Raimond, Michel Brune, « Le chat de Schrödinger se prête à
l’expérience », La Recherche 301, septembre 1997.
2. Albert Einstein, Boris Podolsky, Nathan Rosen, Institute for Advanced Study, Princeton, New Jersey, «
Can Quantum-Mechanical Description of Reality be Considered Complete? », Physical Review, May
15, 1935, volume 47.
79
1. Niels Bohr, Institute for Theoretical Physics, University, Copenhagen, « Can Quantum Mechanical
Description of Reality be Considered Complete? », Phvsical Review, October 15, 1935, volume 48.
thermodynamiques, qui se manifestent sans qu’aucune mesure microscopique soit
effectuée.
La position de Bohr sur ces questions n’a jamais varié d’un iota malgré les attaques
souvent violentes venant de physiciens prestigieux, et en particulier de Einstein, le plus
prestigieux d’entre eux. Ces controverses conduisirent à préciser et à consolider la théorie
quantique, car les objections d’Einstein et de quelques autres touchaient les points
essentiels. Les deux positions antagonistes étaient cohérentes, mais partaient de principes
différents. Bohr et Einstein éprouvèrent toujours plus qu’une grande estime mutuelle.
Les arguments de Bohr à propos du paradoxe EPR ne convainquirent pas tous les
physiciens, même parmi ses proches. On assistait à une sorte de querelle des anciens et
des modernes dont le public commence à prendre conscience, et qui pourrait bien figurer
comme un des événements du siècle. Il suffit pour s’en convaincre de songer à l’impact
qu’eurent Copernic, Galilée, Newton sur la culture au sens large et la politique.
Les travaux de Bell et les expériences d’Aspect et de ses collaborateurs tranchèrent
clairement en faveur de Bohr et de la théorie quantique, infirmant du même coup le principe
de localité.
marchant sur la tête, car une loi oblige les deux frères à observer la symétrie en tout. Arrivé
à destination, Henri reçoit un télégramme qui le somme de prendre une décision, et il opte
pour Anne. Au même instant, sans qu’un message radio ou téléphonique ait pu lui parvenir,
surgit à l’esprit de Hiren la décision d’épouser Lisette. Ils ont pris leurs décisions comme un
seul homme, comme s’ils étaient régis par une fonction d’onde commune, bien qu’un seul
d’entre eux ait été sollicité.
Beaucoup de physiciens pensaient que l’expérience allait porter un coup mortel à la
mécanique quantique. Elle la confirma. Une seconde expérience, par Alain Aspect, Jean
Dalibard et Gérard Grangier1 fut encore plus convaincante : la corrélation quantique
subsiste même si l’on change la direction de l’un des polariseurs au hasard pendant le
temps de vol des particules entre leur source et les polariseurs. Nul doute : la corrélation
des spins est évidemment établie à l’émission, mais leur direction n’est pas déterminée
avant les mesures.
Les valeurs des probabilités quantiques furent confirmées.
Cette expérience, qui fut confirmée par beaucoup d’autres, clôt le débat entre Einstein
et Bohr à l’avantage du second : la physique ne peut donner une définition réaliste de l’état
d’un système avant qu’une mesure ne soit faite. Seuls les résultats de mesure peuvent être
considérés comme réels. Encore ne peuvent-ils pas être considérés comme complets du
point de vue classique à cause du principe de Heisenberg, qui laisse toujours une place
aux indéterminations.
Nul doute que le critère de réalité classique n’est pas valable. Ni Einstein ni Bohr n’ont
vécu pour connaître ce résultat. Pour Bohr, ce résultat n’aurait pas été une surprise. À la
fin de sa vie (1955), Einstein reconnaissait que la mécanique quantique est cohérente,
confirmée par l’expérience, mais qu’il ne pouvait pas s’en accommoder.
Ces expériences portèrent un coup grave à un autre principe classique celui de la localité.
Ce principe refuse la possibilité d’action à distance ; on explique les interactions à distance
par des particules telles que les photons ou les gravitons (des bosons) qui se propagent
du lieu de la cause à celui de l’effet. Dans l’expérience d’Aspect, une mesure qui donne le
spin de l’un des photons entraîne instantanément que l’autre photon a le spin opposé, sans
aucun délai dû à la vitesse de propagation de quelque signal, qui serait nécessairement
celle de la lumière. Du point de vue quantique, la paire de photons constitue un seul objet,
dons la dimension augmente à la vitesse de la lumière. La relativité n’est pas violée, car ce
phénomène ne peut être exploité pour communiquer de l’énergie ou de l’information plus
vite que la lumière. Il permet d’établir des systèmes de communications très secrets.
L’expérience d’Aspect (1982) justifie pleinement la position de Bernard d’Espagnat
(1980) citée plus haut.
Le théorème de Bell (1964). L’expérience d’Aspect (1982) et la nonlocalité
Le mathématicien anglais J.S. Bell, du CERN à Genève, est l’auteur d’un théorème
qui se rapporte à la question déjà posée - le résultat d’une mesure indique-t-il l’état du
système avant la mesure ? -, à laquelle l’interprétation de Copenhague répond par la
négative. D’après le théorème1 de Bell, la distribution statistique des résultats observés est
différente suivant la réponse à ladite question ; une certaine quantité statistique évaluée à
partir de résultats expérimentaux ne peut dépasser 2 si l’interprétation classique est juste.
Alain Aspect, Philippe Grangier et Gérard Roger effectuèrent en 1982 à l’Institut d’Optique
d’Orsay une expérience décisive. Elle était basée sur la corrélation des spins de paires de
photons émis simultanément par des atomes de calcium2. Cette corrélation est établie par
des polariseurs, instruments qui déterminent la direction du spin.
Une image humaine aidera peut-être à comprendre l’expérience d’Aspect. Imaginons
que Henri et Hiren, deux frères jumeaux, ont décidé d’épouser Anne et Lisette, mais
qu’ils n’ont pas encore choisi qui épousera qui. Chacun éprouve un sentiment positif
pour chacune des deux, qu’il est ainsi potentiellement susceptible d’épouser. Henri part
pour affaires à Trondheim, ce qui contraint Hiren à se rendre dans la région de Fès en
1. J.S. Bell, On the Einstein Rosen Podolskv parados, 1964.
2. Alain Aspect. Philippe Grangier, Gérard Roger, Institut d’Optique Théorique et Appliquée,
« Experimental Realization of Einstein-Podolsky-Rosen-Bohrn Gedankenexperiment : A New Violation
of Bell’s Inequalities ». Physical Review Letters, 12 July 1982, vol. 49, n° 2.
80
1. Alain Aspect, Jean Dalihard, Gérard Roger, Institut d’Optique Théorique et Appliquée, Orsay,
« Experirnental Test of Bell’s Inequalities Using Time-Varying Analyzers ». 1983.
CHAPITRE 11
La mesure suivant Bohr et la conscience
Pour Bohr, l’appareil de mesure était nécessairement macroscopique, donc analysable
par la physique classique. Il en est nécessairement ainsi parce que la science ne se conçoit
pas sans communication verbale ou écrite ; or, nous ne comprenons que le langage de
la physique classique. La réduction de la fonction d’onde correspond suivant Bohr au
passage du monde quantique au monde classique, au niveau de l’appareil de mesure. Elle
est irréversible : le grain d’argent ne peut disparaître en réémettant le photon qui l’a fait
apparaître.
Cette conception, qui a amplement démontré son efficacité, est néanmoins
insatisfaisante, car l’appareil de mesure fonctionne aussi suivant la mécanique quantique.
Nous le décrivons par la mécanique classique parce que c’est un système constitué
d’innombrables particules, beaucoup trop complexe pour que nous puissions en analyser
le détail. Entre le système quantique objet de l’opération d’une part et d’autre part la
conscience de l’expérimentateur ou la communication langagière du résultat, où placera-ton la limite entre le quantique et le classique ? Cela dépend de la puissance de nos moyens
d’analyse et non pas d’un fait physique objectif. Suivant J. von Neumann, on peut la placer
où l’on veut entre le dispositif étudié et la prise de conscience, éventuellement dans le
cerveau de l’expérimentateur4.
On n’évite pas facilement le problème de la conscience humaine, soit parce que c’est
l’acte final de la mesure, soit parce que le choix de l’expérience et de la mesure finale sont
humains.
La mécanique quantique ne décrit pas le monde physique, mais le passage entre deux
états de conscience5. C’est l’antique problème du rapport entre l’esprit et la matière qui est
posé.
S’il est vrai que la frontière entre le quantique et le classique ne pourrait se trouver
dans le monde physique, entièrement soumis à la mécanique quantique, mais à la prise de
conscience des expérimentateurs ou des observateurs, on aboutit à un autre paradoxe En
effet, les enregistrements automatiques d’une expérience peuvent rester longtemps dans
une imprimante avant d’être consultés. Dira-t-on que l’enregistrement est une superposition
quantique d’états correspondant à celle du système objet de l’expérience, jusqu’à ce que
l’on vienne le consulter et en prendre conscience ? On pense que l’enregistrement de
l’imprimante avant la lecture est un phénomène irréversible : l’encre ne peut retourner dans
la cartouche avant une impression définitive. Contre ce raisonnement simple et réaliste
existe un argument de bon sens : il n’est pas légitime de dire que, avant toute lecture, il
existait un enregistrement définitif, puisque c’est par hypothèse invérifiable : on ne peut
acquérir de certitude sur ce dont on n’a pas même conscience.
LE MONDE QUANTIQUE
La réduction de la fonction d’onde
Selon l’équation d’onde, la fonction d’onde évolue de façon continue et déterministe.
Certains événements la font au contraire changer de façon discontinue.
Lorsqu’un photon pénètre dans votre appareil photographique, il se comporte comme une
onde : sa trajectoire ne peut être définie avec précision à cause du principe de Heisenberg
; elle est pour ainsi dire diffuse sur une certaine région, l’ouverture du diaphragme. Sa
localisation spatiale, donnée par la densité de probabilité ΨΨ*, est représentée par une
intégrale de Fourier que l’on nomme un « paquet d’ondes » ; si au contraire le photon
est absorbé par l’émulsion photosensible de la pellicule, un grain d’argent unique pourra
apparaître au point d’impact lors du développement de l’émulsion. C’est comme si l’onde,
auparavant répartie dans tout l’espace, s’était soudain concentrée en un seul point.
Voici un autre exemple de comportement discontinu de la fonction d’onde. L’état
quantique d’un atome ou d’un photon provenant d’un gaz chaud est a priori une superposition
d’états propres. Appliquons le principe : le résultat d’une mesure précise de l’énergie, du
spin ou de toute autre grandeur ne peut être que l’une des valeurs propres correspondant
à l’un de ces états propres. La fonction d’onde de la particule se réduit après la mesure à
la fonction propre correspondante. Il se produit donc lors de la mesure une transformation
discontinue : c’est la réduction de la fonction d’onde.
Ce processus est caractéristique de la physique quantique ; le détail de son déroulement
ne peut être connu car il est perdu dans le flou du principe de Heisenberg1. On lui a donné
divers noms : « réduction de la fonction d’onde », « réduction du paquet d’ondes »,
« actualisation de la potentialité »2, ou encore « effondrement de la fonction ondulatoire »3.
Parmi plusieurs possibilités offertes par la fonction d’onde et le dispositif de mesure, une
seule se produit, ou s’actualise.
1. Heisenberg a nommé son principe Unschiirfeprinzip, c’est-à-dire à peu près principe de manque de
netteté.
2. Abner Shimony, « Les fondements conceptuels de la physique quantique », in La Nouvelle Physique,
sous la direction de Paul Davies, Sciences Flammarion, 1993.
3. John Gribbin, Le chat de Schrödinger, physique quantique et réalité, Le Rocher 1988, Flammarion
1994.
4. Henry Stapp, Mind, matter, and quantum mechanics, Springer, 1993. 3 Henry Stapp, ibid.
5. Henry Stapp, ibid.
81
Au-delà du système de mesure
Statistiques, hasard, probabilités
En fait, l’objet et l’appareil de mesure ne sont pas deux systèmes dont on étudie
tant bien que mal le couplage, suivant ses moyens de calcul, mais un seul système. Ce
système n’est pas vraiment isolé : il ne peut exister qu’un seul système réellement fermé
(du moins on peut le supposer), c’est l’univers entier. Hugh Everett, encouragé par son
directeur de thèse J. A. Wheeler est l’auteur d’une théorie dite « des mondes multiples »
(1957), que lui-même préférait appeler « théorie de la fonction d’onde universelle ». Suivant
Everett, cette fonction d’onde universelle est une superposition de mondes ou « branches
de l’univers » qui évoluent de façon parfaitement déterministe. Chacune est complète et
comporte aussi bien un système particulier étudié que les appareils de mesure et même
les expérimentateurs, et les événements sont différents dans chacune ; ainsi, le chat de
Schrödinger est vivant dans certaines branches, et mort dans d’autres.
Cette théorie surprenante est en fait très solide. Elle supprime la réduction de la
fonction d’onde, car il n’y a plus de distinction entre le monde microscopique et le monde
macroscopique. Les calculs s’effectuent exactement suivant la physique de l’école de
Copenhague et donnent les mêmes résultats mathématiques, mais sont interprétés
différemment. Toutefois, on ne comprend pas pourquoi nous avons conscience de l’une
seule des branches bien que nous soyons présents dans toutes. Selon Shimony, seule une
psychophysique pourrait invalider la conception d’Everett. Le problème de l’esprit et de la
matière est de nouveau posé.
Les conceptions sur l’effondrement de la fonction d’onde ont évolué depuis le temps
de Bohr et von Neumann. Sur le plan expérimental, des progrès considérables ont été
accomplis. On observait alors toujours une collection de particules, qu’elles interagissent
entre elles ou pas, et le résultat était toujours statistique ; le comportement des systèmes
individuels était inféré.
Même si l’appareil de mesure reste aujourd’hui macroscopique, on peut maintenant
observer un très petit nombre d’atomes ou même un seul atome1. On a fait allusion cidessus aux travaux de Serge Haroche et ses collaborateurs qui, en observant quelques
photons seulement, permettent d’analyser une variante de la réduction de la fonction
d’onde appelée la décohérence. Cette expérience se déroule rigoureusement suivant
l’interprétation de Copenhague, dont elle est une magnifique confirmation. Elle donne une
nouvelle réponse au paradoxe du chat, car elle montre que le chat, n’étant pas vraiment
un système isolé, se trouverait dans l’un des états classiques, mort ou vivant, en un temps
incroyablement court.
On a vu combien l’interprétation statistique de la fonction d’onde fut pour beaucoup
difficile à accepter. Pour d’autres, elle est satisfaisante car elle introduit un élément de
liberté dans une physique strictement déterministe. Ce n’était pas l’avis d’Einstein, qui disait
souvent : « Dieu ne joue pas aux dés ». Évidemment, cet aspect de la mécanique quantique
ramène à une question philosophique millénaire : le problème de la liberté. La notion de
hasard intervient là directement. Or, cette notion est fort confuse. Dans le langage populaire,
elle est attachée à des événements dont on ne connaît pas les causes, qui peuvent être
nombreuses et complexes, ou bien dans lesquels on ne reconnaît pas de régularité.
La statistique est une création des mathématiciens pour préciser cette notion de façon
à traiter des situations qui dépendent d’un phénomène élémentaire aléatoire. Le tirage à
pile ou face est l’exemple le plus simple d’un tel phénomène. Pour l’utiliser dans le calcul,
il faut supposer que « pile » est tiré aussi souvent que « face » sur un grand nombre
d’essais ; on fait ainsi des hypothèses sur la constitution de la pièce, sur la manière dont
elle est lancée, sur la surface sur laquelle elle est lancée, éventuellement sur le vent. Une
seconde hypothèse est que les probabilités sont indépendantes : le résultat d’un lancer est
indépendant des lancers précédents. On raisonne de même avec le tirage d’une carte.
Si l’on accepte ces hypothèses, ce qui demande une décision humaine pour chaque
situation, on peut calculer la probabilité de phénomènes plus ou moins complexes qui
dépendent du tirage initial. C’est l’objet de la science statistique. Si je regarde mon jeu, je
puis théoriquement, compte tenu de certains renseignements que mon propre jeu me donne
sur celui des autres, calculer les probabilités de gain pour chaque carte que je peux jouer.
Lorsque l’on cherche les causes des phénomènes, on peut d’abord se demander
s’ils sont dus au hasard. On voudra vérifier par exemple si des séries de tirages à pile ou
face sont bien aléatoires conformément aux hypothèses mathématiques. La statistique
établit des tests numériques pour juger si ces dernières sont remplies. Par exemple, sur
100 lancers, l’écart à la normale moyen est de 10 ; il est de 31,6 sur 1 000, de 1 000 sur
1 000 000. Il existe de nombreux tests plus subtils. Malgré cela, le résultat de ces tests
ne donne jamais une certitude sur la nature aléatoire. On conclut par exemple : il y a
une chance sur un million pour que telle suite d’événements ne soit pas due au hasard.
Dans chaque cas pratique, c’est une nouvelle décision que d’accepter ou non le caractère
aléatoire du phénomène observé.
Les calculatrices de poche fournissent des séries de nombres qui remplissent plusieurs
tests garantissant en principe leur caractère aléatoire. Or, chaque nombre de ces suites est
en réalité strictement déterminé par le précédent ; le seul élément qui puisse être aléatoire
est le premier nombre. Ainsi, une suite de résultats supposés aléatoires peut toujours se
révéler plus ou moins strictement déterminée. Il n’existe en pratique pas de certitude sur le
caractère aléatoire des phénomènes.
La science statistique, censée permettre d’échapper à la subjectivité, ne peut atteindre
1. Serge Haroche, Jean-Michel Raimond, Michel Brune, « Le chat de Schroedinger se prête à
l’expérience », La Recherche 301, septembre 1997.
82
ÉPILOGUE
pleinement cet objectif : elle a nécessairement recours à des hypothèses et à des jugements
qui sont de véritables décisions prises parfois dans l’ignorance de faits déterminants.
Ces raisons font que l’on ne peut considérer l’interprétation probabiliste de la mécanique
quantique comme satisfaisante, quels que soient ses succès conceptuels et techniques.
En outre, dans ce domaine, la statistique présente des aspects nouveaux.
Elle pouvait jusqu’alors être considérée comme un moyen - combien efficace dans
certains domaines ! - de pallier notre connaissance insuffisante des situations complexes,
en somme une technique de calcul, voire de comptabilité. En mécanique quantique, les
probabilités sont inhérentes à la nature - du moins à ce que nous pouvons en connaître
dans le cadre de cette science. Elles ne sont pas seulement une technique pour traiter
des cas trop complexes pour une analyse complète, mais elles font partie intégrante de la
physique fondamentale.
D’autre part, la statistique écarte systématiquement le phénomène humain alors que
la mécanique quantique ne peut être interprétée ou utilisée sans le faire intervenir. La
fonction d’onde ne contient aucune des valeurs des grandeurs que l’on peut mesurer. C’est
le dispositif expérimental qui détermine l’une de ces grandeurs, à l’exclusion de certaines
autres, ce qui demande un choix.
Il est donc naturel de considérer que des phénomènes de conscience pourraient se
dissimuler sous l’aspect statistique. Si tel est le cas, notre esprit pourrait agir sur la matière
aussi bien que les médicaments ou la matière de notre corps agissent sur notre esprit1.
C’est peut-être une faiblesse, de croire que tout phénomène peut être expliqué par une
cause, une croyance destinée à nous rassurer. Mais c’est une faiblesse qui s’est montrée
féconde, au moins en ce qui concerne les sciences. Le besoin de causalité est fort ancien,
et il est plus fort que la croyance au déterminisme matérialiste.
Felix qui potuit rerum cognoscere causas2
Quidque oritur, qualecumque est, causam habeat a natura necesse est3
De nombreuses recherches ont été faites pour trouver un mécanisme ignoré qui serait
décrit par des « variables cachées », afin d’éliminer le hasard quantique. On a montré qu’il
n’y en a pas de simples. Ces variables seraient liées à l’extérieur du système considéré,
voire à l’univers, ce qui ne simplifie pas le problème. Si l’on n’en trouve pas dans le cadre
de pensée physico-mathématique traditionnel, il faut chercher des variables d’une autre
nature, et d’abord de nature psychique.
Voilà sur quels rivages les ondes ont conduit les physiciens dont la sensibilité ne se
satisfait pas seulement de succès techniques.
1. Olivier Olivier Costa de Beauregard, Le corps subtil du réel éclaté, Aubin éditeur, 1995 ; Le temps des
physiciens, Aubin Éditeur, 1996.
2. Virgile, Géorgiques, il, 489, «Heureux celui qui a pu pénétrer les causes secrètes des choses», trad. Larousse.
3. Ciceron, De la divination, 2, 60, « Tout ce qui naît, quelque forme qu’il affecte, a nécessairement une
cause naturelle », Trad. F. Gaff ot.
À la fin de son développement plus de deux fois millénaires, c’est toute la physique
fondamentale qui est envahie par des ondes d’un genre nouveau, immatériel, outil de
prédiction du possible. La physique ne prétend plus décrire le monde tel qu’il « est », car
seuls certains événements sont considérés comme réels : ceux justement qui constituent
l’expérience humaine. Des notions apparemment inébranlables ont perdu leur sens ou ont
été profondément modifiées : le réel de tout le monde, le temps uniforme, la causalité et le
déterminisme, la localité des effets, la matière elle-même. La physique quantique n’est plus
l’étude d’un monde parfaitement défini, indépendamment de notre conscience, suivant la
conception dite réaliste. Elle est la science du rapport de l’homme avec le monde inerte.
Objectivement, la mécanique quantique permet de relier deux états de conscience, la
préparation d’une expérience ou d’une observation et la prise de conscience du résultat. Le
passé n’apparaît pas comme entièrement acquis ; il comporte une réserve de possibilités
dont certaines seulement se réaliseront, comme le veut le sens commun. En outre, on
tend à considérer la science avant tout comme une activité humaine, et ce parfois dans
une perspective évolutionniste, et non plus comme l’élucidation progressive de mystères
éternels inscrits en quelque lieu.
Les applications de la nouvelle physique ont maintenant envahi la planète et l’espace
(satellites artificiels), ornent nos poignets (montres à quartz) et remplissent nos poches
(téléphones portables).
Son champ d’application est donc immense, mais on peut prévoir qu’il va encore
s’étendre.
La structure des corps chimiques peut en principe être analysée exactement par la
mécanique quantique. Les calculs sont très lourds, mais les ordinateurs sont de plus en plus
puissants. Il est possible d’établir par le calcul la structure d’une molécule qui n’a jamais été
observée. La théorie a permis de construire des moyens d’analyse ou de synthèse, le laser
par exemple, qui deviennent sans cesse plus fins.
Dans la mesure où les êtres vivants ne sont pas entièrement déterminés, l’abandon du
déterminisme strict de la physique classique offre un espoir d’expliquer des phénomènes
biologiques, neurologiques ou même psychologiques. Un mécanisme spécifiquement
quantique a été recherché par le neurologue John C. Eccles dans les synapses de cellules
nerveuses1, et par le mathématicien, physicien et astronome Roger Penrose dans les
microtubules des cils des paramécies2. Ces recherches n’ont jusqu’ici pas abouti, mais
83
1. John C. Eccles, Comment la conscience contrôle le cerveau 1994, Fayard. 1997.
2. Roger Penrose, Les ombres de l’esprit, InterÉditions 1995 ; Les deux infinis et l’esprit humain,
Flammarion, 1999.
n’oublions pas que les mécanismes de la chimie, qu’elle soit minérale, organique ou
biologique, sont spécifiquement quantiques : si un support physique de la conscience est
trouvé, il sera quantique.
Les pionniers que furent Niels Bohr et Wolfgang Pauli envisagèrent très tôt des
applications à ces domaines. Au sujet de la psychologie, Bohr déclara1:
On peut penser comme Stappl que la physique quantique conduira à une réhabilitation
de l’humanisme, et que cela deviendra dans l’avenir sa plus grande contribution à la
civilisation.
La substitution de particules à la matière continue et localement homogène, puis d’ondes
aux entités localisées et permanentes a certainement été à l’origine de cette évolution.
Certes, ni Planck, en 1900, ni Bohr, en 1913, n’entrevoyaient ces perspectives, mais
leurs travaux et ceux de leurs successeurs nous ont ramenés à des conceptions sur l’unité
du monde apparentées à celles de Kepler et même de Pythagore.
[...] Les analogies avec certains traits fondamentaux de la théorie quantique
présentées par les lois de la psychologie peuvent non seulement nous aider à nous
ajuster à la nouvelle situation en physique (provoquée par la physique quantique),
mais il n’est peut-être pas trop ambitieux d’espérer que les leçons que nous avons
apprises des problèmes beaucoup plus simples (de la physique) se révéleront
également utiles dans nos efforts pour obtenir une vue plus large des questions
plus subtiles de la psychologie [...] il est clair pour l’auteur (de ces lignes, c’està-dire Bohr) que nous devons pour l’instant nous contenter d’analogies plus ou
moins appropriées. Néanmoins, il se peut fort bien que ces analogies recouvrent
non seulement une parenté en ce qui concerne les aspects épistémologiques,
mais qu’une relation plus profonde se cache derrière les problèmes biologiques
fondamentaux qui sont connectés aux deux côtés.
Pauli s’intéressa plus particulièrement au rapport entre la matière et la conscience,
rejoignant certaines préoccupations de Johannes Kepler2 et même des alchimistes :
La physique et la psychologie reflètent pour l’homme moderne l’ancien contraste
entre la quantitatif et le qualitatif... Pour nous... le seul point de vue acceptable
semble être celui qui reconnaît les deux côtés de la réalité - le physique et le
psychique - comme compatibles entre eux, et qui peut les embrasser simultanément
[...] Le plus satisfaisant serait que la physique et la psyché puissent être vues
comme des aspects complémentaires de la même réalité.3
Ces réflexions ont-elles eu des prolongements ? La correspondance entre la matière
et l’esprit apparaît à certains de plus en plus étroite. Pour Henry P. Stapp, il n’y a pas de
dualité esprit-matière dans ce sens qu’il n’y a pas deux domaines distincts, mais deux
aspects indissociables des phénomènes. On a remarqué que la mécanique quantique est
la première et la seule véritable théorie qui aborde l’interaction entre la matière et l’esprit.
Certes, elle n’explique pas la nature de cette interaction, ce qui n’est pas du ressort des
sciences, mais elle précise certains aspects de son fonctionnement.
1. Niels Bohr, Atomic Theory and the Description of Nature, Camhridge University Press, 1961, p. 20-21.
Traduction et additions entre parenthèses par G. Mourier.
2. Wolfgang Pauli, Writings on Physics and Philosophe, Springer Verlag, 1994.
3. Wolfgang Pauli, Interpretation of Nature and the Psyche, C.G. Jung and W. Pauli, eds (Pantheon
Books, Bollingen series LI, 1955), p. 207-210.
84
APPENDICES
APPENDICE II.
SUR LE CALCUL DIFFÉRENTIEL
Considérons un axe Ox et deux positions sur cet axe d’un objet à deux instants
différents. On désignera par x1 la position au temps t1, par x2 = xl + ∆x la position au
temps t2 = tl + ∆t. On divise maintenant la différence des positions par la différence des
temps, ce qui s’écrit :
∆x / ∆t
APPENDICE I.
LES GRANDS NOMS DE LA PHYSIQUE DES ONDES
Mersenne (1588-1648)
Fourier (1768-1830)
Einstein (1871-1955)
Snell (1591-1626)
Young (1773-1829)
Bohr (1885-1962)
Descartes (1596-1650)
Malus (1775-1812)
Schrödinger (1887-1961)
Fermat (1601-1665)
Gauss (1777-1855)
de Broglie (1892-1987)
Grimaldi (1618-1663)
Fraunhofer (17 87-1826)
Pauli (1900-1958)
Huygens (1629-1695)
Fresnel (1788-1827)
Heisenberg (1901-1976)
Malebranche (1638
Foucault (1819-1868)
Dirac (1902-1984)
1715)
Fizeau (1819-1896)
Tomonaga (1906-1979)
Newton (1642-1727)
Helmholtz (1821-1894)
Townes (1906-)
Rdmer (1644-17 10)
Maxwell (1831-1879)
Schwinger (1918-)
Euler (1707-1783)
Roentgen (1845-1923)
Feynman (1918-1988).
d’Alembert (1717-1783)
Hertz (1857-1894)
Ce rapport dépend de l’intervalle de temps considéré, mais dans beaucoup de cas, il
n’en dépend presque pas si l’intervalle de temps est assez petit : la vitesse de votre voiture
n’est pas la même à une heure d’intervalle, mais elle est presque la même, calculée sur un
centième ou un millième de seconde. On considère que la vitesse exacte au temps t1 est
égale à la valeur que prend le rapport ∆x /∆t lorsque ∆t tend vers zéro. Les ∆ sont, par
une convention de Leibniz, remplacés par des d lorsque les intervalles tendent vers zéro.
On écrit donc :
v = dx / dt
ou encore :
v = (d / dt) x
et on dit que v est la dérivée de x par rapport au temps.
85
La courbe représente la position x d’un mobile en fonction du temps. Les points M1 et M2
de la courbe correspondent à deux instants différents. Entre ces instants t1 et t2, la vitesse
moyenne et x2 - x1 / t2 - t1, mais on voit que la vitesse réelle est constamment différente de
cette valeur. Si l’on fait tendre sur la courbe le point M2 vers le point M1, la droite M1M2
tend vers la droite D, qui est la tangente à la courbe C en M1. Cette droite correspond à une
propriété locale et instantanée et non plus à une propriété moyenne. Sur cette droite, x3- x1,
varie proportionnellement à t3 - t1 quel que soit t3. Par définition, la pente de la droite est x3 x1 / t3 - t1. Physiquement, cette pente donne la vitesse instantanée en t, . Mathématiquement,
c’est par définition : v = dx / dt, dérivée de x par rapport à t. C’est aussi la tangente de
l’angle α.
Notez bien qu’elle est différente de :
Vitesse et dérivée
v2 = dx2 / dt2
En effet, d2x n’est pas un carré, car d n’est pas une quantité algébrique ; ce symbole
indique une différentiation. Regardons cela de plus près, en considérant trois instants
différents :
tl
t2 = t1+ ∆t
t3 = t2+ ∆t
ainsi que trois positions :
x1
x2= x1+ ∆x
x3 = x2 + ∆x
et les deux vitesses approximatives que nous appellerons v1 et v2 :
v1 = (x2 - x1) / ∆t
v2 = (x3 - x2) / ∆t
On peut utiliser la dérivée pour évaluer la position dans un futur proche si l’on connaît la
position et la vitesse actuelle. À un instant t1 + ∆t, la position exacte sera x + v∆t plus une
quantité ∆2x que l’on ne peut évaluer avec la dérivée. Plus ∆t est petit, plus ∆2x est petit
et plus l’évaluation x + v∆t est exacte.
Une valeur approximative de l’accélération sera :
a = (v2 - v1) / ∆t
Quelques calculs algébriques conduisent à l’expression :
Cette opération de passage à la limite pose des problèmes. Dans les cas simples, elle
peut être faite numériquement mais seulement de façon approximative, car on n’atteint
alors pas la limite. Elle est en pratique souvent possible de façon rigoureuse si l’on a une
expression mathématique de la relation, c’est-à-dire sous forme d’une « fonction », par
exemple :
a = (x3 - 2x2 + x1) / (∆t)2
Si ∆t devient très petit, on obtient la valeur exacte de l’accélération :
a = d2x / dt2
x = 5 + 30 t + 0,25 t2
On voit que dt2 est bien un carré, tandis que d2x mérite le nom de « différence
seconde ». Elle s’exprime dans les mêmes unités que x, disons en mètres, et non pas en
mètres carrés. Il peut être commode d’écrire :
Si le calcul est effectué à partir des valeurs numériques x2, x1, t2, t1, la valeur obtenue
ne peut être qu’approximative. C’est toujours le cas si ces valeurs sont mesurées.
En général, v varie avec le temps. On peut considérer que v est une fonction du temps,
connue ou inconnue, et on cherche alors sa dérivée par rapport au temps, que l’on appelle
accélération, désignée par a. On écrira :
∆2x = (x3 - 2x2 + x1)
Ces remarques sont très importantes pour le calcul numérique, qui se fait toujours avec
des intervalles finis.
a = dv / dt = d(dx / dt)/dt
ou encore :
a = (d/dt)2 x
Ces notations n’offrent pas d’ambiguïtés. En voici, pour l’accélération, une autre qui
demande explication :
a = d2x/dt2
86
APPENDICE III.
LES GAMMES ET LE CHANT DES OISEAUX
Ce sujet est l’occasion d’une réflexion sur la musique du monde vivant et celle des
théoriciens, ou sur le nombre et la nature.
On se convaincra aisément que les intervalles du chant des oiseaux ne correspondent
pas à ceux des gammes des physiciens. Les rares sons tenus ne peuvent généralement
pas être reconnus comme des notes d’une gamme, auxquelles les physiciens associent
des fréquences et des rapports de fréquences.
Évidemment, de nombreux compositeurs se sont inspirés de ces admirables musiciens.
Citons quelques jalons.
Jannequin s’est plutôt attaqué au babillage de nombreux oiseaux. La déclamation
de Monteverdi me paraît inspirée de leur chant. Cela devient très évident dans des
compositions ultérieures telles que certaines eeuvres pour orgue du Portugais Correa
de Arauxo. Couperin, comme plus tard Beethoven, a simulé les trilles du rossignol. Son
Quatorzième Ordre des pièces pour clavecin n’en contient pas moins de quatre consacrées
aux oiseaux. Rameau, s’est intéressé au côté rythmique, aussi bien dans Le rappel des
oiseaux que dans La poule, qui illustre la puissance du chant assez simple de cet oiseau.
Berlioz donne des cris d’oiseaux sinistres dans la Course à l’abîme de la Damnation de
Faust. Schumann et Wagner ont voulu exprimer la puissance prophétique d’un langage
supposé naturel et universel, accessible aux initiés tels que Siegfried : on est alors dans
la tradition orphique. Dans L’oiseau prophète, Schumann a utilisé des intervalles inusités
qui s’expliquent par notre remarque liminaire. Chez Ravel, le chant est aussi rythmique,
et utilise des notes du violon solo pas très bien définies dans Le petit Poucet de Ma mère
l’Oye. Dans Oiseaux tristes il utilise certes les successions inhabituelles d’intervalles, mais
aussi, déjà, des accords complexes et relativement massifs. Je dois enfin mentionner son
admirable évocation des mystérieux oiseaux de nuit dans la scène nocturne du jardin dans
l’Enfant et les sortilèges.
Après beaucoup d’omissions, par exemple celle de Vivaldi, Haydn, Rimsky Korsakov,
Mahler, Stravinsky notamment, nous arrivons à Olivier Messiaen. Là, les moyens
techniques, harmoniques notamment, sont extraordinairement raffinés et inattendus.
L’étude de la rythmique est sans précédent. Des sons aigus assez simples sont parfois
rendus par des clusters répartis sur toute l’étendue du piano. Ces apparentes complications
rythmiques et harmoniques s’expliquent, à nouveau, par notre remarque liminaire : les
oiseaux ignorent notre solfège ; Messiaen l’utilise néanmoins pour imiter leur chant par une
sorte de synthèse quelque peu magique.
Le style dodécaphonique, bien qu’éloigné du chant des oiseaux par ses contraintes,
s’en rapproche néanmoins, ainsi que de la voix humaine parlée, grâce à la liberté du choix
des intervalles : on est revenu, en principe à un style mélodique débarrassé des emprunts
à la mécanique instrumentale si chère aux Italiens.
Quelles peuvent donc être les justifications du carcan que nous nous sommes imposé ?
87
En résumé, les intervalles et les harmonies utilisés sont basés sur des rapports de
fréquences simples.
Je vois trois raisons à ce choix.
La série « naturelle » des harmoniques, de fréquences multiples d’une fréquence
« fondamentale », serait basée sur deux phénomènes physiques et un phénomène
esthétique
1°) Idéalement, une corde ou un tuyau sonore peuvent émettre, et émettent
généralement simultanément cette série de sons harmoniques. Par corde idéale,
il faut entendre très faiblement amortie, sans raideur, parfaitement homogène
dans sa longueur et fixée rigidement à ses extrémités ; ces conditions sont assez
bien remplies dans les bons instruments, mal dans les instruments primitifs. Dans
les tuyaux sonores, même excellents, l’amortissement est grand (seuls les sons
entretenus sont utilisés), la colonne d’air n’a pas de propriété équivalente de la
raideur. L’homogénéité peut être bonne (orgues), mais elle est perturbée par les trous
des clés même fermées. La colonne d’air n’est ni parfaitement libre ni immobilisée à
ses extrémités, conditions nécessaires pour obtenir la série dite « naturelle ».
2°) Quelle que soit la nature de l’instrument, un son tenu est nécessairement
formé avec la série naturelle. Cela est révélé par la géniale analyse des fonctions
périodiques due à Fourier (1822) : un son tenu se répète sans cesse, il est donc
périodique et d’après Fourier, comporte un fondamental et ses harmoniques, de
fréquences exactement multiples. En pratique, il n’en est pas exactement ainsi.
Certains sons dits tenus ne le sont pas parfaitement car on perçoit des variations
du timbre dans le temps, éventuellement un vibrato volontaire. Ce phénomène
est généralement sensible avec la flûte, car il est recherché. On l’entend dans le
son décroissant du piano. Le son tenu suppose une homogénéité dans le temps
qui provient de l’invariabilité de la structure de l’instrument dans le temps. En
pratique, on cherche souvent à modifier cette invariabilité pour obtenir des sons
plus complexes. Dans notre musique, on utilise les vibratos, les effets de lèvres. Les
oiseaux sont dans ce domaine de grands artistes.
Malgré ces effets la nature périodique du son domine.
3°) Les intervalles consonants à l’oreille sont ceux dont les fréquences sont
dans des rapports simples. C’est l’argument esthétique. Une altération du rapport
est d’abord sensible, puis désagréable dès qu’elle atteint une certaine valeur. Ce
fait n’intervient que pour les accords de notes tenues (piano, orgue, chant choral).
Il joue un grand rôle dans la musique polyphonique, mais pas dans les solos. Il
est connu que les ensembles d’oiseaux ne produisent pas d’accords consonants
selon les critères de l’harmonie. Toutefois, certains oiseaux peuvent apprendre de
l’homme des chants comportant des intervalles justes suivant notre définition, et ils
ne le feraient pas s’ils n’y prenaient pas plaisir.
La notion de suite naturelle demande à être précisée. Revenons sur les propriétés de la
corde idéale. La corde de sol du violon peut émettre la série :
sol
L
f
sol
L/2
2f
ré
L/3
3f
sol
L/4
4f
si
L/5
5f
La définition pythagoricienne des intervalles, qui correspond à une vision de l’harmonie
de l’univers, donna naissance à une théorie physico-mathématique qui se développa,
indépendamment de cette vision, jusqu’à la mécanique quantique. On peut se demander
sur quoi est basé en fin de compte un développement aussi prodigieux. Serait-ce sur un
détail pratique : la réalisation technique de cordes et de tuyaux homogènes ? Il semble
plutôt que c’est sur la reconnaissance des consonances, phénomène de nature esthétique,
qui pourrait alors être physiologique, lié au fonctionnement de l’oreille humaine. Les oiseaux
ne recherchent pas la consonance. La question de la réalisation technique des instruments
est donc accessoire, car la musique complexe s’est initialement développée avec les voix
seules. C’est donc bien la musique d’ensemble qui impose les intervalles simples. Les
oiseaux préfèrent la liberté des intervalles. Bien sûr, ils communiquent, avec leur propre
grammaire musicale, basée probablement sur des résonances physiologiques différentes.
À notre époque, la musique s’éloigne de plus en plus de la nécessité de la consonance
– les dissonances ont de tout temps été les épices de la musique – et de la succession
d’intervalles appartenant à une série de notes apparentées. Il me semble qu’elle se
rapproche souvent de la musique de la voix parlée et du chant des oiseaux.
ré
L/6
6f
f étant voisin de 196 Hertz. Ce fait connu très est expliqué par la théorie mathématique
très complète (1747) due à d’Alembert. Mais les cordes réelles sont inhomogène et
oscillent donc sur des fréquences différentes. La même théorie permet d’analyser aussi
ce phénomène. Ainsi, une corde dite de sol qui serait 1,2 fois plus mince sur 40 % de sa
longueur à une extrémité oscillerait sur une note voisine du sol dièse. On peut l’accorder au
sol en diminuant la tension de la corde. Mais on obtient alors la série :
f
2,074 f
3,064 f
4,076 f
2f
3f
4f
5,12 f
au lieu de :
f
5f
L’octave est augmentée d’un tiers de ton environ et devient discordante. Les
autres intervalles sont faussés d’un quart de ton environ. Le son de la corde sera très
désagréable.
D’autres formes conduisent à des séries différentes. Certains instruments cylindriques
ou circulaires, par exemple, pourront, d’après la théorie, donner les séries :
f
2.095 f
3.598 f
4.903 f
6.209 f
1.831 f
2.655 f
3.477f
4.298 f
2f
3f
4f
5f
et aussi :
f
au lieu de :
f
De telles séries, et bien d’autres encore, correspondent à des instruments à
percussion.
La suite « naturelle » n’est naturelle que pour des instruments idéaux. On voit donc
combien il est important d’avoir des cordes de bonne qualité. Les contemporains de
Pythagore ne devaient en disposer que rarement, et aujourd’hui encore on continue à
sélectionner les bonnes cordes.
Lorsque les instruments « bien construits » furent disponibles, il a pu se développer une
musique très complexe... et très différente de celle des oiseaux : duos, trios, formations
orchestrales et chorales de tout genre.
88
APPENDICE IV.
TRANSITIONS QUANTIQUES
avec :
αkn =
Résumons d’abord la procédure suivie dans le corps du texte.
Dans un système quantique isolé, l’énergie est constante, et on peut appliquer
l’équation
Cette quantité est réelle. De plus,
Cette équation ne contient pas le temps. Elle est satisfaite par les fonctions un(x) telles
que :
Hu = E u
∫
1 si m = n
0 si m ≠ n
}
αkn = αnk
dCk
dt
Un théorème de Sturm-Liouville montre que la nullité pour m différent de n est assurée
pour toutes les formes plausibles de l’Hamiltonien H. C’est la propriété d’orthogonalité.
La solution générale s’écrit :
On aura aussi une variation de Cn :
dCn
dt
∞
Ψ = ∑ Cnun e-iωnt
De ces deux équations, on tire :
n=1
On soumet maintenant le système à un potentiel alternatif d’expression :
= –i Cnαkn / 2
= –i Ckαkn / 2
d2Cn
dt2
V(x) cosωt
=–
αnkαkn
4
Cn
La valeur initiale de Cn est nécessairement 1 (à la phase près, qui ne change rien à la
physique) ; la solution est donc :
Ce potentiel décrira par exemple l’action à laquelle est soumis un atome par un faisceau
de lumière monochromatique - d’une seule longueur d’onde, d’une seule fréquence. Le
système n’est plus isolé ; son énergie n’est pas constante.
L’expression générale de Ψ pourra toujours être décomposée en fonctions un(x),
mais les coefficients Cn devront être des fonctions du temps et l’équation de Schrödinger
s’écrira :
avec :
(H + V(x) cos ωt) Ψ = iħ ∂Ψ
∂t
En portant l’expression de Ψ ci-dessus dans cette équation, on obtient, grâce aux
propriétés d’orthogonalité :
n
C’est une condition de résonance. Dans la somme ci-dessus, tous les termes seront
oscillants dans le temps sauf un qui sera constant. Il est facile de montrer que si l’on intègre
sur un grand nombre de périodes (ce qui suppose V assez petit) seul le terme constant
sera efficace, ce qui donne :
Les fonctions un(x) étant définies à un facteur près, on suppose que l’on a choisi ce
facteur de manière à assurer la normalisation :
{
k
ω + ωk - ωn =0
n n
un * um dx =
∫ u Vu dx
On a en toute rigueur un système infini d’équations, mais on trouve assez facilement
des solutions simples très significatives. Supposons que pour t = 0 seul un des coefficients
ne soit pas nul, soit Cn et qu’en outre nous choisissions ω tel que
HΨ = EΨ
n
1
ħ
Cn = cos Ωt
Ω2 =
Ck = i sin Ωt
αknαnk
4
Les probabilités d’occupation des deux niveaux sont donc :
cos2 Ωt
∞
dCk
= –i ∑ Cnαkn e-i(ωk - ωn)t
dt
n=1
89
sin2 Ωt
Ces expressions ne décrivent pas une oscillation à l’intérieur de la structure irradiée,
mais des probabilités pour qu’on la trouve dans chaque état si l’on fait une. À tout instant, la
structure est dans une superposition quantique des deux états, mais une mesure donnera
comme résultat l’un des deux. En fait, elle le mettra dans l’un des deux car on trouvera le
même résultat si l’on recommence la mesure aussitôt après, avant que Wt ait sensiblement
changé.
N’oublions pas que les niveaux d’énergie du système irradié correspondent aux
fréquences ωk, ωn. Le faisceau de lumière peut aussi bien élever l’atome du niveau
d’énergie inférieur au niveau supérieur que l’inverse. Einstein avait déjà prévu cet effet pour
des raisons thermodynamiques.
90
Téléchargement