La physique du 21° siècle sera-t-elle ondulatoire?

publicité
JS'11, Cnam Paris, 29-30 mars 2011
LES RADIOTELESCOPES DU FUTUR :
TECHNOLOGIES ET AVANCEES SCIENTIFIQUES
Titre (français) : La physique du 21° siècle sera-t-elle ondulatoire?
Title (English) : Will the 21° century physics be a wave’s physics?
Auteur : Pierre Fuerxer
Ancien adjoint militaire au directeur de CENT.
Mots clés : Physique ondulatoire, fertilisation croisé;
Wave’s physics, cross fertilisation
Résumé
Les progrès de la physique ont été très importants au 19° siècle. Des avancées décisives en optique ont été
réalisées grâce à la découverte de la nature ondulatoire de la lumière.
Le début du 20° siècle est marqué par une mutation profonde due au développement des théories de la
relativité, mais aussi de la théorie des quanta.
Le 21° siècle devrait redonner aux ondes la place qui leur revient, le point de vue ondulatoire permettant une
approche concrète de nombreux phénomènes.
A un coût raisonnable, les radiotélescopes du futur, en améliorant leur résolution et en étendant le spectre
d’observation de l’espace à notre disposition, vont apporter à la physique des éléments essentiels au progrès de la
connaissance.
Ces résultats ne seront pleinement exploités que si nous savons décrire les phénomènes eux-mêmes, dans un
langage simple, et en entrant le moins possible dans les débats théoriques.
La fertilisation croisé des différents domaines de la science en sera grandement améliorée, et les étudiants de
nouveau attirés par les disciplines scientifiques.
L’ensemble du propos est illustré par un retour sur les articles fondateurs de la physique moderne et leur
comparaison avec des articles récents (par exemple modèle de Planck- modèle de calcul du bruit radioélectrique
proposé pour les systèmes ULB).
Introduction :
L’histoire n’est pas seulement un retour sur le passé. En mettant au jour les raisons qui ont été à l’origine des
événements anciens et qui expliquent leur l’enchaînement, elle permet de comprendre le présent et de pressentir les
grandes lignes du futur.
Nous allons donc faire un rapide retour sur l’évolution de la physique au cours des deux derniers siècles. Nous
considèrerons ensuite plus en détail, et avec le regard d’un radioélectricien moderne, les avancées faites au 20° siècle,
en nous appuyant sur les textes originaux, comme l’exige une démarche historique authentique.
1 - La physique du 19° siècle :
Les avancées scientifique faite au 19° siècle ont été nombreuses et importantes. Les progrès de l’optique et la
découverte de la nature ondulatoire de la lumière ont préparé, avant même la découverte expérimentale des ondes
radioélectriques, les bases théoriques qui ont permis, plus tard, le développement des radiocommunications et du
RADAR.
Il n’est pas nécessaire de rappeler les travaux de Fresnel dès 1818, de Fizeau puis de Maxwell qui établit dès
1854 les équations des ondes électromagnétiques.
Il était donc raisonnable de penser que la théorie corpusculaire de la lumière qui avait été adoptée de l’antiquité
à Newton avait définitivement été abandonnée au profit de la théorie ondulatoire. Tel n’a pas été le cas.
281
JS'11, Cnam Paris, 29-30 mars 2011
2 - La physique du 20° siècle :
Le vingtième siècle commence avec un incroyable foisonnement de théories souvent incompatibles entre elles
et avec les principes connus de la physique. Progressivement, ces théories ont été ajustées de façon à constituer un
ensemble pratiquement cohérent, les difficultés résiduelles étant passées sous silence. Pour s’en convaincre, il suffit de
lire ou relire les articles originaux dans lesquels ces théories ont été proposées pour la première fois.
Les grandes théories :
Sans vouloir être exhaustifs, nous allons considérer les plus emblématiques de siècle.
La théorie de la relativité :
Considérons tout d’abord la théorie de la relativité dont la genèse est remarquablement expliquée dans le livre
de Jules Leveugle [1]. Cette théorie n’a été que lentement acceptée par les physiciens en raison de son incompatibilité
avec certains des grands principes de la physique qui sont cités par Poincaré en 1904 lors de la conférence de Saint
Louis [2] : Le principe de conservation de l’énergie, le principe de la dégradation de l’énergie, le principe de l’égalité de
l’action et de la réaction, le principe de conservation de la masse, le principe de moindre action, auxquels il ajoute pour
la première fois le principe de relativité.
Cette théorie conçue pour conserver la vitesse de la lumière, ou plus exactement les équations de Maxwell,
n’est pas totalement compatible avec les principes de la physique cités par Poincaré. Pour rendre la vitesse de la lumière
indépendante du repère, fallait-il mettre les équations de Maxwell au dessus de tous les principes de la physique ? Etaitil nécessaire d’abandonner la notion d’Ether, milieu supposé de propagation des ondes optiques, et sacrifier pour cela
plusieurs des principes de la physique comme celui de la conservation de l’énergie?
La théorie quantique :
Une autre théorie fondamentale du siècle est incontestablement la théorie quantique de Planck. La formule du
rayonnement thermique du corps noir proposée par Planck le 19 octobre 1900 introduisait la notion de quanta d’énergie
[3, 4]. La lecture de l’article original montre clairement que le modèle physique, très peu réaliste, proposé sans
justification par Planck avait pour seul objet d’illustrer, en faisant appel à la théorie des quanta, une formule décrivant
bien les résultats expérimentaux.
Malgré la notoriété de Planck, la notion de quanta n’a commencé à être acceptés qu’après l’article que Poincaré
a consacré à la théorie des quanta en 1912 [5]. Il y disait notamment : l’hypothèse des quanta est la seule qui conduise à
la loi de Planck, ce qui était bien la moindre des choses puisque Planck avait construit sa théorie du corps noir dans ce
but. On a seulement oublié les réserves de Poincaré sur la structure du modèle physique adopté par Planck.
Entre temps, Einstein avait envoyé le 18 mars 1905 un article dans lequel il introduit la notion de quanta
d’énergie localisés en des points de l’espace, chacun se déplaçant sans se diviser, c'est-à-dire de ce qui sera appelé plus
tard le photon [6]. Cette notion a évolué depuis de façon à mieux rendre compte des propriétés ondulatoires de la
lumière, mais l’assimilation du photon à un grain de lumière subsistera implicitement dans beaucoup d’esprits.
La physique des particules :
Des premières notes de Louis de Broglie en 1923 à sa thèse, la mécanique ondulatoire allait compléter cette
révolution conceptuelle. Associer à chaque particule une onde posait des problèmes nouveaux. Une onde
électromagnétique est transverse et ne peut avoir une symétrie de révolution. L’onde de louis de Broglie d’une particule
fixe pouvait être longitudinale et donc avoir une symétrie de révolution, mais restera mystérieuse, malgré les résultats
positifs de diffraction de particules réalisées depuis.
Parallèlement, Heisenberg proposa en 1925 une théorie baptisée mécanique des matrices ou mécanique
quantique, puis Schrödinger sa célèbre équation en 1926. Ce domaine de la physique, bien éloigné de la radioélectricité,
et dont la complexité dépasse le cadre de cet exposé ne sera pas abordé ici.
Nous noterons seulement que c’est à la suite de ces travaux qu’Heisenberg produit ses fameuses relations
d’incertitude. Avec l’école de Copenhague, il introduisit dans la physique l’indéterminisme.
Sur la base des relations d’incertitude, les physiciens admirent que ce qui ne s’observe pas n’existe pas. Ainsi
une particule n’a plus de trajectoire et sa position n’existe que si elle est mesurée à un instant donné avec une précision
limitée par les relations d’incertitude. Dès lors, la physique décide de ne pas s’intéresser aux transitions entre états
quantiques qui sont pourtant essentielles, en particulier dans les interactions entre matière et rayonnement.
La victoire de l’école de Copenhague marque la victoire d’une approche abstraite de la physique.
Aujourd’hui, dans le but de mieux connaître ses bases conceptuelles, la physique théorique s’intéresse de plus
en plus aux expériences sur des photons uniques. Celles-ci conduisent à des résultats de plus en plus surprenants, les
282
JS'11, Cnam Paris, 29-30 mars 2011
propriétés des photons apparaissant de jours en jours plus ésotériques : non localité, intrication de photons conduisant à
des interactions instantanées entre photons distants…
Ces travaux ont donné lieu au concept de cryptographie quantique, l’unicité des photons envoyés sur une fibre
optique étant supposée assurer, grâce à une procédure complexe, la confidentialité parfaite d’une transmission.
La course au gigantisme :
En particulier pour les besoins de la physique nucléaire, la physique moderne a dû construire des appareils de
plus en plus gros, en particulier pour l’étude de la matière. Monsieur Hubert Curien, avec l’humour qu’on lui connaît,
ne chiffrait-il pas lui-même dans une conférence prononcée à l’assemblée générale de la SEE le prix de ces équipements
en unités astronomiques ? Le 21° siècle ne verra-t-il pas la fin de ces grands instruments ?
L’étude de l’espace et les découvertes qui restent à faire grâce aux progrès de nos moyens d’observation
rendront sans doute inutiles des outils comme l’interféromètre VIRGO, construit pour détecter à partir d’expériences
terrestres d’éventuelles ondes de gravité (VIRGO a été réalisé à Cascina, près de Pise, par le CNRS et l'Institut national
italien de physique nucléaire, est un interféromètre dont les bras ont une longueur de3 Km).
Cet appareil, improprement désigné comme un interféromètre de Michelson, est d’une complexité extrême. Ses
très grandes dimensions devraient lui donner une très grande sensibilité, cependant, il souffre de limitations résultant de
nombreux phénomènes parasites.
En particulier, les vibrations sismiques, les marées terrestres et les dérives thermiques doivent être compensées
par des asservissements qui limitent l’étendue des fréquence observable à la bande 10Hz -10KHz.
Pourquoi l’existence des ondes de gravité, générées par des événement astronomiques rares et très lointains,
pourraient être détectées par un tel équipement sans que plane sur ce résultat la suspicion d’un fit accidentel ?
La radioélectricité :
Dans le même temps, le développement de la radioélectricité s’est fait indépendamment de l’évolution du reste
de la physique. Les recherches à la fois théoriques et appliquées ont porté sur un ensemble très varié de domaines. En
premier lieu le calcul des circuits, lignes de transmission, antennes. Ensuite, la propagation de ces ondes invisibles dans
des milieux d’indice inhomogène ou ionisés, enfin la diffraction et la diffusion par les obstacles …
A la suite de la découverte de l’effet transistor, les radioélectriciens investissent même le domaine de la
physique du solide.
Les recherches dans le domaine des radiocommunications visent le développement d’applications pratiques,
économiquement rentables. Bien évidemment, des solutions canoniques des équations de Maxwell, puis des calculs
numériques des circuits et antennes ont été mis en œuvre en fonction des besoins et des possibilités techniques, mais
sans jamais constituer un préalable au développement des applications.
Le bruit et les interférences, véritables limites techniques s’opposant au développement des systèmes, ont été
étudiés avec soin. La maîtrise des phénomènes aléatoires a été l’objectif essentiel des recherches dans les domaines des
télécommunications mais aussi du RADAR et des transmissions infrarouges [7]. Enfin, les contraintes temporelles
apparaissant dans les systèmes de transmission et de détection ont été prises en compte [8].
283
JS'11, Cnam Paris, 29-30 mars 2011
L’évolution de la physique théorique a été bien loin des préoccupations des radioélectriciens. La relativité
n’intervient dans les systèmes de localisation par satellite que sous la forme de corrections relativistes appliquées dans
un repère particulier lié à la Terre. Vus de la Terre, ces effets apparaissent comme des propriétés physiques comme les
autres et sont pris en compte sans référence aux transformations de Lorentz et aux considérations théoriques qui les
justifient.
La notion de bruit quantique n’apparaît que très récemment avec les liaisons optiques et les LIDARs. Même les
amplificateurs paramétriques ont pu être étudiés et mis au point en ne mettant en œuvre que des concepts classiques de
circuiterie hyperfréquence non linéaire.
Les expérimentateurs ont parfois observé des phénomènes imprévus. La mesure des surfaces équivalentes
RADAR a mis en évidence des ondes électromagnétiques de surface qu’il suffisait de modéliser, sans établir clairement
la théorie de leur fonctionnement, qui devrait découler de celle des lignes de Goubault. Ce sujet reste cependant à
étudier.
3 - La physique du 20° siècle vue par un radioélectricien :
En revenant sur les grandes innovations que le 20° siècle a apporté à la physique, nous allons maintenant
étudier comment un radioélectricien d’aujourd’hui pourrait les aborder et comment ses méthodes ouvrent de nouvelles
voies de recherche à la physique.
Le rayonnement du corps noir :
Au delà de son intérêt propre, le rayonnement du corps noir est important en raison du rôle qu’il a tenu dans
l’acceptation de la théorie des quanta par la communauté scientifique.
En 1900, Planck a proposé une modification de la formule proposée par Wien en 1896 par adjonction d’un
terme évitant la divergence de la formule aux longueurs d’onde courtes, connue sous le nom de catastrophe
ultraviolette.
Retenons la forme fréquentielle de cette formule:
PT ( f ) = Cte ⋅
e
f3
hf / kT
−1
A l’évidence, Planck a cherché à faire correspondre la formule théorique aux résultats expérimentaux. Il a fait
un rapprochement entre la thermodynamique statistique de Boltzmann et ses propres travaux sur les quanta.
Selon le modèle établi par Planck, le rayonnement lumineux serait dû à des résonateurs hertziens
rigoureusement monochromatiques ne pouvant émettre ou absorber de la lumière que de façon discontinue
conformément à la théorie des quanta.
Le rayonnement d’un solide serait dû à un très grand nombre de résonateur. Des échanges d’énergie entre ces
résonateurs pourraient avoir lieu par deux mécanismes :
- L’effet Doppler-Fizeau qui permettrait le décalage en fréquence permettant de changer une fréquence en une
autre et faire correspondre les quanta hν de valeurs différentes.
- Des chocs mécaniques entre ces résonateurs.
Ce modèle non physique n’est pas réellement satisfaisant, mais les différentes tentatives d’améliorations de
Planck n’ont pas été concluantes, comme l’indique Poincaré dans son article de 1912 [5]. En fait, ce modèle a ignoré le
rayonnement même qu’il prétendait calculer.
Des physiciens modernes réintroduisent un bruit gaussien préquantique qui reste nécessaire à la description
des phénomènes physiques [9]. C’est admettre, sans le dire, que le rayonnement est bien mieux décrit par la physique
classique, dite préquantique.
Supposons que Planck ait été un radioélectricien, connaissant parfaitement la théorie des antennes et des
circuits électroniques.
Il aurait pu représenter sa formule expérimentale sous la forme d’un produit de facteurs :
PT ( f ) = Cte ⋅
c2
λ2
⋅f⋅
e
− hf / kT
1− e
− hf / kT
Le premier terme est un facteur liant la puissance rayonnée aux dimensions du pavage de la surface respectant
le théorème d’échantillonnage dit de Shannon, mais établi par Cauchy un siècle plus tôt. En effet, nous savons que pour
une fréquence donnée, le champ rayonné par une surface est entièrement déterminé par les valeurs observées au centre
284
JS'11, Cnam Paris, 29-30 mars 2011
de pavés élémentaires de côté λ/2. C’est cette approche que j’avais adopté lors de mon exposé lors des journées
scientifiques en 2006 [10].
Cte
c2
f
λ2
G
Le terme central correspond à une dérivation. Ceci pourrait correspondre au fait que le rayonnement d’une
antenne correspond à la variation temporelle du courant, un courant constant ne produisant aucun rayonnement, mais,
comme nous le verrons plus tard, nous devrons rejeter cette interprétation.
Le troisième terme est un terme correspondant de façon surprenante au gain d’un système bouclé de gain de
boucle :
G=e
− hf / kT
Ce gain a une valeur maximum unité à la fréquence nulle et présente une coupure de fréquence proportionnelle
à la température T.
La recherche d’un modèle radioélectrique :
Depuis le développement de l’électromagnétisme, il est possible de construire un modèle radioélectrique du
rayonnement du corps noir ayant une signification physique. Nous allons distinguer les cas des fréquences basses et des
fréquences hautes.
Cas des fréquences basses :
Un radioélectricien aurait sans doute cherché une interprétation de ces deux termes à partir de la statistique de
l’agitation thermique d’un nuage d’électrons dans un élément résistif. Connaissant le théorème d’échantillonnage, il
aurait sans doute adopté la démarche que j’ai retenu en 2006 pour comparer le rayonnement des émetteurs ULB au bruit
thermique.
Il aurait donc adopté pour les fréquences basses la formule :
PT ( f ) = Cte ⋅
c 2 kT
⋅
λ2 h
Cette formule correspond au courant de bruit d’agitation thermique dans une résistance de surface,
indépendante du pas du pavage et donc de la fréquence. Le produit de ce terme avec le facteur d’échelle donne alors le
rayonnement du corps noir pour ces fréquences. Bien évidemment, pour trouver le résultat exact, il faut prendre en
compte l’existence de deux polarisations.
Cas des fréquences hautes :
Aux fréquences élevées, il aurait sans doute admis la présence d’un filtre passe bas de gain G et cherché à en
comprendre la présence. Sa première idée aurait sans doute été d’attribuer ce filtrage passe bas à la durée non nulle des
chocs entre les charges mobiles et le substrat dans la résistance source du rayonnement.
Une statistique sommaire faite sur un ensemble de charges mobiles l’aurait conduit, pour un pavage donné, à
un filtrage passe bas de type exponentiel analogue à celui de la formule de Planck, et à la même dépendance en fonction
de la température. L’équation de la courbe expérimentale devient alors :
PT ( f ) = Cte ⋅
c2
λ
2
⋅ f ⋅e
− hf / kT
Le terme f, ou c/λ, reste à justifier. Il peut être interprété de diverses façons. En effet, le rayonnement noir
résulte d’un équilibre entre émission et absorption de la lumière par le corps rayonnant. Le calcul peut se faire en
attribuant aux charges électriques mobiles ces deux phénomènes.
Le rayonnement du corps noir correspondant à un équilibre, il faut rendre égales ces deux quantités. La valeur
du champ est donc l’intégrale dans le temps du rayonnement dû aux chocs, les pertes correspondant à l’énergie
emmagasinée par les charges mobiles entre deux chocs successifs avec le substrat. Ceci correspond au schéma
équivalent suivant :
285
JS'11, Cnam Paris, 29-30 mars 2011
∫
a
f
Cette modélisation simplifiée justifie bien le terme f ou c/λ dans la formule du champ rayonné aux fréquences
élevées.
Le rayonnement global :
Le rayonnement global résulterait de la superposition de ces deux modes. Aux basses fréquences, un
mouvement d’ensemble des charges conduisant à un courant de bruit. Aux fréquences élevées, la contribution des
discontinuités des trajectoires élémentaires des charges.
Le rayonnement du corps noir pourrait être approximé par la formule suivante :
Cte
c2
λ2
kT − hf / kT
e
h
 hf 
1+  
 kT 
2
Les différences entre cette formule et la formule de Planck sont faibles, et n’existent que dans la zone de
raccordement entre les deux modes de rayonnement, ce qui rend crédible cette modélisation physique.
Bien évidemment, l’étude et la validation d’un tel modèle nécessiteraient de nombreux travaux, et sans doute
des simulations rendues possibles par les progrès de l’informatique. Il me paraît certain que l’étude d’un tel modèle
radioélectrique sera faite dans les années à venir.
La complémentarité des deux modèles :
Cette approche radioélectrique du corps noir est bien plus complexe que la méthode thermodynamique de
Planck, dont Poincaré a montré la cohérence mathématique [5].
Un raisonnement thermodynamique nous permet de dire que la présence de raies d’émission atomiques ne doit
pas modifier le rayonnement du corps noir. La connaissance de l’émission stimulée des atomes, acquise depuis les
travaux de Planck et Poincaré, doit nous permettre de calculer les flux d’énergie échangé par rayonnement entre un
atome et le rayonnement noir. Les résultats thermodynamiques découlant de l’hypothèse quantique, parfaitement valide
pour les atomes, s’appliquent alors au rayonnement de tous les corps.
Par rapport au choix de Planck, le choix d’une modélisation ayant une signification physique réelle a deux
avantages : le premier est de montrer que le rayonnement du corps noir peut être expliquée sans faire appel à la notion
de quantum, le second est de faire comprendre le mécanisme d’émission des corps réels, en prenant en compte
l’interaction entre le rayonnement et le substrat qui fixe la température du rayonnement T. La détermination d’un
modèle complet de rayonnement, incluant les échanges entre le substrat et le rayonnement est alors possible.
Enfin, et ceci est un résultat essentiel, ce modèle physique du rayonnement thermique des corps n’impose en
rien l’hypothèse quantique.
Une entité thermodynamique :
Comment se fait-il alors que Poincaré ait écrit dans son article de 1912 « L’hypothèse des quanta est donc la
seule qui conduise à la loi de Planck », phrase qui a été interprétée comme son ralliement à la théorie des quanta?
Pour comprendre cette phrase, il faut la remettre dans son contexte, et relire l’introduction de Poincaré dans
laquelle il dit : « Il est a peine nécessaire de faire remarquer combien cette conception s’écarte de tout ce qu’on avait
imaginé jusqu’ici ». Après avoir fait une présentation des hypothèses de Planck et relevé les lacunes de son modèle
physique, il décide de l’adopter dans son étude thermodynamique du corps noir puisque ce choix « …semble ne devoir
eu aucun cas modifier les résultats essentiels ».
Malheureusement, Poincaré n’a pas eu le temps de poursuivre ses travaux et de mener à son terme cette
réflexion fondamentale sur le rayonnement du corps noir.
Planck avait construit un modèle cherchant à expliquer le rayonnement du corps noir par sa théorie des quanta.
Sans valider le modèle de Planck, Poincaré a montré que ce modèle ne conduit à la formule de rayonnement thermique
286
JS'11, Cnam Paris, 29-30 mars 2011
du corps noir que grâce à l’hypothèse des quanta, mais rien de plus. Il n’a pas dit que seule la théorie des quanta pouvait
expliquer le rayonnement du corps noir, et plus généralement des corps réels.
Contrairement à ce qui est généralement affirmé, il ne s’agissait en aucun cas d’un ralliement à cette théorie et
je suis certain que Poincaré, qui avait fait des travaux importants en optique, aurait également accepté un modèle
radioélectrique bien plus physique au sens de la physique classique développée jusqu’au 19° siècle.
En fait, nous ne devons jamais oublier que le corps noir est une entité thermodynamique. Il ne peut en aucun
cas être parfaitement réalisé physiquement. Aucun dispositif ne peut être absorbant pour toutes les fréquences, du
courant quasi continu aux rayons ultraviolets. Son rayonnement correspond à une limite théorique d’émission d’un
corps fictif.
Il est important de ne pas oublier que le rayonnement des corps réels peut être modélisé de plusieurs façons
différentes, dont certaines n’impliquent pas l’hypothèse quantique.
Un radariste ayant travaillé sur la discrétion RADAR, et donc habitué à modéliser et à réaliser des absorbant,
serait bien armé pour entreprendre cette tâche. Contrairement à Planck et Poincaré, il pourrait également s’appuyer sur
les progrès de l’optique réalisés au 20° siècle, en particulier depuis la découverte en 1950 par le professeur Alfred
Kastler du pompage optique, découverte à l’origine de l’invention du LASER.
La photoélectricité :
Au début du 20° siècle, la nature corpusculaire de l’électricité était connue. Depuis les premières expériences
sur les rayons cathodiques effectuées dès 1869 jusqu’à l’identification de l’électron comme particule élémentaire par
J.J. Thomson en 1897, une longue suite d’expériences avait conduit à bien comprendre la nature corpusculaire de
l’électricité.
Dans ce contexte, l’article d’Einstein du 18 mars 1905 présente une notion de photon ponctuel qui transporte
sans se diviser un quantum d’énergie [6].
Depuis cette époque, des progrès considérables ont été accomplis. Pour avoir travaillé en vision de nuit et en
infrarouge thermique, j’ai eu à comprendre toute la complexité d’une photocathode et d’une simple diode détectrice. Le
rayonnement doit en effet être absorbé, les photo-électrons passer la barrière de potentiel avec le vide ou être collectés
par les électrodes de la diode.
Tous ces dispositifs présentent un courant d’obscurité. Celui-ci est décrit de façon différente selon les
applications, soit comme provenant du rayonnement thermique reçu de l’environnement direct du détecteur, soit même
comme un phénomène interne à celui-ci.
Si la théorie des transmissions numérique avait été établie dès le début du 20° siècle, un radioélectricien aurait
immédiatement analysé la photocathode comme un dispositif analogue au récepteur à très grande diversité d’espace
d’un système de transmission numérique.
En radioélectricité, le courant d’obscurité correspond en effet au taux de dépassement du seuil de détection
conduisant au taux brut de fausse alarme d’un RADAR ou au taux d’erreur d’une transmission numérique. Nous savons
que ces taux ne peuvent être nuls. Nous savons ensuite traiter par intégration incohérente les détections et même
montrer que la présence du bruit permet de linéariser le récepteur et de supprimer tout seuil, même et surtout pour des
signaux noyés dans le bruit.
Dans une photocathode, la détection correspond à l’émission d’un photoélectron en un point de la surface
sensible, assimilable à un détecteur élémentaire, le photomultiplicateur faisant ensuite la somme des sorties de
l’ensemble de ces détecteurs indépendants. Il s’agit donc d’un récepteur en diversité à sommation incohérente.
Dans leur domaine, les radioastronomes ont exploité depuis les années 60 les corrélations temporelles de
signaux reçus sur de très grandes bases et appliquent couramment les techniques interféromètriques.
Il n’est donc pas nécessaire de supposer l’interaction d’un photon avec un point particulier de la photocathode
pour expliquer ce phénomène. Quelle que soit son niveau, une densité de puissance uniforme sur la photocathode doit
donc conduire à une augmentation du courant d’obscurité, donc le plus souvent à une détection linéaire en puissance.
Le cas des photodiodes est un peu différent puisque la jonction semi-conductrice qui constitue la diode incite
tout naturellement à supposer la détection purement quantique. En fait, la prise en compte de tous les paramètres de la
diode, réflexion sur le dioptre d’entrée, absorption dans l’épaisseur du semi-conducteur, mobilité des charges dans la
bande de conduction compliquent grandement l’analyse.
De même que pour le corps noir, la notion de photon permet une interprétation simple des caractéristiques des
détecteurs optiques, mais elle n’aurait pas dû apparaître comme une preuve de la nature corpusculaire de la lumière. La
recherche de modèles purement ondulatoire n’aurait donc pas dû être abandonnée, mais utilisée comme une approche
complémentaire.
287
JS'11, Cnam Paris, 29-30 mars 2011
Les expériences quantiques :
Depuis le développement de la théorie quantique, les objections des physiciens ont été nombreuses, mais ont
finalement été rejetées par la communauté scientifique.
La plus célèbre d’entre elles est le paradoxe EPR basé sur une expérience de pensée proposée en 1935 par
Albert Einstein, Boris Podolsky et Nathan Rosen.
Ce paradoxe est une conséquence des choix de l’école de Copenhague. En effet, pour elle, un paramètre non
mesuré n’est défini que par la distribution statistique de ses valeurs. Si nous considérons deux photons émis
simultanément, la mesure de la polarisation de l’un d’entre eux fixerait sa valeur, mais également celle du photon émis
en direction opposée. En admettant que celle-ci ne puisse avoir que deux valeurs, une corrélation entre les mesures
faites entre deux points distants ne pourrait résulter que de la présence de variables cachées ou par une communication
instantanée entre les deux photons. Ainsi apparaît la notion de photons intriqués.
Un radioélectricien ignorant ces théories physiques aurait considéré les deux photo-multiplicateurs comme des
détecteurs quadratiques dont la sortie serait quantifiée sur un bit. Comme certains codeurs numériques utilisés en
RADAR et en télécommunications, ces détecteurs seraient linéarisés par le bruit thermique présent dans le détecteur.
En 1982, Alain Aspect a publié une courbe expérimentale obtenue en faisant varier la polarisation relative de
deux polariseurs placés devant les photomultiplicateurs devant détecter des photons intriqués. Il a donc observé la
corrélation entre les signaux de sortie des deux photomultiplicateurs : une sinusoïde de période 180°, décalée par une
composante continue correspondant au produit des valeurs moyennes des deux signaux après redressement.
Courbe expérimentale.
Un radioélectricien n’aurait pas été étonné de constater que tout se passe comme si les deux détecteurs étaient
linéaires et non quantifiés et n’aurait pas été surpris par le résultat de l’expérience.
Les premières expériences sur les photons intriqués ont été décrites de façon relativement précise. Les
suivantes s’attachent à justifier l’existence d’un lien mystérieux entre photons, mais sans décrire en détail le dispositif
expérimental et le traitement statistique des résultats.
L’expérience menée par Nicolas Gisin en 2002 sur le réseau téléphonique suisse donne également des résultats
qui semblent parfaitement explicables par une analyse ondulatoire classique. En effet, la lumière transmise par les fibres
optiques n’est caractérisée que par sa fréquence et la durée de l’impulsion, deux paramètres mal connus mais liés par la
relation d’incertitude des radioélectriciens :
B.T ≥ 1
Chacun des détecteurs situés aux deux points distants sont constitué d’un interféromètre correspondant avec les
symboles des radioélectriciens à deux coupleurs 3db et deux lignes de transmission, l’une d’entre elles comportant un
déphaseur réglable .
Conformément aux lois de l’électromagnétisme, nous pouvons dire qu’en régime continu la puissance du
signal entrant se divise en deux et que les sorties du premier coupleur à 3db sont en quadrature. Un signal arrivant est
sépare par le premier coupleur en deux signaux de puissance moitié, eux-mêmes séparés en deux parties en quadrature
envoyées vers les détecteurs D1 et D2.
φ
3db
D1
3db
D2
Chaque détecteur reçoit donc deux signaux de puissance ¼ de la puissance d’entrée et dont les déphasages sont
tels que selon la valeur du déphasage φ l’amplitude sur les deux détecteurs varie de zéro à la puissance d’entrée, la
somme des puissances reçues par les deux détecteurs étant évidemment la puissance d’entrée. L’interféromètre formé
288
JS'11, Cnam Paris, 29-30 mars 2011
par les deux bras constitue donc deux filtres en peigne complémentaires dont le pas en fréquence correspond au retard
entre les deux voies de transmission.
Si l’impulsion électromagnétique est suffisamment brève, chaque détecteur reçoit deux impulsions successives.
Dans le cas contraire, nous observons sur les deux détecteurs des signaux correspondant aux multitrajets couramment
observés en télécommunications numériques.
Sans avoir eu accès aux documents originaux, il est permis de penser que la source de photons est constituée de
la même façon que dans les expériences de cryptographie quantiques faites depuis. Comme l’analyse des schémas
optiques présentés semble le confirmer, un cristal excité par LASER génère une impulsion dont l’énergie correspond à
un ensemble de plus de 30 photons. Le signal produit est ensuite atténué puis séparé en deux par un coupleur 3db. Cette
source est censée envoyer vers chaque fibre optique à un photon unique par impulsion.
Il semble certain que les concepts de la radioélectricité permettraient d’analyser le dispositif expérimental de
Nicolas Gisin et d’expliquer son fonctionnement sans faire appel à la notion de photons intriqués.
Les nombreuses expériences sur photon unique menées actuellement dans les laboratoires, devraient également
pouvoir être expliquées en faisant appel aux concepts de la radioélectricité et au modèle de détecteur proposé.
4 - Un apport décisif de la radioélectricité au 21° siècle?
La physique du 21° siècle redonnera certainement aux ondes la place qu’elles méritent. Elle devra s’attacher à
étudier tout ce qui a été négligé au 20° siècle.
Grâce aux recherches faites dans les très nombreux domaines relatifs à l’étude des systèmes radioélectrique, la
communauté des radioélectriciens, à laquelle nous appartenons, dispose d’un acquis important à mettre au service de la
physique.
Utilisant couramment les équations de Maxwell, nous savons que la vitesse c de la lumière n’est qu’un
coefficient d’une équation différentielle. C’est la vitesse d’une onde plane, mais en fait la vitesse de la lumière n’existe
pas. On ne peut strictement parler de vitesse que d’un objet en déplacement, mais pas d’une onde qui se déforme au
cours de sa propagation. De plus, nous savons qu’en champ proche la notion de longueur d’onde est inadéquate. Enfin
dans les milieux dispersifs nous parlons de plusieurs vitesses : la vitesse de phase et la vitesse de groupe et d’aberration
chromatique.
En calcul électromagnétique, nous utilisons des modélisation asymptotique sans réalité physique comme le
dipôle, des intégrales de champs et potentiels semi-convergentes, et un nombre limité de solutions canoniques des
équations de Maxwell ne décrivant pas toutes les ondes réellement observées, notamment les ondes de surface
intervenant dans le calcul des surfaces équivalentes RADAR.
Pourquoi construire une physique ondulatoire ?
En physique, les apports du 20° siècle ont été considérables. Je citerai en désordre les progrès de la physique
nucléaire, la physique du solide qui a permis le développement de l’électronique et de l’informatique, l’optique avec le
LASER et l’holographie, les fibres optiques, l’astrophysique qui nous décrypte l’univers et bien d’autres domaines
scientifiques.
Pourquoi alors chercher à remplacer les théories qui ont permis ce développement remarquable ?
La réponse à cette question est toujours la même. Toutes nos théories laissent de côté certains faits ou
l’explication de certaines lois expérimentales. Périodiquement, des nouvelles théories remplacent les précédentes en
apportant une amélioration pratique ou conceptuelle.
Par exemple, en astronomie, le système de Ptolémée qui rendait bien compte des observation astronomiques de
l’époque a été remplacé par le système de Copernic qui considérait que la terre tourne sur elle-même et autour du Soleil
puis cette vision a été justifiée par la loi de l’attraction universelle de Newton.
A chaque étape, de nombreuses personnes ont refusé de suivre ces changement pour des prétextes divers, mais
sans doute avec le sentiment confus qu’il n’était pas nécessaire de reprendre à zéro tout ce qui avait été fait par leurs
éminents prédécesseurs.
Nous savons bien que cette crainte n’est pas justifiée. Bien que nous connaissions les équations de Maxwell,
nous utilisons toujours l’optique géométrique et les lois de Descartes. Il ne doit pas y avoir d’anathème, mais une
ouverture d’esprit nécessaire au progrès scientifique, chaque théorie conservant un domaine d’application propre.
Aujourd’hui, nous savons tous que nos théories physiques sont incapables de décrire parfaitement certains
phénomènes. Je citerai à titre d’exemple les mécanismes temporels d’émission et d’absorption de quanta lumineux par
les atomes, le mécanisme qui empêche les électrons de rayonner et de tomber sur les noyaux des atomes, les raisons qui
justifient la loi de Titius-Bode décrivant la distribution en distance des planètes et satellites des planètes [11].
Les progrès de la connaissance scientifique ne peuvent se faire que si nous acceptons de travailler sur ces
points non résolus et, si nécessaire, de remettre en cause nos théories.
Je suis intimement persuadé qu’au 21° siècle, l’analyse ondulatoire de nombreux phénomènes physiques
permettra en complément des modélisations actuelles d’ouvrir de nouvelles voies et que celles-ci seront très fécondes.
289
JS'11, Cnam Paris, 29-30 mars 2011
5 - La description des seuls faits :
On n’insistera jamais assez sur l’importance des fait expérimentaux qui priment toujours sur la théorie.
L’astronomie, et la radioastronomie, en élargissant la fenêtre que les ondes électromagnétiques nous ouvrent
sur l’univers, nous apporterons sûrement une meilleure connaissance des objets célestes. Elles devront cependant
essayer de fournir à des physiciens non spécialistes, les données expérimentales obtenues dans des conditions qu’aucun
dispositif terrestre ne sera jamais capable d’approcher. Elles devront pour cela veiller à ne pas se limiter à une
connaissance de type « naturaliste », mais chercher à identifier parmi leurs observations, les faits significatifs dont la
connaissance pourrait être précieuse aux physiciens.
Pour que la fertilisation croisée entre les différentes disciplines scientifiques soit optimale, ils devront veiller à
ne pas s’enfermer dans des pré-requis hautement spécialisés ou ne voir leurs résultats qu’au travers de concepts
particuliers.
L’histoire des sciences n’est-elle pas faite d’une multitude d’observations de bon sens qui avaient échappées à
la plupart des spécialistes ?
Des premières expériences de Michelson en 1881 à l’acceptation de la théorie de la relativité restreinte qui a
tranché le débat, les expérimentateurs ont mené leurs travaux dans le but de démontrer la validité de leurs idées, mais
personne n’a cherché à faire une théorie complète de l’interféromètre, dont la simplicité n’est qu’apparente. Ensuite, la
relativité restreinte ayant donné une réponse sans appel, le débat a été clos, sans doute un peu trop vite, et les
explications des manuels de physique excessivement simplistes.
Il en est de même pour la théorie de Big Bang. Dans les émissions grand public, des personnalités scientifiques
dissertent sur l’accélération du Big Bang. J’ai trouvé par hasard sur le site de l’école Polytechnique, dans une
présentation du grand campus de science et de technologie que l’école abrite sur le site de Palaiseau, une figure
significative [12].
Une page de cette présentation, titre en gros caractères : L’expansion est accélérée. J’avais enfin une bribe
d’information sur ce sujet particulièrement médiatique. La figure fournie à l’appui de cette affirmation est un graphique
dont les deux axes sont en abscisse le décalage vers le rouge des supernovae et en ordonnée leur magnitude.
Si on suppose que le décalage vers le rouge est proportionnel à la vitesse d’éloignement de l’étoile, et la
magnitude une mesure indirecte de sa distance, nous voyons que le décalage vers le rouge des étoiles les plus lointaines
n’est pas proportionnel à la distance. La vitesse d’éloignement des étoiles entre elles serait donc supérieure aujourd’hui
à ce qu’elle était dans le passé. Mais est-on sûr que le décalage vers le rouge et la magnitude représentent bien la vitesse
et la distance des supernovae ?
Faisant confiance aux astronomes, j’ai tout d’abord admis que le calcul du flux reçu des supernovae avait été
mesuré en tenant compte de la sensibilité spectrale des détecteurs.
Il restait à calculer l’effet Doppler. Pour cela, me plaçant dans l’espace euclidien, seul espace dans lequel je
sois capable de faire des calculs rigoureux, j’ai admis que le long du trajet de l’onde, la loi de décalage vers le rouge vu
par un observateur ne devait pas varier. Seule la longueur d’onde locale doit tenir compte de la distance déjà parcourue.
Pour ces raisons théoriques, nous devons admettre que le Doppler par unité de distance, tel que défini par la fonction z
est constant le long du trajet de l’onde.
En partant de la définition du décalage vers le rouge, on peut écrire en un point intermédiaire arbitraire i :
1+ Z =
λobs λobs λi
=
⋅ = (1 + z ( x )) ⋅ (1 + z (d − x ))
λ0
λi λ0
On peut alors en déduire que pour un incrément de distance dx, on doit avoir :
(1 + Z (x + dx )) = (1 + Z (x )) ⋅ (1 + k ⋅ dx )
Ce qui conduit à la formule :
log(1 + z ( x )) = ∫ k ⋅ dx =k ⋅ x
z = ek ⋅ x − 1
Le décalage vers le rouge ne peut donc être simultanément proportionnel à la distance et correspondre à un
effet Doppler. Nous allons donc choisir l’option effet Doppler, et donc un décalage vers le rouge non linéaire avec la
distance.
Pour la magnitude, nous allons supposer que le volume contenant un élément de champ rayonné est multiplié
par le facteur (1+Z)3, augmentation du volume d’un élément de champ due à l’effet Doppler. La magnitude, mesurent
le flux reçu est donc :
(
)
M = 2.5 ⋅ log d 2 ⋅ (1 + z ) + Cte
3
290
JS'11, Cnam Paris, 29-30 mars 2011
Le graphique théorique doit donc être celui-ci :
Contrairement à ce qui avait été dit dans la planche présentés par les laboratoires de l’école polytechnique,
cette courbe théorique correspond parfaitement avec l’hypothèse d’une vitesse d’éloignement des galaxies
proportionnelle à la distance. De plus, ni l’abscisse, ni l’ordonnée, ne correspondent directement à une mesure de
distance ou de vitesse.
Ce qui était valable pour les faibles décalages Doppler ne l’est plus pour les décalages conduisant au
doublement de la longueur d’onde lors du voyage de l’onde. En fait, cet écart entre les observations et la droite attendue
est la confirmation du fait que le décalage vers le rouge peut bien être expliqué par l’effet Doppler. Pour autant cela ne
veut pas dire que ce soit la seule hypothèse recevable.
Modestement, nous devrions seulement dire : « Tout se passe comme si les galaxies s’éloignaient les une des
autres à une vitesse proportionnelle à la distance ».
6 - Motiver à nouveau les étudiants :
Nous observons depuis déjà longtemps un intérêt de plus en plus faible des étudiants pour les disciplines
scientifiques, alors que tant de produits, dont le développement a été rendu possible par les immenses progrès
technologiques que le vingtième siècle a apporté, ont envahi notre univers.
Cette situation, en apparence paradoxale, a de nombreuses raisons, sociologiques, culturelles ou même d’image
dans le public qui ne dépendent pas de nous, et qu’il serait sans doute présomptueux de vouloir aborder ici.
J’insisterai sur l’une d’entre elles qui résulte de la volonté d’abstraction qui a orienté tout au long du vingtième
siècle la présentation de la science dans notre pays. Il était évidemment utile de montrer que les mathématiques
permettre de traiter des objets abstraits et d’inventer des nouveaux formalismes applicables à des domaines entièrement
nouveaux.
Devenir capable de raisonner juste sur des objets abstrait était certainement un progrès. En revanche, cette
abstraction ne devait pas être considérée comme une fin en soi. Pour un ingénieur, l’algèbre de Boole n’a d’intérêt que
par son efficacité dans la conception de réseaux de portes. De même, les nombres complexes ne doivent être compris
que comme un moyen efficace de traiter les spectres des signaux réels.
La physique du vingtième siècle est devenue de plus en plus abstraite. Cette orientation a sans doute été
partiellement justifiée. Faute de pouvoir décrire de façon complète les atomes et particules, le formalisme quantique a
été nécessaire et a permis d’importants progrès dans la connaissance de la matière.
Par contre, l’abandon de la géométrie euclidienne par la théorie de la relativité ne me semble pas avoir été
utile, encore moins nécessaire. Pourquoi ne pas avoir admis que les lois de la physique pouvaient être universelles, mais
dans un système d’unités locales liées à l’observateur, tout en conservant un repère euclidien plus global choisi
arbitrairement?
Face à cette abstraction, l’enseignement ne correspond plus aux attentes de ceux qui cherchent à comprendre.
Pour être intelligibles, les faits doivent être mis en perspective. La logique abstraite en est une approche, mais elle
impose un mode de pensée et une présentation dogmatique de la science. Présentée comme une construction définitive,
dont les bases ne peuvent plus être discutées, la physique devient une science morte ne pouvant être comprise que par
un petit nombre de spécialistes.
Bien au contraire, une présentation dynamique des idées et de leur évolution permettrait de montrer la
cohérence historique des choix successifs, mais aussi l’arbitraire de certains d’entre eux qui pourraient être remis en
cause à la suite de la découverte de nouveaux phénomènes, ou simplement de l’adoption d’un autre formalisme
mathématique.
L’apprentissage correspond alors à une quête de la vérité. Celle-ci deviendrait le résultat de l’intuition des
physiciens qui ont apporté chacun à leur tour, et en fonction de leurs personnalités, une contribution au progrès
291
JS'11, Cnam Paris, 29-30 mars 2011
scientifique. L’étudiant découvrirait également que l’évolution des idées s’est faite d’une façon chaotique, en suivant
une logique bien loin de la rigueur intellectuelle que nous attribuons aux scientifiques.
Au lieu d’être ignorés, les petits faits, inexpliqués par les théories actuelles, regagneraient droit de cité et
reprendraient leur rôle de sentinelles jalonnant les obstacles sur lesquels les construction théoriques actuelles risquent de
buter. La science, redevenue humaine, donc faillible, présentera a nouveau aux jeunes des énigmes à résoudre et
suscitera à nouveau des débats passionnés.
7 - Imaginons le futur :
Que sera réellement la physique du 21° siècle ? Il serait certainement présomptueux de prétendre le savoir
aujourd’hui. Il est toutefois raisonnable de penser que certains grands principes universellement acceptés seront remis
en cause. Bien évidemment, ceci ne se fera qu’en conservant les résultats acquis, mais en leur apportant de nouvelles
explications. Prenons quelques exemples :
La non linéarité des phénomènes physiques :
Le physique du 20° siècle a fait un très large usage d’algèbre linéaire. Les équations de Maxwell sont des
équations linéaires. La transformation de Lorentz est également une transformation linéaire dans l’espace temps. Pour
conserver une apparente linéarité, la relativité générale a utilisé une écriture tensorielle qui ne permet de masquer la non
linéarité des lois physiques qu’au prix de l’abandon de la géométrie euclidienne.
Une expression mathématique des mêmes lois physique est possible sans faire ce sacrifice qui nous coupe de
toutes nos bases mathématiques. Prenons quelques exemples :
La dérive gravitationnelle des horloges :
Nous savons que les horloges subissent une dérive gravitationnelle liée au potentiel gravitationnel. Il est
parfaitement possible de calculer simplement cette dérive sans faire appel au formalisme de la relativité générale. Le
retour à un espace euclidien sous-jacent ne suppose pas le renoncement à l’universalité des lois de la physique,
exprimées en unités locales, dans un élément d’espace-temps lié à l’observateur. En revanche, il permet le respect sans
conditions les autres principes de la physique, et en particulier la conservation de l’énergie, une fois les effets
gravitationnels pris en compte.
Le passage des observations faites à l’aide des ondes électromagnétiques à un repère euclidien sous-jacent peut
alors se faire par une opération de déconvolution analogue à celle que font les géophysiciens à partis des réponses
sismiques des sols.
La courbure des rayons lumineux :
Une fois la dérive des horloges attribuées à une cause physique, la courbure gravitationnelle des rayons
lumineux est un effet aussi banal que la modification apparente de la trajectoire du soleil au crépuscule. Cette courbure
correspond alors à la présence d’un indice de réfraction fonction du potentiel gravitationnel. Cette explication, basée sur
une variation de la constante c des équations de Maxwell, la fameuse vitesse de la lumière, impose alors une non
linéarité de ces équations dans le repère euclidien sous-jacent.
Comment justifier le recours excessif à l’algèbre linéaire au cours de 20° siècle ? Ne serait-il pas plus simple
d’admettre que toutes les lois physiques doivent présenter une dynamique limitée et donc abandonner le recours
systématique à des lois strictement linéaires ? Bien évidemment, comme aujourd’hui, des approximations linéaires de
toutes ces lois continueraient à être utilisées lorsque cela est possible. Ainsi, des modifications gravitationnelles simples
des équations de Maxwell suffiraient à décrire la propagation de la lumière au voisinage des étoiles.
La quantification des valeurs physiques :
La mécanique quantique, initialement appelée mécanique des matrices, a été une très grande innovation. Elle a
conduit au développement d’une physique abstraite dans laquelle certains phénomènes ne peuvent être décrits. Avec des
équations différentielles non linéaires, il sera possible de décrire ces phénomènes:
La quantification des niveaux d’énergie :
Les équations de Maxwell étant maintenant non linéaires, il est tout à fait naturel qu’elles puissent avoir des
solutions stables. Les énergies correspondant à ces solutions stables sont alors nécessairement quantifiées. De plus, les
transitions entre états quantiques, de durée nécessairement longues, totalement ignorées par la mécanique quantique,
doivent pouvoir être étudié.
Les anomalies gravitationnelles :
La théorie de la relativité a prédit l’existence d’ondes gravitationnelles. Si ces ondes gravitationnelles existent,
les champs de gravitationnels pourront être décrits comme une solution particulière d’une équation de propagation.
Comme les champs électromagnétiques, les champs de gravitation doivent alors correspondre à des solutions stables
292
JS'11, Cnam Paris, 29-30 mars 2011
d’équations différentielles non linéaires analogues aux équations de Maxwell modifiées. Ces équations présenteront
alors des solutions stables quantifiées correspondant à la loi de Titius-Bode.
Vers une physique totalement ondulatoire ?
Si nous admettons que tout phénomène physique doit présenter une forme de non-linéarité, nous devons
accepter de considérer que les équations différentielles linéaires ne peuvent correspondre qu’à une approximation du
premier ordre d’une fonction plus complexe.
Au début du 20° siècle, Poincaré pressentait l’apparition d’une nouvelle physique. Au début du 21° siècle,
n’avons nous pas à imaginer à notre tour une nouvelle physique ?
Nous pouvons penser que cette nouvelle physique sera ondulatoire. En effet, nous savons que la propagation
des ondes électromagnétiques dépend du potentiel gravitationnel, les champs de gravitation pouvant être décrits de
façon ondulatoire.
Il serait alors naturel d’admettre qu’électromagnétisme et gravitation correspondent aux trois composantes
d’un champ, deux transverses et une longitudinale intervenant simultanément et décrivent globalement les forces
électromagnétiques et gravitationnelles.
Sur ces bases, une physique totalement ondulatoire dans laquelle toutes les particules seraient des solutions
particulières d’équations différentielles non linéaires, équations des ondes généralisées, prenant en compte les champs
électromagnétiques et le champ de gravitation. Les notions d’onde et de particules seraient ainsi réconciliées.
Bien évidemment, le développement d’une telle physique ne pourra se faire sans mettre en cause certains des
concepts de la physique du 20° siècle. Serait-il pour autant justifié de ne pas explorer ces nouvelles voies ?
7 - Le rêve, source de la créativité :
Les esprits cartésiens que vous êtes vont certainement dire qu’il est très vraisemblable que la physique du 21°
siècle ne se réduira pas à cette vision exclusivement ondulatoire. Il est bien certain que la physique continuera à faire
appel à un ensemble de lois spécifiques adaptées à l’étude des différents phénomènes physiques.
L’optique utilisera bien évidemment la théorie des rayons, les lois de Descartes en associations avec les lois de
Maxwell. L’électricité utilisera la loi d’Ohm, les lois de l’électrostatique et de la magnétostatique.
La thermodynamique classique sera utilisée pour améliorer le fonctionnement des moteurs et processus
industriels. Le formalisme quantique sera utilisé dans l’étude des spectres de rayonnement des corps. On pourrait
multiplier à l’infini ces exemples.
Au 21° siècle, le développement de la physique ne pourra se faire qu’après l’abandon de l’approche abstraite et
dogmatique adopté au siècle dernier.
Ayant pris conscience de la fragilité des bases expérimentales et conceptuelles de la physique moderne, les
étudiants et chercheurs pourront explorer des voies nouvelles. Libre de laisser leur imagination construire, sur les
mêmes faits expérimentaux, des concepts et des représentations concrètes des lois de la physique, ils pourront faire
preuve de créativité.
Bien évidemment, science et science fiction n’étant pas de même nature, leurs rêves devront être en
permanence confrontés aux réalités expérimentales, toutes les explications équivalentes des faits expérimentaux étant
toutefois jugées également recevables.
Les chercheurs, redevenus acteurs, donneront le meilleur d’eux-mêmes. Impliqués dans une science en
perpétuelle évolution et dont ils connaîtront l’histoire, ils n’auront plus l’impression de naître trop tard dans un monde
trop vieux.
Bien évidemment, l’astronomie et l’astrophysique, sciences porteuses depuis toujours d’une capacité à
émerveiller les hommes, joueront dans cette évolution de la physique un rôle essentiel.
293
JS'11, Cnam Paris, 29-30 mars 2011
Références bibliographiques :
1- La Relativité, Poincaré et Einstein, Planck, Hilbert, par Jules Leveugle, 2004.
2- L’état actuel de la science et l’avenir de la physique mathématique, Poincaré Bulletin des sciences mathématiques,
Paris 1904.
3- Ueber das Gesets der Energieverteilung im Normalspectrum, Planck, Annnalen der Physik, Liepzig 1901.
4- On the theory of the Energy Distribution Law of the Normal Spectrum, Planck, 14 December 1900.
5- Sur la théorie des quanta, Poincaré, Journal de Physique, 1912.
6- Analen der Physik, Einstein, Vol 17, 1905, p132.
7- Histoire des télécommunications, Histoire des télécommunications, La maîtrise des phénomènes aléatoires, Pierre
Fuerxer, RSTD, numéro 50, décembre 2000.
8- Histoire des télécommunications, La maîtrise du temps, Pierre Fuerxer, RSTD, numéro 54, décembre 2001.
9- Prequantum Classical Statistical Field Theory, Andrei Khrennikov, Springer Science+Business, décembre 2009.
10- Une nouvelle source de bruit, les systèmes radioélectriques. Pierre Fuerxer Journées scientifiques du CNFRS,, Paris,
les 28 et 29 mars 2006.
11- De très remarquables régularités dans les distributions des planètes et des satellites des planètes, Maurice Allais,
Editions Clément Juglar, septembre 2005.
12- Ecole polytechnique : amphi 0, Philippe Grangier, Roland Lehoucq, 5 mai 2010.
294
Téléchargement