THEORIES DE REDUCTION DYNAMIQUE
Marcel Sabaton -11 Avril 2012
Traduction du document de synthèse de Gian Carlo Ghirardi
« COLLAPSE THEORIES » [1]
Relatif :
1 à l’interprétation de la théorie et de ses ontologies primitives
2 aux problèmes des queues de distribution
3 aux réponses aux critiques
Traduction du document d’Angélo Bassi
« DYNAMICAL REDUCTION MODELS » [2]
Relatif :
4 aux tests expérimentaux
Remarques préliminaires :
- N’étant pas un grand spécialiste de la langue anglaise, la qualité de la
traduction n’est pas garantie
- Dans le paragraphe 4.2 une très grande partie des calculs a été
supprimée, ceux qui souhaitent en prendre connaissance devront se
reporter aux références indiquées.
1 Interprétation de la théorie et son ontologie primitive
Le problème le plus sérieux de la mécanique quantique standard repose dans son succès
extrême en nous disant sur ce que « nous observons » mais en étant fondamentalement
silencieuse sur « ce qu’il en est ». Ce trait spécifique est étroitement relié à l’interprétation
probabiliste du vecteur d’état, combiné avec l’hypothèse de complétude de la théorie.
Notons que ce qui est en discussion est l’interprétation probabiliste, et non le caractère
probabiliste de la théorie. Les théories de réduction dynamique ont aussi un caractère
fondamentalement stochastique, mais, dû à leur caractéristique la plus spécifique, c'est-à-
dire le pilotage du vecteur d’état d’un système physique individuel dans des collecteurs
appropriés et physiquement significatifs, elles tiennent compte d’une interprétation
différente. On pourrait même dire (si on veut éviter qu’elles, comme en théorie standard,
parlent seulement de « ce que l’on trouve ») quelles nécessitent une interprétation
différente, une qui fait son affaire de nos perceptions au niveau macroscopique approprié.
Nos devons admettre que cette opinion n’est pas universellement partagée. En accord avec
les différents auteurs, « les règles du jeu » intégrées dans la formulation précise des
théories GRW et CSL, représentent tout ce qu’il y a à dire au sujet d’elles. Cependant ceci ne
peut pas être l’histoire complète : des contraintes plus strictes et plus précises que celles
purement formelles doivent être imposées pour qu’une théorie puisse être prise au sérieux
comme une description fondamentale des processus naturels (une opinion partagée par
BELL ).Cette requête d’aller au-delà des aspects purement formels d’un schéma théorique a
été désignée comme (la nécessité de spécifier) l’ontologie primitive de la théorie dans un
article récent très intéressant d’Allori. La requête fondamentale de l’ontologie primitive est
qu’elle doit absolument préciser ce que la théorie est fondamentalement.
Ce n’est pas un problème nouveau; il a déjà été mentionné par Bell depuis sa première
présentation de la théorie GRW. Laissez-moi résumer les termes du débat. Etant donné que
la fonction d’onde d’un système à un grand nombre de particules se passe dans un espace
des configurations de « grande dimension », qui nest pas doté d’un sens direct physique
connecté à notre expérience du monde autour de nous, Bell voulait identifier les « beable
locaux » de la théorie, les quantités sur les quelles on peut baser une description de la
réalité perçue dans un espace ordinaire tridimensionnel. Dans le contexte spécifique de
QMSL, Bell suggère que les « sauts GRW » que nous appelons « hints », pourraient jouer ce
rôle. En fait, ils se produisent à des instants précis, dans des positions précises de l’espace
tridimensionnel. Comme l’a suggéré Allori nous désignerons cette position concernant
l’ontologie primitive de la théorie GRW par des « flashs ontologiques ».
Cependant, après, Bell lui-même suggéra que l’interprétation la plus naturelle de la fonction
d’onde dans le contexte de la théorie de réduction dynamique devrait être ce qui décrit la
« densité de matière » dans une configuration d’espace tridimensionnel qui est le cadre
mathématique naturel pour décrire un système de N particules. Certains auteurs ont fait
remarquer de manière appropriée que cette position revient à éviter de s’engager avec
l’ontologie primitive de la théorie et, par conséquent, de laisser flou les connections précises
et significatives, cela permet de relier la description mathématique du déroulement des
processus physiques et notre perception que nous en avons.
L’interprétation qui, dans l’opinion du présent rédacteur, est la plus appropriée pour les
théories de réduction dynamique, a été proposée dans une série d’articles, et a été rapporté
par Allori comme « l’ontologie de densité de masse ». Décrivons brièvement cela.
Tout d’abord de nombreuses investigations ont mis en évidence que QMSL et CSL
nécessitaient une modification, c.à.d. la fréquence de localisation caractéristique des
constituants doit être proportionnelle à la masse caractérisant la particule considérée. En
particulier la fréquence originale du processus de saut f=10-16 s-1 est celle caractérisant les
nucléons tandis que par exemple les électrons doivent subir des sauts à une fréquence 2000
fois plus faible. Avec cette modification, ce que la dynamique non linéaire tâche de rendre
« objectivement défini » est la distribution de masse dans l’univers. Deuxièmement, un
examen critique et profond a rendu évident que le concept de « distance » qui caractérise
l’espace de Hilbert est inapproprié pour expliquer les similarités et les différences entre des
situations macroscopiques. Juste pour donner un exemple convaincant, considérons les trois
états h, h* et t d’une macro système (disons un bloc de matière macroscopique) le premier h
correspond à sa position ici, le second h* a la même localisation que le premier mais un de
ses atomes ou une molécule est dans un état orthogonal à celui de h et le troisième t a le
même état interne que le premier mais dans une localisation différente. Alors, qu’en dépit
du fait que les deux premiers soient indistinguables l’un de l’autre au niveau macroscopique,
tandis que le troisième correspond à une situation différente et directement perceptible, la
distance spatiale de Hilbert entre h et h* est égale à celle entre h et t.
Quand la fréquence de localisation est reliée à la masse de ses constituants, alors en
complète généralité (c.à.d. même quand on a affaire à des corps qui ne sont pas tout à fait
rigides tel un gaz ou un nuage) le mécanisme conduisant à la suppression des superpositions
d’états macroscopiques différents est fondamentalement gouvernée par l’intégrales des
carrés des différences des densités de masse associées au deux états superposés.
Effectivement, dans l’article originel la densité de masse en un point était identifiée comme
sa moyenne sur le volume caractéristique de la théorie, c.à.d. 10-15 cm3 autour de ce point. Il
est cependant facile de se convaincre qu’il n’y a nul besoin de faire ainsi et que la densité de
masse en chaque point, directement identifiée par le vecteur d’état, est la quantité la plus
appropriée sur la quelle baser une ontologie appropriée. En conséquence, nous adoptons
l’attitude suivante : ce que la théorie est au sujet de, qu’est ce qui est réel « là» en un point
donné de l’espace x, c’est seulement un champ, c.à.d. une variable m(x,t) donnée par la
valeur attendue de l’opérateur densité de masse M(x) au point x obtenue en multipliant la
masse de tout type de particules par l’opérateur de densité de nombre pour le type de
particules considérées et sommé sur tous les types de particules qui peuvent être
présentes :
m(x,t)= « F,t/M(x)/F,t »
M(x)=Sumkmka*k(x)ak(x)
Ou F,t est le vecteur d’état caractérisant le système au temps donné et a*k(x) et ak(x) sont
les opérateurs de création et d’annihilation pour un type de particule k au point x.
Il est évident qu’à l’intérieur de la mécanique quantique standard une telle fonction ne peut
être dotée de signification physique objective due à l’occurrence de superpositions linéaires
qui engendrent des valeurs qui ne correspondent pas à ce que nous trouvons dans les
processus de mesure ou que nous percevons. Dans le cas des théories GRW ou CSL, si on
considère seulement les états permis par la dynamique on peut donner une description du
monde en terme de m(x,t), c.à.d. on retrouve une signification physique en relation avec la
réalité physique dans un espace usuel tridimensionnel et temporel. Pour illustrer ce point de
vue crucial nous considérons, d’abord, la situation gênante d’un objet macroscopique dans
la superposition de deux états situés dans deux positions différentes. Nous avons donc
simplement à rappeler que dans un modèle de réduction dynamique relatif à la diminution
des différences de densité de masse la dynamique supprime dans des temps extrêmement
courts les superpositions gênantes de tels états pour retrouver la distribution de masse
correspondant à nos perceptions. Venons en maintenant à un microsystème et considérons
la superposition à poids égal de deux états h et t décrivant une particule microscopique dans
deux positions différentes. Un tel état engendre une distribution de masse correspondant à
½ de la masse de la particule dans les deux régions considérées de l’espace. Ceci semble, à
première vue, contredire ce qui est révélé par un processus de mesure. Mais dans un tel cas
nous savons que la théorie implique que la dynamique conduisant tous les processus
naturels dans GRW assure que chaque fois que l’on essaie de localiser la particule on la
trouvera toujours dans une position définie, c.à.d. une et une seule que les compteurs
Geiger pourraient détecter par le passage d‘un proton et tirer, juste parce quune
superposition « d’un compteur qui a tiré » et « d’un autre qui n’a pas tiré » est
dynamiquement interdite.
Cette analyse montre que l’on peut considérer à tous les niveaux (micro et macro) le champ
m(x,t) comme expliquant «ce qui est la » comme originellement suggéré par Schrodinger
avec son interprétation réaliste du carré de la fonction d’onde d’une particule comme
représentant le caractère « flou » de la masse (ou de la charge) de la particule. Evidemment,
en mécanique quantique standard une telle position ne peut pas être maintenue parce que
les paquets d’ondes diffusent et avec l’écoulement du temps deviennent infiniment
étendus ……. mais cependant plus la fonction d’onde s’est étalée, plus la réaction d’un
détecteur… reste tachetée comme cela a été remarqué de façon appropriée par Bell.
Comme nous espérons l’avoir éclairci, la figure est radicalement différente quand on prend
en compte les nouvelles dynamiques qui réussissent parfaitement à réconcilier les traits
étendus et pointus de la fonction d’onde et le processus de détection respectivement.
Il est aussi extrêmement important d’insister qu’en ayant recours à la quantité m(x,t) on
peut définir une « distance » appropriée entre deux états comme l’intégrale sur l’ensemble
de l’espace tridimensionnel du carré de la différence de m(x,t) pour les deux états donnés,
une quantité qui apparaît être parfaitement appropriée pour baser le concept des états
spatiaux de Hilbert macroscopiquement similaires ou distinguables. A son tour cette
distance peut être utilisée comme base pour définir une correspondance psycho-physique
perceptible dans la théorie.
2. Problème des queues de distribution de la fonction d’onde
Au cours de ces dernières années, il y a eu un débat très vif autour d’un problème qui a son
origine, selon certains auteurs qui l’ont soulevé, dans le fait que quand bien même le
processus de localisation qui correspond à multiplier la fonction d’onde par une gaussienne
plusieurs fois et conduit ainsi à une fonction d’onde fortement piquée autour de la position
du saut, permet néanmoins que la fonction d’onde finale soit différente de zéro sur tout
l’espace. La première critique de cette sorte a été posée par Shimoni et peut être résumée
en une phrase :
« On ne peut tolérer que des queues de distribution dans la fonction d’onde soient si large
que leurs différentes parties peuvent être discriminées par les sens, même si une amplitude
de probabilité très faible leur est attribuée »
Après une localisation d’un système macroscopique, typiquement le pointeur d’un appareil,
son centre de masse sera associé a une fonction d’onde qui est différente de zéro sur tout
l’espace. Si on adopte l’interprétation probabiliste de la théorie standard, cela signifie que
même quand le processus de mesure est terminé, il y a une probabilité non nulle « bien
qu’extrêmement faible » de trouver le pointeur dans une position arbitraire, au lieu d’une
correspondant au résultat enregistré. Ceci est considéré comme inacceptable comme
montrant que le programme de réduction dynamique ne maitrise pas réellement le
problème de macro objectivation.
Statuons immédiatement que le problème (allégué) résulte entièrement de garder inchangé
l’interprétation standard de la fonction d’onde, en particulier en supposant que son module
carré donne la densité de probabilité de la position variable. Cependant, comme cela a été
discuté précédemment, il y a beaucoup plus de raisons de principe sérieuses qui
nécessitent d’abandonner l’interprétation probabiliste et de la remplacer soit par « le flash
ontologique », soit par « l’ontologie de densité de masse ».
Avant d’entrer dans une discussion détaillée de ce point subtil nous devons mieux définir le
problème. Nous ne pouvons pas éviter de faire deux remarques. Supposons que l’on adopte
pour le moment, la position quantique conventionnelle. Nous sommes daccord, qu’à
l’intérieur d’un tel schéma le fait que les fonctions d’onde n’ont strictement jamais de
support spatial compact peut être considéré comme gênant. Cependant c’est un problème
1 / 10 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !